原创 解決NoteExpress無法在Word中插入引用文獻
Word中安裝並啓用NoteExpress插件: 按alt+F9顯示文檔中所有隱藏的域代碼,把無用的刪掉,再次按alt+F9隱藏域代碼,然後再插入引文就可以了。
原创 特徵值分解(Eigen Value Decomposition,EVD)、奇異值分解(Singular Value Decomposition,SVD)原理、公式推導及應用
1 正交矩陣&正交變換 正交變換是保持圖形形狀和大小不變的幾何變換,包含旋轉、平移、軸對稱及這些變換的複合形式,正交變換可以保持向量的長度和向量之間的角度不變。特別的,標準正交基經正交變換後仍爲標準正交基。 在有限維的空間中,
原创 【Qt】Qt源碼編譯32位、64位
0 環境配置 Windows 10 Visual Studio 2017 Community Qt 5.15.0-beta4 1 安裝三方庫 需要安裝Python 2.x,不然有些庫會安裝失敗 2 下載源碼 下載地址 下載qt
原创 貝塞爾曲線(Bezier Curve)原理及公式推導
1. 定義 貝塞爾曲線(Bezier curve),又稱貝茲曲線或貝濟埃曲線,是應用於二維圖形應用程序的數學曲線。一般的矢量圖形軟件通過它來精確畫出曲線,貝茲曲線由線段與節點組成,節點是可拖動的支點,線段像可伸縮的皮筋,我們在繪
原创 VTK使用vtkPlaneSource創建棋盤格並顯示
最近做實驗需要用到虛擬棋盤格,嘗試了很多方法,比如用vtkImageCanvasSource2D繪製,但放大容易失真,圖片的話進行spacing設置,用起來比較繁瑣。vtkPlaneSource做這種網格色塊更簡單,只需要設置po
原创 迭代最近點(Iterative Closest Point, ICP)算法
1. 定義 ICP(Iterative Closest Point,迭代最近點)算法是一種迭代計算方法,主要用於計算機視覺中深度圖像的精確拼合,通過不斷迭代最小化源數據與目標數據對應點來實現精確地拼合。已經有很多變種,主要熱點是
原创 移動立方體(Marching Cubes,MC)算法
移動立方體(Marching Cubes)算法是面繪製算法中的經典算法,它是W.Lorensen等人於1987年提出的體素級重建算法,也被稱爲“等值面提取”(Isosurface Extration)算法。 移動立方體算法的主要思
原创 樸素貝葉斯(naive bayes)分類
1. 概念回顧 1.1 條件概率公式 條件概率是指在事件B發生的條件下,事件A發生的概率。條件概率表示爲P(A∣B)P(A|B)P(A∣B),讀作“A在B發生的條件下發生的概率”。若只有兩個事件A、B,那麼有: P(A∣B)=P(
原创 k近鄰(k-nearest neighbor,k-NN)及其實現 - kd樹(k-dimensional tree)
學習整理,部分描述來源於網絡 1. 概述 1.1 定義 k近鄰法(k-nearest neighbor,k-NN)分類算法是數據挖掘分類技術中最簡單的方法之一。所謂K最近鄰,就是k個最近的鄰居的意思,說的是每個樣本都可以用它
原创 神經網絡和反向傳播算法的詳細解釋,深度學習基礎
本文通過以下8個部分來詳細解釋神經網絡的一些基本概念: 模型表示(Model Representation) 模型的數學表示(Model Representation Mathematics) 激活函數(Activation
原创 Markdown、Word中插入公式及序號,並設置公式居中序號右對齊
Markdown裏實現這個功能非常簡單,只需要在公式最後插入\tag{index}即可,其中index爲公式編號。如: S(x)=11+e−x(1) S(x)=\frac{1}{1+e^{-x}} \tag{1} S(x)=1+e
原创 相機標定(二)-畸變校正,張正友標定法
1 一些基本的方程推導 1.1 預定義 定義2D點爲m=[u,v]Tm=[u,v]^Tm=[u,v]T,3D點爲M=[X,Y,Z]TM=[X,Y,Z]^TM=[X,Y,Z]T。用上標~用來表示增廣向量(在最後添加元素1,齊次形式)
原创 羣暉數據庫更新後權限問題導致的無法本地、遠程連接
羣暉服務器更新MariaDB 10數據庫,更新完成後強制要求修改密碼(密碼規則、強度要求變化),改完密碼導致遠程無法連接(Navicat),gogs無法訪問等一系列問題。 這主要是由於mysql的權限問題導致的,用以下命令獲取權限
原创 羅德里格斯(Rodrigues)旋轉公式推導
定義 定義v\pmb{v}vvv是三維空間R3\R^3R3中的一個任意向量,k\pmb{k}kkk是一個單位向量,向量v\pmb{v}vvv繞向量k\pmb{k}kkk旋轉θ\thetaθ角度,則表示旋轉後向量vrot\pmb{
原创 局部響應歸一化(Local Response Normalization,LRN)和批量歸一化(Batch Normalization,BN)的區別
爲什麼要歸一化? 歸一化已成爲深度神經網絡中的一個重要步驟,它可以彌補ReLU、ELU等激活函數無界性的問題。有了這些激活函數,輸出層就不會被限制在一個有限的範圍內(比如tanh的[−1,1][-1,1][−1,1]),而是可以根