原创 解決NoteExpress無法在Word中插入引用文獻

Word中安裝並啓用NoteExpress插件: 按alt+F9顯示文檔中所有隱藏的域代碼,把無用的刪掉,再次按alt+F9隱藏域代碼,然後再插入引文就可以了。

原创 特徵值分解(Eigen Value Decomposition,EVD)、奇異值分解(Singular Value Decomposition,SVD)原理、公式推導及應用

1 正交矩陣&正交變換 正交變換是保持圖形形狀和大小不變的幾何變換,包含旋轉、平移、軸對稱及這些變換的複合形式,正交變換可以保持向量的長度和向量之間的角度不變。特別的,標準正交基經正交變換後仍爲標準正交基。 在有限維的空間中,

原创 【Qt】Qt源碼編譯32位、64位

0 環境配置 Windows 10 Visual Studio 2017 Community Qt 5.15.0-beta4 1 安裝三方庫 需要安裝Python 2.x,不然有些庫會安裝失敗 2 下載源碼 下載地址 下載qt

原创 貝塞爾曲線(Bezier Curve)原理及公式推導

1. 定義 貝塞爾曲線(Bezier curve),又稱貝茲曲線或貝濟埃曲線,是應用於二維圖形應用程序的數學曲線。一般的矢量圖形軟件通過它來精確畫出曲線,貝茲曲線由線段與節點組成,節點是可拖動的支點,線段像可伸縮的皮筋,我們在繪

原创 VTK使用vtkPlaneSource創建棋盤格並顯示

最近做實驗需要用到虛擬棋盤格,嘗試了很多方法,比如用vtkImageCanvasSource2D繪製,但放大容易失真,圖片的話進行spacing設置,用起來比較繁瑣。vtkPlaneSource做這種網格色塊更簡單,只需要設置po

原创 迭代最近點(Iterative Closest Point, ICP)算法

1. 定義 ICP(Iterative Closest Point,迭代最近點)算法是一種迭代計算方法,主要用於計算機視覺中深度圖像的精確拼合,通過不斷迭代最小化源數據與目標數據對應點來實現精確地拼合。已經有很多變種,主要熱點是

原创 移動立方體(Marching Cubes,MC)算法

移動立方體(Marching Cubes)算法是面繪製算法中的經典算法,它是W.Lorensen等人於1987年提出的體素級重建算法,也被稱爲“等值面提取”(Isosurface Extration)算法。 移動立方體算法的主要思

原创 樸素貝葉斯(naive bayes)分類

1. 概念回顧 1.1 條件概率公式 條件概率是指在事件B發生的條件下,事件A發生的概率。條件概率表示爲P(A∣B)P(A|B)P(A∣B),讀作“A在B發生的條件下發生的概率”。若只有兩個事件A、B,那麼有: P(A∣B)=P(

原创 k近鄰(k-nearest neighbor,k-NN)及其實現 - kd樹(k-dimensional tree)

學習整理,部分描述來源於網絡 1. 概述 1.1 定義 k近鄰法(k-nearest neighbor,k-NN)分類算法是數據挖掘分類技術中最簡單的方法之一。所謂K最近鄰,就是k個最近的鄰居的意思,說的是每個樣本都可以用它

原创 神經網絡和反向傳播算法的詳細解釋,深度學習基礎

本文通過以下8個部分來詳細解釋神經網絡的一些基本概念: 模型表示(Model Representation) 模型的數學表示(Model Representation Mathematics) 激活函數(Activation

原创 Markdown、Word中插入公式及序號,並設置公式居中序號右對齊

Markdown裏實現這個功能非常簡單,只需要在公式最後插入\tag{index}即可,其中index爲公式編號。如: S(x)=11+e−x(1) S(x)=\frac{1}{1+e^{-x}} \tag{1} S(x)=1+e

原创 相機標定(二)-畸變校正,張正友標定法

1 一些基本的方程推導 1.1 預定義 定義2D點爲m=[u,v]Tm=[u,v]^Tm=[u,v]T,3D點爲M=[X,Y,Z]TM=[X,Y,Z]^TM=[X,Y,Z]T。用上標~用來表示增廣向量(在最後添加元素1,齊次形式)

原创 羣暉數據庫更新後權限問題導致的無法本地、遠程連接

羣暉服務器更新MariaDB 10數據庫,更新完成後強制要求修改密碼(密碼規則、強度要求變化),改完密碼導致遠程無法連接(Navicat),gogs無法訪問等一系列問題。 這主要是由於mysql的權限問題導致的,用以下命令獲取權限

原创 羅德里格斯(Rodrigues)旋轉公式推導

定義 定義v\pmb{v}vvv是三維空間R3\R^3R3中的一個任意向量,k\pmb{k}kkk是一個單位向量,向量v\pmb{v}vvv繞向量k\pmb{k}kkk旋轉θ\thetaθ角度,則表示旋轉後向量vrot\pmb{

原创 局部響應歸一化(Local Response Normalization,LRN)和批量歸一化(Batch Normalization,BN)的區別

爲什麼要歸一化? 歸一化已成爲深度神經網絡中的一個重要步驟,它可以彌補ReLU、ELU等激活函數無界性的問題。有了這些激活函數,輸出層就不會被限制在一個有限的範圍內(比如tanh的[−1,1][-1,1][−1,1]),而是可以根