協方差矩陣的意義

從物理意義上說,就是計算各維度之間的相關性(前提是已經經過白化)。

由於樣本特徵均值白化後爲0,各特徵方差一樣,計算得到的協方差矩陣,其中元素的值越大,則說明對應下標的特徵之間相關性越高。

PCA就是基於這種性質。

對於機器學習領域的PCA來說,如果遇到的矩陣不是方陣,需要計算他的協方差矩陣來進行下一步計算,因爲協方差矩陣一定是方陣,而特徵值分解針對的必須是方陣,svd針對的可以是非方陣情況。

PCA的實現一般有兩種,一種是用特徵值分解去實現的,一種是用奇異值分解(SVD)去實現的。在上篇文章中便是基於特徵值分解的一種解釋。特徵值和奇異值在大部分人的印象中,往往是停留在純粹的數學計算中。而且線性代數或者矩陣論裏面,也很少講任何跟特徵值與奇異值有關的應用背景。奇異值分解是一個有着很明顯的物理意義的一種方法,它可以將一個比較複雜的矩陣用更小更簡單的幾個子矩陣的相乘來表示,這些小矩陣描述的是矩陣的重要的特性。就像是描述一個人一樣,給別人描述說這個人長得濃眉大眼,方臉,絡腮鬍,而且帶個黑框的眼鏡,這樣寥寥的幾個特徵,就讓別人腦海裏面就有一個較爲清楚的認識,實際上,人臉上的特徵是有着無數種的,之所以能這麼描述,是因爲人天生就有着非常好的抽取重要特徵的能力,讓機器學會抽取重要的特徵,SVD是一個重要的方法。


看到一篇文章...........有點道理。
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章