矩陣分析

線性代數

使用到的數學符號:

Ax=b

Ax=b的行視圖(凸優化中的超平面):

列視圖(矩陣列的線性組合):

行視圖和列視圖是從不同的角度去看Ax=b,它們屬於不同的空間。

線性相關與線性無關

Span、基和子空間(Subspace)

一個子空間可以由一組基表示,基的維數是固定的,但是基有無數組

四個基本的子空間

列空間:

兩個向量的所有線性組合構成一個二維平面,是三維空間的子空間,且子空間必過原點,因爲x1,x2可以爲0

零空間:

零空間是所有Ax=b的解的所有線性組合構成的子空間

行空間:

左零空間:

四個基本子空間的關係:

兩個垂直的子空間如 左零空間和列空間,它們的交點只有原點這一個點

注意零空間有可能不存在,比如在滿秩的情況下。

利用子空間重新看待線性方程組的解:

Ax=b方程的解:

  • 只有唯一解,則 b ∈ C(A),N(A)的維數是 0
  • 有無情多解,則 b ∈ C(A),N(A)的維數大於 0
  • 無解,則 b ∉ C(A)
  • 如果有解,解的形式 X = P + V P:特解 V:零空間的解

A * x = A * ( P + V ) = b + 0

特徵分解(凸優化中的重要技術)

特徵值(Eigenvalues)與特徵向量(Eigenvectors)

Ax = λx的幾何意義:

特徵分解的性質:

Ax 相當於是對 x 向量進行了伸縮,也就是 Ax 與 x 共線,這個伸縮的比例就是 A 相對於 x 的特徵值。

對稱矩陣的特徵分解

對於對稱矩陣來說,非零特徵值的個數就是矩陣的秩。

二次型(Quadratic Form)

負定矩陣:< 0

不定矩陣: 對有的向量 > 0 , 的有的向量 < 0

注意,正定矩陣、負定矩陣、不定矩陣等概念都是針對 對稱矩陣 提出的。

那麼,矩陣的正定,負定、不定有什麼用呢?

二次型圖像:

正定矩陣更容易進行函數的優化,找到最優解。

PCA

這裏的Cx,可以理解爲先對數據進行去均值,使得均值爲0,正對角線可以理解爲方差,負對角線可以理解爲協方差

問題: 假設變換矩陣爲Y = QX,並先假設Q是方陣(先不降維),則有:

如何使得Cy是一個對角矩陣?

這裏的Cy相當於協方差矩陣,這個矩陣如何轉變稱對角陣呢?

因爲協方差矩陣是對稱矩陣,可以進行對角化(實對稱矩陣一定可以對角化):

如果有n階矩陣A,其矩陣的元素都爲實數,且矩陣A的轉置等於其本身(aij=aji)(i,j爲元素的腳標),則稱A爲實對稱矩陣

將 Q 換爲 U 的轉置就可以啦。U 是正交陣。

PCA的核心就是: 一個對稱矩陣可以被U對角化

PCA降維舉例

這裏,我們把2行的X,降維稱1行,這裏的特徵值我們取最大值2,因爲方差越大蘊含的信息越多,也可以理解爲這個數據越重要。

圖像表示如下:

這裏降維的操作相當於把離散的點映射到了一條直線上。

SVD(Singular Value Decomposition)萬能矩陣分解

特徵分解的廣義化

這裏的 σ 表示 奇異值

SVD和特徵分解的關係

SVD和子空間的關係

也就是:

SVD 提供了計算四個子空間正交基的一種快速方法

低秩矩陣近似(降維)

奇異值分解比特徵分解更加穩定,兩者的本質是一樣的。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章