單元線性迴歸
定義
- 假設目標值與特徵之間線性相關: y=wx+b
- 其中y爲預期值
損失函數
- 假設有n對數據,則損失函數:L=n1∑1n(yi−y)2,即MSE
求解最小化L時,w與b的值
方法一:最小二乘參數估計
- ∂w∂L=n2(w∑1nxi2+∑1nxi(b−yi))
- ∂b∂L=n2(∑1n(wxi+b−yi))
梯度下降
- 梯度下降核心內容是對自變量進行不斷的更新(針對w和b求偏導),使得目標函數不斷逼近最小值的過程
- w−α∂w∂L→w
- b−α∂b∂L→b
- 其中α爲learning rate。若α太小,則收斂很慢;若太大,可能導致不能收斂
- 注意:此方法可能收斂到局部最小化
- w與b要同時更新。不能:先更新w,再求偏導b,最後更新b
多元線性迴歸
定義
假設目標值與特徵之間線性相關: y=θ3x3+θ2x2+θ1x1+θ0 = ΘTX
梯度下降,同上
特徵規格化
- 在使用梯度下降時,爲了時收斂更快,可以轉換特徵在相似的規模上,比如,0 - 1,-3 - +3。(x-avg)/(max - min)
最後解得特徵爲:Θ=(XTX)−1XTy, y爲已知值
若已知向量不可逆,可能是有冗餘的特徵,也可能是特徵數量太多了