介紹
邏輯迴歸(Logistic Regression)是機器學習中一種應用非常廣泛的分類預測算法,而且簡單。工業中廣泛應用LR算法,例如CTR預估,推薦系統等。邏輯迴歸模型的預測函數爲:
hw,b(x)=1+e−(wTx+b)1
其中w,b爲模型參數。
Sigmoid函數
首先f(x)=sigmoid(x)=1+e−x1的定義域爲R,值域爲(0,1),兩端不可取。sigmoid(x)關於點(0,21)對稱。其函數圖爲:
而且非常重要的一點,sigmoid(x)′=sigmoid(x)(1−sigmoid(x))。
LR模型
考慮二分類任務,y∈{0,1},有:
P(y=1∣x;w,b)=1+e(wTx+b)e(wTx+b)
P(y=0∣x;w,b)=1+e(wTx+b)1
考慮到w是一個向量,我們令Θ=(w1,w2,w3,w4,...,b),表示的是樣本每一個屬性xj的權重。相應的,x=(x1,x2,x3,x4,...,1),則模型預測函數可以改寫成:
hθ(x)=1+e−(ΘTx)1
然後,我們用極大似然估計法來估計模型參數Θ,有:
L(Θ)=−m1i=1∑m(y(i)log(hθ(x(i)))+(1−y(i))log(1−hθ(x(i))))
則我們的優化目標是找到能使目標函數最小的參數:
Θ^=argminL(Θ)
參數估計
LR的目標函數是關於Θ的凸函數,並且連續可導,這裏可以採用梯度下降來求解其最優解:
∂Θj∂L(Θ)=−m1i=1∑m(y(i)hθ(x(i))1−(1−y(i))1−hθ(x(i))1)∂Θj∂hθ(x(i))=−m1i=1∑m(y(i)−hθ(x(i)))xj
則每次梯度下降更新參數:
Θj=Θj+m1i=1∑m(y(i)−hθ(x(i)))xj