機器學習算法總結——logistic regression

定義

  • 解決二分類問題
  • y^=11+ez\hat{y}=\frac{1}{1+e^{-z}},此函數也成爲Sigmoid函數,z = θTX\theta^{T}X

代價函數

  • L=ylogy^(1y)log(1y^)L=-ylog\hat{y}-(1-y)log(1-\hat{y}),y爲實際值,y^\hat{y}爲預測值
  • 損失轉化爲分段函數,即爲 L={log(y^),y=1log(1y^),y=0L= \left\{\begin{matrix} -log(\hat{y}), y=1 \\ -log(1-\hat{y}),y=0 \end{matrix}\right.

梯度下降求得最優解

  • θjα1m(y^y)xjθj\theta _{j}-\alpha \sum_{1}^{m}(\hat{y}-y)x_{j}\rightarrow \theta _{j}
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章