【機器學習】邏輯迴歸爲什麼叫"迴歸"

作者:LogM

本文原載於 https://segmentfault.com/u/logm/articles ,不允許轉載~

文章中的數學公式若無法正確顯示,請參見:正確顯示數學公式的小技巧

1. 邏輯迴歸模型

邏輯迴歸模型的公式可以寫作:

$$P(Y=1|x) = \frac{1}{1+e^{-wx}}$$

$$P(Y=0|x) = \frac{e^{-wx}}{1+e^{-wx}}$$

2. 邏輯迴歸的機率

時間的機率(odd)被定義爲:

$$odd = \frac{p}{1-p}$$

所以,對數機率(log odds)或稱 logit 函數爲:

$$logit(p) = log \frac{p}{1-p}$$

帶入邏輯迴歸模型後,有:

$$log \frac{P(Y=1|x)}{1-P(Y=1|x)} = w \cdot x$$

可以發現,對數機率 $logit(p)$ 與 $x$ 是線性關係,所以可以稱作"迴歸"。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章