邏輯迴歸和線性迴歸的異同點
如果你光說名詞相近,那面試官就要打你了。
不同點
邏輯 迴歸與線性迴歸最大的區別,即邏輯迴歸中的因變量爲離散的,而線性迴歸中的 因變量是連續的。並且在自變量x與超參數θ確定的情況下,邏輯迴歸可以看作廣 義線性模型(Generalized Linear Models)在因變量y服從二元分佈時的一個特殊情 況;而使用最小二乘法求解線性迴歸時,我們認爲因變量y服從正態分佈。
相同點
首先我們可以認爲二者都使用了 極大似然估計來對訓練樣本進行建模。線性迴歸使用最小二乘法,實際上就是在 自變量x與超參數θ確定,因變量y服從正態分佈的假設下,使用極大似然估計的一個化簡;
的學習,得到最佳 參數θ。另外,二者在求解超參數的過程中,都可以使用梯度下降的方法,這也是 監督學習中一個常見的相似之處。