轉載:機器學習中正則化項L1和L2的直觀理解

轉自:此處

對於機器學習中常碰到的正則化L1和L2一直比較模糊,偶然看到了一篇比較好的博客分享給大家。對原文我精簡了下要點,同時文章底下的評論內容也可以看看解答自己的疑惑。

  • L1正則化 和 L2正則化,或者說 L1範數 和
    L2範數,常見機器學習的損失函數末尾,也就是懲罰項,說白了就是加上一個條件限制,限制某些參數的權重取值。
  • 對於線性迴歸模型,使用L1正則化的模型建叫做Lasso迴歸,使用L2正則化的模型叫做Ridge迴歸(嶺迴歸)。
  • L1正則化是指權值向量w中各個元素的絕對值之和,通常表示爲||w||1;L2正則化是指權值向量w中各個元素的平方和然後再求平方根(如Ridge迴歸的L2正則化項有平方符號),通常表示爲||w||2,一般會在正則化前加上一個係數a,由用戶自己定義。
  • 正則化的具體作用是什麼?答案有兩點:(在原文有詳細的解釋這兩點內容)*
    L1正則化可以產生稀疏權值矩陣,即產生一個稀疏模型,可以用於特徵選擇*;
    L2正則化可以
    防止模型過擬合**(overfitting);一定程度上,L1也可以防止過擬合。

————————————————
版權聲明:本文爲CSDN博主「阿拉丁喫米粉」的原創文章,遵循 CC 4.0 BY-SA 版權協議,轉載請附上原文出處鏈接及本聲明。
原文鏈接:https://blog.csdn.net/jinping_shi/article/details/52433975

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章