深度學習 比較三種損失函數的使用(交叉熵、平方、絕對值)

注意:yy^*代表的是標籤值僅僅有010、1兩個值,yy是獲得的語義值(softmaxsoftmax後的邏輯值)

交叉熵:

Loss1=ylogyLoss1 = - y^**log^y

  • yy^*爲0時:Loss的值爲0
  • yy^*爲1時:Loss的值爲logy-log^y

平方:

Loss2=y(1y)2Loss2 = y^**(1-y)^2

  • yy^*爲0時:Loss的值爲0
  • yy^*爲1時:Loss的值爲(1y)2(1-y)^2

絕對值:

Loss3=y1y2Loss3 = y^**|1-y|^2

  • yy^*爲0時:Loss的值爲0
  • yy^*爲1時:Loss的值爲1y|1-y|

這是三種求損失函數的表達式

我們可以對這三種損失函數就行求偏導

這樣我們可以得到:

Loss1=yyLoss1' = - \frac{y'}{y}

Loss2=2(1y)yLoss2' = - 2*(1-y)*y'

Loss3=yLoss3' = -y'

通過上面的表達式,我們可以進行比較一下

這三個LossLoss的值在進行梯度下降的時候,其中梯度的變化程度

因爲yy是概率值,是大於0小於1的

所以按照公式進行比較的話,會有如下的答案:

Loss1>Loss3>Loss2Loss1 > Loss3 > Loss2


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章