BGD vs SGD vs mini-batch GD

神經網絡中梯度下降,更新權值有多種選擇,BGD,SGD,mini-batch GD

BGD:所有樣本跑一次網絡後,更新權值。這種方式優點是,精確,和loss function對應。缺點就是效率不高,慢

SGD:跑一個樣本更新一次權值,優點:快,缺點:因爲用一個樣本就更新權值,很容易就找不到全局最優解。

mini-batch GD:更新跑一定兩樣本,更新一次權值,結合BGD和SGD綜合考慮。


更詳細的見 

Deep Learning 最優化方法之SGD

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章