keras學習----SGD

keras.optimizers.SGD(lr=0.01, momentum=0.0, decay=0.0, nesterov=False)

-lr : 學習率
- momentum : 梯度下降中一種常用的加速技術,控制參數更新時每次的下降幅度
- decay :每次更新時學習率衰減量
- nesterov :是否應用Nesterov momentum

發佈了39 篇原創文章 · 獲贊 40 · 訪問量 8萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章