keras.optimizers.SGD(lr=0.01, momentum=0.0, decay=0.0, nesterov=False)
-lr
: 學習率
- momentum
: 梯度下降中一種常用的加速技術,控制參數更新時每次的下降幅度
- decay
:每次更新時學習率衰減量
- nesterov
:是否應用Nesterov momentum
keras.optimizers.SGD(lr=0.01, momentum=0.0, decay=0.0, nesterov=False)
-lr
: 學習率
- momentum
: 梯度下降中一種常用的加速技術,控制參數更新時每次的下降幅度
- decay
:每次更新時學習率衰減量
- nesterov
:是否應用Nesterov momentum