# caffe train --solver=*_slover.prototxt
在Deep Learning中,往往loss function是非凸的,沒有解析解,我們需要通過優化方法來求解。solver的主要作用就是交替調用前向(forward)算法和後向(backward)算法來更新參數,從而最小化loss,實際上就是一種迭代的優化算法。
到目前的版本,caffe提供了六種優化算法來求解最優參數,在solver配置文件中,通過設置type類型來選擇。
- Stochastic Gradient Descent (
type: "SGD"
), - AdaDelta (
type: "AdaDelta"
), - Adaptive Gradient (
type: "AdaGrad"
), - Adam (
type: "Adam"
), - Nesterov’s Accelerated Gradient (
type: "Nesterov"
) and - RMSprop (
type: "RMSProp"
)
具體的每種方法的介紹,請看本系列的下一篇文章, 本文着重介紹solver配置文件的編寫。
Solver的流程:
1. 設計好需要優化的對象,以及用於學習的訓練網絡和用於評估的測試網絡。(通過調用另外一個配置文件prototxt來進行)
2. 通過forward和backward迭代的進行優化來跟新參數。
3. 定期的評價測試網絡。 (可設定多少次訓練後,進行一次測試)
4. 在優化過程中顯示模型和solver的狀態
在每一次的迭代過程中,solver做了這幾步工作:
1、調用forward算法來計算最終的輸出值,以及對應的loss
2、調用backward算法來計算每層的梯度
3、根據選用的slover方法,利用梯度進行參數更新
4、記錄並保存每次迭代的學習率、快照,以及對應的狀態。
接下來,我們先來看一個實例:
- net: "examples/mnist/lenet_train_test.prototxt"
- test_iter: 100
- test_interval: 500
- base_lr: 0.01
- momentum: 0.9
- type: SGD
- weight_decay: 0.0005
- lr_policy: "inv"
- gamma: 0.0001
- power: 0.75
- display: 100
- max_iter: 20000
- snapshot: 5000
- snapshot_prefix: "examples/mnist/lenet"
- solver_mode: CPU
接下來,我們對每一行進行詳細解譯:
- net: "examples/mnist/lenet_train_test.prototxt"
也可用train_net和test_net來對訓練模型和測試模型分別設定。例如:
- train_net: "examples/hdf5_classification/logreg_auto_train.prototxt"
- test_net: "examples/hdf5_classification/logreg_auto_test.prototxt"
- test_iter: 100
- test_interval: 500
- base_lr: 0.01
- lr_policy: "inv"
- gamma: 0.0001
- power: 0.75
lr_policy可以設置爲下面這些值,相應的學習率的計算爲:
-
- - fixed: 保持base_lr不變.
- - step: 如果設置爲step,則還需要設置一個stepsize, 返回 base_lr * gamma ^ (floor(iter / stepsize)),其中iter表示當前的迭代次數
- - exp: 返回base_lr * gamma ^ iter, iter爲當前迭代次數
- - inv: 如果設置爲inv,還需要設置一個power, 返回base_lr * (1 + gamma * iter) ^ (- power)
- - multistep: 如果設置爲multistep,則還需要設置一個stepvalue。這個參數和step很相似,step是均勻等間隔變化,而multistep則是根據 stepvalue值變化
- - poly: 學習率進行多項式誤差, 返回 base_lr (1 - iter/max_iter) ^ (power)
- - sigmoid: 學習率進行sigmod衰減,返回 base_lr ( 1/(1 + exp(-gamma * (iter - stepsize))))
multistep示例:
- base_lr: 0.01
- momentum: 0.9
- weight_decay: 0.0005
- # The learning rate policy
- lr_policy: "multistep"
- gamma: 0.9
- stepvalue: 5000
- stepvalue: 7000
- stepvalue: 8000
- stepvalue: 9000
- stepvalue: 9500
接下來的參數:
- momentum :0.9
- type: SGD
- weight_decay: 0.0005
- display: 100
- max_iter: 20000
- snapshot: 5000
- snapshot_prefix: "examples/mnist/lenet"
還可以設置snapshot_diff,是否保存梯度值,默認爲false,不保存。
也可以設置snapshot_format,保存的類型。有兩種選擇:HDF5 和BINARYPROTO ,默認爲BINARYPROTO
- solver_mode: CPU
注意:以上的所有參數都是可選參數,都有默認值。根據solver方法(type)的不同,還有一些其它的參數,在此不一一列舉。