論文鏈接:AutoAugment: Learning Augmentation Strategies from Data
CVPR 2019
論文設計了自動搜索數據增強策略的方法。在限定的數據增強的搜索空間中採樣出數據增強policy。根據policy對圖像進行變換後輸入訓練 ,把驗證集的acc作爲reward信息反饋給增強學習算法,不斷交互,獲取最好效果的policy。
(1)直接在數據集上搜索
(2)policy遷移到其他數據集也有效(將imagenet policy遷移到FGVC、Stanford Cars 和 FGVC Aircraft)
論文:從數據中學習數據增強策略的方法原則上可以用於任何數據集,而不僅僅是一個數據集。
搜索算法
增強學習controller RNN:有30 softmax predictions,controller使用policy gradient更新。controller RNN:一層100 個隱藏單元的LSTM,對兩個卷積層2 × 5B個預測(B通常是5)
訓練算法: PPO
採樣增強策略: ,包含圖像處理的操作、在每個batch使用操作的概率以及操作的程度。使用策略,訓練固定的網絡,得到驗證acc 被用於更新controller,
the controller samples about 15,000 policies.
搜索空間
搜索空間: 一個策略包含5個子策略,每個子策略由兩個操作組成。
每個操作有兩個相關超參:選擇操作的概率,操作的程度
下圖展示了一個包含5個子策略的策略應用的例子。注意操作順序
實驗中的操作都來自PIL庫,增加了兩張額外的數據增強Cutout、SamplePairing,aug操作。Identity操作通過prob爲0,隱式調用。
一共16種操作(x/y是兩個操作),每個操作都有默認範圍的程度數值,將連續範圍的程度值等間距的離散化爲10個數,將操作的概率離散化爲11個數,所以每個子策略的搜索空間大小,因爲搜索包含5哥子策略,總空間大小
Result
policy遷移
該方法類似暴力搜索,但還是限制了很多條件,例如搜索時候只選了5個sub-policy 串連。就算這樣訓練依然需要大量時間(基本都是幾千甚至幾萬GPU hours),因爲對於每個數據集需要採樣非常多的數據增廣策略。因此只能使用小數據集(reduced CIFAR-10)。