[NAS-AutoAug]AutoAugment: Learning Augmentation Strategies from Data

論文鏈接:AutoAugment: Learning Augmentation Strategies from Data
CVPR 2019


論文設計了自動搜索數據增強策略的方法。在限定的數據增強的搜索空間中採樣出數據增強policy。根據policy對圖像進行變換後輸入訓練 ,把驗證集的acc作爲reward信息反饋給增強學習算法,不斷交互,獲取最好效果的policy。

(1)直接在數據集上搜索
(2)policy遷移到其他數據集也有效(將imagenet policy遷移到FGVC、Stanford Cars 和 FGVC Aircraft)

論文:從數據中學習數據增強策略的方法原則上可以用於任何數據集,而不僅僅是一個數據集。


搜索算法

增強學習controller RNN:有30 softmax predictions,controller使用policy gradient更新。controller RNN:一層100 個隱藏單元的LSTM,對兩個卷積層2 × 5B個預測(B通常是5)
訓練算法: PPO
採樣增強策略: SSSS包含圖像處理的操作、在每個batch使用操作的概率以及操作的程度。使用SS策略,訓練固定的網絡,得到驗證acc RR被用於更新controller,
the controller samples about 15,000 policies.

在這裏插入圖片描述


搜索空間

搜索空間: 一個策略包含5個子策略,每個子策略由兩個操作組成。
每個操作有兩個相關超參:選擇操作的概率,操作的程度
下圖展示了一個包含5個子策略的策略應用的例子。注意操作順序
在這裏插入圖片描述
實驗中的操作都來自PIL庫,增加了兩張額外的數據增強Cutout、SamplePairing,aug操作。Identity操作通過prob爲0,隱式調用。
在這裏插入圖片描述

一共16種操作(x/y是兩個操作),每個操作都有默認範圍的程度數值,將連續範圍的程度值等間距的離散化爲10個數,將操作的概率離散化爲11個數,所以每個子策略的搜索空間大小(16×10×11)2(16\times 10\times 11)^2,因爲搜索包含5哥子策略,總空間大小(16×10×11)102.9×1032(16\times 10\times 11)^{10} \approx 2.9\times 10^{32}


Result

在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述
policy遷移
在這裏插入圖片描述


該方法類似暴力搜索,但還是限制了很多條件,例如搜索時候只選了5個sub-policy 串連。就算這樣訓練依然需要大量時間(基本都是幾千甚至幾萬GPU hours),因爲對於每個數據集需要採樣非常多的數據增廣策略。因此只能使用小數據集(reduced CIFAR-10)。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章