On First-Order Meta-Learning Algorithms
Paper:https://arxiv.org/pdf/1803.02999.pdf
Code:https://github.com/openai/supervised-reptile
Tips:OpenAi的一篇相似MAML的Meta-learning相關的paper。
(閱讀筆記)
1.Main idea
- 目標旨在實現相同分佈的一類任務的少量樣本快速學習。This paper considers meta-learning problems, where there is a distribution of tasks, and we would like to obtain an agent that performs well (i.e., learns quickly) when presented with a previously unseen task sampled from this distribution.
- 類似於first-order MAML,忽略了二階偏微分。並且指出了其實現更爲簡單。
- Reptile的作爲meta-learning的方法,訓練還是和傳統方法很相似。Reptile is so similar to joint training that it is especially surprising that it works as a meta-learning algorithm.
- 做出了first-order MAML和reptile的理論分析。
2.MAML回顧
回顧了MAML相關工作。
目標是求解下式,其中是不同的任務集,是初始參數,是損失函數,表示從任務集抽樣出來訓練的第次的參數更新操作:
是原始訓練任務集,是新任務集。MAML的訓練操作仍然對原始任務集進行訓練,但是其損失函數卻是針對的,如下所示:
找梯度即需對參數求偏導(複合函數求導):
使用恆等操作(對第二項偏微分變爲常量1),得到First-order MAML爲:
即損失下降梯度的方向爲在任務集得到參數的情況下,通過對測試集得到的損失最小化的方向即是外循環的方向。
3.Reptile
- 算法流程如下所示:
注意到可以一次迭代中將進行步後,最後才確定梯度的方向。