Paper Reading Note
URL:
https://arxiv.org/pdf/1703.10593.pdf
TL;DR
17年iccv的一篇文章,提出了一種新型的循環對抗網絡,在網絡訓練過程中加入了循環一致損失,使得模型能夠在不使用paired data訓練也能完成圖像翻譯任務。
Motivation
傳統的圖像翻譯任務大多是藉助成對的圖像訓練的模型(pix2pix),如下方左圖所示:
但是這種數據往往很難獲取,現實生活中一般都不具備這類真實數據。如何利用unpaired數據單純進行風格遷移成爲了大家關注的一個問題。
Algorithm
本文的模型框架如下所示(圖片來源cyclegan原理分析):
對於兩個Generator,分別用real_img放入到生成器中,得到的圖像與真實圖像共同訓練Discriminator,與大部分GAN類似:
除此之外,模型又設計了將生成圖像通過另一個生成器,相當於翻譯回來,看與原始圖像的一致性差異:
最後把兩個GAN和循環一致性損失拼起來,得到最終的損失:
模型的目標即是保證判別器足夠好的情況下最小化損失:
Results
看得出來模型效果已經十分不錯了,再大多數任務上能夠完成質量相當高的翻譯任務。
但是在一些任務上模型也沒有完成得很好:
作者在最後解釋了,可能是由於模型由於身份遷移而導致沒有辦法識別不在訓練數據中的身份(把人識別成了馬)。
Thoughts
本文的模型很輕巧,巧妙地通過了兩個gan解決了模型坍塌的問題,可以在img translation中用用。