Paper Reading: Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks

Paper Reading Note

URL:
https://arxiv.org/pdf/1703.10593.pdf

TL;DR

17年iccv的一篇文章,提出了一種新型的循環對抗網絡,在網絡訓練過程中加入了循環一致損失,使得模型能夠在不使用paired data訓練也能完成圖像翻譯任務。

Motivation

傳統的圖像翻譯任務大多是藉助成對的圖像訓練的模型(pix2pix),如下方左圖所示:
在這裏插入圖片描述
但是這種數據往往很難獲取,現實生活中一般都不具備這類真實數據。如何利用unpaired數據單純進行風格遷移成爲了大家關注的一個問題。

Algorithm

本文的模型框架如下所示(圖片來源cyclegan原理分析):
在這裏插入圖片描述
在這裏插入圖片描述
對於兩個Generator,分別用real_img放入到生成器中,得到的圖像與真實圖像共同訓練Discriminator,與大部分GAN類似:
在這裏插入圖片描述
除此之外,模型又設計了將生成圖像通過另一個生成器,相當於翻譯回來,看與原始圖像的一致性差異:
在這裏插入圖片描述
最後把兩個GAN和循環一致性損失拼起來,得到最終的損失:
在這裏插入圖片描述
模型的目標即是保證判別器足夠好的情況下最小化損失:
在這裏插入圖片描述

Results

在這裏插入圖片描述
看得出來模型效果已經十分不錯了,再大多數任務上能夠完成質量相當高的翻譯任務。
但是在一些任務上模型也沒有完成得很好:
在這裏插入圖片描述
在這裏插入圖片描述
作者在最後解釋了,可能是由於模型由於身份遷移而導致沒有辦法識別不在訓練數據中的身份(把人識別成了馬)。

Thoughts

本文的模型很輕巧,巧妙地通過了兩個gan解決了模型坍塌的問題,可以在img translation中用用。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章