研究生第一篇英文論文之ON THE EFFECTS OF SKIP CONNECTIONS IN DEEP GENERATIVE ADVERSARIAL MODELS

前言:

前兩天投了人生中的一篇英文的論文(ICME),其實論文的創新的並沒有很多而且數據集單一,就是單論實驗結果還不錯,這篇文章就花了不到兩個周的時間寫作,時間確實有點趕所以完成度不是很高。其實研究生畢業之後也不一定繼續搞科研寫稿子,所以投論文對於我而言中不中其實沒啥關係,主要是練習一下英文寫作,以及能清楚地表達出自己的觀點給出相關的證明即可。ok接下來就介紹一下自己的幾個實驗部分。

 

實驗一:

我們論文中的第一個實驗是提出兩種提高GAN訓練穩定的技巧,(1):循環學習率,原文見此鏈接(2):在條件GAN中類別損失遞減。

 

循環學習率:

深度學習中學習率是一個非常重要的超參,對於這個超參的設置方法有以下三種方式,第一設置一個固定的學習率,第二: 學習率遞減,初始學習率設置一個較大的數,然後隨着一定的步數之後減少到一個固定之後然後保持不變,第三:也是我們論文裏面說的循環學習率,簡而言之是週期性的改變學習率的值,各種比賽中大家都說好,其中的原理可以看一下循環學習率的原文。

 

條件GAN中類別損失遞減:

我們一般使用AC-GAN做條件圖像生成而言,AC-GAN中包含兩個損失函數類別損失和對抗損失,一般情況下論文中對於類別損失設置一個較大的係數,對於對抗損失設置一個較小的係數,這樣做的一個原因是條件生成圖像的時候,訓練前期的時候圖像的無法保證生成的圖像是否爲真,所以更無法判斷類別是否正確,如果我們設置了同樣的係數的話,會導致GAN訓練的很不穩定。但是如果對抗損失設置的較大的話,訓練後期會影響圖像的類別,所以我們提出首先將前期的時候對於對抗損失設置一個較大的係數,但是後期的時候將對抗損失逐漸減小。

 

FID評分:

首先講一下什麼是FID,我啥使用FID做評分以及在我這個數據集上使用FID合不合理,FID是用來計算你生成的圖像和真實圖像差異大不大,PS(粗淺的理解,還是要看原論文人家怎麼說的),首先你把真實數據存放在文件夾1,然後你把生成圖像存放在文件夾2,在然後你使用inception-v3在imagenet上預訓練好的模型得到對應數據集的特徵1,特徵2,最後你套用FID方法,計算特徵1和特徵2差異輸出結果即可。

如我上面說的FID是通過計算兩個數據集之間的特徵,來評價生成圖像的好壞,所以最重要的是你得的這個特徵能表示你的對應的圖像,我用的是動漫數據集而提取特徵的方式我使用的是inception-v3在imagenet上預訓練好的模型,顯然一張動漫圖像經過inception-v3輸出的2048維向量不能表示動漫圖像特徵,但是爲啥我還是用了呢?首先是有篇論文上說可以這樣用用。然後呢從實驗結果直觀上,我也發現生成圖像質量越高的話,FID分數也越小,所以我才這樣用的。

PS一下有篇做動漫生成的論文他是使用在Illustation2vec預訓練好的模型提取的圖像特徵,然後再用FID評分,Illustation2vec這個本身就是在動漫圖像進行訓練的,所以用這個模型提取動漫圖像的特徵完全沒有任何問題,但是我不這樣用的一個原因是Illustation2vec這個使用chair寫的,我不會嗚嗚,總不能讓我直接抄一下人家論文是咋寫的,然後隨便打分吧。

 

實驗結果以及解釋:

第一行是我用的殘差網絡生成的結果,第二行我對鑑別器使用循環學習率的結果,第三行是我使用對抗損失遞減的結果。首先我的預期是使用循環學習率生成結果更好,FID分數更小,這點是符合我的猜想的,對於對抗損失遞減我認爲生成的類別更加好一些,舉個例子吧眼睛顏色要一致,頭髮顏色要更加鮮亮,但是實驗結果其實效果並不明顯,這點其實說明只要對抗損失和類別損失差異不是很大情況下,對生成圖像影響不是很大。

 

 

實驗2:

我們論文的第二個實驗是探究一下殘差網絡爲什麼對圖像生成的影響,殘差網絡首次被提出來是應用圖像分類之上,效果是相當不錯的,對於殘差網絡在圖像分類上爲什麼效果好的解釋有兩個,第一個原論文中的恆等映射,另一個是殘差網絡相當於一個集成模型,殘差網絡能選擇最優的路徑生成圖像。雖然沒有一篇論文專門的講如何在GAN中使用殘差網絡,但是其實已經有很多GAN的論文用到殘差網絡了,具體可以看一下SAGAN, SR-GAN這兩篇論文,但是本文中我們對生成器中的殘差塊做了一點改動如下所示。

 

實驗設置

本節我們分析了一下殘差網絡爲啥有效,我們做了三個實驗,第一個baseline模型是殘差網絡深度爲8,且a=1模型。第一個實驗我們將a設置爲0,也即是殘差塊中只有卷積層也叫Convolution-GANs,第二,三個實驗是我們將a設置成0.1和10,生成結果如下所示。

 

實驗結果分析:

現象一:第一行是a=0的結果,我們發現無論是直觀上還是FID分數上,生成質量都明顯的下降,而且會出現嚴重的模式坍塌 PS在論文中我沒有展示這樣的結果。

現象二:從整體來看我們可以發現提高a的值有利於GAN提高生成結果,且模式坍塌有了一定的解決。

對於這個實驗現象的解釋,我們提出了一個自己觀點:殘差網絡的輸出結果包含兩個結果,第一個是直接skip模塊的輸出,另一個是stacking卷積模塊的輸出,我們認爲skip模塊中包含是圖像的原始特徵,而經過stacking卷積模塊之後提取是圖像主要特徵輸出的範圍有一定的限制。但我們增加skip的係數的時,對於整個殘差塊而且其輸出的範圍更加的大,所以多樣性也會更好。

發佈了99 篇原創文章 · 獲贊 75 · 訪問量 7萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章