Wide Activation for Efficient and Accurate Image Super-Resolution文章解讀

Wide Activation for Efficient and Accurate Image Super-Resolution

文章地址:https://arxiv.org/abs/1808.08718v1

論文代碼:https://github.com/JiahuiYu/wdsr_ntire2018

 

        最近纔看到這篇文章,我認爲裏面有好多東西還是很不錯的,至少文中不是單純的網絡結構的堆疊。我會適當記錄這篇文章提出的觀點,這些觀點對之後設計網絡有借鑑的意義。

       Instead of adding various shortcut connections, we conjecture that the non-linear ReLUs impede information flow from shallow layers to deeper ones.作者推測非線性ReLU激活函數阻礙了信息從淺層流動至深層,而不是增加各種便捷的跳躍鏈接。

        在殘差超分辨率網絡基礎上,作者展示了在不增加額外的參數和計算的情況下,在ReLU激活函數之前簡單地增加特徵圖的數量能夠顯著地提升超分辨率重建的結果。勝過了使用複雜的跳躍連接和串聯的超分辨率任務,包括SRDenseNet和MemNet。

        上圖是原始的殘差塊結構,下圖是文章給出的結構

 

        左邊的是帶有較寬激活函數的殘差塊,右邊的是帶有較寬激活函數和線性低秩卷積的殘差塊。

 

提出的工作

Wide Activation: WDSR-A

       在沒有增加計算的情況下,主要討論的是在ReLU激活函數的之前增加特徵圖的數量。在殘差塊的前提下,考慮更寬激活函數的效用。很自然的方式就是將特徵圖的通道數增加。然而,它只能證明更多的參數可以帶來更好的性能。因此,在本節中,我們設計我們的SR網絡來研究在使用相同參數和計算預算激活之前寬激活函數的重要性。我們實現寬激活函數的第一步非常簡單。我們對殘差主線映射的特徵圖進行了壓縮,同時在輸入激活函數前對殘差特徵進行了擴展。

       根據EDSR,專門研究了兩層殘差塊。假設殘差連接寬度爲w_{1},殘差塊內激活前寬度爲w_{2}。在激活函數前引入擴張因子r,則w_{2}=w_{1}\times r。在普通殘差網絡中,w_{1}=w_{2},每個殘差塊的參數個數爲2\times w_{1}^{2}\times k^{2}。當我們確定輸入圖像塊的大小時,計算複雜度是參數數量的常數倍。爲了保持相同的計算複雜度w_{1}^{2}=\hat{w_{1}}\times \hat{w_{2}}=r\times \hat{w_{1}}^{2},殘差通路需要作爲因子\sqrt{r}進行壓縮,同時激活函數部分需要作爲因子\sqrt{r}進行擴張。

       這個簡單的想法形成了我們第一個寬激活的SR網絡WDSR-A。實驗表明,當r在2 ~ 4之間時,WDSR-A對提高SISR的精度非常有效。然而,對於大於此閾值的r,性能會迅速下降。這可能是由於殘差路徑的通道變得太窄。例如,在我們的基準EDSR×3超分辨率中,當r大於6時,w_{1}將比最終的HR圖像表示空間S^{2}*3更小,其中S是縮放因子,3表示RGB通道。

       因此,我們尋求參數有效卷積,以進一步提高精度和效率與更廣泛的激活。因此,我們尋求參數有效卷積,以進一步提高寬激活函數的精度和效率。

Efficient Wide Activation: WDSR-B

       爲了解決上述侷限性,我們保持了殘差通路的通道數不變,並探索了更有效的擴展特徵的方法。我們特別考慮1×1的卷積。1×1卷積廣泛用於ResNets、ResNeXts和MobileNetV2中信道數的擴展或減少。在WDSR-B中,我們首先使用1×1來擴展通道數,然後在卷積層之後應用非線性(ReLUs)。進一步提出了一種有效的線性低秩卷積算法,該算法將一個大的卷積核分解爲兩個低秩卷積核。它是一個由一個1×1卷積組成的堆棧,用來減少通道數量,一個3×3卷積用來進行空間方向的特徵提取。我們發現在線性低秩卷積中加入ReLU激活顯著降低了精度,這也支持了寬激活函數的假說。

Weight Normalization vs. Batch Normalization

       在這一部分中,我們主要分析了批量歸一化(BN)和權重歸一化(WN)的不同目的和效果。我們提供了三個直觀的理由,說明爲什麼批量歸一化不適用於圖像SR任務。然後證明了權值歸一化不存在BN有的缺點,並且可以有效地緩解深度SR網絡的訓練難度。

網絡結構

        在EDSR上進行兩個主要的修改,就變成了本文的網絡模型。

全局殘差:

       首先,作者發現全局殘差路徑是由多個卷積層組成的線性堆棧,計算量較大。 作者認爲這些線性卷積是冗餘的(圖2),在一定程度上可以被吸收到殘差塊中。 因此,我們稍微修改網絡結構,使用核大小爲5×5的單層卷積層,直接以3×H×W LR RGB圖像/patch爲輸入輸出對應的3S^{2}\times H\times W的HR,其中S爲尺度。 這減少了參數和計算量。 在我們的實驗中,我們沒有發現任何精度下降與我們的簡單形式。

上採樣層:

       不同於以往的技術,在上採樣後插入一個或多個卷積層。我們提出的WDSR在低分辨率階段提取所有特徵。實驗表明,該方法在提高速度的同時,對SR網絡的精度沒有影響。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章