[論文筆記]Distilling With Residual Network for Single Image Super Resolution
閱讀材料:DPN1 DPN2 pytorch code ResnetXt
1.Abstract
近年來,深卷積神經網絡(cnn)在單幅圖像超分辨率方面取得了顯著進展,但是,盲目地利用residual結構和dense結構從LR圖像中提取特徵,會導致網絡臃腫,訓練困難。爲了解決這些問題,我們提出了一種簡單有效的distilling with residual network((DRN)。
我們的主要貢獻有三方面:
- 我們提出了residual distilling block(RDB),它享有ResNet和distills efficient imformation的優點。它可以融合共同的特徵,同時保持提取重要特徵的能力。
- 該方法網絡參數少,網絡結構簡單,易於遞歸。它是一個緊湊的網絡,在性能和型號大小之間有很大的權衡。
- 提出了一種簡單有效的殘差網絡(DRN)提取高質量圖像SR的方法。
2. Distilling With Residual Network
2.1 Network Architecture
如圖3所示,論文提出的DRN主要包括三個部分:
- low-level feature extraction(LFE)
- residual distilling groups(RDGs)
- image reconstruction(IR)
2.2 Residual Distilling Group
其中表示爲的RDG操作,是第g個的RDG的輸入和輸出。不受限制地使用residual distilling會使通道數增加很大的數量,因此,我們設置了1×1卷積與ELU,以減少通道數。最後g相當於G,所以
2.3 Residual Distilling Block
LR圖像具有豐富的低頻信息,但是沒有HR圖像中存在的高頻信息。因此,我們需要提取LR信息並生成高頻信息。在論文DPN中發現殘差學習中的聯繫是消除深層網絡中梯度消失現象的有效途徑。所以在每個RDB中,我們設計了殘差提取作爲基本卷積,即當信道執行殘差運算時,它同時提取出新的信道。該信道由殘差操作,儘可能地保留輸入信息,新的distilled channel包含有用的特徵,有利於產生高頻信息。
通過這樣的一個操作,局部的殘差信息被這樣的殘差操作所提取出來,並且網絡仍然是學習新特性靈活性的一條distilled path。我們都知道,在高像素向低像素轉換是一個信息丟失的過程,因此,resiudal distilling 幫助我們的神經網絡通過潛在的信息來提取有用的特徵。
We steak K resiudal distilling blocks(RDB) in each RDG. So the k-th resiudal distilling block in g-th RDG, can be expressed as:(猜測:圖4中左邊的,正確是不是應該爲???)
其中代表k-th RDB function。
最後,我們可以得到, g-th RDG的輸出爲:
(where Fp denotes the compression using 1×1 convolution with ELU, andis the output of g-th RDG when k is
K)
2.4 Image Reconstruction
對於upscaling modules可以有方法deconvolution layer, nearest-neighbor upsampling convolution and pixelshuffle proposed by ESPCN。但是隨着upscaling factor的增加,網絡將存在一些不確定的訓練問題。隨着網絡的訓練,反捲積的權重會改變。此外,這些方法不能適用於奇數提升因子。
基於以上的情況,我們選擇 pixelshuffle 作爲 upscaling module。如表1.
2.5. Loss function
在超分辨率領域有很多可用的loss函數,如MSE,mean absolute loss,perceptual and adversarial loss。由於在MSE損失的情況下,神經網絡生成不符合人類視覺的圖像,所以我們使用MAE loss:
(where N denotes the number of training samples in each batch. is the reconstructed HR image. denotes the
ground truth HR image.)