SR競賽準備

2019/11/3

沒想到都到了做比賽的第五天了,今天開組會仔細討論了一下超分的算法,有一個好的想法是基於UNET的,在這裏可以先記錄一下,
基本上理清楚了思路之後我想還是考慮一下訓練應該怎麼設計。

2019/11/2:

考慮了半天使用lmdb格式真的不利用現在的數據加載,暫時放棄,想可視化一下網絡,發現batch-size=1都超出了內存,仔細看了一下發現網絡太複雜了,圖片太大,對應的參數太多,源程序訓練都是把大圖片切成小圖片訓練的,閱讀論文DBPN,主要弄清楚Back Projection的原理, 查看了一下89年的論文,Improving Resolution by Image Registration,大概懂了反向Back Projection 方法在這裏插入圖片描述
關於DBPN的加強算法D-DBPN感覺DenseNet網絡真的很適用於高分辨圖像,不錯的idea
使用的是adam算法,lr設置爲1e-4,這樣就意味着調參會很隨意,後面肯定要給他改寫成Range算法

查看了一下這篇論文用的數據集DIV2K數據集,其實總共只有1000張圖片,用於訓練圖片只有800張,每張圖片大小197601080,做4倍超分的話每張是490270,做32*32切割,一張圖片可以被切割成130張,即所有大圖片訓練一遍是104000張圖片,由於每次batch-size爲20,總過訓練了10610^6次,這樣的話相當於把整個大圖片數據集跑了200 = (10610^6*20)/(104000)遍左右,

比賽中的視頻,中間很多場景是重複的,所以理論上就是3秒就那麼幾個場景,所以我們根本不需要訓練很多遍,只要訓練幾遍就行了,大部分都是重複訓練和epoch增加是一個道理,一張測試集的大圖片可以切成288小圖片,假設一個視頻平均有5幀是關鍵幀那訓練總共就是說訓練700.5.288爲一輪,就是走一遍全體數據集,相當於正常情況走了25次數據集
基本上理解了爲什麼要用視頻超分了,就是超分加上檢測關鍵幀

研究整體網絡結構:
首先圖片送入網絡做一層簡單的cnn

2019/10/31:

跑第一個代碼DBPN
做完dataset部分,但是是對文件的直接加載,所以訓練速度比較慢,可以使用lmdb格式進行改寫
多線程對數據集視頻整理成圖片
ans:對SR問題怎麼進行數據增強
跑代碼的過程中發現:不像原版DenseNets,我們避免使用dropout和batch norm

2019/10/30 :調研文獻:

發佈了20 篇原創文章 · 獲贊 1 · 訪問量 4910
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章