深度學習常見知識點總結

最大池化

池化層也稱下采樣層,會壓縮輸入的特徵圖,一方面減少了特徵,導致了參數減少,進而簡化了卷積網絡計算時的複雜度;另一方面保持了特徵的某種不變性(旋轉、平移、伸縮等)。池化操作主要有兩種,一種是平均池化(Average Pooling),即對鄰域內的特徵點求平均;另一種是最大池化(Max Pooling),即對鄰域內的特徵點取最大。

池化方法特徵提取誤差主要來自兩個部分:一是,鄰域大小受限造成了估計值方差增大;二是,卷積層參數誤差造成了估計均值的偏移。一般來說,在圖像研究領域,對圖像進行平均池化操作能減少第一種誤差,同時更多地保留圖像的背景信息;而另一方面,最大池化能減小第二種誤差,更多地保留紋理信息。因此在進行卷積神經網絡結構設計時,這兩種池化方式往往交替使用。

池化就是去除雜餘信息,保留關鍵信息

跳躍連接(skip connect)

神經網絡的層數加深時, 網絡表現難以提高, 甚至會降低, 原因即熟悉的梯度消散, 使得反向傳播很難訓練到考前的層中. 殘差網絡(ResNet)通過skip connection技巧, 可以解決這個問題, 使得梯度更容易地流動到淺層的網絡當中去.
在這裏插入圖片描述
至於能夠起作用的原因, 可以參見這篇文章: 對ResNet的理解. 簡單概括如下:
在這裏插入圖片描述
就是在深層次中考慮淺層的信息

各種卷積

這篇文章總結得很好:各種卷積層的理解(深度可分離卷積、分組卷積、擴張卷積、反捲積)

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章