Convolutional Neural Networks筆記(三)

Classic networks:
- LetNet-5 1980
- AlexNet
- VGG
ResNet
Inception

LetNet-5

這裏寫圖片描述

AlexNet

這裏寫圖片描述
AlexNet 採用的多GPU運行。

VGG-16

在這之前模型結構中卷積層的輸入圖像都沒有進行Padding。
這裏寫圖片描述
在這裏[CONV 64] * 2 代表有兩個卷積層然後在接後面的池化層。該網絡共有16個權重層(卷積層+全鏈接層)

ResNet

越深的網絡,訓練起來越困難,會遇見梯度消失或者梯度爆炸的問題,所以ResNet 引入了跳躍連接(skip connection)。
ResNet 是由多個 Residual block 構成的,那麼什麼是 Residual block 呢?見下圖。
這裏寫圖片描述
那麼殘差網絡(ResNet)與傳統卷積網絡(Plain Network)相比,效果如何,如圖:

這裏寫圖片描述

對於傳統CNN:理論上,隨着網路層數的增加,訓練誤差應該越來越低,如圖(左下角)綠色實線所示;但是,在實踐中隨着網絡層數的增加,當訓練誤差降低到一定程度後,不但不降低,反而越來越大,如圖(左下角)藍色實線所示。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章