AlexNet 論文
《ImageNet Classification with Deep Convolutional Neural Networks》
AlexNet網絡結構描述
Conv1 :輸入,卷積核大小爲,移動步長爲,數量爲個,輸出;
Relu1:輸出;
Pool1:池化核大小爲,移動步長爲,輸出;
Norm1:local_size =$ 5$,輸出;
Conv2:輸入,卷積核大小爲,移動步長爲,數量爲,輸出;
Relu2:輸出;
Pool2:池化核大小爲,移動步長爲,輸出;
Conv3:輸入,輸出;
Conv4:輸入,輸出;
Conv5:輸入,輸出;
Fc6:個神經元,輸出爲;
Fc7:輸出;
Fc8:輸出;
AlexNet特點
- 成功使用ReLU作爲CNN的激活函數,解決了Sigmoid在網絡較深時的梯度彌散問題。
- 訓練時使用Dropout隨機忽略一部分神經元,以避免模型過擬合。在AlexNet中主要是最後幾個全連接層使用了Dropout。
- 在CNN中使用重疊的最大池化(OverlappingPooling)。此前CNN中普遍使用平均池化,AlexNet全部使用最大池化,避免平均池化的模糊化效果。並且AlexNet中提出讓步長比池化核的尺寸小,這樣池化層的輸出之間會有重疊和覆蓋,提升了特徵的豐富性。
- 提出了LRN(Local ResponseNormalization)層,對局部神經元的活動創建競爭機制,使得其中響應比較大的值變得相對更大,並抑制其他反饋較小的神經元,增強了模型的泛化能力。