5、經典CNN網絡
a、lenet:
只有兩個卷積層、兩個池化層、兩個全連接層,結構很簡單。主要用於識別10個手寫郵政編碼數字,5*5卷積核,stride=1,最大池化。
b、alexnet:
結構更加複雜。三個池化、四個卷積層,三個全連接。開啓了卷積學習和深度學習的先河。他的效果比第二名的效果拉開了很大的距離。
c、VGG-16:
進一步增加了網絡的層次(very deep),提出了一種小卷積核的理論。用小卷積核同樣可以達到好的效果,減少了參數,提高了運行速度。
d、resnet-50:
提出了一個殘差的概念。當神經網絡的層數不斷增加,越到後面誤差越小,導致梯度消失,所以引入殘差,把淺層的輸出值進行跳層連接。
機器智能-高頻問題:經典CNN網絡
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章
雙十一,一場數字化大考
酒幹倘賣無
2021-12-25 21:13:24
入職新公司的這幾款開發神器 開發效率真是太高了
原創
2021-08-11 21:17:18
解讀千人千面,洞悉數據智能的價值
原創
2021-03-22 21:35:36
立體視覺入門指南(1):座標系與相機參數
osc_j9bz63ep
2021-02-05 21:13:26
Lionbridge在中國新設遊戲實驗室以拓展其全球測試能力
osc_vpxa23em
2021-01-30 21:09:01
我們的大腦,足以理解大腦本身嗎?
osc_bvincwvq
2021-01-30 10:35:11
AI專家喋喋不休展開爭論 爲什麼說預測是智能的本質
osc_gccs85s0
2021-01-30 10:32:30
最新研究:超級人工智能,從理論上就無法控制
osc_eh3g3bni
2021-01-30 10:30:10
助力智慧城市快速實現規劃建設的利器--城市大腦
原創
2021-01-30 09:47:16
Word2vec_1
Hang-Hang Li
2020-07-07 14:29:43
Worst NSGA-II的大概介紹
silence1214
2020-07-02 08:32:42
機器學習數據預處理階段爲什麼需要——歸一化處理
ATM006
2020-06-21 11:26:52