卷積神經網絡(CNN)近年來取得了長足的發展,是深度學習中的一顆耀眼明珠。CNN不僅能用來對圖像進行分類,還在圖像分割(目標檢測)任務中有着廣泛的應用。CNN已經成爲了圖像分類的黃金標準,一直在不斷的發展和改進。
劉昕博士總結了CNN的演化歷史,如下圖所示:
CNN的起點是神經認知機模型,此時已經出現了卷積結構,經典的LeNet誕生於1998年。然而之後CNN的鋒芒開始被SVM等模型蓋過。隨着ReLU、dropout的提出,以及GPU和大數據帶來的歷史機遇,CNN在2012年迎來了歷史突破:AlexNet。隨後幾年,CNN呈現爆發式發展,各種CNN模型涌現出來。
CNN的主要演進方向如下:
1、網絡結構加深
2、加強卷積功能
3、從分類到檢測
4、新增功能模塊
下圖是CNN幾個經典模型(AlexNet、VGG、NIN、GoogLeNet、ResNet)的對比圖,可見網絡層次越來越深、結構越來越複雜,當然模型效果也是越來越好:
本博客通過一系列的“大話深度學習”文章,全面詳細地介紹了CNN進化史各個階段的里程碑成果。
1、小白講卷積:大話卷積神經網絡(CNN)
2、卷積初嘗試:大話CNN經典模型 LeNet
3、歷史の突破:大話CNN經典模型 AlexNet
4、網絡再加深:大話CNN經典模型VGGNet
5、增強卷積功能:大話CNN經典模型GoogLeNet
6、從分類到目標檢測:大話目標檢測模型(R-CNN、Fast R-CNN、Faster R-CNN)
7、網絡深度創歷史:大話深度殘差網絡(ResNet)
要真正深入瞭解學習這些CNN經典模型,最好的辦法是仔細閱讀相應的論文。歡迎關注公衆號“大數據與人工智能Lab”(BigdataAILab),裏面收集整理了CNN各種模型的經典論文
關注本人公衆號“大數據與人工智能Lab”(BigdataAILab),然後回覆“論文”關鍵字可在線閱讀經典論文的內容。