深度學習-前言

數據量大,數據之間有局部相關性

整體解釋:

1)自下而上的非監督學習

2)自頂向下的監督學習

接下來,在深度學習板塊,我將結合自己找工作時候涉及到的一些深度學習方面的知識進行總結,希望可以對博友們有所幫助。

主要分爲一下及部分進行。

一、       卷積相關問題.

1、卷積

2、什麼時候用local-conv、什麼時候用全卷積

3、可分離卷積模型壓縮?

4、CNN常見問題..

5、Batch-Normalization:(加速訓練)

6、Pooling作用?max-pooling和mean-pooling

7、dropout

8、L1與L2正則化

9、卷積反向傳播過程

7、激活函數(反向求導難易,梯度彌散,網絡稀疏性)

7、ReLU代替 sigmoid 的利弊

10、交叉熵損失、均方誤差損失

11、softmax交叉熵損失函數求導

12、logloss和auc的區別

二、       深度學習調參經驗

三、       卷積實例瞭解

LeNet-5

AlexNet

VGG-16

ResNets

谷歌Inception(GoogLeNet)

四、       迭代優化器的原理.

1、SGD 以及學習率的選擇方法、帶動量的 SGD

2、自適應學習率算法:AdaGrad、RMSProp、Adam

五、       一個簡單的Tensorflow框架下的卷積代碼

接下來,我將從這幾個方面進行博客書寫。

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章