深度神經網絡-初始化+訓練-工程經驗

以下內容來源:https://blog.csdn.net/liyaohhh/article/details/77165483
如果激活函數使用sigmoid和tanh,怎最好使用xavir

tf.contrib.layers.xavier_initializer_conv2d


如果使用relu,則最好使用he initial

tf.contrib.layers.variance_scaling_initializer

發佈了54 篇原創文章 · 獲贊 25 · 訪問量 17萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章