原创 在anaconda裏面引入keras,報'No module named 'tensorflow.python.eager'錯誤

situation:在anaconda裏面安裝了tensorflow和keras,但是在引入keras庫時,報’No module named 'tensorflow.python.eager’錯誤。 why:原因是keras和t

原创 深度學習第四周--第一課卷積神經網絡

文章目錄聲明前言一、卷積神經網絡1.1、feature二、邊緣檢測(垂直邊緣檢測、水平邊緣檢測)2.1、why2.2、維度2.3、三維圖片的卷積2.3.1、維度三、卷積填充padding和卷積步長3.1、why使用padding3

原创 《終身成長》讀書筆記

簡而言之,看到事情好的一面,找對方法,堅持下去,一直努力。 在對的方向上努力,事半功倍。

原创 深度學習第四周--第一課卷積神經網絡的實現

文章目錄聲明前言一、卷積神經網絡1.1、導入庫1.2、邊界填充1.3、單步卷積1.4、卷積層前向傳播1.5、池化層前向傳播1.6、卷積層的反向傳播1.6.1、計算dA1.6.2、計算dW1.6.2、計算db1.7、池化層的反向傳播

原创 深度學習第二週--第三課tensorflow入門

文章目錄聲明tensorflow入門導入tensorflow庫1.1、線性函數1.2、計算sigmoid計算成本使用獨熱編碼(0、1編碼)初始化爲0和1使用tensorflow構建第一個三層的神經網絡解決的問題2.1、創建plac

原创 深度學習第三課-第一二週機器學習調優通用理論講解

文章目錄聲明前言機器學習策略what正交化指標whathow評估指標和優化指標評估指標優化指標開發集、測試集、驗證集howother模型表現和人的表現whatotherhow深度學習如何進行誤差分析howplanAplanBoth

原创 深度學習第二週--第三課超參數調優、Batch正則化理論

文章目錄前言超參數調試經驗超參數有哪些?參數調優?深層神經網絡中隱藏層的歸一化原理公式batch正則化原理其它原因流程圖softmax分類迴歸問題意義?公式深度學習框架簡介 前言 參考念師。 在本篇文章中,將瞭解機器學習中的超參數

原创 安裝anaconda和TensorFlow並在jupyternotebook使用

打開anaconda navigator,並在environments中create一個新的環境,命名爲TensorFlow,然後在右邊尋找TensorFlow包並且安裝,再依次安裝matplotlib和keras,再進入hom

原创 深度學習第二課--第一週初始化、正則化、梯度校驗

文章目錄聲明開始之前初始化參數讀取並繪製數據初始化爲零隨即初始化抑梯度異常初始化正則化模型讀取並繪製數據集不使用正則化使用正則化使用L2正則化隨即刪除節點梯度校驗一維線性高維 聲明 參考何寬、念師 開始之前 本文中,我們要幹三件事

原创 深度學習第二週--第二課優化算法實戰

文章目錄聲明梯度下降mini-batch梯度下降法具有動量的梯度下降法Adam優化後的梯度下降法測試加載數據集定義模型mini-batch梯度下降測試具有動量的梯度下降測試Adam優化後的梯度下降測試總結 聲明 本文參考何寬、念師

原创 深度學習第二週--第二課優化算法

文章目錄聲明Mini-Bacth梯度下降法對比batch梯度下降、隨機梯度下降、minibatch梯度下降指數加權平均法偏差修正動量梯度下降法RMSProp梯度下降法Adam優化算法學習速率衰減局部最優問題 聲明 本篇文章參考念師

原创 深度學習第二課--第一週理論知識

文章目錄什麼是高偏差/高分差?如何解決高偏差如何解決高分差正則化L2正則化dropout正則化什麼是梯度消失/梯度下降梯度校驗 什麼是高偏差/高分差? 高偏差:如果訓練集和測試集的誤差率都在15%左右,欠擬合,訓練不充分。 高分差