原创 LR+Sigmod+Softmax+CE

邏輯迴歸LR是機器學習中一種主流的分類模型,主要用於二分類問題。 在這之前,線性迴歸多用來解決迴歸和分類問題,但是在分類問題中表現不佳,其輸出值是不確定範圍的。 LR將線性迴歸模型不確定範圍的輸出值通過Sigmod函數映射到(0,1)之間

原创 BN+LN+GN

Normalization是爲解決數據間獨立同分布問題而提出的,獨立指的是去除特徵之間的關聯性,同分布指的是使所有特徵具有相同的均值和方差,Internal Covariate Shift 指的是源空間和目標空間條件概率一致,但邊緣概率不

原创 GD+Optimize

優化問題的框架,給定一個與參數x有關的目標函數J(x),求使得J(x)最小的參數x。通過不斷向梯度負方向移動參數來求解。 BGD指批量梯度下降,要計算整個Batch中的梯度。優點:容易求得最優解。缺點:速度慢,數據量大時不能行。 SGD指

原创 基於caffe的CNN_訓練+預測_思考記錄(1)

訓練與測試數據集的預處理與製作,對於CNN在訓練時的loss值和預測時的準確度起着至關重要的作用,本節我來介紹如何對數據集進行預處理,並且製作相應的hdf5文件。以我最近的一個項目爲例進行介紹,項目的主要內容是對於輸入圖片進行迴歸,迴歸得

原创 基於caffe的CNN_訓練+預測_思考記錄(2)

在對數據集進行預處理並且製作完成之後,便要開始訓練數據集了,一般情況下CNN的搭建都是參考業內大牛的網絡,或者在大牛的網絡上進行細微的修改,所以對於大多數CNN使用者來說,搭建網絡並非主要任務,最重要的是如何使用網絡。當數據集輸入然後輸出