原创 linux下獲取目錄及子目錄下所有文件名和路徑

轉自http://www.ahlinux.com/shell/7809.html function ergodic(){ for file in ls $1 do if [ -d 1"/" file ]

原创 win7 安裝matplotlib

一個下午搞完了scikit-learn後,又被這個matplotlib卡住了,後來發現了pip是個好東西,也很方便,以下工作都是在已經安裝好numpy和scipy的情況下進行的 先下載get-pip.py,(很多)以管理員方式打開cmd,

原创 SSD 裏的 atrous

SSD 論文裏提到 Similar to DeepLab-LargeFOV , we convert fc6 and fc7 to convolutional layers, subsample parameters from fc6

原创 python 安裝 feedparser

學習《機器學習實戰》的時候,需要RSS,首先要先安裝feedparser。 書上是這麼說的:   在win7系統下進入cmd,首先配置python環境變量,可以自行搜索具體配置方法。 這裏可以下載feerparser:https://py

原创 Linux 批量修改文件名

原文鏈接 Linux Shell 批量重命名的方法總覽 1、刪除所有的 .bak 後綴: rename ‘s/.bak$//’ *.bak 2、把 .jpe 文件後綴修改爲 .jpg: rename ‘s/.jpe$/.jpg/’ *.j

原创 生成對抗式網絡GAN 的 loss

GAN同時要訓練一個生成網絡(Generator)和一個判別網絡(Discriminator),前者輸入一個noise變量 z ,輸出一個僞圖片數據 G(z;θg) ,後者輸入一個圖片(real image)以及僞圖片(fake ima

原创 softmaxWithLoss Layer

caffe中的softmaxWithLoss其實是: softmaxWithLoss = Multinomial Logistic Loss Layer + Softmax Layer 其中: Multinomial Logist

原创 圖像縮放by雙線性插值

現有300×300 大小的圖像I0,希望將它resize到 400×400 I1。 那麼對於目標圖像I1中的每個像素點來說,應該從原始圖像I0中能找到對應的點來進行賦值。以下公式給出了這種對應關係: srcX=dstX×(srcWid

原创 偏差、方差的權衡(trade-off)

       偏差(bias)和方差(variance)是統計學的概念,剛進公司的時候,看到每個人的嘴裏隨時蹦出這兩個詞,覺得很可怕。首先得明確的,方差是多個模型間的比較,而非對一個模型而言的,對於單獨的一個模型,比如說:

原创 堆和棧的區別

在C++中,內存分成5個區,他們分別是堆、棧、自由存儲區、全局/靜態存儲區和常量存儲區。 棧,就是那些由編譯器在需要的時候分配,在不需要的時候自動清除的變量的存儲區。裏面的變量通常是局部變量、函數參數等。   堆,就是那些由new

原创 caffe 計算 conv 圖解

最後基本上就是Filter Matrix乘以Feature Matrix的轉置,得到輸出矩陣Cout x (H x W),就可以解釋爲輸出的三維Blob(Cout x H x W)。

原创 mxnet 編譯後運行的第一個demo train_mnist.py時的錯誤

OSError: /home/usrname/anaconda2/bin/../lib/libgomp.so.1: version `GOMP_4.0’ not found 其實這個錯誤會在import mxnet時出現,原因是因爲ana

原创 局部加權線性迴歸

局部加權線性迴歸是機器學習裏的一種經典的方法,彌補了普通線性迴歸模型欠擬合或者過擬合的問題。機器學習裏分爲無監督學習和有監督學習,線性迴歸裏是屬於有監督的學習。普通的線性回歸屬於參數學習算法(parametric learning alg

原创 KMP字符匹配

在KMP 中,主要是尋找模式字串的前綴和後綴的最長的共有元素的長度。 以”ABCDABD”爲例,   - “A”的前綴和後綴都爲空集,共有元素的長度爲0;   - “AB”的前綴爲[A],後綴爲[B],共有元素的長度爲0;   -

原创 caffe 報錯 Check failed: error == cudaSuccess (77 vs. 0) an illegal memory access was encountered

之前從沒有遇到這樣的問題,找了三個小時的bug和資料後,在此處發現瞭解決方案,他是這麼說的: In my case the “top” and “bottom” layer in the “deconvolution” layers wh