原创 迴歸(regression)和logistic regression

迴歸 “迴歸”就是“迴歸本質”的意思。用一個函數去擬合一組數據(xi,yi) ,隨着數據越來越多,用來擬合的這個曲線就越來越接近真實的情況。這裏xi 可以是一個向量, 假設xi∈Rn , 若用線性迴歸的方法, 首先把它擴展爲n+

原创 PyTorch讀取Cifar數據集並顯示圖片

首先了解一下需要的幾個類所在的package from torchvision import transforms, datasets as ds from torch.utils.data import DataLoader

原创 Python的is和==區別(整理)

is和==的區別 解釋1 == is for value equality. Use it when you would like to know if two objects have the same value. is i

原创 >和>>的用法和區別

> 1.直接把內容生成到指定文件,會覆蓋源文件中的內容 2.直接生成一個空白文件,相當於touch命令 >> 尾部追加,不會覆蓋掉文件中原有的內容 (參考:linux中“>”和“>>”區別) 點贊 收藏

原创 python的_xxx, __xxx, __xxx__區別

_xxx 弱“內部使用”標識 如:”from M import *”,將不導入所有以下劃線開頭的對象,包括包、模塊、成員。 表明該方法或屬性不應該去調用 Python中不存在真正的私有方法。爲了實現類似於c++中私有方法,可

原创 DiscoGAN

Abstract 人類可以在無監督的情況下輕易地發現兩個東西之間的聯繫(或者說相同點), 而想讓機器學習的話需要人類給他們配對作爲ground truth然後再進行訓練. 爲了避免這種配對的麻煩, 提出了DiscoGAN We

原创 EBGAN總結

寫在開頭 讀這篇文章的初衷有三,一是對GAN感興趣,二是看到的時候說是LeCun的文章,三是想學習一下總是聽到的“Energy based”思想。然而看完了INTRODUCTION和MODEL兩部分後就沒再看下去,我個人認爲這是個

原创 CMake與Make

參考:CMake與Make 程序的生成大致分爲三個階段: 1.用編輯器編寫源代碼,如.c文件。 2.用編譯器編譯代碼生成目標文件,如.o。 3.用鏈接器連接目標代碼生成可執行文件,如.exe。 cmake: cm

原创 virtualenv機制簡述及強制改名產生的後遺症解決

問題的起源在於,我在用virtualenvwrapper創建虛擬環境的時候,不小心起錯了名字,把“virtual”打成了“virtal”;於是每次workon的時候出來的都是virtalenv-py3,很難受。 後來我在Home

原创 Tensorflow name_scope和variable_scope的區別

爲了研究一下tensorflow的name_scope和variable_scope到底有啥區別,我對Variable和Summary對象分別試驗了這兩種scope。直接上代碼: 1.對Variable先加name_scope,再

原创 Ubuntu下安裝OpenCV

寫在最前面 現在已經可以用pip install opencv-python安裝新版opencv-3.2.0,因此其實不需要看本教程了。 下載OpenCV源碼 好像pip install的OpenCV版本都比較低,而且我嘗試的時候

原创 python3傳參類型記錄

python3中, 給函數傳入dict和list, 相當於是傳入了一份引用的copy (淺拷貝) 向函數中傳入dict: def modify(d): d['a'] = 11 def delete(d): d.pop

原创 Logistic regression

迴歸 “迴歸”就是“迴歸本質”的意思。用一個函數去擬合一組數據,隨着數據越來越多,用來擬合的這個曲線就越來越接近真實的情況。 * linear regression:用直線擬合 * logistc regression:用一種曲線擬合

原创 libcudart.so.8.0: cannot open shared object file: No such file or directory

首先檢查/usr/local/cuda-8.0/lib64目錄,看看libcudart.so.8.0是否存在,如果不存在,則先正確安裝cuda。如果確定cuda已經存在,這個問題的出現於Linux的ldconfig命令有關。 ldconf

原创 稀疏編碼

http://blog.csdn.net/zouxy09/article/details/8777094 如何理解深度學習中的deconvolution networks?譚旭的回答 如果我們把輸出必須和輸入相等的限制放鬆,同時利用線