原创 Scrapy 安裝問題集錦

scrapy 具體安裝教程網上已經有很多了,我也就不贅述了。但是在我 按照網上教程安裝時,遇到的很多問題並沒有一個統一的解決。所以,在此進行一個安裝問題的集錦,如果大家還遇到了其他問題,歡迎提出,隨時更新~ OK!直接上乾貨~

原创 深度學習最全優化方法總結比較(SGD,Adagrad,Adadelta,Adam,Adamax,Nadam)

前言 (標題不能再中二了)本文僅對一些常見的優化方法進行直觀介紹和簡單的比較,各種優化方法的詳細內容及公式只好去認真啃論文了,在此我就不贅述了。 SGD 此處的SGD指mini-batch gradient descent,關於batch

原创 圖像語義分割之FCN和CRF

前言 (嘔血製作啊!)前幾天剛好做了個圖像語義分割的彙報,把最近看的論文和一些想法講了一下。所以今天就把它總結成文章啦,方便大家一起討論討論。本文只是展示了一些比較經典和自己覺得比較不錯的結構,畢竟這方面還是有挺多的結構方法了。 介紹

原创 TensorFlow高效讀取數據的方法

概述 最新上傳的mcnn中有完整的數據讀寫示例,可以參考。 關於Tensorflow讀取數據,官網給出了三種方法: 供給數據(Feeding): 在TensorFlow程序運行的每一步, 讓Python代碼來供給數據。 從文件讀取數據:

原创 圖像語義分割之特徵整合和結構預測

前言 近來閱讀了PASCAL VOC 2012排行榜上前幾的文章,包括PSPNet和林國省老師的幾篇論文,覺得現在在semantic segmentation領域對於Multi-scale Features ensembling的關注又多

原创 PyTorch預訓練

前言 最近使用PyTorch感覺妙不可言,有種當初使用Keras的快感,而且速度還不慢。各種設計直接簡潔,方便研究,比tensorflow的臃腫好多了。今天讓我們來談談PyTorch的預訓練,主要是自己寫代碼的經驗以及論壇PyTorch

原创 【解決】Ubuntu安裝NVIDIA驅動(諮詢NVIDIA工程師的解決方案)

前言 這兩天把實驗室服務器給裝成了Ubuntu16.04+cuda8.0+cudnn5.0,本來以爲應該沒什麼問題,結果那折騰得……不說了,都是淚。具體Caffe,Tensorflow,Mxnet的安裝教程已經很多了,我這兒就不說了。本文

原创 PyTorch參數初始化和Finetune

前言 這篇文章算是論壇PyTorch Forums關於參數初始化和finetune的總結,也是我在寫代碼中用的算是“最佳實踐”吧。最後希望大家沒事多逛逛論壇,有很多高質量的回答。 參數初始化 參數的初始化其實就是對參數賦值。而我們需要學習

原创 MXNet數據加載

M本篇博客主要講講MXNet如何加載數據的,因爲它自己實現了一個方便的數據加載的方法。當然最全面的還是去看MXNet的官方文檔了,這裏主要是簡單介紹一下,外加一些自己實驗的結果。 目錄 目錄 一介紹 二從原生數據生成lst文件 三從l

原创 深度學習框架Torch7解析-- Tensor篇

Tensor 類型 多維矩陣 數據的內部表示 內存管理 常用函數 Tensor 的構造函數 常用操作函數 複製和初始化 Rsizing 提取子tensor 未完待續 Tensor Tensor類可以說是Torch中最重

原创 MXNet安裝教程

最近一直在學習深度學習,折騰了幾個比較著名的深度學習的框架。尤其被caffe的各種依賴給弄怕了,雖然最後成功了,但是經過試用發現,caffe如果僅僅是使用或者做項目是非常方便的,而且還是使用的C++呀,但是如果要研究的話,感覺caffe相