原创 caffe代碼閱讀:layer類和net類

這兩個類是caffe框架的基石,從名字上就看得出來,深度學習就是圍繞這兩個東西展開的,還是從代碼去看具體實現。 1.layer layer類有五大種類,每個種類裏又有詳細按作用區分,但全是從一個基類Layer繼承過來,下面是具體的五類

原创 slurm入門

轉載原網址:http://www.ibm.com/developerworks/cn/linux/l-slurm-utility/ 什麼是超級計算機? 超級計算機不是關於任何特定的架構,它只是處在計算性能尖端的一種設計。如

原创 Going Deeper with Convolutions

GoogleNet這篇其實早該寫完翻新,以後懶癌一定要治。 GoogleNet在2014年和VGGNet一起刷新了ILSVRC的classification和detection的state of art,一時間並稱雙雄。我覺得他最大貢

原创 CentOS 7.1 編譯opencv3.1+ffmpeg

//2016.11.23補 用opencv 2系列,一次完成 //////////////////////////////////////////////////////////////////////// 項目需要在服務器上帶ffmp

原创 機器學習常用算法(1)最小二乘和k-means聚類

最近複習算法準備校招,順便寫一寫算作補上以前欠的債。 1.最小二乘法 有一堆數據點(Xi,Yi),其中i從0到n,那麼我現在用一個超平面去擬合這些數據點,這個超平面的方程形式?whatever,在最小二乘裏這不是重點,你可以是線性也可

原创 caffe代碼閱讀:SyncedMemory和Blob

1.SyncedMemory 這個類SyncedMemory的作用是數據存儲,在CPU和GPU上各有一塊內存空間(大小爲size_)。 先看初始化 SyncedMemory() : cpu_ptr_(NULL),

原创 slurm隨筆

資源分配 節點狀態 (scontrol show node ..) UNKNOWN  未知 ALLOCATED 已分配 DOWN 故障 IDLE 空閒 DRAIN 不再分配 COMPLETING 有作業完成,正在退出 NO_RESPOND

原创 network in network

首先文章作者把傳統CNN網絡看成一個廣義的線性模型GLM(generalized linear model)後面跟一個非線性激活函數(現在多用ReLU),而假設特徵能夠被GLM抽象即線性可分,那麼對它的抽象程度是不夠的(level of

原创 R-FCN resnet50 訓練自己的數據

原文鏈接:http://blog.csdn.net/sinat_30071459/article/details/53202977 說明: 本文假設你已經做好數據集,格式和VOC2007一致,並且Linux系統已經配置好

原创 五個案例,三大心得,深度學習的實踐應用之路

原文鏈接:http://geek.csdn.net/news/detail/202622 這篇文章對深度學習在工程級別應用上遇到的問題進行了很好地總結,並且提出一些有建設性的解決方案,很有實際意義。 當我們需要用深度學習處理現實問

原创 Common causes of nans during training

原文  https://stackoverflow.com/questions/33962226/common-causes-of-nans-during-training Good question. I came across

原创 Dtection:PVA-net

開始跑模型就顧不上看理論,就像降低計算量就要犧牲準確率。 摘要 這是一個輕量級的detection模型,基於faster RCNN框架改進,主要重新設計了feature extraction部分(因爲其他RPN分計算量不大、ROI cl

原创 tensorflow 中遇到的問題總結

tensorflow 中遇到的問題總結   1.TFRecordReader "OutOfRangeError (see above for traceback): RandomShuffleQueue '_1_shuffle_batch

原创 faster rcnn配置問題

1、出現問題:訓練faster rcnn時出現如下報錯: File "/py-faster-rcnn/tools/../lib/datasets/imdb.py", line 108, in append_flipped_images