原创 Linux Ubuntu 筆記(長期更新)

軟鏈接、硬鏈接: 前者相當於快捷方式,後者則相當於重新拷貝了一次。 軟鏈接命令: ln  -s  /home/sb/a  /home/sb/b 注意!刪除軟鏈接時,注意rm a 和 rm -r a/的區別,後者會將源文件夾也刪除,血的教訓

原创 PyTorch踩過的坑(長期更新,轉載請註明出處)

最近在知乎看到有人轉載了這裏的內容,提醒一下,歡迎轉載,但是請註明出處,謝謝。   1. nn.Module.cuda() 和 Tensor.cuda() 的作用效果差異 無論是對於模型還是數據,cuda()函數都能實現從CPU到GPU的

原创 LaTeX 系列(2) —— 中文支持

本文內容基於 Ubuntu16.04 和 TexLive 2018. 對於完整安裝的TexLive2018, 應該是已經包含了中文支持的,使用 xeCJK 宏包即可。 我們可以測試一下以下代碼: \documentclass{artic

原创 Voice Conversion using Convolutional Neural Networks 翻譯

原文來自arXiv.org (Mobin S, Bruna J. Voice Conversion using Convolutional Neural Networks[J]. 2016.) 摘要:除了音調外,音色是識別說話人的關鍵,

原创 數據結構和算法筆記(2)基礎算法模板

有很多的基礎算法經常會用到,但是又容易寫錯。而網上查到的實現又五花八門、良莠不齊,故在此整理記錄。 本文的目錄如下: 1.二分查找    2.並查集   1.二分查找 一個細節就是計算middle時,用 (left + right) /

原创 基於深度學習的低光照圖像增強方法總結(2017-2019)

之前在做光照對於高層視覺任務的影響的相關工作,看了不少基於深度學習的低光照增強(low-light enhancement)的文章[3,4,5,7,8,9,10],於是決定簡單梳理一下。 光照估計(illumination estimat

原创 編程時踩過的坑(主要是c++)

1.數值溢出 存儲數據時要考慮數值溢出的問題,選擇合適的類型,特別要注意數值運算時的數值範圍是否合適。比方說,如果使用了int類型,儘管數據本身沒有超範圍,但是在進行乘法計算時卻可能會產生數值溢出。 c++類型的數值範圍速查表: Type

原创 數據結構和算法筆記(1)數論相關

最近在刷編程題,發現了許多雜七雜八的知識點,稍微歸類並記錄下來方便後續查閱。 本文的目錄如下: 1.組合數    2.快速冪    3.大數取模(乘法逆元和費馬小定理)    4.菲波拉契數列   1.組合數的求法 組合數,爲了方便也寫作

原创 PyTorch中的padding(邊緣填充)操作

簡介 我們知道,在對圖像執行卷積操作時,如果不對圖像邊緣進行填充,卷積核將無法到達圖像邊緣的像素,而且卷積前後圖像的尺寸也會發生變化,這會造成許多麻煩。 因此現在各大深度學習框架的卷積層實現上基本都配備了padding操作,以保證圖像輸入

原创 人體解析任務 和 Look into Person數據集 (附源碼分享)

人體解析任務 人體解析(human parsing),屬於語義分割任務的子任務,旨在對人類圖像進行像素級的是細粒度分割(例如,劃分出身體部位和服裝)。根據不同的場景,又可以分爲單人人體解析(single-person human pars

原创 python列表的三種拷貝方式的性能分析

對於一個很大的列表,如果要對其進行復制,那麼有三種方式可以選擇。 第一種是直接用for循環複製,第二、第三種則是使用python自帶的copy和deepcopy方法。 copy和deepcopy的區別在於,copy僅僅對被複制對象本身的值

原创 Domain Adaptation through Synthesis for Unsupervised Person Re-identification 論文筆記

這篇文章來自ECCV2018. 主要針對無監督的行人再識別任務,首先用3D引擎和環境渲染技術構建了一個多光照條件的虛擬行人數據集,接着用該合成數據集和其它大型真實數據集合並,共同預訓練了一個模型。由於涵蓋了各種光照情況,該模型具有良好的泛

原创 損失函數SSIM (structural similarity index) 的PyTorch實現

SSIM介紹 結構相似性指數(structural similarity index,SSIM), 出自參考文獻[1],用於度量兩幅圖像間的結構相似性。和被廣泛採用的L2 loss不同,SSIM和人類的視覺系統(HVS)類似,對局部結構變

原创 PyTorch的可重複性問題 (如何使實驗結果可復現)

由於在模型訓練的過程中存在大量的隨機操作,使得對於同一份代碼,重複運行後得到的結果不一致。因此,爲了得到可重複的實驗結果,我們需要對隨機數生成器設置一個固定的種子。 許多博客都有介紹如何解決這個問題,但是很多都不夠全面,往往不能保證結果精

原创 網絡調參時踩過的坑(長期更新)

1.學習率大小的設置 一般情況下,當網絡收斂到一定程度時,loss曲線的變化不明顯,並出現上下的小幅度波動,這時候可以考慮調小學習率,幫助網絡進一步收斂到最優值。如下圖所示: 但有些情況,網絡看似收斂了,但實際上是到了某些平坦的曲面,離