原创 相關性,互相關,自相關,相關係數

https://blog.csdn.net/icameling/article/details/85238412 https://blog.csdn.net/qushoushi0594/article/details/80096213 h

原创 Machine Learning 相關

模式識別和機器學習的區別: 模式識別是特徵表示+人工總結特徵規律(即模式)描述 機器學習 是特徵表示+海量樣本=自己學習特徵 SVM相關 https://www.cnblogs.com/alan666/p/8311840.html  當C

原创 三維重建相關

https://zhuanlan.zhihu.com/p/93543875

原创 特徵可視化

特徵可視化的幾篇文章 https://www.cnblogs.com/hellcat/p/10649249.html https://www.cnblogs.com/hellcat/p/7149348.html 特徵可視化,權重可視化,梯

原创 深度學習參數和loss總結

如何理解深度學習分佈式訓練中的large batch size與learning rate的關係? https://www.zhihu.com/question/64134994   通過不斷重置學習率來逃離局部極值點 https://b

原创 相空間

相空間 是什麼? 一個用以表示出一個系統所有可能狀態的空間。 每個狀態稱爲 相。 比如描述 一個物體的運動狀態 每個狀態的相 有 position 和 速度 2個值,而position在現實中的表示可以用三維座標 表示,速度也是三維數據表

原创 人臉相關算法文章

https://blog.csdn.net/nwsuaf_uestc/article/details/81452125  

原创 強化學習相關

Q-learning好文: https://blog.csdn.net/MadJieJie/article/details/81298832 https://blog.csdn.net/shadowcz007/article/detail

原创 pytorch numpy關於維度的代碼參考

numpy篇 一,維度增減 1、直接修改shape y=np.arange(1, 11)#shape:(10,) y.shape=(10,1) print(y) 2、用np.newaxis(np.newaxis == None) np.n

原创 深度學習調參

1~6教程 https://blog.csdn.net/scutjy2015/article/category/6874858/2 基於Pytorch對WGAN_gp模型進行調參總結 https://blog.csdn.net/u0112

原创 一些數學知識記錄

概率分佈的轉換 http://www.cnblogs.com/wangyaning/p/6131465.html   https://blog.csdn.net/weixin_37895339/article/details/803803

原创 一些基礎知識總結

方差,標註差,協方差 https://www.cnblogs.com/xunziji/p/6772227.html?utm_source=itdadao&utm_medium=referral   標準差 協方差 方差是標準差的平方

原创 VAE and Gans相關

真正理解VAE的文章,關於從X到Z的正太分佈求法圖片,P(Z|X),如果X是多個float數值,實際上是對每一個X取他自己的分佈的理解。約束正太分佈加上他自己的約束,纔有意義。 這裏也順便提高一下約束數據到正太分佈的理解,在保留原來內部關

原创 關於loss

關於各種損失函數的理解,非常好的一個網址     https://blog.csdn.net/leadai/article/details/78876511

原创 圖像分割相關算法總結

https://blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/80553963 http://www.cvmart.net/community/article/detail/353 htt