原创 python計算滑動準確度

running_acc = [0] * 100 for i, data in enumerate(train_loader, 1): running_acc[i % 100] = one_correct

原创 -bash: 未預期的符號 `(' 附近有語法錯誤

使用pycharm遠程調試linux上的程序,出現這個問題,解釋器在linux的機器。 解決方法: 把linux上的項目名稱中的()去掉就行

原创 【python】Keras、Tensorflow 如何切換 GPU 和 CPU(強制使用CPU)

在代碼的開頭,所有 import 之前,加入下面兩行代碼: import os os.environ["CUDA_VISIBLE_DEVICES"] = "-1" # 這一行註釋掉就是使用cpu,不註釋就是使用gpu。 一般情況下,運行t

原创 機器學習中離散量和連續量共同編碼及不同量綱的影響

離散量使用onehot編碼,變成全是0和1的值。 這時候離散量和連續量的量綱不統一。 量綱不統一會導致模型收斂速度變慢,對學習率比較敏感,甚至不收斂,因此如果量綱信息不重要,最好統一量綱,將連續量映射到0-1。 個人理解,有錯誤歡迎指出。

原创 Python Numpy計算各類距離的方法

轉載自:https://www.jb51.net/article/164673.htm 詳細: 1.閔可夫斯基距離(Minkowski Distance) 2.歐氏距離(Euclidean Distance) 3.曼哈頓距離(Manhat

原创 Python取整——向上取整、向下取整、四捨五入取整、向0取整

廢話少敘,直接上code: 首先,不得不提醒大家一個容易被忽視或者搞混的問題——一般的,0.5這種末尾是5的小數,四捨五入取整應進位。這個進位的意思是:-0.5 → -1;0.5 → 1.即正負情況不同,都向着遠離0,使得絕對值更大的方向

原创 numpy矩陣的疊加(二維轉三維)

np.vstack:按垂直方向(行順序)  np.hstack:按水平方向(行順序) 一般文章都沒有說明 np.dstack 函數,也就是第三個軸的疊加 比如 one = np.ones((3, 3)) two = np.ones((3

原创 pytorch中的cat、stack、tranpose、permute、unsqeeze

Cat 對數據沿着某一維度進行拼接。cat後數據的總維數不變. 比如下面代碼對兩個2維tensor(分別爲2*3,1*3)進行拼接,拼接完後變爲3*3還是2維的tensor。 import torch torch.manual_seed

原创 Graphviz安裝及簡單使用

轉載自:https://www.cnblogs.com/shuodehaoa/p/8667045.html Graphviz Windows環境安裝:         1.官網下載            官網下載地址           

原创 torch.nn.conv3d理解

前言 需要用到3DCNN,於是找到了torch.nn.conv3d,網上太多人寫參數解讀,但沒什麼人能講得清楚的,於是我邊理解邊寫代碼驗證,得到了我想要的結果。 實例 用3DCNN的開篇之作來當作例子解讀一下這個函數的參數,首先來看一下它

原创 nn.AdaptiveAvgPool2d和nn.AdaptiveAvgPool3d

官方給出的例子: >>> # target output size of 5x7 >>> m = nn.AdaptiveMaxPool2d((5,7)) >>> input = torch.randn(1, 64, 8, 9) >>>

原创 用Gym學習強化學習之Policy Gradient

作者:Cloudyyyyy@HIT 興趣方向:自然語言處理、人工智能 目錄 什麼是強化學習 強化學習的問題要素 Gym簡介 Policy Gradient實戰 總結 參考 1 什麼是強化學習 強化學習在機器學習的應用分類裏常常和監督學習和

原创 torch.autograd.Variable

https://www.cnblogs.com/henuliulei/p/11363121.html

原创 python3沒有xrange原因與解決方法

今天在用Python3寫CTF試題代碼的時候,發現了xrange標紅,python3找不到xrange定義了。 原因: 在 Python 2 中 xrange() 創建迭代對象的用法是非常流行的。比如: for 循環或者是列表/集合/字典

原创 ConvLSTM的用法

簡單RNN與LSTM對比 LSTM計算示意 LSTM計算示意 import torch from torch import nn import torch.nn.functional as f from torch.autogra