原创 感知機 —— 算法(原始形式)

算法流程 輸入:訓練數據集T={(x1,y1),(x2,y2),⋅⋅⋅,(xN,yN),}T= \left\{ (x_1,y_1), (x_2,y_2),···,(x_N,y_N),\right\}T={(x1​,y1​),(x2

原创 numpy的簡單使用

一、Numpy是什麼? 1.Numrical Python,數值的Python,應用於數值分析領域的Python語言工具; 2.Numpy是一個開源的科學計算庫; 3.Numpy彌補了作爲通用編程語言的Python在數值計算方面

原创 easy scheduler 一些使用技巧

1、腳本代碼控制中間腳本執行 if [ $((10#${hour}%6)) == 0 ];then echo "運行" else echo "不在運行時間跳過"; exit 0 fi 參數 h

原创 機器學習實戰SVM——smo筆記

在代碼中, 第i樣本的預測類別遇到的疑惑,不知道這個函數是如何得來。 fXi = float(multiply(alphas,labelMat).T*(dataMatrix*dataMatrix[i,:].T)) + b # 第

原创 機器學習實戰_K近鄰算法 ——手寫數字預測(sklearn api)

一、序 機器學習實戰_K近鄰算法 ——手寫數字預測 調用的是自己編寫的分類器classify0,主要是爲了學習理論原理;在實際是項目中通常調用工具包的api接口,比如sklearn,這也體現了python的一個便利性,不用總是自己

原创 數據可視化:matplotlib

官方樣例:https://matplotlib.org/gallery.html API: https://matplotlib.org/api/pyplot_summary.html 一、基本繪圖函數 1、mp.plot(水

原创 mysql binlog 刪除

手動直接刪除binlog # mysql -u root -p 登錄後操作;或者在第三方連接軟件上執行 mysql > PURGE MASTER LOGS BEFORE DATE_SUB(CURRENT_DATE, INTERVA

原创 peewee常用技巧

一、數據庫鏈接 正常鏈接通過dburl字符串指定數據庫 from playhouse.db_url import connect from playhouse.reflection import generate_models

原创 ale_interface/ale_c.dll OSError: [WinError 126] 找不到指定的模塊。

一、問題 找不到gym加載atari環境出錯,百度搜出的答案無解(Windows下) 【https://blog.csdn.net/severe777777/article/details/86162357】和【https://b

原创 jupyter notebook : generator_to_async_generator

真是日了狗了,conda下新環境安裝jupyter notebook,從沒有像今天不順 ImportError: cannot import name 'generator_to_async_generator' 解決 pip

原创 機器學習實戰 —— 決策樹(sklearn api)

代碼 import pandas as pd from sklearn.preprocessing import LabelEncoder from sklearn import tree from sklearn.externa

原创 機器學習實戰 —— 決策樹

代碼 """ 用字典存儲決策樹結構: {'有自己的房子':{0:{'有工作':{0:'no', 1:'yes'}}, 1:'yes'}} 年齡:0代表青年,1代表中年,2代表老年 有工作:0代表否,1代表是 有自己的房子:0代表否

原创 k近鄰算法——球樹

一、概念 KD樹算法雖然提高了KNN搜索的效率,但是在某些時候效率並不高,比如當處理不均勻分佈的數據集時,不管是近似方形,還是矩形,甚至正方形,都不是最好的使用形狀,因爲他們都有角。一個例子如下圖: 如果黑色的實例點離目標點星點

原创 k近鄰算法——kd樹

kd樹(K-Dimensional Tree)是一種對K維空間中的實例點進行存儲以便對其進行快速檢索的樹形數據結構。 kd樹是二叉樹,表示對K維空間的一個劃分 (partition).構造Kd樹相 當於不斷地用垂直於座標軸的 超平

原创 k近鄰算法——總結

一、序   k近鄰法(k-nearest neighbor, kNN)是一種基本的分類與迴歸方法。KNN做迴歸和分類的主要區別在於最後做預測時候的決策方式不同。KNN做分類預測時,一般是選擇多數表決法,即訓練集裏和預測的樣本特徵最