原创 用numpy寫神經網絡 1 淺層神經網絡

1 淺層神經網絡 import numpy as np import pandas as pd from sklearn.metrics import mean_absolute_error x = np.array([[0,1,0],[

原创 pytorch學習第一天

torchvision 爲了方便加載以上五種數據庫的數據,pytorch團隊幫我們寫了一個torchvision包。使用torchvision就可以輕鬆實現數據的加載和預處理。 我們以使用CIFAR10爲例: 導入torchvision

原创 pivot是個好東西

pivot import pandas as pd df = pd.DataFrame({'foo': ['one', 'one', 'one', 'two', 'two', ...

原创 kaggle學習 - 缺失值處理

如何檢測補缺失值的效果? 補完以後看“補的數據”和“原生數據”的分佈是否有差異。這裏有兩種合適的可視化方法,散點圖、密度圖和條狀圖。 散點圖 密度圖 條狀圖 可以發現補的效果還可以,但是下圖就出現了意外。 可能的原因是m

原创 故障診斷——GK-FCM模型 學習

開門見山 1. 什麼是FCM?他與Kmeans的區別是什麼?FCM實現思路? 聚類由硬聚類和軟聚類之分,像Kmeans就是硬聚類,FCM(fuzzy c-means)就是軟聚類。軟聚類是指,會輸出樣本屬於每一類的相似度。 F

原创 跟老奶奶說裝飾器

本文將用通俗易懂的方式闡述裝飾器,歡迎指正~ 1.沒有裝飾器以前,代碼冗餘 def deposit(): print("存款中...") def withdrawl(): print("取款中...")

原创 跟老奶奶說pandas中的時間轉換

1.str轉其他 from datetime import datetime import pandas as pd import time (1)datetime.strptime:str轉成datatime(個人最常用) pd.t

原创 1第一個代碼

feed_dict :喂數據 tf.placeholder:喂參數給損失函數 import numpy as np import tensorflow as tf coefficients = np.array([[1.],[-10.]

原创 kaggle實戰學習1

1 均值編碼 1爲什麼均值編碼有效? 如果數據的“類別基數”比較高,那麼均值編碼是最簡單有效的一種。除此之外,編碼方式還有LabelEncoder, OneHotEncoder。 特徵類別比較多時三種編碼方式的缺點比較: (1)均值編

原创 跟老奶奶說numpy中的mat與array

1. 區別 1)np.array更具通用性,np.mat只適用於二維矩陣,維數超過2以後,np.mat就不適用了。 2)語法上:np.mat既然是爲矩陣專門定製的(類比R語言中的matrix),那麼肯定有它獨特的語法優勢 矩陣乘法 impo

原创 用numpy寫神經網絡

1 淺層神經網絡 import numpy as np import pandas as pd from sklearn.metrics import mean_absolute_error x = np.array([[0,1,0],[

原创 kaggle經典學習

1 考覈方式:Public LB(驗證集) 和 Private LB(測試集) 2數據分析 分析特徵分佈 分析特徵分佈,如果是連續變量且拖尾可以考慮使用對數或者冪變化。如果是離散變量,先觀察出現的頻率,對少數類別使用其他編碼。 分析

原创 6Batch Norm (手動實現)

1Batch Norm能做什麼— (1)解決covariate shift 問題 我們知道在中間層,每各神經元的輸出又是下一次的輸入。既然我們爲了加速梯度下降算法,要對原始數據做歸一化。那麼有什麼理由不對中間層的輸出數據做歸一化?這種對中間

原创 7梯度優化小結