原创 線性迴歸(二元線性迴歸 - 自定義函數求解)- 04

多特徵 前面已經講解了一元線性迴歸,那樣的情況下,只有一個自變量和一個因變量,即爲單特徵 但是在更多的時候,我們需要考慮的是多個特徵的情況,如下: 在上圖中,能夠看到,預測某一個房子的價格時候,可能影響的因素存在多種 根據上面的介紹,不

原创 07 - 邏輯迴歸

介紹 這裏看到邏輯迴歸的名詞,但是需要注意,它並不是和前面的迴歸一樣爲求一個確定的值;它其實是一個經典的二分類算法 機器學習算法選擇:先邏輯迴歸再用複雜的,能簡單還是用簡單的 邏輯迴歸的決策邊界:可以是非線性的 Sigmoid函數

原创 Redis基礎整理

Redis String Redis List Redis Hash Redis Set Redis SortedSet

原创 運維(雜)

rsync 從遠程機器同步到本地並刪除目標比源目錄多餘的文件 rsync -avzP --delete -e 'ssh -p port' root@{remoteHost}:{remoteDir} {localDir} --exc

原创 線性迴歸(線性代數複習)- 03

矩陣介紹 如上就是對應兩種矩陣(3行2列、2行3列),以及對應獲取中間的某一個元素的方法 矩陣運算 上面的兩種情況是比較基礎的內容,下面介紹矩陣的乘法 在上面的計算中,可以看到,矩陣的乘法是存在有條件的 單位矩陣 首先,單位矩陣

原创 06 - 梯度下降

介紹 上面講到使用求解偏導的方式獲取目標函數的最小值,但是卻並不是所有的目標函數都能夠通過求偏導的方式獲取到最小值的,這個時候就需要這裏講到的梯度下降的方法;機器學習的套路就是交給機器一堆數據,然後告訴什麼樣的學習方式是正確的(目

原创 線性迴歸(多項式迴歸)- 06

在前面已經講解到了使用一條直線或者一個超平面來擬合一些樣本點(表示),但是有的情況下,使用直線或者是超平面並不能很好的擬合這樣的數據,如下這張圖 對於上面的這個圖,我們可以使用兩種方程來進行擬合,以及其對應的圖像 假如我們需要找的並不是

原创 線性迴歸(sklearn 多元線性迴歸)- 05

使用sklearn進行多元線性迴歸代碼編寫 上面,還是一樣使用numpy.genfromtxt方法將這個csv文件中間的數據進行加載 這裏將上面載入的數據進行數據切分,即分出x0,x1和y值,之後就能夠開始實例化 linear_mod

原创 線性迴歸(梯度下降法)- 02

梯度下降法 梯度下降法是一個優化算法 梯度下降法應用的範圍很廣,並不只是在線性迴歸中間會使用到 在上面的這個圖中間,首先我們初始化這兩個變量值,之後對這個點進行求導,獲取到變化最大的方向,之後向這個方向進行移動,直到移動到一個全局最小