機器學習(Coursera吳恩達)(一)

機器學習(Coursera吳恩達)(一)

標籤(空格分隔): 機器學習


第一週

機器學習是什麼?
讓機器學習人的行爲模式,學習人腦的思維模式。
比如Alpha狗可以對戰下棋,垃圾郵件篩選,只能推薦系統,自動駕駛等很多都是基於機器學習,使用更深層次的框架實現。

目前存在幾種不同類型的學習算法,主要的兩種類型被稱爲監督學習和無監督學習。

  • 1.3 監督學習
    1. 經典的例子:一個學生從波特蘭俄勒岡州的研究所收集了一些房價的數據。你把這些數據畫出來,看起來是這個樣子:橫軸表示房子的面積,單位是平方英尺,縱軸表示房價,單位是千美元。那基於這組數據,假如你有一個朋友,他有一套750平方英尺房子,現在他希望把房子賣掉,他想知道這房子能賣多少錢?

房價1.png-84.9kB 現在已經有許多組數據,包含房子面積和對應價格,那麼怎樣去預測一個沒有出現在已知面積中的房子所可能賣出的價格? 這裏是一個**監督學習**的例子,有數據(面積)有正確標籤(價格)。通過學習,可以算出更多的正確結果。
  1. 又一個經典例子:假設說你想通過查看病歷來推測乳腺癌良性與否,假如有人檢測出乳腺腫瘤,惡性腫瘤有害並且十分危險,而良性的腫瘤危害就沒那麼大,所以人們顯然會很在意這個問題
![腫瘤1.png-73kB][2] 在這個例子中橫軸是腫瘤大小,縱軸是是否爲惡性(1/0),需要通過學習預測一個腫瘤是否爲惡性的。 上面兩個例子都是監督學習的例子,但又不是同一種監督學習的類型。1.是迴歸問題(Regression),用來預測連續的輸出值,把放假看成實數,預測連續的屬性。2.是分類問題(Classification),預測一個結果是/否是一類結果,輸出爲離散的(1/0)。 分類問題不僅可以區分二分類,也可以進行多分類。多分類可以拆成一對多進行處理。
  • 1.4 無監督學習
    1.4無監督學習1.png-42.3kB

    右圖這種聚類問題就是無監督學習,監督的意思在這裏表示爲多類數據是否存在異類的標籤,如果不存在則爲無監督學習,算法要自行學習樣本的特徵,並進行分類。

    聚類應用的一個例子:
    在谷歌新聞中。如果你以前從來沒見過它,你可以到這個 URL網址 news.google.com去看看。谷歌新聞每天都在,收集非常多,非常多的網絡的新聞內容。它再將這些新聞分組,組成有關聯的新聞。所以谷歌新聞做的就是搜索非常多的新聞事件,自動地把它們聚類到一起。所以,這些新聞事件全是同一主題的,所以顯示到一起。

    新聞事件分類,細分市場等都可以看爲是無監督學習的例子。

第二章 單變量線性迴歸

2.1 模型表示

還是用那個房價預測的例子。用房子面積(變量x)預測房子價格(預測目標y)。這是一個迴歸問題。

2.1訓練集.png-22kB

用這樣的訓練集(train set)進行訓練。

2.1模型.png-90.6kB

h 表示一個函數,對輸入x 預測輸出y 。線性迴歸中hθ(x)=θ0+θ1x 爲線性表示。由於只有一個變量x 因此是單變量線性迴歸。迴歸是指我們根據之前的數據預測出一個準確的輸出值。

我們把訓練集裏的房屋價格餵給學習算法,學習算法工作了,得到一個函數h (hypothesis(假設)),h 的輸入爲房屋面積,輸出爲房屋價格。我們就可以利用這個函數進行房價的預測。

代價函數

Hypothesis: hθ(x)=θ0+θ1x
θis:Parameters
問題是如何選擇參數θ ,使假設函數能夠模擬房價趨勢。
我們的目標是使假設函數h 的輸出與真實值誤差最小,即代價函數:
2.2 J_theta.png-8.8kB

代價函數表示的是以θ 爲參數的函數的輸出值與真實值的誤差。誤差越大表示代價越大,誤差越小代價也就越小。因此學習的過程也就是以代價函數爲目標,以θ 爲參數使代價函數J 處於極小點。

代價函數(cost function)也被稱爲平方誤差函數,有時也被成爲平方誤差代價函數。

代價函數的各個參數,最終目標是選取合適的θcost function處於極小點,也就是平方誤差和最小(對每個樣本點的誤差求和,而不是針對某一點)。
2.3代價函數.png-36.3kB

如果是θ 是二維向量,或者更高維度的向量,同樣也是尋找代價函數關於θ 的極小點。最終使用θ 確定假設函數h 使其輸出更精確。
2.3二維代價函數.png-176.7kB

在這裏,優化θ 的方法使用梯度下降法,最普通的就是batch gradient descent批量梯度下降

批量梯度下降指的是在每一步中,我們都用到了所有的訓練樣本,在梯度下降中,在計算微分求導項時,我們需要及逆行求和計算,所以在每一個單獨的梯度下降中,我們都要計算這樣一個東西,這個項對所有m個訓練樣本求和。因此批量梯度下降法這個名字說明了我們需要考慮所有這‘一批’訓練樣本。

2.3批量梯度下降.png-14.6kB
在每一次迭代中對各個參數分別求偏導,並按一定的學習率α 進行下降。

下面以二維θ[θ0,θ1] 爲例,展示梯度下降法計算過程。
2.3線性迴歸梯度下降基礎公式.png-58kB

2.3線性迴歸梯度下降法代價函數微分計算.png-65.3kB

線性代數

這塊就算了吧,還是去看書吧。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章