機器學習----迴歸模型

今天是機器學習的第一小節學習(吳恩達)。

問題提出:

現在我們有一些真實的數據集xy(x,y)xx表示房屋的大小,yy表示房屋出售的價格。
然後我們有一個房子要出售,已知房屋大小是xxnn,希望能夠知道能賣多少錢yynn


我們會建立數據集中的x和y之間的一元線性關係(假設函數) :y=ax+b\boldsymbol{y=ax+b} 。希望找到 aba和b,使假設函數和數據集上的點更好的擬合。
也就是說:
y()y()y(預測)- y(真實) 要儘可能的小,這樣才能更好的擬合。
其中: y=ax+by=a*x+b : 被稱爲假設函數

yy(預測) 表示:在數據集中找到一個xx後,利用 y=ax+b\boldsymbol{y=ax+b}得到的值。
yy(真實) 表示:在數據集中 和 xx相對應的yy值。

所以,我們要研究的問題其實是一個最小化問題。


爲了能使 y(預測)-y(真實)儘可能小 , 有
代價函數 = 12m\frac{1}{2*m}i=0m\sum_{i=0}^m{[y\boldsymbol{y}i\boldsymbol{i}(預測) - y\boldsymbol{y}i\boldsymbol{i}(真實)]2\boldsymbol{2}}

就是令代價函數最小。

  1. m表示 數據集中數據(x,y)的數量。
  2. yyi(預測) = ax+ba*x+b

現在,我們的問題就變成了 尋找 aba和b,使代價函數的值最小。(這個代價函數也叫誤差平方函數或者誤差平方代價函數 )。
誤差平方代價函數是我們常使用的一種代價函數。

當我們找到了是代價函數最小的 ab\boldsymbol{a和b} 之後,就找到了
假設函數 y=ax+b\boldsymbol{y=a*x+b},就可以利用假設函數來預測房價了。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章