迴歸樹
迴歸樹和分類樹都是決策樹的一種,但是迴歸樹用平方誤差最小化準則進行特徵選擇,來生成二叉樹,而分類樹則是用基尼指數(Gini index)最小化準則
迴歸樹生成
假設X與Y分別爲輸入和輸出變量,並且Y是連續變量,在給定訓練數據集
D={(x1,y1),(x2,y2),⋯,(xN,yN)}
在這個條件下,看看如何生成迴歸樹。
一個迴歸樹對應着輸入空間的一個劃分以及在劃分的單元上的輸出值。假設劃分的單元是R1到RM,並且每個單元的輸出值是固定的輸出值cm,那麼迴歸樹模型的表示如下
f(x)=m=1∑McmI(x∈Rm)
然後可以用平方誤差最小的準則來求解每個單元上的最優輸出值。易知,單元Rm上的cm的最優值c^m是Rm上的所有輸入實例xi對應的輸出yi的均值,即
c^m=ave(yi∣xi∈Rm)
然後採用啓發式方法來對輸入空間劃分,選擇第j個變量x(j)和它取的值s,作爲切分變量和切分點,並定義兩個區域:
R1(j,s)={x∣x(j)⩽s}和R2(j,s)={x∣x(j)>s}
然後尋找最優切分變量j和最優切分點s。具體地,求解
j,smin⎣⎡c1minxi∈R1(j,s)∑(yi−c1)2+c2minxk∈R2(J,s)∑(yi−c2)2⎦⎤
對固定輸入變量j可以找到最優切分點s。
c^1=ave(yi∣xi∈R1(j,s))和c^2=ave(yi∣xi∈R2(j,s))
遍歷所有輸入變量,找到最優的切分變量j,構成一個對(j, s)。以此將輸入空間劃分爲兩個區域。接着對每個區域重複上述劃分過程,直到滿足停止條件爲止。這樣就生成一課迴歸樹。這生成的迴歸樹也稱爲最小二乘迴歸樹。
分類樹
分類樹則是用基尼指數(Gini index)最小化準則進行特徵選擇,來生成二叉樹
基尼指數
分類問題中,假設有K個類,樣本點屬於第k類的概率爲pk,則概率分佈的基尼指數定義爲:
Gini(p)=k=1∑Kpk(1−pk)=1−k=1∑Kpk2
對於二類分類問題,若樣本點屬於第1個類的概率是p,則概率分佈的基尼指數爲
Gini(p)=2p(1−p)
對於給定的樣本集合D,其基尼指數爲:
Gini(D)=1−k=1∑K(∣D∣∣Ck∣)2
這裏,ck是D中屬於第k類的樣本子集,K是類的個數。
如果樣本集合D根據特徵A是否取某一可能值a被分割成D1和D2兩部分,即
D1={(x,y)∈D∣A(x)=a},D2=D−D1
則在特徵A的條件下,集合D的基尼指數定義爲:
Gini(D,A)=∣D∣∣D1∣Gini(D1)+∣D∣∣D2∣Gini(D2)
基尼指數Gini(D)表示集合D的不確定性,基尼指數Gini(D,A)表示經A = a 分割後集合D的不確定性。基尼指數值越大,樣本集合的不確定性也就越大,和熵類似。
樹的剪枝
對於CART(就是分類樹和迴歸樹)剪枝,就是從“完全生長”的決策樹的底端剪去一些子樹,使決策樹變小(模型變簡單),從而能夠對未知數據有更準確的預測。步驟由兩步:首先從生成算法產生的決策樹T0底端開始不斷剪枝,直到T0的根節點,形成一個子樹序列T0,T1,...,Tn;然後通過交叉驗證法在獨立的驗證數據集上對子樹序列進行測試,從中選擇最優子樹。
具體步驟如下:
輸入:CART算法生成的決策樹T0;
輸出:最優決策樹Tα
(1)設k=0, T = T0.
(2)設α=+∞.
(3)自下而上地對各內部結點t計算C(Tt),∣Tt∣以及
g(t)=∣Tt∣−1C(t)−C(Tt)α=min(α,g(t))
這裏,Tt表示以t爲根節點的子樹,C(Tt)是對訓練數據的預測誤差,∣Tt∣是Tt的葉結點個數。
(4)自上而下地訪問內部結點t,如果有g(t) = α,進行剪枝,並對葉結點t以多數表決法決定其類,得到樹T。
(5)設k=k+1,αk=α,Tk=T。
(6)如果T不是由根節點單獨構成的樹,則回到步驟(4)。
(7)採用交叉驗證法在子樹序列T0,T1,⋯,Tn中選取最優子樹Tα。