一文帶你get七種常用特徵工程方案

當在做數據挖掘和數據分析時,數據是所有問題的基礎,並且會影響整個工程的流程。相比一些複雜的算法,如何靈活的處理好數據經常會取到意想不到的效益。而處理數據不可或缺的需要使用到特徵工程。

目錄

一、什麼是特徵工程

二、常用方法

1. 時間戳處理

2. 分解類別屬性

3.分箱/分區

4. 交叉特徵

5. 特徵選擇

6. 特徵縮放

7. 特徵提取


一、什麼是特徵工程

簡單的說,特徵工程是能夠將數據像藝術一樣展現的技術。爲什麼這麼說呢?因爲好的特徵工程很好的混合了專業領域知識、直覺和基本的數學能力。但是最有效的數據呈現其實並不涉及任何的數據運算。

本質上來說,呈現給算法的數據應該能擁有基本數據的相關結構或屬性。當你做特徵工程時,其實是將數據屬性轉換爲數據特徵的過程,屬性代表了數據的所有維度,在數據建模時,如果對原始數據的所有屬性進行學習,並不能很好的找到數據的潛在趨勢,而通過特徵工程對你的數據進行預處理的話,你的算法模型能夠減少受到噪聲的干擾,這樣能夠更好的找出趨勢。事實上,好的特徵甚至能夠幫你實現使用簡單的模型達到很好的效果。

但是對於特徵工程中引用的新特徵,需要驗證它確實提高的預測的準確度,而不是加入了一個無用的特徵,不然只會增加算法運算的複雜度。

 

本文只提供一些簡單的特徵工程技巧,希望能夠在你以後的分析中提供幫忙。

 

二、常用方法

1. 時間戳處理

時間戳屬性通常需要分離成多個維度比如年、月、日、小時、分鐘、秒鐘。但是在很多的應用中,大量的信息是不需要的。比如在一個監督系統中,嘗試利用一個’位置+時間‘的函數預測一個城市的交通故障程度,這個實例中,大部分會受到誤導只通過不同的秒數去學習趨勢,其實是不合理的。並且維度'年'也不能很好的給模型增加值的變化,我們可能僅僅需要小時、日、月等維度。因此當我們在呈現時間的時候,試着保證你所提供的所有數據是你的模型所需要的。

 

並且別忘了時區,假如你的數據源來自不同的地理數據源,別忘了利用時區將數據標準化。

 

2. 分解類別屬性

一些屬性是類別型而不是數值型,舉一個簡單的例子,由{紅,綠、藍}組成的顏色屬性,最常用的方式是把每個類別屬性轉換成二元屬性,即從{0,1}取一個值。因此基本上增加的屬性等於相應數目的類別,並且對於你數據集中的每個實例,只有一個是1(其他的爲0),這也就是獨熱(one-hot)編碼方式(類似於轉換成啞變量)。

 

如果你不瞭解這個編碼的話,你可能會覺得分解會增加沒必要的麻煩(因爲編碼大量的增加了數據集的維度)。相反,你可能會嘗試將類別屬性轉換成一個標量值,例如顏色屬性可能會用{1,2,3}表示{紅,綠,藍}。這裏存在兩個問題,首先,對於一個數學模型,這意味着某種意義上紅色和綠色比和藍色更“相似”(因爲|1-3| > |1-2|)。除非你的類別擁有排序的屬性(比如鐵路線上的站),這樣可能會誤導你的模型。然後,可能會導致統計指標(比如均值)無意義,更糟糕的情況是,會誤導你的模型。還是顏色的例子,假如你的數據集包含相同數量的紅色和藍色的實例,但是沒有綠色的,那麼顏色的均值可能還是得到2,也就是綠色的意思。

 

能夠將類別屬性轉換成一個標量,最有效的場景應該就是隻有兩個類別的情況。即{0,1}對應{類別1,類別2}。這種情況下,並不需要排序,並且你可以將屬性的值理解成屬於類別1或類別2的概率。

 

3.分箱/分區

有時候,將數值型屬性轉換成類別呈現更有意義,同時能使算法減少噪聲的干擾,通過將一定範圍內的數值劃分成確定的塊。舉個例子,我們預測一個人是否擁有某款衣服,這裏年齡是一個確切的因子。其實年齡組是更爲相關的因子,所有我們可以將年齡分佈劃分成1-10,11-18,19-25,26-40等。而且,不是將這些類別分解成2個點,你可以使用標量值,因爲相近的年齡組表現出相似的屬性。

 

只有在瞭解屬性的領域知識的基礎,確定屬性能夠劃分成簡潔的範圍時分區纔有意義。即所有的數值落入一個分區時能夠呈現出共同的特徵。在實際應用中,當你不想讓你的模型總是嘗試區分值之間是否太近時,分區能夠避免出現過擬合。例如,如果你所感興趣的是將一個城市作爲整體,這時你可以將所有落入該城市的維度值進行整合成一個整體。分箱也能減小小錯誤的影響,通過將一個給定值劃入到最近的塊中。如果劃分範圍的數量和所有可能值相近,或對你來說準確率很重要的話,此時分箱就不適合了。

 

4. 交叉特徵

交叉特徵算是特徵工程中非常重要的方法之一了,交叉特徵是一種很獨特的方式,它將兩個或更多的類別屬性組合成一個。當組合的特徵要比單個特徵更好時,這是一項非常有用的技術。數學上來說,是對類別特徵的所有可能值進行交叉相乘。

 

假如擁有一個特徵A,A有兩個可能值{A1,A2}。擁有一個特徵B,存在{B1,B2}等可能值。然後,A&B之間的交叉特徵如下:{(A1,B1),(A1,B2),(A2,B1),(A2,B2)},並且你可以給這些組合特徵取任何名字。但是需要明白每個組合特徵其實代表着A和B各自信息協同作用。

 

舉個栗子,如下圖中:

所有的藍色點屬於一類,紅色屬於另外一類。我們不考慮實際模型,首先,將X,Y值分成{x<0,x>=0}&{y<0,y>=0}對我們來說會很有用,將劃分結果取名爲{Xn,Xp}和{Yn,Yp}。很顯然I&III象限對應於紅色類別,II&IV象限是藍色類。因此如果現在將特徵X和特徵Y組成成交叉特徵,你會有四個象限特徵,{I,II,III,IV}分別對應於{(Xp, Yp), (Xn, Yp), (Xn, Yn), (Xp, Yn)} 。

 

一個更好地詮釋好的交叉特徵的實例是類似於(經度,緯度)。一個相同的經度對應了地圖上很多的地方,緯度也是一樣。但是一旦你將經度和緯度組合到一起,它們就代表了地理上特定的一塊區域,區域中每一部分是擁有着類似的特性。

 

有時候,能夠通過簡單的數學技巧將數據的屬性組合成一個單一的特徵。在上一個例子中,

5. 特徵選擇

爲了得到更好的模型,使用某些算法自動的選出原始特徵的子集。這個過程,你不會構建或修改你擁有的特徵,但是會通過修剪特徵來達到減少噪聲和冗餘。 

 

那些和我們解決的問題無關需要被移除的屬性,在我們的數據特徵中存在了一些特徵對於提高模型的準確率比其他更重要的特徵,也還有一些特徵與其他特徵放在一起出現了冗餘,特徵選擇是通過自動選出對於解決問題最有用的特徵子集來解決上述問題的。

 

特徵選擇算法可能會用到評分方法來排名和選擇特徵,比如相關性或其他確定特徵重要性的方法,更進一步的方法可能需要通過試錯,來搜索出特徵子集。

 

還有通過構建輔助模型的方法,逐步迴歸就是模型構造過程中自動執行特徵選擇算法的一個實例,還有像Lasso迴歸和嶺迴歸等正則化方法也被歸入到特徵選擇,通過加入額外的約束或者懲罰項加到已有模型(損失函數)上,以防止過擬合併提高泛化能力。

 

6. 特徵縮放

有時候,你可能會注意到某些特徵比其他特徵擁有高得多的跨度值。舉個例子,將一個人的收入和他的年齡進行比較,更具體的例子,如某些模型(像嶺迴歸)要求你必須將特徵值縮放到相同的範圍值內。通過縮放可以避免某些特徵比其他特徵獲得大小非常懸殊的權重值。

 

7. 特徵提取

特徵提取涉及到從原始屬性中自動生成一些新的特徵集的一系列算法,降維算法就屬於這一類。特徵提取是一個自動將觀測值降維到一個足夠建模的小數據集的過程。對於列表數據,可使用的方法包括一些投影方法,像主成分分析和無監督聚類算法。對於圖形數據,可能包括一些直線檢測和邊緣檢測,對於不同領域有各自的方法。

特徵提取的關鍵點在於這些方法是自動的(雖然可能需要從簡單方法中設計和構建得到),還能夠解決不受控制的高維數據的問題。大部分的情況下,是將這些不同類型數據(如圖,語言,視頻等)存成數字格式來進行模擬觀察。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章