機器學習--Adaboost
boosting思想
算法流程
1.考慮權值進去,初始化相等權值
2.給基本分類器加權值!
誰的誤差率越小,誰的權值就越大!
3.更新樣本權值
若樣本預測錯誤,測樣本的權值升高!
4.構建基本分類器的線性組合,得到最終分類器
爲什麼能收斂?
理解
bagging:基分類器相互獨立
m*(均值/m) = 均值
m*(方差/m)^2 = 方差/m
故方差可以減小
boosting:基分類器基於之前的基分類器改進,可以減小偏差