Kappa statistic 這個指標用於評判分類器的分類結果與隨機分類的差異度。(Kappa is a measure of agreement normalized for chance agreement.)
P(A) - P(E)
> K = -----------
> 1 - P(E)
> Where P(A) is the percentage agreement (e.g., between your classifier and
> ground truth) and P(E) is the chance agreement. K=1 indicates perfect
> agreement, K=0 indicates chance agreement.
P(A)是分類器贊同(agreement)的比率,P(E)是隨機分類贊同(agreement)的比率。
K=1的時候表明分類器的決策時完全與隨機分類相異的(正面),K=0時表明分類器的決策與隨機分類相同(即分類器沒有效果)
K=-1時表明分類器的決策比隨機分類還要差。
一般來說,Kappa指標的結果是與分類器的AUC指標以及正確率成正相關的,所以K越接近於1越好
更多參見: