Kappa Statistic

Kappa statistic 這個指標用於評判分類器的分類結果與隨機分類的差異度。(Kappa is a measure of agreement normalized for chance agreement.

         P(A) - P(E)
> K = -----------
>       1 - P(E)

> Where P(A) is the percentage agreement (e.g., between your classifier and
> ground truth) and P(E) is the chance agreement.  K=1 indicates perfect
> agreement, K=0 indicates chance agreement.

P(A)是分類器贊同(agreement)的比率,P(E)是隨機分類贊同(agreement)的比率。

K=1的時候表明分類器的決策時完全與隨機分類相異的(正面)K=0時表明分類器的決策與隨機分類相同(即分類器沒有效果)

K=-1時表明分類器的決策比隨機分類還要差。

一般來說,Kappa指標的結果是與分類器的AUC指標以及正確率成正相關的,所以K越接近於1越好

 

更多參見:

1、http://en.wikipedia.org/wiki/Cohen's_kappa

2、http://www.statistics.com/resources/glossary/k/kappa.php

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章