cohen_kappa_score について

以下のサイトが分かりやすい。他クラスのスコアのとり方で使用できる。
順序ごとに target label が貼られている場合、target をより ground truth より遠く推論したものにペナルティが加わる。

from sklearn.metrics import cohen_kappa_score
from sklearn.metrics import confusion_matrix

y_true = [0, 0, 2, 2, 2, 1]
y_pred = [1, 0, 2, 2, 0, 1]
cohen_kappa_score(y_true, y_pred), confusion_matrix(y_true, y_pred)
(0.5, array([[1, 1, 0],
        [0, 1, 0],
        [1, 0, 2]]))

qiita.com