cohen_kappa_score について
以下のサイトが分かりやすい。他クラスのスコアのとり方で使用できる。
順序ごとに target label が貼られている場合、target をより ground truth より遠く推論したものにペナルティが加わる。
from sklearn.metrics import cohen_kappa_score from sklearn.metrics import confusion_matrix y_true = [0, 0, 2, 2, 2, 1] y_pred = [1, 0, 2, 2, 0, 1] cohen_kappa_score(y_true, y_pred), confusion_matrix(y_true, y_pred)
(0.5, array([[1, 1, 0], [0, 1, 0], [1, 0, 2]]))