混淆矩阵
当我们已经获取到一个分类模型的预测值,可以通过不同指标来进行评估。
往往衡量二分类模型是基于以下的混淆矩阵概念:
- True Positive:真实值为正、预测值为正(真阳性)
- False Positive:真实值为负、预测值为正(假阳性)
- False Negative:真实值为正、预测值为负(假阴性)
- True Negative:真实值为负、预测值为负(真阴性)
但面对多个分类,比如40多个类别时无法单纯通过正负来混淆矩阵的每个值。在多个类别分类中,可以将每个类别视为应该独立的二元分类问题。对于每个类别A,其余不是类别A的样本可以临时合并为应该“非A”类别。我们将以上定义为:
-
真阳性 (TP):对于特定类别A,TP是正确标记为A的样本数量。
-
假阳性 (FP):对于特定类别A,FP是错误地标记为A的其他类别的样本数量。
-
假阴性 (FN):对于特定类别A,FN是实际为A但没有被标记为A的样本数量。
-
真阴性 (TN):对于特定类别A,TN是既不属于A也没有被标记为A的样本数量。
多分类指标
准确度 Accuracy
$$
Accuracy = \frac{TP+TN}{\text{No.samples}}
$$
- 准确率指的是所有预测准确的样本的占比。
- 适用于类别分布平衡的情况,但是再类别不平衡的数据集中可能不是非常靠谱。
精确度 Precision
$$ Precision = \frac{TP}{TP+FP} $$
- 精确度指的是真阳性在所有正类中的比例,又叫测准率。对于某个类别A,相当于正确判断为A的数量在所有类别A的数量中的比例。
- 精确度高意味着较少的假阳性(误报)
召回率 Recall(灵敏度 Sensitivity)
$$
Recall = \frac{TP}{TP+FN}
$$
- 召回率指的是真阳性在所有被预测为正类数据中的比例,表示的是模型获取正类的能力。
- 召回率高表示漏报正确样本的情况少
F1 Score
$$
F1 Score = 2 \times \frac{Precision \times Recall}{Presision+Recall}
$$
-
F1 Score用于衡量精确度和召回率之间的平衡,作为评估标准更加全面。
-
适用于评估类别不平衡的情况。
-
F1 Score相当于 Precision 和 Recall的调和平均数
$$
F1 Score = \frac {2TP}{2TP+FP+FN}
$$- 调和平均数 (Harmonic mean) 经常被用与分子相同、分母不同的场合,将分母调成平均数再当分母。
$$
H_n = \frac{n}{\sum_{i=1}^n \frac{1}{x_i}}
$$
- 调和平均数 (Harmonic mean) 经常被用与分子相同、分母不同的场合,将分母调成平均数再当分母。
其中后三种measure在衡量整个数据时,通过以下方式汇总这些指标:
- 宏观平均 (Macro-average):对每个类别计算指标,然后计算这些指标的平均值。这种方法对所有类别给予了相同的重要性,即使它们的样本量不同。
- 加权平均 (Weighted-average):与宏观平均类似,但是在计算平均值时考虑到了每个类别的样本量。这对于不平衡的数据集特别有用。
- 微观平均 (Micro-average):将所有类别的TP、FP和FN累加起来,然后计算指标。在不平衡的数据集中,微观平均通常被认为更为公平。
在Python中绘制混淆矩阵
import matplotlib.pyplot as plt
from sklearn.metrics import confusion_matrix, ConfusionMatrixDisplay
y_true = [...] # 正确的标签
y_pred = [...] # 预测的标签
conf_mat = confusion_matrix(y_true, y_pred)
disp = ConfusionMatrixDisplay(confusion_matrix=conf_mat,
display_labels=np.unique(y_true)
)
disp.plot()
在Python中计算各分类指标
python中想要计算如上指标主要是使用 sklearn
包中预先写好的函数。可以使用以下代码进行计算:
from sklearn.metrics import precision_score, recall_score, f1_score, accuracy_score
y_true = [...] # 正确的标签
y_pred = [...] # 预测的标签
# 计算正确率
accuracy = accuracy_score(y_true, y_pred)
# 计算精确度、召回率和F1分数
precision = precision_score(y_true, y_pred, average='macro') # 'macro'表示未加权平均
recall = recall_score(y_true, y_pred, average='macro')
f1 = f1_score(y_true, y_pred, average='macro')
或者可以一次性获取所有分类指标的报告。输出的是一个string,每一行为每个类别的统计指标。
from sklearn.metrics import classification_report
# 如果使用`output_dict=True`将获得字典输出, 每个key为一个类别,value为这个类别的各指标dict。
report = classification_report(y_true, y_pred, output_dict=False)
print(report)
标签:f1,frac,Python,recall,TP,score,pred,类别,true
From: https://www.cnblogs.com/tungsten106/p/17916416.html