混淆矩阵 (Confusion Matrix)是一个常用的分类模型性能评价工具,用于可视化分类算法的性能表现。混淆矩阵以矩阵的形式展示了分类模型的预测结果与真实结果之间的各种组合情况。
混淆矩阵通常是一个2x2的矩阵,如果是二分类问题的话。矩阵的行代表真实的类别,列代表预测的类别。矩阵的四个元素分别是真正例(TP),假正例(FP),真反例(TN),假反例(FN)。TP表示模型正确预测的正例数量,FP表示模型错误预测的正例数量,TN表示模型正确预测的反例数量,FN表示模型错误预测的反例数量。
正确率 (Accuracy)是分类模型的一个性能度量指标。它表示模型在所有样本中被正确分类的比例,计算公式为:(TP + TN) / (TP + TN + FP + FN)。
精确率 (Precision)是针对预测为正例的样本而言的,它表示预测为正例的样本中真正例的比例,计算公式为:TP / (TP + FP)。
召回率 (Recall)是针对真正例的样本而言的,它表示真正例中被正确预测为正例的比例,计算公式为:TP / (TP + FN)。
F1分数是一种综合评价分类模型性能的指标,常用于衡量分类模型的准确率和召回率的平衡情况。F1分数是准确率和召回率的调和平均值,计算公式如下:F1 = 2 * (精确率 * 召回率) / (精确率 + 召回率)。
Map50 (Mean Average Precision at 50)是信息检索中的一个评价指标,用于衡量搜索引擎的排序质量。它表示在前50个检索结果中,相关文档的平均精确率。Map50的计算方法是先计算每个检索结果的精确率,然后对这些精确率求平均。
Map50-95 (Mean Average Precision at 50-95)是Map50的变种,它计算的是在前50-95个检索结果中,相关文档的平均精确率。
这些指标在不同的场景中有不同的应用,帮助我们评估分类模型的性能和排序模型的质量。
标签:Acc,mAP,预测,0.5,模型,分类,矩阵,TP,正例 From: https://blog.csdn.net/LIN2020LOVEDA/article/details/140993904