正例、负例、真正例、真负例的计算方法

2024-03-15

正例,通常是指符合我们期望的、与目标概念或类别相匹配的数据。例如,如果我们正在训练一个图像识别模型来识别猫,那么正例可能是各种不同形态、颜色和品种的猫的图片。

负例,则是指不符合我们期望的、与目标概念或类别不匹配的数据。例如,在猫的识别任务中,负例可能包括狗、鸟、其他动物或非动物的图片。


  • 真正例(True Positive):指实际为正例且被模型正确预测为正例的样本数量。真实标签是正例,模型也预测为正例。

     TP = 预测为正例且实际为正例的样本数

  • 正例(Positive):指实际为正例的样本数量。真实标签是负例,模型却预测为正例。真实标签是负例,模型却预测为正例。

     P = 实际为正例的样本数

  • 负例(Negative):指实际为负例的样本数量。真实标签是负例,模型也预测为负例。


     N = 实际为负例的样本数

  • 真负例(True Negative,TN)指实际为正例且被模型正确预测为负例例的样本数量。真实标签是正例,模型却预测为负例。

    TN = 预测为负例且实际为正例的样本数

  • 假正例(False Positive):指实际为负例但被模型错误预测为正例的样本数量。真实标签是负例,模型却预测为正例。

     FP = 预测为正例但实际为负例的样本数

衡量模型的性能使用以下常见的评估方法:

  • 准确率(Accuracy):模型正确预测的样本数占总样本数的比例。


     计算公式:Accuracy = (TP + TN) / (P + N)

  • 召回率(Recall):模型正确预测的正例样本数占实际正例样本数的比例。


     计算公式:Recall = TP / P

  • 精确率(Precision):模型正确预测为正例的样本数占预测为正例样本数的比例。


     计算公式:Precision = TP / (TP + FP)

  • F1 分数(F1 Score):综合考虑召回率和精确率的评估指标,它是召回率和精确率的调和平均值。


     计算公式:F1 Score = 2 * (Recall * Precision) / (Recall + Precision)

通过使用正例和负例进行训练,模型可以学习到目标概念或类别的特征和模式,从而提高其对新数据的分类和预测能力。在训练过程中,模型会根据输入数据与正例和负例的相似性来调整其参数,以最小化分类错误。

正例和负例的选择对于训练的效果非常重要。它们应该具有代表性、多样性和平衡性,以确保模型能够学习到足够多的信息并且不会受到偏见的影响。同时,正例和负例的数量也会影响训练的效果,通常需要足够多的数据来覆盖各种可能的情况。


点击空白处返回页面
扫描二维码
联系我们
扫描进入小程序
虚位以待 静候卿来