模型训练主要有以下几个性能指标和术语,这边做下记录:

IOU(Intersection over Union):即交并比,看下面这张图就非常直观了~
目标检测模型测试的性能指标
三种特殊情况:
1、预测框 = 真实框,可得 IoU = 1,不难看出IoU值越高,预测越准
2、预测框 与 真实框 交集为0,即挨不着,IoU值为0
3、一般IoU = 0.5时,视为预测的框有效,并往上分IoU为0.6、0.7、0.8、0.9值时来讨论对应的召回率,下面会讲解召回率~

引用网上的一个例子,假设我们手上有60个正样本,40个负样本,我们要找出所有的正样本,算法查找出50个,其中只有40个是真正的正样本:
True positives: 将正类预测为正类数 40
True negatives: 将负类预测为负类数 30
False positives: 将负类预测为正类数 10
False negatives: 将正类预测为负类数 20

标红是容易混淆的,记住True打头的就是预测对了~

引出recall(召回率、查全率)

召回率是针对我们原来的样本而言的,它表示的是样本中的正例有多少被预测正确了
两种可能:
1、一种是把原来的正类预测成正类(TP)
2、另一种就是把原来的正类预测为负类(FN)
目标检测模型测试的性能指标

precision(精度、查准率):

精确率是针对我们预测结果而言的,它表示的是预测为正的样本中有多少是真正的正样本。那么预测为正就有两种可能了,一种就是把正类预测为正类(TP),另一种就是把负类预测为正类(FP),也就是:
目标检测模型测试的性能指标

其实就是分母不同,一个分母是预测为正的样本数,另一个是原来样本中所有的正样本数

做出曲线(召回率与IoU):
目标检测模型测试的性能指标
直观的想一下,IoU设定阈值越高,能够满足的样本是越少的,即TP小了,但是原样本的正样本数不变,故recal值变小,如上图所示。

P-R曲线:
目标检测模型测试的性能指标
可以看出 精度 与 召回率 之间的关系,召回率越高的情况下精度是会下降的,比较好的结果就是右一这种饱和的情况~

mAP(mean Average Precision)
参考博客:https://blog.csdn.net/m0_37192554/article/details/82427375

这个博客写的非常清楚,很棒~(Top-5等…)