首页 > 编程知识 正文

目标检测可以用在哪里(目标检测的步骤)

时间:2023-05-05 17:38:02 阅读:90776 作者:4423

2.3 Anchor-based中的单阶段目标检测算法

单阶段目标检测算法由于不需要region proposal阶段,可以直接生成物体的类概率和位置坐标值,经过一个阶段直接得到最终的检测结果,因此具有更快的检测速度。

2.3.1 YOLO v1

论文链接: https://www.cv-foundation.org /开放访问/内容_ CVPR _ 2016 /纸张/红色只读_在线_链接该算法的思想是将图像分割为多个网格,针对每个网格同时预测边界框,并给出适当的概率。 例如,如果要检查的目标的中心位于一个由图像分隔的单元格中,则该单元格负责预测目标的位置和类别。 YOLO v1的检测速度非常快,VOC-07数据集上的mAP达到52.7%,实现了155 fps的实时性能。 YOLO v1算法的检测速度比基于锚定箱的目标检测算法有了很大的提高,但精度相对较低(特别是针对一些小目标检测问题)。

2.3.2 SSD

论文链接: https://arxiv.org/pdf/1512.02325代码链接: https://Github.com/AM DE groot/SSD.Py torch

固态硬盘

SSD算法的主要创新点是提出了多参考和多解决方案检测技术。 SSD算法和以前的一些检测算法的不同点在于,以前的一些检测算法只是在网络最深的部分进行检测,但SSD有多个不同的检测分支,不同的检测分支能够检测多个尺度的目标,因此SSD是马尔格与YOLO v1算法相比,SSD进一步提高了检测精度和速度。 (VOC-07地图=76.8 % )、VOC-12地图=74.9 % )、coco地图@.5=46.5 % )、地图@ [.5, 95]=26.8% )。

2.3.3 YOLO v2

论文链接: https://开放访问. the CVF.com/content _ CVPR _ 2017/Papers/red mon _ yolo 9000 _ better _ faster _ 2010论文链接在分类(Stronger )中,YOLO-v2利用目标分类和检测的联合训练技巧,结合Word Tree等方法,将YOLO v2的检测种类扩展到了上千种。 如果VOC 2007数据集上的YOLO-v2算法表示为67 FPS,则mAP为76.8,而40FPS时,mAP在78.6 YOLO-v2算法中只有一个检测分支,缺乏多尺度上下文信息的捕获

2.3.4 RetinaNet

论文链接: https://开放访问. the CVF.com/content _ iccv _ 2017/Papers/Lin _ focal _ loss _ for _ iccv _ 2010论文链接

日本铁路网

一步检测算法推理速度快,但在精度上比二步检测算法不足。 RetinaNet论文分析了一阶段网络训练中存在的类不均衡问题,提出了可根据Loss大小自动调节权重的Focal loss代替标准的交叉熵损失函数,为模型训练提供了困难的样本另外,根据FPN设计了RetinaNet,精度和速度有不俗的表现。 RetinaNet在维持高速推理的同时,具有与二阶段检测算法相媲美的精度(COCO mAP@.5=59.1%,mAP@[.5, 95]=39.1% )。

2.3.5 YOLO v3

/h1> 论文链接:https://arxiv.org/pdf/1804.02767.pdf代码链接:https://github.com/ultralytics/yolov3

YOLOv3

相比于YOLO v2,YOLO v3将特征提取网络换成了DarkNet53,对象分类用Logistic取代了Softmax,并借鉴了FPN思想采用三条分支(三个不同尺度/不同感受野的特征图)去检测具有不同尺寸的对象。YOLO v3在VOC数据集,Titan X上处理608608图像速度达到20FPS,在COCO的测试数据集上mAP@0.5达到57.9%。其精度比SSD高一些,比Faster RCNN相比略有逊色(几乎持平),比RetinaNet差,但速度是SSD、RetinaNet和Faster RCNN至少2倍以上。YOLO v3采用MSE作为边框回归损失函数,这使得YOLO v3对目标的定位并不精准,之后出现的IOU,GIOU,DIOU和CIOU等一系列边框回归损失大大改善了YOLO v3对目标的定位精度。

2.3.6 YOLO v4

论文链接:https://arxiv.org/pdf/2004.10934代码链接:https://github.com/Tianxiaomo/pytorch-YOLOv4

相比于YOLO v3,YOLO v4在输入端,引入了Mosaic数据增强、cmBN、SAT自对抗训练;在特征提取网络上,YOLO v4将各种新的方式结合起来,包括CSPDarknet53,Mish激活函数,Dropblock;在检测头中,引入了SPP模块,借鉴了FPN+PAN结构;在预测阶段,采用了CIOU作为网络的边界框损失函数,同时将NMS换成了DIOU_NMS等等。总体来说,YOLO v4具有极大的工程意义,将近年来深度学习领域最新研究的tricks都引入到了YOLO v4做验证测试,在YOLO v3的基础上更进一大步。

YOLOv4

YOLO v4在COCO数据集上达到了43.5%AP(65.7% AP50),在Tesla V100显卡上实现了65 fps的实时性能。

2.3.7 Anchor-based目标检测算法局限性

基于Anchor的目标检测算法主要有以下四大缺点:

Anchor的大小,数量,长宽比对于检测性能的影响很大(通过改变这些超参数Retinanet在COCO benchmark上面提升了4%的AP),因此Anchor based的检测性能对于anchor的大小、数量和长宽比都非常敏感;这些固定的Anchor极大地损害了检测器的普适性,导致对于不同任务,其Anchor都必须重新设置大小和长宽比;为了去匹配真实框,需要生成大量的Anchor,但是大部分的Anchor在训练时标记为负样本,所以就造成了样本极度不均衡问题(没有充分利用fore-ground);在训练中,网络需要计算所有Anchor与真实框的IOU,这样就会消耗大量内存和时间。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。