首页 > 编程知识 正文

行人重识别网络,行人检测识别系统

时间:2023-05-04 13:26:27 阅读:177495 作者:328

另一方面,行人检测方法介绍YOLO主要用于对象识别和重定位,最大的特点是快速,只要看图像就能知道哪些对象及其位置,并可用于实时系统。 所以我们用YOLO进行行人检测。 这是YOLOv4的网络结构图和检查效果。

二、行人再识别方法介绍在确定我们的再识别方法之前,我们分析了目前主流的行人再识别算法,主要分为两类,一类是特征学习,另一类是度量学习。

2.1特征学习(Representation learning )特征学习将行人再识别问题作为分类问题,最初仅用personID计算分类误差损失,但行人的ID信息不足以学习泛化能力足够高的模型,需要将行人的性别、服装等属性特性

2.2度量学习(Metric learning )度量学习的目的是学习两幅图像的相似度,这里的相似度只是两幅图像的特征向量之间的距离。 网络的损耗函数使正样本接近原始图像,而负样本远离原始图像。

只考虑全局特征

仅考虑全局特征计算图像距离存在许多缺点,如检测框检测不准确、运动不一致、存在遮挡、相似两人的情况影响了图像相似度计算等。

结合局部特征

因此,如果有相关工作,可以考虑结合局部特征计算。 例如,这两个图像被垂直分割,分割的图像块依次被发送到LSTM网络,最终获得的特征融合了所有图像块的局部特征。 该方法的缺点是对图像定位要求高,两幅图像上下不对齐反而会导致模型判断错误。

局部对齐

另外,提出了使图像的局部特征一致。 匹配方法需要对人体进行骨关键点检测或姿态估计,截取检测到的人体关键点,使这些关键点匹配。 因此,需要额外训练骨骼关键点检测和姿态估计模型,成本非常大。

三、在基于深度学习的行人再识别系统中,介绍我们采用的方法如何解决局部配准问题。 仍然是垂直分割图像,分别提取图像a与图像b的局部特征量,组合这8个特征向量与这8个特征向量计算距离以获得8*8矩阵(从动态规划法(使用该式) 0、0 )这一点出发) 78 图像a第0个块与图像b的第4个块一致,图像a的第1个块与图像b的第4个块一致,图像a的第2个块与图像b的第5个块一致等。

解决了局部对齐问题。 接下来,我们来看看AlignedReID的总体框架。 训练时,加载一组图像经过ResNet50网络提取特征向量,总损失函数是将分类损失函数和测量学习三元组损失函数相加得到的。 三元组损失函数融合了全局距离和局部距离。 全局距离是指计算两个全局特征向量的cxdkj距离。 local distance是通过上述动态规划方法得到的。 在测试阶段,去掉local distace和Softmax这2个分支,只使用global feature计算两张图像的相似度。 实验结果表明,global feature Rank1的精度损失约为0.3%左右,但模型的效率得到了大幅提高。

基于YOLOv4和AlignedReID模型实现了行人再识别系统。 系统的算法流程如下。 原图像用YOLOv4筛选行人,将筛选出的行人和对象行人的图像输入到预先训练的ResNet50中提取global feature,计算欧式距离,按距离顺序筛选相似度最高的行人。

演示视频链接:行人再识别系统演示

四、在总结和展望系统实现的过程中,我们发现系统存在一些不足。 最明显的是昏暗的条件下或曝光过强会影响重新认识的效果,这些缺点还有待改进。

另外,目前单帧图像的再识别研究是主流,但通常单帧图像的信息有限,在接下来的工作中可以考虑利用视频序列辅助行人再识别的研究,运动信息和位置信息可以弥补光等引起的误识别。

邮箱: 1771729370(a ) qq.com

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。