首页 > 编程知识 正文

三维游戏场景(场景)

时间:2023-05-03 11:28:57 阅读:90754 作者:4486

作者:盛夏之夜的星星

来源: Wechat公众号|3D视觉工作室

论文标题:3dobjectrecognitioninclutteredsceneswithlocalsurfacefeatures 3360 asurvey

作者: Yulan Guo,穆罕默德Benna moun,Ferdous Sohel,Min Lu,和建wan

论文地址:在“3D视觉工作室”中,只要在后台回复“3维物体”,就可以直接下载。

摘要:在杂乱的场景中进行三维目标识别是一个迅速发展的研究领域。 根据使用的特征类型,三维物体识别方法可以大致分为两种基于:全局特征的方法和基于局部特征的方法。 的基于局部地物特征的方法对遮挡和噪声具有很强的鲁棒性,经常出现在现实世界的场景中。 对现有局部地物综合研究了三维物体识别方法。 这些方法一般包括三级:三维关键点检测、局部表面特征描述和表面一致。

一 引言

杂乱的场景中,物体识别是计算机视觉研究领域的基础。 在智能监测、自动组装、遥感、移动操作、机器人、生物特征分析、医学治疗等诸多应用。 在过去的几十年中,二维物体识别得到了广泛的应用,目前已发展成较为成熟的研究区域[1]。 距离图像与二维图像相比,展示了物体识别的几个优点。 例如,(I )距离图像提供的几何信息比2D图像多。 距离图像也最好将表面测量尺寸编码。 (ii )距离图像通常不受尺度的影响,进行旋转和照明。 (iii )与根据2维图像推测的姿势相比,推测3维距离图像中物体的姿势更正确。 因此,距离图像可能克服二维图像的许多困难是物体识别[2]。 这些优势使得三维物体识别成为活跃的研究课题。 此外,技术迅速发展,Microsoftkinect等低成本3D采集系统,使得距离图像的获取变得更加容易。 此外,随着设备的进步,计算密集型处理三维物体识别算法成为了比较公平和可以接受的方式。 所有这些因素的共同作用,推动了研究的三维物体识别系统的发展。

现有的三维物体识别方法可以分为两种基于:全局特征的方法和基于局部特征的方法。 基于全局特征的方法处理对象作为整体被认可。 它们定义了一组有效、简洁地描述完整3D对象(或模型)的全局特征。 这些方法在三维形状检索中被广泛应用分类。 这个类别的例子有几何三维矩形、形状分布、点特征直方图[3]、空间嵌入。 但是,由于将忽略形状的详细信息,因此必须首先将对象从场景中分割出来。 因此,它不适合从看起来局部混乱的场景中识别对象。 另一方面,基于局部特征的方法只提取局部特征的特定关键点周围的表面。 通常,它们以基于全局特征的方法来处理遮挡和噪声是很好的,这种类型在2D域中的表现有时明显更好地进行对象识别。 这个结论也扩展到了3D物体识别领域。 在此基础上,重点讨论了三维物体识别是具有局部地表特征的杂乱场景。

范围在010到1010之间的图像可以表示为三种类型:深度图像、点云和多边形网格。 距离图像,即三维物体的目标识别是正确识别事物中存在的物体范围并将其成像和确定姿态。 在概念层次上,基于典型局部特征的三维物体识别系统主要包括三个部分:阶段:三维关键点检测、局部表面特征描述和表面匹配。 在3D键检测阶段,将3维点的信息内容丰富决定为键。 按密钥检测固有规模。 这两个位置和一个关键点的尺度,即近邻的大小,定义了以后要使用的局部表面,在局部表面特征描述阶段,编码关键点附近曲面的几何信息成为代表性的特征描述符。 如果在曲面上匹配相位,并将场景要素与库中的所有模型特性匹配,则将对应并假设一组要素。 这些假设最终被验证以推断身份和物体的姿态。

二 相关工作

密钥检测是基于局部坐标的三维目标识别系统的第一个主要阶段。 最简单的关键点检测方法是曲面稀疏采样和网格提取。 但是,这些方法没有在再现性和信息性方面产生合格的关键。 这是因为没有考虑或很少考虑这些被检测出的重要的判别信息的丰富性。 因此,有必要根据关键点的特殊性对其进行检查。 根据尺度判断是否进行自适应检测,关键点检测方法可以分为固定尺度关键点检测方法和自适应尺度关键点检测方法。

三 3D关键点检测

固定尺度关键点检测方法将在规定的附近区域内具有特征的点定义为关键点。 近旁的大小由尺度决定,尺度是算法的输入参数。

3.1 固定尺寸关键点的检测

Mokhtarian等人使用高斯和平均曲率检测了键。 如果点p的曲率值大于内圈附近的曲率值,则点p是关键点。 Yamany和Farag使用单纯形角点检测关键点。 单形角与平均曲率有关。 单形角满足约束|sin()的位置

检测到关键点。它们的阈值τ对于关键点检测的性能是至关重要的,选择一个合适的阈值仍然是一个未解决的问题。Gal和Cohen-Or提出了关键点检测的显著性等级。p点的显著性等级是两项的线性组合,项是相邻点曲率的和,第二项是相邻点曲率值的方差。选取显著性等级高的点作为重点。Chen和Bhanu基于形状指标值检测关键点。也就是说,在一个邻域内,点p只有在其形状索引值为局部最优(最大值/最小值)时才被标记为关键点。实验结果表明,检测到的关键点分布均匀在[33]表面。然而,这种方法对噪声很敏感。

3.1.2 基于 (OSV)方法

Matei等人使用相邻点协方差矩阵的最小特征值λ3来测量点p周围的表面变化。根据点的表面变化对点进行排序。本文使用两个连续特征值的比率来修剪点。Glomb提出了四个命题,将流行的Harris检测器从2D图像扩展到3D网格。他们发现哈里斯探测器利用拟合二次曲面的导数,达到了最好的效果。这一命题,siiran和Busto提出了一种“哈里斯3D”探测器。给定一个点p,相邻的点优先平移到质心,然后旋转以对齐垂直于p和z轴。

3.2 自适应尺度关键点检测

自适应尺度关键点检测方法首先对给定的距离图像建立尺度空间。然后,他们在空间和尺度上选取具有极端特殊性的点作为关键点。结果,检测出了关键点的位置和尺度。根据尺度空间构建技术,这些方法可以分为四类:坐标平滑法、几何属性平滑法、表面变化法和基于变换的方法。

3.2.1 基于坐标平滑的方法

这些方法是通过平滑距离图像的3D坐标连续地构造一个尺度空间,以二维尺度空间理论为基础的。

Uluoy通过构造曲面的高斯金字塔得到了三维曲面的尺度空间。然后他们计算了平均值和所有点在所有尺度上的高斯曲率值,并根据每个点的高斯曲率和平均曲率将其分类为八种曲面类型之一。在分类的尺度空间中,每个具有相同表面类型的连接体都被检测到。连接体的中心被选择为一个关键点的位置。

3.2.2 基于几何属性平滑(GAS)方法

这些方法通过连续平滑距离图像的几何属性来构造尺度空间。由于滤波是应用于几何属性而不是距离图像本身,没有对三维形状的外部几何进行修改。因此,保持了尺度空间的因果关系属性。

3.2.3 基于表面变化(SV)方法

这些方法首先计算一组不同邻域大小的曲面变化。然后,他们通过寻找不同邻域大小的局部邻域表面变化的最大值来检测关键点。它们是基于假设邻域大小可以看作是一个离散尺度参数,增加局部邻域大小类似于应用平滑滤波器。这些方法避免了对3D表面的直接更改,而且它们很容易实现。

图1 在龙模型上检测到关键点

(a)通过[4]检测到的关键点。不同大小的球体对应着不同尺度的关键点。

(b)(c)(d)通过[5]在3个尺度上检测到的关键点及其邻域。每个彩色的小块对应着一个关键点的附近,蓝色球体的大小对应着尺度。

Ho和Gibbins[4]使用的是标准偏差邻点的形状索引值来测量地表变化。检测到的要点在图中对龙模型进行了说明。图1(a)表明了该方法的有效性对小噪声有效且鲁棒。它实现了高重复性的结果,即使有噪声表面。后来,Ho和Gibbin估算了曲线度在不同的尺度上,选择极端的点尺度空间中的值作为关键点。同样的,Ioanou等提出了对较大的字符进行分割的DoN (Normals)操作符无组织的3D点云。DoN操作员提供点数的大幅减少,从而减少任何后续处理的计算成本场景的阶段(当处理在分割的部分)。犰狳上发现的关键点的插图模型如图2所示。实验结果显示这些关键点对于刚性变换,等距变形和不同的网格三角法。如图3所示,它能够检测出高度可重复的关键点,并且对噪声具有鲁棒性。然而,该方法对不同的网格分辨率非常敏感,并且检测到的关键点非常少。此外,它还需要一个大的计算机内存。

图2 在不同姿态的犰狳模型上检测到的关键点

图3 在犰狳模型上检测到关键点

结论

本文对基于局部表面特征的三维物体识别方法的研究现状进行了综述。对全面的3D对象识别方法进行了分类并分析了各种特征类型及其提取方法的优缺点。

参考文献

[1] K. Mikolajczyk and C. Schmid, “A performance evaluation f local descriptors,” IEEE Transactions on Pattern Analysis and achine Intelligence, vol. 27, no. 10, pp. 1615–1630, 2005.

[2] K. Lai, L. Bo, X. Ren, and D. Fox, “A large-scale hierarchicalmulti-view RGB-D object dataset,” in IEEE International onference on Robotics and Automation, 2011, pp. 1817–1824.

[3] R. Rusu, G. Bradski, R. Thibaux, and J. Hsu, “Fast 3D ecognition and pose using the viewpoint feature histogram,”in 2010 IEEE/RSJ International Conference on Intelligent Robots nd Systems, 2010, pp. 2155–2162.

[4] H. Ho and D. Gibbins, “Multi-scale feature extraction for3D surface registration using local shape variation,” in 23rd International Conference on Image and Vision Computing New Zealand, 2008, pp. 1–6.

[5] R. Unnikrishnan and M. Hebert, “Multi-scale interest regions from unorganized point clouds,” in IEEE Conference on Computer Vision and Pattern Recognition Workshops, 2008, pp. 1–8.

本文仅做学术分享,如有侵权,请联系删文。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。