首页 > 编程知识 正文

相机 测距,摄影测量3D

时间:2023-05-04 16:53:52 阅读:252345 作者:1681

1.引言
3D相机 ,区别于传统的只能获取平面图像的2D相机,最大的特点在于而已获得景深数据。通过平面坐标(x,y)和摄像头距离该点的深度数据z的组合。可以获取图像中每个点的三维坐标,可以完成真实场景的还原,场景重建等工作。
目前,3D相机景深数据的测量方法主要有三个:

结构光:苹果(prime sence ),微软kinect-1 ,英特尔real sence双目视觉法: Leap Motion ,ZED,大疆光飞行时间法(TOF)

2.结构光
结构光测距方法:采用一束特定波长的不可见红外光作为光源,照射在物体上,然后根据返回的光学畸变图像得到物体的位置信息和深度信息。结构光根据图案不同可以分为三类:条纹结构光,编码结构光,散斑结构光。

散斑指的是激光照射到粗糙物体上形成的衍射图像,这些图像具有高度的随机性,根据距离的不同呈现不同的状态。基于预先的标定结果(散斑图像与深度数据对应),可以通过特征匹配,查找到不同的散斑图像对应的深度值。
3.双目视觉
双目立体视觉,测距原理是:通过不同的角度获得被测物体的两幅图像,计算两幅图上对应点之间的位置偏差,获取物体的三维信息。
双目视觉仅仅依靠图像进行特征点匹配,因此对附加设备的要求低,但是要求对两个摄像头间的位置做到精确的标定。

4.光飞行时间法TOF
光飞行时间法,取字面意思,根据探测光脉冲的飞行时间来计算物体的深度数据,因为光速极快,直接检测光飞行时间并不可行,通常通过检测光的相位偏移来实现。

更详细的内容可参考pdf:
http://www.orbbec.com.cn/download/sdk/01初级资料/2-3D传感摄像头简介/3-3D相机成像原理简介.pdf

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。