首页 > 编程知识 正文

descriptive translation studies,slam技术及应用

时间:2023-05-03 07:42:30 阅读:16651 作者:4557

欢迎大家到腾讯云社区,获得更多腾讯庞大的技术实践干货哦~

作者: jmdhmg

随着近几年机器人、无人机、无人驾驶、VR/AR的爆炸,SLAM技术也广为人知,被认为是这些领域的关键技术之一。 本文简要介绍了SLAM技术及其发展,分析了视觉SLAM系统的关键问题和实际应用中的难点,展望了SLAM的前景。

1. SLAM技术slam (simultaneouslocalizationandmapping ),机器人从未知环境的未知地点出发,根据运动中反复观测到的环境特征定位自己的位置和姿势,进而根据自己的位置定位周围环境从SLAM在机器人领域提出的重要学术价值和应用价值出发,实现并发一直被认为是实现全自主移动机器人的关键技术。

如下图所示,通俗地说,贫民窟会回答两个问题。 “我在哪里? ”“我的周围是什么? ”就像人在陌生的环境里一样,贫民窟要解决的是恢复观察者自身与周围环境的相对空间关系,“我在哪里”对应定位问题,“我周围是什么”对应制图问题,给出周围环境的描述。 回答这两个问题,其实就完成了对自身和周边环境的空间认识。 有了这个基础,就可以进行路径规划到达目的地,需要及时检测和避开过程中遇到的障碍物,确保运行安全。

2. SLAM发展概述从20世纪80年代提出SLAM概念到现在,SLAM技术已经有30多年的历史。 用于SLAM系统的传感器从最初的声纳扩展到与后来的2D/3D激光雷达、单眼、双眼、RGBD、ToF等各种照相机、惯性测量单元IMU等传感器的融合; SLAM算法也从最初的基于过滤的方法(EKF、PF等)转变为基于优化的方法,技术框架也从最初的单线程向多线程发展。 以下是这些过程的一些典型SLAM技术。

)1)激光雷达灌篮的发展

激光雷达的SLAM(LidarSLAM )采用2D或3D激光雷达(也称为单线或多线激光雷达),如下图所示。 扫地机器人等室内机器人普遍使用2D激光雷达,无人驾驶领域普遍使用3D激光雷达。

激光雷达的优点是测量精确,可以比较精确地提供角度和距离信息,可以达到1的角度精度以及cm级的测距精度,扫描范围广(通常可以覆盖平面内270以上的范围),而且扫描镜式固体激光Hokuyo等)能够达到较高的数据刷新率20Hz以上,基本满足实时操作需求的缺点是价格比较高(即使是目前市面上比较便宜的机械旋转式单线激光雷达也需要几千元),安装部署在结构上有要求

激光雷达SLAM绘制的地图常常用占用栅格地图(Ocupanccy Grid )表示,每个栅格以概率的形式表示被占用的概率,保存非常紧凑,特别适用于路径规划。

现任Udacity创始人首席执行官、前谷歌副总裁、谷歌无人车领导者Sebastian Thrun大神(下图)在2005年的经典著作《Probabilistic Robotics》中,利用2D激光雷达根据概率方法构建和定位地图此后,它成为二维激光雷达制图标准方法之一的g映射[1] [2]的基础,该算法也被集成到机器人操作系统(Robot Operation System,ROS )中。

2013年,文献[3]对ROS中几种2D SLAM的算法HectorSLAM、KartoSLAM、CoreSLAM、LagoSLAM和GMapping进行了比较评价,读者可以详细查看。

2016年,谷歌开放了其激光雷达SLAM算法库Cartographer[4]。 它改善了g映射计算复杂、不能有效处理闭环的缺点,运用SubMap和Scan Match思想构建地图,可以有效处理闭环,取得了较好的效果。

)2)视觉SLAM的发展

与激光雷达相比,作为视觉SLAM传感器的照相机价廉物美,而且随处可见。 另外,图像能提供更丰富的信息,特征区分度高,缺点是图像信息的实时处理需要较高的计算能力。 幸运的是,随着计算硬件能力的提高,在小型PC、嵌入式设备甚至移动设备上运行实时可视scram成为可能。

用于视觉SLAM的传感器目前主要有单目照相机、双目照相机、RGBD照相机3种,其中RGBD照相机的深度信息是根据结构光的原理计算的(例如Kinect1代),和投影红外线pattern用双目红外线照相机计算的

现代流行的视觉贫民窟系统大致可以分为前端和后端,如下图所示。 前端相当于VO ),研究帧与帧之间的变换关系,主要进行实时姿态跟踪,处理输入的图像,计算姿态变化,同时检测并科

理闭环,当有IMU信息时,也可以参与融合计算(视觉惯性里程计VIO的做法);后端主要对前端的输出结果进行优化,利用滤波理论(EKF、PF等)或者优化理论进行树或图的优化,得到最优的位姿估计和地图。

采用滤波器的SLAM,如下图(a),估计n时刻的相机位姿Tn需要使用地图中所有路标的信息,而且每帧都需要更新这些路标的状态,随着新的路标的不断加入,状态矩阵的规模增长迅速,导致计算和求解耗时越来越严重,因此不适宜长时间大场景的操作;而采用优化算法的SLAM,如下图(b),通常结合关键帧使用,估计n时刻的相机位姿Tn可以使用整个地图的一个子集,不需要在每幅图像都更新地图数据,因此现代比较成功的实时SLAM系统大都采取优化的方法。

下面介绍视觉SLAM发展历程中几个比较有代表性的SLAM系统进行介绍:

MonoSLAM[5]是2007年由Davison 等开发的第一个成功基于单目摄像头的纯视觉SLAM 系统。MonoSLAM使用了扩展卡尔曼滤波,它的状态由相机运动参数和所有三维点位置构成, 每一时刻的相机方位均带有一个概率偏差,每个三维点位置也带有一个概率偏差, 可以用一个三维椭球表示, 椭球中心为估计值, 椭球体积表明不确定程度(如下图所示),在此概率模型下, 场景点投影至图像的形状为一个投影概率椭圆。MonoSLAM 为每帧图像中抽取Shi-Tomasi角点[6], 在投影椭圆中主动搜索(active search)[7]特征点匹配。由于将三维点位置加入估计的状态变量中,则每一时刻的计算复杂度为O(n3) , 因此只能处理几百个点的小场景。

同年,Davison在Oxford的师父Murray和Klein发表了实时SLAM系统PTAM(Parallel Tracking and Mapping)[8]并开源(如下图),它是首个基于关键帧BA的单目视觉SLAM 系统, 随后在2009 年移植到手机端上[9]。PTAM在架构上做出了创新的设计,它将姿态跟踪(Tracking)和建图(Mapping)两个线程分开并行进行,这在当时是一个创举,第一次让大家觉得对地图的优化可以整合到实时计算中,并且整个系统可以跑起来。这种设计为后来的实时SLAM(如ORB-SLAM)所效仿,成为了现代SLAM系统的标配。具体而言,姿态跟踪线程不修改地图,只是利用已知地图来快速跟踪;而建图线程专注于地图的建立、维护和更新。即使建立地图线程耗时稍长,姿态跟踪线程仍然有地图可以跟踪(如果设备还在已建成的地图范围内)。此外,PTAM还实现丢失重定位的策略,如果成功匹配点(Inliers)数不足(如因图像模糊、快速运动等)造成跟踪失败时,则开始重定位[10]——将当前帧与已有关键帧的缩略图进行比较,选择最相似的关键帧作为当前帧方位的预测。

2011年,Newcombe 等人提出了单目DTAM 系统[11], 其最显著的特点是能实时恢复场景三维模型(如下图)。基于三维模型,DTAM 既能允许AR应用中的虚拟物体与场景发生物理碰撞,又能保证在特征缺失、图像模糊等情况下稳定地直接跟踪。DTAM采用逆深度(Inverse Depth)[12]方式表达深度。如下图,DTAM将解空间离散为M×N×S 的三维网格,其中M× N为图像分辨率,S为逆深度分辨率,采用直接法构造能量函数进行优化求解。DTAM 对特征缺失、图像模糊有很好的鲁棒性,但由于DTAM 为每个像素都恢复稠密的深度图, 并且采用全局优化,因此计算量很大,即使采用GPU 加速, 模型的扩展效率仍然较低。

2013年,TUM机器视觉组的Engel 等人提出了一套同样也是基于直接法的视觉里程计(visual odometry, VO)系统,该系统2014年扩展为视觉SLAM 系统LSD-SLAM[13],并开源了代码。与DTAM相比,LSD-SLAM 仅恢复半稠密深度图(如下图),且每个像素深度独立计算, 因此能达到很高的计算效率。LSD-SLAM 采用关键帧表达场景,每个关键帧K包含图像 Ik、逆深度图Dk和逆深度的方差Vk。系统假设每个像素x的逆深度值服从高斯分布N(Dk (x),Vk (x))。LSD-SLAM 的前台线程采用直接法计算当前帧t与关键帧k之间相对运动,后台线程对关键帧中每个半稠密抽取的像素点x(梯度显著区域), 在It中沿极线搜索Ik (x)的对应点, 得到新的逆深度观测值及其方差,然后采用EKF更新Dk和Vk 。LSD-SLAM采用位姿图优化来闭合回环和处理大尺度场景。2015年,Engel等人对LSD-SLAM进行了功能拓展,使其能够支持双目相机[14]和全景相机[15]。

2014年,苏黎世大学机器人感知组的Forster等人提出开源的SVO系统[16],该系统对稀疏的特征块使用直接法配准(Sparse Model-based Image Alignment),获取相机位姿,随后根据光度不变假设构造优化方程对预测的特征位置进行优化(Feature Alignment),最后对位姿和结构进行优化(Motion-only BA和Structure-only BA),而在深度估计方面,构造深度滤波器,采用一个特殊的贝叶斯网络[17]对深度进行更新。SVO的一个突出优点就是速度快,由于使用了稀疏的图像块,而且不需要进行特征描述子的计算,因此它可以达到很高的速度(作者在无人机的嵌入式ARM Cortex A9 4核1.6Ghz处理器平台上可以达到55fps的速度),但是SVO缺点也很明显,它没有考虑重定位和闭环,不算是一个完整意义上的SLAM系统,丢失后基本就挂了,而且它的Depth Filter收敛较慢,结果严重地依赖于准确的位姿估计;2016年,Forster对SVO进行改进,形成SVO2.0[18]版本,新的版本做出了很大的改进,增加了边缘的跟踪,并且考虑了IMU的运动先验信息,支持大视场角相机(如鱼眼相机和反射式全景相机)和多相机系统,该系统目前也开源了可执行版本[19];值得一提的是,Foster对VIO的理论也进行了详细的推导,相关的文献[20]成为后续SLAM融合IMU系统的理论指导,如后面的Visual Inertial ORBSLAM等系统。

2015年,Mur-Artal 等提出了开源的单目ORB-SLAM[21],并于2016年拓展为支持双目和RGBD传感器的ORB-SLAM2[22],它是目前支持传感器最全且性能最好的视觉SLAM系统之一,也是所有在KITTI数据集上提交结果的开源系统中排名最靠前的一个[23]。ORB-SLAM 延续了PTAM 的算法框架,增加了单独的回环检测线程,并对框架中的大部分组件都做了改进,归纳起来主要有以下几点:1)ORB-SLAM追踪、建图、重定位和回环检测各个环节都使用了统一的ORB 特征[24],使得建立的地图可以保存载入重复利用;2)得益于共视图(convisibility graph)的使用,将跟踪和建图操作集中在一个局部互见区域中,使其能够不依赖于整体地图的大小,能够实现大范围场景的实时操作;3)采用统一的BoW词袋模型进行重定位和闭环检测,并且建立索引来提高检测速度;4)改进了PTAM只能手工选择从平面场景初始化的不足,提出基于模型选择的新的自动鲁棒的系统初始化策略,允许从平面或非平面场景可靠地自动初始化。后来,Mur-Artal又将系统进行了拓展,形成了融合IMU信息的Visual Inertial ORB-SLAM[25],采用了Foster的论文[]提出的预积分的方法,对IMU的初始化过程和与视觉信息的联合优化做了阐述。

2016年,LSD-SLAM的作者,TUM机器视觉组的Engel等人又提出了DSO系统[26]。该系统是一种新的基于直接法和稀疏法的视觉里程计,它将最小化光度误差模型和模型参数联合优化方法相结合。为了满足实时性,不对图像进行光滑处理,而是对整个图像均匀采样。DSO不进行关键点检测和特征描述子计算,而是在整个图像内采样具有强度梯度的像素点,包括白色墙壁上的边缘和强度平滑变化的像素点。而且,DSO提出了完整的光度标定方法,考虑了曝光时间,透镜晕影和非线性响应函数的影响。该系统在TUM monoVO、EuRoC MAV和ICL-NUIM三个数据集上进行了测试,达到了很高的跟踪精度和鲁棒性。

2017年,香港科技大学的lmdhj老师课题组提出了融合IMU和视觉信息的VINS系统[27],同时开源手机和Linux两个版本的代码,这是首个直接开源手机平台代码的视觉IMU融合SLAM系统。这个系统可以运行在iOS设备上,为手机端的增强现实应用提供精确的定位功能,同时该系统也在应用在了无人机控制上,并取得了较好的效果。VINS-Mobile使用滑动窗口优化方法,采用四元数姿态的方式完成视觉和IMU融合,并带有基于BoW的闭环检测模块,累计误差通过全局位姿图得到实时校正。

 

推荐阅读

漫谈 SLAM 技术(下)

手把手教你Serverless的沙龙来不来约?

云服务器20元/月起,更享千元续费大礼包

此文已由作者授权腾讯云技术社区发布,转载请注明原文出处

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。