应用背景介绍
自主导航是机器人和自动驾驶的核心功能,SLAM技术是实现自主导航的前提和关键。 现有的机器人和自动驾驶车辆往往设有激光雷达、摄像机、IMU、GPS等多种模式的传感器,而且有很多优秀的激光SLAM和视觉SLAM算法。 但是,每种模式的传感器都有优点和缺点。 例如,相机只能测量2D图像,易受光照和夜晚的影响。雷达获取的3D点云稀疏,在长走廊、隧道以及大场景中易退化的GPS测量,容易受环境干扰的各种模式的传感器只能在合适的环境中发挥积极作用。 因此,我们希望以适当的方式融合多种模式的测量,通过优势互补,SLAM算法在各种挑战性环境下持续输出稳健准确的估计结果。 因此,无论是学术界还是工业界,多模态融合都是未来SLAM发展的必然趋势。
相关岗位要求及待遇
目前,各机器人和自动驾驶的企业多年来都有贫民窟算法的岗位需求,对多传感器融合贫民窟算法的岗位更加高薪,缺乏优秀人才。 以下是招聘网站上对多传感器融合岗位的要求和待遇。
如何快速从入门到精通
但是,多模态融合SLAM门槛高,除了需要视觉SLAM和激光SLAM的基础之外,还存在不同模态测量的融合、不同传感器的时间同步、多个传感器的外部校准、多个传感器的异常检测等问题,大家都知道于是我们和机器人学国家重点实验室的博士大佬共同提出了这个课程,从理论和代码实现两个方面对激光雷达-视觉-IMU-GPS融合的SLAM算法的框架和技术难点进行了说明,然后博士大佬对自己多年的机器人工程经验进行了讲解课程概述如下。
讲师介绍
美丽花卷博士、硕博毕业于机器人学国家重点实验室,在IROS、RAS等机器人领域顶级会议和期刊上发表多篇论文,熟悉主流视觉SLAM和激光SLAM框架代码,割除大疆、华为等大工厂的报价本课程以LVI-SAM为框架,介绍多模态融合的SLAM,帮助学生更快地入门并更深入地了解多模态融合的SLAM。
课程亮点
1 .国内首个多模态融合SLAM课程
2 .从理论框架,到按代码说明,分阶段进行
3 .专属学习交流小组可以与讲师、各高校和企业的人才沟通,一起分析、讨论面临的挑战,防止闭门造车
4 .共享真正可以面向工业落地的内容;
学后收获
1 .掌握各传感器模型,传感器标定和数据同步
2 .对激光SLAM和视觉SLAM的框架、各自的优势和劣势以及适应的场景有深刻的理解
3 .掌握多模态融合的切入点,真正手动实现多模态融合优化的代码,然后可以扩展到其他模态传感器的融合
4 .建立良好的交流社团,随时可以与同方向的同学和同行交流;
课程要求与面向对象
1 .有一定的c编程基础,熟悉Linux、ROS等工具
2 .熟悉贫民窟基础知识,对概率论、线性代数、非线性优化有一定的基础;
3 .主要面向机器人和自动驾驶领域的本科生、硕士生、博士生以及从事SLAM算法的企业员工
开课时间
2021年10月17日正式开课,历时两个月,详细课表以学习组内公告为准。 购买课程的学员可以通过截图并添加助手微信免费获得价值150元的知识星优惠券。 推荐超干货3D视觉社区。
课程咨询
点击购买与咨询
微信扫码可以浏览、购买、学习课程
长押加客服微信,多咨询
组号: 910070197
咨询Qq集团,想了解更多
点击“阅读原文”也可以直接购买课程