首页 > 编程知识 正文

机器人手眼标定的步骤,机器人手眼标定精度

时间:2023-05-04 16:30:34 阅读:252344 作者:3836

3D相机机器人手眼标定(眼在手上)全过程 简述

目前在机器人高层规划中,机器人越来越依赖于摄像头的反馈信息,比如自动打磨,焊接,喷涂的智能规划,或者一些分拣,码垛的规划. 在项目开始前, 第一步要做的一定是给机器人和摄像头进行标定. 那么如何结合机器人标定摄像头就是本片要讨论的问题. 本片接下来就是记录我自己做的标定全过程.

标定摄像头前一定要先标定机器人

手眼标定非常依赖机器人给出的参数,如果参数不准确,一定会影响到标定结果. 而且还很难察觉. 否则,会浪费大量时间在检查摄像头标定步骤中, 却忽略机器人参数本身.

选取好的标定板

标定板也很重要, 简单的棋盘格标定板可以从opencv官网上链接下载并打印. 如果追求精度,那就要在淘宝上购买更精确的标定板. 为了追求精确度,就不要省钱了.

计算标定板的角点


上图为opencv的棋盘标定板, 角点计算是算这个棋盘的内部角点(也就是正方块的角), 就是说边缘部分的角是不算的. 那么从左往右数,这个棋盘的长中,角点有九个, 宽中角点有6个. 就是说这个棋盘是6*9的

安装好手眼


如图安装好机器人和相机, 该相机安装在机器人的末端,所以就是眼在手上的机器人标定.

开始标定 手眼标定原理

手眼标定的原理我就不在这里探讨了,我贴一段别人的博客,可以去看那里.
https://blog.csdn.net/yaked/article/details/77161160

参数收集

第一步就是先把足够的参数收集起来 然后再统一计算. 那么需要哪些参数呢

标定棋盘参数, 比如我们的棋盘如上是6*9的, 棋盘的宽度, 我算了下大概是23.8mm机器人一个随机位置下的可以拍摄到该标定板的有效图片
解释起来就是把机器人随机移动,装换相机的一个视角去观察这个标定板, 如果该视角下看不到,或者只
看到一小部分标定板,那么该图片无效,我们要把有效的图片记录下来,那么尽量让机器人移动到一个位置下, 相机能拍摄到标定板全貌. 然后记录保存该图片记录该图片拍摄下的机器人状态(6轴状态)重复2和3步骤, 20次.
解释下,也就是获得20组图片对应机器人状态的数据. 但不一定是20组, 看你自己吧. 计算 用opencv计算出内外参比较简单具体的做法可以直接看官方教程

https://docs.opencv.org/4.4.0/dc/dbb/tutorial_py_calibration.html

具体的方法讲解 初始化准备参数 A = n_long * side B = n_short * side # termination criteria criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 30, 0.001) 准备好标定板的世界3d坐标 objp = np.zeros((n_short*n_long,3), np.float32) objp[:,:2] = np.mgrid[0:A:side,0:B:side].T.reshape(-1,2) # Arrays to store object points and image points from all the images. objpoints = [] # 3d point in real world space imgpoints = [] # 2d points in image plane. axis = np.float32([[3,0,0], [0,3,0], [0,0,-3]]).reshape(-1,3) * side rvecs = [] tvecs = [] 迭代获取的图片参数步骤
具体的cv函数用法可以看这篇博客
https://blog.csdn.net/weixin_41695564/article/details/80422329或者看opencv官网
3.1 获得灰度图 gray = cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)

3.2 计算棋盘标定板的角点

ret, corners = cv2.findChessboardCorners(gray, (n_long,n_short),None)

3.3 进一步在获得的角点参数下亚像素信息

corners2 = cv2.cornerSubPix(gray,corners,(15,15),(-1,-1),criteria)

3.4 重复上述3.1到3.3的迭代获取多组亚像素信息

3.5 计算相机的内外参

ret, mtx, disto, rvecs, tvecs = cv2.calibrateCamera(objpoints, imgpoints, gray.shape[::-1],intrinsic,disto)

3.6 计算误差

for i in range(len(images)): imgpoints2, _ = cv2.projectPoints(objpoints[i], rvecs[i], tvecs[i], mtx, disto) error = cv2.norm(imgpoints[i],imgpoints2, cv2.NORM_L2)/len(imgpoints2) mean_error += error print("mean error: ", mean_error/len(objpoints))

至此为利用opencv计算内外参的手眼标定全部过程. 当然具体要根据自己的项目情况来优化代码.

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。