摘要
为提升机械臂系统对环境的感知能力,针对机械臂多工位精确对准问题,提出了一种具有远近视距引导的机械臂多工位对准技术。首先构造具有远近视距的两目视觉配置,并与机械臂构成Eye‑in‑hand视觉反馈系统。然后标定两目视觉的内外参数和手眼关系变换矩阵。通过离线先验局部对准方式,建立各工位的任务表。提出了三阶段对准策略,即多工位作业起始位姿获取、全局相机的初定位和局域相机的精对准,使得机械臂能在多个工位下实现末端工具与目标的精确对准。通过多位置孔轴对准实验验证了本文方法的可行性。单个孔位重复对准标准差角度不超过0.015°,位置不超过0.078 mm,三阶段对准实验结果表明,角度误差小于0.05°,位置误差小于0.17 mm。
在航空航天领域,机械臂常用于自动钻铆系统中的送钉和插
为提高机械臂工作的稳定性和灵活性,基于视觉的机械臂测量系统受到研究人员的广泛关注,视觉传感器因其精度高、成本低和适应性好等特点成为辅助机械臂完成定位、装配等工作的重要手段之一。国外的相关技术已经非常成熟,德国Fraunhofer研究所将双目系统集成到铣削机器人上,在铣刀主轴上安装反光靶点,通过双目系统测量靶点位姿来反映铣刀主轴的偏差,然后对铣刀主轴的移动量进行反馈补偿,提高机器人运动轨迹的精度,铣削机器人已经成功应用于空客A350翼面的修配工作
机械臂视觉系统在执行跟踪、对接或抓取操作时,借助合作靶标进行定位和位姿测量是一种常见的解决方案:即事先在目标上设计一种尺寸、形状已知的几何图形,视觉系统通过观测该图形获得目标的位姿信息,然后把位姿反馈给机械臂驱动末端执行器对准目
目前,基于视觉的机械臂测量技术主要运用在单个工件的近距离测量工作中,当机械臂需要在多个工位间移动、对多目标执行对准操作时,机械臂往往需要从较远距离开始工作,这使得系统工作环境的横向空间跨度变大,纵向距离变长。在机械臂由远及近的移动过程中,相机在某些距离段会出现失焦、离焦现象,导致位姿测量精度降低,甚至装配任务失败。针对此类问题,Qi
在上述研究的基础上,本文针对机械臂多工位作业问题,搭建了一套具有远近视距的两目视觉系统,并以Eye‑in‑hand形式与工业机械臂相结合。在完成系统标定的基础上,为机械臂多工位对准作业建立任务表,然后在合作靶标的辅助下完成机械臂末端工具与目标的三阶段自动对准,包括多工位起始位姿获取、远距离初定位和近距离精确对准。
所谓多工位对准作业,就是在未知的工作场景中,机械臂系统需要对多个对准目标进行识别和测量,然后按照某种顺序依次完成末端工具与目标的精确对准(在本文中,用孔轴配合来表征)。
本文搭建的机械臂视觉测量系统示意图如

图1 测量系统组成和工作流程
Fig.1 Measurement system composition and workflow
系统的坐标系和位姿关系定义如下:全局相机坐标系,局域相机坐标系,机械臂基座坐标系,机械臂末端法兰坐标系和编码元坐标系。指的是全局相机坐标系相对于局域相机坐标系的位姿关系,本文定义其为两目视觉系统的外参数;指的是法兰坐标系相对于局域相机坐标系的位姿关系,本文定义其为手眼关系;指的是编码元坐标系相对于全局相机坐标系的位姿关系;指的是编码元坐标系相对于局域相机坐标系之间的位姿关系;指的是法兰坐标系相对于基座坐标系的位姿关系。
系统的工作流程如
技术路线如

图2 系统技术路线
Fig.2 System technical route
其次,为多工位作业建立任务表。将各个对准目标放置于末端工具上,进行预对准。此时的对准目标是独立个体,并未处于相应的工位上。局域相机采集编码元图像,从图像中解算出编码值和位姿数据,编码值用于标识不同对准目标,记为期望位姿。于是,任务表记录了各个对准目标与编码值、期望位姿之间的映射关系,这就将末端工具与目标的对准过程转化为两目视觉系统对编码元的识别与位姿计算的过程。任务表可视为对准目标的一种资料入库操作,并不涉及到机械臂位姿部分。在视觉伺服领域,绝大多数情况下,期望图像或期望位姿都是需要预先获取或设定的。具体内容详见第3节。
然后,执行三阶段自动对准策略。当机械臂多工位作业时,对准目标是布置在各工位上,或放置于工作场景中,其位姿是未知的,因此需要视觉系统进行识别、捕捉,获取目标的全局位姿。机械臂视觉测量系统要根据任务表执行对准操作,分别是多工位作业的起始位姿获取阶段、全局相机远距离初定位阶段和近距离局域相机精确对准阶段。具体内容详见第4节。
标定是测量系统必不可少的一个重要环节,高精度的标定结果是后续定位和对准工作的保障。与传统的双目立体视觉不同,本文两目视觉系统中的两台相机视距不同,观察的范围大小不同,一般而言,当全局相机处于正常工作范围时,局域相机处于离焦状态,因此二者缺少公共视场。
针对本文的两目视觉系统,采用标定方法如
(1) |
式中表示第个拍摄视角;为全局相机坐标系相对于局域相机坐标系的位姿关系,即待求解的两目视觉系统的外参数;为大尺寸标定板坐标系相对于小尺寸标定板坐标系的位姿关系;为在第个拍摄视角下局域相机坐标系相对于小尺寸标定板坐标系的位姿关系;为在第个拍摄视角下全局相机坐标系相对于大尺寸标定板坐标系的位姿关系。

图3 系统标定原理
Fig.3 Principle of system calibration
在移动两目视觉系统采集图像过程中,和固定不变,其值是未知的,而和会随着拍摄视角的不同发生变化,这已经通过多视图几何技术求解得到。
对于本文的“Eye‑in‑hand”手眼系统,手眼标定的目的是获取机械臂末端法兰相对于局域相机的位姿关系,标定原理如
建立任务表是在对准目标还未处于工位上时完成的(离线阶段),提前对各个对准目标进行先验信息定义,这些信息包括编码值、编码元二维和三维坐标、期望位姿等。在后续机械臂执行多工位对准作业时,系统要根据任务表中的信息,依次在不同工位下,完成末端工具与目标的精确对准,建立任务表的流程如

图4 任务表建立过程
Fig.4 Process of establishing a task table
首先将对准目标放置于末端工具上,在预对准的情况下由局域相机获取期望图像;然后由对偶椭圆
对每个对准目标都建立上述映射关系,最终形成一张完整的任务表,其形式如
目标 | 与对准目标相关的信息 | |||
---|---|---|---|---|
编号 | ||||
对准 单元1
︙ |
061015
︙ |
(0.017, -0.105, 0.020) (16.118, 15.979, 0.017) (36.508, 36.498, 0.003) (-0.083, 15.533, 0.010) (15.505, 0.034, 0.032) (0.098, 31.004, 0.010) (15.526, 36.600, 0.002) (36.519, -0.094, 0.026) |
(927.819, 1 322.297) (1 093.635, 1 257.100) (1 304.275, 1 172.926) (973.918, 1 212.509) (1 039.607, 1 371.220) (1 020.524, 1 103.443) (1 149.399, 1 109.038) (1 190.548, 1 435.119) |
|
︙ | ︙ | ︙ | ||
对准 单元n | 030912 |
(0.074, 0.100, 0.005) ︙ |
(616.562, 1816.130) ︙ | , |
首先,全局相机对整个场景中的编码元进行搜索,以确定多工位作业的起始位姿。在执行每一项作业过程中,系统都要经过全局相机的初定位和局域相机的精对准,才能实现末端工具与目标的精确对准。
系统需要在多个工位下执行对准任务。首先要解决的问题是,对于每一项任务,机械臂的起始位姿在何处,才能保证全局相机能够观察到与当前任务相关的编码元。只有全局相机观测到编码元,才能进行位姿估计并引导机械臂运动。
机械臂起始位姿的获取过程如

图5 全局相机搜索编码元
Fig.5 Process of global camera searching coded targets
确定完所有任务的起始位姿后,机械臂移动到第一项任务所对应的起始位姿处。全局相机观察视场,由对偶椭圆法获得编码元上的8个椭圆中心像素坐标,经解码后得出编码号,并将8个中心坐标有序排列。如

图6 全局相机的初定位过程
Fig.6 Initial positioning process of global camera
结合两目视觉系统外参数计算编码元坐标系相对于局域相机坐标系的位姿关系
(2) |
式中为编码元相对于局域相机的当前位姿,与期望位姿存在偏差,偏差值为
(3) |
当前位姿和期望位姿的偏差是建立在局域相机坐标系下的,要依据此偏差量计算出机械臂的运动修正量,必须结合第2节系统标定中的手眼关系进行计算,详细计算过程可参考文献[
(4) |
式中:为当前法兰坐标系相对于机械臂基坐标系的位姿关系,可以直接从机械臂自身程序读取,为手眼关系;为偏差值。均为已知量,可以直接计算出,即下一时刻机械臂要运动到达的位姿状态。
在机械臂运动过程中,系统以路点的形式记录下机械臂末端的运动轨迹,记为,,…, 。此举的目的是,在整个定位和对准过程中,当两目视觉系统对编码元的观测出现盲区时,机械臂尝试退回最近的路点重新定位决策。
由于全局相机的初定位精度有限,当机械臂运动后,偏差值并未达到本文设定的对准精度要求(角度偏差0.1°,位置偏差0.2 mm),于是系统自适应地切换到局域相机工作模式,进入精对准阶段。
精对准阶段控制流程如
(5) |
式中:为旋转轴,其模长表示旋转角度;为中的平移量。

图7 精对准阶段控制流程
Fig.7 Flowchart of fine alignment stage
在系统近距离对准的过程中,需要注意目标丢失问题。一般来说,编码元丢失常由旋转引起,平移是不会导致目标丢失问题
在机械臂运动的过程中,测量系统以固定频率从机械臂读取当前时刻的位姿数据,用来判断是否已经运动到指定位姿。机械臂一旦调整至位姿,局域相机再次介入,采集编码元的当前图像,系统计算位姿偏差,如此循环,直至偏差满足
当测量系统完成当前对准任务后,系统在任务表中搜索下一项对准任务的信息,并确定其对应的起始位姿。机械臂退出当前工位,移动到下一项任务的起始位姿处,继续执行对准任务。需要说明的是,本文仅给出两个位置间的直线传递路径,没有做避障等路径规划。在实际应用中,可通过机器人操作系统(Robot operating system, ROS)对现场环境进行建模,利用本文提供前后两个末端位姿信息,在MoveIt模块中进行避障路径规划。
为验证本文基于视觉的机械臂末端对准方法的有效性,搭建了如

图8 实验验证场景
Fig.8 Experiment setup
全局相机和局域相机均采用大恒水星系列型号为MER‑502‑79U3M的国产相机,分辨率为2 448像素×2 048像素,全局相机使用6 mm镜头,局域相机使用8 mm镜头使用。光源选择前向照明与频闪照明相结合的方式,投射频率与相机采集频率同步。以UR10机械臂为中心,在其周围布置了3个工位,共3个对准目标,其所在平面高低不同、角度各异,最大角度差约为90°。机械臂的工作半径在1 m左右,回转角度最大可达120°。两目视觉系统到对准孔的初始距离在1 ~ 1.5 m范围不等。经游标卡尺测量,对准轴的直径为9.90 mm,对准孔1、对准孔2和对准孔3的直径分别为10.04、10.20和10.98 mm。
在机械臂开始执行多工位作业前,任务表已事先建立,记录了3项对准任务,其编码元编号分别为020812、010812和031012。此外,对准任务的起始位姿也已确定。首先,机械臂对孔1执行对准操作,全局相机在场景中搜索到020812编码元后进行位姿估计并引导机械臂运动,然后由局域相机进行观测,引导对准轴与孔1完成精对准,孔轴精确对准时的机械臂状态如

图9 孔1对准结果
Fig.9 Alignment result for hole 1
统计整个对准过程中当前位姿与期望位姿的偏差量,如
步骤 | / (°) | / (°) | / (°) | / mm | / mm | / mm |
---|---|---|---|---|---|---|
0 | -24.00 | 4.50 | 30.93 | -211.49 | -210.25 | 1 237.82 |
1 | -1.42 | 0.28 | 1.52 | -21.18 | -19.67 | 54.50 |
2 | -0.12 | 0.12 | 0.08 | -1.56 | -1.18 | 2.08 |
3 | 0.07 | -0.04 | 0.01 | 0.15 | 0.30 | 0.07 |
4 | -0.04 | -0.03 | 0.01 | 0.15 | -0.07 | -0.05 |
孔2和孔3的对准过程与孔1类似,对准结果如

图10 孔2和孔3的对准结果
Fig.10 Alignment results for hole 2 and hole 3
为了验证本文方法的重复性对准精度,对

图11 50次对准实验的偏差
Fig.11 Deviation of 50 alignment experiments
从图中可得,沿X、Y、Z轴的位置偏差量相当,绕Z轴的角度偏差明显小于绕X、Y轴的角度偏差,这是由于本文使用的是PnP算法进行位姿估计,PnP对面内旋转(绕Z轴旋转)的位姿估计精度更高。同时,
参数 | / (°) | / (°) | / (°) | / mm | / mm | / mm |
---|---|---|---|---|---|---|
均值 | 0.02 | 0.02 | 0.004 | 0.07 | 0.07 | 0.06 |
最大值 | 0.04 | 0.05 | 0.01 | 0.18 | 0.16 | 0.14 |
标准差 | 0.010 | 0.011 | 0.002 | 0.050 | 0.045 | 0.040 |
本文围绕机械臂在多个工位间移动作业时需要对多目标执行对准操作这一问题展开研究,搭建了一套具有远近视距的机械臂测量系统。在完成系统标定和事先建立任务表以记录各对准目标相关信息的基础上,由全局相机和局域相机进行视觉引导,将机械臂多工位作业过程分为起始位姿获取、初定位和精对准3个阶段,最终实现机械臂末端工具与目标的精确对准。通过孔轴对准实验说明本文方法的可行性,单个孔位重复对准标准差角度不超过0.015°,位置不超过0.078 mm;三阶段对准实验结果表明,角度误差小于0.05°,位置误差小于0.17 mm。在本文的基础上,下一步的研究工作主要是改进全局相机搜索编码元的策略和针对动态目标的跟踪方法两个方面。
参考文献
李宇飞, 田威, 李波, 等. 一种面向自动钻铆的机器人自动送钉系统[J]. 航空制造技术, 2019,62(10):44-50. [百度学术]
LI Yufei, TIAN Wei, LI Bo, et al. A robot rivet feeding system for automatic drilling and riveting[J]. Aeronautical Manufacturing Technology, 2019,62(10):44-50. [百度学术]
SONG H C, KIM Y, SONG J B. Automated guidance of peg-in-hole assembly tasks for complex-shaped parts[C]//Proceedings of 2014 IEEE/RSJ International Conference on Intelligent Robots and System. Chicago, USA: IEEE, 2014: 4517-4522. [百度学术]
DAVIS J P, MAYBERRY J P, PENN J P. On-orbit servicing: Inspection repair refuel upgrade and assembly of satellites in space[EB/OL]. [2019-05-01]. https://aerospace.org/sites/default/files/2019-05/Davis-Mayberry-Penn_OOS_04242019.pdf. [百度学术]
MOLLER C, SCHMIDT H C, SHAH N H, et al. Enhanced absolute accuracy of an industrial milling robot using stereo camera system[J]. Procedia Technology, 2016,26: 389-398. [百度学术]
ZHU Weidong, LIU Hua, KE Yinglin. Sensor-based control using an image point and distance features for rivet-in-hole insertion[J]. IEEE Transactions on Industrial Electronics, 2020,67(6): 4692-4699. [百度学术]
WU Chenrui, HE Zaixing, ZHANG Shuyou, et al. A circular feature-based pose measurement method for metal part grasping[J]. Measurement Science & Technology, 2017, 28(11): 115009. [百度学术]
TUSHEV S, SUKHOVILOV B, SARTASOV E. Architecture of industrial close-range photogrammetric system with multi-functional coded targets[C]//Proceedings of 2017 2nd International Ural Conference on Measurements (UralCon). Chelyabinsk, Russia: IEEE, 2017: 435-442. [百度学术]
雷金周, 曾令斌, 叶南. 工业机器人单目视觉对准技术研究[J]. 光学精密工程, 2018,26(3): 733-741. [百度学术]
LEI Jinzhou, ZENG Lingbin, YE Nan. Research on industrial robot alignment technique with monocular vision[J]. Optics and Precision Engineering, 2018,26(3): 733-741. [百度学术]
JIAO Jile, CAO Zhiqiang, ZHAO Peng, et al. Autonomous grasp of the embedded mobile manipulator with an eye-in-hand camera[C]//Proceedings of the 11th IEEE International Conference on Networking, Sensing and Control. Miami, USA: IEEE, 2014:264-272. [百度学术]
胡佳兴, 赵常捷, 郭为忠. 面向在轨智能装配的太空桁架结构编码与靶标系统设计[J]. 机械工程学报, 2021,57(15): 15-22. [百度学术]
HU Jiaxing, ZHAO Changjie, GUO Weizhong. Component encoding and fiducial marker system design for the on-orbit intelligent assembly of modular space truss structure[J]. Journal of Mechanical Engineering, 2021,57(15): 15-22. [百度学术]
QI Naiming, XIA Qi, GUO Yubo, et al. Pose measurement model of space cooperative target capture based on zoom vision system[J]. Advances in Mechanical Engineering, 2016. DOI:10.1177/1687814016655954. [百度学术]
QIN Zhengke, WANG Peng, SUN Jia, et al. Precise robotic assembly for large-scale objects based on automatic guidance and alignment[J]. IEEE Transactions on Instrumentation and Measurement, 2016,65(6):1398-1411. [百度学术]
尚洋, 于起峰. 摄像测量学原理与应用研究[M]. 北京:科学出版社, 2009. [百度学术]
石世锋,叶南,张丽艳. 具有远近视距的两目视觉系统标定技术研究[J]. 光学学报, 2021, 41(24): 188-199. [百度学术]
SHI Shifeng, YE Nan, ZHANG Liyan. Calibration of two-camera vision system with far and near sight distance[J]. Acta Optica Sinica, 2021, 41(24): 188-199. [百度学术]
LI Aiguo, WANG Lin, WU Defeng. Simultaneous robot-world and hand-eye calibration using dual-quaternions and Kronecker product[J]. International Journal of Physical Sciences, 2010,5(10): 1530-1536. [百度学术]
TABB A, AHMADYOUSEF K M. Solving the robot-world hand-eye(s) calibration problem with iterative methods[J]. Machine Vision and Applications, 2017,28(5/6): 569-590. [百度学术]
OUELLET J, HEBERT P. Precise ellipse estimation without contour point extraction[J]. Machine Vision and Applications, 2009,21(1): 59-67. [百度学术]
TERZAKIS G, LOURAKIS M. A consistently fast and globally optimal solution to the perspective-n-point problem[C]//Proceedings of European Conference on Computer Vision.[S.l.]: Springer, 2020: 478-494. [百度学术]
祝鸿宇, 曾令斌, 石世锋, 等. 工业机械臂多工位作业下的视觉对准技术研究[J]. 航空制造技术, 2020,63(19): 56-65. [百度学术]
ZHU Hongyu, ZENG Lingbin, SHI Shifeng, et al. Research on visual alignment technology of industrial robotic arm in multi-station operation[J]. Aeronautical Manufacturing Technology, 2020,63(19): 56-65. [百度学术]
徐德. 单目视觉伺服研究综述[J]. 自动化学报, 2018,44(10): 1729-1746. [百度学术]
XU De. A tutorial for monocular visual servoing[J]. Acta Automatica Sinica, 2018, 44(10): 1729-1746. [百度学术]
SCHRAMM F, MOREL G. Ensuring visibility in calibration-free path planning for image-based visual servoing[J]. IEEE Transactions on Robotics, 2006,22(4): 848-854. [百度学术]
SHOEMAKE K. Animating rotation with quaternion curves[C]//Proceedings of the 12th Annual Conference on Computer Graphics and Interactive Techniques. San Francisco, USA: ACM,1985: 245-254. [百度学术]