中文摘要
在当前机器人技术和自动化领域中,精确的手眼标定和高效的抓取检测方法对
于提升机器人操作的灵活性和准确性至关重要。传统的手眼标定方法涉及复杂的坐
标系转换,操作繁琐,对环境和设备要求较高。同时,实际生产需求的多样化对机
器人的抓取检测方法和末端执行器也提出了更加精细和严格的要求。针对上述挑战,
本文提出了一种基于YOLOv5的手眼标定方法,简化了标定过程,提高了标定的准
确性。在此基础上,针对柔性四指夹爪的特点,本文提出了一种基于深度学习的抓
取检测方法,有效提升了柔性四指夹爪抓取物体时的通用性和准确性,为配备柔性
四指夹爪的机器人实现自主、实时、精确的抓取操作提供了技术支持。本文主要研
究内容和创新点如下:
(1)提出了一种基于YOLOv5的手眼标定方法。首先设计了一个正方体样式
的标定块并制作了数据集,正方体平整的表面有效避免了柔性四指夹爪与标定物无
法精确对接而引起的误差。其次用空洞空间金字塔池化ASPP(AtrousSpatial
PyramidPooling)替换了原始YOLOv5中的空间金字塔池化SPP(SpatialPyramid
Pooling),这一改进使得模型能够有效地捕捉到图像中的细节信息,提高了特征提
取的能力。接着将原始YOLOv5的非极大值抑制算法(Non-MaxSuppression,NMS)
更换为基于SIoU的非极大值抑制算法(SIoU-NMS),这有助于在保留更多高质量
检测框的同时减少误检。改进后的模型相较于原始模型,其召回率、mAP@0.5以及
mAP@0.5:0.95分别增加了2.5%、1.2%、1.8%,这证实了改进措施的有效性。
(2)提出了一种柔性四指夹爪的抓取检测方法。首先根据柔性四指夹爪的结
构特点设计了AAR(AcuteAngleRepresentationModel)抓取表示模型,该模型由抓
取点和抓取角度构成,可以减少柔性四指夹爪多余的旋转,同时提高夹爪抓取物体
的通用性。其次设计了FGAA(FlexibleGripperAdaptiveAttributeModel)抓取属性
模型作为人工标注数据集的工具,其能够计算满足AAR抓取表示模型要求的抓取角
度,把图像上的AAR抓取表示模型合并成一个集合,避免了像素级标注的耗时问
题。最后设计了一种基于自适应特征融合的抓取检测网络AGNN(Adaptive
GraspingNeuralNet),在重新标注的Cornell数据集上的准确率可以达到97.62%,可
以在25毫秒内完成一次检测,满足实时抓取需求。
(3)在视觉机器人抓取系统上对本文提出的方法进行了相关实验。首先构建
I
了视觉机器人抓取系统,并使用基于YOLOv5的手眼标定方法进行手眼标定。实验
结果表明,基于YOLOv5的手眼标定不仅操作便捷,而且其精度也完全能够满足机
器人抓取任务的需求。然后选择了40种各式各样的物体进行抓取检测实验,目的是
测试本文提出的柔性四指夹爪抓取检测方法的性能。末端安装柔性四指夹爪的机器
人在单物体场景下抓取未知物体的成功率达到了96%,这证实了该方法的可靠性。
关键词:手眼标定;柔性四指夹爪;抓取检测
II
ABSTRACT
Inthecurrentrealmofroboticsandautomation,precisehand-eyecalibrationand
efficientgraspdetectiontechniquesarecrucialforenhancingtheflexibilityandaccuracyof
roboticoperations.Traditionalhand-eyecalibrationmethods