基本信息
文件名称:基于深度学习的柔性四指夹爪抓取方法研究.pdf
文件大小:6.45 MB
总页数:79 页
更新时间:2025-03-23
总字数:约11.87万字
文档摘要

中文摘要

在当前机器人技术和自动化领域中,精确的手眼标定和高效的抓取检测方法对

于提升机器人操作的灵活性和准确性至关重要。传统的手眼标定方法涉及复杂的坐

标系转换,操作繁琐,对环境和设备要求较高。同时,实际生产需求的多样化对机

器人的抓取检测方法和末端执行器也提出了更加精细和严格的要求。针对上述挑战,

本文提出了一种基于YOLOv5的手眼标定方法,简化了标定过程,提高了标定的准

确性。在此基础上,针对柔性四指夹爪的特点,本文提出了一种基于深度学习的抓

取检测方法,有效提升了柔性四指夹爪抓取物体时的通用性和准确性,为配备柔性

四指夹爪的机器人实现自主、实时、精确的抓取操作提供了技术支持。本文主要研

究内容和创新点如下:

(1)提出了一种基于YOLOv5的手眼标定方法。首先设计了一个正方体样式

的标定块并制作了数据集,正方体平整的表面有效避免了柔性四指夹爪与标定物无

法精确对接而引起的误差。其次用空洞空间金字塔池化ASPP(AtrousSpatial

PyramidPooling)替换了原始YOLOv5中的空间金字塔池化SPP(SpatialPyramid

Pooling),这一改进使得模型能够有效地捕捉到图像中的细节信息,提高了特征提

取的能力。接着将原始YOLOv5的非极大值抑制算法(Non-MaxSuppression,NMS)

更换为基于SIoU的非极大值抑制算法(SIoU-NMS),这有助于在保留更多高质量

检测框的同时减少误检。改进后的模型相较于原始模型,其召回率、mAP@0.5以及

mAP@0.5:0.95分别增加了2.5%、1.2%、1.8%,这证实了改进措施的有效性。

(2)提出了一种柔性四指夹爪的抓取检测方法。首先根据柔性四指夹爪的结

构特点设计了AAR(AcuteAngleRepresentationModel)抓取表示模型,该模型由抓

取点和抓取角度构成,可以减少柔性四指夹爪多余的旋转,同时提高夹爪抓取物体

的通用性。其次设计了FGAA(FlexibleGripperAdaptiveAttributeModel)抓取属性

模型作为人工标注数据集的工具,其能够计算满足AAR抓取表示模型要求的抓取角

度,把图像上的AAR抓取表示模型合并成一个集合,避免了像素级标注的耗时问

题。最后设计了一种基于自适应特征融合的抓取检测网络AGNN(Adaptive

GraspingNeuralNet),在重新标注的Cornell数据集上的准确率可以达到97.62%,可

以在25毫秒内完成一次检测,满足实时抓取需求。

(3)在视觉机器人抓取系统上对本文提出的方法进行了相关实验。首先构建

I

了视觉机器人抓取系统,并使用基于YOLOv5的手眼标定方法进行手眼标定。实验

结果表明,基于YOLOv5的手眼标定不仅操作便捷,而且其精度也完全能够满足机

器人抓取任务的需求。然后选择了40种各式各样的物体进行抓取检测实验,目的是

测试本文提出的柔性四指夹爪抓取检测方法的性能。末端安装柔性四指夹爪的机器

人在单物体场景下抓取未知物体的成功率达到了96%,这证实了该方法的可靠性。

关键词:手眼标定;柔性四指夹爪;抓取检测

II

ABSTRACT

Inthecurrentrealmofroboticsandautomation,precisehand-eyecalibrationand

efficientgraspdetectiontechniquesarecrucialforenhancingtheflexibilityandaccuracyof

roboticoperations.Traditionalhand-eyecalibrationmethods