论文部分内容阅读
近年来电子商务迅速发展,仓储物流对货物智能分拣的需求与日俱增。将视觉算法与机器人操作结合,可以大幅提高机器人分拣的智能程度。本文基于机器人手眼系统,围绕货物智能分拣中的物体识别与位姿估计问题,对相关视觉算法与机器人应用展开研究。具体内容包括以下四方面:(1)基于完全卷积神经网络,对RGB-D相机彩色图进行语义分割,实现图像中物体的逐像素分类。训练过程中,利用机器人系统,构造帧差法简化样本标注,降低人工标注工作量。与传统模板匹配算法的对比实验表明,完全卷积神经网络在计算效率与类别扩展性上更具优势。(2)在对RGB-D相机彩色图语义分割的基础上,利用点云配准算法,实现各个类别物体的位姿估计。点云配准分为粗配准与精配准。粗配准采用主成分分析法或点对特征投票法,精配准采用迭代最近点算法。本文介绍了主成分分析法点云配准的基本原理与实现细节,分析了点对特征投票法在实际应用中的利弊与对策。实验表明,相对于传统模板匹配算法,点云配准算法对于随机散乱摆放物体,位姿估计结果更加稳定。另外,为了快捷方便地建立待识别物体的点云模型,本文基于经典视觉里程计与视觉SLAM算法,设计了物体点云建模框架,满足了点云配准算法对目标物体点云模型的需求。(3)为了发挥机器人手眼系统的优势,提高物体识别与位姿估计的准确度,本文探讨了多视角位姿估计融合方法。位姿融合具体通过位姿回归算法实现。位姿回归细分为矩阵F范数方法与李代数方法。本文介绍了位姿表达的数学知识,推导了位姿回归计算公式,同时设计了机器人多视角位姿估计策略。数值实验表明,基于矩阵F范数的位姿回归算法计算效率、精度高,适合在实际场景中使用。机器人实物实验表明,本文提出的多视角位姿估计策略,能有效提高位姿估计的精度。(4)为了将图像分割、位姿估计等算法与实际机器人操控相结合,完成机器人手眼系统的智能抓取实验,本文基于ROS系统,设计了实验的软件框架。针对视觉算法、机器人控制等模块,本文设计了独立的功能节点,尽可能降低各节点间的耦合,增强程序的可维护性与可读性。实验证明,本文设计的软件框架可以顺利完成机器人手眼系统的智能抓取分拣实验,实现文中所述的各个功能。