论文部分内容阅读
随着我国智能制造业的改造升级,工业机器人需求剧增。人机协作是机器人发展的重要特征,车间中各种类型机器人与人协同工作,处于弱势地位的工人安全隐患相对较大。据美国劳工局统计,从1984年至今,与机器人相关的安全事故中,总共有4585名工作人员丧生。为保证人机协作环境中操作人员的安全,本文针对工业机器人安全作业系统中的视觉检测技术进行了研究。以人与固定式工业机器人协同作业过程中的人体信息检测为研究对象,构建了基于三个Kinect 2.0深度相机的三维人体图像视觉检测系统,其硬件部分主要由3部Kinect 2.0相机与一台计算机组成,软件环境主要基于Windows10系统下使用Visual Studio 2017编译器并配置安装PCL1.8.1开发环境作为开发平台。主要工作如下:首先,对Kinect 2.0相机的二维图像平面误差及深度图像的深度误差进行了校正。对二维成像平面误差采用棋盘格标定的方法进行校正。对于深度图像的深度误差,提出了一种利用建立复合函数小波神经网络序贯极限学习机(CFWNN-OSELM)空间配准模型的方法,对非线性的深度偏移和由于Kinect 2.0相机测量原理导致的深度高估误差进行统一校正。本文所提算法既能够实现在线增量式快速学习,又具有更强泛化能力,实验结果表明,该算法能更好地复原真实场景中的深度数据。为后续的Kinect2.0相机获取的视场内的高质量目标点云数据打下基础。然后,在单个kinect 2.0校正结果的基础上,针对人体目标点云数据的自动分割方法进行了研究。采用一种基于Kinect 2.0骨骼数据计算人体在三维空间的中心坐标作为直通滤波器阈值方法,从原始点云数据中自动分割人体目标点云数据。针对原始点云数据量的简化进行了研究。首先,利用基于kinect 2.0骨骼数据计算的人体三维空间中心坐标来自动确定对原始点云数据降采样过程中体素栅格法的体素大小。然后,基于kinect 2.0骨骼数据计算人体在三维空间的中心坐标作为直通滤波器阈值从降采样处理后的点云数据中自动分割出人体目标点云数据。最后,利用Statistical outlier removal法对自动定位成功分割出的目标人体点云数据进行一系列的离散点移除。实验结果表明,该方法可以将人体目标模型在复杂的场景中标记区分出来,以达到快速准确获取平整的目标人体点云数据的目的。再次,针对现有的复杂背景下人体动作识别中存在识别准确率不高和实时性不强等问题,提出了一种利用Kinect 2.0测量计算关节关联角度的人体姿势极限学习机(ELM)配准模型识别算法。通过Kinect 2.0获取人体关节点的空间坐标,采用三点法计算出人体关节的关联角度的大小,再通过人体姿势极限学习机(ELM)配准模型进行动作识别。实验结果表明,本文采用的方法可以通过定义更多目标姿态的关节关联的角度用以建立人体姿势ELM配准模型来识别更多的姿势。最后,针对构建的基于三个Kinect 2.0的三维人体图像视觉检测系统中涉及的点云数据配准拼接问题,提出了粗配准和精配准两步走的方法,对各个相机获得的点云数据进行两两配准。由于常用的3DSC、PFH、FPFH和NDT等的配准算法,对两幅图像相差不大的情况粗匹配效果较好,但对于本文而言,由于需要配准的两幅目标点云数据图像公共部分较少,点云数据图像之间有一定差异,效果并不理想。为了更好的满足本文的需求,先使用篮球作为靶标,将三个相机的局部坐标系统一到一个坐标系下,对三个相机进行外参数标定,也就是粗配准;在此基础上,通过ICP算法对三个相机获得的点云数据进行精配准,达到了准确配准出完整平滑的人体三维点云数据模型的目的。