论文部分内容阅读
眼睛是人类最主要的感觉器官,相对于嘴、鼻子,人脸面部区域中眼睛具有显著特征。研究眼睛及其运动是了解人类视觉信息的重要手段。本文针对人眼视觉信息检测的关键技术,研究了人眼检测、虹膜中心定位、视线跟踪、视线注视辨识与人-机器人交互中视线姿势内容,具体研究内容如下:1.针对目前人眼检测方法没有充分考虑人脸佩戴眼镜、不同人眼状态(半闭合、闭合和眯眼等)、面部旋转和不同亮度条件下的人眼检测问题,提出了一种混合人眼检测方法。利用人眼区域灰度变化比人脸其他区域灰度变化明显的特征,采用图像二阶矩表征图像灰度的变化,建立人眼方差滤波器(EVF),用于获取人眼候选图像。然后利用建立的支持向量机人眼分类器确定人眼位置,训练SVM过程中,使用主成分分析法(PCA)对人眼图像中的特征进行降维和提取,提高了SVM分类器的性能,为了有效确定SVM分类器的参数,使用遗传算法进行参数寻优。所提出的人眼检测方法对IMM、BioID和FERET人脸数据库进行了人眼检测测试,取得了97.0%的平均人眼检测正确率。2.针对目前虹膜中心检测法没有充分考虑虹膜在人眼区域内左和右位置状态,导致虹膜中心定位精度下降的问题,提出了一种主动预测虹膜中心定位方法。研究了采用投影函数粗略定位虹膜中心,局部二值化和十级量化法定位左右眼角位置,依据粗虹膜中心与眼角位置关系建立虹膜边界选择模型。算法采用主动虹膜边界点检测算法,提取虹膜边界点,能够有效去除因睫毛和眼皮在检测虹膜边界点时产生的噪音。当虹膜处于左或右眼角位置时,采用虹膜边界点预测算法,解决了使用单侧虹膜边界点椭圆拟合失真的问题。所提出的算法分别对虹膜不同位置状态的人眼图像进行了虹膜中心定位测试,结果表明,虹膜中心定位平均精度为94.3%。3.设计了一种基于可见光源非接触式单摄像机视线跟踪系统,该系统包括三部分:实时人眼检测、特征提取和视线估计。实时人眼检测采用特征与外貌混合检测方法。首先,利用双阈值二值化、耀点形状和位置滤波算法提取潜在人眼位置。然后,采用独立成分分析法(ICA)确定人眼区域。该方法有效的解决了实时人眼检测过程中人脸面部旋转、环境光照强度变化、佩戴眼睛、头部大范围运动问题。实验结果表明,在连续的3200帧图像中进行人眼检测,帧正确率为98.63%。视线估计采用不依赖于硬件和眼球生理参数的2D视线估计法,通过一种插值方法解决了由于头部运动所导致的估计精度下降问题。为了补偿光轴与视轴之间的偏差,设计了一种5点视线校准法,有效的提高了视线跟踪精度。针对视线注视点的抖动的现象,采用基于速度和数据离散度实时视线点注视辨识算法,有效的去除了视线点抖动。对头部不动和头部运动两种情况进行测试,该系统分别获得了0.54°和0.69°的平均视线角度误差。4.针对如何从眼动数据中获取视线注视信息的问题,提出了一种空间-时间轨迹聚类算法。该算法包括两个参数:注视时间周期阈值和离散度阈值。注视时间周期阈值依据任务类型确定。离散度阈值采用所提出的基于‘Gap Statistics’理论建立的最优离散度阈值寻优方法确定。所提出的算法与其他人眼注视辨识算法进行了比较,结果显示,注视辨识性能等同或优于其他算法。5.对采用视线作为人-机器人机交互方式进行了远程操作智能体研究。针对目前任务选择策略问题,例如:Midas触碰,提出了视线姿势作为任务选择策略应用于远程操作智能体,为了验证方法的可行性,给出了基于视线姿势的Drone命令设计和任务设计。实验结果表明,视线姿势能够很好的完成实验任务,且视线姿势对人的精神压力与键盘对人的精神压力没有明显的差异,视线姿势策略在人-机器人交互中具有较大潜在应用价值。