论文部分内容阅读
随着情感识别在自驾游、案件侦破和游戏产业等领域中应用前景和市场价值的凸显,面部表情作为情感识别中的关键,已成为拟人化新型人机交互模式研究中的关键课题之一。本文针对不同类型的表情图片输入集:单张表情图片和表情图片序列,分别以静态和动态两种不同的方式完成表情识别。针对单张表情图片,本文根据面部特征点的形状和面部特定区域的纹理信息来对待测表情进行分类。首先,通过分析主动外观模型中主要参数的物理意义,发现表情图片适应过程中的形状以及纹理参数可以很好的体现各类表情的个性化信息,利用机器学习分类算法实现以这两参数作为特征的表情分类。然后,通过权衡主动外观模型训练过程中的信息保留量与识别率之间的关系,理解到信息保留量增加的同时还会在表情分类过程中引入噪声信息,需要调整特征向量的维数,即以较低的特征维度获得较高的表情识别率。针对表情图片序列,本文统计分析了表情和特征器官变化的对应关系,在此基础上提取表情特征,而后通过特征选择方法进行特征筛选,最后依靠特征空间变换完成表情分类。首先在统计分析基础上,提取体现各类表情差异性的共性特征,同时加入优化特征使得差异性更加明显;然后使用支持向量机(SupportVector Machine)作属性评估以进一步精简各类表情的共性信息;最终依靠最小二乘方法将特征空间投影到基向量空间实现表情识别。在以上两种类型的表情识别方法中,本文均提取了更适合于人脸表情识别的特征,并且在不损失识别率的条件下,有效地降低了特征维数;同时,本文应用最小二乘方法将特征空间投影到基向量空间实现表情识别。本文的研究角度和方法优化了静态和动态表情识别的效率,并且更具准确性,为表情、声音和动作等结合的跨模态情感识别做出了贡献。