论文部分内容阅读
支持向量机(Support Vector Machine, SVM)是由Vapnik等人于上世纪90年代提出的一种机器学习算法,其以统计学习理论为基础,SVM最突出的特点是:当数据样本的数目有限的时候,其训练也能够得到最优结果。并且,其最小化实际风险是通过结构风险最小化来实现的。SVM有较好的泛化能力,另外,SVM也克服了在以往的机器学习的算法中容易出现局部最优解的问题。正因为这些优点,SVM才成为了在实际环境中被广泛使用的机器学习算法。支持向量数据描述(Support Vector Data Description, SVDD)由Tax等人在上世纪末提出,其更多地关注数据集的分布特征,一个好的数据域描述应该包含所有的目标数据点并且不包含多余的空间,数据域的边界能够用于检测正常数据和异常数据。SVDD是受支持向量分类器(Support Vector Classifier, SVC)的启发而产生的。最近,以SVDD为基础的多类分类问题的研究也受到了广大学者的关注。本文提出的算法以支持向量数据描述为基础,将其应用于多类分类中。主要关注SVDD在多类分类中的训练速度,和在多类分类中用于数据边界描述的决策函数。本文算法也用到了区域密度描述,而且每次训练只需要对一个类的数据样本进行训练。算法类似于贝叶斯决策方法。实验证明,该方法有效地减少了训练所需要的样本数,因此能够加快训练速度,从实验的结果可以看到,其多类分类的速度也比传统多类分类方法的速度快。