论文部分内容阅读
近些年随着因特网发展以及存储方式的转变,音乐的传播宣传模式从传统的音乐电台播放或者歌手现场演唱转变为网络传播,而音乐的存储方式也从传统的磁盘或者光盘存储转变为方便快捷的云存储方式。以上两个转变都使人们更容易获得音乐资源,但是搜索到自己感兴趣的音乐资源却变得越来越困难。如何对海量音乐进行有效的管理迫在眉睫,因此,本文研究的从音乐情感角度对音乐进行分类具有很重要的意义与实用性。基于对情感模型的分析,将音乐分为平静的、激昂的、愉悦的和悲伤的四种基本情感类别。本文提出了双层的音乐情感分类系统结构,即首先根据音乐的节奏对所有音乐进行二分类,使得愉悦的与激昂的属于节奏快的类别,而悲伤的和平静的属于节奏较慢的类别。之后再进行第二层次的分类,若测试歌曲属于节奏快的歌曲则进行愉悦的与激昂的两种类别的二分类,若测试歌曲属于节奏慢的歌曲则进行平静的与悲伤的两种类别的二分类。这样便完成了对音乐的四种情感类别的分类。对音乐进行情感分类主要包括特征提取、训练分类模型和测试环节。在对音乐进行特征提取与分析的同时发现了不同性别演唱者的特征值范围存在差异,因此本文设计了实验对比了区别和不区别演唱者性别时的分类准确率,发现区别演唱者性别能够稍微提高最终的分类准确率。在训练环节采用了Adaboost算法与SVM算法来训练不同的情感分类模型,并对两种算法的分类结果进行了比较与分析,最终结果显示采用Adaboost算法的音乐分类准确率明显高于采用SVM算法,因此在音乐情感分类的实验中,Adaboost算法的性能要好于SVM。