论文部分内容阅读
随着金融市场的急速发展、金融创新的加快和经济全球化,对金融工具金融产品进行收益分析风险控制的重要性也日渐凸显,而这离不开对于金融市场交易数据的分析与建模。时间序列分析理论是众多分析金融市场数据的工具中的一种,而其经典的GARCH模型在对诸如收益率序列进行拟合时其拟合结果却往往出现类似单位根的影响。有人在此基础之上提出了MS-GARCH模型,一方面用于刻画金融市场普遍存在的牛熊市切换或是繁荣萧条的结构转换,一方面用于研究“单位根”的结果的出现是否由于模型选择不当而造成。本文选取上证综指的周对数收益率作为研究对象,首先通过简单的描述性分析和检验确定拟合这些数据所适用的模型。并且从这些收益率所对应日期的收盘价图像划分出上涨、下跌、震荡三状态,希望通过实证分析来探究MS-GARCH模型拟合结果与传统时间序列模型拟合结果之间的区别。我们选取了贝叶斯方法和MCMC算法估计MS-GARCH模型参数,详细推导了正态假定下对参数后验分布进行吉布斯抽样所需要的满条件分布。在得到详细算法的基础之上,利用MATLAB进行编程,先后使用了多组先验分布和迭代初值的设定,分别生成了20000个后验分布样本并对其进行分析。对结果进行比较我们发现参数和转移矩阵的迭代初值对估计结果影响不大,而先验分布的设定对估计结果会起到相当大的影响,转移概率估计的结果还会受到状态的迭代初值的影响。如果要使参数估计结果随着状态的变化而有显著的区别则要在初期将对状态的认知体现在先验分布上。从而我们认为MS-GARCH模型是一个会反映研究者需要的模型,可以在为猜测提供例证时起到很大的用处。