论文部分内容阅读
线性回归中,多重共线性问题是线性回归中一个常见的问题,但一直以来都没有得到很好地解决。多重共线性问题难以解决的根本原因在于变量间存在重叠的信息——即共线性部分。因此,要彻底地解决共线性问题,就要合理地分离这部分重叠的信息。因此,解决多重共线性本质就是要合理分配变量间的交互作用的影响。 本文首先总结目前对多重共线性问题已有的研究和处理办法。主要包括岭回归、主成分回归和偏最小二乘回归等。而传统的处理方法,重点都在于如何将存在共线性的变量转化成不相关的变量,然后再进行回归,处理后的变量的参数意义已经发生了变化,这样得到的结果就无法合理衡量共线性的变量对被解释变量的解释能力。而本文所提出的评价变量相对重要性的度量方法就是用来衡量各个解释变量能够多大程度上影响被解释变量,并分析单个变量的贡献占所有变量贡献的多大比例,能够比较好地衡量变量对被解释变量的解释能力。因此采用相对重要性方法来解决多重共线性问题。然后介绍了相对重要性相关的理论方法,主要涉及相关文献出现过的六种度量相对重要性方法。几种所谓的简单的度量方法是相对于后来基于计算机的普遍应用发展起来的计算密集型的方法而言的。然后重点分析这些方法的特点,并对它们做了比较分析。文中提出采用的主要的评价准则是在各种文献中出现过的四个原则:非负性原则、完全贡献原则,包含性原则和排除性原则。由于含有两个变量的回归的情况相对简单,容易用公式来阐述清楚该方法的思想,因此,以两个相关变量的回归为例进行理论推导。然后进行了一系列的模拟分析。最后以一个实例来说明提到的这些方法能够有效地处理具有多重共线性的变量,得到更合理的解释意义。通过进行理论推导,模拟实验以及实例验证等途径来比较这些方法,根据四种评价准则得到一些基本的结论。然后进一步的对这几种评价准则做了深入分析。根据分析,前三种原则是一种必要的评价准则。而最后一个原则,有一定的适用范围。 本文提供的方法从多重共线性存在的根本原因入手,提供了几种分离具有共线性的变量的重叠信息的方法,但其基础仍是基于最简单的OLS估计的回归,这有待进一步的发展。但不可否认的是,它为处理多重共线性问题提供了一个解决问题的思路。