论文部分内容阅读
多元线性回归是建立地理统计分析模型常用的数学方法。统计学家指出,在生产实践和科学实验采集的数据中,粗差出现的概率约为1%-10%。为了减弱或消除粗差对参数估计的影响,G.E.P.BOX于1953年提出了稳健估计的概念。稳健估计理论是建立在符合于观测数据的实际分布模式上,而不是建立在某种理想的分布模式上,即在粗差不可避免的情况下,选择适当的估计方法,使参数的估值尽可能避免粗差的影响,得到正常模式下的最佳估值。稳健多元线性回归能有效地消除或减弱粗差对参数估计的影响,同时稳健估计方法消除粗差的范围因稳健估计方法本身和具体问题的观测值数量的不同而不同。本文用仿真实验的方法,确定了稳健多元线性回归中相对更为有效的稳健估计方法,并确定了这些稳健估计方法消除或减弱粗差的范围以及它们完全消除粗差时需要的最少观测值数量。本文提出了一种确定稳健估计方法消除粗差范围的途径和具体的计算方法。用仿真实验(1000次)的方法、以多元(2-5)线性回归为例对常用的13种稳健估计方法消除粗差(最大值8.0σ0)的范围进行了比较。得出的结论为:L1法、German-McClure法、IGGIII方案和Danish法是常用13种稳健估计方法中相对更为有效的稳健估计方法。当观测值中包含一个粗差时,二元、三元、四元和五元线性回归完全消除3.0~8.0σ0粗差影响的最小观测值数量分别是7、8、10和11。当观测值中同时包含两个粗差时,二元、三元、四元和五元线性回归完全消除3.0~8.0σ0。粗差影响的最小观测值数量分别是10、12、15和17。一元线性回归是应用最为广泛的参数估计方法之一。本文提出了一元线性回归的自变量在等差级数的基础上进行双向黄金分割,提高了两端点观测值的多余观测分量,缩小了观测值之间多余观测分量的差异。在不增加观测值数量和不改变观测值精度的前提下,提高了稳健估计方法消除或减弱粗差的能力。多元线性回归的系数求解通常是用最小二乘法,但在实际应用还会出现另外一种情况,即自变量间存在多重共线关系(multicolinearity),常会影响参数估计。在这方面,针对多种实际问题,Hore, Massy, Webster, Stein分别提出了回归系数的岭估计,主成分估计,压缩估计,特征根估计,以减弱多重共线的影响。本文针对此问题也总结了常用的诊断和消除多重共线性影响的方法。常见的多重共线性的诊断方法主要有:容许值,方差膨胀因子,特征根等。消除方法主要有:岭回归,主成分回归分析,偏最小二乘估计等。