论文部分内容阅读
本文研究了统计学习框架下的两个问题.一个是关于分位数回归的问题.不同于应用最为广泛的最小二乘回归,本文在再生核Hilbert空间下考虑了分位数回归.具体给出了前人研究过但没有给出的基于Hk-正则化的分位数回归的算法和本文所研究的基于l1-正则化的分位数回归的算法.通过数值实验,证实了分位数回归的鲁棒性比最小二乘回归更加稳定;对比前人基于Hk-正则化的分位数回归,基于l1-正则化的分位数回归的解在回归误差相差不大的情况下能具有稀疏性.另一个是关于分布“距离”的问题.在传统范数无法描述的情况下,引入了Wasserstein距离来解决一维上的问题,通过随机采样得到的数据来刻画出其所在的概率分布.本文利用Bernstein逼近的方法,先给出了分布逆函数Lipschitz连续条件下的逼近的概率估计;然后引入广义逆和前人关于均匀分布的逼近结论,将结果推广到了分布逆函数不需要连续而只需要有界的一般的概率分布情况.