面向线性回归机器学习算法的隐私保护研究

来源 :华东师范大学 | 被引量 : 0次 | 上传用户:jxncjwt
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
机器学习算法是实现人工智能的核心。局部加权线性回归算法作为机器学习中一种应用广泛的经典算法,它可以用于房价的趋势预测和天气预测等。为了使局部加权线性回归算法获得更好的训练效果,需要更多的训练数据。不幸的是,这些数据通常分散在多个数据拥有者中。若直接对数据进行共享,会导致隐私泄露等问题。此外,在通信复杂的环境中,数据拥有者又会存在无法实时共享数据且交互困难的问题。本文将致力于解决如下问题:在通信复杂的环境中,多个数据拥有者在不泄露隐私的情况下,通过共享数据来提高局部加权线性回归算法的训练效果。为此,本文提出了三种面向局部加权线性回归算法的隐私保护方案。同时,通过实验,证明了这些方案的可行性,这三个方案的计算效率在逐步提升。本文的主要工作包括:1.提出第一个方案,基于随机梯度下降的局部加权线性回归的隐私保护方案。该方案基于传统的云计算模型,采用加性同态加密技术,通过经典的机器学习模型求解方法-随机梯度下降法对学习模型进行求解。实验结果表明,采用本方案获得的模型精度与明文下所获得的模型精度的误差可以低至10-4。2.提出第二个方案,基于高斯消元法和雅克比迭代法的局部加权线性回归的隐私保护方案。该方案亦基于传统的云计算模型和采用加性同态加密技术。但与第一个方案相比,该方案通过将多个明文打包、加密、再计算,提高了计算效率;通过高斯消元法和雅克比迭代法对学习模型进行求解,提高了学习模型精度。3.提出第三个方案,基于联邦学习模型的局部加权线性回归的隐私保护方案。该方案基于联邦学习模型,采用加性同态加密技术。与前两个方案的系统模型相比,联邦学习模型不仅简化了模型,而且进一步地提高了计算效率。实验结果表明,整个学习模型的计算时间开销,第三个方案远优于第一个方案和第二个方案,应用场景更广泛。
其他文献
学位
学位
学位
学位
学位
学位
学位
学位
学位
学位