论文部分内容阅读
近年来,机器学习技术的发展给人的生活带来极大的便利,例如Amazon依据用户的历史购买记录向用户推荐喜欢的商品;百度收集用户地理位置数据,提供基于地理位置信息的广告服务等。这些服务中都需要利用用户的历史数据进行训练,但最新的研究表明基于用户历史数据训练的模型存在着泄露用户隐私的风险。本文研究一种能够导致提供训练数据的用户信息泄露的攻击方式——成员推测攻击,即判断给定用户的数据能否被用于机器学习训练的攻击模型。现有成员推测攻击合成的数据中存在大量噪声,模拟目标模型的算法研究乏善可陈,抵御成员推测的攻击方案研究匮乏。针对合成数据中存在大量噪声等问题,本文设计使用OPTICIS数据去噪声算法和NDSMOTE数据扩充算法,在少量的先验假设条件下能够较准确的还原原始训练样本;针对模拟目标模型缺少先验假设条件问题,本文设计并改进生成对抗网络模拟目标模型,在不知道目标模型参数的情况下能够较准确的还原被攻击的模型;针对目标模型出现泄露数据隐私的问题,本文提出减少类别向量、使用正则项缓解过拟合,使用差分隐私缓解等策略抵御成员推测攻击。本文在Stacey等人的研究工作的基础上,使用相同的实验假设条件,在Purchases、Hospital、MNIST、CIFAR-10数据集合上进行成员推测攻击实验,并考察了攻击模型的F1score指标在各数据集上的表现。在实验假设A的前提下,本文提出的攻击手段在Purchase数据集合上F1score的最优表现为0.884,在Hospital数据集合上F1score的最优表现为0.691,在CIFAR-10数据集合上F1score的最优表现为0.872,在MINIST数据集合上F1score的最优表现为0.834;在实验假设B的前提下,本文提出的攻击手段攻击在Purchase上F1score的最优表现为0.726,在Hospital数据集合上F1score的最优表现为0.627,在CIFAR-10数据集合上F1score的最优表现为0.771,在MINIST数据集合上F1score的最优表现为0.643。实验证明本文提出的改进的成员推测攻击算法在真实的数据集合上具有有效性和广泛性。