论文部分内容阅读
不法分子获得用户在线分享的图像作为输入提供给网络上公开的图像转换模型来生成伪造的图像或视频,给国家安全、社会稳定和个人隐私等构成潜在威胁。因此,需要相关技术来降低用户在线分享的图像被用于图像转换模型伪造的风险。对抗攻击技术通过向原始图像中添加人眼不可感知的微小扰动来生成对抗样本,如果将添加了微小扰动的对抗图像作为图像转换模型的输入会让图像转换模型输出结果偏离预期,生成的图像含有明显的扭曲或变形,从而保护用户在线分享的图像不被滥用。给图像添加微小扰动的对抗攻击算法可分为白盒对抗攻击和黑盒对抗攻击,其中白盒对抗攻击了解图像转换模型的细节,黑盒对抗攻击不了解图像转换模型的细节。现有的白盒对抗攻击算法无法同时抵抗多个图像转换模型的篡改,而防御者无法预测伪造者使用何种图像转换模型,因此本文研究能抵抗多图像转换模型篡改的白盒攻击算法。此外,现有黑盒对抗攻击算法存在对抗样本生成时间长和对目标模型访问次数多的问题,本文提出的算法能大幅度减少对目标模型的访问次数,缩短对抗样本生成时间。主要贡献如下:1、针对现有白盒对抗攻击算法只能用于攻击单一图像转换模型的问题,借鉴集成学习思想,设计并实现两种集成对抗攻击策略。与迁移攻击相比,生成的对抗样本可以抵抗多个图像转换模型的篡改,提高了对抗样本的通用性。实验表明所生成的对抗样本可同时防御StarGAN、STGAN和StarGAN v2三种主流图像转换模型的篡改,成功率分别为100%、66.67%和73.33%,并且所生成的对抗样本的质量并没有明显下降。2、针对现有黑盒攻击算法模型访问次数多,对抗样本生成时间长的问题,研究图像采样区域与图像敏感点的关系,通过Dlib人脸识别算法将图像划分为人脸区域和背景区域,并对人脸区域和背景区域分别采样。实验表明,在人脸区域进行像素点采样与在整个图像空间进行像素点采样所生成的对抗样本质量几乎相同,但图像转换模型访问次数减少了约21%,对抗样本生成的时间缩短了约19%。3、为保护人们在社交平台分享的图像在未经许可的情况下不被图像转换模型篡改,开发基于Android的应用程序来调用本论文研究的两种对抗样本生成算法。应用程序可以访问相册的图像或者直接调用手机相机拍照,并可对图像进行裁剪、旋转、美颜等操作,最后调用本论文的算法对图像进行处理,处理后的图像可以分享到微信、朋友圈、QQ、QQ空间和微博五大主流社交平台,经过处理后的图像可以抵抗主流图像转换模型的篡改。