论文部分内容阅读
RSA算法是被研究得最广泛的公钥算法,在三十多年的发展历史当中,经历过各种攻击的考验,表现出优越的性能,逐渐为人们所接受,被认为是目前最优秀的公钥算法之一,并且已经被广泛应用于计算机网络加密的各个方面。随着RSA密码破解速度的加快,为了保证加密数据的安全性,现在一般采用1024位的模长,如果想要保证更长远的安全性,就需要选用更大的模长。然而随着模数长度的增大,加密、解密以及数字签名操作所需要的时间也会变的越长,算法实现的速度就会变的越慢。为了尽可能的使RSA密码算法在使用大数模时系统的实现速度和安全服务质量都能够达到最优,如何快速实现RSA密码算法已经成为密码学界研究的热点。近年来随着GPU的飞速发展,其计算能力得到了巨大的提升,在通用计算领域的应用也更加广泛,因此通过GPU来实现密码算法也越来越受到人们的重视,本文正是对基于GPU的RSA密码并行化算法进行研究。本文首先阐述RSA算法以及GPU的相关理论,然后详细的介绍了通过GPU加速RSA算法的好处,随后通过对改进RSA算法的分析,提出了一种基于GPU的RSA改进方法,并进行了相应的实验。然后提出了一种计算GPU的并行化开销模型的方法,并对改进的RSA算法的实验结果进行验证。文章最后对工作的内容进行总结,同时对基于GPU的RSA算法的应用前景作了进一步的分析。