量子计算核心突破!Shor算法实现或使密码成摆设

 文章来源:新智元微信公众号

互联网时代绝大多数的加密,都由RSA算法完成。过去我们认为RSA不可破解,但随着量子计算的发展,RSA的安全性正受到挑战。今天刊发在《科学》杂志的最新论文,量子计算机有史以来第一次以可扩展的方式,用Shor算法完成对数字15的质因数分解。IBM 物理科学高级主管Mark Ritter表示,将Shor算法实现出来这件事,能够与经典计算中的‘Hello,World’ 相提并论。

互联网时代,密码和网络安全是通信的基础,无论是微信聊天,还是淘宝交易,都需要密码技术保障个人隐私和财产安全。

而现在的大部分加密,都由RSA算法完成,它基于一个非常简单的数论事实:

将两个大素数相乘十分容易,但是想要对其乘积进行因式分解却极其困难,因此可以将乘积公开作为加密密钥。

例如在一套 RSA 算法下,给定一对解密密钥3和5,由用户自己保存,那么3和5的乘积15,就成为公开的加密密钥。

当把3和5变成1024位的素数A和B时,令C是A和B的乘积。那么验证A乘以B等于C,是一件计算起来比较简单的事,即用户自己的密码可以获得通过;但是要从C倒推回A和B,却是无比的艰难,其运算时间超出计算机的能力,所以密码很难被破解。

所以RSA可以在公开加密密钥、加密和解密算法的情况下,通过验证和求解在时间复杂度上的极端不对称性,建立电子加密的基础。

RSA 是目前最有影响力的公钥加密算法,它能够抵抗到目前为止已知的绝大多数密码攻击,已被ISO推荐为公钥数据加密标准。

今天,只有短的RSA钥匙才可能被强力方式解破。到2008年为止,世界上还没有任何可靠的攻击RSA算法的方式。只要其钥匙的长度足够长,用RSA加密的信息实际上是不能被解破的。但在分布式计算和量子计算机理论日趋成熟的今天,RSA加密安全性受到了挑战。

Shor 算法

整数的质因数分解,进入多项式的时间

早在 1994 年,Peter Shor就发明了一个量子算法(Shor算法),在整数的质因数分解上,能实现

的时间。这在当年引起了轰动,它展示了一个足够大的量子计算机,在理论上是能够把质因数分解的时间复杂性降到多项式的时间。

多项式时间在这里意义重大。因为RSA加密之所以有效,最重要的是因为整数的质因数分解,在数字特别大的时候,传统的计算方法根本看不到算完的那一天。现在最快的质因数分解算法,其花费的次指数时间,也达到了

但如果能把解密复杂度变成多项式的时间,那么基本任何的RSA模型下的大数,都能够很“轻易”的被破解。所以RSA加密在理论上已经不再安全。

然而,这种算法需要依赖可操作大量量子的计算机。虽然有些人已经尝试了用各种量子系统来实现Shor的算法,但是没有人能在超过几个量子比特的系统上以可扩展(scalable)的方式这么做。所以Shor算法虽然具有理论的意义,但一直没法真正在工程上使用。而世界上也很难找到比RSA更加简单而有效的加密手段,所以RSA加密一直统治着世界,直到现在。

进入21世纪以来,量子计算机开始加速发展。2001 年,IBM的一个小组展示了Shor算法的实例,使用核磁共振的量子计算机,以及7个量子位元,将15分解成3×5。然而,对IBM的实验的是否是量子计算的真实展示,有一些疑虑出现,因为没有缠结现象被发现。在IBM 的实验后,有其他的团队以光学量子位元实现Shor算法,并强调其缠结现象可被观察到。

《科学》杂志最新论文

论文标题:Realization of a scalable Shor algorithm

作者:Thomas Monz,Daniel Nigg,Esteban A。 Martinez,Matthias F。 Brandl,Philipp Schindler,Richard Rines,Shannon X。 Wang,Isaac L。 Chuang,Rainer Blatt

今天,在《科学》杂志最新发表的一篇论文中,量子计算机有史以来第一次以可扩展的方式,实现了 Shor 算法。

MIT和奥地利Innsbruck大学的研究者们报告说,他们设计并搭建了一台在离子陷阱中只有5个原子的量子计算机。这台计算机使用激光脉冲来在每一个原子上实行Shor的算法,分解数字15的质因数。这个系统的设计允许通过增加原子和激光来搭建更大型更快速、能够分解更大数字的质因数的量子计算机。

“我们展示了,Shor的算法——目前为止已知的最复杂的量子算法——能够以一种可扩展的方式实现:你需要做的一切就是,到实验室去,用上更多的技术,然后你应该就能做出更大的量子计算机了,”Isaac Chuang说道,他是MIT物理学教授、电机工程和计算机科学教授,“量子计算机可能还是要耗费大量金钱才能造出来——暂时来看你还不会去造一台量子计算机然后把它放在你的书桌上——不过现在它更多地成为了一个工程问题,而不是一个基础物理学问题。”

穿越量子森林

在经典计算中,用0和1的组合来表示数字,而计算是根据算法的“指导”来进行的,通过操作这些0和1将输入的数字转变为输出的数字。与经典计算不同,量子计算依赖于原子标度的单位,或者叫做“量子比特”,它们可以同时是0和1——这种状态被称作“叠加态”。处于叠加态时,一个量子比特在本质上可以同时进行2个独立的计算流,使得计算效率大大高于经典计算机。

2001年时,量子计算领域的开拓者之一,Chuang,设计了一台基于一个分子的量子计算机,这个分子可以处于叠加态,通过核磁共振来进行操作,分解数字15的质因数。实验结果发表在了《自然》杂志上,这是第一次以实验的方式实现Shor的算法。不过这个系统是无法扩展的:随着加入的原子数量增多,控制这个系统变得越来越难。

“一旦你有太多的原子,它就好像成了一片森林——很难逐次控制单个原子,”Chuang说道,“难点在于,如何在一个分离程度足够高的系统里实现这个算法。这样的系统在量子力学的状态里可以维持足够久的时间,让你能够真正有机会完成整个算法。”

“直白明了的可扩展性”

Chuang和他的同事们现在终于研究出了一种全新的、可扩展的量子系统,能够高效地分解质因数。一般来说,分解数字15的质因数需要用到12个量子比特,但是他们找到了一种方法使得对量子比特的需求降低到5个,每个量子比特都用一个单一原子来表示。每个原子都能处于叠加态,同时处在两种不同的能量态中。研究者们在其中4个原子上使用激光脉冲来达到“逻辑门”——或者说Shor算法的元素——的效果。计算结果随后由第5个原子来储存、传递、提取、循环利用,由此以并行的方式实行了Shor的算法,用到的量子比特数量大为降低。

这支团队通过在离子陷阱中控制这些原子来让量子系统保持稳定。量子陷阱中,他们在每个原子上都移除一个电子,让它们带电,随后通过电场来摆放原子的位置。

“通过这种方式,我们能够精确地知晓某个原子的位置,”Chuang解释道,“然后我们用同样的方式处理几微米之外的另一个原子——这个距离大约是人类头发宽度的1/100。把一些这样的原子放在一起的话,它们仍然有相互作用,因为它们带有电荷。这种相互作用让我们能够进行逻辑门的操作,而逻辑门的操作带来了实现Shor算法的基础。无论我们把系统做得多大,我们都可以对其中任何一个原子进行逻辑门操作。”

Chuang的团队首先完成了量子计算机的设计,随后他在Innsbruck大学的同事基于他的理论方法搭建了一台实验设备。他们让这个量子系统分解数字15的质因数——这是能有意义地展示Shor算法的最小数字。在对答案没有先验知识的情况下,这个系统返回了正确的质数,置信度超过99%。

“我们预见到了它未来能拥有直白明了的可扩展性——一旦仪器能够捕获更多的原子、用更多的激光束来控制激光脉冲,”Chuang说道,“我们没有看出有任何物理学的理由阻止它成真。”

IBM物理科学高级主管Mark Ritter表示,这支团队通过循环利用量子比特的方式将量子系统所需的资源降低了1/3——这是通往扩大量子计算规模的路上很小却很重要的一步。

“将最新的技术改进1/3是很好的事,”Ritter说道,不过真正将系统扩大“需要的量子比特数量是现在的几个量级,而这些量子比特必须穿梭在更先进的、有数以千计同时发射的激光控制脉冲的陷阱中。”

如果这支团队能够成功地向系统中加入更多量子元件,Ritter说,他们将会达成一项长期没有人能完成的成就。

“Shor的算法是第一个不容小觑的量子算法,拥有对经典算法进行指数级加速的潜力,”Ritter说道,“许多研究者都在关注量子计算,因为它或许能为算法带来可观的加速效果。因此,将Shor算法实现出来这件事能够与经典计算中的‘Hello, World’相提并论。”

这一切最终对于未来的加密机制来说有什么意义呢?

“好吧,一个影响是,作为一个国家,你可能不希望使用某些加密方法来储存你的机密信息——那些基于分解质因数是一个难以操作的问题而开发的加密方法,”Chuang说道,“因为当这些量子计算机开始进入使用阶段时,你将能够解密所有过去使用这些方法加密的机密文件。”

这个研究获得了美国高级情报研究计划署(IARPA)和MIT-Havard超低温原子中心(一所国家科学基金会物理前沿中心)的支持。

本文转自d1net(转载)

时间: 2024-09-10 11:30:11

量子计算核心突破!Shor算法实现或使密码成摆设的相关文章

量子计算里程碑式突破:成功模拟45位量子计算机

关于量子计算机性能超越传统计算机这一关键转折点,计算机科学家有个专有名词,即"量子霸权".从各方面来看,这样的转折点正在临近. 一般认为,能够处理49个量子位的量子计算机性能将可以匹敌全球最强大的超级计算机.如果量子计算机的规模进一步扩大,那么性能将远远超出传统计算机. 目前这还无法成为现实.一个重要问题在于,我们如何才能知道,这些量子计算机的工作是否符合期望.因此,计算机科学家开始利用强大的传统计算机去模拟量子计算机的行为. 这里的关键是在人类仍有能力的情况下,尽可能准确地测定量子计

量子计算将能分解任意极大整数,RSA加密或成摆设

就算是一台超级计算机有可能在数年的时间内计算出任意质因数,这也是得不偿失的.为了科学地解决这个问题,麻省理工学院(MIT)的科学家找到了明确的方法.今天,<科学>杂志最新发表的一篇论文显示,量子计算机有史以来第一次以可扩展的方式,实现了Shor算法. 据外媒Engadget报道,MIT和 Innsbruck大学的计算机科学家组装了一台5量子比特的量子计算机,它将能够用Shor算法完成对数字15的质因数分解.他们研发了一台量子计算机原型,然后使用一系列离子,借助激光脉冲来在4个量子比特上执行Sh

如何防止量子计算暴力解密?中国启动新型算法研究

随着量子计算的不断突破,其计算机能力的大幅跃升将为网络安全带来新挑战--许多加密算法将会变得相当脆弱.未来,如何应对量子计算对数据的"暴力解密"?当前移动互联网.云计算.大数据.物联网快速融合发展,对密码算法能力提出的新挑战如何应对? 日前,为应对量子计算攻击威胁,移动互联网.云计算等领域数据可信融合安全挑战,国家"网络空间安全"重点专项中唯一的密码算法项目"新型数据保护密码算法研究"项目在成都启动. 由中国电子科技集团公司第三十研究所牵头的该项

阿里巴巴投资研究量子计算,有什么用?

不久前,中国科学技术大学上海研究院(中科院量子信息与量子科技前沿卓越创新中心)副研究员张文卓老师撰写了一篇关于量子计算的文章,并发表于果壳网. 保障君拜读后的第一感是,这是目前关于量子技术及其应用的最为通俗易懂的文章,没有之一.因此保障君赶紧将其分享出来,让大家都涨涨姿势. 近日,中国科学院和阿里巴巴在中国科学技术大学上海研究院联合成立了"中科院-阿里巴巴量子计算实验室".这是中国首次由科研单位引入民间资本来全资资助基础科学研究. 中科院联合阿里巴巴成立量子计算实验室.图片来源:新华网

清华量子计算大师应明生独家专访:AI未来一定会以新的形式重生

近年来,人工智能和量子计算两大领域双双被人们寄予厚望,特别是被国人当成是"超英赶美".弯道超车的两大历史机遇.量子计算机是指利用量子相干叠加原理,量子比特的独特属性使量子计算机在处理一些运算的时候速度更快,理论上具有超快的并行计算和模拟能力的计算机.量子计算机代表着突破被纳米层面限制的摩尔定律,意味着巨大的计算力潜能.曾有人打过一个比方:如果现在传统计算机的速度是自行车,量子计算机的速度就好比飞机. 计算力正是AI三大法宝之一.现有计算机已经能够支持AlphaGo这样的"围棋

BM提供支持云的量子计算平台,以加速创新

IBM研究院日前首次宣布公众可试用IBM量子处理器.从5月4日开始,IBM通过云服务,使所有有兴趣亲自实践的人们可以接触到量子处理器,帮助科学家和科研社区加速科技创新,并在该领域激发出更多的前沿应用. 这仅仅是量子计算时代的开始,也是IBM为建立通用量子计算机而研发的最新成果.通用量子计算机的成功研发,将成为人类信息科技发展历史中的重要里程碑,并将帮助人类解决传统计算机眼下及未来都难以企及的问题. IBM量子计算科学家Jay Gambetta使用平板电脑与位于纽约Yorktown的IBM's T

专访阿里云量子技术首席科学家施尧耘:量子计算前途辉煌而任重道远

2017杭州云栖大会详情请戳这里! 2015年7月,阿里巴巴与中科院联合成立了中科院-阿里巴巴量子计算实验室,正式进军量子信息科学领域. 把视野放向全球,你会发现量子计算早已成为了科技巨头的战场,原因很简单--它拥有爆表的计算能力,它将引领新的计算革命.如此强大的计算能力意味着什么?业界普遍认为,当下最炙手可热的人工智能.机器学习也将受益于量子计算. 然而,理想很丰满但现实很骨感,量子计算的研究存在诸多挑战,如何商业化更是学术界和工业界最棘手的问题.施尧耘表示,量子计算最大的挑战是如何规模化.目

软件的核心则是算法

摘要: 软件正在统治世界.而软件的核心则是算法.算法千千万万,又有哪些算法属于皇冠上的珍珠呢?Marcos Otero给出了他的看法. 什么是算法? 通俗而言,算法是一个定义明确的计算过程 软件正在统治世界.而软件的核心则是算法.算法千千万万,又有哪些算法属于"皇冠上的珍珠"呢?Marcos Otero给出了他的看法. 什么是算法? 通俗而言,算法是一个定义明确的计算过程,可以一些值或一组值作为输入并产生一些值或一组值作为输出.因此算法就是将输入转为输出的一系列计算步骤. -Thoma

【体系结构顶会MICRO 2017落幕】量子计算获最佳论文,内存相关工作最受关注

计算机体系结构顶会MICRO落下帷幕,内存相关工作最受关注,专用加速器结构的研究热度升温,量子计算也得到了大量关注.在神将网络和机器学习加速方面,这届会议也出现了新颖的工作.我们请到美国加州大学圣塔芭芭拉分校谢源教授课题组神经网络架构研究团队博士后胡杏,博士生李双辰.谷芃.李谷澍进行点评. 第50届体系结构顶会MICRO(Annual IEEE/ACM International Symposium on Microarchitecture)在其诞生地,汇聚哈佛.麻省理工等知名学府的波士顿召开.