微波EDA网,见证研发工程师的成长!
首页 > 研发问答 > 微波和射频技术 > 射频综合技术问答 > 浅谈量子计算机原理

浅谈量子计算机原理

时间:10-02 整理:3721RD 点击:
最近,中国科技大学的潘建伟教授宣布,中国研究团队在去年首次实现十光子纠缠纵的基础上构建了世界首台超越早期经典计算机ENIAC和TRADIC的超导量子芯片计算机。
确实,这在科学界是个可喜可贺的事情,因为这表明中国团队不但在量子通讯领域里处在世界领先位置,在量子计算机的实验上也挤进了第一方阵。同处该方阵的还有谷歌(Google),国际商用机器公司(IBM)和荷兰的Delft技术大学等等。
但是,这个本来挺严谨学术的事情,在一个“不在乎事实,只在乎观点”的时代被不幸的标题党了一下,就变成了大事儿:



人民日报微博的一句“比超级计算机还厉害!”博得了亿万网民的眼球。不过也好,趁机科普一下。
我们还是先看看到底怎么回事吧。先来看图:



图1,中国团队的10量子比特芯片(2017)




图2,谷歌UCSB的9量子比特芯片(2015)


首先,中国团队的这个10个量子比特的芯片超越了谷歌John Martinis组的9个量子比特。确实是领先的。并且从速度上快了24,000多倍,而且也是第一个比ENIAC快的量子计算机。
不过,这个量子计算机算的是一个叫做Boson Sampling的特定问题,这个和通用量子计算机还是不一样的。
Boson Sampling,“玻色取样”,它的计算复杂度是随着粒子数的增加而指数增长的。理论表明,目前最好的商用CPU只能处理约25个粒子的玻色取样,而目前最快的超级计算机“天河2号”能处理约45个粒子。如果量子计算机能够达到100个粒子的相干操纵,那么它对于处理这类问题的能力就可以达到“天河2号”的百亿亿倍!
并且,量子比特不光看数量,还要看质量,其中包括量子比特的纠缠寿命,还有操作灵活性上。
在纠缠寿命(T1)上,中国团队的在10.9ms到27.2ms之间,谷歌UCSB的在18.6ms到39.2ms之间,IBM的在20.4ms到44.4ms之间——中国团队的接近世界先进水平。
从操作灵活性及可靠性上来说,中国团队的芯片就差了一些。中国团队的芯片两个量子比特操作的可靠性只在90%左右,而Google的在98%左右。而在通用量子计算机中,不但寿命要高,操作性更需要达到99%,而且任意两个相邻的量子比特之间都要能自由实现高可靠的两个量子比特的操作。所以,从水平来看应该是伯仲之间,各有千秋。并且,未来还是有很长的路要走的。
所以,我的评价是:潘院士领导的团队进入量子计算机实验领域,从无到有,并且挤入第一方阵。非常棒。另外,虽然我们号称一两年内达到20个量子比特,谷歌团队甚至号称2018年底前搞出50个量子比特。但是量子计算机本身仍属于前途光明,道路曲折的状态。
此外,这里我们再加个小插曲哈。请看下图:



图3,文章署名


可以看到,虽然潘院士是最后一个作者(大boss)。但是其实是团结了中科院,浙大等众多单位包括朱晓波、黄浩华等教授。说明潘院士的组织贡献应该大于科研攻关的贡献。
下面,我们来简要介绍一下量子计算机,以便大家更好理解。
(简化得不能再简化的)原理
大家知道,普通计算机用的数据单元是比特,也就是0和1,比如磁极的南北,电容的充放电,电压的高低。
量子计算机呢,用的是量子比特,也是0和1,不过我们这么表示:|0?和|1?。比如粒子的自旋,光子偏振或者是反射和透射等等。只不过,光子的偏振状态是可以叠加的,也就是说可以一半水平偏振,一半竖直偏振——这种叠加可以是任意比例的。
形象地来看,量子比特其实是分布在一个单位球表面上的任意一个点,可见量子比特所包含的信息比经典比特多得多。
而且,按照量子系统的可叠加性,多个量子比特也可以并行处理运算。当有两个光子的时候,两个量子比特就不止有|00?, |01?, |10?, |11?这四个状态,而是可以有这四个状态的随意叠加,比如|00?+ |11?就表示这两个光子要么一起横偏振要么一起竖偏振,但是不定——这就是所谓的纠缠态。
可见量子比特可以处在的状态的种类比普通比特多多了。那么,这样纠缠的多粒子理论上就可以进行并行计算了。
历史
量子计算机最早的想法是爱捣蛋的美国物理学家费曼在1982年提出来的。(费曼就是那个发现挑战者号航天飞机橡胶圈冻硬导致燃料泄漏引起事故的人。)
费曼发现分析模拟量子物理世界所需要的计算能力远远超过了经典计算机所能达到的能力,而用实验室中一个可控的量子系统(比如:一台量子计算机)来模拟和计算另外一个我们感兴趣的量子系统,会非常高效。
不过,量子计算机这个想法直到1994年PeterShor的出现才使得人们认真起来。大家都知道非对称密码学RSA体系利用的是将两个大素数的乘积因数分解非常困难。一般认为复杂度是O(NlogN)的量级,也就是说一个400位的数要因数分解,最快的超级计算机需要算上百万年的时间。而Shor 发现量子计算机可以用一年的时间就算出来了——量子计算机把RSA破解的复杂度降到O(log2(N))的水平。
另外在1996年,Lov Grover发现量子计算机可以把最短路径的问题从O(N)的复杂度降为O(N-1/2)的水平。
另外,Kadowaki和Nishimori在1998年发现量子退火原理可以加速机器学习的过程。Dwave就是利用这个原理另辟蹊径做出的专门帮助机器学习的量子退火机。
Shor的发现令人兴奋而恐惧——因为如今金融系统等保险等级最高的地方都是使用RSA系统加密的。而一旦实用型的量子计算机出现,这些RSA的公密钥都将作废。甚至人们发现,只要做出一个45个量子比特的量子计算机就可以彻底废除RSA系统。
不过,量子计算机理论上可行,但是实验上非常困难,因为多粒子纠缠实现起来非常困难。所以,十多年前就有人做出5个量子比特的量子计算机。而今天人们的进展也只是10个量子比特。做出更多的量子比特就需要将更多的粒子纠缠起来,以今天的发展速度,要做到45个量子比特需要大概30到50年的时间。
而且,这世上的事情从来都是一物降一物的。就算是高性能的量子计算机做出来了,也会有量子通讯来进行加密。所以,大家不用杞人忧天。

Copyright © 2017-2020 微波EDA网 版权所有

网站地图

Top