电子说
量子信息是量子物理与信息技术相结合而产生的新兴交叉领域,具体应用主要包括量子通信、量子计算和量子精密测量三方面。目前,量子计算领域正在实现专用量子模拟机并最终实现通用量子计算机的道路上快速前行,与之相关的供应链市场、整机销售市场以及相关应用市场和产业也因此加速发展;同时,因量子计算超强算力对经典密码体系的威胁日益严峻,可以对抗量子计算威胁的信息安全技术,特别是量子保密通信技术,也越来越显著地在新一代信息系统中得到重视并发挥作用。织密量子保密通信网络、筑牢新型信息基础设施安全基石,被提升到国家战略层面。量子测量可以利用量子状态对环境的高度敏感,提升对时间、位置、加速度、电磁场等物理量的测量精度。
量子计算是一种基于量子效应的新型计算方式,它是以量子比特作为信息编码和存储的基本单元,通过大量量子比特的受控演化来完成计算任务。以量子计算为基础的信息处理技术的发展有望引发新的技术革命,为大数据和机器学习、人工智能、化学反应计算、材料设计、药物合成等许多领域的研究,提供前所未有的强力手段,对未来社会的科技、经济、金融,以及国防安全等产生革命性的影响。
量子力学与量子计算的发展历程
1900年前的科学牛顿力学已经建立起来了,牛顿力学、电池学、热力学用来描述整个太阳系已经非常精准,这就是经典力学、热力学还有电动力学,这就是现代宏观科学的基础。
在1900年到1930年建立起来的量子力学则是针对微观科学,到目前为止行业主要讨论的宇宙有14种基本粒子,有四种基本作用力。
量子力学最开始发展起来,是用微观结构描述我们的材料,也就是半导体起源研究。原子单个的原子有特别性质,但是要把几个原子结合起来,变成分子,他有不同的性质;如果原子结构变成晶体,它的结构更加不同,所以可以分为导体、半导体以及金属。有了对原子结构的了解,原子核能的发展可以提供比如说核电站、原子弹、激光等能级可控材料,激光就是把原子放到一个固定的能级上的能量释放下来,是典型的量子力学。然后是晶体管、电子计算机以及核磁成像等量子能级跃迁与湮灭,都采用第一次量子力学来实现。
第二次量子力学发展有三大因素,第一个是爱因斯坦和玻尔的争论,原子和纠缠态到底存不存在,量子力学是不是完备的科学,长达很多年的争论,一直到2022年,诺奖验证了就是讲到了纠缠,量子之间纠缠是真正存在的,纠缠是量子计算当中非常需要,非常重要的一步,当然他们的研究工作在几十年前都已经做好了。
还有一个原因就是算力的扩产。经典的量子力学算力,是以单个原子为单位控制,我们的算力增速逐渐趋于平稳,在面临很大的数据量要处理的时候,同一时间能控制的量子运算每单个并行任务里只能控制一个开关状态。
比如对太空的探索还有基因测序,以及人工智能等等很多方面,需要大数据处理,需要更高的算力,这个是为什么量子计算被提出来。
第三个是一些其他的条件就是的极端条件,低温、高磁场以及微纳加工能力,以及对极弱信号的探测,这些材料技术相关的能力满足了能够实现控制量子不同状态来进行量子计算的时候,进入到了原子态微观科学实用应用技术阶段。
量子计算和经典计算的主要区别是,经典计算的时候就是量子比特,就是0和1,对于量子来说,每一个量子态就是0和1的叠加,加一个电压就能变成0和1,就进行了一次计算,两个分量就是在0和1上面的分量进行变化。
量子计算就是增加比特,并让比特进入到纠缠状态。比如简单再进行一个变化就是两个比特,如果让两个比特纠缠,最经典的还是做一次计算,对量子来说是2的2次方,因为两个比特是纠缠的,这样4个量的变化。如果从两个纠缠比特,增加到100个纠缠比特,这样加一次电压,做一次开关,对于经典来说还是做一次计算,对于量子计算来说就是2的100次方计算,是指数级的扩展。所以量子计算的综合参数对比就是比特数量,要实现更多的更大的纠缠的量子态,进行计算。
由于量子计算是在经典计算的基础上进行指数级的算量提升,可以在同一时间完成指数级的并行处理能力,对于大数据的处理就变得十分简单,原来需要长达数十年的经典计算的工作量,量子计算可以以指数级的并行处理速度在超短时间内完成。
最明显的就是对于原子级的材料(如基因)、环境数据(如密码),都能瞬间完成拆解,形成最基本的量子要素给开放其所有的能级状态,从而真正认识事物(如基因序列),破解事物之间的关系(如密码排列)。
量子计算除了传统的经典计算部分外,其核心的量子计算部分是一个全新的产业链,有量子芯片,有量子硬件,量子云平台,量子控制操作软件以及工业应用等等。
目前有一些国际商的企业,中间量子已经实现了在某些特定的领域比如说像实现了这种取数里面能够比经典计算机快很多很多倍,他在几分钟,几十分钟能够完成的最厉害的计算机里面也要几十或者几百年才能完成。IBM最新进展就是可以实现基本上接近100的量子比特的量子计算机。
实现量子计算方式很多,大家叫量子态,量子态表述都是一个电子或者元子或者缺陷等等方式,只要通过各种材料控制手段能够实现就可以,如使用超导或其它的很多种方式,目前每一种方式都有它的好处也有坏处,行业暂未能确定哪一种方式真的能够胜出,行业还在不断的探索,布局到每一个方向。
量子计算最主要的部分就是想办法拓展,最重要的部分是要纠错,实现了逻辑门与算法。当然也可能混和经典计算机制,把最简单、相容控制的2个或4个比特芯片作互联,一起进行分布式量子计算,在产业初期更具有实际的应用意义。
量子计算是在经典计算的基础上进行指数级的并行处理,对以传统以经典计算为基础的第三次工业革命,进行了彻底的生产力重新解构,它几乎可以完全解开所有经典计算的宏观世界关系,所有的事物关联性,类似的密码规则它几乎都能破解,世界不再有任何宏观上的秘密存在,生产力要素不再是以宏观世界为主,而是以量子态微观世界为主。
量子力学和量子计算的意义
我们将物理世界分成两类:凡是遵从经典物理学的物理客体所构成的物理世界,称为经典世界;而遵从量子力学的物理客体所构成的物理世界,称为量子世界。这两个物理世界有着绝然不同的特性,经典世界中物理客体每个时刻的状态和物理量都是确定的,而量子世界的物理客体的状态和物理量都是不确定的。概率性是量子世界区别于经典世界的本质特征。量子力学的成功不仅体现在迄今量子世界中尚未观察到任何违背量子力学的现象,事实上, 正是量子力学催生了现代的信息技术,造就人类社会的繁荣昌盛。信息领域的核心技术是电脑和互联网。
量子力学的能带理论是晶体管运行的物理基础,晶体管是各种各样芯片的基本单元。光的量子辐射理论是激光诞生的基本原理,而正是该技术的发展才产生当下无处不在的互联网。然而,晶体管和激光器却是经典器件,因为它们遵从经典物理的运行规律。因此,现在的信息技术本质上是源于量子力学的经典技术。
20世纪80年代,科学家将量子力学应用到信息领域,从而诞生了量子信息技术,诸如量子计算机、量子密码、量子传感等。这些技术的运行规律遵从量子力学,因此不仅其原理是量子力学,器件本身也遵从量子力学,这些器件应用了量子世界的特性,如叠加性、纠缠、非局域性、不可克隆性等,因而其信息功能远远优于相应的经典技术。量子信息技术突破了经典技术的物理极限,开辟了信息技术发展的新方向。一旦量子技术获得广泛的实际应用,人类社会生产力将迈进到新阶段。因此,我们将量子信息的诞生称为第二次量子革命,而基于量子力学研制出的经典技术,称之为第一次量子革命。量子信息技术就是未来人类社会的新一代技术。
量子网络和量子计算机
量子网络
量子信息技术最终的发展目标就是研制成功量子网络。量子网络基本要素包括量子节点和量子信道。所有节点通过量子纠缠相互连接,远程信道需要量子中继。量子网络将信息传输和处理融合在一起,量子节点用于存储和处理量子信息,量子信道用于各节点之间的量子信息传送。与经典网络相比,量子网络中信息的存储和传输过程更加安全,信息的处理更加高效,有着更加强大的信息功能。量子节点包括通用量子计算机、专用量子计算机、量子传感器和量子密钥装置等。应用不同量子节点将构成不同功能的量子网络。
典型的有:
1、由通用量子计算机作为量子节点,将构成量子云计算平台,其运算能力将强大无比;
2、使用专用量子计算机作为量子节点可以构成分布式量子计算,其信息功能等同于通用量子计算机。亦即应用这种方法可以从若干比特数较少的量子节点采用纠缠通道连接起来,可以构成等效的通用量子计算机;
3、量子节点是量子传感器,所构成的量子网络便是高精度的量子传感网络,也可以是量子同步时钟;
4、量子节点是量子密钥装置,所构成的量子网络便是量子密钥分配(QKD)网络,可以用于安全的量子保密通信。
当然,单个量子节点本身就是量子器件,也会有许多应用场景,量子网络就是这些量子器件的集成,其信息功能将得到巨大提升,应用更广泛。
上述的量子网络是量子信息技术领域发展的远景,当前距离这个远景的实现还相当遥远。不仅尚无哪种类型量子网络已经演示成功,即使是单个量子节点的量子器件也仍处于研制阶段,距离实际的应用仍有着很长的路要走。即便是单个量子节点研制成功,要将若干量子节点通过纠缠信道构成网络也极其困难——通常采用光纤作为量子信息传输的通道,量子节点的量子信息必须能强耦合到光纤通信波长的光子上,该光子到达下个量子节点处再强耦合到该节点工作波长的量子比特上,任何节点之间最终均可实现强耦合、高保真度的相干操控,只有这样才能实现量子网络的信息功能。目前,连接多个节点的量子界面仍然处于基础研究阶段。
至于远程的量子通道,必须有量子中继才能实现,而量子中继的研制又依赖于高速确定性纠缠光源和可实用性量子存储器的研究,所有这些核心器件仍然处于基础研究阶段,离实际应用还很远。因此整个量子信息技术领域仍然处于初期研究阶段,实际应用还有待时日。
那么,量子信息技术时代何时到来?量子计算机是量子信息技术中最有标志性的颠覆性技术,只有当通用量子计算机获得广泛实际应用之时,我们才可断言人类社会已进入量子技术新时代。
量子计算机
经典计算机按照摩尔定律迅速发展,每18个月,其运算速度翻一番
20世纪80年代,物理学家却提出“摩尔定律是否会终结”这个不受人欢迎的命题,并着手开展研究。最后竟然得出结论:摩尔定律必定会终结。理由是,摩尔定律的技术基础是不断提高电子芯片的集成度——即单位芯片面积的晶体管数目。但这个技术基础受到两个主要物理限制:一是由于非可逆门操作会丢失大量比特,并转化为热量,最终会烧穿电子芯片,这也是当下大型超算中心遇到的巨大能耗困难所在;二是终极的运算单元是单电子晶体管,而单电子的量子效应将影响芯片的正常工作,使计算机运算速度无法如预料的提高。
物理学家的研究结果并不影响当时摩尔定律的运行,多数学者甚至认为物理学家是杞人忧天。然而物理学家并未停止脚步,着手研究第2个问题:摩尔定律失效后,如何进一步提高信息处理的速度——即后摩尔时代提高运算速度的途径是什么?研究结果诞生了“量子计算”的概念。
1982年美国物理学家Feynman指出,在经典计算机上模拟量子力学系统运行存在着本质性困难,但如果可以构造一种用量子体系为框架的装置来实现量子模拟就容易得多。随后英国物理学家Deutsch提出“量子图灵机”概念,“量子图灵机”可等效为量子电路模型。从此,“量子计算机”的研究便在学术界逐渐引起人们的关注。
1994年Shor提出了量子并行算法,证明量子计算可以求解“大数因子分解”难题,从而攻破广泛使用的RSA公钥体系,量子计算机才引起广泛重视。Shor并行算法是量子计算领域的里程碑工作。进入21世纪,学术界逐渐取得共识:摩尔定律必定会终结,因此,后摩尔时代的新技术便成为热门研究课题,量子计算无疑是最有力的竞争者。
量子计算应用了量子世界的特性,如叠加性、非局域性和不可克隆性等,因此天然地具有并行计算的能力,可以将某些在电子计算机上指数增长复杂度的问题变为多项式增长复杂度,亦即电子计算机上某些难解的问题在量子计算机上变成易解问题。量子计算机为人类社会提供运算能力强大无比的新的信息处理工具,因此称之为未来的颠覆性技术。量子计算机的运算能力同电子计算机相比,等同于电子计算机的运算能力同算盘相比。可见一旦量子计算得到广泛应用,人类社会各个领域都将会发生翻天覆地的变化。
量子计算的运算单元称为量子比特,它是0和1两个状态的叠加。量子叠加态是量子世界独有的,因此,量子信息的制备、处理和探测等都必须遵从量子力学的运行规律。
量子计算机的工作原理
量子计算机与电子计算机一样,用于解决某种数学问题,因此它的输入数据和结果输出都是普通的数据。区别在于处理数据的方法本质上不同。量子计算机将经典数据制备在量子计算机整个系统的初始量子态上,经由幺正操作变成量子计算系统的末态,对末态实施量子测量,便输出运算结果。虚框内都是按照量子力学规律运行的。图中的幺正操作(U操作)是信息处理的核心,如何确定U操作呢?首先选择适合于待求解问题的量子算法,然后将该算法按照量子编程的原则转换为控制量子芯片中量子比特的指令程序,从而实现了U操作的功能。
量子计算机的实际操作过程
给定问题及相关数据,科学家设计相应的量子算法,进而开发量子软件实现量子算法,然后进行量子编程将算法思想转化为量子计算机硬件能识别的一条条指令,这些指令随后发送至量子计算机控制系统,该系统实施对量子芯片系统的操控,操控结束后,量子测量的数据再反馈给量子控制系统,最终传送到工作人员的电脑。
单双量子比特门
量子逻辑电路是用于实现U变换的操作,任何复杂的U操作都可以拆解为单量子比特门Ui和双量子比特门Ujk的某种组合(即可拆解定理),Ui和Ujk是最简单的普适逻辑门集。
基于量子图灵机(量子逻辑电路)的量子计算称为标准量子计算,现在还在研究的其他量子计算模型还有:单向量子计算、拓扑量子计算和绝热量子计算(量子退火算法)等。
量子计算机是宏观尺度的量子器件,环境不可避免会导致量子相干性的消失(即消相干),这是量子计算机研究的主要障碍。“量子编码”用于克服环境的消相干,它增加信息的冗余度,用若干物理量子比特来编码一个逻辑比特(信息处理的单元)。业已证明,采用起码5个量子比特编码、1个逻辑比特,可以纠正消相干引起的所有错误。量子计算机实际应用存在另一类严重的错误,这种错误来源于非理想的量子操作,包括门操作和编码的操作。科学家提出容错编码原理来纠正这类错误,该原理指出,在所有量子操作都可能出错的情况下,仍然能够将整个系统纠正回理想的状态。这涉及到“容错阈值定理”,即只有量子操作的出错率低于某个阈值,才能实现量子容错。容错阈值与量子计算的实际构型有关,在一维或准一维的模型中,容错的阈值为105,在二维情况(采用表面码来编码比特),阈值为102。经过科学家十多年的努力,现在离子阱和超导系统的单双比特操作精度已经达到这个阈值。这个进展极大地刺激了人们对量子计算机研制的热情,量子计算机的实现不再是遥不可及的。量子计算机的研制逐步走出实验室,成为国际上各大企业追逐的目标。
量子计算的理论依据
叠加态Superposition叠加态原理,是量子力学中的一个基本原理,它广泛应用于量子力学各个方面,“薛定谔的猫”就是用来描述叠加态的经典比喻。在经典物理中,粒子任何时刻的状态都是空间中一个固定的点。在量子力学中,粒子可以不处于一个固定的状态(上或下),而是同时处于两种状态的叠加(上和下)。
量子纠缠
QuantumEntanglement
量子纠缠,它描述了粒子量子态之间的高度关联,这样的“关联”可以是多种形式,比如自旋态总是相反,或总是相同,或者是既可能相反也可能相同,但相反的可能性比相同大。只要两个粒子相互关联构成叠加态,它们就会“互相纠缠”在一起,即使在两个粒子分开到很远很远距离的情况下,它们能瞬间互相影响的“纠缠”照样存在。这种关联是经典粒子对没有的,是仅发生于量子系统中的独特现象。
量子测量
Measurement
量子测量是观察量子态的行为,这种观察将产生一些经典信息,该测量过程将改变量子态。例如状态处于叠加状态,则测量会将其“折叠”为经典状态(0或1),坍缩过程是随机发生的。在进行测量之前,无法知道结果如何,但是可以计算每个结果的概率,这个概率是对量子状态的一种预测,可以通过多次准备状态,对其进行测量然后计算每个结果的概率来测试该预测。
量子隧穿
QuantumTunneling
量子隧穿是一种量子力学效应,指的是像电子等微观粒子能够穿入或穿越位势垒的量子行为,尽管位势垒的高度大于粒子的总能量。在经典力学里,这是不可能发生的,但使用量子力学理论却可以给出合理解释。在量子力学中,波函数表示粒子在特定位置的概率,这表明粒子存在位于障碍物另一侧的概率。
贝尔不等式
Bell’sInequality最初的贝尔不等式是由爱尔兰物理学家约翰·斯图尔特·贝尔发现的,其他不等式现象后来被其他研究人员发现,贝尔的所有不等式加在一起便构成了贝尔定理。
贝尔证明了该术语的经典定义中的世界不符合当地的现实主义。“本地”意味着对象只能受到其周围环境的影响。从物理学的意义上讲,“现实主义”是指物体的性质在某人测量(甚至被测量)之前和之后都存在于人的思想之外。
经典力学说,在测量之前和之后,粒子具有真实的(确定的)值,取两个相撞并相距很远的粒子,一个人对另一个人的任何影响都必须立即通过“场”传达出来(但绝不能比光速快)。
贝尔不等式是涉及光子自旋的理论实验中的一系列测量,通过方向不同的检测器进行测量。不平等是指这样一个事实,即如果世界表现出局部真实性,则一组光子测量结果将大于另一组。然而事实并非如此,这意味着物理世界受量子力学理论支配,量子纠缠的启示仅证实了这一观点。
不可克隆性
No-CloningTheorem
由于量子力学的态叠加原理和系统态的演化遵从幺正变换,使得任何量子体系的任意未知量子态无法被完全复制。即无法在不破坏原来未知态的情况下对之
玻色-爱因斯坦凝聚态
Bose-EinsteinCondensate
玻色-爱因斯坦凝聚态是超冷原子云,华盛顿州立大学的研究员彼得·恩格斯(PeterEngels)解释说:“这一大原子团的行为不像桶中的一堆球。它的行为就像一个大的超级原子。因此,它放大了量子力学的作用。”从理论上讲,玻色-爱因斯坦凝聚物(BEC)可以充当稳定的量子比特。
布洛赫球
BlochSphere
在量子力学中,布洛赫球是二级量子力学系统(量子比特)的纯态空间的几何表示,以物理学家FelixBloch命名。布洛赫球是一个单位球,其对映点对应于一对相互正交的状态向量。布洛赫球提供了以下解释:极点代表经典位,我们使用符号|0〉和|1〉。然而,尽管这些是经典位表示的唯一可能状态,但量子比特覆盖了整个球体。因此,量子比特中包含了更多的信息,布洛赫球对此进行了描述。当量子比特被测量时,它坍塌到两个极点之一。这两个极点中的哪一个取决于布洛赫表示中的箭头指向哪个方向:如果箭头更靠近北极,则更有可能塌陷到北极;南极也一样。应当注意,这将概率的概念引入了布洛赫球体:箭头与垂直轴的角度θ对应于该概率。如果箭头指向赤道,则任一极都可能塌陷50-50。
马约拉纳费米子
MajoranaFermions形成物质的基本粒子(“费米子”)由保罗·狄拉克(PaulDirac)于1928年提出的方程式Dirac方程来描述,这意味着宇宙中的每个基本粒子都有一个反粒子,其质量相同但电荷相反。1932年发现了第一个反粒子,与电子结合的正电子。电子和其他基本粒子具有不同的反粒子,它们通过希格斯机制获得质量,在物理学中,它们被称为“狄拉克费米子”。
1937年,意大利物理学家埃托尔·马若拉纳(EttoreMajorana)发现了一个更通用的方程式(MajoranaEquation),该方程式预测了中性费米子的存在(不带电荷)是它们自己的反粒子。Majorana费米子是特殊的粒子,因为它们不是通过希格斯机制获得质量而是与其自身相互作用而获得质量,因此它们是自己的反粒子。
自旋
Spin自旋有时称为“核自旋”或“本征自旋”,这是基本粒子、复合粒子(强子)和原子核所携带的角动量的量子形式。旋转与实际旋转无关,物理学家使用“自旋”或“内在自旋”一词来区分粒子“有点”具有的角动量和物理旋转物体的规则角动量。
量子计算机的分类
当前,量子计算机可大致分为三类:量子退火、嘈杂中型量子(NISQ)计算、容错型通用量子计算。
量子退火QuantumAnnealing
绝热量子计算机中用于解决优化和采样问题的算法。它通过允许量子系统找到其最低能量状态而起作用。在数据波动的情况下,量子比特位于最低的能量峰值上。这些都将量子比特控制和降低到零,最终得到了解决方案。
NISQ
NISQ是“NoisyIntermediate-ScaleQuantum”的缩写,它是指“嘈杂中等规模量子“。“中等规模”指的是现在可以获得的量子计算机的尺寸大小———可能大到足以执行某些高度专业化的任务(如新药和新材料的设计等),超出了当今超级计算机的能力范围。“嘈杂”则强调对量子比特的控制还不是非常完美,这将导致小误差随时间不断积累,如果计算时间太长,就得不到正确答案。
容错量子计算Fault-tolerantQuantumComputing量子纠错码可以用来解决退相干等硬件的不完美导致的计算错误问题。在错误的分布满足某些条件的情况下,我们可以把最终计算结果出错的概率降得任意低,这被称作容错量子计算。量子纠错是有代价的,为了降低最终出错率,需要使用很多的量子比特来进行编码。进行容错量子计算的首要条件,也就是错误率低于容错阈值(亚阈值)的初始化、量子门以及读取等操作已经能够在实验中被演示。
量子计算机的构成
量子比特
Qubit在常规计算机中,信息单元用二进制的1个位来表示,它不是处于“0”态就是处于“1”态。在二进制量子计算机中,信息单元称为量子比特(qubit),它除了处于“0”态或“1”态外,还可处于叠加态(superposedstate)。叠加态是“0”态和“1”态的任意线性叠加,它既可以是“0”态又可以是“1”态,“0”态和“1”态各以一定的概率同时存在。
简单来说,量子比特就是一个具有两个量子态的物理系统,如光子的两个偏振态、电子的两个自旋态、离子(原子)的两个能级等都可构成量子比特的两个状态。
Transmon
Transmon是一种超导环形量子比特,可以在极低的温度下创建,目前最多可以将其中五个链接在一起。标准的transmon可以保持大约50微秒的相干性,可以在量子电路中使用。更重要的是,相干时间是长度的两倍,transmon数组包含10到20个循环。
Xmon
Xmon是由加利福尼亚大学圣塔芭芭拉分校的一个团队创建的十字形量子比特。研究小组发现,通过将五个Xmon放在同一行中,他们能够创建稳定有效的量子排列,从而提供最大的稳定性和最少的误差。像大多数其他量子比特一样,必须在接近绝对零的温度下创建Xmon。
拓扑量子比特
TopologicalQubit
量子比特非常挑剔,即便是最轻微的扰乱,它们也会“散开”,不再可用于计算。引入拓扑量子比特概念,使其更加稳定,且能提供更多固有的防错能力。根据定义,粒子的拓扑状态就是粒子可被分解、并出现在系统不同地方的状态。一旦粒子被分解,就很难被干扰,因为必须改变所有存储在不同地方的信息。
量子寄存器
QuantumRegister
n个量子位的有序集合称为n位量子寄存器。它的态是n个量子位的态的张量积(tensorproduct)。n位量子寄存器可以存储2n个n位数。
量子逻辑门
QuantumLogicalGates
对量子位的态进行变换,可以实现某些逻辑功能。变换所起的作用相当于逻辑门所起的作用,在一定的时间间隔内实现逻辑变换的量子装置称为量子逻辑门。与传统逻辑门不同,量子逻辑门是可逆的。量子逻辑门是量子计算与量子计算机实现的基础,可用下列方法实现:
(1)量子点系统;
(2)超导约瑟夫森(Josephson)结系统;
(3)核磁共振量子系统;
(4)离子阱系统;
(5)腔量子电动力学系统等。
量子逻辑网
QuantumLogicalNets
量子逻辑网络由多个量子逻辑门组成,这些量子逻辑门的操作在时间上同步。
随机基准
RandomizedBenchmarking
一种用于确定一组量子门的平均错误率的实验技术,这涉及到应用随机电路,如果门无法正常工作,将产生零影响。基准测试是评估多量子比特量子计算机性能的重要程序。
量子存储状态
QuantumMemoryState
量子存储状态是量子位在其中维持大量状态以在量子计算中具有价值的状态。迄今为止,这些状态已被证明是非常脆弱的,因为在量子级的最小干扰就可以破坏它们。因此,大多数使用量子比特的实验都要求将粒子冷却到接近零的绝对值。
量子程序
QuantumPrograms
量子程序的逻辑体系一般由“经典控制部分+量子数据部分”构成。量子程序的计算操作一般由以下三部分组成:
(1)一个初化操作,包括量子变量数据的初化;(2)一系列的酉变换;
(3)一个最终的测量。
量子计算机的组织结构
Theorganizationofaquantumcomputer
量子计算机的计算过程由算法决定,不同的算法有不同的幺正变换。量子计算机的计算过程可由常规计算机控制,由于量子计算的测量结果是概率性的,需要计算和测量多次,才能得到所需结果。量子并行是量子计算机的特点,对于串行计算及迭代运算,量子计算机不具备优势。量子计算机适合于作为常规的通用计算机的高速协处理器或外围专用处理机,或专门为实现某种量子算法或模拟某种量子系统的专用计算机。
量子计算机的程序语言
Theprogramminglanguageofaquantumcomputer
与经典计算机类似,为便于控制并通用量子计算机,必须通过量子计算机设计语言来描述待解决问题,因此量子计算机程序设计语言将作为未来通用量子计算机上的一种重要系统软件。现有量子算法一般固化于专用量子计算设备中,如果需要改变量子算法就必须重新设计量子计算设备,实际上,这就相当于一台求解特定具体问题(不是一类特定问题)的专用计算设备。
量子模拟器
QuantumSimulator
量子模拟在很大程度上起源于理查德·费曼(RichardFeynman)的1982年的提议,现已发展成为科学家使用可控量子系统研究在实验上不太可行的量子现象的领域。简而言之,现在尚不存在完整的量子计算机,并且经典计算机通常无法解决量子问题,因此“量子模拟器”提供了一种吸引人的替代方法,可以深入了解例如复杂的材料特性。
通用量子计算机
UniversalQuantumComputer量子图灵机(QTM),也是一种通用量子计算机,是用于量子计算机的效果进行建模抽象机。它提供了一个非常简单的模型,可以捕获量子计算的所有功能。任何量子算法都可以形式上表示为特定的量子图灵机。牛津大学物理学家戴维·德意志(DavidDeutsch)在1985年的一篇文章中首次提出了这样的图灵机,该论文提出量子门的功能可以与传统的数字计算二进制逻辑门类似。量子图灵机并不总是用于分析量子计算。量子电路是更常见的模型,这些模型在计算上是等效的。
量子计算机仍在早期快速发展阶段
回顾2022年,无论是各硬件技术路线还是软件开发与平台的扩充,总体上量子计算行业仍处在早期快速发展的阶段。
与硬件各路线百花齐放所不同的是,量子软件开源成为当前产业发展的主要特征之一。目前由于开源软件的开放性和基于社区的共享性使得源码中经常包含很多漏洞,导致缺陷处理的成本大幅增加,阻碍了开源软件的应用推广。因此,当前研究的热点之一是如何有效、准确地发现软件缺陷,并快速修复软件缺陷。
产业链逐渐清晰与完善
随着量子计算机各个路线研发工作的逐步推进,整机所需的上游硬件设备与器件选型逐渐清晰,同时,量子计算机的软件系统也在不断跟进,整个产业链上下游各环节的构成逐渐清晰与完善,各环节的参与者也在逐渐增多。
图表 1-1量子计算产业链图谱
积极探索下游应用
量子计算基于量子力学的全新计算模式,具有原理上远超经典计算的强大并行计算能力,为人工智能、密码分析、气象预报、资源勘探、药物设计等所需的大规模计算难题提供了解决方案,并可揭示量子相变、高温超导、量子霍尔效应等复杂物理机制。这是量子计算机为我们展现的强大力量,目前受限于真实量子计算机的研发进度,尚无法提供量子计算机的强大算力来实现完整的量子应用,但目前完全可以开发各类垂直行业应用的量子算法,利用数字计算机的算力来验证,从而为未来的实际应用做好积累和铺垫。
商业拓展初步探索
2022年,全球范围内的量子计算整机仍然以原型机为主,我们仍处于NISQ时代的早期阶段,量子计算机在实际应用和解决实际问题方面仍然没有太多进展。虽然一项新技术的出现势必引来资本和社会的追捧,泡沫的产生存在一定的合理性,但ICV还是要明确地告诉各方,量子计算机的研发仍处于早期阶段,离实用化还很远,全球范围内可以验证的应用几乎都是在量子计算模拟器上进行的。
ICV预计在2030年之前,人类最有可能实现专用量子计算机,即相干操纵数百个量子比特,应用于组合优化、量子化学、机器学习等特定问题,指导材料设计、药物开发等。
目前全球量子计算机公司包括科研院所在积极探索自己的盈利模式,主要如下:
量子计算机行业动态
2022年,量子计算的发展成果呈现多元化特征,量子比特数量、门保真度、量子体积、相干时间等关键指标均突破原有记录,纠错、控制等方面也取得较大进展;ICV对超导、离子阱、光量子、中性原子、硅自旋、拓扑等主要六种技术路线的发展态势进行总结和分析。
目前硬件层面的主要发展方向还是着重于增加量子比特数量、密度和连通性,提高量子比特的质量,包括更好的相干时间和门保真度;以及设计和实施新的架构,包括3D设置和新的组装技术;还有开发可组装和集成大型量子处理器的工业规模制造设施;演示不同量子计算机之间的互联和信息交换等。目前量子计算的多种技术路线边并驾齐驱,各自展示着自己的优势,每条路线都有机会大放异彩。
图表 2-1 量子计算硬件路线图
图表 2-2 量子计算发展阶段
1)超导量子计算
IBM遥遥领先
当前IBM公司引领着全球超导量子计算的技术发展,从当前的发展态势来看,包括Google在内的其他超导量子计算公司短时间内很难超越,IBM也代表了美国在超导量子计算机领域的国际地位。
IBM宣布推出的433量子比特Osprey,除量子比特数量的领先外,其多级布线,为信号路由和设备布局提供了灵活性。这种将读出和控制所需的导线和其他组件分离到各自层上的布线有助于保护脆弱的量子比特免受破坏,帮助处理器纳入更多的量子比特。与芯片Eagle相比,Osprey拥有两个更主要优势:
一个是用柔性带状电缆取代了IBM以前的量子处理器所使用的同轴电缆,同时还加入了集成滤波功能,以减少噪声和提高稳定性。该柔性带状电缆适用于低温环境,电阻和热阻是量身定做的,以帮助微波信号传输,同时不传导可能干扰量子比特的太多热量。这使得芯片的连接数量增加了77%,几乎是之前线缆的两倍,更有助于扩大其量子计算机的规模。
另一个优势是新一代的测控系统,该装置用于发送和接收进出量子处理器的微波信号,较之前一代更为专业,也更适合量子设备,可以产生计算需要的确切信号以及频率。
未来,IBM将专注于以下两个以硬件为中心的大型项目。一个是涉及量子处理器之间的各种类型的通信:实时经典、芯片到芯片量子门(量子多芯片模块)和远程量子通信——以量子为中心的超级计算机的基本组成部分;另一个是引入低温 CMOS 测控。
以纠错为核心
2019年,Google首次实现量子优越性所使用的“悬铃木”量子处理器是53个量子比特,2022年已经扩展至72量子比特。与IBM不同,尽管Google量子比特数远不如IBM,但他们更关注量子比特的质量,在量子纠错方面已取得持续进展。
Google采用5码距的表面码在拥有72个transmon量子比特和121个可调谐耦合器的“悬铃木”设备上实现了纠错。更为重要的是,以往的纠错研究随着比特数的增加,错误率会提高,都是“越纠越错”,而这次Google首次实现了“越纠越对”。也就是说,突破了量子纠错的盈亏平衡点,这是量子计算“万里长征”中的重要转折点,为实现通用计算所需的逻辑错误率指出了全新途径。
IBM目前的重六边形二维量子比特阵列,每个量子比特都以某种重复模式连接到芯片表面上的其他附近的量子比特。同时IBM已经开始研究在芯片上的远距离量子比特之间建立连接,以及在这些连接之间进行交叉,这可能为以后实现高效容错代码的机器铺平道路。
总的来说,2022年超导量子计算技术路线的成果主要集中于门速度、门保真度、信号的读取、相干时间以及量子比特数量方面。可以预见,超导路线在IBM的带领下,在未来3年仍将持续领跑其他技术路线。但同时,该技术路线仍有很多困难要克服,更远的将来是否会继续保持领先地位仍未可知。
2)离子阱量子计算
向容错量子计算机迈进
离子阱的一大优势就是天然离子具有全同性,所以它们的相干时间特别长,并且门保真度也非常高。在此基础上,2022年,离子阱量子计算技术路线的主要成果之一为继续提高状态制备和测量(SPAM)保真度。主要成果来源于Quantinuum和IonQ两家量子企业。两家公司将SPAM保真度,分别提高到了99.9904%、99.96%,处于行业的领先水平,这也得益于离子阱相较于其他技术路线在保真度上的天然优势。
更重要的是,霍尼韦尔旗下量子计算公司Quantinuum通过实验首次演示了在两个逻辑量子比特之间的纠缠门,并以完全容错的方式完成实时纠错;首次演示了比相应物理电路具有更高保真度的逻辑电路;这一里程碑式的成就标志着逻辑量子比特性能优于物理量子比特——这是迈向容错量子计算机的关键一步。
探索扩展量子比特的方式
提升离子阱互联能力、扩展系统比特数目,是离子阱企业殊途同归的发展方向。
2022年初,IonQ宣布将在新系统中使用钡离子,取代此前的镱离子,因为它更适合光子-离子纠缠。该公司于3月发布其最新一代的量子系统IonQ Forte,包含32个量子比特,拥有能够处理多达40个单独离子量子比特的AOD系统。离子阱体系本身存在扩展难的问题,但随着IonQ提出了多核架构,未来1—2年离子阱量子计算机也将突破100量子比特。2023年1月,Entangled Networks团队加入IonQ,主要从事下一代网络量子计算机架构和全栈式量子编译器的研究。这项收购支持IonQ通过在多个分布式量子处理器上实现计算来构建大规模量子计算机的努力。
除了量子比特数可以衡量量子计算机的性能外,其他参数,包括相干时间、计算速度、线路深度、错误率、连通性等同样可以很好地表示量子计算机性能的好坏。
离子阱的最大优势可以在QV这个指数上体现出来(离子阱路线目前最大量子体积(QV)达到了8192,也是所有量子计算机路线中最大的)。首先是它的量子比特间的全连接度,其次是它的退相干时间长;这两个优势目前弥补了量子比特数目少的缺陷。
探索多样的技术路线
3)光量子计算
各项指标均有所突破
在量子计算优越性展示方面,2022年6月,光量子计算的代表企业Xanadu,通过使用最新的可编程光量子计算机Borealis,完成高斯玻色采样实验,展示了量子计算优越性。该公司的下一个目标是建立一个能够扩展至100万量子比特的容错和纠错的量子计算机。同样有此目标、且累计融资达6.65亿美元的PsiQuantum公司,2022年在纠错量子计算架构方面取得一定突破,但并未推出任何产品或样机。
在光量子处理器方面,荷兰光量子计算公司QuiX Quantum于2022年3月推出新的20量子模式(qumode)处理器。这是一种基于连续变量(CV)的 光量子处理器,不同于PsiQuantum的路线,后者是采用离散的光子量子比特。
在纠缠光子的数量方面,8月美国马克斯普朗克量子光学研究所(MPQ)成功地以明确的方式有效地纠缠了14个光子,创造了新的世界纪录。
高维光量子计算显露优势
2022年3月,北京大学团队实现了高维(quantum dit,qudit)量子计算芯片,在大规模集成硅基光量子芯片上实现了高维量子位初始化、操作和测量器件的单片集成,通过编程重构该量子处理器,运行了上百万次高保真度量子操作,执行了多种重要的高维量子傅里叶变换类算法,进而证明了高维量子计算具有比二进制量子比特(quantum bit)编码的量子计算更大的计算容量、更高的计算精度和更快的计算速度等显著优势,有望加速构建大尺度光量子计算机。
利用光量子的高维量子态做计算总的来说并不是一项非常新的技术。早在2019年8月,奥地利科学院和维也纳大学的团队(Anton Zeilinger)就首次成功地传送了三维量子态,即高维量子系统可以传输比量子比特更多的信息,这将有助于将量子计算机与量子比特以外的信息容量连接起来。
光量子的高维量子态主要是用光的路径来进行编码,如编码在4条路径上来形成4维量子态;区别于多自由度,比如两个光子同时对其角动量、偏振、路径等同时进行编码。光量子做高维量子计算主要有三方面的优势:
1. 可以减少损耗。在减小或保持损耗的情况下,能够把希尔伯特空间做大;
2. 简化量子门的构建与编译。在量子计算中,要实现一个二维的不可逆门,比如与或非这样经典操作的门,可以把它扩展到三维的量子位,用多余的量子位去存储在计算过程中冗余的信息,让门变成可逆,就可以更好地实现这样一个操作;
3. 一次可以输入更高维度的信息。即在相位估计中,用迭代相位估计的方法,迭代一次可以得出4位,相当于芯片跑一次就可以得出4位的结果。这不仅是在计算过程中将体系变大了,而且每次得到的结果与能输入的结果也都变多了。此外跟经典结合的时候,高维量子计算也会有一些优势。
3)中性原子量子计算
该技术的一个主要优势是可以将多种类型的光镊(其中一些可以快速移动)与它们携带的原子结合起来。该路线目前已经利用光镊技术建立了由200多个中性原子组成的阵列,并且正在迅速结合新的和现有的技术,将这些原子变成完全工作的量子计算机。这种光镊使得该技术比其他平台(如超导体)更加灵活,可以与更大范围的原子互动,而在超导体中,每个量子比特只能与芯片上的直接邻居互动。
2022年“中性原子元年”
2022年,各个路线量子计算机均有一些颇为亮眼的表现,但中性原子路线的量子计算机可以说是2022年度不折不扣的年度黑马,主要成果包括原子比特数的刷新、相干时间和最快双量子比特门速度、大规模原子量子处理器的发布等,无论是在技术还是商业成熟度上,都呈现出跨越式的发展。
2022年年末实现了一些商业化进展:QuEra在AWS上推出256量子比特模拟量子处理器,QuEra的QPU是亚马逊Braket上第一个能够进行“模拟哈密顿量模拟(AHS)”量子计算范式的设备;M Squared公布了英国第一台商用中性原子量子计算机的原型机——Maxwell系统。
在专用量子模拟机上优势明显
中性原子路线在过去的一年取得了如此令人骄傲的进展绝非偶然。究其根本原因,主要是量子计算机在其量子比特数量、容错能力、相干时间等各项技术指标尚不具备实现通用量子计算之前,专用量子计算机或将成为量子计算领域近期的主要发展目标。超导等路线作为通用的量子计算路线,可以与中性原子一样去做量子模拟。但中性原子路线比超导路线做量子模拟机的优势就在于原子的天然哈密顿量之间的相互作用。对于同样的问题,处理得到同样的结果,中性原子路线并不需要庞大且昂贵的稀释制冷机来为芯片提供超低温环境,当然光量子计算也有同样的发展优势。
技术原理多领域通用
中性原子技术的应用场景也是多样的,其细分路线中的里德堡原子可以在量子通信中做原子天线、在量子计算领域做芯片,以及在量子精密测量领域也有广泛的应用。除此之外,另一条冷原子路线还可以用来做量子中继以及量子存储器。
综上所述,中性原子以其广泛的应用前景也间接地带动了关于其科研以及商业化的进程,促进了该路线的高速跨越式发展。
4)半导体量子计算
保真度实现突破
目前硅基量子技术的优势在于利用了类似小芯片中集成数十亿个晶体管的半导体纳米结构,因此可以利用当前成熟的半导体技术:得益于硅基自旋量子比特与成熟的纳米加工技术的兼容性,半导体量子计算在过去的一年,容错上进展明显。
走向可扩展性
当前半导体量子芯片的扩展性一直是该路线研究的难点之一。2022年,半导体路线解决了诸多难题,在传输方式、工作温区以及量子比特数量上都取得了很大的阶段性进展。
目前硅基技术的主要挑战是每个量子比特的质量不一样,这也是科学家致力于解决的主要困难。基于当前已实现的技术状况来看,下一步硅半导体量子计算的核心研究任务依旧是如何采用现代半导体工业产线技术实现多量子比特耦合和普适量子逻辑门操控,从而构建大规模可扩展的硅量子芯片,实现可容错的量子计算原型机。
2022年对量子计算来说是一个积极和充满希望的结束。研究电子输运,开发容错的自旋量子比特系统,以及通过使用传统电子技术模拟量子结构,可能成为规避量子力学定律所带来的限制、将量子计算机带出实验室、进入现实世界和解决现实世界的复杂问题的关键。
5)拓扑量子计算
拓扑量子计算作为当下炙手可热的一个技术路线,其优势是硬件层面的纠错。原理比较复杂,简单来说,量子比特是一个单独的个体,与其他量子比特相互作用,是很容易出错的,而且量子比特数越多,越容易出错,出错了信息就可能丢失。但拓扑量子计算机是将几个量子比特组成起来形成一个固定结构,无论受到外界何种干扰,不会造成信息丢失。
对于拓扑量子比特来说,目前研究最多的马约拉纳费米子只是一种预言的费米子,它的反粒子就是它本身。但马约拉纳费米子仍未在自然界中找到,因此科学家们希望制造一种叫做马约拉纳零能模的任意子。与自然存在于真空中的电子或光子等基本粒子不同,马约拉纳任意子需要在混合材料中产生。
持续探索新材料
目前构成拓扑量子计算可能的系统有三大类:分数量子霍尔、拓扑超导体以及拓扑绝缘体。目前科学家所实验出来的代表材料分别为GaAs/AlGaAs、Pb上的Fe原子链以及非阿贝尔Jackiw中的Rebbi(-like)模式(仅提案)。
总的来说,拓扑量子计算的研究目前还停留在基础研究领域,很难甚至不能断定研究的哪个系统,以及该方向是否值得研究。但从长远利益的角度上来看,具有容错特性的拓扑量子计算的研究,应该得到更多鼓励。
技术原理取得突破
拓扑相的特征是基态的长程纠缠,传统实验探针不容易获得。2022年3月,微软Azure Quantum团队提出的“拓扑间隙协议”(TGP)解决了这个困难,作为通过量子输运测量确定拓扑相的标准。如果能够通过该协议,就证明存在拓扑间隙。为此,他们设计了一种设备:拓扑超导线的末端有马约拉纳零能模。线的两端都有一个实数费米子算符。最终,微软团队在这个设备上测量到了超过30μeV的拓扑间隙,消除了产生拓扑量子比特的最大障碍。
这些里程碑式的技术进步,都是未来制造拓扑量子计算机的关键原理步骤。拓扑量子计算非常依赖于任意子的融合和编织(拓扑准粒子的两种原始操作),而拓扑间隙控制着物质的基本状态为这些操作提供的容错能力。因此不论是微软通过马约拉纳零能模和可测量的拓扑间隙创建和维持量子相位的能力,消除了产生拓扑量子比特的最大障碍,还是普林斯顿大学所研究的分数量子霍尔效应。基于拓扑量子比特的量子计算机都将比其他已知量子比特构建的机器表现更为稳定。
核心设备与器件
硬件系统中,mK级稀释制冷机(包含GM脉管预制冷设备)以及微波控制电路系统(包含一体化量子计算测控系统、射频微波线缆、低温电子器件、射频微波仪器仪表等)是超导或半导体量子计算机的核心设备。射频微波线缆(同轴电缆、柔性电缆等)是连接处于低温的量子芯片和处于室温的测控系统之间的桥梁,低温电子器件则又包含低温耦合器、低温低通滤波器、低温隔离器、红外滤波器、低温放大器等细分部件。
对于量子比特控制与测量,根据其技术路线不同,量子计算测控系统主要分为两大类型:一类是光学系统,包括光子源、单光子探测器、激光机等部分。主要负责光量子、离子阱以及中性原子等路线量子计算的测控;另一类是微波控制电路系统,主要包含任意波形发生器、锁相放大器等一系列微波器件。该系统主要负责超导以及半导体量子计算的测控(也负责如离子阱、中性原子、金刚石NV色心等路线的控制)。
1)稀释制冷机
目前,能达到mK极端低温的技术包括在空间科学卫星上应用比较广泛的绝热消磁制冷器,以及在地面实验研究和空间科学卫星上也已经成熟的吸附式制冷机。在这些极端低温技术中,吸附式冷却器可以满足250mk以上温度区的任务要求,但绝热消磁制冷器结合吸附式冷却器或其他预冷方法可以满足250mk以下温度区的要求。
稀释制冷机在不同低温领域均有应用,量子计算机则为其主要应用领域。其中超导量子计算机、半导体量子计算机以及拓扑量子计算机对稀释制冷机有较高的低温要求,且目前稀释制冷机的主要工作温度区间为5mk-4k之间。
目前唯一适合量子计算机的制冷技术
当前其他类型的超低温冷却器可以达到几乎与稀释制冷机一样低的温度,但它们不适合用于量子计算,而是适用于预冷,如绝热退磁冷却器,它是一次性的低温方法,不能提供持久的低温环境,不适合直接用于支持量子计算和量子模拟。
通常情况下,对于拓扑量子计算的研究大多是由稀释制冷机来为其创造接近0K的温度,而更低温则是由绝热核退磁制冷机经过稀释制冷机预冷,来达到凝聚态中的最低温度,这也是将宏观物体冷却到微开尔文(µK)的唯一方法。
破除体积限制是当前研发重点
2022年3月,美国丹佛初创公司Maybell Quantum推出了为下一代量子计算机提供动力的低温平台——Icebox稀释制冷机。该机器在十分之一的空间中支持的量子比特数量是原来的三倍,且制冷机中有4500条超导柔性线。这是第一个带门的系统,可以在不拆开它的情况下访问量子比特。
IBM于2021年公布了他们的“黄金眼(Goldeneye)项目”,即为量子计算机造一台前所未有的超大稀释制冷机——包含1.7立方米的实验容积,可以将比三个家庭厨房冰箱更大的容积冷却到比外太空更冷的温度,而之前的制冷机在0.4-0.7立方米的范围内。后于2022年9月成功地将“黄金眼”冷却到工作温度(~25 mK),并在内部连接了一个量子处理器。
12月,美国能源部费米国家加速器实验室的研究人员宣布他们正在建造Colossus,建成后它将成为迄今为止mK温度下最大、最强的稀释制冷机,黄金眼仅为Colossus容积的三分之一。这台巨型制冷机将能够容纳数百到数千个高度相干的腔和量子比特,为标准商业稀释制冷机在该温度下冷却能力的10倍和体积的15倍。然而,由于其像一个倒置的婚礼蛋糕,最大直径约为2米,包含七个直径、每一直径越来越小、温度越来越低,且需要将这些盘子相互悬挂,形成Colossus的低温结构,这些成为目前Colossus的建造面临的挑战。
中国有望实现技术突破
2023年,对于中国来说,10mK以下的稀释制冷机的禁运将迫使其加速自主研发的进程。中国目前除中科院物理所的姬忠庆团队在无液氦稀释制冷机上率先实现了8mk的温度外;中电科十六所的稀释制冷机有了阶段性的突破,其连续循环工作温度达到9.3mK;中船重工鹏力超低温稀释制冷机目前采用GM制冷机作为预冷冷源,最低温度也达到了12mk(连续运行)。
中国当前稀释制冷机自研道路上的难点主要包括研制稀释制冷机所必需的同位素3He、预冷所需的脉冲管和冷头等预制冷设备严重依赖进口,以及一些低温设备焊接工艺难题。此外还有需克服像冷漏、超漏问题、盘管热交换器和银粉热交换器等一系列技术难题。在核心的稀释制冷机磁共振冷头技术方面,中国有中船重工鹏力、万瑞冷电和氢合科技这几家企业可以做到4k的温度,是否能有效工作不得而知。
2)测控系统
在实现实用化量子计算机的道路上,最大的挑战之一是实现百万个量子比特。而这一实现过程,离不开量子计算测控系统。无论量子计算机的体积和形态如何变化,测控系统或者说这一功能组成都会存在。对量子比特实时控制、测量和读取结果、反馈结果这一系列过程的设备简称为量子计算测控系统或量子测控系统。
超导量子比特的门操作和测量可以通过微波和射频脉冲实现。这是超导量子比特与其他物理系统构建量子比特(原子、离子和光子)的不同之处。
如何应对更多量子比特的测控
随着量子比特数量的增加,理论上,测控设备的测控线路数也会相应增加,因此,未来量子测控系统除了提升硬件原有性能之外,还需提升对扩展性的需求。
应对的措施除了对测控芯片的集成度增强以外,还有为对测控系统进行机箱内扩展和机箱间扩展以及提升系统的通道密度等。机箱内扩展是在机箱内插入对应模块性测控板卡;机箱间扩展则是连接多个硬件机箱来扩展,以针对更多的测控需要。当然,这是目前在几百量子比特下的过渡方案,未来在超千比特数下,机箱方案是绝对无法满足要求的,这就要立即开展低温CMOS的控制方案研究。
量子反馈延迟时间需要在100ns量级上
为了实现读出和控制的快速反馈,包括减小测控数据的上传与下载之间的延迟、板卡之间以及设备之间的控制延迟、AWG的输出延迟等,整个量子态的读出操作、读出数据的分析以及生成反馈操作的过程,必须在量子比特退相干之前完成,就目前来看量子反馈延迟时间需要在100ns量级上。
目前,限制测控系统的技术难点对应了DiVincenzo标准,如果未来的发展逻辑是按照可纠错量子计算来部署的,那么目前业内的评判标准是对逻辑比特个数、增加一个量子比特的花费,以及是否能达到低的通道密度这些方面进行考量。随着时间的推移,下图结合了量子比特个数和时间刻度的关系,苏黎世仪器公司给出了里程碑预测。
图表 3-2量子计算微波测控系统发展趋势
在提高同步性、减少噪生和串扰方面仍有提升空间
量子测控面临多通道之间、机箱之间以及控制读取之间的高同步性的需求。高的同步性有利于减小通道间相对相位漂移引起的噪声,减小实验校准复杂度。减小噪声无论是现在和未来都始终需要讨论的焦点之一,因为量子测控系统的随机不可控噪声以及量子比特本身周围环境的噪声是引起退相干和测控操作保真度低下的主要原因。
1. 目前减少噪声一般是从材料、工艺、制冷机内部设计等方面去提升的。例如新材料在transmon类型的量子比特可以将热弛豫退相干时间增加到300us左右;添加Purcell滤波器可以降低Purcell效应对热弛豫退相干时间的影响;在稀释制冷机内部添加红外滤波器等也可以一定程度上提高热弛豫退相干时间。
2. 除了提升硬件系统的性能使得系统具有良好的可扩展性、同步性和低延迟外,设计高效的信号波形算法也是量子测控系统关注的重点。例如目前可以通过优化DAC波形的产生逻辑,来减小控制量子比特的延迟。
3. 改善信号的串扰也是重点工作。串扰的来源是因为控制信号在传输中,受到隔离不好的原因而产生了其他的微小信号。目前主要的避免方式还是通过真空和低温冷却环境来隔离量子比特与其周围的环境。未来将关注不同的隔离方式来避免串扰对测控的影响。
低温芯片化是未来
低温环境能显著降低温度带来的热噪声,能提供量子门操作的保真度。低温化的趋势和芯片化是难以分割的,因为根据现有的量子比特控制方法,是需要大量地从室温到10mK以下量子芯片处的控制线去连接量子测控系统的。
随着量子比特数目的增加,现有的量子比特控制方法必然会带来稀释制冷机的功率与体积的问题,目前的量子计算机需要为每个量子比特配备对应的控制和读出设备,对一百个量子比特以内尚可,但面对成千上万个量子比特(此等规模的量子计算机才被认为可实用化)则将无法以当前方式实现。为了解决这些问题,低温集成控制成为一种解决方案,以读出多路复用的方法,减少稀释制冷机内部所需电子设备和连接线数量。
3)激光系统
为满足量子计算机的特殊需求,所需激光器必须具有高稳定性、高精度的调谐能力以及较低的漂移,以保证量子信息的精确性和可靠性。此外,在量子计算机中,激光器还需要能够生成特定的光学信号,例如单光子脉冲或单模光,用于制造和操纵量子比特。
量子计算机所使用的激光器主要是以固体(晶体和玻璃)激光器或者半导体激光器阵列作为抽运源,掺入金属离子的晶体或玻璃基质作为增益介质的全固态激光器。从某种意义上来讲,全固态激光器整合了半导体激光器和固体激光器两者的优点,具有体积小、质量轻、寿命长、性能稳定、可靠性高、光束质量好、转换效率高等一系列优势,发展前景巨大。且它可通过变频获得宽波段可见、红外、紫外甚至深紫外激光输出,采用电激励的方式也便于模块化。
在各类全固态激光器中(圆棒激光器、板条激光器),ICV比较感兴趣的是光纤激光器,它是利用光纤作为激光介质的激光器,主要用于光量子、中性原子以及离子阱量子计算中。
4)光子源及其他光学组件
在纠缠光子源方面,偏振纠缠的光子产生大都以自发参量下转换过程(Spontaneous Parametric Down Conversion,简称 SPDC)为主。它是光与晶体的一类典型的非线性过程,这种过程可以简单描述为一束激光(在非线性光学中称为泵浦光)入射到晶体上。当满足一定条件时,入射光子会转化成两个在频率、偏振、传播路径和时间上都具有强烈关联的光子。
目前纠缠光子源面临的两个问题是退相干现象和亮度低。其中退相干现象指的是所产生光子的各个叠加部分的相对相位发生改变,从而使得各个部分的相干叠加性被破坏,影响纠缠作用。在实验中与退相干相关的一个指标是对比度,对比度是衡量光子之间纠缠作用强弱的物理量,退相干越严重,对比度越低。
在单光子源方面,长久以来,其纯度问题一度困扰科学家们很长的时间,基本的方案都是通过准相干技术,例如双光子产生(SPDC)、单晶材料生成单光子源等。通过这些技术,能够生成具有较高纯度的单光子源,从而满足量子信息科学研究的需求。
2022年,中国科学技术大学提出了目前最好的方案。课题组利用里德堡原子之间的相互作用实现了超级原子量子态的高精度激发与操控,并基于此制备了纯度达99.95%和全同度达99.94%的高质量单光子源。随后将其应用到基于KLM方案的光量子逻辑门实验中,并成功地将真值表保真度提高到了99.84%。利用该高保真度的光量子逻辑门,最后通过量子层析及贝尔不等式等方式进行了量子纠缠测量,其纠缠门保真度达到了99.69%。
5)光子源及其他光学组件
在纠缠光子源方面,偏振纠缠的光子产生大都以自发参量下转换过程(Spontaneous Parametric Down Conversion,简称 SPDC)为主。它是光与晶体的一类典型的非线性过程,这种过程可以简单描述为一束激光(在非线性光学中称为泵浦光)入射到晶体上。当满足一定条件时,入射光子会转化成两个在频率、偏振、传播路径和时间上都具有强烈关联的光子。
目前纠缠光子源面临的两个问题是退相干现象和亮度低。其中退相干现象指的是所产生光子的各个叠加部分的相对相位发生改变,从而使得各个部分的相干叠加性被破坏,影响纠缠作用。在实验中与退相干相关的一个指标是对比度,对比度是衡量光子之间纠缠作用强弱的物理量,退相干越严重,对比度越低。
在单光子源方面,长久以来,其纯度问题一度困扰科学家们很长的时间,基本的方案都是通过准相干技术,例如双光子产生(SPDC)、单晶材料生成单光子源等。通过这些技术,能够生成具有较高纯度的单光子源,从而满足量子信息科学研究的需求。
2022年,中国科学技术大学提出了目前最好的方案。课题组利用里德堡原子之间的相互作用实现了超级原子量子态的高精度激发与操控,并基于此制备了纯度达99.95%和全同度达99.94%的高质量单光子源。随后将其应用到基于KLM方案的光量子逻辑门实验中,并成功地将真值表保真度提高到了99.84%。利用该高保真度的光量子逻辑门,最后通过量子层析及贝尔不等式等方式进行了量子纠缠测量,其纠缠门保真度达到了99.69%。
主要技术门槛
量子信息技术属于高知识密集型领域,其操控处理的是单量子级别的微观物理对象,具有跨学科、高精尖的技术特点,产品研发和技术创新要求企业具备较强的技术实力、配置丰富的技术研发资源,要求企业研发人员对量子信息理论深刻理解,并在光学、微电子学、软件和集成技术等方面形成系统性支撑。
在量子保密通信领域,底层技术涉及到高效率的单光子探测、高精度的物理信号处理、高信噪比的信息调制、保持和提取、光学/光电集成、制冷集成、高速高精度专用集成电路等;在应用推广上,不同行业、不同领域的用户对信息安全的技术需求也不尽相同,需要在了解量子通信技术的同时了解经典信息通信系统和安全技术,才能够研发出匹配用户当前真实需求、兼顾用户安全需求发展空间的产品和应用解决方案。此外,量子保密通信网络的建设环境也不相同,网络建设方案的经济性、项目的快速交付以及业务连续性也是技术难点。
在量子计算方面,从量子比特数量到纠错、逻辑门保真度的提高,都是衡量量子计算能力的重要基准,在量子芯片材料、结构与工艺、量子计算机整体构架以及操作和应用系统等方面实现自主可控、国产化以及提高集成度等,都是难点所在。
产业应用上,通用量子计算机的落地还有很长的一段时间,量子计算需要在NISQ(中等规模含噪声)的量子计算机上实现有价值的应用探索,通过并行运算以及不断优化算法,同时克服目前量子计算设备的局限性进行输出,方能满足客户的高标准和高需求。
量子计算机研制已从高校、研究所为主发展为以公司为主力,从实验室的研究迈进到企业的实用器件研制,量子计算机将经历3个发展阶段:
1、量子计算原型机
原型机的比特数较少,信息功能不强,应用有限,但“五脏俱全”,是地地道道地按照量子力学规律运行的量子处理器。IBM Q System One就是这类量子计算机原型机。
2、量子霸权
量子比特数在50-100左右,其运算能力超过任何经典的电子计算机。但未采用 “纠错容错” 技术来确保其量子相干性,因此只能处理在其相干时间内能完成的那类问题,故又称为专用量子计算机,这种机器实质是中等规模带噪声量子计算机 (noisy intermediate-scalequantum, NISQ)。应当指出,“量子霸权”实际上是指在某些特定的问题上量子计算机的计算能力超越了任何经典计算机。这些特定问题的计算复杂度经过严格的数学论证,在经典计算机上是指数增长或超指数增长,而 在量子计算机上是多项式增长,因此体现了量子计算的优越性。
3、通用量子计算机
这是量子计算机研制的终极目标,用来解决任何可解的问题,可在各个领域 获得广泛应用。通用量子计算机的实现必须满足两个基本条件,一是量子比特数要达到几万到几百万量级,二是应采用 “纠错容错” 技术。鉴于人类对量子世界操控能力还相当不成熟,因此最终研制成功通用量子计算机还有相当长的路要走。
产业化进程
世界主要国家进一步加大量子科技战略部署,中国整体并跑、部分领跑
2022年诺贝尔奖首次颁发给量子信息领域的学者,让外界进一步认识到发展量子科技具有重大科学意义和战略价值。近年来,各主要国家和地区纷纷制定了国家层面的战略计划,大力支持量子信息技术发展。2022年,美国进一步以立法方式推动量子信息发展,在8月出台的《芯片和科学法案》中授权美国政府拨款约1,700亿美元用于促进美国未来5年在人工智能、量子计算等各领域的科研创新;在当年12月签署《量子计算网络安全防范法案》中,鼓励联邦政府机构采用不受量子计算影响的加密技术。2022年11月,欧盟发布《战略研究和产业议程(SRIA)》报告,统筹目前欧洲正在进行的量子技术工业和研发计划,包括量子通信、量子计算、量子传感等,全面推进量子技术战略。继通过《量子技术:从基础到市场的框架计划》后,德国联邦政府2022年推出了“量子系统研究计划”,其任务是在未来十年将德国带入欧洲量子计算和量子传感器领域的领先地位,并提高德国在量子系统方面的竞争力。澳大利亚、日本、韩国、印度等也发布和实施了相关计划。受益于党和国家前瞻部署和战略布局,目前我国在量子通信的研究和应用方面处于国际领先地位,在量子计算方面与发达国家整体处于同一水平,在量子精密测量方面发展迅速。
量子信息产业探索不断,产业链渐渐形成
在国家战略牵引和先行者的示范带动下,近年来国内外量子信息领域不断有“新军”加入,科技巨头和风投资本投入不断增加,初创型中小型量子科技企业茁壮成长。2022年,加拿大科技公司Xanadu获得了1亿美元的融资,并在光量子体系实现“量子计算优越性”;量子计算技术公司D-Wave和Rigetti通过SPAC等方式上市并获得融资;美国量子AI软件公司SandboxAQ正式从谷歌母公司Alphabet剥离及获得融资。目前,全球范围内以量子信息技术为主营业务的上市公司数量不多,说明行业整体还在早期。日本东芝、韩国SKT(收购瑞士IDQ)、中国电信、华为、中国电科集团等通信及ICT巨头都成立了相关量子保密通信研发团队;IBM、谷歌、亚马逊、微软、英特尔、霍尼韦尔等科技巨头也在量子计算领域进行了重点布局。
目前量子保密通信产业链已经相对较为成熟,其上游主要是元器件和核心设备,包括电子学元器件、光学器件、结构件等;中游主要是量子保密通信产品和相关技术服务供应商、量子保密通信网络集成与运营商等;下游主要是安全应用,通过和ICT/5G/物联网等技术的深度融合开发出高度适配、具备性价比的融合产品,触达B/C端消费群体,培养大批创新型中小生态链企业。近年来,量子保密通信上下游合作增强、标准规范推进,使得更多行业理解并掌握量子保密通信的相关技术,进一步投身到量子安全领域中。例如,上游的光芯片行业已经开始加入到轻量化量子保密通信设备核心部件研制中,下游的安全应用企业也开始出谋划策,丰富落地场景。
在量子计算方面,国际上还在对各种有望实现可扩展量子计算的物理体系开展系统性研究,量子计算正在从理论概念初步发展为新兴产业。欧洲计划在短期内实现“量子计算优越性”里程碑并在量子芯片的性能、控制能力等技术上持续探索;中长期则通过实现量子纠错,提高操控性和可编程性,在量子计算和产业之间搭建起桥梁,开发更实用的应用程序。
当前,硬件是量子计算的主要投资领域,即量子计算原型机的供应链方向,包括研发过程中所需的仪器设备、相关组件、微纳加工所需工艺设备、量子计算原型机组建等。其次,由于量子计算辐射的可应用领域较广,Gartner预测2023年约20%的组织将为量子计算项目开展预算,进行量子计算原型机适配的实验操控软件、有应用价值的量子加速算法等。
关键领域融合应用增多,量子安全受重视
在量子保密通信和安全方面,美国一直是全球抗量子密码(PQC)的主要推进力量,但其与量子有关的国家实验室从未停止过QKD技术的研究和验证QKD网络的可使用性。美国橡树岭国家实验室和Qubitekk公司合作在实际的智能电网数控系统上开展了基于QKD的安全认证(包含签名与验证)研究和试验;在欧洲,2022年欧盟27个成员国全部承诺,同意与欧盟委员会和欧洲航天局合作建设EuroQCI——欧洲量子通信基础设施;欧洲2022年发布的路线图显示,将进一步推进部署多个城域量子密钥分发(QKD)网络和具有可信节点的大规模QKD网络,实现基于欧洲供应链的QKD制造、在电信公司销售QKD服务等;中短期内逐步实现区域、国家、欧洲范围和基于卫星的量子保密通信网络部署。在此框架下,欧盟计划借助量子加密技术为成员国的经济、安全和国防等提供安全通信,总投资约60亿欧元。英国计划于2024年初启动量子通信卫星的在轨演示任务。在德国,图林根州已经投资1,100万欧元开展量子通信网络基础设施建设。
截至2022年末,我国建设完成的国家量子保密通信骨干网络覆盖京津冀、长三角、粤港澳大湾区、成渝双城经济圈等国家重要战略区域,地面干线总里程超过10,000公里。整体上看,在量子保密通信领域,我国从科研到产业应用在国际竞争中处于领先地位,量子保密通信网络已成为国家信息安全基础设施的一部分,在大数据服务、政务信息保护、金融业务加密、电力安全保障、移动通信等领域形成一系列示范应用和试商用项目,中国电信、国家电网等央国企在量子安全融合应用方面都推出了一系列的举措。
量子计算方面,由于量子计算机在原理上具有超快的并行计算能力,有望通过特定算法在一些具有重大社会和经济价值的问题方面(如密码破译、大数据优化、材料设计、药物分析等)相比经典计算机实现指数级别的加速,具有极大的应用前景。目前,量子计算距离通用化使用还具有较大距离,但是已经有越来越多的科技企业和机构在在小规模实际问题的量子算法上得到实验,比如基于量子计算的高并行性发展起来的量子机器学习(QML),对物理、生物学、流行病学和金融学中的现象随机建模等。由于当前量子计算原型机高昂的投资、较高的维护难度、极其严苛的运行环境,决定了当前量子计算的应用还是主要通过云平台等方式实现。谷歌、微软、亚马逊和IBM、中科院量子信息与量子科技创新研究院以及公司都推出或即将推出量子计算云平台的服务。空客、大众汽车、葛兰素史克、高盛、摩根大通、埃克森美孚、陶氏化学等知名企业也都在各自领域内开展了量子计算应用探索,发掘行业应用场景与特定算法等。
面对量子计算应用上的复杂系统问题,量子计算加超级计算的“超量融合计算”是现阶段实现量子计算应用探索的重要方向。2022年发布的《欧洲量子计算和量子模拟基础设施》白皮书显示,欧洲高性能计算共同体初步计划在2021-2022年间投入6,000万欧元来建设欧洲量子计算与模拟基础设施。在2022-2023年,量子旗舰计划进入过渡阶段,部署中等规模(50-200量子比特)量子计算原型机。目前,中国也具备了坚实的量子计算基础。
进击的中国量子计算
在我国,量子计算产业的发展受到政策的高度支持。其中,2015年5月,国务院颁布的《中国制造2025》中提到:积极推动量子计算、神经网络等发展,将量子通信纳入新一代信息技术产业;2016年7月,国务院发布的《“十三五”国家科技创新规划》中,量子通信与量子计算机被选择纳入体现国家战略意图的重大科技项目之一;2022年1月国务院发布的《“十四五”数字经济发展规划》提出要瞄准传感器、量子信息等前瞻性领域,提高数字技术基础研发能力。在政策带动下,中国量子计算赛道也迎来快速发展。2020年,中国科学技术大学潘建伟、陆朝阳等组成的研究团队与中科院上海微系统所、国家并行计算机工程技术研究中心合作,构建出76个光子100个模式的高斯玻色取样量子计算原型机“九章”,实现了 “高斯玻色取样” 任务的快速求解。“九章” 处理高斯玻色取样的速度,比目前最快的超级计算机快一百万亿倍,比谷歌超导比特量子计算原型机 “悬铃木” 快一百亿倍。举例来说就是,在室温下运行并计算玻色采样问题,同样处理 100 亿个样本,“九章” 需要 10 小时,超级计算机需要 1200 亿年。此后,中科大潘建伟教授与中科院上海微系统与信息技术研究院等多方进行合作,成功打造出量子计算原型机“九章二号”。“九章二号” 高斯玻色取样任务快速求解速度再次刷新了国际光量子操纵的技术水平。
图:“九章”量子计算机原型图源:中国科学院官网
除九章和九章二号之外,2021年,中国科学技术大学潘建伟、朱晓波、彭承志等组成的研究团队与中国科学院上海技术物理研究所合作,构建了66比特可编程超导量子计算原型机“祖冲之二号”,实现了对“量子随机线路取样”任务的快速求解。“祖冲之二号”的求解速度比全球最快的超级计算机快1000万倍以上,计算复杂度比谷歌的“悬铃木”提高了6个数量级 。企业方面,两家在量子计算专利数量上位列全球前十的企业——百度和本源量子所取得的成果也令人瞩目。今年8月,百度发布超导量子计算机“乾始”和首个全平台量子软硬一体解决方案“量羲”,集量子硬件、量子软件、量子应用于一体,提供移动端、PC端、云端等在内的全平台使用方式。本源量子在2021年9月10日发布的未来五年量子计算技术规划路线图显示,到2025年,本源量子将突破1000位量子比特,达到1024位量子比特。
相关标准化体系逐步建设,国内外均在布局
标准化工作一直是新兴技术走向产业化规模应用中重要的一环。2021年,中共中央、国务院印发了《国家标准化发展纲要》,提出“加强人工智能、量子信息、生物技术等领域的标准化研究”“支持国内的行业协会、企事业单位等深度参与国际电信联盟(ITU)、国际标准化组织(ISO)等国际标准和技术法规的制定”等。2022年,中国人民银行会同市场监管总局、银保监会、证监会联合印发《金融标准化“十四五”发展规划》,在健全金融信息基础设施标准方面,提出“探索量子通信、零信任网络、无损网络等新技术应用标准”。
量子保密通信技术服务信息基础设施建设符合我国安全和信息化发展的趋势与要求。我国正大力发展数字经济,强化网络安全、数据安全和个人信息保护。近年来,随着我国《密码法》《关键信息基础设施安全保护条例》等系列规章制度出台,促进了密码科学进步和创新,密码事业高质量发展。在国内,第三方测评是决定信息安全产品商业准入的关键环节,近年来信息安全、信息通信和金融、电力等领域的专业机构加大了对量子保密通信的关注和参与,通过测评、标准、融合应用等工作深度参与了量子保密通信技术、产品、应用的研究和规划,逐步形成了阶段性的共识和认可。2022年,国家工信部发布通信行业标准《基于BB84协议的量子密钥分发(QKD)用关键器件和模块第1部分:光源》和《基于BB84协议的量子密钥分发(QKD)用关键器件和模块第2部分:单光子探测器》,目前还有大量标准有待研究发布;在商用密码领域,与传统产品原理接近的部分设备已率先获得商密认证,公司的QKD和量子随机数发生器等量子保密通信核心设备也陆续通过商密检测。在更高安全要求的特种行业领域,相关测评工作也在持续推进中。
量子计算与测量的标准化工作持续推进。2022年,量子计算领域首个国家标准《量子计算术语和定义》完成报批稿,量子测量领域国家标准《基于氮—空位色心的微弱静磁场成像测量方法》获批立项。
在国际上,ITU、IEEE、ISO/IEC等国际标准化组织近年来纷纷启动量子信息领域的标准化工作,包括公司在内的中国主体在其中发挥着重要作用。例如,公司与中国信息安全测评中心联合牵头制定的ISO/IEC国际标准《量子密钥分发的安全要求、测试和评估方法》进入发布阶段;2022年,我国牵头立项的ISO/IEC国际标准《信息技术—量子计算术语和词汇》进入国际标准草案(DIS)阶段。
行业发展特点
结合以上对行业发展阶段的分析,可以看到量子信息行业呈现出国家战略驱动、技术发展迅速、关键行业先行试用、应用前景广阔等特点。
其中,量子保密通信技术具有抗计算破译的长期安全性,无论攻击者具有怎样的计算分析能力(包括量子计算),用量子密钥加密的信息都是安全的。作为新型信息安全产品和服务,量子保密通信技术和产业成熟度最高,与ICT及信息安全行业天然具有可结合的优势,相关安全验证问题也已经在相关部门指导、测评机构参与、产学研联手的长期攻关下到了收官阶段。日本东芝曾预测,随着量子计算机的发展,全球量子保密通信(QKD)市场有望将从2020年的约2,100亿日元(约合122.79亿元)发展到2035年度的约2.1万亿日元(约合1227.87亿元);欧盟《战略研究议程(SRA)报告》中认为“未来十年,量子密码学数十亿欧元的业务有望得到发展”。咨询机构ICV估计,以往由政府资金支持的项目受到影响,2022年全球QKD市场规模较2021年有所下降,约为8亿美元,随着全球经济的逐步恢复,QKD的应用场景逐渐清晰与增多等,未来几年将是QKD行业快速增长的好阶段,预计2025年市场规模将达到35.04亿美元。
在量子计算方面,从概念构想到实验室成果,再到商业价值初探,探索量子计算物理实现方式和增加量子比特数量是当前全球研究机构及科技企业追逐的关键目标。NQCC(英国国家量子计算中心)认为,2027年NISQ(中等规模含噪声)量子计算机的应用领域的市场需求和影响规模将会达到200亿英镑到350亿英镑,约合人民币1,800亿到3,150亿;并且NQCC预测量子计算对社会和经济的长期影响可能是巨大的,到2050年,全球市场的影响将超过3,500亿英镑。
发展趁势
2022年,诺贝尔物理学奖颁给了三位开创量子信息科学的科学家,量子信息技术备受瞩目。报告期内,世界各主要国家规划布局和投资支持力度进一步加大,代表性研究成果和应用探索亮点纷呈、前景可期,量子信息技术企业与产业联盟不断发展壮大。新技术、新产业、新业态、新模式蓬勃发展,具体如下:
(1)量子安全和经典ICT领域融合更加紧密
获得2022年度诺贝尔物理学奖的安东·塞林格曾表示,“量子网络已经不是面向未来的技术了。人类用网络来交换信息,而量子通信网络可以保证通信的安全性,这样的量子通信网络已经建成了,目前中国是领跑者”。当前通过量子保密通信技术来抵御包括量子计算在内的算力攻击的方案获得了更广泛的认可,开始进入更成熟的发展阶段。
根据我国“十四五”规划,要“加强原创性引领性科技攻关”,包括“量子信息城域、城际、自由空间量子通信技术研发”。未来一段时间,进一步增强QKD等量子保密通信技术对各类应用场景的适应能力,例如无地面光纤、超远距离、桌面应用等;需要发展自由空间量子保密通信、新型量子保密通信协议、高度集成化等相关关键技术,进一步提高量子密钥分发的无中继通信距离,减小体积、降低能耗,提高量子保密通信网络架构的灵活性,不断降低硬件终端成本和提高部署便利性,使得量子网络和经典ICT网络实现无缝对接等。
在国际上,欧盟在2023-2026年间发展量子通信的具体目标包括:提高QKD解决方案的性能、成码率和成码距离;部署用于空间QKD的原型载荷;实现基于欧洲供应链的QKD制造;部署多个城域QKD网络和部署具有可信节点的大规模QKD网络;多家电信公司以可持续商业模式销售QKD服务;展示量子信道在其他密码应用中的用途;QKD与传统通信解决方案共存等。总体远景是开发一个全欧洲范围的量子网络,以补充和扩展当前的数字基础设施,为量子互联网奠定基础。
(2)“量子优越性”和“量子纠错”仍是量子计算发展重点
2022年,国际上正在对各种有望实现可扩展量子计算的物理体系开展系统性研究,每个体系均有不同程度上的突破,对量子计算相关的科研和产业化探索在加大,量子计算软硬件技术均有所发展。
量子计算的第一个发展阶段是实现“量子优越性”。目前,全球仅中美加3国4台量子计算原型机实现了量子计算优越性。2022年,加拿大Xanadu公司宣布其使用可编程光量子计算原型机Borealis完成高斯玻色采样实验,成为继中国“九章”后全球第二个实现在光量子体系下完成量子计算优越性实验的量子计算原型机。2022年11月,IBM在量子计算峰会上发布12项公告,更新了规划路线,提出将继续扩展量子系统并且目标是实现“量子计算优越性”。
量子纠错是构建通用量子计算机的基础。我国“十四五”期间发展量子计算的重点是“要加快通用量子计算原型机和实用化量子模拟机研制”。在中国超导量子原型机“祖冲之2”号实现了“量子优越性”基础上,中国科学技术大学超导量子计算团队在“祖冲之2.1”超导量子处理器上实验,实现了“一种由17个量子比特组成的距离为3的纠错表面码”,首次在全球范围内实现表面码的重复纠错。
目前,随着量子计算各路线研发工作的逐步推进,整机所需的上游硬件设备与器件选型逐渐清晰,同时,量子计算机的软件系统也在不断跟进,量子软件开源、云平台成为当前产业发展的特征,投身软件和算法研发的企业也络绎不绝。
资本和投资整体来说更加活跃。去年除了Rigetti、D-Wave等公司上市外,国内外多家量子计算公司完成融资。芬兰量子计算公司IQM、美国量子计算公司ColdQuanta、加拿大量子计算公司Xanadu分别完成完成1.63亿美元、1.1亿美元、1亿美元的融资;国内的一些初创企业等也完成相关融资。未来,各家量子计算企业需要在发展技术的同时,继续在政府、教育、科研等领域寻找创新和发展应用场景的机会,搭建合作生态,推动未来更大的市场增长。
根据欧盟的量子计算计划,在短期内实现“量子计算优越性“这一重要里程碑,并在量子芯片的性能、控制能力等技术上持续探索,开发有价值的软件算法;中长期则通过实现量子纠错、提高操控性和可编程性,在量子计算和产业之间搭建起桥梁,开发更实用的应用程序。
ICV统计了2018年至2022年全球主要量子计算企业的融资情况,涉及14个国家,67家量子计算企业,136笔融资。具体如下:
图表 6-1 : 融资金额&增长率(2018-2022)(单位:百万美元)
2022年,量子计算产业共融资20.45亿美元,与2021年总融资额相比增长有所放缓,但从整体来看,量子计算行业投融资长期仍保持增长态势。对于投融资市场增速放缓,更为细节的表现如下。
图表 6-2 : 国家及各融资轮次、数量、金额(2028-2022)(单位:轮次、笔数、百万美元)
未来量子计算的发展将集中在三个方面:
继续提升量子计算性能。为了实现容错量子计算,首要考虑的就是如何高精度地扩展量子计算系统规模。在实现量子比特扩展的时候,比特的数量和质量都极其重要,需要每个环节(量子态的制备、操控和测量)都要保持高精度、低噪声,并且随着量子比特数目的增加,噪声和串扰等因素带来的错误也随之增加,这对量子体系的设计、加工和调控带来了巨大的挑战,仍需大量科学和工程的协同努力。
实现专用量子模拟机并继续探索量子计算应用。即相干操纵数百个量子比特,应用于组合优化、量子化学、机器学习等特定问题,指导材料设计、药物开发等。从当前到2030年,全球的主要研究任务应当集中于此。
实现可编程通用量子计算机,即相干操纵至少数百万个量子比特,能在经典密码破解、大数据搜索、人工智能等方面发挥巨大作用。由于量子比特容易受到环境噪声的影响而出错,对于规模化的量子比特系统,通过量子纠错来保证整个系统的正确运行是必然要求,也是一段时间内面临的主要挑战。由于技术上的难度,何时实现通用量子计算机尚不明确,国际学术界一般认为还需要15年甚至更长时间。
审核编辑 :李倩
全部0条评论
快来发表一下你的评论吧 !