电子说
1900年,普朗克在论文里首次提出了能量的不连续性,一脚踢开了量子力学的大门。在量子世界里,所有物质都可以被还原成61种基本粒子。其中最重的基本粒子,质量也不超过3.1×10^-25千克。
20世纪40年代,图灵精确定义了算法的含义,并描述了我们现在所称的图灵机(Turing machine):可以执行任何算法的单一通用可编程计算设备。此后,计算机逐渐发展成为了一个产业,并深刻改变了我们的生活。
1981 年,著名物理学家费曼观察到基于图灵模型的普通计算机在模拟量子力学系统时遇到的诸多困难,进而提出了经典计算机模拟量子系统的设想。当量子物理与计算机器狭路相逢,1985年,通用量子计算机概念终于诞生。
自此,量子力学进入了快速转化为真正的社会技术的进程,人类在量子计算应用发展的道路上行进的速度也越来越快。如今,量子计算离我们已不再遥远。
从经典计算到量子计算
通常来说,量子计算是一种遵循量子力学规律调控量子信息单元进行计算的新型计算模式,它与现有计算模式完全不同。在理解量子计算的概念时,通常将它与经典计算相比较。
在经典计算机中,信息的基本单位是位(Bit)。所有这些计算机所做的事情都可以被分解成 0s 和 1s 的模式,以及 0s 和 1s 的简单操作。
与传统计算机由比特构成的方式类似,量子计算机由量子比特(quantum bits)或量子位(qubits)构成,一个量子比特对应一个状态(state)。但是,比特的状态是一个数字(0 或 1),而量子比特的状态是一个向量。更具体地说,量子位的状态是二维向量空间中的向量。这个向量空间称为状态空间。
经典计算使用二进制的数字电子方式进行运算,而二进制总是处于0或1的确定状态。于是,量子计算借助量子力学的叠加特性,能够实现计算状态的叠加。即不仅包含0和1,还包含0和1同时存在的叠加态(superposition)。
普通计算机中的2位寄存器一次只能存储一个二进制数(00、01、10、11中的一个),而量子计算机中的2位量子比特寄存器可以同时保持所有4个状态的叠加。当量子比特的数量为n个时,量子处理器对n个量子位执行一个操作就相当于对经典位执行2n个操作。
此外,加上量子纠缠的特性,量子计算机相较于当前使用最强算法的经典计算机,理论上将在一些具体问题上有更快的处理速度和更强的处理能力。
近年来,量子计算技术与产业呈现加速发展态势,而有关量子计算技术的突破多与三个因素有关,即量子比特能够维持量子态的时间长度、量子系统中连接在一起的量子比特的数量和对量子系统出错的把握。
量子比特能够维持量子态的时间长度,被称为量子比特相干时间。其维持“叠加态”(量子比特同时代表1和0)时间越长,它能够处理的程序步骤就越多,因而可以进行的计算就越复杂。其中,IBM率先将量子技术引入实用计算系统,将量子比特相干时间提高到了100微秒。而当量子比特相干时间达到毫秒级时,将足以支持一台能够解决当今“经典”机器解决不了的问题的计算机。
从量子系统中连接在一起的量子比特的数量突破来看,2019年10月,谷歌公司在《Nature》期刊上宣布了使用54个量子位处理器Sycamore,实现了量子优越性。具体来说,Sycamore能够在200秒内完成规定操作,而相同的运算量在当今世界最大的超级计算机Summit上则需要1万年才能完成。这项工作是人类历史上首次在实验环境中验证了量子优越性,也被《Nature》认为在量子计算的历史上具有里程碑意义。
除了解决量子比特的数量问题,由于当量子比特失去相干性时,信息就会丢失,因此量子计算技术还需要面临如何去控制,以及如何去读取量子比特。然后在读取和控制达到比较高的保真度之后,去对量子系统做量子纠错的操作。
基于此,研究人员借鉴经典计算机里面纠错的概念,来确保最后总的等效的量子操作,可以达到比较高的保真度,开发了所谓的量子纠错。当然,现阶段的量子纠错还需要突破规模的门槛,但显然不再是遥遥无期。
量子计算有多少种可能?
量子力学是物理学中研究亚原子粒子行为的一个分支,而运用神秘的量子力学的量子计算机,超越了经典牛顿物理学极限的特性,对于实现计算能力的指数级增长则成为科技界长期以来的梦想。
量子计算为未来的科技发展提供了诱人的可能性,尝试利用这一新硬件的力量的研究人员,则主要从三个类型的问题入手。
第一类型的问题涉及到分析自然世界:以今天的计算机无法比拟的精度,用量子计算机模拟分子的行为。其中,计算化学则是最大的一个应用领域。事实上,在过去两年里,量子计算机在用越来越多的经验证据取代猜测方面,贡献的价值已经越来越大。
比如,模拟一种相对基础的分子(如咖啡因)将需要一台10的48次方比特的传统计算机,这相当于地球上原子数量的10%。而模拟青霉素则需要10的86次方比特——这个数字比可观测宇宙中的原子数量总和都要大。
传统计算机永远无法处理这种任务,但在量子领域,这样的计算则成为可能。理论上,一台有160量子比特的量子计算机可以就模拟咖啡因,而模拟青霉素需要286个量子比特。这为设计新材料或者找到更好方法来处理现有工艺提供了更便捷的手段。
就在8 月 27 日,Google 量子研究团队宣布其在量子计算机上模拟了迄今最大规模的化学反应。相关成果登上了《科学》杂志的封面,题为《超导量子比特量子计算机的Hartree-Fock 近似模拟》(Hartree-Fock on a Superconducting Qubit Quantum Computer)。
为了完成这项最新成果,研究人员使用 Sycamore 处理器,模拟了一个由两个氮原子和两个氢原子组成的二氮烯分子的异构化反应。最终,量子模拟与研究人员在经典计算机上进行的模拟一致,验证了他们的工作。
值得一提的是,这项新研究所用的 Sycamore正是被《Nature》认为在量子计算的历史上具有里程碑的54个量子位处理器。尽管这种化学反应可能相对简单,也不是非量子计算机而不可为,但这展示了利用量子模拟开发新的化学物质的巨大潜力。
此外,量子计算也有望为人工智能带来更多好处。目前,针对人工智能产生的量子算法潜在应用包括量子神经网络、自然语言处理、交通优化和图像处理等。其中,量子神经网络作为量子科学、信息科学和认知科学多个学科交叉形成的研究领域,可以利用量子计算的强大算力,提升神经计算的信息处理能力。
在自然语言处理上,2020年4月,剑桥量子计算公司宣布在量子计算机上执行的自然语言处理测试获得成功。这是全球范围内量子自然语言处理应用获得的首次成功验证。研究人员利用自然语言的“本征量子”结构将带有语法的语句转译为量子线路,在量子计算机上实现程序处理的过程,并得到语句中问题的解答。而利用量子计算,将有望实现自然语言处理在“语义感知”方面的进一步突破。
最后,则是量子计算对于复杂问题的优化可能性,而这些复杂问题往往对于今天的计算机来说变量太多。比如,量子计算在复杂问题上的一个用途是建立更好的金融市场模型。通过发明新数字来加强加密,并提高混乱和复杂领域的运营效率,例如交易清算和对账。包括衍生品定价、投资组合优化以及在高度复杂和不断变化的情况下管理风险,则都是量子系统可以处理的事情。
跳出局限的力量
当前,在全球范围内,多国政府不断出台支持量子信息技术的发展战略,下拨大量资金用于以量子计算为主的量子信息技术研究。针对量子计算机技术实现的路径呈现出多样化,包括光学、离子阱、中性原子、核磁共振、超导、固态量子点、拓扑等。
科技巨头方面,美国Google、IBM、Intel、Microsoft、Honeywell相继在量子计算领域投入布局,强化资金配置、工程实现和软件控制等能力,积极进行量子处理器原型产品及软件算法的技术研发。
在量子处理器物理实现方案方面,Google和IBM均基于超导路线,Intel同时布局硅量子点和超导两种路线,Microsoft则看好全新的拓扑路线,Honeywell侧重离子阱路线。
我国科技公司阿里巴巴、腾讯、百度、华为相比于美国巨头进入量子计算领域的时间相对较晚,但近年来也已通过与科研院所合作或聘请知名科学家等方式成立相关实验室,在量子计算云平台、算法、软件和应用等方面研究布局。
尽管对于当前来说,量子计算并不像传统计算那样具有通用性,但其作为通往一个陌生新世界的门户来到我们面前,是一个让我们能够以修正的定义来看待我们当前世界的入口。
从长远来看,在世界范围内的布局和发展下,量子计算将极有可能彻底消除时间障碍,成本障碍也将随之降低。未来或将出现全新类型的机器学习范式,但在真正像传统计算机那样具有通用功能的通用量子计算机成型之前,量子计算也依然需要一段漫长的探索过程。
责编AJX
全部0条评论
快来发表一下你的评论吧 !