电子说
作者 | 太浪 责编 | 张文
出品 | CSDN(ID:CSDNnews)
日前,量子计算入选达摩院 2021 十大科技趋势,较早时间发布的 MIT2020 年“十大突破性技术”榜单中也有它的身影。
当世界主要国家纷纷抢先布局量子计算并有初成时,它在中国也终于有了匹配其重要性的关注度。
2020 年 10 月,最高决策层集体学习量子计算,引发广泛关注。
习近平总书记强调,要充分认识推动量子科技发展的重要性和紧迫性,加强量子科技发展战略谋划和系统布局,把握大趋势,下好先手棋。
中国在芯片领域长期被“卡脖子”,量子计算带来了弯道超车的曙光。
2020 年 12 月,中国科学技术大学潘建伟、陆朝阳等组成的研究团队与中科院上海微系统所、国家并行计算机工程技术研究中心合作,成功研制出 76 个光子 100 个模式的量子计算原型机“九章”,这也是中国首次实现“量子计算优越性”。
同月,阿里巴巴达摩院量子实验室团队发布阿里云量子开发平台 ACQDP,并开源其量子电路模拟器“太章 2.0”。他们将谷歌提出“量子霸权”时设计的经典计算任务从超一万年压缩至 20 天内完成,若硬件资源进一步优化,最短可压缩到 2 天以内。
作为“未来 100 年内最重要的计算机技术”、“第四次工业革命的引擎”,量子计算目前还没有绝对的赢家,中国躬身入局正逢其时。
为什么大家都在搞量子计算?
人类历史上发生了三次工业革命,第一次是蒸汽时代,第二次是电气时代,第三次是信息时代。以计算机为主的第三次工业革命,目前正在进一步进化为以互联网、大数据和人工智能为开端的第四次工业革命。
在第三次和第四次工业革命中,计算机起着重要的主导作用。芯片,作为计算机的“大脑”,自诞生第一天起,人类就再也离不开它了。
但随着社会经济对信息处理需求的不断提高,以半导体大规模集成电路为基础的经典计算性能提升或将面临瓶颈。
上世纪八十年代,英特尔联合创始人戈登·摩尔提出的“摩尔定律”定义了芯片行业的发展规律:集成电路上可集成的硅晶体管数量每 18 个月会增加一倍,计算能力翻一番。
但随着摩尔定律的发展,尺寸等导致的量子效应越来越明显,芯片发热问题和功耗问题越来越严重。
一是巨大的能耗,芯片有被烧坏的危险;二是为了提高集成度,晶体管越做越小,当小到只有一个电子时,“量子效应”就会出现——即当晶体管越做越小时,就会出现“量子隧穿”(电子直接通过晶体管),导致晶体管出现“漏电”问题。芯片一旦漏电,自然无法正常使用。
业界认为,当芯片制程达到 10nm(一说 7nm),摩尔定律就会失效。
科学家们想方设法改善晶体管结构、研发新的半导体材料,尽可能地为摩尔定律“续命”,目前,有些芯片大厂们正向着 2nm 芯片制程进发。但这一切都只不过是在延缓“那一天”的到来。
另一方面,为摩尔定律续命的代价可不低。
曾有业内人士指出,“摩尔定律的终结不是技术问题,而是经济问题。
”组成晶体管的元件体积每缩小一半,芯片制造厂商就需要购入全新的机器,而建立一条全新的生产线往往需要几十亿美元,这个成本仅有少数几家厂商可以承受。“一旦下一代的晶体管成本超过现有的成本,产品更新就会停止。”
是否有办法一劳永逸、从根本上解决摩尔定律失效的问题?
有些科学家尝试回归量子力学的本质,寻找解决方案。因为,半导体是量子力学的产物,芯片是在科学家们认识电子的量子特性后研发而成的。
在微观状态下,量子是一个不可再分割的基本单位。人们所熟知的电子、光子等微观粒子,都是量子的一种表现形态。研究量子的科学,叫量子力学。
1982 年,美国著名物理物学家理查德·费曼在一个公开的演讲中提出利用量子体系实现通用计算的新奇想法。紧接着,1985 年,英国物理学家大卫·杜斯提出“量子图灵机”概念模型。从此,量子计算机的研究便在学术界逐渐引起关注。
直接应用量子力学现象对数据进行操作的计算系统就是量子计算。当某个装置处理和计算的是量子信息,运行的是量子算法时,它就属于量子计算机。
理论上,自然界中一切有量子效应的载体都可以用作量子比特。但是经过科学家的长期摸索,发现超导、离子阱、光子、超冷原子、半导体量子点等存在量子效应,能够用于开发量子计算机。
经典计算机的运行原理是利用二进制进行逻辑运算,每个比特要么是 0 要么是 1,并不存在其他可能性。
量子计算机依赖出现在自然界的量子力学现象——基本上是物质的两种重要状态:叠加、纠缠。
所谓“量子叠加”是指:量子计算机的基本计算单元——量子比特,既可能是 0 也可能是 1,状态并不确定,只能用概率表示。
所谓“量子纠缠”是指,在纠缠状态中,成对或成组的量子粒子连接起来,那样,每个粒子就无法独立于其他粒子加以描述,即便粒子之间隔着很远的距离(例如宇宙的两端)。
正是因为“量子叠加”和“量子纠缠”,使得量子计算机可以同时处理大量计算任务,而且速度比传统计算机快得多。
每增加一个量子比特,运算性能就会翻一倍。如果量子计算机有 N 个量子比特,就可以一次对 2 的 N 次方个数进行数学运算,相当于传统计算机算 2 的 N 次方次,计算能力成指数级增长。量子计算机有望在生物医学、通信和计算等多领域“大展拳脚”。
随着人类进入数字时代,计算能力就成了最重要的能力。
故,谁率先掌握了“量子计算机”,谁也先在排位赛上占据一席之地。
然而,基于不同物理载体实现的量子计算机各有优劣。
要在量子计算机中实现高效率的并行运算,就要用到量子相干性——量子比特的持续时间。
因为在量子计算机中,量子比特不是一个孤立的系统,它会与外部环境发生相互作用,导致量子相干性的衰减,即量子比特的持续时间变短。
在不同物理系统中,光子相干时间较长,但难以观测和控制;超导环易于控制,但相干时间极短;离子阱虽然相干时间较长且易于控制,但由于需要频繁的激光操作,因此效率不高。
当前没人知道哪个物理载体会成为“量子晶体管”。因此,整个行业处于多路径探索期。
毫无疑问,量子计算的强大颠覆性将改变整个产业格局。一些有深厚技术积累、财力雄厚的公司先行“起跑”。
谷歌和 IBM 致力于研发超导体系的量子计算机;Intel 同时涉猎硅半导体和超导体系量子计算机;微软布局全新的拓扑路线量子计算机;霍尼韦尔则相中了离子阱量子计算机。
中科院院士、中科院量子信息重点实验室主任郭光灿说,“量子计算技术是颠覆性技术,关系到未来发展的基础计算能力。谁先把量子计算机搞出来,谁就占据了量子信息时代的制高点。”
业界普遍认为,量子计算机会经历三个发展阶段:
第一阶段,研制 50 个到 100 个量子比特的专用量子计算机,实现“量子优越性”里程碑式突破。
第二阶段,研制可操纵数百个量子比特的量子模拟机,解决一些超级计算机无法胜任、具有重大实用价值的问题,比如量子化学、新材料设计、优化算法等。
第三阶段,大幅提高量子比特的操纵精度、集成数量和容错能力,研制可编程的通用量子计算机。
谷歌于 2019 年 10 月率先宣称实现“量子霸权”,其自研的 53 个量子比特的超导量子芯片 Sycamore(悬铃木)耗时近 20 秒就实现了一个量子电路的采样实例,同样的实例在当今最快的经典超级计算机上可能需要运行大约 1 万年。
IBM 最早对谷歌的说法提出了质疑,称谷歌的量子计算机最多能使速度提高一千倍。
阿里巴巴紧随其后。
2020 年 5 月,达摩院量子实验室用量子电路模拟器“太章 2.0”模拟了 2019 年“谷歌量子霸权”宣称用的量子电路,将其设计的经典计算耗时超一万年的任务,压缩至 20 天内完成,比其它最好的方案改进了四个数量级。
业界人士估计,若通过硬件资源的进一步优化,特别是提升 GPU 使用效率,该算法有望将模拟时间压缩到 2 天以内。这一系列工作引起学术界对量子计算与经典计算边界的重新思考。
芯片研制“烧脑”又“烧钱”。量子计算机同样如此。
谷歌在过去 10 年里仅“悬铃木”就大约投资了 10 亿美元。IBM 为研制量子计算机,也已经投入数亿美元。
据悉,此次“九章”在“高斯玻色取样”这个问题上实现“量子计算优越性”的实验,直接投入设备和材料费大约为 3000 万人民币,还未计入一些合作单位专用设备和超算验算的费用。为了核验“九章”算得“准不准”,他们用超算“神威·太湖之光”进行了 30 到 40 个光子的全部验算,电费就高达 40 万美元。
“九章”光量子干涉实物图
显然,除了财力雄厚的巨头们,量子计算机这种基础研究还是得靠国家出台政策扶持。
美国是最早将量子信息技术列为国防与安全研发计划的国家。
早在 2002 年,美国防部高级研究计划局(DARPA)就制定了《量子信息科学与技术规划》。2018 年 6 月,美国通过《国家量子倡议法案》,计划在 10 年内拨给能源部、国家标准与技术研究所和国家科学基金 12.75 亿美元,全力推动量子科学发展。
日本文部科学省 2013 年成立量子信息和通信研究促进会以及量子科学技术研究开发机构,计划未来十年内投资 400 亿日元,支持量子通信和量子信息领域的研发。
欧盟启动“量子宣言”旗舰计划,计划 10 年内投入 10 亿欧元。英国设立“国家量子技术计划”,投资 2.7 亿英镑,开展相关学术与应用研究。德国发布“联邦量子技术计划”,一期投入 6.5 亿欧元;在新冠肺炎疫情后的经济刺激计划中,特设“量子专项”,再投入 20 亿欧元,目标是在 2021 年之前建造一台实验性量子计算机。
澳大利亚政府成立硅基半导体量子芯片实验室,抢占半导体量子芯片发展的制高点。
俄罗斯也不甘示弱。2019 年 12 月,俄罗斯副总理马克西姆·阿基莫夫提出国家量子行动计划,拟 5 年内投资约 7.9 亿美元,打造一台实用的量子计算机,并希望在实用量子技术领域赶上其他国家。
中国错失了前两次工业革命,虽搭上了第三次工业革命的车,但在芯片等技术方面仍被“卡脖子”。量子计算技术不能再受制于人。
此前,中国科技部和中科院通过自然科学基金、“863”计划、“973”计划、国家重点研发计划和战略先导专项等多项科技项目,对量子信息基础科研应用探索进行支持。近期发布的中央十四五规划建议中也提到,瞄准人工智能、量子信息等前沿领域,实施一批具有前瞻性、战略性的国家重大科技项目,以此强化国家战略科技力量。
战火在燃,各支“国家队”都在摩拳擦掌。
目前,美国进度最快,中国紧随其后。
谷歌早在 2006 年就创立了量子计算项目。2020 年 8 月,谷歌在量子计算机上模拟了迄今最大规模的化学反应,通过使用量子设备对分子电子能量进行 Hartree-Fock 计算,并通过变分量子本征求解来进行纠错处理完善其性能,进而实现对化学过程进行准确的计算预测。这说明,谷歌已经进入研制量子计算机的第二阶段。
2015 年,IBM 就在《自然通讯》上发表了使用超导材料制成的量子芯片原型电路。2020 年 8 月,实现了 64 位量子体积的量子计算机,量子体积是 IBM 提出的用于测量量子计算机的强大程度的一个性能指标。9 月,IBM 发布了一份野心勃勃的路线图——在 2023 年年底,IBM 可以构建出 1000 量子比特的量子硬件。
Intel 一直在研究多种量子位类型,包括超导量子位、硅自旋量子位等。2018年,成功设计、制造和交付 49 量子比特的超导量子计算测试芯片 Tangle Lake,算力等于 5000 颗 8 代 i7,并且允许研究人员评估改善误差修正技术和模拟计算问题。Intel 也宣称在 300mm 硅晶片上打造了 1 量子比特的自旋芯片。
微软推出了量子计算云平台 Azure Quantum,其中包括量子解决方案,量子软件和量子硬件,微软并拥有量子编程语言 Q#、开源的量子开发工具包等。
AWS 在 2019 年上线量子计算云平台 Braket,推出量子计算云服务,这项服务目前更像是一个“平台/集市”,其向开发者、企业提供的是第三方量子计算公司的产品。同年,AWS 成立了量子计算中心和亚马逊量子解决方案实验室。
“中国队”除了中科院、中科大等科研院校,还包括 BAT 和华为等科技公司。
2015 年,中科院与阿里建立联合实验室,共同在量子信息科学领域开展前瞻性研究,这是国内较早在量子计算上的布局。
2017 年 5 月,中国科学技术大学、中国科学院-阿里巴巴量子计算实验室、浙江大学、中国科学院物理所等协同研发出“光量子计算机”,这是世界上第一台超越早期经典计算机的“光量子计算机”,在当时引起轰动。
2019 年,浙江大学与中科院物理所、中科院自动化所、北京计算科学研究中心等国内单位合作开发出具有 20 个超导量子比特的量子芯片。
华为、百度、腾讯虽已组建量子计算团队,但未有研发量子硬件的消息传出。
华为在 2018 年推出量子计算模拟器 HiQ 云服务平台,包括量子计算模拟器与基于模拟器开发的量子编程框架。
百度发布了云上量子脉冲系统“量脉”、量子计算开发工具“量桨”、量子计算平台“量易伏”等产品。
腾讯正在量子 AI、药物研发和科学计算平台(SimHub)等应用领域开展相关研究。
业界观察到,只有阿里巴巴正在研发量子芯片。
阿里于 2017 年挖来密西根大学教授施尧耘,坐镇阿里达摩院量子实验室。2018 年发布量子电路模拟器“太章”。
需要厘清的是,“量子模拟器”不属于量子硬件。
“量子模拟器”是在经典计算机上运行的软件程序,用经典的计算资源(超算)或分布式计算架构去模拟量子电路,可以用来编写和测试程序。简单而言,“量子模拟器”在模拟量子电路以后,就可以运行量子程序、量子算法,在造出实用的量子硬件之前,是很好的“承上启下”的工具。
2018 年 2 月,阿里巴巴一款 11 个量子比特的实验性芯片被曝光。2019 年,达摩院成立量子硬件实验室(超导量子计算硬件实验室),以超导硬件实现为核心,走“先高精度,后多比特”的路线,基于不同于主流的量子比特设计fluxonium,来实现超高精度的量子比特。不远的将来,他们将向业界分享在fluxonium比特和高质量量子芯片上的基础研究工作。
整体来看,做出量子计算机需要满足三个基本条件:量子芯片、量子编码、量子算法,它们分别是实现量子计算的物理系统,确保计算可靠性的处理系统,提高运算速度的关键。
郭光灿院士认为,中国目前在量子计算方面落后美国差不多五年,但是并未产生明显的代际差距,只要奋起直追,就还有希望。
可以预见的是,最高决策层集体学习量子计算释放的信号,将促动更多的公司、研究机构加入量子计算的研究行列中,为中国的量子计算事业添砖加瓦。
参考资料:
《讲给孩子的量子力学》
《量子计算机:穿越未来世界》
《“杞人忧天”的物理学家们与量子计算机的诞生》
《量子信息技术研究现状与未来》
《量子信息技术发展与应用研究报告》
全部0条评论
快来发表一下你的评论吧 !