电子说
诞生于 1965 年的摩尔定律,对二十世纪后半叶的世界经济增长做出了巨大贡献,并驱动了一系列科技创新和经济增长。摩尔定律预测集成电路上晶体管的数量每两年翻一倍,但现在很多专家已经认为摩尔定律最多还能适用 10 年,因为受原子尺寸(大约为 0.1 纳米)限制,晶体管不可能无限地变小。摩尔定律到达瓶颈后,提升算力的方式只能靠增加芯片数量,而这是一种低效的算力增长模式。
随着晶体管大小接近纳米级,电子的运动将不再遵循牛顿运动定律,这就进入到我们常说的另外一种科学——量子科学的范畴。当前,量子计算正在如火如荼发展,谷歌等行业领导者急于率先推出一款可行的量子计算机,它将比今天的计算机强大得多,能够处理更加庞大数据和解决日益复杂的问题。那么量子计算会给当下蓬勃发展的人工智能什么样的改变呢?
每天全人类会产生 2.5 艾字节的数据(2.5×106tb),这相当于 250000 个国会图书馆或 500 万台笔记本电脑的内容。每天 32 亿全球互联网用户持续产生新数据:包括 35 万条推特,420 万 FB 点赞,再加上其他通过拍照、拍视频、保存文档、创建账户等产生的更多数据。据称,到 2020 年全世界的数据总量会达到 44 ZB,也就是人均 5200GB。
越大体量的数据对人工智能来说越有利,越有可能达成有效的结果推导,但如果数据达到一定体量,经典计算就难以带动了。而量子计算的处理能力会随着量子位的增加而指数增加,这个增长速度能够超越人类数据增长速度。像 D-Wave 2X 这样的 1000 位量子计算系统,能同时搜索 2∧1000 个可能的方案,具备超大体量计算的能力,符合人工智能开启全面数据学习的算力要求。一旦成功研制出商业上可行的量子计算机,能在几秒钟内完成今天计算机几千年的计算量。人工智能,特别是依赖大规模数据处理的机器学习技术,将大大受益于量子计算,从而产生无限可能。
此外,量子计算机能够以较小的硬件体积和能耗进行大体量运算。Alpha GO 大战李世石时,谷歌动用了 1920 个 CPU 和 280 个 GPU,虽然效果显著,但设备和能源消耗未免太大,很难有广泛应用的空间。而如果使用量子计算,则可以把硬件体积和能耗大大降低,有利于人工智能技术的通用化。
人工智能要运用到大量的数据接收和处理,但 0 和 1 的经典计算却始终只能进行单一向计算,给人工智能的深度发展带来了巨大不便。而在量子计算的法则下,量子叠加性使并行运算成为现实,系统能通过并行计算不断学习处理之前从未遇到的新数据,给人工智能不断实现自我进化提供了近乎「水和空气」的基础。在解决复杂数据集问题时,量子计算的优势将更加显著。量子计算能够同时访问数据库中的所有项,搜索庞大未分类的数据集,并以极快的速度发现规律或异常。如果利用经典计算机遍历搜索,则会非常耗费时间,一旦数据集过大则很有可能永远都算不完。
经典类型的采样能通过引入量子现象的偶发性(如量子隧道,穿过障碍传递量子信息)达到加强的效果,从而找到高质量的解决方案。MIT 和 Google 的联合研究发现,量子人工智能算法可以加速特征提取过程,以另一种方式促进一场数据采样革命,并优化我们遇到的各种问题——从投资组合分析到计算最佳运输路线,甚至帮助确定每一个病人的最佳治疗方案和药物治疗方案。理论上,理想的量子电路可以比普通计算机更快地对更大概率分布范围进行采样,计算表明即使是相对小电路的高保真量子门也可以对经典架构无法触及的概率分布进行快速采样。
如何校准大规模量子计算机,验证量子计算机的计算结果,是困扰科研人员的难题,因为量子计算模拟的是微观世界中量子的叠加与纠缠,这种模拟可行运算逻辑的正误用一般的运算机根本无从检验。人工智能技术可以实现对量子计算的自校准评估,所以量子计算驱动的人工智能可以回头帮一下量子计算,通过多元推导的方式检视量子计算的过程与结果。所以说,人工智能和量子计算似乎是一对不得不同时进化的双生子。
全部0条评论
快来发表一下你的评论吧 !