芯片技术达到极限 如何看摩尔定律的未来

描述

我们大多数人都熟悉摩尔定律。最初观察到计算机容量呈指数增长的戈登·摩尔(Gordon Moore)谈论的是集成电路中晶体管的密度,但其他人(其中包括著名的未来学家雷·库兹韦尔)后来重新制定了“定律”来指代处理能力较之成本的增长——计算机芯片每花费 100 美元,每秒可以执行多少次计算。这使得该定律对技术变化具有鲁棒性,将其向后延伸到集成发明之前,并可能向前延伸到未来新技术可能取代当前的硅基芯片时。

但我们可能很快就需要替代技术,因为我们已经接近硅芯片所能达到的目标。自世纪之交以来,单处理器内核的性能增长已大大放缓。在 1986 年到 2001 年的 15 年间,处理器性能平均每年增长 52%,但到 2018 年,这一速度已经放缓至每年仅 3.5%——几乎处于停滞状态。

这种放缓有几个原因。最重要的是,我们正在接近制造小型晶体管的物理极限,以及它们在集成电路中的封装密度。这意味着 Dennard 缩放比例的终结——另一条计算机“定律”指出,随着晶体管变得更小,它们的能量需求也会缩小,即使晶体管的封装更密集,单位面积的能量需求也大致保持不变。如果我们现在想在芯片上添加更多的晶体管,它需要更多的空间和更多的能量。

相反,我们可以提高计算机的时钟速度,即晶体管执行计算的速度。然而,当时钟速度增加时,能量需求和热量输出开始迅速上升,超过一定速度,实际上限制了这种增加处理能力的方法。这就是为什么 CPU 时钟速度在过去 15 年中几乎停止增长的原因,尤其是对于不容易配备大风扇的便携式计算机。今天的大多数笔记本电脑甚至没有风扇,因为它们的硬盘已被 SSD 卡取代,这大大降低了它们的整体能源需求和热量输出——但提高时钟速度或在 CPU 中装入更多内核将增加它们的热量输出。将笔记本电脑放在膝上或将智能手机握在手中会非常不舒服。

过去 15 年中计算机容量仍然令人印象深刻的进步主要是由于在处理器中装入了更多内核。十五年前,典型的个人电脑只有一个内核;现在我们有双核、四核甚至八核 CPU。但是,添加更多内核与提高时钟速度不同。基本上,每个内核都作为一个单独的处理器运行,这仅在计算机的任务可以在多个并行运行的内核之间拆分时才有用。虽然单个程序可能有多个任务(或线程,在技术术语中)并行运行,但线程通常必须等待来自其他线程的结果,从而降低效率。这种效率的降低自然会随着并行运行的线程数量而增加,这意味着核心数量增加一倍,有了它,能量输入和热量输出不会使我们的计算机的有效容量翻倍,除了图形等非常专业的任务。图形处理单元 (GPU) 确实可以并行运行许多任务,同时更新屏幕的不同部分——但一旦达到所需的最佳分辨率(高清?4K?8K?),您将不再有任何进展从并行运行更多任务中获益。

超级计算机取得了比个人计算机更快的增长速度。目前,超级计算机的顶级计算能力正以每年约40%的速度增长,相当于20年一千倍。然而,不到十年前,这一增长率为每年 80%,仅用了 11 年就实现了千倍的处理能力。这是因为超级计算机是由许多普通的计算机芯片组合而成的。今天的顶级超级计算机基本上都是数百万核心的 PC。一旦计算机芯片停止改进,您需要将更多的芯片打包在一起,这将变得越来越难以管理,更不用说需要更多的能量来运行和冷却超级计算机。

 

 

 

摩尔定律的未来

 

 

 

从上面我们可以看出,我们已经达到了现有芯片技术所能达到的极限。按照最初的定义,每两年将芯片上的晶体管密度翻一番,摩尔定律已经失效了十年或更长时间。但是,在未来几十年中,可能还有其他方法可以实现计算机性能的增长。

一方面,我们可以将晶体管封装得更深,这将减小芯片尺寸。这已经在内存存储芯片中实现,其中晶体管堆叠 128 层或更深。这种紧凑的芯片非常适合智能手机等小型设备或越来越多的可穿戴设备,更不用说为物联网提供动力的无数小型联网设备了。然而,动态随机存取存储器 (DRAM) 更难以深入分层,因为几乎每个部件都一直处于供电状态,从而导致能源和发热问题——但正在研究这些问题的解决方案。

也有可能使用人工智能来设计使用当前芯片技术的更高效的芯片架构。尤其是3D芯片,AI可能比简单的分层扁平架构更好地利用额外的维度,AI可以利用机器学习来找到最需要优化的地方以及如何实现。借助进化算法,人工智能可以设计不同的解决方案,让它们在人工环境中相互竞争,然后让最好的设计变异并再次竞争,一代又一代,直到经过数千代人发现一个卓越的设计,随着进一步的突变,感知能力得到改善。这种设计可能与人类大脑可以设计的任何东西都不一样,但在速度方面明显优于早期设计,

激进的新技术也可以提高处理能力。超导计算机可以用很少的能量运行,相应的热量输出也很小,从而允许非常密集的三维芯片架构。仍处于起步阶段的量子计算机理论上可以比传统计算机更快地处理某些类型的任务(实现量子霸权),在几秒钟内解决一些最快的普通计算机在宇宙生命周期中无法完成的问题。然而,两者都需要冷却到极低的温度,这使得它们对于台式计算机来说是不切实际的,更不用说便携式设备了。其他新技术在理论上是可能的,但可能过于昂贵而无法实用。

我们可以询问个人计算机或智能手机所需的所有计算能力是否必须驻留在设备本身中。云计算已经普及了很长一段时间,它允许设备将处理和存储外包给外部计算机和服务器。为少量的大型集中式计算机和服务器供电和冷却比每个小型家庭或袖珍设备更实用,如果所有重要数据都存储在设备中,用户不必担心设备丢失或损坏。

但是,连接速度是一个问题,尤其是在一直来回发送大量数据的情况下。毕竟,请求在互联网上传播数百公里比在 CPU 内传播几毫米需要更多时间——随着处理速度的提高,这个问题变得越来越重要。对此的部分解决方案是边缘计算,其中设备访问位于用户附近的存储和处理能力。边缘计算设备可以处理所有处理和数据存储,或者它们可以充当网关设备,在将数据发送到云存储之前对其进行处理。许多设备发送大量数据进行实时分析的物联网将不得不依靠边缘计算来减少延迟。5G 无线通信可以通过提供比 4G 更大的带宽和更短的延迟来帮助实现这一点,很可能 5G 将主要用于物联网设备,而不是智能手机和台式电脑等个人设备,4G 可能对大多数用户来说仍然足够,除了极端游戏玩家。借助云计算和边缘计算,您的设备只需要具有足够的处理能力来处理最常见的日常任务,而处理使用的高峰则外包给外部服务器。当然,这需要更多地依赖连接稳定性,而当数据离开建筑物时,安全性总是较弱。您的设备只需要有足够的处理能力来处理最常见的日常任务,处理使用高峰外包给外部服务器。当然,这需要更多地依赖连接稳定性,而当数据离开建筑物时,安全性总是较弱。您的设备只需要有足够的处理能力来处理最常见的日常任务,处理使用高峰外包给外部服务器。当然,这需要更多地依赖连接稳定性,而当数据离开建筑物时,安全性总是较弱。

最终,我们必须问一个典型用户真正需要多少处理能力。除了最需要图形的电脑游戏,今天一台使用了 5 年的旧电脑可以轻松处理大部分需要做的事情,无论是在家里还是在工作中,而且凭借 TB 的容量,存储空间已不再是问题大多数用户。很难想象我们将需要比当今高端设备提供的更高的屏幕分辨率。现实的虚拟现实很可能在十年左右的时间内通过个人设备实现,即使当前处理能力的进步缓慢——任何滞后都可能是连接不良的结果,而不是处理速度慢的结果。创建能够处理大多数人工任务的人工智能(我们觉得让人工智能处理很舒服)可能更多的是设计问题,而不是处理能力。

编辑:黄飞

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分