人工智能芯片革命:HBM崛起

描述

  曾几何时,我们需要花费一个多小时才能下载一部电影。如今,最新的处理器能够在一秒钟内处理相当于160多部全高清电影的数据量。高带宽内存(HBM)是实现这一高效数据传输的核心技术。虽然HBM在2013年首次亮相时曾面临商用风险评估,但是经过几年的发展和验证,现已成为人工智能芯片的基本要素。各大芯片制造商,例如英伟达和AMD,均致力于推动此项尖端技术,以满足他们日益增长的处理能力及带宽需求。

  大量数据生成式人工智能应用对传统存储芯片的性能产生了巨大挑战。为了应对这个问题,我们需要更快的数据传输速度和更高的处理效率,从而导致更密集的芯片布局以及更大的能耗输出。一直以来,传统安装形式均是将芯片平放在同一平面上,然后利用电缆及保险丝进行链接。这一方式会随着芯片数量的增多而降低通信和功耗效率。而HBM改变了这一状况,它将多个芯片沿垂直方向堆叠,同时利用尖端材料,包括比纸片还要纤小的微型电路板,将模块汇聚成为立体形态。这一改进对于人工智能芯片制造商来说极为重要,因为当芯片间距减小,能耗亦随之下降,HBM的能耗较之传统方式低了约四分之三。此外,HBM还拥有高达五倍的带宽优势,且占用空间小于现有产品的一半。

  尽管如此,HBM的成本仍然较高,为常见内存芯片的五倍以上。然而,由于HBM满足了现代高性能人工智能芯片的特殊需求,因此此类集成了HBM的人工智能芯片也具有较高价值。与十年前相比,现在各大科技巨头的芯片投资预算明显增加。据TrendForce公司数据显示,全球HBM市场中50%的份额由韩国SK海力士占有,余下市场则被三星和美光瓜分。这两家公司分别生产了上一代以及即将面世的新款HBM芯片。

  总的来说,在当前市场环境下,只有SK海力士公司能够大规模生产第三代HBM产品。据称,该公司满足了全球超过60%的客户需求,而其他竞争者则主要面向市场生产上一代产品。尽管HBM目前尚存在成本较高等问题,但毫无疑问的是,随着人工智能领域的不断拓展以及数据中心规模的扩大,对于HBM的需求将会持续攀升。预测至2023年6月份,全球HBM需求将同比增加60%。

  2024年,人工智能芯片大战将进一步推动这一增长。AMD刚刚推出了一款新产品,希望与英伟达抗衡。全球市场供不应求,再加上人们对价格更低廉的英伟达产品需求旺盛,这意味着能够提供规格相当芯片的企业将有机会获得丰厚的利润。但是,撼动英伟达的关键不仅在于物理芯片本身,还在于其软件生态系统,其中包括流行的开发工具和编程模型。要想复制这一点,需要数年时间。

  这就是为什么硬件,以及每块新芯片中的HBM数量,对英伟达的竞争者来说变得更加重要。通过使用升级的HBM来提高内存容量,是短期内获得竞争力的少数方法之一。例如,AMD最新的MI300加速器使用了8个HBM,比英伟达产品的5或6个要多。

  芯片历来是一个周期性行业,容易出现剧烈的繁荣和萧条。从目前的趋势来看,新产品需求的持续增长应该会使未来的衰退期不像过去那么动荡。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分