HBM出现缺货涨价,又一半导体巨头加入扩产

描述

预计未来两年HBM供应仍将紧张。

据电子时报援引业内人士消息称,由于人工智能服务器需求激增,高带宽内存(HBM)价格已开始上涨。

目前,全球前三大存储芯片制造商正将更多产能转移至生产HBM,但由于调整产能需要时间,很难迅速增加HBM产量,预计未来两年HBM供应仍将紧张。

另据韩媒报道,三星计划投资1万亿韩元(约合7.6亿美元)扩产HBM,目标明年底之前将HBM产能提高一倍,公司已下达主要设备订单。据悉,三星已收到AMD与英伟达的订单,以增加HBM供应。

本次三星将在天安工厂展开扩产,该厂主要负责半导体封装等后道工艺。HBM主要是通过垂直堆叠多个DRAM来提高数据处理速度,因此只有增加后段设备才能扩大出货量。三星计划生产目前正在供应的HBM2和HBM2E等产品,并计划于下半年量产8层堆叠HBM3和12层HBM3E。

值得一提的是,6月已有报道指出,另一存储芯片巨头SK海力士已着手扩建HBM产线,目标将HBM产能翻倍。扩产焦点在于HBM3,SK海力士正在准备投资后段工艺设备,将扩建封装HBM3的利川工厂。预计到今年年末,后段工艺设备规模将增加近一倍。SK海力士的这一投资金额大约也在1万亿韩元(约合7.6亿美元)水平。

业内预计,明年三星与SK海力士都将进一步扩大投资规模。由于谷歌、苹果、微软等科技巨头都在筹划扩大AI服务,HBM需求自然水涨船高,“若想满足未来需求,三星、SK海力士都必须将产能提高10倍以上。”

 HBM或迎量价齐升

HBM主要是通过硅通孔(Through SiliconVia, 简称“TSV”)技术进行芯片堆叠,以增加吞吐量并克服单一封装内带宽的限制,将数个DRAM裸片像楼层一样垂直堆叠。

SK海力士表示,TSV是在DRAM芯片上搭上数千个细微孔并通过垂直贯通的电极连接上下芯片的技术。该技术在缓冲芯片上将数个DRAM芯片堆叠起来,并通过贯通所有芯片层的柱状通道传输信号、指令、电流。相较传统封装方式,该技术能够缩减30%体积,并降低50%能耗。

凭借TSV方式,HBM大幅提高了容量和数据传输速率。与传统内存技术相比,HBM具有更高带宽、更多I/O数量、更低功耗、更小尺寸。随着存储数据量激增,市场对于HBM的需求将有望大幅提升。

HBM的高带宽离不开各种基础技术和先进设计工艺的支持。由于HBM是在3D结构中将一个逻辑die与4-16个DRAM die堆叠在一起,因此开发过程极为复杂。鉴于技术上的复杂性,HBM是公认最能够展示厂商技术实力的旗舰产品。

2013年,SK海力士将TSV技术应用于DRAM,在业界首次成功研发出HBM。随后,SK海力士、三星、美光等存储巨头在HBM领域展开了升级竞赛。

实际上,2023年开年后三星、SK海力士的HBM订单快速增加,之前另有消息称HBM3较DRAM价格上涨5倍。

随着AI技术不断发展,AI训练、推理所需计算量呈指数级增长,2012年至今计算量已扩大30万倍。处理AI大模型的海量数据,需要宽广的传输“高速公路”即带宽来吞吐数据。

HBM通过垂直连接多个DRAM,显著提高数据处理速度。它们与CPU、GPU协同工作,可以极大提高服务器性能。其带宽相比DRAM大幅提升,例如SK海力士的HBM3产品带宽高达819GB/s。同时,得益于TSV技术,HBM的芯片面积较GDDR大幅节省。

国盛证券指出,HBM最适用于AI训练、推理的存储芯片。受AI服务器增长拉动,HBM需求有望在2027年增长至超过6000万片。Omdia则预计,2025年HBM市场规模可达25亿美元。

广发证券也补充称,HBM方案目前已演进为高性能计算领域扩展高带宽的主流方案,并逐渐成为主流AI训练芯片的标配。

AIGC时代为HBM带来的需求增量主要体现在两方面:一方面,单颗GPU需要配置的单个HBM的Die层数增加、HBM个数增加;另一方面,大模型训练需求提升拉动对AI服务器和AI芯片需求,HBM在2023年将需求明显增加,价格也随之提升。






审核编辑:刘清

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分