HBM抢单大战,才刚刚拉开帷幕

描述

电子发烧友网报道(文/周凯扬)今年对于存储厂商而言,可谓是重新梳理市场需求的一年,不少企业对 NAND和DRAM 的业务进行了大幅调整,有的就选择了将重心放在下一代 DRAM 上,尤其是在 AI 市场非常吃香的 HBM 内存。
 
AI 芯片带来的 HBM 热潮
 
在 AI 芯片的设计中,除了需要先进工艺和先进封装在有限的面积下提供足够的算力和扩展性外,被提及最多的一个问题就是内存墙。过去内存墙的问题在AI 计算还不盛行的时代并不突出,而且 HBM 当时还被视作高成本的方案。无论是 HBM IP 厂商还是存储厂商,都还没给到足够吸引人的方案。
 
但随着 AI 计算在GenAI 应用下一炮走红,原有的硬件在指数增长的AI 计算需求下,尤其是推理任务下,内存带宽上的瓶颈愈发明显,也就成就了过去被视作“小众需求”的 HBM。从今年各大厂商发布的最新 AI 芯片内存配置来看,基本上都配备了HBM 内存。以英伟达的 H100 为例,就配备了 80GB 的 HBM3 内存,由 5 个 16GB的 HBM3 堆叠在一起,为其提供了最高达 3.35TB/s 的内存带宽。
 
而 AMD 刚发布的 MI300X在内存配置上更甚,总容量达到 192GB,采用8 个 24GB HBM3 内存堆叠在单芯片上,提供最高约 5.3TB/s 的理论峰值内存带宽。不过考虑到出货时间,与 MI300X 直接对标的届时将是 2024 年 Q2 出货的英伟达GH200。GH200将是业内首个配备 HBM3e 的处理器,虽然其 GPU与 H100 保持一致,但 GH200在双芯片配置下拥有更大容量(282GB)更高速的 HBM3e 内存。
 
根据TrendForce的预测,今年的 HBM 需求相比去年增长了 58%,而明年将在此基础上再迎来 30% 的增长。在这样的市场需求下,HBM 内存供应商们都开启了抢单大战。
 
三家HBM供应商抢单大战开启
 
由于 HBM 需求大涨,为了满足芯片设计厂商的需求,而不是选择在有限供应下寻找别的供应商,SK 海力士选择了加大产能投入。据爆料消息,其明年的计划设施投入为 76 亿美元,比今年的预期值要高 43%到 67%。不仅如此,投入的大部分将花在搭建制造先进 DRAM 芯片的设施上,尤其是 HBM3内存产能,不过 HBM的产能也与 TSV 封装产能息息相关,考虑到 TSV 设备的交期要更长,所以这一波产能扩张预计要到下半年才会初见成效。

HBM
SK 海力士 HBM3e 内存 / SK 海力士

 
SK 海力士对 HBM的重视程度也不仅仅是加大投资和扩产而已,近期 SK 海力士甚至为其进行了组织架构的调整。12 月 7 日,SK 海力士宣布成立 AI Infra 组织,目的是在未来的 AI 基础设施市场中继续保持竞争优势。
 
在 AI Infra 组织下,SK 海力士成立两个部门,分别是 HBM 业务部门和 AI&Next 业务部门,前者负责整合分散的HBM 相关的人才与职能,后者负责探索新的 AI 市场,包括下一代 HBM 技术。而原先负责与 HBM 客户沟通的 GSM 组织也将被并入 AI Infra组织。
 
但介于目前 SK 海力士的产能还是没法满足需求,且英伟达之类的厂商更乐意拥有灵活的供应链选择,所以美光、三星两家也在英伟达的 GPU 上找到了供应合作的机会。美光作为目前在 HBM 处于劣势地位的厂商,其 HBM 市场份额只有 10% 左右。但凭借较快的产品导入速度,也在今年宣布英伟达正在下一代数据中心 GPU 上测试其 HBM3E 内存。
 
面临三星和 SK 海力士这两家已经在 HBM 市场站稳脚跟的厂商,或许从最新乃至下一代HBM技术上发力能给到美光异军突起的机会,毕竟 HBM3e 相比 HBM3 和 HBM2 来说,附加价值更高,新的设计订单数量也更多。为此美光在中国台湾和日本积极扩产,除了继续扩大已有的 1β与 TSV 产能外,也在继续推进 1γ内存工艺节点的落成。
 
据传三星也和美光一样,在今年宣布通过了英伟达对 HBM 产品的质量测试,并与英伟达签署了供应协议。虽然传言并未得到证实,但从三星近期购置了数台 2.5D封装设备的动向来看,很可能就是针对英伟达下一代 GPU 所用HBM 的制造与封装订单的。考虑到三星自己也有 X-Cube 这样针对 HBM 的2.5D/3D封装工艺,Fabless 厂商选择三星或许能进一步降低封装制造的成本。
 
HBM3/3e与未来的 HBM4
 
除了扩产外,这场抢单大战也延续到了相关产品的发布上,HBM 内存供应商在今年纷纷公开了自己的 HBM3e 产品,为的就是提前一步抢下 2023 下半年乃至明年的设计方案订单。美光在今年7 月率先公布了自己的 HBM3E 产品,该公司也将其称之为 HBM3 Gen2。
 
在业界领先的1β工艺和 8Hi 堆叠设计下,美光表示其HBM3 Gen2产品可以提供高达 1.2TB/s 的带宽,以及同样封装尺寸下高出 50% 的单 die 密度,即最高 24GB的单 die 内存。
 
SK 海力士也于今年 8 月宣布 HBM3e 开始送样,预计 2024 年上半年开始量产。不过,SK海力士并没有透露较为具体的容量细节,但其应该和美光一样,会率先推出的8Hi 的 24GB 版本。在速度上,SK 海力士则稍微落后,在公告中SK 海力士表示其 HBM3e 产品的带宽为 1.15TB/s。

HBM
Shinebolt HBM3e 内存 / 三星

 
接着三星也在今年 10 月份宣布了全新的 “Shinebolt” HBM3e 内存,在使用D1a 工艺(EUV 10nm 级别)和最高级的 12Hi 堆叠设计后,单 die 容量可达 36GB,单引脚带宽可达 9.8GB/s,单个堆栈最大带宽可达 1.225TB/s,高于美光和 SK 海力士。
 
除了在 HBM 新品量产出货先后上竞争外,就连下一代产品的开发,都已经成了HBM 内存供应商们抢单的途径之一。尽管 HBM4的规范还未定稿,但这并不妨碍 HBM 内存供应商与设计厂商展开先行尝试。以 SK 海力士为例,据报道他们正与英伟达合作,设计可以直接垂直堆叠至逻辑核心上的 HBM4 内存,这一结构类似于 AMD 的 3D V-Cache,只不过堆叠的是带宽和容量都更大的 HBM 内存。
 
报道称 SK 海力士正在与数家 Fabless 厂商商讨这一全新的 HBM 集成设计,甚至可能会与英伟达从下一代AI 芯片设计之初就展开合作,最后交给台积电利用先进封装技术制造芯片成品。如果 Fabless 厂商与 HBM 内存供应商之间选择了这种合作方式,那么这该芯片很可能发布之时只有单一内存供应商。
 
HBM 的需求能持续多久
 
从不少消息的预测看来,AI 芯片的订单已经排到了 2024 年。SK 海力士在今年 Q3 季度的财报会议上表示,与客户/合作伙伴的 HBM 销售规划已经排到 2025 年了。从各大厂商最新的财报预测中也能看出,明年服务器市场将迎来逐渐回暖的趋势,特别是云服务厂商的投资相比今年还会逐步提升。
 
虽然我们今年看到了通用服务器市场需求的下滑,而 AI服务器在有限的预算控制下呈现飞速增长,但通用服务器也是开展 AI 应用服务的重要一环。因此在更大的迭代需求下,明年会有新的投资涌入通用服务器。
 
此外,近期也有传言提到英伟达下修 2024 年下半年 AI 芯片的 CoWoS封装需求、微软也下修明年英伟达的 H100 需求。不少人猜测这或许与最新的禁令有一定关系,毕竟中国是 AI 芯片出口的最大市场之一。
 
不过即便传言属实,这也仅仅是英伟达一系列产品的需求变化,无论是 AMD,还是别的自研云服务商,又或是其他 AI 芯片初创企业,短时间内都不会抛弃 HBM 内存。而且SK 海力士等厂商作为上游厂商,对内存市场需求的敏感度更高,如果只是短期爆发的需求,是断然不会选择积极扩产的。
 

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 相关推荐
  • HBM

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分