存储技术
TrendForce 预计今年高带宽内存(HBM)的年位出货量将大幅增长 105%。这一增长是为了满足人工智能和高性能计算处理器开发商(尤其是 Nvidia)和云服务提供商 (CSP) 不断增长的需求。据报道,为了满足需求,美光、三星和 SK 海力士正在增加 HBM 产能,但新生产线可能要到 2022 年第二季度才会开始运营。
2022年,内存制造商设法或多或少地匹配HBM的供需,这在DRAM市场上是罕见的。然而,2023 年人工智能服务器的前所未有的需求激增迫使相应处理器的开发人员(最著名的是 Nvidia)和 CSP 额外订购 HBM2E 和 HBM3 内存。这使得 DRAM 制造商利用其所有可用产能,并开始订购额外的工具来扩大其 HBM 生产线,以满足未来对 HBM2E、HBM3 和 HBM3E 内存的需求。
然而,满足这种 HBM 需求并不是一件简单的事情。除了在洁净室中制造更多 DRAM 设备外,DRAM 制造商还需要将这些存储设备组装成复杂的 8-Hi 或 12-Hi 堆栈,而这方面他们似乎遇到了瓶颈,因为他们没有足够的 TSV 生产工具。趋势力量。为了生产足够的 HBM2、HBM2E 和 HBM3 内存,领先的 DRAM 生产商必须采购新设备,这需要 9 到 12 个月的时间来制造并安装到其晶圆厂中。分析师称,因此,预计 2024 年第二季度左右 HBM 产量将大幅增加。
TrendForce 分析师指出的一个值得注意的趋势是,偏好从 HBM2e(AMD 的 Instinct MI210/MI250/MI250X、英特尔的 Sapphire Rapids HBM 和 Ponte Vecchio 以及 Nvidia 的 H100/H800 卡使用)转向 HBM3(集成在 Nvidia 的 H100 SXM 和 GH200 超级计算机中)平台和 AMD 即将推出的 Instinct MI300 系列 APU 和 GPU)。TrendForce预计,2023年HBM3出货量将占所有HBM内存出货量的50%,而HBM2E将占39%。到 2024 年,HBM3 预计将占所有 HBM 出货量的 60%。这种不断增长的需求加上较高的价格,有望在不久的将来增加 HBM 的收入。
就在昨天,Nvidia 推出了 新版本的 GH200 Grace Hopper 平台, 用于 AI 和 HPC,该平台使用 HBM3E 内存而不是 HBM3。新平台由 72 核 Grace CPU 和 GH100 计算 GPU 组成,拥有更高的 GPU 内存带宽,并搭载 144 GB HBM3E 内存,高于原始 GH200 的 96 GB HBM3。考虑到对 Nvidia 人工智能产品的巨大需求,美光科技(将在 2024 年上半年成为 HBM3E 的唯一供应商)很有可能从 HBM3E 所支持的新发布的硬件中获益匪浅。
HBM 正在变得越来越便宜
TrendForce 还指出,HBM 产品的平均售价每年都在持续下降。据市场跟踪公司称,为了激发人们的兴趣并抵消对旧 HBM 型号需求的下降,HBM2e 和 HBM2 的价格将于 2023 年下降。由于 2024 年定价尚未确定,由于 HBM 产量增加和制造商的增长愿望,预计 HBM2 和 HBM2e 的价格将进一步降低。
相比之下,HBM3 价格预计将保持稳定,或许是因为目前它仅由 SK 海力士提供,三星需要一段时间才能赶上。根据 TrendForce 的数据,鉴于 HBM2e 和 HBM2 的价格较高,到 2024 年,HBM3 可能会将 HBM 收入推至令人印象深刻的 89 亿美元,同比增长 127%。
SK海力士领先
2022 年,SK 海力士占据 HBM 内存市场 50% 的份额,其次是三星(40%)和美光(10%)。TrendForce 预计,2023 年至 2024 年间,三星和 SK 海力士将继续主导市场,持有几乎相同的股份,合计约 95%。另一方面,美光的市场份额预计将徘徊在3%至6%之间。
与此同时,(目前)SK 海力士似乎比竞争对手更具优势。SK Hynix 是 HBM3 的主要生产商,也是唯一一家为 Nvidia 的 H100 和 GH200 产品供应内存的公司。相比之下,三星主要生产 HBM2E,以满足其他芯片制造商和 CSP 的需求,并准备开始生产 HBM3。美光的路线图中没有 HBM3,但生产 HBM2E(据报道英特尔将其用于 Sapphire Rapids HBM CPU),并准备在 2024 年 1 月提高 HBM3E 的产量,这将使其相对于竞争对手具有显着的竞争优势预计将于 2024 年 2 月开始生产 HBM3E。
编辑:黄飞
全部0条评论
快来发表一下你的评论吧 !