HBM4到来前夕,HBM热出现两极分化

描述

电子发烧友网报道(文/黄晶晶)高带宽存储器HBM由于生成式AI的到来而异军突起,成为AI训练不可或缺的存储产品。三大HBM厂商SK海力士、三星电子、美光科技也因HBM的供应迎来了业绩的高增长。只是,这样的热潮能持续多久,目前业界出现了不同的声音。
 
机构预警产能过剩
 
最近,外资摩根士丹利最新报告表示,预计随着市场分散化以及AI领域投资达到高峰,明年HBM市场可能供过于求。原因是目前每家内存厂都在根据HBM产出的最佳可能情况进行生产,将全球原本用于生产DRAM的15%产能转换至生产HBM。并且这样的转换只需要少量的资本投资,预估仅不到2024年DRAM晶圆制造设备的10%。若按这个乐观计划进行,HBM产能可能会面临过剩。
 
大摩表示,现阶段业界良好的HBM供应状态,2025年时,恐面临实际产出可能会逐渐赶上、甚至超过当前被高估的需求量。一旦上述问题浮现,导致HBM供过于求,内存厂可把产能挪回制造DDR5,并闲置一小部分后端设备。
 
无独有偶,最近法国巴黎银行旗下证券部门Exane BNP Paribas大幅下调美光评级,理由是担心HBM产能过剩和对传统DRAM定价的影响,会导致更广泛的DRAM市场衰退。
 
该机构表示,2024年底前HBM的已装机晶圆月产能已经达到31.5万片,到2025年将达到约40万片,而同时期的需求为16.8万片,甚至不到供应量的1/2。预计2025年底前,HBM产能将大幅超出需求,这将进一步打压价格。
 
存储厂商建设HBM产能
 
但从存储芯片厂商之前的动作来看,对HBM需求是相对确定的。在此前的财报会上,SK海力士、美光等公司均表示2024年HBM产能已经全部售罄,2025年产能也已经基本分配完成。
 
此前台媒报道,在 SK 海力士、三星、美光三巨头的大力推动下,2025 年高带宽内存(HBM)芯片每月总产能为54万颗,相比较2024年增加27.6 万颗,同比增长105%。
 
华福证券的研报指出,根据测算HBM需求量在2024年和2025年将翻倍增长,2025年需求量有望达到20.8亿GB,整体市场规模有望达到311亿美元。考虑到HBM与GPU出货的时间差以及GPU厂商的HBM库存建立,即使原厂大规模扩产,HBM在未来仍将长期处于供不应求态势。也正基于此,今年Q2原厂已针对2025年HBM进行议价,价格初步调涨5~10%。
 
在产能建设方面,结合TrendForce和韩媒报道等可以看到,三星正在逐步升级其在韩国的平泽工厂(P1L、P2L 和 P3L),以便用于DDR5和HBM。同时,华城工厂(13/15/17 号生产线)正在升级到 1α工艺,仅保留 1y / 1z 工艺的一小部分产能,以满足航空航天等特殊行业的需求。
 
SK 海力士以南韩利川市M16产线生产HBM,并着手将 M14 产线升级为 1α/1β 制程,以供应 DDR5 和 HBM 产品。另外,SK 海力士在其利川半导体工厂“M10F”生产第五代高带宽存储器(HBM)。这是为了应对 HBM 快速增长的需求。除了NVIDIA之外,SK海力士还向谷歌和亚马逊等公司供应HBM。考虑到M10F的量产时间表,预计设备订单将于今年第四季度开始。预计将引进先进的存储器堆叠封装设备和测试设备。
 
美光HBM前段在日本广岛厂生产,产能预计今年第四季提升至2.5万颗。长期将引入EUV制程(1γ、1δ),并建置全新无尘室。另外还会升级中国台湾新北和台中的生产线,增加1β工艺的比例。
 
英伟达GPU需求仍然旺盛
 
英伟达2025财年第二财季营收300.04亿美元,同比增长122%,继续超预期增长。在第二季度的细分业务收入中,数据中心同比增长 154%。2025财年第三财季收入预计325亿美元。英伟达该季营收指引未达最高预期,不过预计 Blackwell 芯片在第四季度营收数十亿。黄任勋表示,对 Hopper和 Blackwell 芯片的需求令人难以置信,在全球数据中心的全力努力下,英伟达通过加速计算和生成人工智能实现整个计算堆栈的现代化,实现了创纪录的收入。首席财务官表示,Blackwel 已经做出了改进,但没有回答第四季度预计的数十亿美元收入是否是增量。
 
TrendForce集邦咨询预计,2024年NVIDIA的GPU产品线中近90%将属于Hopper平台,包括H100、H200、特规版H20以及整合了自家Grace CPU的GH200方案,主要针对HPC(高性能计算)特定应用AI市场。预期从今年第三季后,NVIDIA对H100采用不降价策略,待客户旧订单出货完毕后,将以H200为市场供货主力。随着市场对搭载H200 AI 服务器需求提升,将填补Blackwell新平台可能因供应链尚需整备而延迟出货的空缺,预计今年下半NVIDIA数据中心的业务营收将不会受太大影响。
 
最近黄仁勋在高盛技术会议上表示客户对最新一代Blackwell芯片的需求强劲,“的确很紧张,我们在尽力做到最好。”
 
TrendForce表示,预估NVIDIA的Blackwell平台将于2025年正式放量,其裸晶尺寸(die size)是现有Hopper平台的两倍,明年成为市场主流后将带动CoWoS需求增长。TrendForce集邦咨询表示,CoWoS主力供应商台积电近期上调至2025年底的月产能规划,有望接近70-80K,相较2024年产能翻倍,其中NVIDIA将占超过一半以上的产能。
 
当前,各大存储厂商供应的主要是8层HBM3E,SK海力士和美光的HBM3E已应用于英伟达H200,三星的HBM3E也已成功通过英伟达的测试。此外,SK海力士HBM3E将供应给英伟达B100。SK海力士表示将于9月底量产12层HBM3E,开启HBM关键战场。
 
小结:
 
HBM是AI芯片中成本占比最高的芯片,根据外媒的拆解,英伟达H100的成本接近3000美元,而其中占比最高的是来自海力士的HBM,总计达到2000美元左右。SK海力士CEO此前表示,预计到2030年SK海力士每年HBM出货量将达到1亿颗。
 
根据TrendForce的最新研究,2024年全球服务器整机出货量预计约为1,365.4万台,年增长率为2.05%。其中,AI服务器的占比约为12.1%。IDC预测,到2028年中国加速服务器市场规模将达到124亿美元。
 
近期来看,存储芯片厂商对HBM需求仍然保持乐观态度,不仅是HBM3E供应不断,其新一代HBM4也加速研发当中,早前SK海力士、三星电子都官宣了与台积电的联手合作。随着英伟达Blackwell芯片的出货,以及下一代Robin系列的到来,HBM产品将进一步升级。另外,HBM不仅用于AI服务器,也正在向工业、汽车甚至移动终端拓展,这也将拉动HBM需求的增长。
 
 
 

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 相关推荐
  • HBM

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分