HBM市场火爆!美光与SK海力士今年供货已告罄

存储技术

606人已加入

描述

  继此前美光宣布HBM产能全部售罄之后,SK海力士今年的HBM产能也已经全部售罄。

  随着生成式人工智能(AI)市场的爆发,也带动了AI芯片需求的暴涨。AI芯片龙头英伟达业绩更是持续飙升,最新公布的第四财季财报显示,营收同比暴涨265%至221亿美元,净利润同比暴涨769%至122.85亿美元,持续突破历史记录,推动英伟达市值突破2万亿美元。

  随着AI芯片需求持续大涨,作为目前AI芯片当中的极为关键的器件,HBM(高带宽内存)也是持续供不应求,存储大厂积极瞄准HBM扩产。

  其中,三星电子从2023年四季度开始扩大HBM3的供应。此前2023年四季度三星内部消息显示,已经向客户提供了下一代HBM3E的8层堆叠样品,并计划在今年上半年开始量产。到下半年,其占比预计将达到90%左右。负责三星美国半导体业务的执行副总裁Han Jin-man则在今年CES 2024上表示,三星今年的HBM芯片产量将比去年提高2.5倍,明年还将继续提高2倍。

  三星官方还透露,公司计划在今年第四季度之前,将 HBM 的最高产量提高到每月15万至17万件,以此来争夺2024年的HBM市场。此前三星电子斥资105亿韩元收购了三星显示位于韩国天安市的工厂和设备,以扩大HBM产能,同时还计划投资7000亿至1万亿韩元新建封装线。

  去年12月,美光CEO Sanjay Mehrotra对外透露,得益于生成式AI的火爆,推动了云端高性能AI芯片对于高带宽内存的旺盛需求,美光2024年的HBM产能预计已全部售罄。

  美光指出,专为AI、超级计算机设计的HBM3E预计2024年初量产,有望于2024会计年度创造数亿美元的营收。Mehrotra对分析师表示,“2024年1~12月,美光HBM预估全数售罄”。

  美光也相信,终端能执行AI任务的PC、移动设备,对內存芯片来说蕴藏极大潜质。

  Mehrotra预测,PC出货量在连两年出现双位数跌幅后,有望2024年成长1%~5%。他相信,PC制造商2024下半年扩产AI PC,这些PC每台需要额外4~8Gb DRAM,固态硬盘(SSD)需求也会上扬。

  Mehrotra还表示,长期而言,许多热门生成式AI程序的主战场会是智能手机,美光的产品组合有望抓住这次內存及储存市场潜藏的机会。美光计划增加2024会计年度的资本支出,但高层承诺会“极度节制”(extremely disciplined)。

  继此前美光宣布今年HBM产能全部售罄之后,最新的消息显示,SK海力士今年的HBM产能也已经全部售罄。

  虽然整个2023年全球半导体市场遭遇了“寒流”,特别是存储芯片市场更是下滑严重。但是,受益于生成式AI带来的需求,面向AI应用的DRAM依然保持了快速的增长。

  SK海力士在2023年度财报当中就曾表示,2023年在DRAM方面,公司以引领市场的技术实力积极应对了客户需求,公司主力产品DDR5 DRAM和HBM3的营收较2022年分别成长4倍和5倍以上。

  近日,SK海力士副总裁Kim Ki-tae(金基泰)在一篇博文中表示,今年公司的HBM已经售罄,已开始为2025年做准备。虽然外部不稳定因素依然存在,但今年内存半导体行业已开始呈现上升趋势。全球大型科技客户对产品的需求正在复苏,并且随着人工智能使用领域的扩大,包括配备自己的人工智能的设备,如个人电脑和智能手机,对DDR5、LPDDR5T以及HBM3E等产品的需求预计会增加。

  据悉,英伟达和AMD的下一代人工智能GPU预计将主要搭载HBM3内存。例如,H100是第一款支持PCIe 5.0标准的GPU,也是第一款采用HBM3的GPU,最多支持六颗HBM3,带宽为3TB/s,是A100采用HBM2E的1.5倍,默认显存容量为80GB。

  2023年11月英伟达发布了新一代AI GPU芯片H200,以及搭载这款GPU的AI服务器平台HGX H200等产品。这款GPU是H100的升级款,依旧采用Hopper架构、台积电4nm制程工艺,根据英伟达官网,H200的GPU芯片没有升级,核心数、频率没有变化,主要的升级便是首次搭载HBM3e显存,并且容量从80GB提升至141GB。

  得益于新升级的HBM3e芯片,H200的显存带宽可达4.8TB/s,比H100的3.35TB/s提升了43%。不过这远没有达到HBM3e的上限,海外分析人士称英伟达有意降低HBM3e的速度,以追求稳定。如果与传统x86服务器相比,H200的内存性能最高可达110倍。

  AMD 的 MI300 也搭配 HBM3,其中,MI300A 容量与前一代相同为 128GB,更高端 MI300X 则达 192GB,提升了 50%。AMD称,MI300X提供的HBM密度最高是英伟达AI芯片H100的2.4倍,其HBM带宽最高是H100的1.6倍。这意味着,AMD的芯片可以运行比英伟达芯片更大的模型。

  在HBM盛行的当下,没有一家存储厂商能够忍住不分一杯羹。

  审核编辑:黄飞

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分