韩国大型财团SK集团的董事长崔泰源在周一的采访中透露,英伟达的首席执行官黄仁勋已向SK集团旗下的存储芯片制造巨头SK海力士提出要求,希望其能提前六个月推出下一代高带宽存储产品HBM4。SK海力士此前在财报中曾表示,计划在2025年下半年向大客户(市场普遍猜测为英伟达及AMD)提供HBM存储系统。对此,SK海力士的发言人证实了这一时间表确实比最初目标有所提前,但并未提供更多细节。
黄仁勋亲自介入要求加快HBM4的交货速度,凸显出英伟达对于开发更先进的人工智能GPU系统的迫切需求。这些系统需要更高容量、更节能的HBM存储系统来支持。同时,这也反映了OpenAI、Anthropic、微软、亚马逊及Meta等人工智能、云计算和互联网大厂对于AI训练和推理算力的巨大需求。这种需求迫使英伟达的核心芯片代工厂台积电加班加点扩大Blackwell AI GPU的产能,并催促英伟达加速下一代AI GPU的研发进程。
英伟达计划于2026年推出搭载HBM4存储系统的下一代AI GPU架构Rubin。目前,英伟达在全球数据中心AI芯片市场占据主导地位,市场份额高达80%-90%,而AMD则接近10%,其余份额由谷歌TPU、亚马逊自研ASIC等大厂自研AI芯片占据。
作为英伟达H100/H200及近期批量生产的Blackwell AI GPU的核心HBM存储系统供应商,SK海力士一直在全球存储芯片产能竞赛中领跑,以满足英伟达、AMD及谷歌等大客户对HBM存储系统的爆炸性需求。然而,SK海力士也面临着来自三星电子和美国存储巨头美光的激烈竞争。
三星在上周的财报中表示,在与一家主要客户(可能是英伟达)达成供应协议方面取得了积极进展。该公司正在与主要客户进行谈判,并计划明年上半年批量生产“改进后”的HBM3E产品,同时计划在明年下半年生产下一代HBM4存储系统。
美光则是另一家获得英伟达供应资质的HBM供应商。在今年2月,美光已开始量产专为人工智能和高性能计算所设计的HBM3E存储系统,并表示英伟达的一部分H200及Blackwell AI GPU将搭载美光HBM3E。美光还表示,正在加速推进下一代HBM4和HBM4e的研发进程。
与此同时,SK海力士的首席执行官郭鲁在首尔举行的2024年SK人工智能峰会上表示,该公司计划今年年底前向一位大客户(市场猜测为英伟达)提供最新的12层HBM3E,并计划在明年初运送更先进的16层HBM3E存储样品。他还透露,英伟达AI GPU的供应仍然难以满足需求,并多次要求SK海力士加快HBM3E的供应规模。
随着AI GPU需求的激增,HBM存储系统的需求也随之暴涨。英伟达创始人兼CEO黄仁勋曾表示,Blackwell架构AI GPU的需求非常“疯狂”。据知名科技产业链分析师郭明錤的最新报告,微软目前是全球最大的Blackwell GB200客户,Q4订单激增3-4倍。花旗集团则预测,到2025年,美国四家最大科技巨头的数据中心相关资本支出预计将同比增长至少40%,这些支出基本上都与生成式人工智能挂钩。
HBM是一种高带宽、低能耗的存储技术,专门用于高性能计算和图形处理领域。它通过3D堆叠存储技术实现高速高带宽的数据传输,不仅大幅减少了存储体系空间占比,也大幅降低了数据传输的能耗。HBM的低延迟特性使其能够极大程度提高AI系统的整体效率和响应速度。
华尔街大行高盛发布研报称,由于企业对于生成式人工智能的强劲需求推动了更高的AI服务器出货量和每个AI GPU中更高的HBM密度,该机构大幅提高了HBM总市场规模预估。预计市场规模将从2023年到2026年间以复合年增速100%大幅增长,到2026年将增长至300亿美元。高盛预计,未来几年HBM市场将持续供不应求,SK海力士、三星和美光等主要玩家将持续受益。
全部0条评论
快来发表一下你的评论吧 !