H200 解禁!预交付8万颗,传阿里砸数亿抄底对手

描述

电子发烧友网报道(文/梁浩斌)近日,有多方消息传出,英伟达计划在2026年2月中旬在中国交付H200芯片,这意味着此前特朗普发文表示允许英伟达、AMD等AI芯片公司向中国出售产品的方案已经落实。
 
与此同时,阿里巴巴也传出正考虑向AMD下单订购4万至5万颗AMD MI308 AI芯片。适逢近期国产GPU厂商上市热潮,而在消息传出后,本月刚刚上市的摩尔线程和沐曦股份,在12月24日股价分别收跌6.32%和7.03%,其中沐曦股价已跌破上市当日的最低价。
 
H200放开销售,预计2月交付4万至8万颗芯片
 
在英伟达的产品矩阵中,H200是Hopper架构的最强算力产品,目前性能仅次于最新的Blackwell系列芯片,比如B100,但此前H200一直被美国政府禁止对华出口。
 
H200发布于2023年11月,其核心升级围绕大模型最核心的显存瓶颈展开,最大突破是搭载了高达141GB的 HBM3e显存,容量较H100的80GB HBM3提升76%,更是早期中国特供版H20(96GB HBM3)的1.5倍;显存带宽同步飙升至4.8TB/s(部分测试场景达5.1TB/s),比H100的 3.35TB/s 提升43%,是中国特供产品H20(1TB/s GDDR6X)的4.8倍。
 
在12月初,美国总统在社交媒体上宣布美国政府将允许英伟达向中国出售其H200人工智能芯片,条件是销售仅限“获得批准的客户”,且美国政府可从销售额中抽取25%的分成。后续又宣布这一安排将同样适用于AMD、英特尔等AI芯片公司。
 
而近期最新的消息显示,英伟达已告知中国客户,计划于明年2月中旬,也就是赶在农历春节前向中国客户交付H200芯片。
 
作为目前仅次于B100的英伟达次旗舰级AI芯片,H200的开放销售也受到了国内AI行业的追捧。有消息人士透露,在2月的交付中,英伟达计划动用库存履行首批订单,预计发货总量为5000至10000套芯片模组,相当于约4万至8万颗 H200芯片,预计为英伟达带来70亿元至140亿元的收入。当然,美国政府需要从该收入中抽取25%。
 
英伟达对此回应称,“我们正在持续管理我们的供应链,向中国授权客户销售H200不会影响我们向全球客户供货的能力”。
 
过去英伟达CEO黄仁勋一直认为,限制AI芯片的出口,只会导致创造出中国本土的竞争对手。并且对于此次H200出口的获准,黄仁勋此前也坦言,即便限制放松,中国市场是否会接受H200芯片仍不确定。但从实际的市场反应来看,H200目前在中国市场依然具有需求。
 
但需要注意的是,H200仍需美国政府“特批”,且美国未放松对“中国同规格芯片代工”的限制,如禁止台积电为中国企业代工H200级高算力的AI芯片。这意味着H200是“短期补充”,而非一个“长期解决方案”。
 
阿里大规模采购AMD“中国特供”AI芯片?
  
相比英伟达,AMD走的是高性价比路线。尽管AMD MI308也是一款“专为中国市场定制的 合规特供芯片”,但是它以大显存和高性价比成为云厂商的折中优选。MI308搭载高达192GB HBM3显存容量,创下当前商用GPU纪录,较H200多出51GB,显存带宽达到10.3TB/s,是 H200的2.1倍,完美适配70B级大模型的全参数推理需求。
 
不过在核心性能上,根据美国 2023 年“1017 新规”及后续调整,对华出口的AI芯片需将 FP8算力控制在350 TFLOPS以内,MI308的FP8算力被刻意限制在320 TFLOPS以内。但单卡价格较英伟达H20低 15%,8卡模组总成本控制在120万元以内,较H200的140万元模组具备显著成本优势。
 
更重要的是,MI308采用与AMD MI350系列同源的散热设计,无需改造现有数据中心即可兼容主流服务器,模型迁移时间较国产芯片节省30%,成为阿里云等厂商补充推理算力的核心选择。
 
显然MI308是与H20同期,受到美国政府出口限制而诞生的“特供产品”,在近期美国政府放开H200同等性能芯片的出口之后,未来AMD或许也将会在中国市场推出MI325X等更高性能的产品。
 
因此阿里在这个阶段传出采购高达5万颗MI308,或许未来还会有新的变数。
 
对国产GPU的短期冲击
 
从近期的股价表现来看,也可以一定程度上反映出英伟达H200的重新开放销售对国产GPU造成的冲击。
 
首先在中高端算力需求上,H200尽管性能低于最新的B100,但作为Hopper架构的旗舰产品,在绝对性能上目前H200仍是领先于国产AI芯片,同时也遥遥领先于此前中国特供的H20。
 
从TPP总算力估算的数字来看,H200的TPP高达15832,是H200的接近7倍。而华为昇腾910C的TPP为12800,仍略低于H200;寒武纪思元690 TPP为8986;沐曦C500 TPP为3840。总体来看,性能的差距加上CUDA生态所带来的迁移成本,国产GPU对于AI大模型企业来说仍是需要权衡利弊的选择。
 
当然,国产GPU目前也在生态上采取了多种方式去加速兼容,或是构建自主生态。目前的资料显示,华为CANN对CUDA API的覆盖度约80%,海光对ROCm的迁移效率约85%。
 
所以短期来看,参数以及生态的优势会促进部分企业分流算力需求到英伟达、AMD等产品上。
 
但长期来看,摇摆不定的芯片供应政策,对于所有AI大模型企业来说都是悬在头顶的达摩克利斯之剑。因此国产替代确实也是当前国内AI巨头们所正在进行或者尝试在做的事,包括阿里、百度、字节跳动等甚至是选择了自研芯片的方式,来试图摆脱供应链的限制,同时降低算力芯片成本。
 
小结:
 
本次H200获批在中国销售,短期来看缓解了本土AI巨头的算力缺口,但从产业链的发展角度来看,不稳定的供应政策依然是巨大的风险点。未来自主生态的构建仍需要本土产业链厂商的共同努力,包括GPU厂商的硬件迭代,以及更多联合下游模型厂商来进行优化,推动工具链标准化等,才能最终建立起不可替代的竞争力。
打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 相关推荐
  • 热点推荐

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分