NVIDIA GB200 CPU+GPU超级芯片功耗达2700W

描述

  7月31日,集邦咨询发布的最新报告揭示了AI服务器领域的一个重要趋势:随着计算能力与功耗的同步攀升,特别是NVIDIA计划在年底推出的下一代Blackwell平台将带来显著的功耗增长,液冷散热技术正逐步成为行业标配,预计今年底其市场渗透率将达到10%。

  报告进一步指出,NVIDIA的Blackwell平台预计将在2025年正式大规模部署,接替当前的Hopper平台,成为高端市场的核心力量,占据近83%的市场份额。Blackwell B200单芯片的功耗已飙升至1000W,而由一颗Grace CPU与两颗Blackwell GPU组成的GB200超级芯片更是惊人地达到了2700W,这一数字远超前辈产品。

  回顾历史,Hopper家族的H100与H200 GPU功耗均为700W,而H20则相对较低,为400W。Grace+Hopper超级芯片的功耗也达到了1000W。随着NVIDIA在服务器领域的布局深化,如HGX服务器预装8颗GPU,以及NVL36、NVL72等更高密度配置的推出,整体功耗分别攀升至70千瓦与140千瓦,对散热技术提出了前所未有的挑战。

  为应对这一挑战,NVL36服务器计划在2024年底率先上市,初期将采用风冷与液冷并行的散热方案。而紧随其后的NVL72服务器,则计划在2025年直接优先采用液冷技术,其整体设计与散热系统的复杂性也显著增加。

  NVIDIA预计,到2025年,基于GB200的NVL36服务器出货量有望达到6万台,同时Blackwell GPU的总出货量预计将介于210万至220万颗之间。这一预测进一步凸显了液冷散热技术在未来AI服务器市场中的关键地位。

  在液冷散热系统的构成中,冷却分配单元(CDU)扮演着至关重要的角色,负责调节系统内冷却液的流量,确保温度得到有效控制。目前,维谛技术(Vertiv)是NVIDIA AI服务器方案中的主要CDU供应商,同时奇鋐、双鸿、台达电、CoolIT等企业也在积极进行测试验证,以期在这一新兴市场中占据一席之地。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分