英伟达推出用于人工智能工作的顶级芯片HGX H200

描述

近日,英伟达推出了一款用于人工智能工作的顶级芯片HGX H200。新的GPU升级了需求巨大的H100,内存带宽增加了1.4倍,内存容量增加了1.8倍,提高了其处理密集生成人工智能工作的能力。

在备受瞩目的人工智能领域,英伟达提到,H200将带来进一步的性能飞跃。在Llama 2(700亿参数的LLM)上的推理速度比H100快了一倍。未来的软件更新预计会给H200带来额外的性能领先优势和改进。

H200将在具有四路和八路配置的英伟达HGX H200服务器主板中提供,并与HGX H100系统的硬件和软件兼容。

大型计算机制造商和云服务提供商预计将于明年第二季度开始使用H200。亚马逊的AWS、Alphabet公司的谷歌云、微软Azure和甲骨文的云基础设施,都承诺从明年开始使用这款新芯片。

英伟达高性能计算产品副总裁Ian Buck在近日的视频演示中表示:“更快、更广泛的HBM内存集成有助于提高计算需求任务的性能,包括生成人工智能模型和[高性能计算]应用程序,同时优化GPU利用率和效率。”

H200还与已经支持H100的相同系统兼容。英伟达表示,云提供商在将H200添加到混合中时不需要做出任何更改。亚马逊、谷歌、微软和甲骨文的云计算部门将在明年率先提供新的GPU。

一旦推出,新芯片肯定会很贵。英伟达没有列出它们的价格,但据美国消费者新闻与商业频道报道,上一代H100的售价估计在25000至40000美元之间,其中数千台需要在最高水平上运行。并且,价格由英伟达的合作伙伴决定。

伴随着人工智能的火爆,英伟达的高端GPU需求量极大。这也令其他芯片制造商瞄准这一利润丰厚的市场,加快推出高品质的AI芯片,整个AI芯片市场竞争相当激烈。英伟达此举旨在巩固其在AI计算市场的主导地位。

 

        审核编辑:彭菁

 

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分