NVIDIA Mellanox InfiniBand护航百亿亿次AI超级计算

人工智能

636人已加入

描述

  全球服务器和存储生态系统合作伙伴将提供全球唯一的、可完全网络加速的、基于NVIDIA Mellanox 400G的系统

  

  加利福尼亚州圣克拉拉市 – SC20 - 2020年11月16日 – NVIDIA于今日推出下一代NVIDIA® Mellanox® 400G InfiniBand产品,为AI开发者和科研人员提供最快的网络互连性能,以助力其应对全球最具挑战性的问题。

  随着药物研发、气候研究和基因科学等领域对计算需求的指数级持续增长,NVIDIA Mellanox 400G InfiniBand在通过提供全球唯一的完全硬件卸载和网络计算平台,实现了大幅的性能飞跃,可加快相关研究工作的进展。

  第七代Mellanox InfiniBand NDR 400Gb/s产品提供超低延迟,并在上一代产品的基础上实现了数据吞吐量翻倍,同时增加了新的NVIDIA网络计算引擎,实现了额外的加速。

  包括Atos、戴尔科技、富士通、浪潮、联想和SuperMicro等公司在内的全球领先的基础设施制造商,计划将Mellanox 400G InfiniBand解决方案集成到他们的企业级产品中去。此外,包括DDN、IBM Storage以及其它存储厂商在内的领先的存储基础设施合作伙伴也将支持NDR。

  NVIDIA网络高级副总裁Gilad Shainer表示:“我们的AI客户的最重要的工作就是处理日益复杂的应用程序,这需要更快速、更智能、更具扩展性的网络。NVIDIA Mellanox 400G InfiniBand的海量吞吐量和智能加速引擎使HPC、AI和超大规模云基础设施能够以更低的成本和复杂性,实现无与伦比的性能。”

  今日关于Mellanox InfiniBand的发布,代表了面向AI超级计算的业界最强大的网络解决方案。Mellanox NDR 400G InfiniBand交换机,可提供3倍的端口密度和32倍的AI加速能力。此外,它还将框式交换机系统的聚合双向吞吐量提高了5倍,达到1.64 petabits/s,从而使用户能够以更少的交换机,运行更大的工作负载。

  扩展生态系统,面向更多的应用

  一些全球最大的科研机构率先表达了对下一代Mellanox InfiniBand技术的关注。

  微软公司Azure HPC和AI产品负责人Nidhi Chappell 表示:“Microsoft Azure与NVIDIA 网络的合作关系源于我们共同的热情,即通过可扩展HPC和AI系统,帮助科学家和研究人员进行创新。在HPC领域,Azure HBv2 VM率先将HDR InfiniBand引入云端,并为MPI客户应用在云上实现了超算级规模和性能,展示出可扩展MPI HPC应用到超过80,000核的能力。为满足AI创新的雄心,Azure NDv4 VM充分利用HDR InfiniBand,为每个GPU 分配了 200 Gb/s 的带宽,每台VM可达1.6 Tb/s的总互连带宽,且能够在保证低延迟不变的InfiniBand网络中,扩展到数千个GPU,从而将AI超级计算带到各个领域。微软对NVIDIA InfiniBand产品线的不断创新表示赞赏,我们期待双方持续保持紧密的合作伙伴关系。”

  美国Los Alamos国家实验室下一代平台首席架构师Steve Poole表示:“高性能互连技术是百亿亿次乃至更快超级计算机的基础,Los Alamos国家实验室持续引领HPC网络技术的最前沿,我们将持续与NVIDIA合作,对其最新的400Gb/s技术进行评估和分析,以应对Los Alamos国家实验室的各种应用需求。”

  Jülich超算中心负责人Thomas Lippert教授表示:“在百亿亿次计算的新时代,研究人员和科学家们力求突破,将数学建模应用于量子化学、分子动力学和民用安全领域。我们致力于利用下一代Mellanox InfiniBand,在构建欧洲领先的下一代超级计算机的进程中再创佳绩。”

  Intersect360 Research首席执行官Addison Snell表示:“InfiniBand继续在创新和性能方面保持其领先性,并进一步拉大差距,使其成为了HPC和AI系统中的高性能服务器和存储互连的必选产品。随着应用对网络吞吐量需求的持续提升,对像NVIDIA Mellanox NDR 400Gb/s InfiniBand这样的高性能解决方案的需求也有望不断扩展到新的用例和市场。”

  产品规格和供货情况

  卸载操作对AI应用至关重要。第三代NVIDIA Mellanox SHARP技术使InfiniBand网络能够卸载并加速深度学习训练操作,使AI加速能力提高32倍。与NVIDIA Magnum IO软件栈相结合,可开箱即用,加速科学计算。

  基于Mellanox InfiniBand架构的边缘交换机的双向总吞吐量可达51.2Tb/s,实现了具有里程碑意义的每秒超过665亿数据包的处理能力。基于Mellanox InfiniBand的模块化交换机的双向总吞吐量将达到每秒1.64 petabits,比上一代产品高5倍。

  Mellanox InfiniBand架构基于业界标准,以确保前后代产品兼容性,并保护数据中心投资。基于该架构的解决方案预计将于2021年第二季度提供样品。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分