NVIDIA携手微软推出超大规模GPU加速器

人工智能

629人已加入

描述

显示芯片生产厂英伟达 (NVIDIA) 在 9 日宣布,将携手软件大厂微软 (Microsoft),发展全新专为驱动人工智能 (AI) 云端运算的超大规模 (hyperscale) GPU 加速器蓝图“HGX-1 ”。全新 HGX-1 架构的设计是为满足 AI 云端运算的需求需求而来。其范围包含自动驾驶、个人医疗照护、超越人类的语音辨识、数据与影像分析以及分子模拟等应用。

英伟达表示,全新 HGX-1 是一款结合微软 Project Olympus 开源设计的超大规模 GPU 加速器,提供超大规模数据中心于人工智能快速且具弹性的途径。而且,HGX-1 适用于建构在云端运算上的人工智能作业,如同二十多年前为 PC 主机板所推出 ATX (Advanced Technology eXtended) 时的角色一般,HGX-1 建立了一项业界标准,能快速且有效的被采用以协助达到急速增长的市场需求。

英伟达共同创办人暨CEO黄仁勋表示,AI 为全新的运算模型,因此需要全新的架构支持。HGX-1 超大规模 GPU 加速器在 AI 云端运算所扮演的角色,如同过去 ATX 标准使现在 PC 能够普及一样。HGX-1 将使云端服务供应商能更轻易的透过 NVIDIA GPU 满足激增的 AI 运算需求。

微软公司总经理,暨 Azure 硬件基础架构部门工程师 Kushagra Vaid 也指出,HGX-1 AI 加速器将提供极至的效能扩充,以达成快速成长的机器学习作业负载需求,同时,其特殊的设计使现今全球各地的数据中心皆能轻易采用。对于全球数千家已投资 AI 与采纳基于 AI 作业方法的企业与新创公司而言,HGX-1 的架构在云端上展现了前所未有的配置管理与效能。

根据规划,未来 HGX-1 在每部主机皆配置 8 颗 NVIDIA Tesla P100 显示卡。其特色在于使用以 NVIDIA NVLink 互联技术与 PCle 标准为基础的创新转换设计,使 CPU 能够任意与多颗 GPU 进行连接。这让在 HGX-1 基础架构标准化的云端服务业者,能提供客户各种 CPU 与 GPU 的机器配置。

由于,云端作业较以往更加的多样化且复杂。因此,在 HGX-1 架构下,包括 AI 训练、推论和高效能运算 (HPC) 操作都可以透过 CPU 连结至不同数量的 GPU,以最佳的方式运行于不同的系统配置中。而不论作业负载量多大,HGX-1 的高度模组化设计,都能使其能以最佳的效能运行。同时,HGX-1 提供较传统基于 CPU 的服务器快达 100 倍的深度学习效能,却仅有五分之一的执行 AI 训练成本与十分之一的 AI 推论成本。未来,HGX-1 透过与全球各地数据中心合作的高度弹性,提供目前超大规模数据中心用于 AI 领域快速且简单的途径。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分