美超微正在与英特尔在Nervana NNP-T平台方面展开合作

电子说

1.3w人已加入

描述

美超微电脑股份有限公司(SMCI)正在与英特尔展开合作,将美超微的先进系统与英特尔® Nervana(TM)神经网络训练处理器(NNP-T)相结合,开发新的人工智能(AI)解决方案。英特尔的NNP-T是一款专门用于AI训练的ASIC芯片(专用集成电路),可满足深度学习训练模型不断增长的计算需求。

这款经过验证的解决方案可以在一个AI服务器集群中扩展上千个英特尔Nervana NNP-T ASIC芯片,达到近线性扩展效率企业计算、存储和网络解决方案以及绿色计算技术领域的全球领导者美超微电脑股份有限公司(Super Micro Computer, Inc.) (SMCI)正在与英特尔展开合作,将美超微的先进系统与英特尔® Nervana(TM)神经网络训练处理器(NNP-T)相结合,开发新的人工智能(AI)解决方案。英特尔的NNP-T是一款专门用于AI训练的ASIC芯片(专用集成电路),可满足深度学习训练模型不断增长的计算需求。

美超微总裁兼首席执行官梁见后(Charles Liang)表示:“美超微很高兴能与英特尔就Nervana NNP-T平台展开合作。由于在计算、通信和内存上达到平衡,在美超微系统上经过验证的NNP-T ASIC可以训练大规模AI模型,通过机箱内和机箱间的连接与通讯,达到近线性的扩展效率。”

英特尔Nervana NNP-T突破了内存上的限制,可通过美超微的机架式服务器,比市面上的其他解决方案更轻松地进行横向扩展。作为验证程序的一部分,美超微集成了8个NNP-T处理器、两个第二代英特尔®至强®可扩展处理器,每个节点最多支持6TB DDR4内存,同时支持PCIe卡和OAM(OCP加速器模块)规格。美超微NNP-T系统预计将在2020年中期推出。

英特尔公司人工智能产品事业部副总裁兼总经理Naveen Rao表示:“美超微已经验证了我们的深度学习解决方案,目前正在帮助我们验证Nervana NNP-T系统架构,包括卡和服务器设计、互连性和机架。”

凭借适用于复杂深度学习模型的高计算利用率和高效内存架构,美超微的NNP-T AI系统可验证现实中要考虑的两个关键因素:加速复杂AI模型的训练并符合既定的功率预算要求。该系统将加快AI模型在图像和语音识别上的训练、提高天然气和石油勘探的效率,提升医学图像分析的准确性,以及加速自动驾驶模型的生成。

圣地亚哥超级计算中心(加州大学圣地亚哥分校下设的研究机构)副主任Shawn Strande说:“我们正在与英特尔和美超微合作,利用NNP-T系统架构来加强创新计算和数据分析功能的研究与发现,以便投入到科学和工程应用中。”

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分