第四代英特尔至强可扩展处理器和Habana Gaudi2在深度学习训练中展现领先的AI性能

处理器/DSP

892人已加入

描述

在MLCommons近日发布的AI性能行业基准测试结果中,代号为Sapphire Rapids的第四代英特尔至强可扩展处理器和专用于深度学习AI训练的Habana Gaudi2加速器展现了卓越的训练表现。

自去年6月提交了领先的MLPerf行业测试结果以来,我们团队不断取得新的进步,这让我感到非常自豪。第四代英特尔至强可扩展处理器和Gaudi2 AI加速器支持广泛的AI功能,为有深度学习训练和大规模工作负载处理需求的客户提供业界领先的性能。

——Sandra Rivera

英特尔执行副总裁

兼数据中心与人工智能事业部总经理

在众多数据中心应用场景中,基于至强处理器的服务器平台可用于运行一系列机器学习(ML)和数据分析的复杂管道,而深度学习(DL)正是其中的一部分。同时,这些服务器平台亦可用于运行其他应用程序,并能够适应随时间变化的多种工作负载。在这些使用场景中,至强可扩展处理器能够极大程度地降低总体拥有成本(TCO),提高全年利用率。

第四代英特尔至强可扩展处理器内置全新AI加速器——英特尔高级矩阵扩展(AMX),旨在帮助用户通过扩展通用至强服务器平台,覆盖包括训练和微调在内的更多深度学习使用场景。AMX是一个专用的矩阵乘法引擎,内置于第四代至强可扩展处理器的每个核心。该AI引擎已经过优化,基于行业标准框架,可提供相较于上一代深度学习训练模型多倍的性能。

而在服务器或服务器集群主要用于深度学习训练和推理计算的场景中,Habana Gaudi2则是理想的加速器,针对这些专用场景,它旨在提供优异的深度学习性能并降低总体拥有成本。

英特尔首先提交了涵盖一系列不同工作负载的第四代英特尔至强可扩展处理器产品线的MLPerf v2.1行业测试结果。作为唯一提交该测试结果的处理器,Sapphire Rapids再次被证实其优异的AI性能,使客户能够随时随地使用共享基础设施进行AI训练。内置英特尔AMX的第四代至强可扩展处理器在多个行业标准框架中为用户提供即时可用的性能,并集成了端到端的数据科学工具,以及来自生态伙伴广泛的智能解决方案,开发者仅需使用TensorFlow和PyTorch框架的最新版本,即可充分释放其性能。现阶段,英特尔至强可扩展处理器已经可以运行并处理全部AI工作负载。

测试结果显示,第四代英特尔至强可扩展处理器正通过扩大通用CPU在AI训练方面的覆盖范围,让客户能够充分利用已经部署在商业应用中的至强处理器完成更多工作,尤其是用于中小型模型的训练或微调,即迁移学习。DLRM的结果便很好地论证了Sapphire Rapids能够在不到30分钟(26.73)的时间内仅用四个服务器节点即可完成模型训练。即使是面对大中型模型,第四代至强处理器亦可分别在50分钟(47.26)和90分钟(89.01)内成功训练BERT和ResNet-50模型。开发者可在一杯咖啡的时间内便完成小型深度学习模型的训练,在一顿午餐的时间内训练中型模型,并同时利用这些连接到数据存储系统的相同服务器,在下午进行诸如经典机器学习的其他分析。这也意味着企业能够将诸如Gaudi2的深度学习处理器预留给更大、对性能要求更高的模型。

Habana今年五月发布了用于深度学习训练的第二代Gaudi处理器——Gaudi2,在MLPerf v2.0训练10天后汇总的成绩中表现出了领先的测试结果。Gaudi2采用7纳米制程工艺制造,拥有24个Tensor处理器核心、片内封装容量达96GB HBM2e和24个100GB RoCE以太网端口。

Gaudi2在TensorFlow中训练BERT和ResNet-50的时间缩短了10%。而Gaudi2的PyTorch结果则显示,与5月的Gaudi1结果相比,其BERT和ResNet-50的训练时间分别缩短了4%和6%。这两组结果均在封闭和可用类别中提交。

这些优异表现突显了Gaudi2专用深度学习架构的独特性、Gaudi2软件的日益成熟以及Habana SynapseAI软件堆栈的扩展优势。值得注意的是,该软件堆栈针对深度学习模型开发和部署进行了优化。

未来,英特尔和Habana团队非常期待再次提交的英特尔AI产品组合解决方案的MLPerf测试结果。

审核编辑:汤梓红

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分