基于Ampere Altra 系列处理器的一系列平台为 AI 高效赋能

描述

9 月,以“算力使能,开放无限”为主题的 2023 开放数据中心大会(ODCC)于北京成功举行,Ampere 首度亮相,展示了创新展品并发表精彩演讲,畅谈 AI 的可持续发展之路。

围绕“低能耗,‘芯’未来”的主题,Ampere 在本次活动上展示了基于 Ampere Altra 系列处理器的一系列平台。凭借高性能、低功耗、可扩展性等卓越特性,基于 Ampere Altra 系列处理器的创新平台为 Web 应用、大数据、数据库、AI 及编解码等领域提供强大助力。创新的展品吸引了众多参观者的驻足围观。

 

 

 

 

 

 

 

 

 

论道可持续,为 AI 高效赋能

随着大模型和下游应用的飞速发展,高性能算力呈现出爆发趋势。数据中心需要支撑起强大算力,同时也要承载巨大的能耗压力。在此背景下,数据中心需要找到破局之道,既能满足巨大的算力需求,又能实现可持续发展。

在“数据中心设施分论坛”上,Ampere 产品技术总监孙开本先生发表了以“可持续的数据中心始于高效计算”为题的演讲,介绍了大模型发展浪潮对算力的需求、对数据中心的影响、数据中心面临的可持续性挑战,以及 Ampere 云原生处理器如何赋能高效、绿色的数据中心。

 

AI 的快速发展对于数据中心产生了巨大的影响。长期以来,AI 都是驱动数据中心算力需求提升的重要引擎之一,而生成式 AI 则进一步加速了市场对算力的需求。

面对当前 AI 发展带来的算力需求飙升,孙开本表示:

相比高成本、高能耗的传统处理器,Ampere 云原生处理器是理想方案,能够助力打造高能效、高性能的 AI 推理应用。在 AI 推理方面,Ampere Altra 系列处理器拥有显著的性能优势,针对计算机视觉工作负载,性能最高可提升 4 倍;针对常见的 NLP 工作负载,每瓦性能最高可提升 3 倍。

然而,与传统计算相比,运行 AI 所需的能耗更高,导致数据中心巨大的电力支出,大模型训练也面临着昂贵的成本。Ampere 云原生处理器兼具高性能与低能耗的综合优势,打破了传统架构带来的限制,能够助力数据中心效率提升三倍,为AI发展提供可持续、高效的助力。孙开本指出:

Ampere 云原生处理器提供的单机架性能是传统架构的 2.5 倍,能耗降低为传统架构的 2.8 倍,且仅占用其 1/3 的机架空间,可帮助大幅降低数据中心运营成本,为 AI 推理、AI 训练、大语言模型提供高性能、可持续的算力支持。

奔赴 AI 可持续未来

随着 AI 的不断发展、“碳中和”战略部署落地,如何构建可持续数据中心、助力 AI 的绿色发展成为行业关注的议题。Ampere 将继续兑现对性能和可持续发展的承诺,不断向用户提供环境友好的高性能系列微处理器,突破能耗的限制,携手客户和合作伙伴,推动 AI 和计算行业绿色、高效的发展!

        审核编辑:彭菁

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分