谷歌最强大的定制设计人工智能加速器—TPU v5p芯片

电子说

1.3w人已加入

描述

谷歌正迅速成为 BFF Nvidia 的强大对手——为其超级计算机提供动力的 TPU v5p AI 芯片速度更快,内存和带宽比以往任何时候都多,甚至击败了强大的 H100

TPU v5p——谷歌最强大的定制设计人工智能加速器——已被部署为该公司的“人工智能超级计算机”提供动力。 这是一种专门为运行人工智能应用程序而构建的超级计算架构,而不是通常运行科学工作负载的超级计算机,因为 TPU 不适合于此。

最新版本的 TPU 每个 Pod 有 8,960 个芯片(构成系统),而 v4 中有 4,096 个芯片,并且就每个 Pod 的 FLOP 总可用性而言,其可扩展性是其四倍。 这些新 Pod 提供 4,800Gbps 的吞吐量。 新 Pod 还配备 95GB 高带宽内存 (HBM),而 TPU v4 中则配备 32GB HBM RAM。​

与Nvidia 提供 GPU 供其他公司购买不同,谷歌的定制 TPU 仍保留在内部,供其自己的产品和服务使用。 谷歌的 TPU 长期以来一直用于为其 Gmail、YouTube 和 Android 等服务提供支持,最新版本也用于训练 Gemini。

它的功能甚至足以与 Nvidia 广受欢迎的 H100 GPU 相媲美,后者是处理 AI 工作负载的最佳显卡之一。 根据该公司自己的数据,该组件在训练工作负载方面比 Nvidia 的 A100 GPU 快四倍。

与此同时,根据 4 月份发布的研究显示,谷歌 TPU v4 的速度预计比 A100 快 1.2 至 1.7 倍。 因此,令人难以置信的粗略计算表明,TPU v5p 的速度大约是 A100 的 3.4 到 4.8 倍,这使其与 H100 相当!







审核编辑:刘清

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分