Google在最新一轮MLPerf基准测试中推出最新的Tensor处理单元芯片

电子说

1.2w人已加入

描述

近日, Google AI负责人Jeff Dean发推文表示,在最新一轮MLPerf基准测试中,Google新的ML超级计算机和最新的Tensor处理单元(TPU)芯片,打破了6项MLPerf基准测试记录。

这6个模型分别是用于排名与推荐的DLRM模型;常用于自然语言处理的Transformer;还有Google搜寻所使用的BERT模型;广泛用于图像分类的ResNet-50模型;可在移动设备上执行的轻量级物体侦测模型SSD;以及图像分割模型Mask R-CNN。

Google

谷歌在博客中披露,该超级计算机包括4096个TPU V3芯片和CPU数百个主机上的,并提供超过430 PFLOPs的峰值性能。较前一代TPU v3相比,拥有两倍的矩阵乘法效能,而且存储器频宽大幅增加,内部相连技术也获得改善,利用MLPerf基准测试比较TPU v4和TPU v3,TPU v4平均效能提升2.7倍,最大的效能差异是用于训练Mask R-CNN,TPU v4的效能是TPU v3的3.7倍。

Google使用TensorFlow、JAX和Lingvo中的机器学习模型实作,从零开始训练Transformer、SSD、BERT以及ResNet-50模型,训练时间皆在30秒之内。而在2015年时,即便用最快的硬件加速器,训练其中一种模型,都需要花费3个多星期,现今相当于把相同模型的训练速度提升5个数量级。
       责任编辑:pj

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分