第二代Tensor处理单元TPU 用AI帮你看世界!

人工智能

621人已加入

描述

  Google这是要上天啊!

  之前发布的Google Lens可以用AI帮你看世界:用镜头扫一扫路边的野花,马上告诉你这是什么品种。

  扫一扫路由器条形码,就能自动连上WIFI:

  扫一扫路边的餐厅,立马跳出该餐厅的评分信息等:

  还能去掉照片中乱七八糟的东西,秒杀修图软件:

  对了,它还可以和谷歌翻译结合,扫一扫立马切换语言:

  狂甩苹果Siri几条街的节奏啊!

  发布会下来,很多用户被Google Assistant的智能程度吓到了。

  这些强大的人工智能靠的是强大的第二代Tensor处理单元TPU。它能有效地将Google服务器变为具有11.5千万亿次浮点计算能力的超级计算机。

  第二代TPU被称作“CloudTPU”,将通过谷歌云平台向所有人开放。谷歌云平台的开发者仍可以使用传统芯片去进行设计,如英伟达VoltaGPU或者英特尔Skylake等。这是一个云计算硬件和软件系统,主要是为了提高机器学习计算处理所需要的大量负载,包括训练和推理。

  TPU为专用的逻辑电路,单一工作,速度快,但由于其实ASIC,所以成本高。第一代TPU带来了突破性进步,但并不是会完全淘汰CPU和GPU,主要是用来解决集成电路存在的成本高、耐用性差的问题。

  而而第二代TPU设备,可提供高达每秒180万亿次浮点运算的性能。CloudTPU的最大好处,则是谷歌的开源机器学习框架TensorFlow。开发人员和研究者使用高级API变成这些TPU,可以更轻松地在CPU、GPU或CloudTPU上训练机器学习模型,而且只需很少的代码更改。Google还为每个TPU设计了一个定制的高速网络,可以组合构建一个名为“CloudTPUpod”的机器学习超级计算机。每一个CloudTPUpod包含64个第二代TPU,将Google服务器变为了具有每秒11.5千万亿次浮点计算能力的超级计算机,可用于训练单一的大型机器学习模型,或多个较小的模型。谷歌表示,如果想要训练最新的大规模翻译模型,那么使用32颗全球最强大的商用GPU需要一整天时间,而CloudTPUpod却只需要1/8的性能,就能在6小时内完成对该模型的训练。据称,谷歌还在研发由数以千计的TPU组成的TensorFlowResearchCloud。

  发布第二代TPU:将成为英伟达最大威胁?

  发布了第二代的 Tensor 处理单元(TPU),这是一个云计算硬件和软件系统,它将上线 Google Cloud,被称为 Cloud TPU,主要是为了提高机器学习计算处理所需要大量的负载,包括训练和推理,这个可以说是为 Google 云计算平台带来的巨大福音。这次新的 TPU 设备可提供高达每秒 180 万亿次浮点运算的性能。

  据说:第二代TPU的速度比Nvidia最新的Tesla V100还快5倍!

  第二代 TPU 设备单个的性能就能提供高达 180 teraflops 的浮点计算量。不仅如此,谷歌还将这些升级版的 TPU 集成在一起成为 Cloud TPU。每个 TPU 都包含了一个定制的高速网络,构成了一个谷歌称之为“TPU pod”的机器学习超级计算机。一个TPU pod 包含 64 个第二代TPU,最高可提供多达 11.5 petaflops,加速对单个大型机器学习模型的培训。

  Pichai 还在演讲中表示,使用 TPU pods,谷歌已经大幅提升了训练神经网络的时间。谷歌的一个新的大型翻译模型,以前要 32 颗商业上最好的 GPU 花费一整天的时间来训练——现在,只需一个下午,8 个第二代 TPU 就能达到同样的训练精度。这等于向市场宣布“英伟达的GPU,去你的!”

  AI将越来越快颠覆人类社会秩序,Google Assistant这样可怕的人工智能将会逐步掌控我们的生活!

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分