×

人工智能深度学习处理架构的演进GPU功耗和延迟问题如何解决

消耗积分:0 | 格式:rar | 大小:0.53 MB | 2018-09-07

分享资料个

  人工智能由三方面共同组成,算法、数据以及计算平台

  现在虽然人工智能是个热门概念,但很多人误以为“人工智能等于深度学习”,但其实人工智能的范围大于机器学习,机器学习的范围又大于深度学习。

  神经网络的概念并不新颖,Yann LeCun在1998年就提出了MNIST数据集和CNN

  2012年时,Google X启动了“猫脸识别计划”,吴恩达和Jeff Dean用了1000台分布式服务器和一万六千个CPU。同期的AlexNet只需要1台服务器、2个GPU就训练出来了。

  GPU确实给整个行业带来了很大的变化,那么GPU真的就足够了吗?

  GPU的话,功耗和延迟都会是严重的问题,问题在哪儿呢?

 

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

评论(0)
发评论

下载排行榜

全部0条评论

快来发表一下你的评论吧 !