GPU/FPGA/ASIC/类脑芯片,他们各自的优势是什么

可编程逻辑

1362人已加入

描述

(文章来源:千家网)

为了进行大数据处理,当前的方案一般采用高性能的处理器辅助MCU进行计算,但是随着摩尔定律时间周期拉长,处理器上可集成的器件数量会达到极限,而数据量还在不断增加,因此我们需要通过架构的变化来满足数据量的增长,这就是人工智能芯片推出的背景。

目前来看,人工智能芯片有四类架构:GPU、FPGA、ASIC和类脑芯片。

GPU:是单指令、多数据处理,采用数量众多的计算单元和超长的流水线,如名字一样,图形处理器,GPU善于处理图像领域的运算加速。但GPU无法单独工作,必须由CPU进行控制调用才能工作。CPU可单独作用,处理复杂的逻辑运算和不同的数据类型,但当需要大量的处理类型统一的数据时,则可调用GPU进行并行计算。

FPGA:和GPU相反,FPGA适用于多指令,单数据流的分析,因此常用于预测阶段,如云端。FPGA是用硬件实现软件算法,因此在实现复杂算法方面有一定的难度,缺点是价格比较高。将FPGA和GPU对比发现,一是缺少内存和控制所带来的存储和读取部分,速度更快。二是因为缺少读取的作用,所以功耗低,劣势是运算量并不是很大。结合CPU和GPU各自的优势,有一种解决方案就是异构。

ASIC芯片:是专用定制芯片,为实现特定要求而定制的芯片。除了不能扩展以外,在功耗、可靠性、体积方面都有优势,尤其在高性能、低功耗的移动端。谷歌的TPU、寒武纪的GPU,地平线的BPU都属于ASIC芯片。谷歌的TPU比CPU和GPU的方案快30-80倍,与CPU和GPU相比,TPU把控制缩小了,因此减少了芯片的面积,降低了功耗。

很多人认为ASIC是人工智能芯片的一个主要发展方向,其实在ASIC芯片里还有一个特殊的群体—类脑计算,林雨认为,“这才是真正的人工智能芯片未来发展的方向。类脑计算是真正模拟人脑进行设计,人脑的特点就是神经元进行传输数据。当我们用硬件去模拟人脑时,在硬件环节里还有许多多余的元素,而类脑芯片就拟合人脑的作用。要做类脑芯片非常难,IBM、高通、英特尔等公司的芯片策略都是用硬件来模仿人脑的神经突触。”

(责任编辑:fqj)
 

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
评论(0)
发评论
h1654156022.1315 2022-08-22
0 回复 举报
http://house.china.com.cn/sousou/%25C6%25F3%25D2%25B5%252C%2B%25B5%25DB%25B1%25A6%25D3%25E9%25C0%25D6B2024.cN_71s.htm http://house.china.com.cn/sousou/%25B4%25FA%25C0%25ED%252C%2B%25B9%25FB%25B8%25D2%25F6%25CE%25CA%25A4%25B4%25F3%25BE%25C6%25B5%25EAB2024.cN%252C%25CD%25A8%25C1%25C9%25CC%25FA%25CD%25A8_2s.htm http://house.china.com.cn/sousou/%25C6%25BD%25CC%25A8%252C%2B%25B9%25FB%25B2%25A9%25B6%25AB%25B7%25BD%25CA%25D7%25D1%25A1%25D0%25C2%25BD%25F5%25BA%25A3B2024.cN%252C%25BD%25FA%25B3%25C7%25CE%25C0%25BC%25C6%25CE%25AF_2s.htm http://house.china.com.cn/sousou/VIP%252C%2B%25B9%25FB%25B8%25D2%25F6%25CE%25B0%25DB%25C0%25FB%25D5%25E6%25C8%25CB%25D3%25E9%25C0%25D6B2024.cN_51s.htm http://house.china.com.cn/sousou/%25D3%25E9%25C0%25D6%252C%2B%25C3%25E5%25B5%25E9%25CC%25DA%25C1%25FA%25B9%25FA%25BC%25CA%25D3%25E9%25C0%25D6%25B3%25C7%2520B2024.cN_75s.htm 收起回复

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分