可编程逻辑
(文章来源:千家网)
为了进行大数据处理,当前的方案一般采用高性能的处理器辅助MCU进行计算,但是随着摩尔定律时间周期拉长,处理器上可集成的器件数量会达到极限,而数据量还在不断增加,因此我们需要通过架构的变化来满足数据量的增长,这就是人工智能芯片推出的背景。
目前来看,人工智能芯片有四类架构:GPU、FPGA、ASIC和类脑芯片。
GPU:是单指令、多数据处理,采用数量众多的计算单元和超长的流水线,如名字一样,图形处理器,GPU善于处理图像领域的运算加速。但GPU无法单独工作,必须由CPU进行控制调用才能工作。CPU可单独作用,处理复杂的逻辑运算和不同的数据类型,但当需要大量的处理类型统一的数据时,则可调用GPU进行并行计算。
FPGA:和GPU相反,FPGA适用于多指令,单数据流的分析,因此常用于预测阶段,如云端。FPGA是用硬件实现软件算法,因此在实现复杂算法方面有一定的难度,缺点是价格比较高。将FPGA和GPU对比发现,一是缺少内存和控制所带来的存储和读取部分,速度更快。二是因为缺少读取的作用,所以功耗低,劣势是运算量并不是很大。结合CPU和GPU各自的优势,有一种解决方案就是异构。
ASIC芯片:是专用定制芯片,为实现特定要求而定制的芯片。除了不能扩展以外,在功耗、可靠性、体积方面都有优势,尤其在高性能、低功耗的移动端。谷歌的TPU、寒武纪的GPU,地平线的BPU都属于ASIC芯片。谷歌的TPU比CPU和GPU的方案快30-80倍,与CPU和GPU相比,TPU把控制缩小了,因此减少了芯片的面积,降低了功耗。
很多人认为ASIC是人工智能芯片的一个主要发展方向,其实在ASIC芯片里还有一个特殊的群体—类脑计算,林雨认为,“这才是真正的人工智能芯片未来发展的方向。类脑计算是真正模拟人脑进行设计,人脑的特点就是神经元进行传输数据。当我们用硬件去模拟人脑时,在硬件环节里还有许多多余的元素,而类脑芯片就拟合人脑的作用。要做类脑芯片非常难,IBM、高通、英特尔等公司的芯片策略都是用硬件来模仿人脑的神经突触。”
(责任编辑:fqj)
全部0条评论
快来发表一下你的评论吧 !