关于“AI(人工智能)芯片”基础知识的详解; 【博主简介】本人“爱在七夕时”,系一名半导体行业质量管理从业者,旨在业余时间不定期的分享半导体行业中的:产品质量、失效分析、可靠性分析和产品基础应用等相关知识。常言:真知不问出处,所分享的内容如有雷同或是不当之处,还请大家海涵。当前在各网络平台上均以此昵称为ID跟大家一起交流学习!

谈到AI,相信现在很多人都不陌生了,因为AI已经渗透到我们生活的方方面面。从语音助手、图像识别到智能推荐系统,AI技术正越来越多地应用于我们的日常生活。我们能够通过语音指令控制智能家居,让机器人帮助我们打扫房间,还能通过人脸识别解锁手机。AI与物联网、大数据等技术的结合,正在为我们创造出更加智能化和便捷的世界。
同时,AI的兴起也被视为第四次工业革命的重要驱动力之一。它不仅改变着我们的生活方式,还影响着产业结构和社会发展。在医疗领域,AI辅助诊断和精准治疗正在帮助医生提高效率和准确性。在交通领域,自动驾驶技术正逐渐成为现实,为我们的出行带来了更高的安全性和便利性。而在教育、金融、农业等各个领域,AI也展示出巨大的潜力和创新空间。
那具体来讲,什么是AI?AI能如此强大又靠的是什么呢?这就是今天我要跟大家分享的内容:
一、AI的定义
AI,英文全称为:Artificial Intelligence,简称:AI,中文全称为:人工智能。它是计算机科学的一个分支,旨在使计算机模拟和仿效人类智能。通过模拟人类的思维、学习和判断能力,AI可以自主地处理和解决各种复杂问题,为人类带来了前所未有的便造力。
众所周知,AI的三大基础要素是数据、算法和算力,而这三大要素的核心就是AI芯片技术。随着各项基于AIGC前沿科技的广泛应用,AI对于算力的要求开始不断地快速攀升。特别是深度学习成为当前AI研究和运用的主流方式,目前通用的CPU可以拿来执行AI的算法。但是因为内部有大量的非运算逻辑,而这些指令级对于目前的AI算法来说是完全用不上的,所以CPU并不能达到最高的运算效率。因此,具有海量并行计算能力并且能够加速AI计算的AI芯片应运而生。
二、什么是AI芯片
从广义上讲,能运行AI算法的芯片都叫AI芯片。目前通用的CPU、GPU、FPGA等都能执行AI算法,只是执行效率差异较大。
但狭义上讲一般将AI芯片定义为“专门针对AI算法做了特殊加速设计的芯片”。
目前AI芯片的主要用于语音识别、自然语言处理、图像处理等大量使用AI算法的领域,通过芯片加速提高算法效率。AI芯片的主要任务是矩阵或向量的乘法、加法,然后配合一些除法、指数等算法。AI算法在图像识别等领域,常用的是CNN卷积网络,一个成熟的AI算法,就是大量的卷积、残差网络、全连接等类型的计算,本质是乘法和加法。
对汽车行业而言,AI芯片的主要用于就是处理智能驾驶中环境感知、传感器融合和路径规划等法带来的大量并行计算需求。
AI芯片可以理解为一个快速计算乘法和加法的计算器,而CPU要处理和运行非常复杂的指令集,难度比AI芯片大很多。GPU虽然为图形处理而设计但是CPU与GPU并不是专用AI芯片,其内部有大量其他逻辑来实现其他功能,这些逻辑对于目前的AI算法来说完全无用。
目前经过专门针对AI法做过开发的GPU应用较多,也有部分企业用FPGA做开发,但是行业内对于AI算法必然出现专用AI芯片。
三、为什么要用AI芯片
人工智能从功能上来看包括推理和训练两个环节,智能驾驶行业亦然。在训练环节,通过大数据训练出一个复杂的神经网络模型,目前大部分企业在训练环节主要使用英伟达的GPU集群完成。推理环节是指利用训练好的模型,使用大量数据推理出各种结论。因此,训练环节对芯片的算力性能要求比较高推理环节对简单指定的重复计算和低延迟的要求很高。
从应用场景来看,人工智能芯片应用于云端和设备端,在智能驾驶领域同样具备云服务器和车载的各种计算平台或域控制器,在智能驾驶深度学习的训练阶段需要极大的数据量和大量运算,单一处理器无法独立完成,因此训练环节只能在云服务器实现。相对的在设备端即车上,各种ECU、DCU等终端数量庞大,而且需求差异较大。因此,推理环节无法在云端完成,这就要求车上的各种电子单元、硬件计算平台或域控制器有独立的推理计算能力,因此必须要有专用的AI芯片来应对这些推理计算需求。
传统的CPU、GPU都可以拿来执行AI算法,但是速度慢,性能低,尤其是CPU,在智能驾驶领域无法实际投入商用。
比如,自动驾驶需要识别道路、行人、红绿灯等路况和交通状况,这在自动驾驶算法里面都是属于并行计算,如果是CPU去执行计算,那么估计车撞到人了也没算出来个结果,CPU并行计算速度慢属于先天不足。如果用GPU速度要快得多,毕竟GPU专为图像处理并行计算设计,但是GPU功耗过大,汽车的电池无法长时间支撑正常使用,而且GPU价格相对较高,用于自动驾驶量产的话普通消费者也用不起。另外,GPU因为不是专门针对AI算法开发的ASIC,执行AI计算的速度优势还没到极限,还有提升空间。
在智能驾驶这样的领域,环境感知、物体识别等深度学习应用要求计算响应方面必须快!时间就是生命,慢一步就有可能造成无法挽回的情况,但是保证性能快效率高的同时,功耗不能过高,不能对智能汽车的续航里程造成较大影响,也就是AI芯片必须功耗低,所以GPU不是适合智能驾驶的最佳AI芯片选择。因此开发ASIC就成了必然。
四、AI芯片的发展历程
从图灵的论文《计算机器与智能》和图灵测试,到最初的神经元模拟单元感知机,再到现在多达上百层的深度神经网络,人类对人工智能的探索从来都没有停止过。上世纪80年代,多层神经网络和反向传播算法的出现给人工智能行业点燃了新的火花。
1989年,贝尔实验室成功利用了反向传播算法在多层神经网络开发了一个手写邮编识别器。
1998年,两位人工智能科学家杨立坤和约书亚·本杰奥发表了手写识别神经网络和反向传播优化相关的论文,开创了卷积神经网络的时代。此后,人工智能陷入了长时间的发展沉寂阶段,直到1997年IBM的深蓝战胜了国际象棋大师,和2011年IBM的沃森智能系统在《危险边缘》节目中胜出,人工智能才又一次被人们所关注。
2016年,阿尔法狗击败了韩国围棋九段的职业选手,就标志着人工智能的又一波高潮。从基础算法、底层硬件和工具框架到实际的应用场景,现阶段的人工智能领域已经全面开花。作为人工智能核心的底层硬件,AI芯片同样也经历了多次的起伏和波折。总体来看,AI芯片的发展前后经历了四次大的变化。
2007年以前,AI芯片产业一直没有发展成为成熟的产业,同时由于当时的算法、数据量等因素,这个阶段的AI芯片并没有特别强烈的市场需求,通用的CPU芯片即可满足应用需求。随着高清视频、VR、AR、游戏等行业的发展,GPU产品得到了快速的突破,同时人们发现GPU的并行计算特性恰好适应人工智能算法及大数据并行计算的需求。如GPU比之前传统的CPU在深度学习算法的运算上可以提升几十倍的效率,因此开始尝试使用GPU进行人工智能计算。
进入2010年后,云计算开始广泛推广,人工智能的研究人员通过云计算借助大量的CPU和GPU进行混合运算,进一步推进了AI芯片的深入应用,从而催生了各类AI芯片的研发和应用。人工智能对于计算能力的要求在不断地提升。
进入2015年后,GPU性能功耗比不高的特点使其在工作适用场合受到多种限制,业界开始研发针对人工智能的专用芯片,以其通过更好的硬件和芯片架构在计算效率、能耗比等性能上得到进一步的提升。
五、AI芯片的基础知识
关于“AI(人工智能)芯片”基础知识的详解;mp.weixin.qq.com/s/qn2Cpx7LkRwAWz00oIKZYg?token=1423444785&lang=zh_CN
六、总结一下
众所周知,通用处理器(CPU)的摩尔定律已入暮年,而机器学习和Web 服务的规模却在指数级增长。
人们使用定制硬件来加速常见的计算任务,然而日新月异的行业又要求这些定制的硬件可被重新编程来执行新类型的计算任务。
将以上四种架构对比,GPU未来的主攻方向是高级复杂算法和通用性人工智能平台,其发展路线分两条走:一是主攻高端算法的实现,对于指令的逻辑性控制要更复杂一些,在面向需求通用的AI计算方面具有优势;二是主攻通用性人工智能平台,GPU的通用性强,所以应用于大型人工智能平台可高效完成不同的需求。FPGA更适用于各种细分的行业,人工智能会应用到各个细分领域。
ASIC芯片是全定制芯片,长远看适用于人工智能。现在很多做AI算法的企业也是从这个点切入。因为算法复杂度越强,越需要一套专用的芯片架构与其进行对应,ASIC基于人工智能算法进行定制,其发展前景看好。类脑芯片是人工智能最终的发展模式但是离产业化还很遥远。
几个品牌的SOC及域控制器做的还是不错的尤其是基于NVIDIA Xavier以及前期PX2等芯片的开发。国内大部分企业的应用比较集中在Xavier平台和Linux系统,尤其是新势力造车企业,而传统车企更青睐T1、瑞萨等半导体公司的智能AI芯片以及QNX系统。国内基于Xavier做开发的企业很多,天津优控智行目前的域控制器产品在行业内属于中等偏上水平,但是其软件工具和服务做得相对有些优势,后期有时间也扒一扒地平线、智行者等企业的域控制器学习学习。
写在最后的话
AI芯片的发展向着更低功耗、更接近人脑、更靠近边缘的方向发展。现在用于深度学习的AI芯片,为了实现深度学习的庞大乘积累加运算和实现计算的高性能,芯片面积越做越大,带来了成本和散热等问题。AI芯片编程的成熟度和芯片的安全以及神经网络的稳定性等问题也都未能得到很好的解决。因此在现有的基础上进行改进和完善此类芯片,仍然是当前的主要研究方向。最终,AI芯片将进一步提高智能,向着更接近人脑的高度智能方向不断发展,并且向着边缘逐步移动,以获得更低的能耗。AI芯片的发展,计算范式随着创新方向以及硬件实现,AI硬件加速技术已经逐渐走向成熟。未来可能会有更多的创业会来自电路和器件级技术的结合,比如存内计算、类脑计算,或者是针对特殊的计算模式或者是新模型,还会有稀疏化计算和近似计算。关于深度计算的研究,也将持续进行。

免责声明
【我们尊重原创,也注重分享。文中的文字、图片版权归原作者所有,转载目的在于分享更多信息,不代表本号立场,如有侵犯您的权益请及时私信联系,我们将第一时间跟踪核实并作处理,谢谢!】
审核编辑 黄宇
全部0条评论
快来发表一下你的评论吧 !