国产GPU在AI大模型领域的应用案例一览

描述

电子发烧友网报道(文/李弯弯)近一年多时间,随着大模型的发展,GPU在AI领域的重要性再次凸显。虽然相比英伟达等国际大厂,国产GPU起步较晚、声势较小。不过近几年,国内不少GPU厂商成长非常快,并且不断推出新品,产品也逐渐在各个领域取得应用,而且在大模型的训练和推理方面,也有所建树。
 
国产GPU在大模型上的应用进展
 
电子发烧友此前就统计过目前国内主要的GPU厂商,也介绍了这些厂商主要的产品及产品发布、量产进展情况。可以看到,其实近几年已经有不少产品面世并应用。
 
如沐曦集成,其N系列用于AI推理的GPU芯片早已量产。去年9月,该公司宣布,其与眸瑞科技联合发布了首个AI模型“贴图超分”技术。该技术依托曦思N系列AI推理GPU首款产品曦思N100的强大算力,结合眸瑞科技丰富的算法库资源和先进的AI超分算法,首次将AI超分成功应用到了3D模型领域。
 
曦思N100是沐曦面向人工智能推理场景推出的高效能GPU产品,针对AI推理及AI应用场景中大量的视频图像处理任务,提供强大的AI算力和视频/图像编解码功能。据称,目前沐曦已联合合作伙伴打造了多种基于曦思N100 的解决方案,如高密度视频结构化分析解决方案、高并发智能转码解决方案、光电混合异构计算解决方案等,这些方案可广泛应用于城市安防、智慧交通、工业视觉、短视频、云计算和智算中心等多个领域。
 
再如天数智芯,其提供的算力集群具有支持百亿级参数大模型训练的能力。早前有消息,天数智芯与智源研究院、爱特云翔合作,开展基于自主通用GPU的大模型CodeGen(高效编码)项目,通过中文描述来生成可用的C、Java、Python代码以实现高效编码。
 
智源研究院负责算法设计、训练框架开发、大模型的训练与调优,天数智芯负责提供天垓100加速卡、构建算力集群及全程技术支持,爱特云翔负责提供算存网基础硬件及智能化运维服务。在天垓100加速卡的算力集群,基于智源研究院70亿参数的Aquila语言基础模型,使用代码数据进行继续训练,稳定运行19天,模型收敛效果符合预期。
 
近一年多来,随着大模型的发展,国产GPU公司都在朝着大模型领域布局。摩尔线程此前也透露,公司已经可以支持3亿参数量模型的训练,2022年底就提前布局了自然语言模型预训练,自研了MusaBert模型。
 
还有登临科技,该公司此前也表示,公司首款产品Goldwasser已规模化运用在多家行业知名企业的主营业务中,新一代Goldwasser产品针对基于Transformer的网络和生成式AI类大模型的应用在性能有大幅提升。
 
国产GPU应用于AI领域的多个方面
 
除了上述谈到应用案例,国产GPU在AI领域的应用案例还有很多,主要涉及到深度学习、自然语言处理以及计算机视觉等多个方面。
 
如,在计算机视觉领域,国产GPU被广泛应用于图像识别和目标检测等任务。例如,利用GPU加速的深度学习模型可以大幅提升算法的准确性和实时性,这在安防监控、自动驾驶等实际应用中具有重要的价值。
 
在自然语言处理方面,国产GPU也在发挥重要作用。通过GPU加速的循环神经网络、Transformer等模型,可以实现高效的机器翻译、文本生成等任务。这对于提升智能客服、智能写作等应用的性能具有关键作用。
 
国产GPU还在强化学习领域得到了应用。强化学习是AI领域的一个重要分支,其目标是通过与环境的交互来学习策略。GPU加速的价值网络、策略网络等模型可以应用于游戏AI、机器人控制等领域,从而提高智能体的学习效率和性能。
 
另外值得关注的还有,国产GPU在自动驾驶领域的应用也比较多。自动驾驶系统需要处理大量的传感器数据,包括来自摄像头、雷达、激光雷达等的信息。GPU通过其强大的并行计算能力和高效的内存管理,可以实时处理这些数据,并为自动驾驶系统提供准确的决策依据。
 
例如,一些国产汽车厂商已经开始在其自动驾驶系统中采用国产GPU。这些GPU不仅用于图像处理和计算机视觉任务,如目标检测、车道线识别等,还用于深度学习模型的推理和决策。通过GPU的加速,自动驾驶系统可以更快地识别交通信号、障碍物以及其他重要信息,从而提高行车安全性。
 
此外,国产GPU还在自动驾驶的地图构建和定位方面发挥了重要作用。通过利用GPU进行高效的地图数据处理和实时定位计算,自动驾驶系统可以更加准确地感知周围环境,并实现精确的导航和路径规划。
 
具体来说,百度Apollo、小马智行等自动驾驶技术公司,都在其自动驾驶解决方案中采用了国产GPU。这些解决方案不仅应用于乘用车,还扩展到商用车、物流车等多个领域。
 
写在最后
 
从目前的情况来看,国内外GPU厂商都在追逐大模型应用带来的机会。当前无论是大模型训练还是推理,英伟达GPU都占据了绝大部分市场。对于国产厂商来说,为了在大模型方面拥有更多自主权,仍然需要持续在大模型训练方面发力,同时相对大模型训练来说,大模型接下来大面积的部署,对于推理芯片的需要将会很大,这将是一个更容易把握的机会。
打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分