集成芯原神经网络处理器IP的AI类芯片已在全球范围出货超1亿颗

描述

2024年2月29日,中国上海——芯原股份 (芯原,股票代码:688521.SH) 今日宣布集成了芯原神经网络处理器 (NPU) IP的人工智能 (AI) 类芯片已在全球范围内出货超过1亿颗,主要应用于物联网、可穿戴设备、智慧电视、智慧家居、安防监控、服务器、汽车电子、智能手机、平板电脑、智慧医疗等10个市场领域。在过去七年里,芯原在嵌入式AI/NPU领域全球领先,其NPU IP已被72家客户用于上述市场领域的128款AI芯片中。

芯原的NPU IP是一款高性能的AI处理器IP,采用了低功耗、可编程和可扩展的架构设计。它可以灵活配置,以满足客户对芯片尺寸和功耗的不同要求,使之成为具有成本效益的神经网络加速引擎。该IP还配备了广泛且成熟的软件开发工具包 (SDK),支持所有主流的深度学习框架,以确保客户产品能够快速投放市场。

芯原最新推出的VIP9000系列NPU IP提供了可扩展和高性能的处理能力,适用于Transformer和卷积神经网络 (CNN)。结合芯原的Acuity工具包,这款强大的IP支持含PyTorch、ONNX和TensorFlow在内的所有主流框架。此外,它还具备4位量化和压缩技术,以解决带宽限制问题,便于在嵌入式设备上部署生成式人工智能 (AIGC) 和大型语言模型 (LLM) 算法,如Stable Diffusion和Llama 2。

通过利用芯原的FLEXA技术,VIP9000还能与芯原的图像信号处理器 (ISP) 及视频编码器无缝集成,实现低延迟的AI-ISP和AI-Video子系统,且无需DDR内存。它还可以针对特定需求进行定制,以平衡成本和灵活性,从而适应对功耗和空间有严格限制的深度嵌入式应用环境。

“从微控制器到高性能应用处理器,AI功能已成为各类智能设备不可或缺的一部分。基于在图形处理器 (GPU) 领域的深厚技术积累,我们设计出了低功耗、可编程且可扩展的NPU处理器IP,它能高效地处理各类神经网络和计算任务,最小化数据传输,而这些都是推动嵌入式智能设备发展的关键要素。”芯原执行副总裁、IP事业部总经理戴伟进表示,“随着AI技术的快速演进,我们已经达到了类似人类的推理水平,为智能助手的发展提供了坚实的技术基础。芯原正利用自有的高效AI计算能力,以及在超过1亿颗AI类芯片中的部署经验,为嵌入式设备带来服务器级别的AIGC功能。”





审核编辑:刘清

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分