2025全球AI芯片峰会(GACS 2025)近日在上海召开,爱芯元智联合创始人、副总裁刘建伟出席活动,并于“大模型AI芯片专题论坛”发表主题演讲,分享了公司如何凭借高智价比AI芯片重塑“云-边-端”算力格局,推动AI规模化落地与产业智能化转型。
当前,AI规模化落地面临三大挑战:可靠性、易用性、经济性。具体而言,数据隐私要求计算本地化处理,实时响应需求推动近端算力部署,而成本约束则限制了通用芯片在边缘侧的大规模使用。过去,端侧AI芯片主要跑传统CNN模型,场景明确,而大模型的兴起则提升了AI上限,大模型正加速从云端向边缘和终端迁移——在智慧医疗、智能家居、智慧康养等场景中,对算力、能效和内存访问的空前需求,驱动着AI芯片架构的革新,边缘AI算力已从单点突破到全面落地。
在刘建伟看来,当AI应用规模足够大时,现有运行架构不是最高效的,值得重新设计更适合运行AI程序的原生处理器。为此,爱芯元智选择从端侧和边缘侧入手做AI基建,推出了搭载自研“爱芯通元AI处理器”的AI芯片。该芯片从设计之初就为AI垂直场景量身定制,旨在高效处理AI负载,采用“算子指令集+数据流DSA微架构”双核心逻辑,显著提升智价比,为边缘端侧复杂AI模型的部署提供更加经济、高效和环保的解决方案:
算子指令集:支持包括Conv、Transformer、LSTM等在内的超百种AI算子,覆盖图像、视频、文本处理及多模态融合任务,并原生适配DeepSeek、Qwen、Llama等主流大模型架构,为边缘侧大模型落地奠定坚实基础。
异构多核架构:集成高效张量核、灵活向量核及高带宽数据引擎,支持4bit/8bit/16bit/32bit等混合精度计算,同时实现高性能、低功耗、智价比。高性能硬件多核调度器,可优化数据依赖关系,显著提升算力利用效率。
成熟工具链生态:提供从模型量化、编译优化到部署上线的全流程工具链,兼容PyTorch、TensorFlow、ONNX等主流框架,大幅提升模型适配效率与开发体验。
大模型的快速发展,驱动着“云-边-端”融合加速演进,成为AI落地的新范式。在云端进行模型推理,成本、功耗日益攀升,影响AI应用的落地及规模化扩展。爱芯元智推出的原生AI处理器以极致Token/$效益,能效上的显著优势,全面支持智能任务的高效运行,为客户提供符合经济原则的算力基建。目前,这一AI处理器已完成高、中、低的完整算力布局,并已在多个领域实现规模化量产。其能效比较传统GPGPU提升了一个数量级,在以文搜图、通用检测、以图生文、AI Agent等应用中,帮助开发者以更具智价比实现高效创新。
AI计算在未来将趋于专用化加速,从云上的超大规模推理,到边缘侧的实时推理,再到终端设备上的即时响应;从刷脸支付到辅助驾驶,从工业质检到农业分选,从智慧家庭再到数据中心,AI正逐步在千行百业中成为提升行业效率的“专家”。爱芯元智已打造了从工具链到芯片的完整软硬件体系,携手合作伙伴共同构建边缘智能共同体,推动边缘智能生态繁荣发展。
展望未来,爱芯元智将继续秉持“普惠AI,造就美好生活”的使命,把算力做到更具智价比,持续降低应用落地门槛,让AI触手可及,最终实现“万物智能”。
全部0条评论
快来发表一下你的评论吧 !