各大厂商根据自身优势选择不同技术路径,核心目标是实现低功耗、高能效的本地化AI推理:
| 厂商 | 技术方案 | 代表产品 | 性能亮点 | 适用场景 |
|---|---|---|---|---|
| ST | 自研NPU + 软件生态 | STM32N6 | 600 GOPS算力,3 TOPS/W能效比,支持TensorFlow Lite/ONNX | 工业视觉、智能家居 |
| NXP | 自研eIQ Neutron NPU | i.MX RT700/S32K5 | 172倍推理加速,能耗降至1/119,支持Transformer网络 | 汽车控制、语音交互 |
| TI | MCU + NPU协处理器 | TMS320F28P55x | 故障检测准确率99%,延迟降低5-10倍 | 工业电机控制、太阳能系统 |
| 瑞萨 | 无NPU的软硬件优化 | RA8系列 | Cortex-M85 + Helium技术,AI性能提升4倍 | 语音识别、预测性维护 |
| 芯科科技 | 超低功耗AI加速器 | xG26系列 | 8倍速度提升,功耗降至1/6,支持电池供电设备 | 物联网传感器、智能门锁 |
| 英飞凌 | 借力Arm生态(Ethos-U55 NPU) | PSOC Edge系列 | 机器学习性能提升480倍 | 入门级边缘AI设备 |
MCU内嵌AI已从技术探索迈入商业化爆发期。短期看,自研NPU(ST/NXP)、生态整合(英飞凌)、无NPU优化(瑞萨)三条路径并行;长期竞争核心在于软硬件生态成熟度与 垂直场景落地效率 。随着存算一体、5G、轻量化模型等技术的叠加,边缘智能设备将全面进入“自主认知”时代,重塑千亿级终端市场。
全部0条评论
快来发表一下你的评论吧 !