新品上线|Maix4-HAT 大模型 AI 加速套件 ,一键解锁树莓派多模态 AI 力量!

描述

   还在为边缘端的大模型运行发愁?

还在为算力不够、模型太大束手无策?

 

Maix4-HAT 搭载爱芯元智第三代 AX650 芯片,支持一板两用,不仅是你树莓派5 的 PCIe AI HAT 的算法加速模块,更是一个可以独立运行 LLM模型的微型 AI 模组,目前套餐首发价格低至999元!

NPU 算力高达 72TOPS @ INT4 / 18TOPS @ INT8配备 64bit LPDDR4X 高速内存,最高 8GB RAM 模块

尺寸仅 56mm x 65mm,便于嵌入各种终端设备

大模型

   支持主流多模态大模型本地加速部署

LLM支持:Qwen-3、DeepSeek-R1-Distill

先进视觉模型:YOLO-World、DepthAnything v2

语音模型:Whisper、MeloTTS

多模态模型:InternVL3-1B、SD v1.5

支持「一板两用」,开发方式灵活

树莓派 AI 加速 HAT

专为树莓派5设计,完美适配 PCIe 接口

即插即用,被识别为独立 NPU 协处理器

支持通过 axcl 库直接调用 NPU 进行模型推理

独立运行的端侧大模型开发板

离线运行 LLM,无需依赖云端

可作为简易 AI 开发平台使用

体积小巧,适配嵌入式智能终端设备

应用场景实例

智能家居

YOLO-World 实时物品识别

DeepSeekR1/Qwen3 语音交互

本地ASR+LLM+TTS 智能助理

工业应用

DepthAnythingv2 实现深度测量动图

支持 32 路 1080P 视频分析

教育/科研/创客项目

开箱即用Ubuntu

系统丰富的wiki及详细文档

热门大模型持续更新

是高校科研/AI 教育平台的理想硬件载体


 

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分