研华边缘AI平台测试DeepSeek蒸馏版模型的最新数据

描述

来源:研华工业物联网

本期导读

随着Deepseek大模型的横空出世,预计对整个工业领域会产生颠覆性的影响力,尤其针对边缘部署部分独创动态剪枝与量化技术,DeepSeek大模型支持在边缘设备低功耗运行(最低适配5 TOPS算力硬件),推理速度能够提升3倍。

研华选择了多款基于英伟达技术的边缘AI产品,针对目前DeepSeek-R1 系列的不同蒸馏模型进行测试,下面让我们来看下最新测试数据!

微型边缘端推理应用

算力100 TOPS

推荐型号:

基于ARM平台AI Box:ICAM-540 /MIC-711 / MIC-713

支持DeepSeek-R1蒸馏模型版本:

DeepSeek-R1-Distill-Qwen-1.5B

DeepSeek-R1-Distill-Qwen-7B

DeepSeek-R1-Distill-Llama-8B

测试型号:MIC-711

DeepSeek

*同时在MIC-711-OX4A 开启了Super Mode来跑同样的模型, 在整体效能上有提升了将近25%, 这也表示了 Jetson super mode在AI应用上有明显的效能增强。

边缘端推理应用

算力100-500 TOPS

推荐型号:

基于ARM平台Edge AI Box:MIC-732/MIC-733/736

基于X86平台 Edge AI Box:MIC-770V3

Edge AI 服务器 :HPC-6240/HPC-7420/SKY-602E3 (支持1-4张GPU卡) 

支持DeepSeek-R1蒸馏模型版本:

DeepSeek-R1-Distill-Qwen-1.5B

DeepSeek-R1-Distill-Qwen-7B

DeepSeek-R1-Distill-Qwen-14B

DeepSeek-R1-Distill-Llama-8B

测试型号:MIC-770V3

DeepSeek

*DeepSeek-R1:32b于此系统配置下使用约18GB VRAM,可正常运行,但相同LLM model放在较高阶显卡上测试时VRAM使用达到21GB 故猜测模型会自动调整参数降低VRAM使用量,但在效能会有其影响。

高性能边缘AI服务器

算力500-1000+ TOPS

推荐型号:

Edge AI 服务器 :HPC-6240 /HPC-7420/SKY-602E3  (支持1-4张GPU卡)

支持DeepSeek-R1蒸馏模型版本:

DeepSeek-R1-Distill-Qwen-14B

DeepSeek-R1-Distill-Qwen-32B

DeepSeek-R1-Distill-Llama-70B

测试型号:SKY-602E3

DeepSeek

研华全栈式边缘AI平台

以“边缘原生智能”重塑工业生产力

研华打造了全栈式边缘AI硬件矩阵,从微端到边缘云:包括AI模块、AI板卡、AI 加速卡、AI 嵌入式和工业平台,AI边缘平台、边缘AI服务器,乃至边缘整机柜服务器。算力范围从5 TOPS至2000+TOPS,用户可根据业务场景灵活选型,实现精度与效率的最佳平衡。研华希望与伙伴携手,以“边缘原生智能”重塑工业生产力!

如果您对研华基于英伟达技术边缘AI产品感兴趣,可以点击阅读原文下载型录资料,也可以联系研华在地业务,咨询产品相关资讯。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分