海光信息DCU平台适配阿里通义Qwen3.6-35B-A3B大模型

描述

近日,阿里通义正式开源多模态智能体大模型Qwen3.6-35B-A3B,发布不到24小时,海光信息联合众智FlagOS社区完成该模型在海光DCU平台的全流程适配、精度对齐与部署验证,以Day0级响应速度,为国产AI算力生态再添关键成果。

Qwen3.6-35B-A3B作为开源稀疏MoE模型(总参数35B/ 激活参数 3B),在智能体编程、多模态感知推理、长文本理解等场景表现突出,大幅超越前代模型,可与国际主流稠密模型一较高下,是代码生成、智能运维、复杂推理等企业级生产场景的优选基座。

作为众智FlagOS社区核心成员,海光DCU依托FlagOS统一开源技术栈,本次适配实现零代码修改、开箱即用、精度无损三大核心优势,开发者可直接通过以下平台获取海光DCU专属模型版本:

魔搭平台:

https://modelscope.cn/models/FlagRelease/Qwen3.6-35B-A3B-nomtp-hygon-FlagOS

HuggingFace:

https://huggingface.co/FlagRelease/Qwen3.6-35B-A3B-nomtp-hygon-FlagOS

依托vLLM-plugin-FL 统一插件、FlagGems 算子库、FlagTree 统一编译器,海光DCU无需修改原有推理代码,即可高效运行Qwen3.6-35B-A3B。权威评测数据显示,海光DCU平台在GPQA_Diamond数据集实测 达82.10、ERQA达57.14,FlagOS适配后的Qwen3.6-35B-A3B,Agentic Coding能力、复杂推理等核心能力上与CUDA原生版本高度对齐,可稳定支撑代码生成、日志分析、Bug排查、复杂文档编辑等高阶业务场景。

本次快速适配,充分验证海光DCU在MoE架构、稀疏计算、智能体大模型场景的成熟算力支撑能力,也标志着海光DCU与FlagOS协同,将大模型跨芯片适配周期从数周压缩至小时级。

FlagOS作为面向异构 AI 芯片的统一系统软件栈,相关开源组件与技术文档可访问:

·FlagOS 官网:https://flagos.io

·GitHub 开源地址:https://github.com/flagos-ai

·GitCode 开源地址:https://gitcode.com/flagos-ai

未来,海光信息将持续深化与众智 FlagOS、阿里通义等生态伙伴协同,持续完善大模型全场景适配能力,以具备性能强劲、兼容良好、安全保障的 DCU 深度计算单元,为国产 AI 大模型普惠落地、算力自主可控战略提供坚实支撑。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分