摩尔线程GPU率先支持Qwen3全系列模型

描述

近日,阿里云正式发布Qwen3系列的8款开源混合推理模型。摩尔线程团队在模型发布当天,率先完成了Qwen3全系列模型在全功能GPU上的高效支持。这一成果充分展现了MUSA架构及全功能GPU在生态兼容性和快速支持能力方面的卓越表现。MUSA架构凭借其强大的易用性,不仅显著降低了开发者在适配迁移过程中的工作量,更大幅提升了开发效率,为创新成果的快速落地提供了坚实助力。

Qwen3作为国内首个“混合推理模型”,创造性将“快思考”与“慢思考”集成进同一个模型,在推理、指令遵循、智能体功能和多语言支持方面取得了突破性的进步。此次开源的两款MoE模型是Qwen3-235B-A22B和Qwen3-30B-A3B;同时还包括六个Dense模型:Qwen3-32B、Qwen3-14B、Qwen3-8B、Qwen3-4B、Qwen3-1.7B和Qwen3-0.6B。

从官方发布的benchmark测试结果来看:Qwen3-235B-A22B在代码、数学、通用能力等基准测试中,成绩显著高于OpenAI-o1及Deepseek-R1版本。Qwen3-32B在各项测试中成绩同样优于OpenAI-o3-mini。

快速支持

开放体验Qwen3创新成果

摩尔线程现已将Qwen3系列模型的支持成果在“夸娥工场”开放上线。“夸娥工场”是摩尔线程倾力打造的模型展示与体验中心,旨在为用户提供基于夸娥(KUAE)智算集群支持的模型能力体验。用户可通过访问夸娥工场,亲身体验Qwen3强大的推理模型性能与创新技术。

目前,主流推理引擎均可基于摩尔线程MUSA平台运行Qwen3系列模型。MUSA平台凭借其卓越性能,能够作为vLLM、Ollama、GPU Stack等各类主流开源推理引擎的后端,为Qwen3系列模型的高效运行提供强大动力。

例如,QWen3-235B-A22B(Qwen3系列最大参数量模型),基于vLLM-MUSA引擎在摩尔线程全功能GPU上稳定运行。

同时,GPU Stack引擎与llama.cpp/ollama引擎也在摩尔线程图形显卡MTT S80上高效运行,充分展现了MUSA平台的广泛兼容性与卓越性能。

共建开源生态

持续推动国产GPU发展

摩尔线程积极响应开源社区的号召,旨在赋能更多开发者基于国产全功能GPU进行AI应用创新。此前,在通义千问QwQ-32B发布当日,摩尔线程就成功实现了Day-0支持,这一成果充分验证了先进MUSA架构和全功能GPU的技术成熟度与可靠性。

我们诚挚欢迎广大开发者与用户前往“夸娥工场”进行体验,与此同时,开发者也可访问摩尔线程GitHub社区与开发者社区了解更多:

摩尔线程始终致力于推动开源生态的发展,通过技术开放与生态共建,加速国产全功能GPU在AI计算领域的规模化应用,为更多用户提供更智能、高效的解决方案。

关于摩尔线程

摩尔线程成立于2020年10月,以全功能GPU为核心,致力于向全球提供加速计算的基础设施和一站式解决方案,为各行各业的数智化转型提供强大的AI计算支持。

我们的目标是成为具备国际竞争力的GPU领军企业,为融合人工智能和数字孪生的数智世界打造先进的加速计算平台。我们的愿景是为美好世界加速。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分