摩尔线程率先支持腾讯混元-A13B模型

描述

近日,腾讯正式开源基于专家混合(MoE)架构的大语言模型混元-A13B。同日,摩尔线程团队凭借技术前瞻性,率先完成该模型在全功能GPU的深度适配与高效支持。这一成果充分彰显了MUSA架构在大模型生态中的卓越兼容性与快速响应能力——MUSA架构的高易用性设计,能够显著减少开发者在模型适配迁移过程中的技术投入,大幅提升开发效率,为AI创新成果的快速工程化落地构建了坚实的底层技术支撑。

作为业界首个13B级别的MoE开源混合推理模型,混元-A13B(Hunyuan-A13B)总参数量达800亿,激活参数为130亿,不仅在效果上达到了高标准,而且在尺寸上也做到了极致的优化,成功平衡了模型性能与资源占用。

从混元官方发布的benchmark测试结果来看:Hunyuan-A13B在多个代码和数学任务上都取得了最高分数。在MMLU、MMLU-PRO等诸多众聚合任务上,Hunyuan-A13B达到了与Qwen3-A22B模型同等的水平,表现出优秀的综合能力。

摩尔线程积极响应开源社区的号召,旨在赋能更多开发者基于国产全功能GPU进行AI应用创新。此前,摩尔线程在深度求索DeepSeek、通义千问QwQ-32B和Qwen3等模型的发布当日,就成功实现了Day-0支持,这一成果充分验证了先进MUSA架构和全功能GPU的技术成熟度与可靠性。

摩尔线程始终致力于推动开源生态的发展,通过技术开放与生态共建,加速国产全功能GPU在AI计算领域的规模化应用,为更多用户提供更智能、高效的解决方案。

关于摩尔线程

摩尔线程成立于2020年10月,以全功能GPU为核心,致力于向全球提供加速计算的基础设施和一站式解决方案,为各行各业的数智化转型提供强大的AI计算支持。

我们的目标是成为具备国际竞争力的GPU领军企业,为融合人工智能和数字孪生的数智世界打造先进的加速计算平台。我们的愿景是为美好世界加速。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分