MiniMax M2.7全球开源,摩尔线程、沐曦等完成Day0适配

描述

电子发烧友网综合报道 4月12日,MiniMax M2.7在全球正式开源。华为昇腾、摩尔线程、沐曦股份、昆仑芯、NVIDIA,以及TogetherAI、Fireworks、Ollama等海内外芯片厂商、推理平台已完成Day0适配,即在开源首日已经完成模型接入与推理适配工作。
 
MiniMax介绍,三周前MiniMax M2.7率先上线,开启了模型自我进化,是业界第一个AI深度参与迭代自己的模型。M2.7能够自行构建复杂Agent Harness,并基于Agent Teams、复杂Skills、Tool Searchtool等能力,完成高度复杂的生产力任务。
 
基于其在真实的软件工程、专业办公场景的优异表现,M2.7已成为在Hermes Agent、OpenClaw等全球热门智能体中最受欢迎的模型之一。来自海内外开发者与企业客户的接入需求持续增长,模型调用量快速提升。
 
开源当日,华为昇腾AI基础软硬件实现首日适配,基于vllm-Ascend推理引擎在Atlas800A3、Atlas800IA2系列产品上为模型的推理部署提供全流程支持;摩尔线程技术团队基于MUSA架构,针对M2.7的模型特点,完成深度调优,成功在MTTS5000上实现模型的高性能推理;沐曦曦云C系列GPU,凭借全栈自研的MXMACA软件栈,首日完成深度适配,实现“模型发布即算力就绪”的Day0体验。
 
此外,昆仑芯依托自研架构,通过底层算子优化与软硬件协同加速,保障M2.7在平台上的稳定、高效运行表现。NVIDIA推理框架TensorRT-LLM为M2.7提供了深度适配与全面优化支持,帮助开发者和企业用户高效完成模型部署与上线。TogetherAI、Fireworks、Ollama、vLLM、SGLang和智源众智FlagOS、魔搭等海内外开发平台与社区已同步在首日接入MiniMax M2.7模型并完成适配。
 
在 AI 大模型和芯片领域,“适配”是一个关键的技术术语。简单来说,它指的是让一个软件(在这里是 MiniMax M2.7 模型)能够在特定的硬件(如摩尔线程、沐曦的 GPU)或软件平台(如英伟达的推理框架)上顺利、高效地运行起来的一整套技术工作。
 
“适配”具体包含哪些工作?
 
底层算子优化:大模型由无数个基础的数学计算(即“算子”)构成。不同的芯片架构(如英伟达的 CUDA、摩尔线程的 MUSA)执行这些计算的方式和效率都不同。适配工作就是针对特定芯片的架构,对这些算子进行重写和优化,让它们跑得更快、更稳。
 
推理框架集成:模型需要通过一个“中间人”——推理框架(如 vLLM、TensorRT-LLM)来调用硬件资源。适配意味着要将模型无缝集成到这些框架中,确保框架能正确、高效地指挥芯片进行计算。
 
性能深度调优:这是适配的核心目标。包括优化显存管理、降低计算延迟、提高吞吐量等。例如,针对 MiniMax M2.7 支持超长上下文的特点,摩尔线程就利用其 MTT S5000 的大显存和高带宽进行了专门优化,以支撑模型长时间、多步骤的稳定执行。
 
为什么“Day 0 适配”如此重要?
 
这次 MiniMax M2.7 开源能获得“Day 0 适配”(即发布当天完成适配),具有非常重要的意义:
 
对开发者而言: 意味着“开箱即用”。开发者无需自己花费大量时间和精力去解决兼容性问题,可以在模型发布的第一时间就上手使用,极大地加速了应用开发和创新的进程。
 
对芯片厂商而言: 这是展示其技术实力和生态成熟度的绝佳机会。能够快速适配最前沿的大模型,证明了其硬件和软件栈的竞争力与兼容性,有助于吸引更多开发者和企业客户。
 
对 MiniMax 而言: 广泛的硬件支持意味着其模型可以触达更广泛的用户群体,不再受限于单一硬件平台,从而加速其技术的商业落地和生态建设。
 
总而言之,“适配”是连接 AI 模型与算力的桥梁。这次 MiniMax M2.7 与多家国产及海外芯片厂商在首日就完成适配,不仅体现了模型本身的开放性和重要性,也反映了国产 AI 芯片生态正在快速成熟,能够跟上全球最先进模型的发展步伐。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分