描述
电子发烧友网综合报道 2025年11月21日,在上海举办的“2025 AI容器应用落地与发展论坛”上,华为正式发布并开源了创新AI容器技术Flex:ai,为解决算力资源利用难题带来了全新的思路和解决方案。
当前,AI产业正处于高速发展的黄金时期,海量算力需求如潮水般涌来。然而,算力资源利用率偏低的问题却成为了产业发展的关键桎梏。具体表现为,小模型任务常常独占整卡,导致大量资源闲置;大模型任务又因单机算力不足而难以支撑;更有大量缺乏GPU/NPU的通用服务器处于算力“休眠”状态。这种供需错配的现象,造成了严重的资源浪费,使得企业在算力投入上既面临高昂的成本,又无法获得理想的算力使用效率。
Flex:ai是基于Kubernetes容器编排平台构建的XPU池化与调度软件,它通过三大核心技术突破,实现了算力资源的精细化管理。
在算力资源切分方面,华为与上海交通大学联合研发的XPU池化框架发挥了关键作用。该框架能够将单张GPU/NPU算力卡精准切分至10%的虚拟单元,实现了单卡同时承载多个AI工作负载。这种一卡变多卡的技术,使得小模型训推场景下的整体算力平均利用率提升了30%,大大提高了单卡的服务能力。
跨节点算力资源聚合技术则是华为与厦门大学合作的成果。通过跨节点拉远虚拟化技术,将集群内各节点的空闲XPU算力聚合形成共享算力池。这一技术不仅为大模型任务提供了充足的资源支撑,还让通用服务器能够通过高速网络转发AI工作负载,实现了通用算力与智能算力资源的融合,打破了资源孤岛。
多级智能调度技术由华为与西安交通大学共同打造。Hi Scheduler智能调度器能够自动感知集群负载与资源状态,结合AI工作负载的优先级、算力需求等多维参数,对本地及远端的虚拟化GPU、NPU资源进行全局最优调度。即使在负载频繁波动的场景下,也能保障AI工作负载的平稳运行,让每一份算力都物尽其用。
Flex:ai对标英伟达旗下Run:ai公司的核心技术,但具有独特的优势。Run:ai主要服务于英伟达GPU生态,而Flex:ai没有生态限制,英伟达的GPU和华为昇腾NPU等算力卡都可以使用。它通过软件创新,实现了对英伟达、昇腾及其他第三方算力资源的统一管理和高效利用,有效屏蔽了不同算力硬件之间的差异,为AI应用提供了更高效稳定的资源支撑。
华为将Flex:ai开源在魔擎社区中,并与此前开源的多款AI工具共同组成完整的ModelEngine开源生态。
Flex:ai的能力已在真实产业场景中得到验证。瑞金医院与华为联合打造的多模态病理大模型“RuiPath”,基于Flex:ai的技术支撑,将XPU资源可用度从40%提升至70%,破解了有限算力下的大规模训练难题。随着AI与容器技术的深度融合,未来的应用开发将更加智能化、自动化。Flex:ai的发布标志着AI基础设施竞争正从“拼硬件”转向“拼系统”,当软件能真正驾驭硬件,当开源平台打破厂商藩篱,AI发展的主动权才真正回到应用者手中。
打开APP阅读更多精彩内容