2026年2月11日,寒武纪已基于 vLLM 推理框架同步实现对智谱最新开源旗舰模型 GLM-5 的适配。寒武纪一直高度重视大模型软件生态建设,借助于成熟的自研 Neuware 软件生态和长期的技术积累,寒武纪得以快速实现对 GLM-5 的 Day 0 适配。
寒武纪一直重视芯片和算法的联合创新,致力于以软硬件协同的方式,优化大模型部署性能,降低部署成本。此前,我们对 GLM 系列模型进行了深入的软硬件协同性能优化,达成了业界领先的算力利用率。针对本次 GLM-5 模型,寒武纪依托深度集成的 Triton 的兼容能力完成快速适配,利用 BangC 和原生 FP8 数据类型进行 DeepSeek Sparse Attention 等热点算子的极致性能优化,再次达成了业界领先的计算效率。依托 GLM-5 强大的模型能力,叠加寒武纪极致的计算效率,可大幅降低训推成本,共同为客户在 Coding 和 Agent 等重要领域提供极具竞争力的软硬件解决方案。
全部0条评论
快来发表一下你的评论吧 !