壁仞科技壁砺166系列GPU产品率先支持DeepSeek-V4模型

描述

4月24日,深度求索团队宣布全新系列模型 DeepSeek-V4 的预览版本正式上线并同步开源。依托成熟的BIRENSUPA软件栈与自研GPU全栈智能体“AIModelMaster”,壁仞科技快速完成DeepSeek-V4在旗舰通用GPU壁砺166系列产品的适配验证与优化,充分释放产品算力密度与带宽优势,全面赋能GenAI推理加速。

壁仞科技

实证:DeepSeek-V4基于BR166芯片完成推理任务

DeepSeek-V4

迈入百万上下文普惠时代

根据官方介绍,DeepSeek-V4拥有百万字超长上下文,在Agent能力、世界知识和推理性能上均实现国内与开源领域的领先。

其中,DeepSeek-V4-Pro性能比肩顶级闭源模型。在Agentic Coding评测中达到开源最佳水平;在数学、STEM 及竞赛代码测评中,超越所有公开评测的开源模型,展现出世界顶级的推理性能。DeepSeek-V4-Flash则更快捷高效;在简单任务的推理能力和 Agent 表现上与 Pro 版旗鼓相当,能提供更快捷、经济的 API 服务。随着1M(一百万)上下文成为DeepSeek所有官方服务的标配后,大模型将迈入百万长文本普惠新时代。

壁仞科技

DeepSeek-V4系列模型

自研AIModelMaster

支撑模型“越跑越快越优”

壁仞科技本次适配聚焦DeepSeek-V4核心技术特性,围绕MoE架构、稀疏注意力、FP8混合精度等关键模块展开深度优化,依托BIRENSUPA软件栈与AIModelMaster,完成模型验证跑通、定制化算子开发及端到端性能调优,实现“当天适配、次日优化”的极速交付。

AIModelMaster是壁仞科技推出的面向自研GPU全栈、贯通“部署-适配-深度优化”全链路的智能体系统,基于AI Agent接收AI模型(支持HuggingFace、ModelScope或本地checkpoint),通过br_pytorch+BIRENSUPA栈完成向壁砺系列硬件的适配。

壁仞科技壁仞科技

壁仞科技自研GPU全栈智能体

AIModelMaster三大核心能力

一,Day0极速适配,可实现主流大模型发布当日即可在壁仞科技算力平台快速跑通,将原本数周的适配周期压缩至小时级,并已通过多轮真实大模型落地验证;

二,全自动深度优化,不止保障模型和算子顺利运行,更通过自动化硬门控机制精准攻克性能瓶颈,集成AIOpMaster自动生成和优化算子的能力,全方位优化性能,实现端到端数倍性能加速;

三,自演进能力,系统会沉淀每一轮优化经验至专属知识库,让同类型模型后续适配优化实现高位起步,真正做到长期迭代进化,有效降本提效,达成部署越久、人力更省、周期更短、硬件利用率更高的落地价值。

全栈自研技术能力

助力国产SOTA大模型规模化落地

壁仞科技坚定走全栈自主研发路线,从微架构、指令集到软件栈全面实现核心技术自主可控;BIRENSUPA软件栈深度兼容PyTorch、vLLM、SGLang、Diffusers等主流AI框架生态,支持500+ AI模型开箱即用;凭借卓越的技术成熟度,壁砺166系列可显著降低开发者的模型部署与应用门槛,以全栈化能力助力国产SOTA大模型规模化落地。

近期,壁仞科技已完成Deepseek V/R系列、腾讯混元系列、月之暗面Kimi系列、阿里巴巴千问Qwen系列、MiniMax M2系列、智谱GLM系列、阶跃星辰Step系列、OpenMOSS MOVA系列等领先大模型的全面适配,覆盖语言、多模态、AIGC全品类矩阵。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分