中科曙光scaleX40超节点革新AI存算协同

描述

在当前算力时代,以Token(词元)为代表的算力需求已成为行业核心刚需,而稳定、高效的算力运转,离不开底层存力的可靠支撑。立足这一行业发展逻辑,中科曙光scaleX40超节点亮相2026中关村论坛年会,凭借自研的算存传一体化协同方案,以先进存力筑牢算力底座,加速释放普惠算力。

先进存力,破解Token时代存力短板

当前AI产业已全面迈入以推理为核心的Token时代,大模型长上下文推理、多模态数据处理、AI智能体规模化落地,对存储的带宽、时延、吞吐能力提出极致要求。然而算力高速发展、存力支撑不足,成为制约AI商业化落地的核心痛点。

作为scaleX40的“专属存力搭档”,中科曙光自研ParaStor分布式存储历经AI应用场景的针对性优化,核心搭载ParaStor F9000 NVMe全闪存储节点。单节点带宽高达220GB/s、IOPS突破1000万,可同时为scaleX40单节点的40张GPU卡提供单卡超5GB专属带宽,完美匹配大模型训推对存储吞吐量的核心需求。

中科曙光分布式存储ParaStor F9000

同时,ParaStor支持文件、对象、块、HDFS多协议统一承载,可灵活构建弹性存储资源池,覆盖scaleX40的scale-up与scale-out全扩展配置,为AI训推一体化提供稳定、高效的数据底座。

AI数据工厂,从支撑到赋能

依托ParaStor分布式存储,中科曙光为大模型训练、推理、智能体等典型应用量身打造专属AI数据工厂,深度嵌入数据采集、清洗标注、训练推理、迭代优化全业务流程,持续强化scaleX40超节点的系统效能与业务适配性。系统内置向量数据库、AI数据处理与知识提取加速库,实现高价值私域数据的Token化自动生成。

基于以存代算、以存促算的理念,AI数据工厂从根本上打破算力与存力的传统边界,让存力从被动支撑转向主动赋能,全面提升大模型的推理精度与行业适配性,为AI全流程业务提速增效。

“3+5”技术,释放全栈性能

为彻底打通scaleX40超节点的存算协同壁垒,中科曙光创新打造“算、存、传、管”的全栈强协同架构,通过“3+5”算存传加速技术实现了数据全链路极致优化。

计算侧搭建内存池与缓存池,依托XDS技术实现GPU直通存储,消除数据中转损耗; 网络侧借助scaleFabric原生RDMA高速网络,带宽提升2倍以上、时延降低3倍; 存储侧凭借独创超级隧道技术,构建专属IO域,为数据提供无干扰、无竞争传输路径。

实测数据显示,在DeepSeek-R1-70B大模型测试中,结合KV cache卸载与XDS技术,120K Token长文本场景下,推理首字符时延(TTFT)降低97.3%,有效缓解大显存压力,突破长上下文推理性能瓶颈。

AI基础设施竞争已从单纯的峰值算力比拼,迈入以系统效能、存算协同、单位Token成本为核心的全新阶段。算力与存力的一体化交付,成为推动智能算力普惠、降低行业落地门槛的重要路径。#中科曙光 

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分