192GB,SK海力士开始为英伟达Vera Rubin量产SOCAMM2

描述

电子发烧友网报道(文 / 吴子鹏)日前,SK 海力士宣布正式量产基于第六代 10 纳米级(1c)LPDDR5X DRAM 的 192GB 容量 SOCAMM2(Small Outline Compression Attached Memory Module)产品。这是低功耗内存技术正式进军高性能 AI 服务器领域的又一标志性事件。作为下一代 AI 基础设施的核心组件,SOCAMM2 不仅突破了传统服务器内存的带宽与功耗瓶颈,更揭示了 AI 时代对内存技术的全新需求。
 
SK 海力士表示,SOCAMM2 相比传统 RDIMM,在带宽与功耗表现上均实现显著提升。
 

下一代 AI 服务器对 DRAM 的核心需求

随着 AI 发展从训练阶段逐步转向大规模推理阶段,内存子系统面临的压力正发生结构性变化。传统服务器 DRAM(如 RDIMM)侧重高容量与长期运行稳定性,而 AI 服务器更需要解决三大核心矛盾:超大模型与内存带宽的瓶颈、高算力与功耗的冲突、高密度部署与散热空间的限制。
 
AI 推理与训练需要海量数据实时吞吐,HBM 虽以超高带宽见长,但成本居高不下。AI 服务器需要兼顾成本与性能,要求 DRAM 具备更高的带宽密度,同时也需要更大容量以支撑大规模并行数据处理。在当前千亿级参数、数万 token 长序列推理场景中,大模型的 KV 缓存容量呈线性增长,需求甚至远超模型参数本身。这种内存瓶颈直接导致 GPU 计算单元频繁等待数据,严重制约 AI 服务的响应速度与并发处理能力。
 
除计算效率外,极低功耗与散热效率同样关键。AI 数据中心能耗在全球电力消耗中的占比持续攀升,内存作为系统主要能耗来源之一,需要通过工艺优化与架构创新降低功耗,并改善散热设计。同时,在机架功率密度不断提升的趋势下,内存模块物理尺寸也直接影响服务器部署密度。
 

SOCAMM2 的技术特性与创新突破

SK 海力士此次量产的 192GB SOCAMM2,精准匹配了这一需求变化,实现了移动内存技术基因与服务器场景需求的深度融合。
 
SOCAMM2 基于 LPDDR5X 超高带宽特性,采用第六代 LPDDR5X 标准,带宽较传统 RDIMM 提升逾两倍,可满足 AI 推理中密集的数据访问需求。LPDDR5X 是 JEDEC 于 2021 年 7 月发布的低功耗双倍数据速率内存标准,作为 LPDDR5 的增强版本,最高传输速率达 10.7Gbps,能效较前代提升约 25%,已广泛应用于旗舰智能手机、高性能 PC、服务器及汽车电子等领域。在 AI 服务器领域,SOCAMM2 的核心创新在于将移动端低功耗优势与服务器性能需求相结合,为行业提供了更具性价比的内存方案。
 
SK海力士 SOCAMM2 单条 192GB 容量已经突破了传统移动端内存上限,10 纳米级(1c)工艺大幅提升存储密度,降低单位容量成本。同时,先进制程有效减少漏电流,进一步优化功耗。该工艺技术早已完成验证:2024 年,SK 海力士已宣布成功开发全球首款第六代 10 纳米级 DDR5 DRAM。据当时官方信息,SK 海力士在高性能 1b 工艺平台基础上,高效开发出 1c 工艺,通过新材料应用与 EUV 工艺优化保障成本竞争力,能效提升可帮助数据中心节省 30% 以上电费。
 
SK 海力士技术团队认为,1c 工艺不仅可减少先进工艺开发中的试错成本,还能高效继承其 1b 工艺在高性能 DRAM 领域的既有优势。SK 海力士 DRAM 开发担当副社长金锺焕当时表示:“1c 工艺技术兼备最高性能和成本竞争力,公司将其应用于新一代 HBM、LPDDR6、GDDR7 等最先进 DRAM 主力产品群,为客户提供差异化价值。未来公司也将坚守 DRAM 市场领导力,巩固作为 AI 存储解决方案最受信赖企业的地位。”
 
SOCAMM2 另一大创新在于模块设计,实现 192GB 容量与 “薄型可扩展” 架构的融合。传统 RDIMM 通过在内存控制器与 DRAM 芯片之间增加寄存器(Register)或时钟缓冲器(Buffer)提升稳定性,多用于通用服务器与工作站。而 SOCAMM2 是专为 AI 数据中心与高性能计算设计的新型内存模块标准,由 NVIDIA 主导定义,联合美光、三星、SK 海力士等存储厂商共同推进。
 
SOCAMM2 结合了 LPDDR 技术优势与模块化、可插拔设计,可提供更高带宽、更佳能效和更灵活的系统集成,助力 AI 服务器实现更高效率与可扩展性。该方案提供可更换的模块化内存形态,同时兼顾 LPDDR 能效优势与传统内存模块的可维护性。
 
与传统板载焊接 LPDDR 方案不同,SOCAMM2 允许 AI 服务器在不修改主板的情况下,通过升级或更换模块扩展内存容量与性能,简化服务器生命周期管理与日常维护。通过降低内存运维复杂度与系统中断风险,SOCAMM2 有助于减少服务器停机时间,延长现有平台使用寿命,让 LPDDR 级高能效进入紧凑模块化形态,更好地适配持续演进的 AI 负载。
 
目前,三星、SK 海力士、美光均在积极布局 SOCAMM2。三星方面正扩大与全球 AI 厂商的合作,加速基于 LPDDR 的服务器解决方案普及,以应对服务器市场日益增长的低功耗内存需求。三星尤其与 NVIDIA 紧密协作,通过持续技术优化,使 SOCAMM2 更好适配 NVIDIA 加速计算基础设施,满足下一代推理平台对高响应速度与高能效的要求。
 
美光方面,根据其官方发布,美光 SOCAMM2 是较早采用 LPDDR5X 的数据中心级模块化产品。2026 年 3 月 3 日,美光宣布向客户送样业界容量最高的 LPDRAM 模块 ——256GB SOCAMM2,容量较此前 192GB 规格提升三分之一,可为单颗 8 通道 CPU 提供 2TB LPDRAM,支撑更大上下文窗口与复杂推理负载。相较同级别 RDIMM,美光 SOCAMM2 功耗仅约其三分之一,占用空间更小,可提升机架密度并降低总体拥有成本(TCO)。在统一内存架构下,用于 KV 缓存卸载时,256GB SOCAMMM2 可将长上下文实时 LLM 推理的首 token 时延提升 2.3 倍以上。
 

AI 服务器低功耗 DRAM 的发展趋势

将移动端 LPDDR 技术迁移至服务器环境,并非简单移植,而是需要克服一系列严苛挑战。SK 海力士通过系统性方案创新,才最终实现 SOCAMM2 量产。其中最突出的是翘曲控制问题:SOCAMM2 采用多芯片堆叠(MCP)封装,硅、PCB、封装树脂等不同材料热膨胀系数差异较大,高温焊接时易出现翘曲变形,直接影响良率与长期可靠性。此外,在信号完整性方面,9.6Gbps~10.7Gbps 的高速传输会加剧信号衰减与串扰,压缩式连接器的接触稳定性也成为关键技术难点。
 
SOCAMM2 的量产,只是 AI 服务器低功耗 DRAM 发展的起点,未来该领域将呈现清晰的技术演进趋势。容量与带宽竞争已全面展开:美光已推出 256GB SOCAMM2,容量较 SK 海力士当前量产产品提升 33%;同时 LPDDR6 技术加速成熟,传输速率预计可达 14.4Gbps,相较 LPDDR5X 提升约 50%。
 
除技术竞争外,市场影响也已显现。市场研究机构 Counterpoint Research 曾在报告中指出,英伟达在 AI 服务器中采用智能手机领域低功耗内存的做法,或推动服务器内存价格在 2026 年底前大幅上涨。这一趋势已逐步兑现:目前大量 LPDDR5X 产能向 AI 领域倾斜,已对智能手机端内存供应造成明显影响。
 

结语

总而言之,SK 海力士 192GB SOCAMM2 的量产,本质上反映了 AI 基础设施建设思路的转变 —— 从单纯追求算力密度,转向算力与能效的平衡优化。未来,低功耗内存将与 HBM 形成互补格局:HBM 聚焦极致带宽的 AI 训练场景,SOCAMM2 则主导高能效比的推理市场,二者共同构建大模型时代的内存基石,推动 AI 技术更广泛地融入产业与日常生活。
打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分