LLW DRAM:AI智能手机时代的财富密码

存储技术

597人已加入

描述

AI应用持续发展,内存技术随之进步。

随着人工智能的发展,市场对内存的要求更高,三星正在向市场推出基于特定应用要求的存储组合产品。

据悉,三星最近正在研发新型存储器LLW DRAM,将高带宽、低延迟、低功耗的特性结合在一起。三星将新的内存技术定位在需要运行大型语言模型(LLM)的设备上,未来也可能出现在各种客户端工作负载中。

LLW DRAM作为一种低功耗内存,拥有宽I/O、低延迟、每个模块/堆栈提供了128GB/s的带宽,与一个128位DDR5-8000内存子系统的带宽相同。同时,LLW DRAM还有另一个重要特性,就是1.2pJ/bit的超低功耗,不过三星没有告知该功耗下的具体数据传输速率。

据了解,LLW DRAM在设计上可能会借鉴GDDR6W,并采用扇出晶圆级封装(FOWLP)技术将多个DRAM集成到一个封装中。

目前,三星已公布技术的预期性能细节,根据过往经验,LLW DRAM很可能到了开发阶段的尾声。

LLW芯片将与CPU一起工作,而不是完全取代传统的DRAM。Galaxy S24系列可能会成为第一款使用该技术的智能手机。

三星已经在为下一款旗舰产品准备新的人工智能功能,包括人工智能实时翻译通话,该公司确认将于明年早些时候推出。三星将展示S24作为一款“AI手机”,2024年1月17日在圣何塞推出。

传闻基础版Galaxy S24将仅配备8GB RAM,并且无法选择通过更昂贵的型号升级内存。不过,Galaxy S24+将有一个配备12GB RAM,但其入门级版本仍将使用8GB RAM。Galaxy S24 Ultra入门级型号仍将配备8GB RAM,更高规格型号将配备12GB RAM。

如果这个信息是正确的,那么对三星来说看起来并不好。消费者不会喜欢三星削减成本,并且连续四年不在其旗舰智能手机系列中提供更多内存。

与竞争对手的Android品牌智能手机相比,它看起来特别糟糕,这些智能手机在某些型号上提供16GB RAM甚至高达24GB RAM。

LLW DRAM将成为AI智能手机时代的“摇钱树”

据业内人士透露,三星电子正在开发的LLWDRAM,计划于2024年底实现量产。

2020年以来,三星电子一直在开发轻量级 On-Device AI 算法,并将其应用于片上系统 (SoC)、内存和传感器,增强其在 On-Device AI 半导体领域的竞争力。该公司预计将于2024年开始全面占领市场,首先是其内部开发的生成人工智能三星高斯的移动产品部署。

SK 海力士还准备为苹果公司定于2024年初发布的下一代增强现实 (AR) 设备 VisionPro 提供其特殊 DRAM。该DRAM与Apple新开发的VisionPro R1芯片相结合,支持实时高清视频处理。在开发阶段,苹果公司在 R1 芯片上改用 SK 海力士的高带宽 DRAM,继续保持合作关系。

设备端人工智能在智能手机、自动驾驶汽车和扩展现实、增强现实等 IT 设备中执行各种功能,例如对话识别、文档摘要、位置识别和操作控制。与通过云处理复杂计算的服务器人工智能不同,设备端人工智能直接在设备上执行数亿次操作。为了快速处理大量数据而不消耗过多电量,增强辅助计算的 DRAM 的性能至关重要。

业内人士预计,继HBM之后,LLW DRAM市场的扩张将预示着定制内存时代的开始。由于配备On-Device AI的设备差异很大,并且每种设备需要不同的功能,因此,需要从开发阶段与客户密切合作,以确定生产方法和数量。存储器制造商不再大规模生产少量品种的产品,而是可以采用基于订单的业务模式,保持定价能力并确保稳定的性能。

具有AI处理能力的高带宽内存

三星电子还开发出了集成人工智能处理能力的高带宽内存 (HBM)——HBM-PIM。新款内存内处理 (PIM) 架构将强大的 AI 计算能力引入高性能内存,加速数据中心、高性能计算 (HPC) 系统和支持 AI 的移动应用程序中的大规模处理。

三星电子内存产品规划高级副总裁 Kwangil Park 表示:“HBM-PIM 是针对各种 AI 驱动的工作负载(如 HPC、训练和推理)量身定制的可编程 PIM 解决方案。我们计划通过与 AI 解决方案供应商进一步合作,实现这一突破,实现更优质的 PIM 支持应用。”

Argonne 计算、环境和生命科学实验室副主任 Rick Stevens 评论:“我很高兴看到三星正在解决 HPC 和 AI 计算内存带宽挑战。HBM-PIM 设计在重要 AI 应用类别上展现了令人印象深刻的性能和能力提升,因此我们期待在 Argonne 国家实验室感兴趣的其他问题上共同评估其性能。”

如今的大多数计算系统都基于冯·诺依曼 (von Neumann) 架构,该架构使用单独的处理器和内存单元来执行数百万个复杂的数据处理任务。这种顺序处理方法要求数据不断往复移动,从而造成系统速度减慢的瓶颈,尤其是在处理不断增加的数据量时。

与之不同的是,HBM-PIM 通过将经过DRAM优化的 AI 引擎置于每个内存库(存储子单元)内,将处理能力直接引入到数据存储位置,从而实现并行处理并尽可能减少数据移动。当应用于三星现有的 HBM2 Aquabolt 解决方案时,新架构能够提供超过两倍的系统性能,同时将能耗降低 70% 以上。HBM-PIM 也不需要任何硬件或软件变更,从而可以更快地集成到现有系统中。

审核编辑:黄飞

 

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分