美光正式送样业界高容量 SOCAMM2 模组,满足 AI 数据中心对低功耗 DRAM 的需求

pipilu2025-10-23 14:01:33TechWeb.com.cn

10月23日消息,美光科技股份有限公司(纳斯达克股票代码:MU)近日宣布其 192GB SOCAMM2(small outline compression attached memory modules,小型压缩附加内存模块)已正式送样,以积极拓展低功耗内存在 AI 数据中心的广泛应用。

2025年3月, 美光发布了业界首款 LPDRAM SOCAMM,而新一代 SOCAMM2 则在此基础上实现了功能的进一步拓展,在相同的规格尺寸中实现 50% 的容量提升,增加的容量可以将实时推理工作负载中首个 token 生成时间(TTFT)显著缩短 80% 以上。

192GB SOCAMM2 采用美光领先的 1-gamma DRAM 制程技术,能效提高 20% 以上,有助于实现大型数据中心集群的电源设计优化。这一能效提升在全机架 AI 安装中尤为显著,可配置超过 40TB 的 CPU 附加低功耗 DRAM 主存储。SOCAMM2 的模块化设计提升了可维护性,并为未来的容量扩展奠定了基础。

基于与 NVIDIA 的五年合作,美光率先将低功耗服务器内存引入数据中心使用。SOCAMM2 为 AI 系统的主存储带来了 LPDDR5X 超低功耗和高带宽的内在优势。SOCAMM2 的设计旨在满足大规模 AI 平台不断扩展的需求,提供 AI 工作负载所需的高数据吞吐量,同时实现新的能效水平,并为 AI 训练和推理系统设定新标准。这些优势的结合将使 SOCAMM2 成为未来几年业界领先 AI 平台的关键内存解决方案。

与同等能效的 RDIMM 相比,SOCAMM2 模块的能效提高了三分之二以上,同时将其性能封装到三分之一大小的模块中,不仅优化了数据中心占地面积,还最大限度地提高了容量和带宽。SOCAMM 的模块化设计和创新的堆叠技术提高了可维护性,并有助于液冷服务器的设计。

目前,SOCAMM2 样品已送样客户,单一模组容量高达 192GB,速率达 9.6 Gbps,后续量产作业将配合客户的产品推出日程规划。

开源,中国AI的突围密码?

3月20日消息,今年1月份,当美国收紧对人工智能技术的管控,切断中国获取先进人工智能芯片的渠道,并为专有模型设定贸易壁垒之后,报复似乎已成定局。按照常理推测,中国本应筑起技术壁垒,加强保密措施。然而现实却...

欧盟宣布成立人工智能办公室,对AI进行监管

5月30日消息,当地时间5月29日,欧盟宣布成立人工智能办公室,对人工智能进行监管,支持可信人工智能的发展和使用,同时防范人工智能风险。该办公室由包括技术专家、律师和经济学家在内的140名成员组成,设有首席科...

微软组建新AI团队,瞄准端到端应用开发与部署

1月14日消息,当地时间周一,微软CEO萨蒂亚・纳德拉发布博客,宣布将组建一个新的AI组织——CoreAI,专注于开发端到端的AI应用平台与工具,涵盖从应用开发到部署和运行的整个过程。据介绍,CoreAI将汇集DevDiv、AIPl...

亚马逊云科技一站式数据和AI开发环境Amazon SageMaker Unified Studio正式可用

4月8日消息,亚马逊云科技宣布AmazonSageMakerUnifiedStudio已正式可用,这是一套独立的数据与人工智能(AI)开发环境,也是新一代AmazonSageMaker的核心。新一代AmazonSageMaker是亚马逊云科技在2024re:Invent全球...

百度AI,熬出头了

AI驱动的云与自动驾驶,被百度视为新的增长引擎,而这一战略,在今年一季度财报中得到了验证。5月21日晚,百度发布2025年第一季度财报,显示一季度总营收达325亿元,百度核心营收255亿元,同比增长7%,均超市场预期...

上一篇:荣耀Magic8系列开启首销 AI+影像+性能三重巅峰旗舰新标杆就位
下一篇:宇树科技完成更名 王兴兴由董事变更为董事长