赋能AI PC 美光推出基于LPDDR5X的LPCAMM2内存模块

xiaochou2024-01-22 14:39:43TechWeb.com.cn

1月22日消息,近日美光宣布推出首款标准低功耗压缩附加内存模块LPCAMM2,提供从 16GB 至 64GB 的容量选项,为PC提供更高性能、更低功耗、更紧凑的设计空间及模块化设计。

美光 LPCAMM2 模块采用 LPDDR5X DRAM,与 SODIMM 产品相比,能在网页浏览和视频会议等PCMark10 重要工作负载中将功耗降低高达 61%,性能提升高达 71%,空间节省达 64%。

从公开的信息来看,美光 LPCAMM2具备以下特征:LPDDR5X 具备更高性能,速率高达 9600Mbps,而当前 DDR5 SODIMM的速率为 5600Mbps;系统待机功耗最高可节省 80%,从而增强电池续航能力;数字内容创作工作负载性能提升高达 7%;所有模块容量均采用单块 PCB,为 OEM 和 ODM 客户提供更大的供应链灵活性;与 SODIMM 相比,主板布线更加简单等等。

美光副总裁暨计算产品事业群总经理 Praveen Vaidyanathan 介绍,LPDRAM是采用美光领先业界推出、最先进的1-beta制程技术,这是业界最好的制程,能够提供更好的性能、更低的功耗。可以说是自1997年SODIMM推出以来,时下客户端电脑最创新的内存规格。

LPCAMM2 内存模块现已出样,并计划于 2024 年上半年量产。

此外,Praveen Vaidyanathan 特别强调,随着生成式人工智能用例在客户端 PC 上的普及,LPCAMM2 能为 PC 提供处理人工智能工作负载所需的性能,并适用于未来几年AI PC的进化过程。

“现今的标准个人电脑最常用的容量通常是8GB的SODIMMs和DDR5。目前的AI PC已经可支持10 TOPS(Tera Operations per Second),甚至有些支持到约40TOPS,也就是每秒有1 tera次的运算。目前讨论的多数为推演案例,其中模型大小约在70亿参数范围内。因此,通过这些案例和Copilot的推出,以及每个AI PC上的功能,最低的内存需求将从8GB提升至16GB。“Praveen Vaidyanathan进一步阐释道,LPCAMM2提供了从16GB到64GB的容量选项,在AI PC发展中,LPCAMM2将占领一个非常好的应用领域,为用户提供额外的带宽以及所需的容量。”

“LPCAMM2通过其高容量、低功耗、更好的性能、模块化和小尺寸,将成为理想的解决方案,进而重塑用户对笔记本电脑的使用体验,并确保所有应用程序在AI环境下顺利运行。”Praveen Vaidyanathan总结道,LPCAMM2不仅能用于客户端PC和AI PC,也被应用于数据中心、网络和嵌入式应用等领域。

ChatGPT重磅更新:新增语音和图像功能 可以看、听、说

9月26日消息,据外媒报道,当地时间周一,美国人工智能研究公司OpenAI宣布,其AI聊天机器人工具ChatGPT现在可以“看、听、说”,这暗指这款广受欢迎的聊天机器人可以同时接收图像和语音输入,并通过语音进行回复。Ch...

外媒:英特尔计划将重点放在人工智能和芯粒等未来技术上

1月22日消息,据外媒报道,芯片制造商英特尔计划将重点放在人工智能和芯粒(别称“小芯片”)等未来技术上。英特尔是为数不多的既设计又制造自己芯片的半导体公司之一,而高通和苹果等竞争对手的芯片设计依赖于代工...

马斯克吐槽TikTok:感觉它们的AI在探测我的大脑,所以我不用了

8月25日消息,推特博主DogeDesigner昨日傍晚发文吐槽TikTok,声称它在“摧毁我们的文明”。配图显示,左图的“专家”形象具有天文学、数学、物理学、哲学和生活等多方面的经验知识,但看上去并不懂TikTok,而右图的...

SK海力士将参加CES 2024 展示超高性能存储产品

1月3日消息,据外媒报道,为期4天的2024年度国际消费类电子产品展览会,也就是CES2024,将于当地时间1月9日至12日,在内华达州拉斯维加斯举行,目前已有包括现代汽车、起亚在内的多家厂商宣布参展。随着展会时间的临...

中国130个大模型,难超越10亿营收的ChatGPT

中国AI大模型全面“开闸”。钛媒体App获悉,8月31日,百度(文心一言)、抖音(云雀大模型)、智谱AI(智谱清言)、中科院(紫东太初大模型)、百川智能(百川大模型)、商汤(商量SenseChat大模型)、MiniMax(ABAB...

TAG:美光 AIPC AI
上一篇:外媒:英特尔计划将重点放在人工智能和芯粒等未来技术上
下一篇:人工智能语音公司ElevenLabs融资8000万美元