AI 市场快速增长为存储半导体市场得到了复苏

时间:2023-08-16
   根据外媒报道, 半导体行业竞相开发下一代内存解决方案,包括高带宽内存 (HBM)、内存处理 (PIM) 和计算快速链路 (CXL),三星电子和 SK 海力士这两个领跑者。特别是,由于生成型人工智能(AI)的发展,AI对HBM3的需求增长速度快于预期,停滞的存储半导体市场得到了复苏。
    8 月 13 日,据业内人士透露,三星电子在国际存储器半导体盛会上,推出了包括 HBM、HBM-PIM、CXL DRAM 和 CXL 处理近存储器(PNM)在内的一系列高性能和大容量存储器解决方案技术。今年的 Memcon 和闪存峰会。
    在第二代和第三代 HBM 上处于领先地位的三星电子,在没有预见到 AI 市场快速增长的情况下,将 HBM??3(第四代)全球首个量产的芯片制造商的机会让给了 SK 海力士。作为回应,三星电子积极参与下一代 DRAM 的开发和量产竞赛,以重新夺回在 AI 半导体领域的领先地位。
    今年 5 月,三星电子开发出了业界首款支持 CXL 2.0 的 128 GB DRAM,并计划于年内推出。一年前,该公司于去年 5 月开发出了全球首款基于 CXL 1.1 的 DRAM。与限制每个中央处理单元 (CPU) 可用 DRAM 数量的传统方法不同,CXL 将多个接口整合为一个,从而实现每个设备之间的直接通信。这使得将 DRAM 可处理的服务器内存量扩展到数十太字节 (TB) 成为可能。
    2022年10月,SK海力士成功开发出业界首个将计算功能集成到CXL内存中的计算内存解决方案(CMS)。
    PIM 竞赛也正在升温。目前,内存扮演着存储的角色,中央处理单元(CPU)和图形处理单元(GPU)等系统半导体进行计算,但PIM技术可以在内存中进行数据计算。采用HBM-PIM技术,AI模型生成性能比采用传统HBM的GPU加速器提升3.4倍。2022 年 10 月,AMD 的 GPU MI-100 中采用了三星的 HBM-PIM。
    基于 CXL 的 PNM 通过将具有计算能力的系统半导体放置在内存旁边,减少了数据瓶颈。与传统GPU加速器相比,它的DRAM容量增加了四倍,AI模型的加载速度提高了一倍。虽然仍处于发展的早期阶段,但随着对大容量 AI 模型处理的需求不断扩大,存储器行业预计基于 CXL 的 PNM 技术将得到广泛采用。
    “生成式人工智能的快速发展极大地改变了记忆开发的范式。”一位业内人士表示。“美光在下一代内存技术方面落后了一步,因此三星与 SK 海力士的竞争将持续一段时间。”
上一篇:上海临港集重点项目共12个,总投资288亿元
下一篇:山东枣庄全力打造“中国北方锂电之都”

免责声明: 凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。