生成式人工智能的快速崛起推动了数据中心市场对高速 DDR5 DRAM 和 HBM 技术的需求,并引发了对连接到人工智能服务器的企业级 SSD 的需求激增。此外,首批配备设备内置生成式人工智能功能的智能手机和 PC 现已上市;由于大型语言模型的规模庞大,这些设备需要大量内存/存储内容,并将推动移动和消费市场领域进一步的比特需求增长。
为了利用新的 AI 增长浪潮,三星、SK 海力士和美光将更多晶圆产能转移到满足蓬勃发展的 HBM 需求,导致整体位生产放缓,并加速非 HBM 产品供应不足的转变。由于内存生产周期较长(约 6 个月),2022 年底的减产措施直到 2023 年第三季度才生效,当时 OEM 库存开始收紧,内存市场终于反弹。
存储器行业目前正在以比之前预测更快的速度复苏,收入有望在 2024 年和 2025 年飙升。在 2024 年 DRAM 收入增至 980 亿美元(同比增长 88%)和 NAND 收入增至 680 亿美元(同比增长 74%)之后,预计 2025 年收入将继续增长至创纪录新高,DRAM 和 NAND 分别达到 1370 亿美元和 830 亿美元。受强劲的位需求增长(尤其是数据中心领域的需求)的推动,预计长期收入将在 2029 年继续增长至 1300 亿美元(DRAM)和 900 亿美元(NAND),23-29 年复合年增长率分别为约 17% 和约 16%。
高带宽存储器 (HBM) 是生成式 AI 计算系统的关键组件,目前由 SK 海力士(2023 年 HBM 出货量份额约占 54%)、三星(约占 43%)和美光(约占 3%)供应,它们正在加大 HBM3/3E 的产量,每堆栈最多可容纳 12 个芯片,容量为 36GB。
当前几代 HBM 尚未使用混合键合。截至 2024 年 7 月,三家 HBM 供应商已实施了基于微凸块的封装的高级版本(例如无助焊剂 TCB 或高级 MR-MUF),我们预计他们可能会推迟将混合键合引入 HBM4E(限量生产/测试载体),并从 HBM5 代(≥16Hi 堆栈)开始全面部署。
所有主要 DRAM 制造商都在研究单片 3D DRAM,将其作为长期 DRAM 扩展的潜在解决方案,并且已将其列入主要设备供应商的路线图。第一批 5 到 16 层的原型已在技术会议上展示/讨论。我们预计它会发生,但不会在 2030 年之前。
NOR 厂商继续扩大其产品组合,包括面向汽车和电信市场的高密度产品 (≥1Gb)。旺宏电子已完成 4Gb 3D NOR 的测试,许多厂商(例如旺宏电子、华邦、英飞凌、美光)已开始生产 45/46nm NOR 闪存。
免责声明: 凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。