根据外媒报道,全球对称为 ChatGPT 的生成式人工智能的热潮迅速增加了对能够处理大规模数据的高性能 DRAM(也称为高带宽内存(HBM))的需求。
7月31日,据半导体行业人士透露,三星电子、SK海力士等国内存储半导体企业正在推动HBM专用线的扩张。HBM,也称为“高性能 DRAM”,与传统 DRAM 相比,数据容量和速度提高了十倍以上。内存半导体公司通过垂直堆叠生产的 DRAM 晶圆并通过在芯片上钻孔的先进封装工艺将它们进行电气连接来完成 HBM。
两家公司计划在明年年底前投资超过2万亿韩元,使HBM生产线目前的产能增加一倍以上。SK海力士计划利用利川现有HBM生产基地后的清州工厂的闲置空间。三星电子正在考虑扩大位于忠清南道天安市的 HBM 核心生产线,该地区是设备解决方案部门下的先进封装团队的所在地。
尽管 DRAM 市场状况尚未改善,但由于 HBM 需求快速增长,三星和 SK 正在推动对万亿韩元单位的投资。市场研究公司 TrendForce 表示,以千兆字节 (GB) 为单位的 HBM 需求预计将激增 60%,从 2022 年的 1.81 亿 GB 增加到 2023 年的 2.9 亿 GB。与 2024 年相比,预计 2024 年将再增加 30%。 2023 年。
由于像 ChatGPT 这样的生成式人工智能市场正在增长,需求正在迅速增长。生成式人工智能的核心是通过大规模数据学习来提高问题答案的准确性。图形处理单元(GPU)被选为能够同时快速学习大规模数据的芯片。存储数据供 GPU 处理的 DRAM 也很重要。据了解,最新的 HBM“HBM3”的总容量是最新 DRAM 产品 GDDR6 的 12 倍,带宽大约是最新的 DRAM 产品 GDDR6 的 13 倍。它类似于单车道道路(典型的 DRAM)和 13 车道高速公路 (HBM) 之间的区别,促进更顺畅的交通或数据流。
客户和 HBM 制造商通常会讨论产品开发一年多的时间并生产定制产品。Nvidia最近收到的来自SK海力士的HBM2E和HBM3也是1-2年前联合开发的产品。一位半导体行业官员报道称,“开发自己的生成式人工智能的主要公司也要求三星和SK共同生产HBM。”
HBM 正在解冻冻结的内存半导体市场。虽然三星和SK海力士尚未透露具体的HBM价格,但据悉最新第4代产品HBM3的价格约为最新传统DRAM的5-6倍。这就是为什么今年HBM出货量仅占DRAM总出货量的1.7%,但其销售额比例却达到了11%。
对于提高存储半导体公司的业绩也有积极的影响。SK海力士在7月26日举行的第二季度业绩发布会上解释说,“第二季度DRAM的平均售价(ASP)与上一季度相比‘以高个位数百分比’上涨”,并且“这是由于销售许多高附加值产品的影响。”
然而,要成为真正的“摇钱树”,有人指出,他们需要进一步提高HBM产量并降低生产成本。首都圈一所大学的半导体研究教授表示,“堆叠的 DRAM 越多,良率越低,成本越高”,“他们还必须克服‘生成式 AI 服务器’作为唯一需求来源的限制”。
免责声明: 凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。