在人工智能浪潮席卷全球的当下,高带宽内存(HBM)市场的竞争愈发激烈。继英伟达之后,亚马逊旗下的 AWS 成为 SK 海力士 HBM 业务的又一关键客户。随着全球范围内对 AI 数据中心的大力投资,AWS 正积极寻求与韩国 SK 集团加强合作,而 SK 海力士也开始准备及时为其供应 12 层 HBM3E 产品。
AWS 在 AI 基础设施领域的投资堪称大手笔。不久前,AWS 宣布将在未来 5 年投资 200 亿澳元(约 17.6 万亿韩元)扩建其在澳大利亚的数据中心。此前,该公司还决定在北卡罗来纳州投资 100 亿美元、宾夕法尼亚州投资 200 亿美元、台湾投资 50 亿美元。今年,仅对 AI 基础设施的投资就将达到 1000 亿美元,较上一年增长 20%。同时,AWS 计划从今年开始与 SK 集团合作,在蔚山 Mipo 国家工业园区构建一个超大型 AI 数据中心,目标是到 2029 年运营总容量达到 103MW(兆瓦),AWS 为此投资了 40 亿美元。这些大规模的投资预计将极大地推动 HBM 的市场需求。
在芯片研发方面,AWS 正在设计自己的 “Trainium” 芯片,专门用于机器学习。该芯片将配备 HBM,在去年下半年发布的 “Trainium 2” 中,根据不同版本采用了 HBM3 和 HBM3E 8 层产品,最大容量为 96GB(千兆字节)。AWS 计划最早在今年年底或明年发布下一代芯片 “Trainium 3”,与上一代相比,计算性能提高了一倍,能效提高了约 40%,总内存容量达到 144GB(千兆字节),集成了四个 HBM3E 12 层单元。HBM3E 12 层产品是当今最先进的商用 HBM。
SK 海力士在 HBM 技术领域一直处于领先地位。去年 9 月,SK 海力士宣布全球率先开始量产 12 层 HBM3E,实现了现有 HBM 产品中最大的 36GB(千兆字节)容量。该公司将新产品的运行速度提高至现有内存的最高速度 9.6Gbps,在搭载四个 HBM 的单个 GPU 运行大型语言模型(LLM)‘Llama 3 70B’时,每秒可读取 35 次 700 亿个整体参数。为了实现这一突破,SK 海力士堆叠 12 颗 3GB DRAM 芯片,在保证与现有 8 层产品相同厚度的同时,将容量提升了 50%。公司将单个 DRAM 芯片制造得比以前薄 40%,并采用硅通孔技术(TSV)垂直堆叠,同时解决了堆叠更多变薄芯片时产生的结构性问题,应用先进 MR - MUF 工艺,使放热性能较上一代提升了 10%,并增强了对翘曲问题的控制,确保了产品的稳定性和可靠性。
免责声明: 凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。