英伟达计划出售技术,助力 AI 芯片通信效率飞升

时间:2025-05-21
  根据媒体报道,英伟达(Nvidia)宣布了一项重要计划,将出售一项用于连接芯片的技术,旨在加快构建和部署人工智能工具所需的芯片间通信速度。
  英伟达推出了其 NVLink 技术的新版本 ——NVLink Fusion,并打算将该技术出售给其他芯片设计公司,以协助构建强大的定制人工智能系统,实现多个芯片的高效连接。这一消息是由英伟达首席执行官黄仁勋在中国台北音乐中心宣布的,此地也是 5 月 20 日至 23 日举行的 Computex AI 展会的举办地。
  据悉,Marvell Technology 和联发科已计划在其定制芯片业务中采用名为 Fusion 的 NVLink 技术。此外,世芯电子、富士通和高通等也成为了该技术的合作伙伴。NVLink Fusion 技术的核心优势在于,它通过标准化芯片间互连协议,成功突破了传统 PCIe 接口的带宽限制,极大地提升了多芯片协同计算的效率。其采用高速差分信号通道设计,支持点对点通信架构,能将数据传输延迟降低至微秒级,同时兼容 NVLink 与 PCIe 多协议并发。在 AI 训练场景中,例如千亿参数模型的分布式训练,该技术可通过 NVLink 连接多个 GPU 和 CPU 形成统一内存池,避免了数据在不同芯片间频繁迁移导致的性能损耗。而且,它支持模块化扩展,既适用于单机多芯片互联(如 DGX 系统),也能横向扩展至数据中心级集群,满足从边缘计算到超大规模 AI 推理的多样化需求。
  从技术发展历程来看,NVLink 系列经历了从专有协议到开放授权的转变。早期的 NVLink 仅用于 GPU 间的点对点直连,2022 年推出的 NVLink C2C(Chip - to - Chip)首次开放协议标准,允许非英伟达芯片(如 Arm CPU、ASIC)直接接入。这为 NVLink Fusion 的 IP 授权模式奠定了基础,第三方厂商可直接将 NVLink 物理层与协议栈集成至自研芯片中,构建半定制化 AI 基础设施。这种演进路径不仅巩固了英伟达在 AI 硬件生态的主导地位,还通过降低第三方厂商的开发门槛,加速了 NVLink 成为行业标准的进程。
  然而,英伟达在中国市场的发展面临着挑战。黄仁勋在接受采访时透露,由于美国对其 H20 芯片的出货量实施限制,该公司在中国 “放弃了 150 亿美元的销售额”,并且上个月表示将承担与这些限制相关的费用。英伟达的 NVLink 技术主要用于在各种芯片之间交换海量数据,例如其 GB200 芯片,它结合了两个 Blackwell 图形处理器和一个 Grace 处理器。
  除了出售新技术,黄仁勋还透露公司计划在台北北郊设立中国台湾总部。他在主题演讲中回顾了英伟达构建 AI 芯片、系统和支持这些芯片的软件的历史,并表示演讲主要关注公司的图形芯片。如今,英伟达已从最初的视频游戏图形芯片制造商,发展成为自 2022 年 ChatGPT 推出以来推动 AI 热潮的主要芯片生产商。此外,英伟达一直在设计运行微软 Windows 操作系统并使用 Arm Holdings 技术的中央处理器。
  去年在台北国际电脑展上,黄仁勋在中国台湾引发了 “詹森热潮”(Jensanity),受到了展会现场观众的热烈欢迎。在三月份举行的公司年度开发者大会上,黄仁勋概述了英伟达将如何应对计算需求从构建大型人工智能模型到基于模型运行应用程序的转变,并公布了几代新一代人工智能芯片,包括将于今年晚些时候上市的 Blackwell Ultra。
  值得一提的是,继 Rubin 芯片之后,英伟达还计划推出 Feynman 处理器。这是其继 Rubin 架构之后的下一代 GPU 产品,以著名理论物理学家理查德?费曼(Richard Feynman)命名,预计于 2028 年正式推出。从技术规格来看,Feynman 架构将搭配全新的 HBM 内存技术,即 HBM3e,并支持更高的内存带宽和容量。基于 Feynman 的系统节点可容纳 144 颗 GPU 和 72 颗 CPU,内存组合达到 20TB HBM3e 与 40TB DDR5,相比前一代提升了 50%。这种设计将显著提升大规模 AI 训练和复杂计算任务的效率,尤其适用于生成式 AI 和量子物理模拟等领域。


上一篇:30 亿美元出售 ZT Systems 服务器制造,AMD 战略转型新动向
下一篇:兆易创新筹划港股上市

免责声明: 凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。