Arm 最近使用新的 CPU 内核升级了 Arm Neoverse 计算子系统 (CSS) 设计,旨在帮助公司为数据中心构建自己的定制芯片。
Arm 基础设施业务高级副总裁兼总经理 Mohamed Awad 表示,数据中心定制芯片的市场非常巨大。
“[超大规模企业]正在从头开始重新设计系统,从定制规格开始,”他说。“这是有效的,因为他们比其他人更了解自己的工作负载,这意味着他们可以微调系统的各个方面,包括网络加速,甚至通用计算,特别是为了优化效率、性能并最终优化总体拥有成本。 ”
超大规模数据中心运营商已经开发了多代自己的基于Arm 的定制 CPU,包括 AWS Graviton,并且 Ampere 和 Nvidia 等公司已将 Arm 用于数据中心 CPU。
CSS 是 Arm 的烤箱就绪设计,结合了关键 SoC 元素,让客户在设计定制 SoC 时占据先机。Arm 还拥有一个由设计合作伙伴组成的生态系统,可以在需要时帮助实施。总体目标是使定制芯片的路径更快、更容易实现。最近发布的 Microsoft Cobalt 100 基于第二代 CSS(特别是 CSS-N2)。
Awad 表示,超大规模企业选择 Arm 是因为 CSS 的可用性意味着可以快速创建定制解决方案并将其与 Arm 强大的生态系统相结合。
“我们从各地听到的消息是,一般来说,对于超大规模厂商和许多 OEM 而言,通用计算无法跟上,这意味着现成的 SoC 无法跟上,”他说。“我们对 [CSS] 非常乐观,并且我们已经看到这些平台的巨大吸引力。”
超大规模企业渴望构建自己的芯片的驱动力无疑是人工智能。
Awad 表示,Arm 的客户在基于 Arm 的 CPU 上大规模运行人工智能推理,部分原因是定制加速器的成本,部分原因是其可用性。(众所周知,市场领先的数据中心 GPU Nvidia H100 供应短缺。)他表示,与其他选择相比,CPU 的应用广泛,而且价格非常实惠。
“将推理工作转移到加速器(无论是 GPU 还是其他加速器)的决定取决于您正在处理的计算粒度,”他说。“在某些计算粒度下,在工作负载的背景下,将其保留在 CPU 上更有意义……从性能角度来看,这最终将转化为成本。”
Arm 的愿景是最终让“相当大比例(即使不是绝大多数)的人工智能推理在 CPU 上运行,特别是当模型针对 CPU 硬件变得更加优化时。
“这个领域有很多工作正在进行——市场在不断发展,所以我可以投入什么来尽快完成工作,”他说。“因此,我们今天可能会看到一些 GPU 或人工智能加速器的使用。未来,随着市场的成熟,其中很多可能最终会出现在 CPU 上。”
Awad 表示,Arm 还预计其 CSS 设计将用于紧密耦合的 CPU 加加速器设计,类似于Nvidia Grace Hopper,后者针对内存容量和带宽进行了优化。
CSS 不仅仅适用于超大规模企业;它还适用于超大规模企业。他说,他们还可以支持小型公司,特别是通过设计合作伙伴的 Arm Total Design 生态系统。
“(较小的)公司希望尽快进入市场,推出他们的解决方案,以占领市场份额,建立自己的地位,”他说。“他们还寻求一定程度的灵活性,以便能够专注于创新,然后他们显然需要性能来运行其中一些工作负载。”
免责声明: 凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。