TPU,用于处理云端计算任务。自2022年底生成式人工智能获得产业界广泛关注以来,TPU在生成式人工智能领域的应用范围也逐步拓宽。例如,2023年12月,谷歌推出多模态通用大模型Gemini的三个不同版本,该模型的训练大量使用了Cloud TPU v5p芯片。
谷歌曾表示,TPU是其推出许多服务的最大功臣之一,要是少了它,如即时语音搜寻、相片物件辨识及互动式语言翻译等无法丝滑运行,还有最先进的Gemini、Gemma、Imagen模型等也无法顺利问世。今年5月谷歌发布第六代TPU芯片Trillium今年5月,谷歌又发布了第六代TPU芯片Trillium。据悉,Trillium能在单个高带宽、低延迟Pod中扩展为多达256个TPU的集群,相较于前代产品,Trillium在适配模型训练方面的功能更强。同时,TPU芯片也逐渐走出谷歌公司,获得更大范围的市场青睐。
一如,7月30日苹果公司发布的一篇研究论文称,苹果在训练Apple Intelligence生态中的人工智能模型AFM时,选择了谷歌的两种张量处理单元(TPU)云集群。性价比优势成为“焦点”在以英伟达产品为代表的GPU在算力基础设施市场“一骑绝尘”的情况下,TPU何以崭露头角,又何以赢得苹果等全球知名企业的青睐?市场分析师表示,以GPU为代表的通用计算架构和针对特定领域的DSA(DomainSpecific Architecture,面向特定领域)计算架构是目前两大主流AI芯片设计思路。
但在市场容量巨大的应用领域,计算芯片的架构演进总呈现出从通用型向专用型转变的规律。随着大模型训练的计算量和复杂度的指数级增长,传统GPU成本昂贵、算力利用率低、能耗大的局限日益凸显。今年1月,扎克伯格发帖公布了一组数字:到2024年底,Meta“大规模的计算基础设施”将包括高达35万张英伟达H100显卡,为Meta在人工智能领域的突破提供强大支持。如果将其他GPU计算在内,Meta的计算基础设施将拥有“相当于近60万张H100的算力”。这将是一笔巨大的开销。与此同时,马斯克表示,2024年特斯拉仅仅在英伟达的人工智能芯片上就将耗费超过5亿美元,特斯拉未来还需要价值“数十亿美元”的硬件才能赶上最大规模的竞争对手。高昂的算力成本,使一众全球顶尖的科技企业望而生畏。在此背景下,作为AI专用芯片之一的TPU被业界期待能够从新的技术路线上另辟蹊径。在这方面,谷歌已经提供了成功经验。据谷歌副总裁兼工程院士Norm Jouppi透露,TPU的出现足足让谷歌省下了15 个数据中心的建设成本。探索市场新可能从产品逻辑来看,作为一种专用集成电路 (ASIC),TPU专为单一特定目的而设计,用以运行构建AI模型所需的独特矩阵和基于矢量的数学运算。而GPU的设计初衷是处理图像信息。因此,从架构设计的角度来看,相比于适合处理高度并行任务的GPU, TPU更适用于处理矩阵乘法等神经网络算法。“TPU具有为AI大模型而生的天然优势架构。”TPU架构AI芯片公司中昊芯英创始人兼CEO杨龚轶凡在接受《中国电子报》记者采访时表示,TPU专为神经网络结构而设计,在相同制造工艺、能耗和芯片尺寸条件下,性能优于GPU
3~5倍。在适用场景上,TPU为已有的算法和框架进行优化,性能和功耗表现均优于GPU,更适用于深度学习模型的大规模部署。深度学习无疑仍是AI领域的主导力量,深度学习的某个分支将承载着未来100%的AI应用。从长远来看,TPU比GPU在AI赛道上更具竞争力。中昊芯英自研的中国首枚高性能TPU训练芯片在TPU芯片领域,产业界正在进行不同的尝试。一方面,“先行者”谷歌探索出了自己的专属路线。咨询公司D2D Advisory首席执行官Jay Goldberg直言,今天只有两家公司有着成熟的芯片研发体系来训练人工智能模型,一个是英伟达的GPU,另一个是谷歌的TPU。但区别于英伟达,谷歌并不会以独立产品的形态单独出售自己的TPU芯片,而是通过谷歌云平台向外部客户提供基于TPU的算力服务。另一方面,更多芯片从业者仍在探索基于TPU架构的新产品。今年2月,美国AI芯片初创公司Groq凭借其开发的新型AI处理器LPU(Language免责声明: 凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。