zui近,ChatGPT热潮席卷quan球。ChatGPT(Chat Generative Pre-trained Transformer)是由OpenAI于2022年11月推出的对话AI模型,仅发布2个月便实现月活突破1亿,成为历史上用户增长zui快的消费级应用之一。
ChatGPT火出圈背后是“人类反馈强化模型”的应用。在问答模式的基础上,ChatGPT可以进行推理、编写代码、文本创作等等,这样的特殊优势和用户体验使得应用场景流量大幅增加。
ChatGPThuo爆程度引人注目的同时也催生了对算力基础设施建设更高的要求,特别是底层芯片。那么,ChatGPT将带动哪些芯片的需求?
AI服务器需求激增
当前,终端用户使用ChatGPT频率提高,数据流量暴涨,对服务器的数据处理能力、可靠性及安全性等要求相应提升。
从技术原理来看,ChatGPT基于Transformer技术,随着模型不断迭代,层数也越来越多,对算力的需求也就越来越大。从运行条件来看,ChatGPT完美运行的三个条件:训练数据%2B模型算法%2B算力,需要在基础模型上进行大规模预训练,存储知识的能力来源于1750亿参数,需要大量算力。
资料显示,ChatGPT是基于GPT-3.5优化的一个模型,GPT-3.5是GPT-3.0的微调版本。OpenAI的GPT-3.0模型存储知识的能力来源于1750亿参数,单次训练费用约460万美元,GPT-3.5在微软AzureAI超算基础设施上进行训练,总算力消耗约3640PF-days(即假如每秒计算一千万亿次,需要计算3640天)。
可以说,ChatGPT不仅对人工智能底层芯片数量产生了更大的需求,而且对底层芯片算力也提出了更高的要求。
随着ChatGPT流量激增,作为算力载体的AI服务器将迎来重要发展机遇。预计,quan球AI服务器市场将从2020年的122亿美元成长到2025年288亿美元,年复合增长率达到18.8%。
这些芯片将受益
从芯片构成来看,AI服务器主要是CPU%2B加速芯片,通常搭载GPU、FPGA、ASIC等加速芯片,利用CPU与加速芯片的组合可以满足高吞吐量互联的需求。
1.CPU
作为计算机系统的运算和控制he心,是信息处理、程序运行的zui终执行单元。目前,服务器CPU向多he心发展,满足处理能力和速度提升需要,比如AMD EPYC 9004he心数量zui多可达96个。不过,系统性能优劣不能只考虑CPUhe心数量,还要考虑操作系统、调度算法、应用和驱动程序等。
2.GPU
GPU高度适配AI模型构建,由于具备并行计算能力,可兼容训练和推理,目前GPU被广泛应用于加速芯片。目前,ChatGPT引发了GPU应用热潮。其中,百度即将推出文心一言(ERNIE Bot)。苹果则引入AI加速器设计的M2系列芯片(M2 pro和M2 max)将被搭载于新款电脑。随着ChatGPT的使用量激增,OpenAI需要更强的计算能力来响应百万级别的用户需求,因此增加了对英伟达GPU的需求。
3.FPGA
FPGA具有可编程灵活性高、开发周期短、现场可重编功能、低延时、方便并行计算等特点,可通过深度学习%2B分布集群数据传输赋能大模型。
4.ASIC
ASIC在批量生产时与通用集成电路相比具有体积更小、功耗更低、可靠性提高、性能提高、保密性增强、成本降低等优点,可进一步优化性能与功耗。随着机器学习、边缘计算、自动驾驶的发展,大量数据处理任务的产生,对于芯片计算效率、计算能力和计能耗比的要求也越来越高,ASIC通过与CPU结合的方式被广泛关注,国内外龙头厂商纷纷布局迎战AI时代的到来。
5.光模块
当前,AI时代模型算力需求已经远超摩尔定律的速度增长,特别是在深度学习、大模型时代之后,预计5-6个月翻倍。然而,数据传输速率成为容易被忽略的算力瓶颈。伴随数据传输量的增长,光模块作为数据中心内设备互联的载体,需求量随之增长。
未来算力升级路径
zui近,ChatGPT的兴起推动着人工智能在应用端的蓬勃发展,这也对计算设备的运算能力提出了前所未有的需求。虽然AI芯片、GPU、CPU%2BFPGA等芯片已经对现有模型构成底层算力支撑,但面对未来潜在的算力指数增长,短期使用Chiplet异构技术加速各类应用算法落地,长期来看打造存算一体芯片(减少芯片内外的数据搬运),或将成为未来算力升级的潜在方式。
本文参考自《证券—计算机行业AIGC算力时代系列bao告《ChatGPT芯片算力:研究框架》和《国际电子商情》。