DeepSeek加速推开ASIC时代大门

时间:2025-02-25
  根据中国电子报报道,DeepSeek研究团队再放大招,公开NSA算法。同日,马斯克发布Grok 3模型,试与DeepSeek和Open AI来比高。此外,Open AI首款AI ASIC芯片即将完成,有望明年量产.....
  DeepSeep之风正盛,将全球科技产业的重心从训练推向AI时代下半程的推理阶段。随着算力需求节节高升,ASIC芯片在这股汹涌的浪潮之下,得以有更多机会在定制化场景中大显身手。值此之际,属于ASIC定制化芯片的时代之幕是否由此拉开?
  打破AI芯片的旧范式
  2025年开年以来,一场由DeepSeek引发的“科技风暴”迅速席卷全球:英伟达称DeepSeek-R1是最先进的大语言模型;亚马逊和微软宣布接入DeepSeek-R1模型;DeepSeek-R1、V3、Coder等系列模型陆续上线国家超算互联网平台;微信宣布接入DeepSeek,上线AI搜索功能......
  在各类“DeepSeek”消息满天飞的背后,一方面反映出全球科技企业在这一开源AI模型到来后的焦虑或兴奋,但另一更为深层的原因是:DeepSeek的出现打破了一直以来模型对于硬件算力预设的包袱,或将塑造AI产业发展的全新生态。
  芯片作为支撑人工智能发展的算力底座,与大模型的训练效率和推理速度直接相关,其中自去年下半年迅速崛起的ASIC尤为值得关注。
  ASIC芯片是指专为特定应用而设计的集成电路。由于ASIC芯片针对特定算法和应用进行优化设计,它在特定任务上的计算能力强大,通常具有较高的能效比。在AI领域,AI ASIC芯片也叫AI算力专用芯片,是人工智能产业链的上游产品之一,为整个人工智能的大模型训练和推理提供算力支撑,主要面向深度学习、神经网络训练/推理等AI任务而定制。DeepSeek 的问世,提供了“极致压缩+高效强化训练+AI推理算力大幅简化”的低成本新模式,推动ASIC时代加速到来。
  中昊芯英高性能TPU芯片“刹那”
  “DeepSeek将软硬件协同优化推向了极致的路径,本质上打破了AI芯片领域‘生态霸权决定市场格局’的旧范式,开启了‘算法定义硬件’的新竞争维度。”中昊芯英解决方案架构师顾立程向《中国电子报》记者表示。
  具体而言,DeepSeek对ASIC芯片的影响体现在以下三方面。
  一是在技术路线重构方面,产生了架构定义权的转移。过去开发者因CUDA工具链完备性被迫绑定NVIDIA硬件,但DeepSeek绕过了CUDA的优化策略,证明直接操作PTX指令的收益已超越工具链便利性成本,DeepSeek的成功实践验证了算法主导的硬件设计范式,为TPU等ASIC芯片突破生态桎梏提供了方法论。
  二是为生态破局提供契机,从"适配生态"到"定义生态"。CUDA生态的依赖降低后,ASIC芯片将能通过提供定制化工具链、优化编译器等方式,吸引到更多开发者,尤其是已有意愿做底层优化的客户。此外,AI芯片在架构设计上更能灵活适应新的本土趋势和需求,比如支持动态稀疏计算或混合精度。
  三是ASIC芯片商业价值的跃升,从"替代品"到"最优解"。当硬件性能差异足够大时,细分领域客户将更愿意为ASIC芯片的定制优化方案买单。尤其是,DeepSeek式技术路线能与国产ASIC芯片协同,通过本土模型与算力厂商间更紧密的合作、更极致的适配优化,为客户提供最具性价比的算力。
  算力的风吹向推理
  AI计算分为训练和推理两种。在AI大模型的下半场,算力需求的重心正在逐步从训练转向推理。在温哥华NeurIPS大会上,OpenAI联合创始人兼前首席科学家Ilya Sutskever曾作出“AI预训练时代将终结”的判断。而DeepSeek的到来,也预示着这一过程的临近。
  就在2月18日,DeepSeek研究团队在海外社交平台X上发布了一篇关于NSA(原生稀疏注意力)的技术论文。一经发布,迅速引发广泛关注。据悉,新注意力机制NSA专为长文本训练与推理设计,能利用动态分层稀疏策略等方法,通过针对现代硬件的优化设计,显著优化传统AI模型在训练和推理过程中的表现,特别是提升长上下文的推理能力,在保证性能的同时提升了推理速度,并有效降低了预训练成本。
  对于ASIC而言,机会蕴藏在从业者阵营的扩张。在ASIC芯片的分支中,TPU和LPU这两类芯片都有望在DeepSeek的浪潮下受益。
  早在今年1月就有消息传出,美国推理芯片公司Groq已经在自己的LPU芯片上实机运行DeepSeek,效率比最新的H100快上一个量级,达到每秒24000token。值得关注的是,Groq曾于2024 年12月在沙特阿拉伯达曼构建了中东地区最大的推理集群,该集群包括了19000个Groq LPU。
  而在TPU方面,据产业链相关人士透露,谷歌TPU芯片去年的生产量已经达到280万到300万片之间,成为全球第三大数据中心芯片设计厂商。
  随着AI大模型进入“下半场”,逻辑推理成为新的焦点。这一阶段对算力的需求虽然不如训练阶段那么高,但对能效和成本的要求更为严格。ASIC芯片由于其高度优化的设计和针对特定任务的高效性,在AI推理领域具有显著优势。“AI专用芯片推理服务器的占比将逐步提升,这将使得AI专用芯片在推理市场上占据重要地位。”顾立程表示。
  GPU地位被撼动?
  DeepSeek的出圈,最先带来的影响是令长期占据算力主力军地位的GPU陷入焦虑,尤其是全球最大数据中心GPU供应商英伟达的股价和市值曾一度下挫。相比之下,被视为GPU“挑战者”的ASIC芯片则迎来了更上一层楼的时机。那么,这是否预示着未来AI芯片的版图将出现剧烈的反转?
  就在DeepSeek让行业对AI算力需求的视线中心从训练转向推理之际,一个被称为“杰文斯悖论”的经济学理论被业界重新提及。1865年,经济学家杰文斯提出:当技术进步提高了效率,资源消耗不仅没有减少,反而激增。例如,瓦特改良的蒸汽机让煤炭燃烧更加高效,但结果却是煤炭需求飙升。
  上述理论与当下GPU芯片遇到的情况类似。面对“DeepSeek危机”的英伟达股价曾一度大跌17%,但截至2月19日已恢复到此前高位水平,从侧面反映了AI行业对GPU芯片需求的认知变化。AI推理芯片初创企业Groq公司CEO乔纳森·罗斯在近日的访谈对此事发表了看法,他认为英伟达的股票不应该为此下跌。这与市场的价值衡量无关,而只是市场中一种人气的较量。“实际上,我认为英伟达会卖掉他们生产的每一块用于训练的GPU。你会看到相同数量的 GPU仍然会被售出,但对训练的需求会增加。因为对推理的需求越多,需要的训练芯片就越多,反之亦然。”
  一般来说,被广泛采用的英伟达GPU芯片更多被用来进行AI大模型训练,而到了推理阶段,一些厂商开始着力开发自己的AI推理芯片,其中多为ASIC定制化芯片。不同的是,在DeepSeep助力下,以前行业更关注决定下限的训练阶段,如今或将更多注意力放到决定上限的推理阶段。有业内人士指出,GPU与ASIC之间并非简单的替代关系。
  不过,虽然作为开源推理模型的DeepSeek令推理需求受到更多关注,但ASIC芯片的崛起将在训练和推理两个角度都会对算力芯片的竞争格局带来深远变化?。
  从训练角度来看,过去传统GPU凭借其强大的并行计算能力,在AI训练阶段占据了主导地位。然而,AI专用芯片针对特定场景设计,在拥有配套的软硬件全栈生态下,AI专用芯片算力集群的算力利用效率更高,功耗更低。随着软件生态的逐步成熟,AI专用芯片有望更广泛地应用于AI训练,与传统GPU形成竞争态势?。另外,随着AI专用芯片使用的规模扩大,也会让AI专用芯片的单芯片成本逐渐降低,为智算中心建设带来切切实实的采购成本降低,并提升了应用端的能力?。
  “AI专用芯片的崛起将使得算力芯片的竞争格局更加多元化和复杂化。”在顾立程看来,在训练和推理两个领域,AI专用芯片都将与GPU展开激烈竞争,挑战其霸主地位。同时,AI专用芯片的应用前景也极为广阔,有望在数据中心、云计算、人工智能等多个领域发挥重要作用?。


上一篇:Trendforce:2024 EV销售额增长25%
下一篇:人形机器人赛道究竟有多“挤”?

免责声明: 凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。