根据外媒报道,随着中国新兴企业DeepSeek宣布以低成本开发出AI模型,图形处理器(GPU)的价格备受关注。有分析认为,DeepSeek使用的美国英伟达的GPU市场价格比美国企业使用的尖端产品便宜1~3成左右。似乎并不是极端便宜。
据悉,DeepSeek开发出媲美美国OpenAI的「ChatGPT」的AI模型时,使用的是英伟达的「H800」芯片。相当于美国企业使用的「H100」的廉价版。
美国政府在2022年限制了AI芯片的对华出口,随着H100等成为受管制对象,英伟达向中国供应了降低性能的H800(现在H800也成为受管制对象)。AI公司KARAKURI的董事CPO中山智文解释称,「与H100相比,H800的计算速度只有一半」。
英伟达没有公开价格,虽然实际的交易价格会根据购买数量和合同条件而发生很大变化。但多位半导体交易相关人士透露,H800约为400万~500万日元(约合人民币19.23万元~24.03万元),H100约为550万日元(约合人民币26.44万元)。
据外媒报道,DeepSeek使用了2000~3000块H800,开发出了AI模型「V3」。使用的GPU的总额单纯计算为80亿~150亿日元(约合人民币3.85亿元~7.21亿元)。
DeepSeek解释称,V3的开发费用为557.6万美元。假设让AI学习278.8万小时,每小时费用为2美元,这个费用与美国的AI模型相比不到10分之1。也就是说,GPU的价格差异并不是成本的差异。
作为日本AI研究第一人的东京大学教授松尾丰指出,「AI模型的开发需要数十次、数百次的反覆试验,在约280万小时的学习之前也花费了时间,这样考虑符合逻辑。花在这上面的时间和GPU本来就应该纳入成本之中」。
也有观点认为,DeepSeek通过租赁方式降低了GPU的费用。
当然,这并不意味着不需要尖端GPU。英国调查公司Omdia的高级咨询总监南川明表示,「美国企业在资金实力和人才方面并未落后,将推进开发的高效化」。今后围绕AI的开发竞争,使用什么样的GPU以及如何使用的问题或将更加受到关注。
免责声明: 凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。