微软发布“小模型”,目标在端侧应用

时间:2023-12-14
  头部企业你来我往,人工智能模型领域战况焦灼。12月13日,微软公司正式发布了此前在Ignite2023大会上预告的Phi-2语言模型。据微软介绍,这款模型仅有 27 亿参数,但相比规模更大的70亿、130亿参数模型,性能表现并不逊色,未来有望在笔记本电脑、手机等移动设备上运行。
  据介绍,Phi-2的训练使用了96块英伟达A100 GPU,耗时14天,在多个方面的性能优于谷歌公司12月7日发布的32亿参数Gemini Nano模型。此外,Phi-2在多项基准测试中超过了70亿参数的Mistral模型和Meta公司130亿参数版本Llama-2模型;在多步推理任务(即编码和数学)方面,Phi-2的性能超过了体量达到其25倍的700亿参数版本Llama-2模型。
  此前,Phi系列模型版本已经经过了数次更迭。今年6月,微软首次发布了参数量为13亿的Phi-1,主要用于QA问答、聊天格式和代码等场景;9月,微软推出更新版本Phi-1.5,并同时表示,在常识、语言理解和推理等方面的基准测试中,该模型可以与多达100亿个参数的其他大型语言模型相媲美。微软表示,本次推出的Phi-2模型在逻辑推理和安全性方面均有显著改进,通过正确的微调和定制,小型语言模型能够成为云和边缘应用程序的强大工具。
  目前,该模型已经可以通过微软Azure AI Studio访问。
上一篇:起亚将利用太阳能发电相当于 250 万辆电动汽车
下一篇:台积电首次提及1.4nm工艺

免责声明: 凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。