在AIGC(生成式人工智能)大幅提升行业生产效率的当下,利亚德·虚拟动点向前再进一步,入局AI大模型,发布自研LYDIA专业能力动作大模型。利亚德集团副总裁、CMO,虚拟动点CEO刘耀东在接受《中国电子报》记者专访时表示,LYDIA已经形成了对空间动作数据的“认知、感知、预测、生成”等核心能力,在空间计算、动作生成领域率先探索了AIGC的新模式,在影视创作、动画游戏制作等领域将大有可为。
手握“数据资本”入局大模型
从PGC、UGC到AIGC,内容产业经历了一轮又一轮生产力变革。由PGC演进到UGC,虽然牺牲了一定的专业水平,但大幅提升了生产效率。而AIGC则同时解决了内容生产的质量和提升生产效率两大难题。
从需求角度来看,元宇宙、空间计算概念火热,内容产业已经处于需求爆发的节点,需要高频次产出大量符合标准的内容。AI大模型时代已经到来,其背后是算法、算力、数据的综合比拼。算法、算力可以通过人的训练、扩展数据中心得到解决,而数据资源则需要一分为二看待。互联网上的图片、文字浩如烟海,但三维空间数据却十分稀缺。
刘耀东表示:“AI时代研发大模型的瓶颈不再是算法的开发,而是数据的积累。多年来,利亚德·虚拟动点在空间计算和动作捕捉领域积累了大量的动作数据,这是利亚德·虚拟动点能开发出动作大模型的核心原因。”
记者了解到,LYDIA动作大模型的参数包括基础数据参数和核心动作数据参数两个部分。在基础数据参数方面,LYDIA参考了当今主流的大模型数据集,在训练模型对于自然语言理解的过程中达到了百亿级的规模;在核心动作数据参数方面,拥有多年optitrack光学动捕的数据积累、无标记点动捕的数据沉淀,以及互联网公开视频中的动作数据提炼能力。凭借三种动作数据的积累,利亚德·虚拟动点对LYDIA大模型成功进行了动作数据的认知训练。
“比起动辄花费巨资购买大量数据训练的大模型而言,利亚德·虚拟动点深耕空间计算、动作捕捉技术多年,拥有动作数据资源优势,希望能把这些数据沉淀出来,用数据加速整个空间计算产业的发展,可持续性地精进动作大模型。”刘耀东表示。
专注场景推动商业化应用
输入“蹲起、向前走并转身”等一个或多个指令,LYDIA大模型就可以连续生成一个简单动作、一组复杂动作以及一系列特征型动作,并完成主流渲染引擎平台数据的打通与调用。
在2023年底举行的发布会上,记者亲眼见证了LYDIA大模型对于动作数据文件的认知理解与描述能力。业内专家对此的评价是,如果一些影视机构的专业创作,或是个人博主的内容创作中用到此模型,将如鱼得水。
在通用大模型遍地开花的当下,业内达成共识,大模型落地成功的产业主要有两类,一个是设计、文娱、游戏等创造型产业,另一个是金融、医疗、法律等高知识密集型行业。
谈及利亚德·虚拟动点开发动作大模型之初的整体设计和规划,刘耀东表示:“我们确实在大模型的定位上做了许多思考。LYDIA是目前全球范围为数不多真正实现动作生成的大模型,就是奔着解决某些场景去的,比如影视创作、游戏开发等。”
区别于其他通用大模型,LYDIA动作大模型是专业能力大模型,与前者的能力特点和应用领域都不尽相同,但又互为能力补充,实现了场景补齐。LYDIA可实现对空间计算领域动作数据的认知理解,从而进行高效的动作生成,聚焦对于动作数据获取效率更为看重的行业场景,比如影视、电商、动画制作、游戏。同时,LYDIA还支持其他软件平台打通和调用,使其生成的动作文件可以被生态伙伴用于商业化。
目前来看,LYDIA动作大模型的生态合作圈“朋友遍天下”,不仅吸引了许多头部云厂商,还包括大量通用模型类厂商和应用类厂商。
据刘耀东介绍,未来利亚德·虚拟动点探索的合作方向之一是如何将LYDIA大模型与通用大模型平台进行整合,实现资源的平行调动。
对于商业合作模式,刘耀东憧憬道:“一是上云,电影公司、高校、直播博主等用户可以调用API进行动作生成流程;二是项目制,把动作大模型做私有化部署,用于解决某一用户的具体使用需求。”
刘耀东表示:“未来在LYDIA大模型商业化的过程中,我们先释放一部分能力给用户试用。通过此过程,尽最大努力加深大家对动作大模型的认知,比如让业内和大众认识到动作大模型在电影创作中能有效提升视觉呈现精度和制作效率等。”
自2023年发布以空间计算为战略主体,以AI大模型、硬件设备、空间数据为三大核心的“一体三核”核心能力与发展战略以来,利亚德·虚拟动点在AI时代阔步前行,如今推出了LYDIA动作大模型,加速完善AI能力体系。未来,利亚德·虚拟动点继续加大科技创新深度和精度,推动AI大模型与空间计算应用加速落地。
免责声明: 凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。