编译/VR陀螺
日前,Meta和牛津大学的研究人员开发了一种新的3D生成式AI模型VFusion3D,能够从单张图像或文本描述生成高质量的3D对象,可能会改变虚拟现实、游戏和数字设计等领域。
VFusion3D界面简单直观,允许用户自己上传或从一系列预加载的示例中选择图像。预加载的示例表现非常出色,生成的3D模型和渲染视频以显著的准确性捕捉了原始2D图像的本质和细节。
图源:Meta
据悉,研究团队利用预训练的视频人工智能模型生成合成3D数据,使他们能够训练更强大的3D生成系统,解决了长久以来的3D训练数据稀缺问题。
具体来看,这一过程本质上是教会模型从多个角度想象物体,研究人员对现有的视频人工智能模型进行了微调,以生成多视图视频序列,这些合成数据被用于训练VFusion3D。在测试中,与以前的最先进系统相比,该模型可以在几秒钟内从单个图像生成3D资产,人类评估者在90%以上的时间里更喜欢VFusion3D的3D建模。
图源:Meta
随着更强大的视频AI生成模型的开发和更多3D数据可用于微调,研究人员预计VFusion3D的能力将迅速提高,这一突破最终可能会加速依赖3D内容的各个行业的创新。
游戏开发者可以快速制作角色和环境的原型,建筑师和产品设计师可以快速将概念以3D形式可视化,而VR/AR应用程序可能会因为AI生成的3D资产而变得更加身临其境。未来,个人和小团队也能够规模生产大型工作室级别的高质量3D模型。
目前,VFusion3D研究论文已被2024年欧洲计算机视觉会议(ECCV)接受,代码已在GitHub 上公开,允许其他研究人员在此基础上进行工作。随着这项技术的不断发展,VFusion3D有望重新定义3D内容创作的可能性边界,并开辟新的创意表达领域。
来源:venturebeat
投稿/爆料:tougao@youxituoluo.com
稿件/商务合作: 六六(微信 13138755620)
加入行业交流群:六六(微信 13138755620)
版权申明:本文为VR陀螺原创,任何第三方未经授权不得转载。如需转载请联系微信:vrtuoluo233 申请授权,并在转载时保留转载来源、作者以及原文链接信息,不得擅自更改内容,违规转载法律必究。文中有图片、视频素材来自互联网或无法核实出处,如涉及版权问题,请联系本网站协商处理。
元宇宙数字产业服务平台
下载「陀螺科技」APP,获取前沿深度元宇宙讯息