编译/VR陀螺
日前,Meta和牛津大学的研究人员开发了一种新的3D生成式AI模型VFusion3D,能够从单张图像或文本描述生成高质量的3D对象,可能会改变虚拟现实、游戏和数字设计等领域。
VFusion3D界面简单直观,允许用户自己上传或从一系列预加载的示例中选择图像。预加载的示例表现非常出色,生成的3D模型和渲染视频以显著的准确性捕捉了原始2D图像的本质和细节。
图源:Meta
据悉,研究团队利用预训练的视频人工智能模型生成合成3D数据,使他们能够训练更强大的3D生成系统,解决了长久以来的3D训练数据稀缺问题。
具体来看,这一过程本质上是教会模型从多个角度想象物体,研究人员对现有的视频人工智能模型进行了微调,以生成多视图视频序列,这些合成数据被用于训练VFusion3D。在测试中,与以前的最先进系统相比,该模型可以在几秒钟内从单个图像生成3D资产,人类评估者在90%以上的时间里更喜欢VFusion3D的3D建模。
venturebeat