扫除AI绘画的迷雾,全面解读AIGC的秘密!加入《AI绘画与AIGC实践之路》专栏,一睹究竟!
意外之喜,昨天收到Wonder Studio的通知邮件,我已获得Wonder Studio内测资格!这个程序我起初看这么专业的影视领域没敢申请,过了很久开始玩Gen-2以后才填了申请单,没想到通过这么快,感觉又一扇AI的大门像我敞开。
一、网站介绍
Wonder Studio是一个AI视频编辑技术,它可以自动地将CG角色动画、光照合成到实景中。它的原理是利用了神经网络和机器学习的方法,来检测视频中的演员的表演,并将其转换为CG角色的动作。它还可以根据视频的环境和光照条件,来调整CG角色的材质和阴影,使其与实景更加协调。
Wonder Studio的特点是它可以在浏览器中运行,不需要安装复杂的软件或使用昂贵的硬件。它也不需要联网或API密钥,只需要上传视频和CG模型,就可以生成结果。它还可以导出各种元素,如动作捕捉、角色通道、透明蒙版、干净画面、相机跟踪等,方便用户在其他软件中进行后期处理。
Wonder Studio的优势是它可以大大简化和加速VFX制作的流程,让用户不需要使用专业的摄影设备或动作捕捉系统,就可以创建逼真的CG角色。它还可以让用户自由地选择和更换CG角色,甚至使用一些独特的风格化角色。它还可以让用户在不同的场景中重复使用同一个CG角色,节省成本和时间。
相比我最近一直在测试使用的Gen-2程序,WonderStudio更加偏向于专业的影视制作、3D动画制作人员。需要了解全方位的3D建模、影视编辑等等各类专业知识,否则只能浅尝辄止。
二、使用流程
网站的使用流程相对比较简单,首先上传一个你的视频素材。
随后系统会自动检测视频中的人物角色,然后你可以上传添加一个新的3D角色,或者从系统中的角色列表中选择一个。
这个视频中的机器人角色选用的是网站上免费提供的一个角色,目前网站默认提供了12个3D角色,可以直接替换掉你视频中的人物主角,后续还会放开更多CG角色。如果你是专业人员,还可以创建自己的3D角色,并融入已有的视频中,与你的视频进行合成。也就是你可以创建你的虚拟角色、虚拟演员。
设置完3D角色,就可以渲染视频,等待合成新视频了。根据视频长度的不同,所需渲染时间不同,目前内测期支持的单视频时长最多2分钟,而视频渲染生成时间在1-3小时,相当漫长,未来随着技术和算力的进步,渲染时间减少后可用性会更强。
除了使用自己的视频素材,我们还可以使用文字生成视频技术Gen-2生成一段视频片段,再用Wonder Studio技术将主角替换为统一的新视频,这个工作流也非常有价值。下面看一个我测试的Gen-2 & WonderStudio视频:
这个视频中,上半部分的视频是使用Runway Gen-2直接从文字生成,下面的视频是使用Wonder Studio替换掉上面视频中的人物,重新渲染出的新视频。效果非常惊艳,新角色动作捕捉的非常流畅,细部也非常清晰,与背景的融合也很好。可以说这种多个AI工具交替应用是未来的一个重要方向,利用不同工具的优势完成不同的工作,Gen-2负责剧情场景的初步构建,WonderStudio负责将自己构建的CG角色叠加到场景中。
三、目前缺点
但在测试中也发现目前WonderStudio在动作捕捉方面表现出色,但在其他一些方面还有提升空间,下面看一个我测试失败的视频:
这个视频中人物的动作捕捉仍旧非常完美,但在腿部的姿势方面出现了明显的错误,程序未能处理遮挡的问题,两条腿都在同一侧,具体原因我需要详细看一下官方的文档,查找是否有处理遮挡关系的办法。
总之,Wonder Studio是一个非常有潜力的AI视频编辑工具,它可以通过简单的流程即实现虚拟CG角色与实景视频的融合,给予CG角色全新的生命力。尽管目前在个别情况下,如处理人物遮挡关系方面还需改进,但其在动作捕捉和光照匹配方面的成效已经达到比较高的水准。如果未来能不断提高其广泛适用性,并加强与其他AI工具的结合,必将助力新一代数字内容创作者释放无限创意,开启全新的视觉篇章。