图像由 Imaginarium Studios 提供

在Imaginarium Studio 借助虚拟制作实现原本不可能的目标

Imaginarium Studios是一家位于伦敦,处于数字化表演捕捉最前沿的先锋公司。

最初由演员兼导演Andy Serkis在2011年创立,公司致力于通过表演捕捉技术,向电影、电视和视频游戏中增添令人信服、感情细腻,且引人入胜的数字角色。

Foundry 趋势在此就实时和虚拟制作技术,以及技术的未来发展方向等话题,对Imaginarium Studios的首席执行官Matthew Brown作了一次专访。

FT:你们的虚拟制作工作流程具体是什么样的?

MB: 我们的虚拟制作工具集让表演者、演员和导演尽可能的真实看到他们正在表演的最终效果。

我们的流程首先从Shogun(在这个部分中,采用VICON的装置)转入到Motionbuilder中,之后再直接进入自定义的虚幻引擎。

通过Vcam,我们能真实的模拟出光学摄像机的相同效果和感觉。并为DOP和导演提供了在传统电影制作方式中需要使用升降机才能完成的各种疯狂的摄像机运动。当然,我们只用在虚拟化的片场中就可以完成了。

此流程,无论是用作制作工具,或是仅作为预演工具,都可以在场景中任意放置需要的摄像机,而且无论演员是否在场都能完成操作。在稍后,我们还可以返回去重新运行运动数据,并增添上一个新的pass。

运动探测器中的战斗场景

 

FT: 能讲讲有关设置的更多细节吗?

MB: 我们共有两个舞台:主舞台和一个较小的舞台,主舞台主要用作运动范围(ROM)舞台。当然,我们还将别的玩意也加入了其中,甚至每周都会在Twitch上直播VR游戏。

我们在主舞台上进行捕捉,而导演则在隔壁房间里佩戴VR头戴显示,观看虚拟现实中实时输出的动作捕捉(简称动捕mo-cap)舞台上发生的情况。

因此,您可以和一个穿着动捕服装的人进行“真正的剑斗”,当然了,您是头戴着VR眼镜参与其中的。非常有趣!每次做演示,我们都会让观众戴上VR眼镜,然后其他人穿上动捕服装,大家都以为看到的不过是将人(的影像)做了流式传输,但随后他们拿起剑以后,是会实际击中宝剑。这些都是非常酷的工具,能让您直观地看到需要实时创建的内容。

我们的TA组长 George,还在虚幻引擎中创建了众多的平显(HUD)菜单,能将各种内容加载到场景里,例如道具、环境、不同的角色等等。之后,您只需使用下拉菜单,就可以添加角色、道具了,所有这一切只需点击鼠标即可实现。

而且您还可以切换多个不同的角色,玩耍不同的道具,并快速调换环境。

FT: 是否有越来越多的制作都采用这种方式了呢?

MB: 对于大部分导演来说,这仍然是新事物。不过,已经有一些人士下决心去推动它的发展了。像詹姆斯•卡梅隆,以及《头号玩家》的导演斯皮尔伯格等人多年来就一直在推动此项技术。当然了,还有我的商业合作伙伴Andy Serkis,像《森林之子毛克利》(Mowgli)项目也将于明年在Netflix上演绎了。就系统和实现途径而言,有着许多不同的搭配组合与技术结合方法。

对于我们来说,既能将最小型的动捕系统搬到实拍片场,然后使用引擎完成实拍合成。或者您也可以来到我们的动捕舞台,从而在环境中实时看到数字资产,再者也可以选择叠加实拍素材,由此看到数字资产在实拍画面中的效果。

imaginarium 团队

 

FT: 给我们讲讲您在《The Tempest》中的工作吧!

(这是一个与皇家莎士比亚公司的合作项目,在其中Imaginarium Studios与演员、创意导演合作,通过让演员Mark Quartley穿上Xsens(动捕)服装,从而提供了一种可行的方式,最终实现了Ariel的所有表现效果。)

MB: 《The Tempest》项目的挑战在于该如何创建好工作流程。以便RSC的舞台工作人员每天都能参与到这个节目中来。我们在《The Tempest》项目中所做的是,交付给他们一个可执行的程序文件,其中包含了Ariel角色的各种表现形式。之后,由舞台上的团队运行该程序。此外,我们还创建了一个插件,以便他们从灯光台中控制多个角色化身的属性。

而且我们选择了一套团队都非常熟悉的原生工具,并让引擎与之相结合,而不是让他们去试图理解新引擎。

FT: 从技术角度来看,其中的难度有多大呢?

MB:从动捕的角度来看,我们得将惯性服装(Inertial suit)融入现场表演之中,这也就引出了一系列挑战。虽然惯性服装非常适合现场驱动角色,但却有着全局性漂移以及仅知自身位置的问题。毕竟此项技术只能感知追踪传感器之间的相互关系:但不知道自身究竟在世界空间中的具体位置。而且由于采用Wi-Fi来进行流式传输,因此还面临这来自片场和空间的干扰。

核心就在于如何创建出可靠的工作流程,以便将运动数据进行流式传输,之后再应用到化身之上。最后,我们通过27个不同位置的投影仪进行流程传输,来实现了适合片场的可靠设置。最终非常管用!后来,我们去斯特拉特福德跑了一圈,也在巴比肯运行了一次,都很稳定。

imaginarium办公室

 

FT: 有什么项目让您觉得特别自豪吗?

MB: 《The Tempest》就是一个很出色的项目,我也很满意。我们最近还有两个BBC节目。其中有个是关于尼安得特尔人的节目,另一个名为《The Ruins of Empires》......它们都很酷,我们创作的很多由动作捕捉驱动的角色最后都会呈现到银幕之上,而且 [英国说唱艺术家] Akala还会在其中与他们相互动。

作品中结合了传统的视觉特效、动画,以及动捕驱动的动作,还有实拍的表演。这一切都是在我们的舞台上拍摄完成的 - 甚至是实拍元素也都是这样的。

FT: 过去几年来,可用的制作技术和工具都发生了怎样的变化呢?

MB:近年来,VICON对其光学系统的改进主要是运动范围(ROMs:Range of motion)的速度和软件内部的特性。虚幻引擎则是加入了像Sequencer(序列剪辑)等功能,不仅有了更多趣味性,而且能够以更偏向传统剪辑的方式来完成工作。

尽管如此,我们仍然需要创建插件和对象,以使得这些系统相互通信。我们也一直在持续关注新增的特性集,并相应的编写特定代码以适配工作流程,或让流程更加高效。在过去的几天里,大家一直都在致力于新Vcam方面的工作。这样将会获得效果逼真,响应灵敏,且十分迅速的Vcam控制。例如,焦点跟踪现在都可以直接记录到引擎之中了。

对于Epic这样的公司而言,可以说是互利共赢之路 - 他们正在努力开拓 – 为引擎争取更加广阔的市场,而我们也获得了新的机会。虽然这些并不是Epic会投入其中的核心部分,但在我们舞台上,却以不同的方式实现了功能。

3d映射出的打斗场景

 

FT: 您希望动捕方面有些什么进展呢?

MB:在探索方面我很感兴趣的是更多不同技术的整合。我们也已经做了一些非正式的测试,例如,将惯性服装与光学系统相结合,而我还想在实拍片场中尝试做一次,利用最小型化的动捕系统,并结合使用惯性服装,这样两者的优势都一次拥有了。

而在虚幻引擎方面,我希望只要继续扩展特性集就很好了。

FT: 工作中让您最兴奋的是什么?

MB:那就是转入新平台,并尝试以前不曾用过的新组合。当别人过来,找到我们并说“我们甚至不确定它是否可能......”,我都会很开心,之后我们便会去努力找出让它成为可能的答案。

这就是工作中很有趣的方面了。当遇上了真正优秀的新合作伙伴,并一起开辟新天地时,我们便可以将游戏引擎知识、以及如何在VR设置中执行数字对齐等操作付诸运用了。

许多人都有着VR的背景,会思考他们该如何为这种体验创建内容。不过,却不需要去考虑如何将现实世界转入虚拟世界,然后再次返回来了。

这就是我们每天在舞台上所做的事情。比如说,'如果那边有一棵树,那该如何在舞台上表示出它,以便所有的摄像机角度和灯光保持正确呢?' 不过这些对我们来说早已是个自然而然的过程了。将动捕中学到的东西,带到新平台上同样也是非常有趣的。