近日,Epic发布了一款新工具,旨在使用iPhone这样简单的设备捕捉演员的面部表现,并在“几分钟”内将其应用于虚幻引擎中的超现实“MetaHuman”。该功能被称为MetaHuman Animator,在3月份的游戏开发者大会上进行了详细介绍,但现在开发者可以自己尝试了。Epic还同时发布了一段由其内部团队制作的新视频,展示了该工具的功能。
虽然Epic的短片展示了一些令人印象深刻的微妙面部动画,但该公司强调的最大优势是MetaHuman Animator产生效果的速度。该公司的新闻稿中写道:“动画是使用GPU硬件在本地制作的,将在几分钟内完成。” Epic认为,这不仅有可能通过提高表演捕捉的效率来节省工作室的资金,而且可以让他们进行实验,变得更有创造力。
Epic表示,你可以在泡一杯咖啡的时间内查看结果。“只需点击几下”,面部动画就可以应用于MetaHuman角色,该系统甚至足够智能,可以根据表演的音频为角色的舌头制作动画。
至少从2020年开始,随着Epic的Live Link Face iOS应用程序的推出,使用iPhone的性能捕捉就可以在虚幻引擎中实现,但现在,它与Epic的MetaHuman技术承诺的高细节相结合。Epic表示,除了在iPhone 12及以上版本(能够捕捉视频和深度数据)上工作外,MetaHuman Animator还可以与“现有的垂直立体声头戴式相机[系统]一起使用,以实现更高的保真度”。
责任编辑:彭菁
全部0条评论
快来发表一下你的评论吧 !