一种在生成对抗性学习框架下的新颖的视频合成方法

电子说

1.2w人已加入

描述

我们研究视频到视频的合成问题,其目的是学习从输入源视频(例如,一系列语义分割掩码)到精确描述源视频内容的输出真实感视频的映射功能。

虽然它的图像对应物(图像到图像合成问题)是一个受欢迎的话题,但是视频到视频合成问题在文献中很少探讨。在不了解时间动态的情况下,将现有的图像合成方法直接应用于输入视频通常会导致视觉质量低下的时间不连贯视频。

在本文中,我们提出了一种在生成对抗性学习框架下的新颖的视频合成方法。通过精心设计的生成器和鉴别器架构以及时空对抗目标,我们可以通过多种输入格式(包括分割蒙版,草图和姿势)获得高分辨率,逼真的,时间上连贯的视频结果。在多个基准上进行的实验表明,与强基准相比,我们的方法具有优势。

尤其是,我们的模型能够合成长达30秒的街道场景的2K分辨率视频,从而大大提高了视频合成的最新水平。最后,我们将我们的方法应用于未来的视频预测,其性能超过了几个最先进的竞争系统。

我们的模型能够合成长达30秒的街道场景的2K分辨率视频,从而大大提高了视频合成的最新水平。最后,我们将我们的方法应用于未来的视频预测,其性能超过了几个最先进的竞争系统。

我们的模型能够合成长达30秒的街道场景的2K分辨率视频,从而大大提高了视频合成的最新水平。最后,我们将我们的方法应用于未来的视频预测,其性能超过了几个最先进的竞争系统。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分