揭秘英伟达人工智能视频慢动作技术

电子说

1.2w人已加入

描述

英伟达曾经发布过一段视频,演示了通过人工智能如何将一段普通视频转化为平滑自然的慢动作视频,效果就像是电影上展示的慢动作特效,观众可以清楚看到一系列连续的慢动作。那么这个特效是怎样实现的呢?就让我们一探其背后的技术支撑。

慢动作,没你相像的那么简单

相信大家在各种影视作品中都看到过慢动作特效,比如在刚刚结束的世界杯就有许多球员进球,射门,身体接触的慢动作回放,通过VAR逐帧回看,这些慢动作可以清晰看到一瞬间发生的事情(图1)。

对于电影里的慢动作特效,实际上是借助设备进行高速摄影,比如拍摄速度达到50帧/秒、100帧/秒甚至更高,然后在回放时候仍然选择24帧/秒常规速度播放,这就相当于把实际1秒钟拍摄的图像用2秒多到4秒多时间回放,从而实现慢动作效果。

当然对于普通用户来说,我们没有高速摄影设备,那么怎么实现慢动作效果?英伟达近日推出基于cuDNN 加速的PyTorch 深度学习框架实现任意视频慢动作,通过这个这个人工智能框架,结合NVIDIA Tesla V100 GPU强大处理能力,它可以将任意一段视频拉长,从而实现类似电影特效里的慢动作(图2)。

图2 英伟达演示网球拍击打有颜色的墨水瞬间

视频拉长的背后——人工智能慢动作技术

通过上面介绍我们知道,常规的慢动作是将高速摄影的视频低速播放实现。那么对于普通的视频(已经是低速摄影成品了),英伟达又是怎样实现慢动作效果的呢?

慢动作的核心是将原来的视频拉长而实现慢速效果,但是如果将普通的视频直接使用低速效果播放,实际效果则会变为卡顿、帧与帧之间动作变得不连贯。因此将普通的视频拉长后还要实现平滑的慢动作效果,此时就需要对视频物体进行定位和补帧。

比如一段汽车漂移的视频,如果要实现漂移的慢动作演示,我们首先需要对视频中的汽车进行定位,只有对汽车进行准确定位后,比如精确定位汽车每一秒的漂移位置,这样才可以对汽车后续整个漂移动作进行全程的展示(图3)。

图3 漂移汽车

实现对展示物体的定位后,因为展示的是慢动作效果,我们还需要对视频进行补帧。因为原来视频本身就是低速摄影拍摄的,现在将视频拉长后,为了让拉长的视频不出现卡顿(掉帧),此时就需要进行精确的补帧,使得视频拉长后播放仍然非常顺滑(图4)。

图4 英伟达展示舞蹈演员跳舞的慢动作视频

这样通过视频定位和补帧,英伟达的人工智能框架技术就实现将任意视频慢动作化。那么这样的效果是怎样实现?

英伟达的这项技术是借助NVIDIA Tesla V100 GPU强大视频处理能力+人工智能学习框架实现的。英伟达搭建好人工智能学习框架后,通过预先准备的约1.1万段的视频素材作为数据源给人工智能进行学习,让它从这些视频素材中学习定位和补帧。比如上述跳舞视频,人工智能技术可以对视频中的舞者进行定位,并且可以对舞者每一帧动作进行学习,知道下一帧的人物是怎样的状态显示。这样通过一定的算法和学习模型,并且通过人工智能的深度学习和自我学习,这个人工智能框架就可以对其他视频进行同样的定位和分解,从而通过完美的定位和补帧技术,实现将普通视频慢动作化(图5)。

图5 英伟达展示人从高空跳下压破气球瞬间慢动作

当然不仅仅是视频慢动作,借助新的训练方式,让人工智能可以从已有的图像中,生成新的图像,甚至可以利用不同的人像,生成新的肖像。比如类似影片中的换脸特效。英伟达的人工智能框架可以精准的实现人物从一个人脸无缝转换到另一个人脸的特效(图6)。

图6 英伟达展示变脸特效

慢动作,带给我们生活更多乐趣

通过上面的展示,我们见识到了英伟达人工智能框架在视频处理方面的强大功能。这个技术的出现可以给我们生活带来很多的乐趣。

随着手机的普及,我们使用手机来拍摄短视频,对于那些稍纵即逝的画面,我们总想看清楚整个过程。比如喜欢跳广场舞的老妈,对于队友,教练的快舞节奏总是看不清楚整个动作,现在只要使用手机拍摄,然后借助英伟达这个技术转化,舞者再快的动作都可以变慢,让老妈仔细看清楚每个舞蹈的动作。

比如英伟达的变脸技术则可以让我们再手机上制作出更多的搞笑视频,比如将舍友变成可爱的猫咪,然后通过微信、朋友圈和好友共享。当然这些技术也可以让我们视频处理变得更为简单,比如剪辑钢琴老师弹琴动作,方便我们学习指法,剪辑球员射门视频,让我们慢慢享受射门乐趣!

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分