Runway新功能「运动笔刷」再次惊艳AI圈:随手一涂,图片就动起来了

描述

网友:我都不敢想象一年后的视频技术会有多先进。

 

一段五十秒的预告视频,再次让 AI 圈沸腾了。

 

昨日 Runway 宣布,即将在视频生成工具 Gen-2 中上线「Motion Brush」(运动笔刷)功能,一种可控制生成内容移动的新方法。

 

物联网

这次的玩法,甚至不需要输入文字,只要有手就够了。

 

任选一张图片,画笔涂抹到哪里,哪里就立刻动起来:

 

物联网

物联网

物联网

不管是水流、云彩、火焰、烟雾还是人物,都能高度还原其动态。这就是传说中的「点石成金」吗?

 

物联网

网友看完表示:我都不敢想象一年后的视频技术会有多先进……

 

物联网

毕竟在 2023 年初,从文本生成视频还是一件相当困难的事情。

 

Runway 曾在今年 2 月推出了 Gen-1,功能非常丰富,包括风格化、故事版、蒙版、渲染、自定义等等。看起来,这是一个专注于「编辑」视频的工具。

 

但今年 3 月,Gen-2 的面世改变了一切,它新增了文字、图片生成视频功能。用户仅需输入文字、图像或文字加图像的描述,Gen-2 即可在很短的时间内生成相关视频。

 

这是市场上第一个公开可用的文本到视频模型。比如输入一段纯文字「午后的阳光透过纽约阁楼的窗户照进来」,Gen-2 会直接「脑补」出视频:

 

 

现在,只需几个 prompt 和手势,我们就能生成像样的视频并进一步编辑,复杂的视频编辑软件和冗长的制作流程一去不复返。

 

如果将文生图神器 Midjourney 与文生视频神器 Gen-2 结合起来使用,用户完全可以不动笔,直出大片。

 

当然,Gen-2 也是有竞争对手的,就是 Pika Labs,特别是后者还是免费的。

 

 

以上画面由 Pika Labs 生成。

 

对于这种疯狂卷的态势,一部分用户是非常期待的:「2024 年,Pika Labs 和 Runway 之间的拉扯一定很有意思。」

 

物联网

传闻中,OpenAI 也有视频生成相关的技术。有网友表示:「这让我不禁好奇,OpenAI 的 any-to-any 模型在生成视频方面究竟有多出色,因为这家公司通常都走在别人前面。」

 

物联网

未来的视频和电影制作行业,会因此而颠覆吗?


原文标题:Runway新功能「运动笔刷」再次惊艳AI圈:随手一涂,图片就动起来了

文章出处:【微信公众号:智能感知与物联网技术研究所】欢迎添加关注!文章转载请注明出处。


打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分