腾讯携手清华港科大推出图生视频模型:Follow-Your-Click,实现在线物体追踪

描述

  3 月 15 日消息,腾讯与清华大学及香港科技大学联合发布新型图生视频模型 “Follow-Your-Click”,已上线 GitHub(代码于四月份公开)并发布相关研究论文(查阅地址:DOI:2403.08268)。

  该模型以局部动态生成及多物体动画为主打性能,支持多样化动作,如头部运动、翅膀震动等。

  据了解,在这款名为 “Follow-Your-Click” 的视频模型中,用户仅需利用点击与明确指令便可实现图案的局部动画效果。用户只需轻点所需位置,再输入微量提示词汇,原先静态的图像便能立即呈现出动态效果,无需繁琐程序,轻松实现物体自动微笑、舞蹈乃至飞翔等视觉效果。

  此外,该系统还能协同处理多个对象的动画效果,提升动画的复杂度及多样性。用户可通过简单的点击和短语提醒轻松选定需要动画转变的区域以及动作类型,无需冗长描述或额外操理解释。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分