3 月 15 日消息,腾讯与清华大学及香港科技大学联合发布新型图生视频模型 “Follow-Your-Click”,已上线 GitHub(代码于四月份公开)并发布相关研究论文(查阅地址:DOI:2403.08268)。
该模型以局部动态生成及多物体动画为主打性能,支持多样化动作,如头部运动、翅膀震动等。
据了解,在这款名为 “Follow-Your-Click” 的视频模型中,用户仅需利用点击与明确指令便可实现图案的局部动画效果。用户只需轻点所需位置,再输入微量提示词汇,原先静态的图像便能立即呈现出动态效果,无需繁琐程序,轻松实现物体自动微笑、舞蹈乃至飞翔等视觉效果。
此外,该系统还能协同处理多个对象的动画效果,提升动画的复杂度及多样性。用户可通过简单的点击和短语提醒轻松选定需要动画转变的区域以及动作类型,无需冗长描述或额外操理解释。
全部0条评论
快来发表一下你的评论吧 !