当前位置: 代码网 > 科技>人工智能>智能机器人 > 腾讯联合中山大学、港科大推出图生视频模型“Follow-Your-Pose-v2”

腾讯联合中山大学、港科大推出图生视频模型“Follow-Your-Pose-v2”

2024年06月08日 智能机器人 我要评论
与此前推出的模型相比,“Follow-Your-Pose-v2”可以在推理耗时更少的情况下,支持多人视频动作生成。

6 月 7 日消息,腾讯混元团队联合中山大学、香港科技大学联合推出全新图生视频模型“follow-your-pose-v2”,相关成果已经发表在 arxiv 上(代码网附 doi:10.48550/arxiv.2406.03035)。

据介绍,“follow-your-pose-v2”只需要输入一张人物图片和一段动作视频,就可以让图片上的人跟随视频上的动作动起来,生成视频长度可达 10 秒。

与此前推出的模型相比,“follow-your-pose-v2”可以在推理耗时更少的情况下,支持多人视频动作生成。

此外,该模型具备较强的泛化能力,无论输入人物是什么年龄、服装,背景如何杂乱,动作视频的动作如何复杂,都能生成出高质量的视频。

正如代码网前一天的报道,腾讯已经公布了针对腾讯混元文生图开源大模型(混元 dit)的加速库,号称大幅提升推理效率,生图时间缩短 75%。

官方表示,混元 dit 模型的使用门槛也大幅降低,用户可以基于 comfyui 的图形化界面使用腾讯混元文生图模型能力。

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com