当前位置: 首页 > 资讯 > 科技 > 腾讯革新图生视频技术,Follow-Your-Pose-v2模型引领多人动态视频合成新潮流
  • 0
  • 0
  • 分享

腾讯革新图生视频技术,Follow-Your-Pose-v2模型引领多人动态视频合成新潮流

腾讯 2024-06-15 10:04:56 爱吃爆米花

近日,腾讯混元团队携手中山大学及香港科技大学,共同发布了突破性图生视频创作模型——"Follow-Your-Pose-v2"。该模型标志着视频生成技术的重大飞跃,成功实现了从个体到群体的拓展,能够精准解析多人场景照片,并赋予照片中每个人物以生动的动态效果,共同演绎流畅自然的视频片段。

主要亮点:

支持多人视频动作生成:在推理耗时更少的情况下,实现多人视频动作的生成。

强泛化能力:无论年龄、服装、人种、背景杂乱程度或动作复杂性如何,都能生成高质量视频。

日常生活照/视频可用:模型训练及生成可以使用日常生活照(包括抓拍)或视频,无需寻找高质量图片/视频。

正确处理人物遮挡:面对单张图片上多个人物躯体相互遮挡的问题,能生成具有正确前后关系的遮挡画面。

技术实现方面:

模型利用"光流指导器"引入背景光流信息,即使在相机抖动或背景不稳定的情况下,也能生成稳定背景动画。

通过"推理图指导器"和"深度图指导器",模型能更好地理解图片中的人物空间信息和多角色的空间位置关系,有效解决多角色动画和身体遮挡问题。

评估与比较:

团队提出了一个新的基准Multi-Character,包含约4000帧多角色视频,用以评估多角色生成效果。

实验结果显示,"Follow-Your-Pose-v2"在两个公共数据集(TikTok和TED演讲)和7个指标上的性能均优于最新技术35%以上。

应用前景:

图像到视频生成技术在电影内容制作、增强现实、游戏制作及广告等多个行业有着广泛的应用前景,是2024年备受关注的AI技术之一。

其他信息:

腾讯混元团队还公布了文生图开源大模型(混元DiT)的加速库,大幅提升推理效率,生图时间缩短75%。

混元DiT模型的使用门槛降低,用户可以在Hugging Face的官方模型库中用三行代码调用模型。

来源:站长之家
免责声明:本内容来自互联网,不代表本网站的观点和立场,如有侵犯你的权益请来信告知;如果你觉得好,欢迎分享给你的朋友,本文网址 https://wangzhidaquan.com/zixun/53450.html
文章标签
评论

文明上网,理性发言,共同做网络文明传播者

验证码
提交
热榜
热门游戏
换一换
热门软件
换一换