当前位置: 首页 > 资讯 > 科技 > 字节跳动推出豆包视频生成大模型:革新多主体交互技术,解锁多元风格
  • 0
  • 0
  • 分享

字节跳动推出豆包视频生成大模型:革新多主体交互技术,解锁多元风格

字节跳动 2024-09-24 16:52:11 爱吃爆米花

9月24日消息,火山引擎宣布上线“豆包视频生成”系列的PixelDance与Seaweed两款高级AI模型,专为企业领域量身定制,并开启了限定邀测,标志着字节跳动正式踏入AI视频生成技术的竞技场。

值得注意的是,这两款前沿的豆包视频生成模型目前正限于即梦AI内测版本中,进行小规模测试,预示着视频内容创作将迎来新一轮的智能化变革。

该模型支持高效的 DiT 融合计算单元、全新设计的扩散模型训练方法和深度优化的 Transformer 结构,可以实现更充分地压缩编码视频与文本,支持一致性多镜头生成,能够大幅提升视频生成的泛化能力。

官方介绍称,无论是语义理解能力,多个主体运动的复杂交互画面,还是多镜头切换的内容一致性,豆包视频生成大模型均达到业界先进水平。

火山引擎总裁谭待表示,“视频生成有很多难关亟待突破。豆包两款模型会持续演进,在解决关键问题上探索更多可能性,加速拓展 AI 视频的创作空间和应用落地。”

谭待表示,豆包视频生成大模型支持多风格多比例的一致性多镜头生成,可应用在电商营销、动画教育、城市文旅、微剧本等领域。

此外,谭待表示,豆包大模型发布以来使用量爆发式增长。截至 9 月,豆包语言模型的日均 tokens 使用量超过 1.3 万亿,相比 5 月首次发布时猛增十倍,多模态数据处理量也分别达到每天 5000 万张图片和 85 万小时语音。

此前视频生成模型大多只能完成简单指令,豆包视频生成模型则能实现自然连贯的多拍动作与多主体复杂交互。有创作者在抢鲜体验豆包视频生成模型时发现,其生成的视频不仅能够遵循复杂指令,让不同人物完成多个动作指令的互动,人物样貌、服装细节甚至头饰在不同运镜下也保持一致,接近实拍效果。

据火山引擎介绍,豆包视频生成模型基于 DiT 架构,通过高效的 DiT 融合计算单元,让视频在大动态与运镜中自由切换,拥有变焦、环绕、平摇、缩放、目标跟随等多镜头语言能力。豆包视频生成模型具备专业级光影布局和色彩调和,画面视觉极具美感和真实感。

深度优化的 Transformer 结构,则大幅提升了豆包视频生成的泛化能力,支持 3D 动画、2D 动画、国画、黑白、厚涂等多种风格,适配电影、电视、电脑、手机等各种设备的比例,不仅适用于电商营销、动画教育、城市文旅、微剧本等企业场景,也能为专业创作者和艺术家们提供创作辅助。

来源:it之家
免责声明:本内容来自互联网,不代表本网站的观点和立场,如有侵犯你的权益请来信告知;如果你觉得好,欢迎分享给你的朋友,本文网址 https://wangzhidaquan.com/zixun/90988.html
文章标签
评论

文明上网,理性发言,共同做网络文明传播者

验证码
提交
热榜
热门游戏
换一换
热门软件
换一换