MinT – 生成顺序事件的文本转视频模型,灵活控制时间戳 | AI工具集


MinT是什么

MinT(Mind the Time)是Snap Research、多伦多大学和向量研究所联合推出的多事件视频生成框架,基于精确的时间控制,根据文本提示生成包含多个事件的视频序列。MinT的核心技术是时间基位置编码(ReRoPE),让模型能将特定的文本提示与视频中的相应时间段关联起来,确保事件按顺序发生,控制每个事件的持续时间。作为首个提供视频中事件时间控制的模型,MinT在生成连贯、动态连接的事件方面超越现有的开源模型,为视频内容创作带来新的灵活性和控制能力。
MinT - 生成顺序事件的文本转视频模型,灵活控制时间戳 | AI工具集

MinT的主要功能

  • 多事件视频生成:根据文本提示生成包含多个事件的视频,事件可以是动作、表情或日常活动等。
  • 时间控制:支持用户指定每个事件的开始和结束时间,实现对视频中事件顺序和时长的精确控制。
  • 连贯性保持:在生成多事件视频时,保持视频内容的连贯性,包括一致的主题和背景。
  • 高质量的视频合成:优化模型生成高质量的视频内容,确保视频的动态度和视觉质量。
  • 基于LLM的提示增强器:提供基于大型语言模型(LLM)的提示增强器,能将简短的提示扩展为详细的全局和时间字幕,生成更丰富的视频内容。

MinT的技术原理

  • 时间基位置编码(ReRoPE):引入了eRoPE,一种时间基位置编码方法,指导模型如何将文本提示与视频帧相关联,确保事件在正确的时间范围内发生。
  • 预训练的视频扩散变换器(DiT):基于预训练的潜在扩散变换器(DiT),变换器基于编码器将视频编码为视频令牌,用去噪网络生成视频。
  • 全局和时间字幕的交叉注意力:在每个DiT块中用两个交叉注意力层,分别处理全局字幕和时间字幕,实现对事件的精确控制。
  • 事件时间范围的关联:提供时间定位的字幕,模型一次关注一个事件,在生成过程中保持对事件时间范围的控制。
  • 场景切换控制:基于条件化模型识别视频中的场景切换,在生成视频中控制镜头转换的效果。
  • 提示增强:用大型语言模型(LLM)扩展简短的文本提示,生成详细的全局字幕和时间字幕,支持用户从简单的提示生成复杂的视频内容。

MinT的项目地址

MinT的应用场景

  • 娱乐产业:用在电影、电视剧的预制作阶段,生成剧本的动态预览,帮助团队理解场景和事件的流程。
  • 广告行业:创建动态广告,通过精确控制广告中产品展示的时间点,增强信息传递的有效性。
  • 教育领域:制作教育视频,如历史重现、科学实验模拟,用视觉化的方式辅助学习和理解复杂概念。
  • 游戏行业:生成游戏中的剧情动画和过场动画,提升游戏的叙事体验。
  • 新闻媒体:快速制作新闻事件的动态摘要视频,提高新闻报道的吸引力和信息传递效率。
© 版权声明

© 版权声明

相关文章

暂无评论

暂无评论...