GameFactory – 香港大学和快手联合推出的可泛化游戏场景框架 | AI工具集

AI工具8小时前发布 杨海雄
0 0


GameFactory是什么

GameFactory 是香港大学和快手科技联合提出的创新框架,旨在解决游戏视频生成中的场景泛化难题。框架基于预训练的视频扩散模型,结合开放域视频数据和小规模高质量的游戏数据集,通过多阶段训练策略,实现动作可控的游戏视频生成。
GameFactory - 香港大学和快手联合推出的可泛化游戏场景框架 | AI工具集

GameFactory的主要功能

  • 场景泛化能力:GameFactory 能生成多样化的游戏场景,不局限于单一风格或预设的场景。使生成的视频更具真实感和多样性。
  • 动作可控性:通过动作控制模块,GameFactory 可以实现对生成视频中角色或物体动作的精确控制。
  • 高质量数据集支持:为了支持动作可控的视频生成,GameFactory 采用了 GF-Minecraft 数据集。该数据集包含 70 小时的《我的世界》游戏视频,具有多样化的场景和详细的动作标注。
  • 交互式视频生成:GameFactory 支持生成无限长度的交互式游戏视频。用户可以通过输入指令或交互信号来控制视频内容的变化。

GameFactory的技术原理

  • 预训练视频扩散模型:GameFactory 基于在开放域视频数据上预训练的视频扩散模型,能生成多样化的游戏场景,突破了传统方法对特定游戏风格和场景的限制。
  • 三阶段训练策略
    • 第一阶段:使用 LoRA(Low-Rank Adaptation)对预训练模型进行微调,使其适应目标游戏领域,同时保留大部分原始参数。确保模型在开放域的泛化能力得以保留。
    • 第二阶段:冻结预训练参数和 LoRA,专注于训练动作控制模块,避免风格与控制信号之间的纠缠。目标是确保生成的视频能根据用户输入进行准确的动作控制。
    • 第三阶段:移除 LoRA 权重,保留动作控制模块参数,使系统能在各种开放域场景中生成受控的游戏视频,不局限于特定的游戏风格。
  • 动作控制模块:GameFactory 引入了动作控制模块,支持自回归动作控制,能生成无限长度的交互式游戏视频。
  • GF-Minecraft 数据集:为了支持动作可控的视频生成,研究团队发布了高质量的动作标注视频数据集 GF-Minecraft。数据集包含 70 小时的《我的世界》游戏视频,具有多样化的场景和详细的动作标注。数据集的设计满足了以下三个关键需求:
    • 可定制的动作:支持大规模、低成本的数据收集。
    • 无偏的动作序列:确保动作组合的多样性和低概率事件的覆盖。
    • 多样化的场景:通过预设的环境配置(如不同的生物群落、天气条件和时间段)增强场景多样性。

GameFactory的项目地址

GameFactory的应用场景

  • 游戏开发:GameFactory 通过预训练的视频扩散模型和动作控制模块,能生成多样化的游戏场景和交互式视频内容。
  • 游戏内容创新:GameFactory 的开放域生成能力使其能够突破传统游戏引擎的限制,创造出全新的游戏风格和场景。
  • 自动驾驶:其动作控制模块和场景生成能力可以用于模拟自动驾驶环境,生成多样化的驾驶场景。
  • 具身智能(Embodied AI):通过生成多样化的交互场景,为具身智能的研究提供支持。
© 版权声明

© 版权声明

相关文章

暂无评论

暂无评论...