Wan-Move – 阿里联合清华等开源的运动可控视频生成框架

AI项目 2025-12-14

Wan-Move是什么

Wan-Move 是阿里巴巴通义实验室等机构开源的运动可控视频生成框架,通过潜在轨迹引导实现高质量的视频运动控制。核心亮点在于无需对现有图像到视频模型进行架构更改,可实现细粒度的点级运动控制,能生成 5 秒、480p 的视频,运动控制质量与商业系统相当。Wan-Move 提供了 MoveBench 基准测试,包含大规模样本和高质量轨迹注释,可用于评估和对比不同方法的运动控制能力。

Wan-Move

Wan-Move的主要功能

  • 高质量运动控制:能生成5秒、480p的视频,其运动控制质量与商业系统相当,满足高质量视频创作需求。
  • 潜在轨迹引导:通过传播第一帧的特征沿轨迹生成时空特征图,无需额外运动模块,可无缝集成到现有图像到视频模型中。
  • 细粒度点级控制:支持对场景中每个元素进行精确的区域级运动控制,实现高度定制化的视频效果。
  • 基准测试MoveBench:提供大规模、多样化、长时长的视频样本和高质量轨迹注释,用于评估和对比不同方法的运动控制能力。
  • 开源与易用性:代码、模型权重和MoveBench均已开源,用户可快速上手进行视频生成和运动控制实验,降低使用门槛。

Wan-Move的技术原理

  • 潜在轨迹引导:Wan-Move 使用潜在轨迹引导技术,将物体的运动表示为密集的点轨迹,并将这些轨迹映射到潜在空间中。通过沿着轨迹传播第一帧的特征,生成对齐的时空特征图,从而实现对视频生成中运动的精细控制。
  • 无需额外模块:框架无需对现有的图像到视频模型(如 Wan-I2V-14B)进行架构更改,也无需添加额外的运动编码器,即可实现运动控制,具有很好的兼容性和扩展性。
  • 大规模训练:通过大规模的训练数据和优化,Wan-Move 能生成高质量的 5 秒、480p 视频,其运动控制能力与商业系统相当,确保了视频的视觉效果和运动的准确性。
  • 细粒度点级控制:物体的运动通过密集点轨迹表示,使用户可以对场景中的每个元素进行精确的区域级运动控制,实现高度定制化的视频效果。
  • 基准测试 MoveBench:为了验证和评估运动控制效果,Wan-Move 提供了 MoveBench 基准测试,包含大规模样本、多样化内容类别、长时长视频和高质量轨迹注释,为研究和开发提供了标准化的测试平台。

Wan-Move的项目地址

  • 项目官网:https://wan-move.github.io/
  • Github仓库:https://github.com/ali-vilab/Wan-Move
  • HuggingFace模型库:https://huggingface.co/Ruihang/Wan-Move-14B-480P
  • arXiv技术论文:https://arxiv.org/pdf/2512.08765

Wan-Move的应用场景

  • 视频创作:用户可以通过定义物体的运动轨迹来生成具有特定运动效果的视频,适用于动画制作、特效设计、创意短视频等领域,帮助创作者快速实现复杂的运动场景。
  • 广告与营销:在广告视频中,Wan-Move 可以用于生成动态的产品展示、品牌故事等,通过精细的运动控制吸引观众注意力,提升广告的吸引力和影响力。
  • 视频编辑:支持对视频的第一帧进行编辑,将这些更改应用到整个视频中,还可以进行运动复制和相机运动控制,帮助视频编辑人员快速调整和优化视频内容。
  • 教育与培训:在教育领域,Wan-Move 可以生成具有动态演示效果的教学视频,例如物理实验、生物动画等,通过生动的运动展示帮助学生更好地理解和学习知识。
  • 游戏开发:在游戏开发中,Wan-Move 可以用于生成游戏中的动画效果,如角色动作、场景变化等,提升游戏的视觉效果和用户体验。
  • 虚拟现实(VR)和增强现实(AR):Wan-Move 可以生成与虚拟环境或增强现实场景相匹配的动态视频内容,为用户提供更加沉浸式的体验。
©️版权声明:若无特殊声明,本站所有文章版权均归AI工具集原创和所有,未经许可,任何个人、媒体、网站、团体不得转载、抄袭或以其他方式复制发表本站内容,或在非我站所属的服务器上建立镜像。否则,我站将依法保留追究相关法律责任的权利。

相关文章