Wan2.2-Animate – 阿里通义开源的动作生成模型,支持动作模仿和角色替换

AI项目2周前更新 小Ai
21 0 0

Wan2.2-Animate模型简介

Wan2.2-Animate是由阿里通义实验室研发的一款角色动画生成模型。该模型具备动作模仿与角色扮演双重能力,能够依据输入的视频表演,精准复刻人物的面部表情和身体动作,从而生成栩栩如生的角色动画。它可将动画角色自然地植入原始视频场景,并自动适配环境的光影与色彩。该模型基于Wan架构演进而来,通过空间对齐的骨骼信号来操控肢体运动,并利用从源图像提取的隐式面部特征来驱动表情生成,最终实现高度可控且生动传神的角色视频内容创作。用户现可直接通过通义万相平台在线体验此模型。

Wan2.2-Animate – 阿里通义开源的动作生成模型,支持动作模仿和角色替换

Wan2.2-Animate的核心功能

  • 动作模仿:用户提供一张角色图片和一段参考视频,模型便能将参考视频中的动作与表情迁移到静态角色图片上,赋予其动态活力。
  • 角色替换:在完全保留原视频动作、表情及场景上下文的前提下,将视频中的主角替换为用户指定的图片角色,实现视觉上的无缝衔接。

Wan2.2-Animate的技术实现

  • 输入范式:对原有Wan模型的输入方式进行改造,将参考图像、时序帧引导及环境信息整合到一个统一的符号表达体系中,以更好地适配角色动画生成任务。
  • 肢体动作控制:采用空间对齐的骨骼信号来复现身体动作。这类信号能够精确描述角色的肢体运动轨迹,通过将其与角色图像结合,实现对角色肢体动作的精准调控。
  • 面部表情控制:利用从源图像中提取的隐式面部特征作为驱动信号来重现表情。隐式特征能捕捉面部表情的细微变化,从而实现高度逼真的表情还原。
  • 环境融合:为了提升角色替换后与新场景的融合度,模型引入了一个辅助的“重打光”(Relighting)LoRA模块。该模块在维持角色外观一致性的同时,能使其光影与色调与新环境相匹配,达成无缝的环境融合效果。

如何体验Wan2.2-Animate

  • 访问平台:首先,访问通义万相官方网站并完成登录。
  • 上传素材:在相应界面中,上传一张目标角色图片以及一段作为动作参考的视频。
  • 选择功能模式:根据需求,选择“动作模仿”或“角色替换”模式。
  • 生成并获取结果:点击生成按钮,系统将自动进行处理,并输出最终的动画视频。

Wan2.2-Animate相关资源

  • 项目官网:https://humanaigc.github.io/wan-animate/
  • HuggingFace模型库:https://huggingface.co/Wan-AI/Wan2.2-Animate-14B
  • arXiv技术论文:https://arxiv.org/pdf/2509.14055

Wan2.2-Animate的应用领域

  • 视频编辑:可用于视频后期制作,将实拍视频中的人物替换为定制化的动画角色,并能确保角色完美融入原有场景的光影与氛围。
  • 游戏开发:在游戏制作中,可根据动作捕捉数据快速生成角色动画,使游戏角色的运动更为流畅自然,从而提升游戏的沉浸感与交互体验。
  • 虚拟现实与增强现实:在VR/AR应用中,可用于创建逼真的虚拟角色,实现与用户的自然互动,为用户提供更真实、更具沉浸感的体验。
  • 教育与培训:在教育领域,可创建生动的动画角色作为虚拟教师或助手,通过丰富的表情和动作吸引学习者,增强教学过程的趣味性与互动性。
© 版权声明
广告也精彩

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...