Wan2.1 AI
Wan2.1 是阿里巴巴开源的视频生成基础模型,以 86.22% 的分数领跑 VBench 基准测试。专注于文本到视频和图像到视频任务,生成具有中英文字幕效果、物理模拟和无限长度生成功能的电影级 1080P 视频。采用 3D Causal VAE 和 DiT 架构,实现好莱坞级别的运动控制。
创意工作流
行业应用
广告活动生成
生成具有动态字幕和粒子效果的品牌视频。
短视频创作
适合自媒体创作者创作作品。
电影预可视化
生成具有专业摄像机运动的分镜头脚本。
核心能力
技术优势
作为中国领先的开源视频 AI,Wan2.1 通过以下方式重新定义视觉叙事:
- 时间一致性
- 3D Causal VAE 编码 3000 多帧,运动一致性达 98%
- 多语言支持
- 原生中文字幕效果 + 12 种语言本地化
- 硬件效率
- 在 RTX 4090 上生成 480P 视频仅需 8.2GB 显存
- 开放生态系统
- Apache 2.0 许可证,提供 14B/1.3B 模型变体
常见问题
- 什么是 Wan2.1?
Wan2.1(通义万象 2.1)是阿里云发布的开源视频生成基础模型,采用 Apache 2.0 许可证。专注于文本到视频(T2V)和图像到视频(I2V)生成,利用 3D Causal VAE 和扩散变换器(DiT)等先进架构,生成高质量、时间一致且具有电影效果和逼真物理模拟的视频。
- 是否允许商业使用?
是的。根据 Apache 2.0 许可证,Wan2.1 生成的视频可用于广告/电影等商业用途,无需署名。
- 最低硬件要求是什么?
1.3B 模型可在 8GB GPU(如 RTX 3060)上运行,生成 480P 视频;14B 模型需要 80GB 显存以生成 720P 视频。
- 最大视频时长是多少?
通过时间分块和因果注意力机制,支持无限长度的 1080P 视频生成。
- 独特的中文功能是什么?
首个支持书法动画和诗歌可视化的模型。