阿里开源电影级视频生成模型通义万相Wan2.2
7月28日晚间,阿里巴巴旗下阿里云正式开源电影级视频生成模型「通义万相Wan2.2」,引发AI领域广泛关注。此次开源涵盖三款核心模型,分别为文生视频模型(Wan2.2-T2V-A14B)、图生视频模型(Wan2.2-I2V-A14B)及统一视频生成模型(Wan2.2-TI2V-5B),其中前两者为业界首个采用MoE架构的视频生成模型,进一步推动AI视频创作从专业领域走向大众化。
通义万相Wan2.2在技术上实现多重创新:
Wan2.2单次可生成5秒高清视频,支持多轮提示词迭代优化,满足短剧制作、广告创意、影视分镜等场景需求。例如,输入《星际穿越》经典场景描述,模型可精准还原宇航员在米勒星球的画面质感;输入「黑人女性在黄昏地铁中静止画面」,能生成符合现实主义风格的文艺视频。未来,团队计划进一步延长单次生成时长,拓展更长叙事场景。
三款模型已全面开放,开发者可通过以下渠道获取:
此外,模型兼容FP8量化、LoRA训练、ComfyUI及Diffusers生态,支持开发者快速集成与二次开发,降低AI视频创作门槛。
作为阿里继Qwen2大模型后又一重磅开源成果,通义万相Wan2.2不仅推动视频生成技术向「电影级」「实用化」迈进,更通过开源生态吸引全球开发者参与优化。自2025年2月以来,通义万相系列模型已累计下载超500万次,此次Wan2.2的发布将进一步加速AI视频创作的普及,为影视、广告、教育等行业注入新活力。