Wan-Video 在 Replicate 上的 Wan-2.2-I2v-Fast 模型入门指南
Source: Dev.to
这是一篇关于 AI 模型 Wan-2.2-I2v-Fast(由 Wan-Video 维护)的简明指南。
模型概览
wan-2.2-i2v-fast 是由 Wan‑Video 开发的优化版图像到视频生成模型。它采用 PrunaAI 优化,实现了从静态图像快速且低成本的视频生成。该模型基于 Wan 2.2 A14B 架构,侧重于速度和效率,同时保持视频质量。
主要区别
- 以输入图像为起点,而不是仅通过文本提示生成视频(不同于
wan-2.2-t2v-fast变体)。 - 相较于
wan-2.1-i2v-720p等高分辨率替代方案,更注重速度和成本效益,而非最高分辨率。
模型输入与输出
模型使用文本提示来指导动画风格和内容,将静态图像转换为动态视频序列。生成的视频分辨率为 480p,可配置帧率和时长。支持 16:9 与 9:16 两种宽高比。
输入
| 参数 | 描述 |
|---|---|
| prompt | 用于指导视频生成过程的文字描述 |
| image | 作为起始帧的输入图像文件 |
| num_frames | 要生成的视频帧数(81‑100 帧;推荐 81 帧) |
| resolution | 视频分辨率设为 480p,并可选择宽高比选项 |
| frames_per_second | 帧率范围 5‑24 fps(默认 16 fps,价格最优) |
| go_fast | 启用更快处理的布尔选项 |
| sample_shift | 采样行为的调整因子(范围 1‑20) |
| seed | 可选的随机种子,用于复现结果 |
输出
- video:以 URI 形式返回的生成视频文件
能力
该模型擅长为静态图像赋予生命,帮助用户快速且经济地创建短动画片段。非常适合社交媒体内容、分镜脚本以及视觉创意的快速原型制作。