Seedance 2.0 @Tags: 如何使用多模态参考指导 AI 视频
发布: (2026年2月22日 GMT+8 19:01)
2 分钟阅读
原文: Dev.to
Source: Dev.to
概述
大多数 AI 视频生成器只接受文本提示并随意生成内容。Seedance 2.0 的工作方式不同——你先上传图片、视频和音频文件,然后使用 @tags 明确告诉模型每个文件的作用。
可以把它想象成电影导演的分镜表。每个上传的文件都有一个角色:
@Image1作为第一帧——确定开场画面@Video1用作摄像机运动参考——复制镜头语言@Audio1作为背景音乐——设定配乐和节奏
单次生成最多可组合 12 个文件(9 张图片 + 3 段视频 + 3 段音频)。格式很简单:@ + 资产类型 + 编号。
Tag 语法
| Tag 类型 | 范围 | 示例 |
|---|---|---|
@Image | 1‑9 | @Image1、@Image2 |
@Video | 1‑3 | @Video1 |
@Audio | 1‑3 | @Audio1 |
示例 API 调用
import requests
response = requests.post(
"https://api.evolink.ai/v1/videos/generations",
headers={"Authorization": "Bearer YOUR_API_KEY"},
json={
"model": "seedance-2-0-t2v",
"prompt": (
"A cinematic sunset over the ocean, @Image1 as first frame, "
"@Audio1 as background music. Slow dolly forward with warm golden light."
),
"image_urls": ["https://example.com/sunset.jpg"],
"audio_urls": ["https://example.com/ambient.mp3"],
"duration": 10,
"quality": "1080p"
}
)
与其他 AI 视频 API 的对比
- Sora 2 – 仅支持文本 + 单张图片输入,没有音频参考。
- Kling 3.0 – 图像转视频,但没有
@tag分配系统。 - Veo 3.1 – 仅接受文本提示;自行生成音频。
Seedance 2.0 的 @tag 系统让你 导演 生成过程,而不仅仅是描述它。
进一步阅读
阅读完整的 @Tags 指南(seedance2api.app)
EvoLink 提供统一的 AI API 接入——一个密钥即可使用包括 Seedance 2.0、Sora 2、Veo 3.1 等在内的所有主流 AI 模型。