Seedance 2.0 @Tags: 如何使用多模态参考指导 AI 视频

发布: (2026年2月22日 GMT+8 19:01)
2 分钟阅读
原文: Dev.to

Source: Dev.to

概述

大多数 AI 视频生成器只接受文本提示并随意生成内容。Seedance 2.0 的工作方式不同——你先上传图片、视频和音频文件,然后使用 @tags 明确告诉模型每个文件的作用。

可以把它想象成电影导演的分镜表。每个上传的文件都有一个角色:

  • @Image1 作为第一帧——确定开场画面
  • @Video1 用作摄像机运动参考——复制镜头语言
  • @Audio1 作为背景音乐——设定配乐和节奏

单次生成最多可组合 12 个文件(9 张图片 + 3 段视频 + 3 段音频)。格式很简单:@ + 资产类型 + 编号。

Tag 语法

Tag 类型范围示例
@Image1‑9@Image1@Image2
@Video1‑3@Video1
@Audio1‑3@Audio1

示例 API 调用

import requests

response = requests.post(
    "https://api.evolink.ai/v1/videos/generations",
    headers={"Authorization": "Bearer YOUR_API_KEY"},
    json={
        "model": "seedance-2-0-t2v",
        "prompt": (
            "A cinematic sunset over the ocean, @Image1 as first frame, "
            "@Audio1 as background music. Slow dolly forward with warm golden light."
        ),
        "image_urls": ["https://example.com/sunset.jpg"],
        "audio_urls": ["https://example.com/ambient.mp3"],
        "duration": 10,
        "quality": "1080p"
    }
)

与其他 AI 视频 API 的对比

  • Sora 2 – 仅支持文本 + 单张图片输入,没有音频参考。
  • Kling 3.0 – 图像转视频,但没有 @tag 分配系统。
  • Veo 3.1 – 仅接受文本提示;自行生成音频。

Seedance 2.0 的 @tag 系统让你 导演 生成过程,而不仅仅是描述它。

进一步阅读

阅读完整的 @Tags 指南(seedance2api.app)

EvoLink 提供统一的 AI API 接入——一个密钥即可使用包括 Seedance 2.0、Sora 2、Veo 3.1 等在内的所有主流 AI 模型。

0 浏览
Back to Blog

相关文章

阅读更多 »