一键 ComfyUI 云 GPU:实用、可重复的设置

发布: (2025年12月1日 GMT+8 05:59)
5 min read
原文: Dev.to

Source: Dev.to

我们要构建的内容

一种可重复的方式来启动云 GPU(RunPod 或 Vast.ai),粘贴单行命令,获取你想要的确切 ComfyUI 版本,自动安装你喜欢的自定义节点,并将模型从 Hugging Face / Civitai 下载到正确的文件夹。再也不会出现 “我把 LoRA 放对位置了吗?” 或 “为什么这个模板落后了六个月?” 的情况。

我们将使用一个免费脚本生成器来生成单行命令,并向你展示如何针对工作流进行微调、调试和扩展。

💡 小技巧: 在云 GPU 上时间就是金钱。自动化枯燥的部分在第一次运行时就能收回成本。

生成器的工作原理

https://deploy.promptingpixels.com/ 上的生成器会输出一行 shell 命令,该命令能够:

  • 安装或更新到指定版本的 ComfyUI
  • 将你选择的模型下载到正确的 ComfyUI 子文件夹
  • 安装你从 ComfyUI 注册表中挑选的自定义节点
  • 根据你的提供商(RunPod / Vast.ai)或本地操作系统调整路径
  • 支持受限下载的 token

🧭 注意: 生成的命令会感知提供商。复制前请先选择正确的目标。

步骤指南

1. 选择你的提供商

  • Vast.ai: 使用包含 Jupyter 终端或 shell 访问的镜像/模板。
  • RunPod: 使用 ComfyUI 模板或带 CUDA 的通用镜像。

2. 在实例上打开终端

# 示例:连接到实例并打开 shell

3. 生成命令

  1. 访问 https://deploy.promptingpixels.com/
  2. 选择 App: ComfyUI
  3. 选择提供商(Vast.ai 或 RunPod)
  4. Add Models – 搜索 Hugging Face 或 Civitai;生成器会把每个文件路由到正确的 ComfyUI 目录。
  5. Add Custom Nodes – 搜索流行节点(例如 Impact Pack)并添加。
  6. (可选)固定 ComfyUI 版本以实现可重复构建。

💡 小技巧: 使用预设可以重新创建之前项目的环境。保持一致性可节省调试时间。

4. 准备 token(如有需要)

# 可选:受限下载的 token
export HF_TOKEN=hf_your_read_token_here
export CIVITAI_TOKEN=your_civitai_token_here

5. 运行生成的单行命令

该命令通常表现为 wget/curl 管道到 bash。示例占位符:

bash <(curl -sSL https://example.com/generated_script.sh)

6. 安装额外的 Python 依赖(如果工作流需要)

source /venv/bin/activate 2>/dev/null || true
pip install xformers==0.0.23 safetensors==0.4.3

7. 验证 GPU 可见性

nvidia-smi || echo "No GPU found (driver/container mismatch?)"

8. 启动 ComfyUI

# 根据你的设置调整启动命令
python /workspace/ComfyUI/main.py

调试技巧

  • 来自 Hugging Face 的 403 错误: 可能需要该模型/仓库的 token。
    export HF_TOKEN=hf_xxx
  • 模型下载慢: 实例出口可能受限。先尝试下载较小的模型。
  • 磁盘不足: 大型检查点可能超出临时存储。使用更大的卷或持久磁盘。
  • 菜单中缺少节点: 安装/更新节点后重启 ComfyUI。
  • CUDA 不匹配错误: 确保镜像、驱动和 PyTorch 堆栈保持一致。模板有帮助;裸镜像可能会漂移。
  • 路径大小写敏感: ComfyUI 的模型文件夹严格区分大小写:checkpointslorasvae 等。
  • 端口被阻塞: 确认提供商已暴露 ComfyUI 端口(通常是 8188),且服务正在运行。

🛠️ 调试模式: 启动 UI 时实时查看日志以发现导入错误。

ps aux | grep -i comfy
# 或者检查提供商的应用日志面板(如果有的话)
  • 使用 tmux/screen 进行长时间下载,避免会话掉线。
  • 将模型文件夹缓存到持久卷,以免每次会话都重新下载。

工作流概述

  1. 启动 GPU 实例(RunPod/Vast.ai)并打开终端。
  2. 在生成器中选择提供商 + ComfyUI 版本。
  3. 添加模型(HF/Civitai)和自定义节点。
  4. 复制单行命令,必要时设置 token,粘贴到终端。
  5. 启动 ComfyUI;重启一次以加载新节点。

常用环境变量

export HF_TOKEN=hf_xxx
export CIVITAI_TOKEN=xxx
export COMFYUI_ROOT=/workspace/ComfyUI   # 如有不同请自行调整

安装后验证:

git -C "$COMFYUI_ROOT" rev-parse --short HEAD
ls "$COMFYUI_ROOT/models/checkpoints" | head
ls "$COMFYUI_ROOT/custom_nodes" | head

反馈

如果你有功能想法或遇到边缘案例,欢迎向维护者反馈:deploy@promptingpixels.com

祝构建愉快!

Back to Blog

相关文章

阅读更多 »