InvokeAI

在 Clore.ai GPU 上运行具有基于节点画布的专业 Stable Diffusion 工具包 InvokeAI

InvokeAI 是一个专业级的 Stable Diffusion 工具包,具有先进的基于节点的画布编辑器、完整的 SDXL/SD1.5/SD2.x 支持、ControlNet、IP-Adapter、LoRA 管理和精致的 Web 界面。它为需要对图像生成工作流进行精确控制的艺术家和创意专业人士设计。CLORE.AI 的高显存 GPU 让您能够在全分辨率下同时运行多个 ControlNet 的 SDXL。

circle-check

服务器要求

参数
最低
推荐

内存 (RAM)

12 GB

32 GB+

显存 (VRAM)

6 GB

12 GB+

磁盘

40 GB

200 GB+

GPU

NVIDIA GTX 1060 6GB+

RTX 3090、RTX 4090、A100

circle-info

对于不妥协的 SDXL(1024×1024),建议使用 12 GB 显存。对于 SD1.5(512×512 或 768×768),6 GB 显存已足够。显存越多 = 更高分辨率、更快生成速度,并且可以同时运行更多 ControlNet。

在 CLORE.AI 上快速部署

Docker 镜像: ghcr.io/invoke-ai/invokeai:latest

端口: 22/tcp, 9090/http

环境变量:

变量
示例
描述

INVOKEAI_ROOT

/invokeai

模型和输出的根目录

逐步设置

1. 在 CLORE.AI 上租用 GPU 服务器

访问 CLORE.AI 市场arrow-up-right 并查找:

  • 预算创作工作:RTX 3080/3090(10–24 GB 显存)

  • 专业 SDXL:RTX 4090(24 GB 显存)

  • 极致质量:A100 80GB — 同时运行多个模型

2. SSH 登录到您的服务器

3. 创建 InvokeAI 目录结构

4. 拉取 InvokeAI Docker 镜像

5. 启动 InvokeAI

基础启动:

使用自定义根目录并增加资源:

在特定 GPU(多 GPU 服务器)上:

6. 等待初始化

查找: Uvicorn 正在 http://0.0.0.0:9090 上运行

7. 通过 CLORE.AI HTTP 代理访问

打开您的 CLORE.AI 仪表板并找到 http_pub 端口 9090 的 URL:

这将在您的浏览器中打开完整的 InvokeAI Web 界面。

8. 下载您的第一个模型

在 InvokeAI 界面中:

  1. 点击 模型管理器 (左侧边栏的立方体图标)

  2. 点击 添加模型 → HuggingFace

  3. 输入模型 ID(例如, stabilityai/stable-diffusion-xl-base-1.0)

  4. 点击 添加模型

或直接从 CivitAI 下载:

  1. 前往 模型管理器 → 添加模型 → URL

  2. 粘贴 CivitAI 的下载 URL

  3. 设置模型类型(Checkpoint、LoRA 等)


使用示例

示例 1:通过 Web 界面进行基本图像生成

  1. 在您的 CLORE.AI http_pub URL 打开 InvokeAI

  2. 点击 文本到图像 在工作流选择器中

  3. 输入提示: “一条栖息在水晶山上的雄伟巨龙,数字艺术,4k”

  4. 设置负面提示: “模糊、低质量、水印”

  5. 将分辨率设置为 1024x1024 (SDXL)或 512x512 (SD1.5)

  6. 点击 生成

示例 2:使用基于节点的画布

工作流编辑器是 InvokeAI 的标志性功能:

  1. 点击 工作流 在顶部导航中

  2. 点击 新建工作流

  3. 添加节点: 文本 → 图像,连接到 保存图像

  4. 添加一个 ControlNet 用于引导生成的节点:

    • 右键 → 添加节点 → ControlNet

    • 连接您的参考图像

    • 选择处理器: Canny 边缘检测, 深度, 姿势,等。

  5. 点击 生成 以运行完整管线

示例 3:LoRA 用法

  1. 从 CivitAI 下载 LoRA(通过模型管理器 → URL 导入)

  2. 在生成面板中,找到 LoRA 部分

  3. 点击 + 并选择您的 LoRA

  4. 设置权重(通常 0.5–1.0)

  5. 在提示中添加触发词(在 CivitAI 模型页面列出)

带有 LoRA 触发词的示例提示:

示例 4:使用 IP-Adapter 进行风格迁移

  1. 在生成面板中启用 IP-Adapter 上传参考风格图像

  2. 设置权重(0.5 = 微妙影响,1.0 = 强烈影响)

  3. 用任意提示生成 — 输出将匹配参考风格

  4. 示例 5:API 使用(无头)

InvokeAI 对程序化使用公开了一个 REST API:

import requests


invokeai.yaml 配置文件

位于

/root/invokeai/invokeai.yaml InvokeAI::

RTX 3090 / 4090(24 GB 显存):

ram: 24.0

ram: 16.0

ram: 8.0


1. 使用 SDXL-Turbo 或 SDXL-Lightning 以实现快速生成

代替 SDXL 基础(25–50 步),使用:

SDXL-Turbo

  • :1–4 步,实时生成SDXL-Lightning

  • :4–8 步,接近 SDXL 的质量通过模型管理器 → HuggingFace 下载:

stabilityai/sdxl-turbo

  • ByteDance/SDXL-Lightning

  • 2. 选择合适的调度器

调度器

质量
速度
适用场景
euler_a

良好

快速

通用使用

dpmpp_2m

优秀

适合照片级写实

通用使用

dpmpp_2m_sde

中等

适合照片级写实

高细节

ddim

修复/修补(Inpainting)

快速

通用使用

lms

艺术风格

快速

通用使用

3. 启用 xFormers 内存优化

当可用时 InvokeAI 会自动启用该功能。请在日志中验证:

xFormers 可用

将您最常用的模型保留在缓存中。在 invokeai.yaml 中:

ram: 32.0 # 更大 = 缓存更多模型

对于超出显存允许的图像(例如在 12 GB GPU 上生成 2048×2048):

在工作流编辑器中使用

  • 分块 VAE 或先生成 1024×1024 然后使用 ESRGAN

  • 故障排查 问题:“CUDA out of memory”


RuntimeError: CUDA out of memory

解决方案:

将批量大小减小到 1

  1. 在 invokeai.yaml 中启用 lazy offloading

  2. 使用更小的模型(用 SD1.5 代替 SDXL)

  3. 问题:Web 界面无法访问

  4. # 检查容器是否在运行

docker ps | grep invokeai

# 通过 exec 手动下载

docker exec -it invokeai bash

docker exec -it invokeai nvidia-smi

  • 确保日志中启用了 xFormers 尝试

  • 调度器(最快)

  • 问题:黑色/损坏图像 良好 通常是 VAE 问题。尝试:

模型管理器 → 编辑模型 → 将 VAE 更改为

sdxl-vae-fp16-fix

  1. 或添加 --fp32-vae

  2. 标志 问题:容器无法启动 docker logs invokeai

# 常见:端口 9090 已被占用


文档


推荐 GPU

在 Clore.ai 上的预估费用
开发/测试
RTX 3090(24GB)

~$0.12/每 GPU/每小时

生产

RTX 4090(24GB)

~$0.70/每 GPU/每小时

大规模

A100 80GB

~$1.20/每 GPU/每小时

💡 本指南中的所有示例均可部署在

Clore.ai

GPU 服务器上。浏览可用 GPU 并按小时租用 — 无需承诺,提供完整的 root 访问权限。 Clore.aiarrow-up-right GPU 服务器。浏览可用 GPU 并按小时租用 — 无需承诺,提供完整的 root 访问权限。

最后更新于

这有帮助吗?