InvokeAI
在 Clore.ai GPU 上运行具有基于节点画布的专业 Stable Diffusion 工具包 InvokeAI
服务器要求
参数
最低
推荐
在 CLORE.AI 上快速部署
变量
示例
描述
逐步设置
1. 在 CLORE.AI 上租用 GPU 服务器
2. SSH 登录到您的服务器
3. 创建 InvokeAI 目录结构
4. 拉取 InvokeAI Docker 镜像
5. 启动 InvokeAI
6. 等待初始化
7. 通过 CLORE.AI HTTP 代理访问
8. 下载您的第一个模型
使用示例
示例 1:通过 Web 界面进行基本图像生成
示例 2:使用基于节点的画布
示例 3:LoRA 用法
示例 4:使用 IP-Adapter 进行风格迁移
InvokeAI 对程序化使用公开了一个 REST API:
invokeai.yaml 配置文件
位于
RTX 3090 / 4090(24 GB 显存):
1. 使用 SDXL-Turbo 或 SDXL-Lightning 以实现快速生成
代替 SDXL 基础(25–50 步),使用:
调度器
质量
速度
适用场景
euler_a
当可用时 InvokeAI 会自动启用该功能。请在日志中验证:
将您最常用的模型保留在缓存中。在 invokeai.yaml 中:
对于超出显存允许的图像(例如在 12 GB GPU 上生成 2048×2048):
RuntimeError: CUDA out of memory
解决方案:
docker ps | grep invokeai
docker exec -it invokeai bash
docker exec -it invokeai nvidia-smi
模型管理器 → 编辑模型 → 将 VAE 更改为
# 常见:端口 9090 已被占用
文档
推荐 GPU
在 Clore.ai 上的预估费用
开发/测试
RTX 3090(24GB)
最后更新于
这有帮助吗?