# ComfyUI

Интерфейс на основе узлов для Stable Diffusion с максимальной гибкостью на GPU CLORE.AI.

{% hint style="success" %}
Все примеры можно запускать на GPU-серверах, арендуемых через [CLORE.AI Marketplace](https://clore.ai/marketplace).
{% endhint %}

## Требования к серверу

| Параметр      | Минимум     | Рекомендуется |
| ------------- | ----------- | ------------- |
| ОЗУ           | 16GB        | 32 ГБ+        |
| VRAM          | 8 ГБ (SDXL) | 12ГБ+         |
| Сеть          | 500 Мбит/с  | 1 Гбит/с+     |
| Время запуска | 5–10 минут  | -             |

{% hint style="warning" %}
**Время запуска:** Первый запуск загружает зависимости и модели (5–10 минут в зависимости от скорости сети). HTTP 502 в это время нормален.
{% endhint %}

{% hint style="danger" %}
**Важно:** ComfyUI с моделями FLUX требует 16 ГБ+ видеопамяти. Для SDXL с ControlNet убедитесь как минимум в 10 ГБ VRAM.
{% endhint %}

## Почему ComfyUI?

* **Рабочий процесс на основе узлов** - Визуальное программирование для генерации изображений
* **Максимальный контроль** - Тонкая настройка каждого шага конвейера
* **Эффективно** - Меньшее использование VRAM по сравнению с альтернативами
* **Расширяемо** - Огромная экосистема пользовательских узлов
* **Обмен рабочими процессами** - Импорт/экспорт в формате JSON

## Быстрое развертывание на CLORE.AI

**Docker-образ:**

```
yanwk/comfyui-boot:cu126-slim
```

**Порты:**

```
22/tcp
8188/http
```

**Окружение:**

```
CLI_ARGS=--listen 0.0.0.0
```

### Проверьте, что всё работает

После развертывания найдите ваш `http_pub` URL в **Моих заказах**:

```bash
# Проверьте доступность UI (первый запуск может занять 5–10 минут)
curl https://your-http-pub.clorecloud.net/
```

{% hint style="info" %}
Если вы получаете HTTP 502 более 15 минут, проверьте:

1. Сервер имеет 16 ГБ+ RAM
2. Сервер имеет 8 ГБ+ VRAM для SDXL, 16 ГБ+ для FLUX
3. Скорость сети достаточна для загрузки моделей
   {% endhint %}

## Доступ к вашему сервису

При развертывании на CLORE.AI получайте доступ к ComfyUI через `http_pub` URL:

* **Веб‑интерфейс:** `https://your-http-pub.clorecloud.net/`
* **API:** `https://your-http-pub.clorecloud.net/prompt`
* **WebSocket:** `wss://your-http-pub.clorecloud.net/ws`

{% hint style="info" %}
Все `localhost:8188` примеры ниже работают при подключении через SSH. Для внешнего доступа замените на ваш `https://your-http-pub.clorecloud.net/` URL.
{% endhint %}

## Установка

### Использование Docker (рекомендуется)

```bash
docker run -d --gpus all \
  -p 8188:8188 \
  -v comfyui-data:/root \
  -e CLI_ARGS="--listen 0.0.0.0" \
  yanwk/comfyui-boot:cu126-slim
```

### Ручная установка

```bash
# Клонировать репозиторий
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI

# Создать виртуальное окружение
python -m venv venv
source venv/bin/activate

# Установить PyTorch с CUDA
pip install torch torchvision --index-url https://download.pytorch.org/whl/cu124

# Установить зависимости
pip install -r requirements.txt

# Запустить
python main.py --listen 0.0.0.0
```

## Структура каталогов

```
ComfyUI/
├── models/
│   ├── checkpoints/     # SD модели (.safetensors)
│   ├── loras/           # LoRA модели
│   ├── vae/             # VAE модели
│   ├── controlnet/      # ControlNet модели
│   ├── upscale_models/  # Модели для увеличения разрешения
│   └── clip/            # CLIP модели
├── input/               # Входные изображения
├── output/              # Сгенерированные изображения
└── custom_nodes/        # Расширения
```

## Загрузка моделей

### Контрольные точки Stable Diffusion

```bash
cd ComfyUI/models/checkpoints

# SDXL базовая
wget https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors

# SDXL Refiner
wget https://huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0/resolve/main/sd_xl_refiner_1.0.safetensors

# SD 1.5 (меньше, быстрее)
wget https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned.safetensors

# Realistic Vision (фотореалистичный)
wget https://huggingface.co/SG161222/Realistic_Vision_V6.0_B1_noVAE/resolve/main/Realistic_Vision_V6.0_B1_fp16.safetensors
```

### VAE

```bash
cd ComfyUI/models/vae

# VAE для SDXL
wget https://huggingface.co/stabilityai/sdxl-vae/resolve/main/sdxl_vae.safetensors

# VAE для SD 1.5 (лучшие цвета)
wget https://huggingface.co/stabilityai/sd-vae-ft-mse-original/resolve/main/vae-ft-mse-840000-ema-pruned.safetensors
```

### LoRA

```bash
cd ComfyUI/models/loras

# Скачайте с CivitAI или HuggingFace
# Поместите файлы .safetensors сюда
```

## Базовый рабочий процесс

### Текст в изображение

1. Добавьте узлы:
   * **Загрузить контрольную точку** → выбрать модель
   * **CLIP Text Encode** (x2) → положительные и отрицательные подсказки
   * **Пустое латентное изображение** → установить размеры
   * **KSampler** → подключить всё
   * **VAE Decode** → латентное в изображение
   * **Сохранить изображение** → вывод
2. Подключения:

```
[Checkpoint] → MODEL → [KSampler]
[Checkpoint] → CLIP → [CLIP Text Encode +]
[Checkpoint] → CLIP → [CLIP Text Encode -]
[Checkpoint] → VAE → [VAE Decode]
[Text Encode +] → CONDITIONING → [KSampler]
[Text Encode -] → CONDITIONING → [KSampler]
[Empty Latent] → LATENT → [KSampler]
[KSampler] → LATENT → [VAE Decode]
[VAE Decode] → IMAGE → [Save Image]
```

### Изображение в изображение

Заменить **Пустое латентное изображение** на:

1. **Загрузить изображение** → ваше исходное изображение
2. **VAE Encode** → конвертировать в латентное
3. Отрегулируйте **денойз** в KSampler (0.5–0.8)

## ComfyUI Manager

ComfyUI Manager — это **необходимое расширение** которое добавляет графический интерфейс для установки, обновления и управления пользовательскими узлами. Это стандартный способ расширения ComfyUI.

### Установка

```bash
cd ComfyUI/custom_nodes
git clone https://github.com/ltdrdata/ComfyUI-Manager.git
# Перезапустите ComfyUI — в панели инструментов появится кнопка «Manager»
```

### Использование ComfyUI Manager

После перезапуска **Manager** кнопка появится в правом верхнем углу интерфейса ComfyUI.

**Ключевые особенности:**

| Функция                          | Как получить доступ                    |
| -------------------------------- | -------------------------------------- |
| Установить пользовательские узлы | Manager → Install Custom Nodes         |
| Обновить все узлы                | Manager → Update All                   |
| Отключить/включить узлы          | Manager → Custom Nodes Manager         |
| Установить отсутствующие узлы    | Manager → Install Missing Custom Nodes |
| Получить информацию о модели     | Manager → Model Manager                |
| Восстановить снимок              | Manager → Snapshot Manager             |

**Рабочий процесс: установка нового набора узлов**

1. Нажмите **Manager** кнопка
2. Выбрать **Install Custom Nodes**
3. Поиск по имени (например, "FLUX", "AnimateDiff")
4. Нажмите **Установить** на желаемом паке
5. Нажмите **Перезапустить** когда появится запрос
6. Новые узлы появятся в меню добавления по правому клику

**Автоустановка отсутствующих узлов:** Когда вы импортируете JSON рабочего процесса, который использует узлы, которых у вас нет, Manager обнаруживает их и предлагает установить автоматически через **Install Missing Custom Nodes**.

### Поддержание узлов в актуальном состоянии

```bash
# Из CLI (альтернатива GUI):
cd ComfyUI/custom_nodes/ComfyUI-Manager
git pull

# Или используйте Manager → Update All в UI
```

***

## FLUX рабочий процесс в ComfyUI

FLUX использует другую структуру узлов, чем стандартные модели SD. Ниже приведён полный FLUX.1-dev рабочий процесс.

### Требуемые файлы

Перед запуском рабочего процесса загрузите:

```bash
# Модель FLUX (dev или schnell)
cd ComfyUI/models/unet
wget https://huggingface.co/black-forest-labs/FLUX.1-dev/resolve/main/flux1-dev.safetensors

# Текстовые энкодеры
cd ../clip
wget https://huggingface.co/comfyanonymous/flux_text_encoders/resolve/main/clip_l.safetensors
wget https://huggingface.co/comfyanonymous/flux_text_encoders/resolve/main/t5xxl_fp16.safetensors

# VAE
cd ../vae
wget https://huggingface.co/black-forest-labs/FLUX.1-dev/resolve/main/ae.safetensors
```

### FLUX.1-dev Workflow JSON

Сохранить как `flux_dev_workflow.json` и импортировать через **Загрузить** кнопку в ComfyUI:

```json
{
  "last_node_id": 12,
  "last_link_id": 20,
  "nodes": [
    {
      "id": 1,
      "type": "UNETLoader",
      "pos": [100, 100],
      "size": [300, 60],
      "inputs": [],
      "outputs": [{"name": "MODEL", "type": "MODEL", "links": [1]}],
      "properties": {},
      "widgets_values": ["flux1-dev.safetensors", "default"]
    },
    {
      "id": 2,
      "type": "DualCLIPLoader",
      "pos": [100, 200],
      "size": [350, 80],
      "inputs": [],
      "outputs": [{"name": "CLIP", "type": "CLIP", "links": [2, 3]}],
      "properties": {},
      "widgets_values": ["clip_l.safetensors", "t5xxl_fp16.safetensors", "flux"]
    },
    {
      "id": 3,
      "type": "CLIPTextEncode",
      "pos": [500, 150],
      "size": [425, 180],
      "inputs": [{"name": "clip", "type": "CLIP", "link": 2}],
      "outputs": [{"name": "CONDITIONING", "type": "CONDITIONING", "links": [4]}],
      "properties": {},
      "widgets_values": ["A stunning photorealistic landscape, golden hour lighting, 8K"]
    },
    {
      "id": 4,
      "type": "EmptySD3LatentImage",
      "pos": [100, 350],
      "size": [300, 100],
      "inputs": [],
      "outputs": [{"name": "LATENT", "type": "LATENT", "links": [5]}],
      "properties": {},
      "widgets_values": [1024, 1024, 1]
    },
    {
      "id": 5,
      "type": "ModelSamplingFlux",
      "pos": [500, 350],
      "size": [300, 80],
      "inputs": [{"name": "model", "type": "MODEL", "link": 1}],
      "outputs": [{"name": "MODEL", "type": "MODEL", "links": [6]}],
      "properties": {},
      "widgets_values": [1.15, 0.5, 1024, 1024]
    },
    {
      "id": 6,
      "type": "KSampler",
      "pos": [850, 250],
      "size": [350, 240],
      "inputs": [
        {"name": "model", "type": "MODEL", "link": 6},
        {"name": "positive", "type": "CONDITIONING", "link": 4},
        {"name": "negative", "type": "CONDITIONING", "link": 7},
        {"name": "latent_image", "type": "LATENT", "link": 5}
      ],
      "outputs": [{"name": "LATENT", "type": "LATENT", "links": [8]}],
      "properties": {},
      "widgets_values": [42, "fixed", 20, 3.5, "euler", "simple", 1.0]
    },
    {
      "id": 7,
      "type": "CLIPTextEncode",
      "pos": [500, 500],
      "size": [300, 60],
      "inputs": [{"name": "clip", "type": "CLIP", "link": 3}],
      "outputs": [{"name": "CONDITIONING", "type": "CONDITIONING", "links": [7]}],
      "properties": {},
      "widgets_values": [""]
    },
    {
      "id": 8,
      "type": "VAELoader",
      "pos": [100, 500],
      "size": [300, 60],
      "inputs": [],
      "outputs": [{"name": "VAE", "type": "VAE", "links": [9]}],
      "properties": {},
      "widgets_values": ["ae.safetensors"]
    },
    {
      "id": 9,
      "type": "VAEDecode",
      "pos": [1250, 300],
      "size": [210, 46],
      "inputs": [
        {"name": "samples", "type": "LATENT", "link": 8},
        {"name": "vae", "type": "VAE", "link": 9}
      ],
      "outputs": [{"name": "IMAGE", "type": "IMAGE", "links": [10]}],
      "properties": {}
    },
    {
      "id": 10,
      "type": "SaveImage",
      "pos": [1500, 300],
      "size": [300, 270],
      "inputs": [{"name": "images", "type": "IMAGE", "link": 10}],
      "outputs": [],
      "properties": {},
      "widgets_values": ["flux_output"]
    }
  ],
  "links": [
    [1, 1, 0, 5, 0, "MODEL"],
    [2, 2, 0, 3, 0, "CLIP"],
    [3, 2, 0, 7, 0, "CLIP"],
    [4, 3, 0, 6, 1, "CONDITIONING"],
    [5, 4, 0, 6, 3, "LATENT"],
    [6, 5, 0, 6, 0, "MODEL"],
    [7, 7, 0, 6, 2, "CONDITIONING"],
    [8, 6, 0, 9, 0, "LATENT"],
    [9, 8, 0, 9, 1, "VAE"],
    [10, 9, 0, 10, 0, "IMAGE"]
  ],
  "groups": [],
  "config": {},
  "extra": {"ds": {"scale": 0.8, "offset": [0, 0]}},
  "version": 0.4
}
```

### FLUX.1-schnell рабочий процесс (4 шага)

Для schnell измените настройки KSampler в приведённом выше JSON:

* `num_inference_steps`: `4`
* `cfg`: `1.0`
* `scheduler`: `"simple"`
* Файл модели: `flux1-schnell.safetensors`

Или установите через UI: KSampler → steps: **4**, cfg: **1.0**, sampler: **euler**, scheduler: **simple**

### Ключевые отличия узлов: FLUX vs SD

| Узел                    | SD/SDXL                      | FLUX                            |
| ----------------------- | ---------------------------- | ------------------------------- |
| Загрузчик модели        | Загрузить контрольную точку  | UNETLoader                      |
| Текстовый энкодер       | CLIPTextEncode               | DualCLIPLoader + CLIPTextEncode |
| Латент                  | Пустое латентное изображение | EmptySD3LatentImage             |
| Дополнительно           | —                            | ModelSamplingFlux               |
| Отрицательная подсказка | Требуется                    | Необязательно (оставить пустым) |

***

## Важные пользовательские узлы

### Рекомендуемые наборы узлов

| Набор узлов              | GitHub                                  | Случай использования                              |
| ------------------------ | --------------------------------------- | ------------------------------------------------- |
| **ComfyUI-Manager**      | ltdrdata/ComfyUI-Manager                | Устанавливать и управлять всеми остальными узлами |
| **ComfyUI-FLUX**         | XLabs-AI/x-flux-comfyui                 | Узлы ControlNet для FLUX                          |
| **was-node-suite**       | WASasquatch/was-node-suite-comfyui      | 100+ утилитных узлов                              |
| ComfyUI-Impact-Pack      | ltdrdata/ComfyUI-Impact-Pack            | Обнаружение лиц, SAM, ADetailer                   |
| ComfyUI-Inspire-Pack     | ltdrdata/ComfyUI-Inspire-Pack           | Продвинутые сэмплеры, рабочие процессы            |
| ComfyUI-AnimateDiff      | Kosinkadink/ComfyUI-AnimateDiff-Evolved | Генерация видео / анимации                        |
| ComfyUI-VideoHelperSuite | Kosinkadink/ComfyUI-VideoHelperSuite    | Обработка ввода/вывода видео                      |
| ComfyUI-GGUF             | city96/ComfyUI-GGUF                     | Запуск квантизированных моделей GGUF              |
| ComfyUI-KJNodes          | kijai/ComfyUI-KJNodes                   | Утилитные узлы и узлы масок                       |
| rgthree-comfy            | rgthree/rgthree-comfy                   | Помощники рабочих процессов, улучшенный UI        |

### ComfyUI-FLUX (XLabs-AI)

Добавляет поддержку ControlNet для FLUX внутри ComfyUI:

```bash
cd ComfyUI/custom_nodes
git clone https://github.com/XLabs-AI/x-flux-comfyui
cd x-flux-comfyui
pip install -r requirements.txt
```

Добавляет узлы: `Apply ControlNet (FLUX)`, `Load ControlNet Model (FLUX)`, `XFlux Sampler`

### was-node-suite

Более 100 утилитных узлов для продвинутых рабочих процессов:

```bash
cd ComfyUI/custom_nodes
git clone https://github.com/WASasquatch/was-node-suite-comfyui
cd was-node-suite-comfyui
pip install -r requirements.txt
```

Ключевые узлы: Image Batch, Text Operations, Image Analyze, Cache Node, Bus Node, Upscale, Mask operations

### Установить через Manager

1. Нажмите **Manager** кнопка
2. **Install Custom Nodes**
3. Поиск и установка
4. Перезапустить ComfyUI

## Продвинутые рабочие процессы

### ControlNet

```bash
# Скачать модели ControlNet
cd ComfyUI/models/controlnet

# Canny
wget https://huggingface.co/lllyasviel/ControlNet-v1-1/resolve/main/control_v11p_sd15_canny.pth

# Depth
wget https://huggingface.co/lllyasviel/ControlNet-v1-1/resolve/main/control_v11f1p_sd15_depth.pth

# OpenPose
wget https://huggingface.co/lllyasviel/ControlNet-v1-1/resolve/main/control_v11p_sd15_openpose.pth
```

Рабочий процесс:

1. Load Image → Canny Edge Detector
2. Apply ControlNet → KSampler
3. Генерировать с подсказками по позе/краям

### Апскейлинг

```bash
# Скачать апскейлер
cd ComfyUI/models/upscale_models
wget https://github.com/xinntao/Real-ESRGAN/releases/download/v0.1.0/RealESRGAN_x4plus.pth
```

Рабочий процесс:

1. Генерировать изображение в меньшем разрешении (768x768)
2. Узел Upscale Image (Model)
3. Опционально: проход img2img для детализации

### SDXL + Refiner

1. Генерировать с SDXL base (шаги 1–20)
2. Передать латент в SDXL refiner (шаги 21–30)
3. VAE Decode конечного результата

## Клавиатурные сокращения

| Клавиша            | Действие                                |
| ------------------ | --------------------------------------- |
| `Ctrl+Enter`       | Добавить в очередь подсказку            |
| `Ctrl+Shift+Enter` | Добавить в очередь подсказку (в начало) |
| `Ctrl+Z`           | Отменить                                |
| `Ctrl+Y`           | Повторить                               |
| `Ctrl+S`           | Сохранить рабочий процесс               |
| `Ctrl+O`           | Загрузить рабочий процесс               |
| `Ctrl+A`           | Выделить всё                            |
| `Delete`           | Удалить выделенное                      |
| `Ctrl+M`           | Отключить узел (mute)                   |
| `Ctrl+B`           | Пройти мимо узла (bypass)               |

## Использование API

### Добавить подсказку в очередь

```python
import json
import urllib.request

# Для внешнего доступа используйте ваш http_pub URL:
SERVER = "your-http-pub.clorecloud.net"
# Или через SSH: SERVER = "localhost:8188"

def queue_prompt(prompt, server=SERVER):
    data = json.dumps({"prompt": prompt}).encode('utf-8')
    req = urllib.request.Request(f"https://{server}/prompt", data=data)
    urllib.request.urlopen(req)

# Загрузить JSON рабочего процесса и поставить в очередь
with open("workflow.json") as f:
    workflow = json.load(f)
queue_prompt(workflow)
```

### WebSocket для прогресса

```python
import websocket
import json

# Для внешнего доступа используйте wss:// с вашим http_pub URL
ws = websocket.WebSocket()
ws.connect(f"wss://{SERVER}/ws")

while True:
    msg = json.loads(ws.recv())
    if msg['type'] == 'progress':
        print(f"Step {msg['data']['value']}/{msg['data']['max']}")
    elif msg['type'] == 'executed':
        print("Готово!")
        break
```

## Советы по производительности

1. **Включите --lowvram** для <8 ГБ VRAM
2. **Используйте fp16** модели, когда это возможно
3. **Размер батча 1** для ограниченной VRAM
4. **Tiled VAE** для изображений высокого разрешения
5. **Отключить предпросмотр** для более быстрой генерации

## Требования к GPU

| Модель            | Минимальная VRAM | Рекомендуемая VRAM | Мин. RAM |
| ----------------- | ---------------- | ------------------ | -------- |
| SD 1.5            | 4 ГБ             | 8GB                | 16GB     |
| SDXL              | 8GB              | 12GB               | 16GB     |
| SDXL + ControlNet | 10GB             | 16GB               | 16GB     |
| FLUX              | 16GB             | 24 ГБ              | 32GB     |

## Пресеты GPU

### RTX 3060 12 ГБ (Бюджет)

```bash
# Запуск с оптимизациями
python main.py --lowvram --force-fp16

# Рекомендуемые настройки:
# - SDXL: 768x768, пакет 1
# - SD 1.5: 512x512, пакет 4
# - Использовать VAE с тайлингом
# - 20–30 шагов
```

**Лучше всего для:** SD 1.5, SDXL (с ограничениями)

### RTX 3090 24 ГБ (Оптимально)

```bash
# Стандартный запуск
python main.py --force-fp16

# Рекомендуемые настройки:
# - SDXL: 1024x1024, пакет 2
# - FLUX schnell: 1024x1024, пакет 1
# - ControlNet + SDXL работает хорошо
# - 30–50 шагов
```

**Лучше всего для:** SDXL, рабочие процессы ControlNet, умеренный FLUX

### RTX 4090 24 ГБ (Производительность)

```bash
# Запуск на полной скорости
python main.py

# Рекомендуемые настройки:
# - SDXL: 1024x1024, пакет 4
# - FLUX dev: 1024x1024, пакет 1-2
# - Сложные рабочие процессы с несколькими ControlNet
# - 50+ шагов для качества
```

**Лучше всего для:** FLUX, сложные рабочие процессы, пакетная генерация

### A100 40 ГБ/80 ГБ (Производство)

```bash
# Максимальная производительность
python main.py --highvram

# Рекомендуемые настройки:
# - SDXL: 1024x1024, пакет 8+
# - FLUX: 1024x1024, пакет 2-4
# - Несколько моделей загружены одновременно
# - Высокое разрешение вывода (2048x2048)
```

**Лучше всего для:** Производственные нагрузки, FLUX, генерация в высоком разрешении

## Оценка стоимости

Типичные расценки на маркетплейсе CLORE.AI:

| GPU      | VRAM  | Цена/день  | Скорость SDXL        |
| -------- | ----- | ---------- | -------------------- |
| RTX 3060 | 12GB  | $0.15–0.30 | \~15 сек/изображение |
| RTX 3090 | 24 ГБ | $0.30–1.00 | \~8 сек/изображение  |
| RTX 4090 | 24 ГБ | $0.50–2.00 | \~4 сек/изображение  |
| A100     | 40GB  | $1.50–3.00 | \~3 сек/изображение  |

*Цены в USD/день. Тарифы зависят от провайдера — проверьте* [*CLORE.AI Marketplace*](https://clore.ai/marketplace) *для текущих тарифов.*

## Устранение неполадок

### HTTP 502 длительное время

1. **Проверьте RAM:** Сервер должен иметь 16 ГБ+ RAM
2. **Проверьте VRAM:** 8 ГБ+ для SDXL, 16 ГБ+ для FLUX
3. **Загрузка зависимостей:** Первый запуск занимает 5–10 мин
4. **Загрузка модели:** Большие модели занимают больше времени

### Недостаточно памяти

```bash
# Запуск в режиме низкого VRAM
python main.py --lowvram

# Или принудительно fp16
python main.py --force-fp16
```

### Чёрные изображения

* Проверьте, что VAE загружен
* Попробуйте другой VAE
* Уменьшите размер изображения

### Медленная генерация

* Включите CUDA
* Используйте модели fp16
* Уменьшите количество шагов (часто хватает 20–30)

## Примеры рабочих процессов

Импортируйте эти JSON рабочие процессы в ComfyUI:

* [Базовый txt2img](https://comfyworkflows.com)
* [SDXL + Refiner](https://comfyworkflows.com)
* [ControlNet Canny](https://comfyworkflows.com)
* [AnimateDiff Видео](https://comfyworkflows.com)

## Дальнейшие шаги

* [ControlNet Руководство](/guides/guides_v2-ru/obrabotka-izobrazhenii/controlnet-advanced.md)
* [Апскейл с помощью Real-ESRGAN](/guides/guides_v2-ru/obrabotka-izobrazhenii/real-esrgan-upscaling.md)
* [Обучение Kohya](/guides/guides_v2-ru/obuchenie/kohya-training.md) - Обучение пользовательских LoRA
* [Fooocus](/guides/guides_v2-ru/generaciya-izobrazhenii/fooocus-simple-sd.md) - Более простая альтернатива


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://docs.clore.ai/guides/guides_v2-ru/generaciya-izobrazhenii/comfyui.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
