# ComfyUI

Интерфейс на основе узлов для Stable Diffusion с максимальной гибкостью на GPU CLORE.AI.

{% hint style="success" %}
Все примеры можно запускать на GPU-серверах, арендуемых через [CLORE.AI Marketplace](https://clore.ai/marketplace).
{% endhint %}

## Требования к серверу

| Параметр      | Минимум     | Рекомендуется |
| ------------- | ----------- | ------------- |
| ОЗУ           | 16GB        | 32 ГБ+        |
| VRAM          | 8 ГБ (SDXL) | 12ГБ+         |
| Сеть          | 500 Мбит/с  | 1 Гбит/с+     |
| Время запуска | 5–10 минут  | -             |

{% hint style="warning" %}
**Время запуска:** Первый запуск загружает зависимости и модели (5–10 минут в зависимости от скорости сети). HTTP 502 в это время нормален.
{% endhint %}

{% hint style="danger" %}
**Важно:** ComfyUI с моделями FLUX требует 16 ГБ+ видеопамяти. Для SDXL с ControlNet убедитесь как минимум в 10 ГБ VRAM.
{% endhint %}

## Почему ComfyUI?

* **Рабочий процесс на основе узлов** - Визуальное программирование для генерации изображений
* **Максимальный контроль** - Тонкая настройка каждого шага конвейера
* **Эффективно** - Меньшее использование VRAM по сравнению с альтернативами
* **Расширяемо** - Огромная экосистема пользовательских узлов
* **Обмен рабочими процессами** - Импорт/экспорт в формате JSON

## Быстрое развертывание на CLORE.AI

**Docker-образ:**

```
yanwk/comfyui-boot:cu126-slim
```

**Порты:**

```
22/tcp
8188/http
```

**Окружение:**

```
CLI_ARGS=--listen 0.0.0.0
```

### Проверьте, что всё работает

После развертывания найдите ваш `http_pub` URL в **Моих заказах**:

```bash
# Проверьте доступность UI (первый запуск может занять 5–10 минут)
curl https://your-http-pub.clorecloud.net/
```

{% hint style="info" %}
Если вы получаете HTTP 502 более 15 минут, проверьте:

1. Сервер имеет 16 ГБ+ RAM
2. Сервер имеет 8 ГБ+ VRAM для SDXL, 16 ГБ+ для FLUX
3. Скорость сети достаточна для загрузки моделей
   {% endhint %}

## Доступ к вашему сервису

При развертывании на CLORE.AI получайте доступ к ComfyUI через `http_pub` URL:

* **Веб‑интерфейс:** `https://your-http-pub.clorecloud.net/`
* **API:** `https://your-http-pub.clorecloud.net/prompt`
* **WebSocket:** `wss://your-http-pub.clorecloud.net/ws`

{% hint style="info" %}
Все `localhost:8188` примеры ниже работают при подключении через SSH. Для внешнего доступа замените на ваш `https://your-http-pub.clorecloud.net/` URL.
{% endhint %}

## Установка

### Использование Docker (рекомендуется)

```bash
docker run -d --gpus all \
  -p 8188:8188 \
  -v comfyui-data:/root \
  -e CLI_ARGS="--listen 0.0.0.0" \
  yanwk/comfyui-boot:cu126-slim
```

### Ручная установка

```bash
# Клонировать репозиторий
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI

# Создать виртуальное окружение
python -m venv venv
source venv/bin/activate

# Установить PyTorch с CUDA
pip install torch torchvision --index-url https://download.pytorch.org/whl/cu124

# Установить зависимости
pip install -r requirements.txt

# Запустить
python main.py --listen 0.0.0.0
```

## Структура каталогов

```
ComfyUI/
├── models/
│   ├── checkpoints/     # SD модели (.safetensors)
│   ├── loras/           # LoRA модели
│   ├── vae/             # VAE модели
│   ├── controlnet/      # ControlNet модели
│   ├── upscale_models/  # Модели для увеличения разрешения
│   └── clip/            # CLIP модели
├── input/               # Входные изображения
├── output/              # Сгенерированные изображения
└── custom_nodes/        # Расширения
```

## Загрузка моделей

### Контрольные точки Stable Diffusion

```bash
cd ComfyUI/models/checkpoints

# SDXL базовая
wget https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors

# SDXL Refiner
wget https://huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0/resolve/main/sd_xl_refiner_1.0.safetensors

# SD 1.5 (меньше, быстрее)
wget https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned.safetensors

# Realistic Vision (фотореалистичный)
wget https://huggingface.co/SG161222/Realistic_Vision_V6.0_B1_noVAE/resolve/main/Realistic_Vision_V6.0_B1_fp16.safetensors
```

### VAE

```bash
cd ComfyUI/models/vae

# VAE для SDXL
wget https://huggingface.co/stabilityai/sdxl-vae/resolve/main/sdxl_vae.safetensors

# VAE для SD 1.5 (лучшие цвета)
wget https://huggingface.co/stabilityai/sd-vae-ft-mse-original/resolve/main/vae-ft-mse-840000-ema-pruned.safetensors
```

### LoRA

```bash
cd ComfyUI/models/loras

# Скачайте с CivitAI или HuggingFace
# Поместите файлы .safetensors сюда
```

## Базовый рабочий процесс

### Текст в изображение

1. Добавьте узлы:
   * **Загрузить контрольную точку** → выбрать модель
   * **CLIP Text Encode** (x2) → положительные и отрицательные подсказки
   * **Пустое латентное изображение** → установить размеры
   * **KSampler** → подключить всё
   * **VAE Decode** → латентное в изображение
   * **Сохранить изображение** → вывод
2. Подключения:

```
[Checkpoint] → MODEL → [KSampler]
[Checkpoint] → CLIP → [CLIP Text Encode +]
[Checkpoint] → CLIP → [CLIP Text Encode -]
[Checkpoint] → VAE → [VAE Decode]
[Text Encode +] → CONDITIONING → [KSampler]
[Text Encode -] → CONDITIONING → [KSampler]
[Empty Latent] → LATENT → [KSampler]
[KSampler] → LATENT → [VAE Decode]
[VAE Decode] → IMAGE → [Save Image]
```

### Изображение в изображение

Заменить **Пустое латентное изображение** на:

1. **Загрузить изображение** → ваше исходное изображение
2. **VAE Encode** → конвертировать в латентное
3. Отрегулируйте **денойз** в KSampler (0.5–0.8)

## ComfyUI Manager

ComfyUI Manager — это **необходимое расширение** которое добавляет графический интерфейс для установки, обновления и управления пользовательскими узлами. Это стандартный способ расширения ComfyUI.

### Установка

```bash
cd ComfyUI/custom_nodes
git clone https://github.com/ltdrdata/ComfyUI-Manager.git
# Перезапустите ComfyUI — в панели инструментов появится кнопка «Manager»
```

### Использование ComfyUI Manager

После перезапуска **Manager** кнопка появится в правом верхнем углу интерфейса ComfyUI.

**Ключевые особенности:**

| Функция                          | Как получить доступ                    |
| -------------------------------- | -------------------------------------- |
| Установить пользовательские узлы | Manager → Install Custom Nodes         |
| Обновить все узлы                | Manager → Update All                   |
| Отключить/включить узлы          | Manager → Custom Nodes Manager         |
| Установить отсутствующие узлы    | Manager → Install Missing Custom Nodes |
| Получить информацию о модели     | Manager → Model Manager                |
| Восстановить снимок              | Manager → Snapshot Manager             |

**Рабочий процесс: установка нового набора узлов**

1. Нажмите **Manager** кнопка
2. Выбрать **Install Custom Nodes**
3. Поиск по имени (например, "FLUX", "AnimateDiff")
4. Нажмите **Установить** на желаемом паке
5. Нажмите **Перезапустить** когда появится запрос
6. Новые узлы появятся в меню добавления по правому клику

**Автоустановка отсутствующих узлов:** Когда вы импортируете JSON рабочего процесса, который использует узлы, которых у вас нет, Manager обнаруживает их и предлагает установить автоматически через **Install Missing Custom Nodes**.

### Поддержание узлов в актуальном состоянии

```bash
# Из CLI (альтернатива GUI):
cd ComfyUI/custom_nodes/ComfyUI-Manager
git pull

# Или используйте Manager → Update All в UI
```

***

## FLUX рабочий процесс в ComfyUI

FLUX использует другую структуру узлов, чем стандартные модели SD. Ниже приведён полный FLUX.1-dev рабочий процесс.

### Требуемые файлы

Перед запуском рабочего процесса загрузите:

```bash
# Модель FLUX (dev или schnell)
cd ComfyUI/models/unet
wget https://huggingface.co/black-forest-labs/FLUX.1-dev/resolve/main/flux1-dev.safetensors

# Текстовые энкодеры
cd ../clip
wget https://huggingface.co/comfyanonymous/flux_text_encoders/resolve/main/clip_l.safetensors
wget https://huggingface.co/comfyanonymous/flux_text_encoders/resolve/main/t5xxl_fp16.safetensors

# VAE
cd ../vae
wget https://huggingface.co/black-forest-labs/FLUX.1-dev/resolve/main/ae.safetensors
```

### FLUX.1-dev Workflow JSON

Сохранить как `flux_dev_workflow.json` и импортировать через **Загрузить** кнопку в ComfyUI:

```json
{
  "last_node_id": 12,
  "last_link_id": 20,
  "nodes": [
    {
      "id": 1,
      "type": "UNETLoader",
      "pos": [100, 100],
      "size": [300, 60],
      "inputs": [],
      "outputs": [{"name": "MODEL", "type": "MODEL", "links": [1]}],
      "properties": {},
      "widgets_values": ["flux1-dev.safetensors", "default"]
    },
    {
      "id": 2,
      "type": "DualCLIPLoader",
      "pos": [100, 200],
      "size": [350, 80],
      "inputs": [],
      "outputs": [{"name": "CLIP", "type": "CLIP", "links": [2, 3]}],
      "properties": {},
      "widgets_values": ["clip_l.safetensors", "t5xxl_fp16.safetensors", "flux"]
    },
    {
      "id": 3,
      "type": "CLIPTextEncode",
      "pos": [500, 150],
      "size": [425, 180],
      "inputs": [{"name": "clip", "type": "CLIP", "link": 2}],
      "outputs": [{"name": "CONDITIONING", "type": "CONDITIONING", "links": [4]}],
      "properties": {},
      "widgets_values": ["A stunning photorealistic landscape, golden hour lighting, 8K"]
    },
    {
      "id": 4,
      "type": "EmptySD3LatentImage",
      "pos": [100, 350],
      "size": [300, 100],
      "inputs": [],
      "outputs": [{"name": "LATENT", "type": "LATENT", "links": [5]}],
      "properties": {},
      "widgets_values": [1024, 1024, 1]
    },
    {
      "id": 5,
      "type": "ModelSamplingFlux",
      "pos": [500, 350],
      "size": [300, 80],
      "inputs": [{"name": "model", "type": "MODEL", "link": 1}],
      "outputs": [{"name": "MODEL", "type": "MODEL", "links": [6]}],
      "properties": {},
      "widgets_values": [1.15, 0.5, 1024, 1024]
    },
    {
      "id": 6,
      "type": "KSampler",
      "pos": [850, 250],
      "size": [350, 240],
      "inputs": [
        {"name": "model", "type": "MODEL", "link": 6},
        {"name": "positive", "type": "CONDITIONING", "link": 4},
        {"name": "negative", "type": "CONDITIONING", "link": 7},
        {"name": "latent_image", "type": "LATENT", "link": 5}
      ],
      "outputs": [{"name": "LATENT", "type": "LATENT", "links": [8]}],
      "properties": {},
      "widgets_values": [42, "fixed", 20, 3.5, "euler", "simple", 1.0]
    },
    {
      "id": 7,
      "type": "CLIPTextEncode",
      "pos": [500, 500],
      "size": [300, 60],
      "inputs": [{"name": "clip", "type": "CLIP", "link": 3}],
      "outputs": [{"name": "CONDITIONING", "type": "CONDITIONING", "links": [7]}],
      "properties": {},
      "widgets_values": [""]
    },
    {
      "id": 8,
      "type": "VAELoader",
      "pos": [100, 500],
      "size": [300, 60],
      "inputs": [],
      "outputs": [{"name": "VAE", "type": "VAE", "links": [9]}],
      "properties": {},
      "widgets_values": ["ae.safetensors"]
    },
    {
      "id": 9,
      "type": "VAEDecode",
      "pos": [1250, 300],
      "size": [210, 46],
      "inputs": [
        {"name": "samples", "type": "LATENT", "link": 8},
        {"name": "vae", "type": "VAE", "link": 9}
      ],
      "outputs": [{"name": "IMAGE", "type": "IMAGE", "links": [10]}],
      "properties": {}
    },
    {
      "id": 10,
      "type": "SaveImage",
      "pos": [1500, 300],
      "size": [300, 270],
      "inputs": [{"name": "images", "type": "IMAGE", "link": 10}],
      "outputs": [],
      "properties": {},
      "widgets_values": ["flux_output"]
    }
  ],
  "links": [
    [1, 1, 0, 5, 0, "MODEL"],
    [2, 2, 0, 3, 0, "CLIP"],
    [3, 2, 0, 7, 0, "CLIP"],
    [4, 3, 0, 6, 1, "CONDITIONING"],
    [5, 4, 0, 6, 3, "LATENT"],
    [6, 5, 0, 6, 0, "MODEL"],
    [7, 7, 0, 6, 2, "CONDITIONING"],
    [8, 6, 0, 9, 0, "LATENT"],
    [9, 8, 0, 9, 1, "VAE"],
    [10, 9, 0, 10, 0, "IMAGE"]
  ],
  "groups": [],
  "config": {},
  "extra": {"ds": {"scale": 0.8, "offset": [0, 0]}},
  "version": 0.4
}
```

### FLUX.1-schnell рабочий процесс (4 шага)

Для schnell измените настройки KSampler в приведённом выше JSON:

* `num_inference_steps`: `4`
* `cfg`: `1.0`
* `scheduler`: `"simple"`
* Файл модели: `flux1-schnell.safetensors`

Или установите через UI: KSampler → steps: **4**, cfg: **1.0**, sampler: **euler**, scheduler: **simple**

### Ключевые отличия узлов: FLUX vs SD

| Узел                    | SD/SDXL                      | FLUX                            |
| ----------------------- | ---------------------------- | ------------------------------- |
| Загрузчик модели        | Загрузить контрольную точку  | UNETLoader                      |
| Текстовый энкодер       | CLIPTextEncode               | DualCLIPLoader + CLIPTextEncode |
| Латент                  | Пустое латентное изображение | EmptySD3LatentImage             |
| Дополнительно           | —                            | ModelSamplingFlux               |
| Отрицательная подсказка | Требуется                    | Необязательно (оставить пустым) |

***

## Важные пользовательские узлы

### Рекомендуемые наборы узлов

| Набор узлов              | GitHub                                  | Случай использования                              |
| ------------------------ | --------------------------------------- | ------------------------------------------------- |
| **ComfyUI-Manager**      | ltdrdata/ComfyUI-Manager                | Устанавливать и управлять всеми остальными узлами |
| **ComfyUI-FLUX**         | XLabs-AI/x-flux-comfyui                 | Узлы ControlNet для FLUX                          |
| **was-node-suite**       | WASasquatch/was-node-suite-comfyui      | 100+ утилитных узлов                              |
| ComfyUI-Impact-Pack      | ltdrdata/ComfyUI-Impact-Pack            | Обнаружение лиц, SAM, ADetailer                   |
| ComfyUI-Inspire-Pack     | ltdrdata/ComfyUI-Inspire-Pack           | Продвинутые сэмплеры, рабочие процессы            |
| ComfyUI-AnimateDiff      | Kosinkadink/ComfyUI-AnimateDiff-Evolved | Генерация видео / анимации                        |
| ComfyUI-VideoHelperSuite | Kosinkadink/ComfyUI-VideoHelperSuite    | Обработка ввода/вывода видео                      |
| ComfyUI-GGUF             | city96/ComfyUI-GGUF                     | Запуск квантизированных моделей GGUF              |
| ComfyUI-KJNodes          | kijai/ComfyUI-KJNodes                   | Утилитные узлы и узлы масок                       |
| rgthree-comfy            | rgthree/rgthree-comfy                   | Помощники рабочих процессов, улучшенный UI        |

### ComfyUI-FLUX (XLabs-AI)

Добавляет поддержку ControlNet для FLUX внутри ComfyUI:

```bash
cd ComfyUI/custom_nodes
git clone https://github.com/XLabs-AI/x-flux-comfyui
cd x-flux-comfyui
pip install -r requirements.txt
```

Добавляет узлы: `Apply ControlNet (FLUX)`, `Load ControlNet Model (FLUX)`, `XFlux Sampler`

### was-node-suite

Более 100 утилитных узлов для продвинутых рабочих процессов:

```bash
cd ComfyUI/custom_nodes
git clone https://github.com/WASasquatch/was-node-suite-comfyui
cd was-node-suite-comfyui
pip install -r requirements.txt
```

Ключевые узлы: Image Batch, Text Operations, Image Analyze, Cache Node, Bus Node, Upscale, Mask operations

### Установить через Manager

1. Нажмите **Manager** кнопка
2. **Install Custom Nodes**
3. Поиск и установка
4. Перезапустить ComfyUI

## Продвинутые рабочие процессы

### ControlNet

```bash
# Скачать модели ControlNet
cd ComfyUI/models/controlnet

# Canny
wget https://huggingface.co/lllyasviel/ControlNet-v1-1/resolve/main/control_v11p_sd15_canny.pth

# Depth
wget https://huggingface.co/lllyasviel/ControlNet-v1-1/resolve/main/control_v11f1p_sd15_depth.pth

# OpenPose
wget https://huggingface.co/lllyasviel/ControlNet-v1-1/resolve/main/control_v11p_sd15_openpose.pth
```

Рабочий процесс:

1. Load Image → Canny Edge Detector
2. Apply ControlNet → KSampler
3. Генерировать с подсказками по позе/краям

### Апскейлинг

```bash
# Скачать апскейлер
cd ComfyUI/models/upscale_models
wget https://github.com/xinntao/Real-ESRGAN/releases/download/v0.1.0/RealESRGAN_x4plus.pth
```

Рабочий процесс:

1. Генерировать изображение в меньшем разрешении (768x768)
2. Узел Upscale Image (Model)
3. Опционально: проход img2img для детализации

### SDXL + Refiner

1. Генерировать с SDXL base (шаги 1–20)
2. Передать латент в SDXL refiner (шаги 21–30)
3. VAE Decode конечного результата

## Клавиатурные сокращения

| Клавиша            | Действие                                |
| ------------------ | --------------------------------------- |
| `Ctrl+Enter`       | Добавить в очередь подсказку            |
| `Ctrl+Shift+Enter` | Добавить в очередь подсказку (в начало) |
| `Ctrl+Z`           | Отменить                                |
| `Ctrl+Y`           | Повторить                               |
| `Ctrl+S`           | Сохранить рабочий процесс               |
| `Ctrl+O`           | Загрузить рабочий процесс               |
| `Ctrl+A`           | Выделить всё                            |
| `Delete`           | Удалить выделенное                      |
| `Ctrl+M`           | Отключить узел (mute)                   |
| `Ctrl+B`           | Пройти мимо узла (bypass)               |

## Использование API

### Добавить подсказку в очередь

```python
import json
import urllib.request

# Для внешнего доступа используйте ваш http_pub URL:
SERVER = "your-http-pub.clorecloud.net"
# Или через SSH: SERVER = "localhost:8188"

def queue_prompt(prompt, server=SERVER):
    data = json.dumps({"prompt": prompt}).encode('utf-8')
    req = urllib.request.Request(f"https://{server}/prompt", data=data)
    urllib.request.urlopen(req)

# Загрузить JSON рабочего процесса и поставить в очередь
with open("workflow.json") as f:
    workflow = json.load(f)
queue_prompt(workflow)
```

### WebSocket для прогресса

```python
import websocket
import json

# Для внешнего доступа используйте wss:// с вашим http_pub URL
ws = websocket.WebSocket()
ws.connect(f"wss://{SERVER}/ws")

while True:
    msg = json.loads(ws.recv())
    if msg['type'] == 'progress':
        print(f"Step {msg['data']['value']}/{msg['data']['max']}")
    elif msg['type'] == 'executed':
        print("Готово!")
        break
```

## Советы по производительности

1. **Включите --lowvram** для <8 ГБ VRAM
2. **Используйте fp16** модели, когда это возможно
3. **Размер батча 1** для ограниченной VRAM
4. **Tiled VAE** для изображений высокого разрешения
5. **Отключить предпросмотр** для более быстрой генерации

## Требования к GPU

| Модель            | Минимальная VRAM | Рекомендуемая VRAM | Мин. RAM |
| ----------------- | ---------------- | ------------------ | -------- |
| SD 1.5            | 4 ГБ             | 8GB                | 16GB     |
| SDXL              | 8GB              | 12GB               | 16GB     |
| SDXL + ControlNet | 10GB             | 16GB               | 16GB     |
| FLUX              | 16GB             | 24 ГБ              | 32GB     |

## Пресеты GPU

### RTX 3060 12 ГБ (Бюджет)

```bash
# Запуск с оптимизациями
python main.py --lowvram --force-fp16

# Рекомендуемые настройки:
# - SDXL: 768x768, пакет 1
# - SD 1.5: 512x512, пакет 4
# - Использовать VAE с тайлингом
# - 20–30 шагов
```

**Лучше всего для:** SD 1.5, SDXL (с ограничениями)

### RTX 3090 24 ГБ (Оптимально)

```bash
# Стандартный запуск
python main.py --force-fp16

# Рекомендуемые настройки:
# - SDXL: 1024x1024, пакет 2
# - FLUX schnell: 1024x1024, пакет 1
# - ControlNet + SDXL работает хорошо
# - 30–50 шагов
```

**Лучше всего для:** SDXL, рабочие процессы ControlNet, умеренный FLUX

### RTX 4090 24 ГБ (Производительность)

```bash
# Запуск на полной скорости
python main.py

# Рекомендуемые настройки:
# - SDXL: 1024x1024, пакет 4
# - FLUX dev: 1024x1024, пакет 1-2
# - Сложные рабочие процессы с несколькими ControlNet
# - 50+ шагов для качества
```

**Лучше всего для:** FLUX, сложные рабочие процессы, пакетная генерация

### A100 40 ГБ/80 ГБ (Производство)

```bash
# Максимальная производительность
python main.py --highvram

# Рекомендуемые настройки:
# - SDXL: 1024x1024, пакет 8+
# - FLUX: 1024x1024, пакет 2-4
# - Несколько моделей загружены одновременно
# - Высокое разрешение вывода (2048x2048)
```

**Лучше всего для:** Производственные нагрузки, FLUX, генерация в высоком разрешении

## Оценка стоимости

Типичные расценки на маркетплейсе CLORE.AI:

| GPU      | VRAM  | Цена/день  | Скорость SDXL        |
| -------- | ----- | ---------- | -------------------- |
| RTX 3060 | 12GB  | $0.15–0.30 | \~15 сек/изображение |
| RTX 3090 | 24 ГБ | $0.30–1.00 | \~8 сек/изображение  |
| RTX 4090 | 24 ГБ | $0.50–2.00 | \~4 сек/изображение  |
| A100     | 40GB  | $1.50–3.00 | \~3 сек/изображение  |

*Цены в USD/день. Тарифы зависят от провайдера — проверьте* [*CLORE.AI Marketplace*](https://clore.ai/marketplace) *для текущих тарифов.*

## Устранение неполадок

### HTTP 502 длительное время

1. **Проверьте RAM:** Сервер должен иметь 16 ГБ+ RAM
2. **Проверьте VRAM:** 8 ГБ+ для SDXL, 16 ГБ+ для FLUX
3. **Загрузка зависимостей:** Первый запуск занимает 5–10 мин
4. **Загрузка модели:** Большие модели занимают больше времени

### Недостаточно памяти

```bash
# Запуск в режиме низкого VRAM
python main.py --lowvram

# Или принудительно fp16
python main.py --force-fp16
```

### Чёрные изображения

* Проверьте, что VAE загружен
* Попробуйте другой VAE
* Уменьшите размер изображения

### Медленная генерация

* Включите CUDA
* Используйте модели fp16
* Уменьшите количество шагов (часто хватает 20–30)

## Примеры рабочих процессов

Импортируйте эти JSON рабочие процессы в ComfyUI:

* [Базовый txt2img](https://comfyworkflows.com)
* [SDXL + Refiner](https://comfyworkflows.com)
* [ControlNet Canny](https://comfyworkflows.com)
* [AnimateDiff Видео](https://comfyworkflows.com)

## Дальнейшие шаги

* [ControlNet Руководство](https://docs.clore.ai/guides/guides_v2-ru/obrabotka-izobrazhenii/controlnet-advanced)
* [Апскейл с помощью Real-ESRGAN](https://docs.clore.ai/guides/guides_v2-ru/obrabotka-izobrazhenii/real-esrgan-upscaling)
* [Обучение Kohya](https://docs.clore.ai/guides/guides_v2-ru/obuchenie/kohya-training) - Обучение пользовательских LoRA
* [Fooocus](https://docs.clore.ai/guides/guides_v2-ru/generaciya-izobrazhenii/fooocus-simple-sd) - Более простая альтернатива
