Обучение Kohya

Обучайте LoRA и DreamBooth для Stable Diffusion с Kohya на Clore.ai

Обучайте LoRA, Dreambooth и полную дообучку для Stable Diffusion с помощью тренера Kohya.

circle-check

Аренда на CLORE.AI

  1. Отфильтруйте по типу GPU, объему VRAM и цене

  2. Выберите On-Demand (фиксированная ставка) или Spot (цена по ставке)

  3. Настройте ваш заказ:

    • Выберите Docker-образ

    • Установите порты (TCP для SSH, HTTP для веб-интерфейсов)

    • Добавьте переменные окружения при необходимости

    • Введите команду запуска

  4. Выберите способ оплаты: CLORE, BTC, или USDT/USDC

  5. Создайте заказ и дождитесь развертывания

Доступ к вашему серверу

  • Найдите данные для подключения в Моих заказах

  • Веб-интерфейсы: используйте URL HTTP-порта

  • SSH: ssh -p <port> root@<proxy-address>

Что такое Kohya?

Kohya_ss — это набор инструментов для обучения для:

  • LoRA - Легковесные адаптеры (наиболее популярные)

  • Dreambooth - Обучение предмету/стилю

  • Полная дообучка - Полное обучение модели

  • LyCORIS - Продвинутые варианты LoRA

Требования

Тип обучения
Мин. VRAM
Рекомендуется

LoRA SD 1.5

6 ГБ

RTX 3060

LoRA SDXL

12GB

RTX 3090

Dreambooth SD 1.5

12GB

RTX 3090

Dreambooth SDXL

24 ГБ

RTX 4090

Быстрое развертывание

Docker-образ:

Порты:

Команда:

Доступ к вашему сервису

После развертывания найдите ваш http_pub URL в Моих заказах:

  1. Перейдите на Моих заказах страницу

  2. Нажмите на ваш заказ

  3. Найдите http_pub URL (например, abc123.clorecloud.net)

Используйте https://YOUR_HTTP_PUB_URL вместо localhost в примерах ниже.

Использование веб-интерфейса

  1. Доступ по адресу http://<proxy>:<port>

  2. Выберите тип обучения (LoRA, Dreambooth и т.д.)

  3. Настройте параметры

  4. Запустите обучение

Подготовка датасета

Структура папок

Требования к изображениям

  • Разрешение: 512x512 (SD 1.5) или 1024x1024 (SDXL)

  • Формат: PNG или JPG

  • Количество: 10–50 изображений для LoRA

  • Качество: Чёткие, хорошо освещённые, разнообразные ракурсы

Файлы подписей (caption files)

Создайте .txt файл с тем же именем, что и изображение:

myimage.txt:

Авто-подписание (Auto-Captioning)

Используйте BLIP для автоматических подписей:

Обучение LoRA (SD 1.5)

Конфигурация

В интерфейсе Kohya:

Параметр
Значение

Модель

runwayml/stable-diffusion-v1-5

Ранг сети (Network Rank)

32-128

Альфа сети (Network Alpha)

16-64

Скорость обучения (Learning Rate)

1e-4

Размер батча (Batch Size)

1-4

Эпохи

10-20

Оптимизатор

AdamW8bit

Обучение через командную строку

Обучение LoRA (SDXL)

Обучение Dreambooth

Обучение предмета (Subject Training)

Обучение стиля (Style Training)

Советы по обучению

Оптимальные настройки

Параметр
Человек/Персонаж
Стиль
Объект

Ранг сети (Network Rank)

64-128

32-64

32

Альфа сети (Network Alpha)

32-64

16-32

16

Скорость обучения (Learning Rate)

1e-4

5e-5

1e-4

Эпохи

15-25

10-15

10-15

Избежание переобучения

  • Используйте изображения для регуляризации

  • Понизьте скорость обучения

  • Меньше эпох

  • Увеличьте network alpha

Избежание недообучения

  • Больше обучающих изображений

  • Более высокая скорость обучения

  • Больше эпох

  • Понизьте network alpha

Мониторинг обучения

TensorBoard

Ключевые метрики

  • loss - Должен уменьшаться, затем стабилизироваться

  • lr - План изменения скорости обучения

  • epoch - Прогресс обучения

Тестирование вашей LoRA

С Automatic1111

Скопируйте LoRA в:

Использование в prompt:

С ComfyUI

Загрузите узел LoRA и подключите к модели.

С Diffusers

Продвинутое обучение

LyCORIS (LoHa, LoKR)

Textual Inversion

Сохранение и экспорт

Скачать обученную модель

Преобразование форматов

Оценка стоимости

Типичные ставки на маркетплейсе CLORE.AI (по состоянию на 2024):

GPU
Почасовая ставка
Дневная ставка
Сессия 4 часа

RTX 3060

~$0.03

~$0.70

~$0.12

RTX 3090

~$0.06

~$1.50

~$0.25

RTX 4090

~$0.10

~$2.30

~$0.40

A100 40GB

~$0.17

~$4.00

~$0.70

A100 80GB

~$0.25

~$6.00

~$1.00

Цены варьируются в зависимости от провайдера и спроса. Проверьте CLORE.AI Marketplacearrow-up-right для текущих тарифов.

Экономьте деньги:

  • Используйте Spot рынок для гибких рабочих нагрузок (часто на 30–50% дешевле)

  • Платите с помощью CLORE токенов

  • Сравнивайте цены у разных провайдеров

Обучение FLUX LoRA

Обучайте адаптеры LoRA для FLUX.1-dev и FLUX.1-schnell — новейшего поколения диффузионных трансформеров с улучшенным качеством.

Требования к VRAM

Модель
Мин. VRAM
Рекомендуемый GPU

FLUX.1-schnell

16GB

RTX 4080 / 3090

FLUX.1-dev

24 ГБ

RTX 4090

FLUX.1-dev (bf16)

40GB+

A100 40GB

Примечание: FLUX использует архитектуру DiT (Diffusion Transformer) — динамика обучения существенно отличается от SD 1.5 / SDXL.

Установка для FLUX

Установите PyTorch с поддержкой CUDA 12.4:

Конфигурация FLUX LoRA (flux_lora.toml)

Команда для обучения FLUX LoRA

FLUX vs SDXL: ключевые различия

Параметр
SDXL
FLUX.1

Скорость обучения (Learning Rate)

1e-3 до 1e-4

1e-4 до 5e-5

Точность (Precision)

fp16 или bf16

bf16 ОБЯЗАТЕЛЕН

Модуль сети (Network Module)

networks.lora

networks.lora_flux

Размерность сети (Network Dim)

32–128

8–64 (меньше)

Оптимизатор

AdamW8bit

Adafactor

Мин. VRAM

12GB

16–24GB

Архитектура

U-Net

DiT (Transformer)

Руководство по скорости обучения для FLUX

Подсказка: FLUX более чувствителен к скорости обучения, чем SDXL. Начинайте с 1e-4 и уменьшайте до 5e-5 если вы видите проблемы с качеством. Для SDXL 1e-3 распространено — избегайте этого для FLUX.

Тестирование FLUX LoRA


Устранение неполадок

Ошибка OOM

  • Уменьшите размер батча до 1

  • Включите gradient checkpointing

  • Используйте 8bit оптимизатор

  • Понизьте разрешение

Плохие результаты

  • Больше/лучше обучающих изображений

  • Отрегулируйте скорость обучения

  • Проверьте соответствие подписей изображениям

  • Попробуйте другой ранг сети

Крашы во время обучения

  • Проверьте версию CUDA

  • Обновите xformers

  • Уменьшите размер батча

  • Проверьте место на диске

Проблемы, специфичные для FLUX

  • "bf16 не поддерживается" — Используйте видеокарты серии A (Ampere+) или RTX 30/40

  • OOM на FLUX.1-dev — Переключитесь на FLUX.1-schnell (требует 16GB) или включите cache_text_encoder_outputs

  • Размытые результаты — Увеличьте network_dim до 32–64, понизьте скорость обучения до 5e-5

  • NaN loss — Отключите full_bf16, проверьте ваш датасет на наличие повреждённых изображений

Последнее обновление

Это было полезно?