FLUX.1

Запускайте FLUX.1 генерацию изображений от Black Forest Labs на Clore.ai

circle-info

Более быстрая альтернатива! FLUX.2 Klein генерирует изображения за < 0,5 секунды (против 10–30 с для FLUX.1) с сопоставимым качеством. Это руководство по-прежнему актуально для обучения LoRA и рабочих процессов ControlNet.

Современная модель генерации изображений от Black Forest Labs на GPU CLORE.AI.

circle-check

Почему FLUX.1?

  • Лучшее качество - Превосходит SDXL и Midjourney v5

  • Отрисовка текста - Текст на изображениях действительно читаем

  • Следование подсказке - Отличное соблюдение инструкций

  • Быстрые варианты - FLUX.1-schnell для быстрой генерации

Варианты моделей

Модель
Скорость
Качество
VRAM
Лицензия

FLUX.1-schnell

Быстро (4 шага)

Отлично

12ГБ+

Apache 2.0

FLUX.1-dev

Средне (20 шагов)

Отлично

16 ГБ+

Некомерческое

FLUX.1-pro

Только API

Лучшее

-

Коммерческое

Быстрое развертывание на CLORE.AI

Docker-образ:

ghcr.io/huggingface/text-generation-inference:latest

Порты:

Для простейшего развёртывания используйте ComfyUI с нодами FLUX.

Методы установки

Метод 1: ComfyUI (рекомендуется)

Метод 2: Diffusers

Метод 3: Fooocus

Fooocus имеет встроенную поддержку FLUX:

Рабочий процесс ComfyUI

FLUX.1-schnell (Быстрый)

Необходимые ноды:

  1. Load Diffusion Model → flux1-schnell.safetensors

  2. DualCLIPLoader → clip_l.safetensors + t5xxl_fp16.safetensors

  3. CLIP Text Encode → ваша подсказка

  4. Empty SD3 Latent Image → установить размеры

  5. KSampler → шаги: 4, cfg: 1.0

  6. VAE Decode → ae.safetensors

  7. Сохранить изображение

FLUX.1-dev (Качество)

Та же рабочая схема, но:

  • Шаги: 20-50

  • CFG: 3.5

  • Используйте guidance_scale в подсказке

Python API

Базовая генерация

С оптимизацией памяти

Пакетная генерация

FLUX.1-dev (Более высокое качество)

Советы по промптам

FLUX отлично справляется с:

  • Текст в изображениях: "Неоновая вывеска с надписью 'OPEN 24/7'"

  • Сложные сцены: "Оживлённая улица Токио ночью с отражениями"

  • Конкретные стили: "Масляная живопись в стиле Моне"

  • Детализированные описания: Длинные, подробные подсказки работают хорошо

Примеры подсказок

Оптимизация памяти

Для 12 ГБ видеопамяти (RTX 3060)

Для 8ГБ видеопамяти

Используйте квантизированную версию или ComfyUI с GGUF:

Сравнение производительности

Модель
Шаги
Время (4090)
Качество

FLUX.1-schnell

4

~3 с

Отлично

FLUX.1-dev

20

~12 с

Отлично

FLUX.1-dev

50

~30 сек

Лучшее

SDXL

30

~8 с

Хорошо

Требования к GPU

Настройка
Минимум
Рекомендуется

FLUX.1-schnell

12GB

16 ГБ+

FLUX.1-dev

16GB

24 ГБ+

С выгрузкой на CPU

8GB

12ГБ+

Квантизированная (GGUF)

6 ГБ

8 ГБ+

Пресеты GPU

RTX 3060 12 ГБ (Бюджет)

RTX 3090 24 ГБ (Оптимально)

RTX 4090 24 ГБ (Производительность)

A100 40 ГБ/80 ГБ (Производство)

Оценка стоимости

GPU
Ежечасно
Изображений/час

RTX 3060 12GB

~$0.03

~200 (schnell)

RTX 3090 24GB

~$0.06

~600 (schnell)

RTX 4090 24GB

~$0.10

~1000 (schnell)

A100 40GB

~$0.17

~1500 (schnell)

Устранение неполадок

Недостаточно памяти

Медленная генерация

  • Используйте FLUX.1-schnell (4 шага)

  • Включите torch.compile: pipe.unet = torch.compile(pipe.unet)

  • Используйте fp16 вместо bf16 на старых GPU

Плохое качество

  • Используйте больше шагов (FLUX-dev: 30-50)

  • Увеличьте guidance_scale (3.0-4.0 для dev)

  • Пишите более подробные промпты


FLUX LoRA

Весы LoRA (Low-Rank Adaptation) позволяют донастраивать FLUX под конкретные стили, персонажей или концепции без повторного обучения всей модели. Сотни пользовательских LoRA доступны на HuggingFace и CivitAI.

Установка

Загрузка одного LoRA

Загрузка с HuggingFace Hub

Масштаб LoRA (Сила)

Комбинация нескольких LoRA

Выгрузка LoRA

Обучение собственной FLUX LoRA

Рекомендуемые источники LoRA

Источник
URL
Примечания

CivitAI

civitai.com

Большая библиотека сообщества

HuggingFace

huggingface.co/models

Фильтровать по FLUX

Replicate

replicate.com

Просмотр обученных моделей


ControlNet для FLUX

ControlNet позволяет направлять генерацию FLUX с помощью структурных входов, таких как границы по Canny, карты глубины и скелеты позы. XLabs-AI выпустила первые модели ControlNet специально для FLUX.1.

Установка

FLUX ControlNet Canny (XLabs-AI)

FLUX ControlNet Depth

Мульти-ControlNet для FLUX

Доступные модели FLUX ControlNet

Модель
Репозиторий
Случай использования

Canny

XLabs-AI/flux-controlnet-canny-diffusers

Генерация с опорой на границы

Depth

XLabs-AI/flux-controlnet-depth-diffusers

Генерация с опорой на глубину

HED/Мягкие границы

XLabs-AI/flux-controlnet-hed-diffusers

Мягкое структурное управление

Pose

XLabs-AI/flux-controlnet-openpose-diffusers

Портреты с управлением позой

Советы по ControlNet

  • conditioning_scale 0.5–0.8 лучше всего для FLUX (слишком высокое значение теряет креативность)

  • Используйте 1024×1024 или кратные для лучшего качества

  • Комбинируйте с LoRA для контроля стиля + структуры

  • Меньше шагов (20–25) обычно достаточно с ControlNet


FLUX.1-schnell: Режим быстрой генерации

FLUX.1-schnell — это дистиллированный, оптимизированный по скорости вариант FLUX. Он генерирует высококачественные изображения всего за 4 шага (против 20–50 для FLUX.1-dev), что делает его идеальным для быстрого прототипирования и рабочих процессов с высокой пропускной способностью.

Ключевые отличия от FLUX.1-dev

Функция
FLUX.1-schnell
FLUX.1-dev

Шаги

4

20–50

Скорость (4090)

~3 с

~12–30 с

Лицензия

Apache 2.0 (бесплатно для коммерческого использования)

Некомерческое

guidance_scale

0.0 (без CFG)

3.5

Качество

Отлично

Отлично

VRAM

12ГБ+

16 ГБ+

Примечание по лицензии: FLUX.1-schnell распространяется по Apache 2.0 — вы можете свободно использовать его в коммерческих продуктах. FLUX.1-dev требует отдельной коммерческой лицензии от Black Forest Labs.

Быстрый старт

Высокопроизводительная пакетная генерация

Несколько соотношений сторон с schnell

schnell с оптимизациями памяти

Бенчмарки производительности (schnell)

GPU
VRAM
Время/изображение (1024px)
Изображений/час

RTX 3060 12GB

12GB

~8 с

~450

RTX 3090 24GB

24 ГБ

~4 с

~900

RTX 4090 24GB

24 ГБ

~3 с

~1200

A100 40GB

40GB

~2 с

~1800

Когда использовать schnell или dev

Используйте FLUX.1-schnell, когда:

  • Быстрое прототипирование / тестирование подсказок

  • Пакетная генерация большого объёма

  • Коммерческие проекты (Apache 2.0)

  • Ограниченный бюджет GPU

  • Приложения в реальном времени или близкие к реальному времени

Используйте FLUX.1-dev, когда:

  • Приоритет — максимальное качество изображения

  • Тонкие детали и сложные сцены

  • Исследования / художественные работы

  • Комбинация с LoRA/ControlNet (dev обычно лучше реагирует)


Дальнейшие шаги

Последнее обновление

Это было полезно?