# FLUX.2 Klein

FLUX.2 Klein от Black Forest Labs — преемник FLUX.1, обеспечивающий то же качество изображения при **20–60× большей скорости**. Тогда как FLUX.1 занимал 10–30 секунд на изображение, FLUX.2 Klein генерирует за **менее 0,5 секунды** на RTX 4090. Это модель 32B Diffusion Transformer (DiT) с лицензией Apache 2.0, и по состоянию на январь 2026 года она даже экспериментально поддерживается в Ollama.

## Ключевые особенности

* **< 0.5 секунды генерации**: в 20–60× быстрее, чем FLUX.1
* **Архитектура 32B DiT**: то же качество, что и у FLUX.1 dev
* **Лицензия Apache 2.0**: Полное коммерческое использование
* **Поддержка Ollama**: Экспериментальная генерация изображений через Ollama (янв 2026)
* **Совместимо с ComfyUI**: Замена «plug-and-play» для рабочих процессов FLUX.1
* **LoRA + ControlNet**: Доступны адаптеры сообщества

## Требования

| Компонент | Минимум             | Рекомендуется |
| --------- | ------------------- | ------------- |
| GPU       | RTX 3090 24GB       | RTX 4090 24GB |
| VRAM      | 16 ГБ (с выгрузкой) | 24 ГБ         |
| ОЗУ       | 32GB                | 64GB          |
| Диск      | 40GB                | 60 ГБ         |
| CUDA      | 12.0+               | 12.1+         |

**Рекомендуемый GPU на Clore.ai**: RTX 4090 24ГБ (\~$0.5–2/день) — генерация менее чем за секунду

### Сравнение скорости: FLUX.1 vs FLUX.2 Klein

| GPU      | FLUX.1 dev (20 шагов) | FLUX.2 Klein | Ускорение |
| -------- | --------------------- | ------------ | --------- |
| RTX 3090 | ≈25 с                 | \~1.2 с      | 20×       |
| RTX 4090 | \~12 с                | \~0.4 с      | 30×       |
| RTX 5090 | \~8 с                 | \~0.25 с     | 32×       |
| H100     | \~5 сек               | \~0.15 с     | 33×       |

## Быстрый старт с diffusers

```python
import torch
from diffusers import FluxPipeline

pipe = FluxPipeline.from_pretrained(
    "black-forest-labs/FLUX.2-klein",
    torch_dtype=torch.bfloat16
)
pipe.to("cuda")

# Генерация изображения менее чем за 0,5 секунды!
image = pipe(
    prompt="киберпанковская майнинговая установка GPU в неоново освещенном серверном зале, фотореалистично",
    height=1024,
    width=1024,
    num_inference_steps=4,  # Klein требует только 4 шага!
    guidance_scale=3.5,
).images[0]

image.save("output.png")
```

### Режим экономии памяти (16 ГБ GPU)

```python
pipe = FluxPipeline.from_pretrained(
    "black-forest-labs/FLUX.2-klein",
    torch_dtype=torch.bfloat16
)
pipe.enable_model_cpu_offload()  # Помещается на 16 ГБ
pipe.vae.enable_tiling()         # Экономит ~2 ГБ

image = pipe("горный пейзаж на закате", num_inference_steps=4).images[0]
```

## Рабочий процесс ComfyUI

FLUX.2 Klein работает как замена «plug-in» в существующих рабочих процессах FLUX.1 ComfyUI:

1. Скачайте контрольную точку FLUX.2 Klein в `ComfyUI/models/diffusion_models/`
2. В вашем рабочем процессе измените узел контрольной точки, чтобы указать на FLUX.2 Klein
3. Уменьшите количество шагов до 4 (вместо 20–50 для FLUX.1)
4. Установите guidance scale в 3.0–4.0

```bash
# Скачивание модели для ComfyUI
cd ComfyUI/models/diffusion_models/
wget https://huggingface.co/black-forest-labs/FLUX.2-klein/resolve/main/flux2-klein.safetensors
```

## Пакетная генерация

При генерации менее чем за секунду FLUX.2 Klein позволяет массовую пакетную обработку:

```python
import torch
from diffusers import FluxPipeline

pipe = FluxPipeline.from_pretrained(
    "black-forest-labs/FLUX.2-klein", torch_dtype=torch.bfloat16
).to("cuda")

prompts = [
    "красный спортивный автомобиль на горной дороге, кинематографично",
    "уютный интерьер кофейни, теплое освещение",
    "астронавт, парящий над Землей, гиперреалистично",
    "средневековый замок осенью, фэнтези-арт",
    # ... добавьте сотни других
]

for i, prompt in enumerate(prompts):
    image = pipe(prompt, num_inference_steps=4, guidance_scale=3.5).images[0]
    image.save(f"batch_{i:04d}.png")
    print(f"Сгенерировано {i+1}/{len(prompts)}")

# На RTX 4090: ~100 изображений менее чем за 1 минуту!
```

## Поддержка LoRA

```python
pipe = FluxPipeline.from_pretrained(
    "black-forest-labs/FLUX.2-klein", torch_dtype=torch.bfloat16
).to("cuda")

# Загрузите LoRA, натренированную на архитектуре FLUX
pipe.load_lora_weights("your-lora/flux2-style-lora", weight_name="lora.safetensors")
pipe.fuse_lora(lora_scale=0.8)

image = pipe("портрет в обученном стиле", num_inference_steps=4).images[0]
```

## Советы для пользователей Clore.ai

* **Король пакетной обработки**: При 0.4 с/изображение вы можете генерировать более 10 000 изображений в час на RTX 4090
* **Только 4 шага**: Не используйте больше — Klein оптимизирован под 4 шага (больше не улучшает качество)
* **Те же LoRA, что и для FLUX.1**: Большинство LoRA от FLUX.1 совместимы с Klein
* **ComfyUI plug-in**: Просто поменяйте контрольную точку, установите шаги на 4
* **RTX 3090 приемлем**: 1.2 с/изображение — всё ещё отлично при $0.3/день

## Устранение неполадок

| Проблема                         | Решение                                                                               |
| -------------------------------- | ------------------------------------------------------------------------------------- |
| OOM на 24 ГБ                     | Используйте `enable_model_cpu_offload()` + `vae.enable_tiling()`                      |
| Размытые изображения             | Убедитесь, что `num_inference_steps=4`, не меньше. Проверьте guidance\_scale 3.0–4.0  |
| Медленная первая генерация       | Нормально — модель загружается при первом вызове (\~30 с). Последующие: менее секунды |
| Ошибка контрольной точки ComfyUI | Убедитесь, что у вас есть `.safetensors` файл, а не формат diffusers                  |

## Дополнительное чтение

* [Руководство по FLUX.1](/guides/guides_v2-ru/generaciya-izobrazhenii/flux.md) — оригинальное руководство FLUX с деталями по LoRA и ControlNet
* [Руководство по ComfyUI](/guides/guides_v2-ru/generaciya-izobrazhenii/comfyui.md) — Настройка и рабочие процессы ComfyUI
* [Блог Black Forest Labs](https://blackforestlabs.ai/)
* [Модель на HuggingFace](https://huggingface.co/black-forest-labs/FLUX.2-klein)


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://docs.clore.ai/guides/guides_v2-ru/generaciya-izobrazhenii/flux2-klein.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
