# FLUX.2 Klein

FLUX.2 Klein de Black Forest Labs est le successeur de FLUX.1, offrant la même qualité d'image à **20–60× la vitesse**. Là où FLUX.1 prenait 10–30 secondes par image, FLUX.2 Klein génère en **moins de 0,5 seconde** sur une RTX 4090. C'est un modèle Diffusion Transformer (DiT) 32B avec une licence Apache 2.0, et en janvier 2026, il est même pris en charge de manière expérimentale dans Ollama.

## Principales caractéristiques

* **< 0,5 seconde de génération**: 20–60× plus rapide que FLUX.1
* **Architecture DiT 32B**: Même qualité que FLUX.1 dev
* **Licence Apache 2.0**: Utilisation commerciale complète
* **Support Ollama**: Génération d'images expérimentale via Ollama (janv. 2026)
* **Compatible ComfyUI**: Remplacement instantané pour les workflows FLUX.1
* **LoRA + ControlNet**: Adaptateurs communautaires disponibles

## Exigences

| Composant | Minimum                   | Recommandé    |
| --------- | ------------------------- | ------------- |
| GPU       | RTX 3090 24GB             | RTX 4090 24GB |
| VRAM      | 16 Go (avec déchargement) | 24 Go         |
| RAM       | 32Go                      | 64Go          |
| Disque    | 40Go                      | 60 Go         |
| CUDA      | 12.0+                     | 12.1+         |

**GPU recommandé par Clore.ai**: RTX 4090 24Go (\~0,5–2 $/jour) — génération en moins d'une seconde

### Comparaison de vitesse : FLUX.1 vs FLUX.2 Klein

| GPU      | FLUX.1 dev (20 steps) | FLUX.2 Klein | Accélération |
| -------- | --------------------- | ------------ | ------------ |
| RTX 3090 | \~25 sec              | \~1,2 s      | 20×          |
| RTX 4090 | \~12 s                | \~0,4 s      | 30×          |
| RTX 5090 | \~8 s                 | \~0,25 s     | 32×          |
| H100     | \~5 sec               | \~0,15 s     | 33×          |

## Démarrage rapide avec diffusers

```python
import torch
from diffusers import FluxPipeline

pipe = FluxPipeline.from_pretrained(
    "black-forest-labs/FLUX.2-klein",
    torch_dtype=torch.bfloat16
)
pipe.to("cuda")

# Générer une image en < 0,5 seconde !
image = pipe(
    prompt="une plateforme de minage GPU cyberpunk dans une salle de serveurs éclairée au néon, photoréaliste",
    height=1024,
    width=1024,
    num_inference_steps=4,  # Klein n'a besoin que de 4 étapes !
    guidance_scale=3.5,
).images[0]

image.save("output.png")
```

### Mode à mémoire efficace (GPU 16 Go)

```python
pipe = FluxPipeline.from_pretrained(
    "black-forest-labs/FLUX.2-klein",
    torch_dtype=torch.bfloat16
)
pipe.enable_model_cpu_offload()  # Rentre sur 16 Go
pipe.vae.enable_tiling()         # Économise ~2 Go

image = pipe("un paysage de montagne au coucher du soleil", num_inference_steps=4).images[0]
```

## Flux de travail ComfyUI

FLUX.2 Klein fonctionne comme un remplacement instantané dans les workflows ComfyUI FLUX.1 existants :

1. Téléchargez le checkpoint FLUX.2 Klein vers `ComfyUI/models/diffusion_models/`
2. Dans votre workflow, changez le nœud de checkpoint pour pointer vers FLUX.2 Klein
3. Réduisez les étapes à 4 (au lieu de 20–50 pour FLUX.1)
4. Réglez le guidance scale à 3.0–4.0

```bash
# Télécharger le modèle pour ComfyUI
cd ComfyUI/models/diffusion_models/
wget https://huggingface.co/black-forest-labs/FLUX.2-klein/resolve/main/flux2-klein.safetensors
```

## Génération par lot

Avec une génération en moins d'une seconde, FLUX.2 Klein permet un traitement par lots massif :

```python
import torch
from diffusers import FluxPipeline

pipe = FluxPipeline.from_pretrained(
    "black-forest-labs/FLUX.2-klein", torch_dtype=torch.bfloat16
).to("cuda")

prompts = [
    "une voiture de sport rouge sur une route de montagne, cinématique",
    "l'intérieur d'un café confortable, éclairage chaleureux",
    "un astronaute flottant au-dessus de la Terre, hyperréaliste",
    "un château médiéval en automne, art fantastique",
    # ... ajoutez des centaines d'autres
]

for i, prompt in enumerate(prompts):
    image = pipe(prompt, num_inference_steps=4, guidance_scale=3.5).images[0]
    image.save(f"batch_{i:04d}.png")
    print(f"Généré {i+1}/{len(prompts)}")

# Sur RTX 4090 : ~100 images en moins d'une minute !
```

## Support LoRA

```python
pipe = FluxPipeline.from_pretrained(
    "black-forest-labs/FLUX.2-klein", torch_dtype=torch.bfloat16
).to("cuda")

# Charger une LoRA entraînée sur l'architecture FLUX
pipe.load_lora_weights("your-lora/flux2-style-lora", weight_name="lora.safetensors")
pipe.fuse_lora(lora_scale=0.8)

image = pipe("un portrait dans le style entraîné", num_inference_steps=4).images[0]
```

## Conseils pour les utilisateurs de Clore.ai

* **Roi du traitement par lots**: À 0,4 s/image, vous pouvez générer plus de 10 000 images par heure sur RTX 4090
* **Seulement 4 étapes**: N'en utilisez pas plus — Klein est optimisé pour 4 étapes (plus n'améliore pas la qualité)
* **Même LoRAs que FLUX.1**: La plupart des LoRAs FLUX.1 sont compatibles avec Klein
* **Remplacement ComfyUI**: Il suffit d'échanger le checkpoint, de changer les étapes à 4
* **RTX 3090 est viable**: 1,2 s/image reste excellent à 0,3 $/jour

## Dépannage

| Problème                     | Solution                                                                              |
| ---------------------------- | ------------------------------------------------------------------------------------- |
| OOM sur 24 Go                | Utilisez `enable_model_cpu_offload()` + `vae.enable_tiling()`                         |
| Images floues                | Assurez-vous que `num_inference_steps=4`, pas moins. Vérifiez guidance\_scale 3.0–4.0 |
| Première génération lente    | Normal — le modèle se charge au premier appel (\~30 s). Par la suite : sub-seconde    |
| Erreur de checkpoint ComfyUI | Assurez-vous d'avoir le `.safetensors` fichier, pas le format diffusers               |

## Lectures complémentaires

* [Guide FLUX.1](https://docs.clore.ai/guides/guides_v2-fr/generation-dimages/flux) — guide FLUX original avec détails sur LoRA et ControlNet
* [Guide ComfyUI](https://docs.clore.ai/guides/guides_v2-fr/generation-dimages/comfyui) — configuration ComfyUI et workflows
* [Blog Black Forest Labs](https://blackforestlabs.ai/)
* [Modèle HuggingFace](https://huggingface.co/black-forest-labs/FLUX.2-klein)
