FLUX.1

Exécutez FLUX.1 génération d'images de Black Forest Labs sur Clore.ai

circle-info

Alternative plus rapide ! FLUX.2 Klein génère des images en < 0,5 seconde (vs 10–30s pour FLUX.1) avec une qualité comparable. Ce guide reste pertinent pour l'entraînement LoRA et les workflows ControlNet.

Modèle de génération d'images à la pointe développé par Black Forest Labs sur les GPU CLORE.AI.

circle-check

Pourquoi FLUX.1 ?

  • Meilleure qualité - Supérieur à SDXL et Midjourney v5

  • Rendu du texte - Texte réellement lisible dans les images

  • Respect des instructions - Excellente adhérence aux instructions

  • Variantes rapides - FLUX.1-schnell pour une génération rapide

Variantes de modèle

Modèle
Vitesse
Qualité
VRAM
Licence

FLUX.1-schnell

Rapide (4 étapes)

Excellent

12 Go+

Apache 2.0

FLUX.1-dev

Moyen (20 étapes)

Excellent

16 Go+

Non commercial

FLUX.1-pro

API uniquement

Meilleur

-

Commercial

Déploiement rapide sur CLORE.AI

Image Docker :

ghcr.io/huggingface/text-generation-inference:latest

Ports :

Pour un déploiement le plus simple, utilisez ComfyUI avec des nœuds FLUX.

Méthodes d'installation

Méthode 1 : ComfyUI (Recommandé)

Méthode 2 : Diffusers

Méthode 3 : Fooocus

Fooocus prend en charge FLUX nativement :

Flux de travail ComfyUI

FLUX.1-schnell (Rapide)

Nœuds nécessaires :

  1. Load Diffusion Model → flux1-schnell.safetensors

  2. DualCLIPLoader → clip_l.safetensors + t5xxl_fp16.safetensors

  3. CLIP Text Encode → votre prompt

  4. Empty SD3 Latent Image → définir les dimensions

  5. KSampler → steps : 4, cfg : 1.0

  6. VAE Decode → ae.safetensors

  7. Sauvegarder l'image

FLUX.1-dev (Qualité)

Même workflow mais :

  • Étapes : 20-50

  • CFG : 3.5

  • Utiliser guidance_scale dans le prompt

API Python

Génération basique

Avec optimisation de la mémoire

Génération par lot

FLUX.1-dev (Qualité supérieure)

Conseils pour les prompts

FLUX excelle dans :

  • Texte dans les images: "Un panneau néon indiquant 'OPEN 24/7'"

  • Scènes complexes: "Une rue animée de Tokyo la nuit avec des reflets"

  • Styles spécifiques: "Peinture à l'huile dans le style de Monet"

  • Descriptions détaillées: Les prompts longs et détaillés fonctionnent bien

Exemples de prompts

Optimisation de la mémoire

Pour 12GB VRAM (RTX 3060)

Pour 8 Go de VRAM

Utiliser la version quantifiée ou ComfyUI avec GGUF :

Comparaison des performances

Modèle
Pas
Temps (4090)
Qualité

FLUX.1-schnell

4

~3 sec

Excellent

FLUX.1-dev

20

~12 s

Excellent

FLUX.1-dev

50

~30 s

Meilleur

SDXL

30

~8 s

Bon

Exigences GPU

Configuration
Minimum
Recommandé

FLUX.1-schnell

12Go

16 Go+

FLUX.1-dev

16Go

24 Go+

Avec offload CPU

8 Go

12 Go+

Quantifié (GGUF)

6 Go

8 Go+

Préréglages GPU

RTX 3060 12GB (Budget)

RTX 3090 24GB (Optimal)

RTX 4090 24GB (Performance)

A100 40GB/80GB (Production)

Estimation des coûts

GPU
Horaire (Hourly)
Images/heure

RTX 3060 12GB

~$0.03

~200 (schnell)

RTX 3090 24GB

~$0.06

~600 (schnell)

RTX 4090 24GB

~$0.10

~1000 (schnell)

A100 40GB

~$0.17

~1500 (schnell)

Dépannage

Mémoire insuffisante

Génération lente

  • Utiliser FLUX.1-schnell (4 étapes)

  • Activer torch.compile : pipe.unet = torch.compile(pipe.unet)

  • Utiliser fp16 au lieu de bf16 sur les GPU plus anciens

Mauvaise qualité

  • Utiliser plus d'étapes (FLUX-dev : 30-50)

  • Augmenter guidance_scale (3.0-4.0 pour dev)

  • Rédiger des prompts plus détaillés


FLUX LoRA

Les poids LoRA (Low-Rank Adaptation) vous permettent d'affiner FLUX pour des styles, personnages ou concepts spécifiques sans réentraîner le modèle complet. Des centaines de LoRA communautaires sont disponibles sur HuggingFace et CivitAI.

Installation

Chargement d'un seul LoRA

Chargement depuis HuggingFace Hub

Échelle LoRA (Force)

Combiner plusieurs LoRA

Déchargement du LoRA

Entraîner votre propre LoRA FLUX

Sources recommandées de LoRA

Source
URL
Remarques

CivitAI

civitai.com

Grande bibliothèque communautaire

HuggingFace

huggingface.co/models

Filtrer par FLUX

Replicate

replicate.com

Parcourir les modèles entraînés


ControlNet pour FLUX

ControlNet permet de guider la génération FLUX avec des entrées structurelles comme des contours Canny, des cartes de profondeur et des squelettes de pose. XLabs-AI a publié les premiers modèles ControlNet spécifiquement pour FLUX.1.

Installation

FLUX ControlNet Canny (XLabs-AI)

FLUX ControlNet Depth

Multi-ControlNet pour FLUX

Modèles FLUX ControlNet disponibles

Modèle
Repo
Cas d'utilisation

Canny

XLabs-AI/flux-controlnet-canny-diffusers

Génération guidée par contours

Profondeur

XLabs-AI/flux-controlnet-depth-diffusers

Génération guidée par la profondeur

HED/Soft Edge

XLabs-AI/flux-controlnet-hed-diffusers

Contrôle structurel doux

Pose

XLabs-AI/flux-controlnet-openpose-diffusers

Portraits guidés par la pose

Conseils ControlNet

  • conditioning_scale 0.5–0.8 fonctionne mieux pour FLUX (trop haut réduit la créativité)

  • Utilisez 1024×1024 ou des multiples pour une meilleure qualité

  • Combiner avec LoRA pour contrôle du style + structure

  • Des étapes plus faibles (20–25) suffisent généralement avec ControlNet


FLUX.1-schnell : Mode génération rapide

FLUX.1-schnell est la variante distillée et optimisée pour la vitesse de FLUX. Il génère des images de haute qualité en seulement 4 étapes (vs 20–50 pour FLUX.1-dev), ce qui le rend idéal pour le prototypage rapide et les workflows à haut débit.

Principales différences vs FLUX.1-dev

Fonction
FLUX.1-schnell
FLUX.1-dev

Pas

4

20–50

Vitesse (4090)

~3 sec

~12–30 sec

Licence

Apache 2.0 (commercial gratuit)

Non commercial

guidance_scale

0.0 (pas de CFG)

3.5

Qualité

Excellent

Excellent

VRAM

12 Go+

16 Go+

Remarque sur la licence : FLUX.1-schnell est sous Apache 2.0 — vous pouvez l'utiliser librement dans des produits commerciaux. FLUX.1-dev nécessite une licence commerciale séparée de Black Forest Labs.

Démarrage rapide

Génération par lots à haut débit

Plusieurs rapports d'aspect avec schnell

schnell avec optimisations mémoire

Benchmarks de performance (schnell)

GPU
VRAM
Temps/image (1024px)
Images/heure

RTX 3060 12GB

12Go

~8 s

~450

RTX 3090 24GB

24 Go

~4 sec

~900

RTX 4090 24GB

24 Go

~3 sec

~1200

A100 40GB

40Go

~2 sec

~1800

Quand utiliser schnell vs dev

Utiliser FLUX.1-schnell lorsque :

  • Prototypage rapide / tester des prompts

  • Génération par lots à haut volume

  • Projets commerciaux (Apache 2.0)

  • Budget GPU limité

  • Applications en temps réel ou quasi temps réel

Utiliser FLUX.1-dev lorsque :

  • La qualité d'image maximale est prioritaire

  • Détails fins et scènes complexes

  • Travail de recherche / artistique

  • Combinaison avec LoRA/ControlNet (dev a tendance à mieux répondre)


Prochaines étapes

Mis à jour

Ce contenu vous a-t-il été utile ?