FLUX.1

Führen Sie FLUX.1 Bildgenerierung von Black Forest Labs auf Clore.ai aus

circle-info

Schnellere Alternative! FLUX.2 Klein erstellt Bilder in < 0,5 Sekunden (vs. 10–30s für FLUX.1) mit vergleichbarer Qualität. Dieser Leitfaden ist weiterhin relevant für LoRA-Training und ControlNet-Workflows.

State-of-the-art Bildgenerierungsmodell von Black Forest Labs auf CLORE.AI GPUs.

circle-check

Warum FLUX.1?

  • Beste Qualität - Überlegen gegenüber SDXL und Midjourney v5

  • Textrendering - Tatsächlich lesbarer Text in Bildern

  • Prompt-Folge - Hervorragende Befolgung von Anweisungen

  • Schnelle Varianten - FLUX.1-schnell für schnelle Generierung

Modellvarianten

Modell
Geschwindigkeit
Qualität
VRAM
Lizenz

FLUX.1-schnell

Schnell (4 Schritte)

Großartig

12GB+

Apache 2.0

FLUX.1-dev

Mittel (20 Schritte)

Ausgezeichnet

16GB+

Nicht-kommerziell

FLUX.1-pro

Nur API

Am besten

-

Kommerziell

Schnelle Bereitstellung auf CLORE.AI

Docker-Image:

ghcr.io/huggingface/text-generation-inference:latest

Ports:

Für die einfachste Bereitstellung, benutze ComfyUI mit FLUX-Knoten.

Installationsmethoden

Methode 1: ComfyUI (Empfohlen)

Methode 2: Diffusers

Methode 3: Fooocus

Fooocus hat eingebaute FLUX-Unterstützung:

ComfyUI-Workflow

FLUX.1-schnell (Schnell)

Benötigte Knoten:

  1. Load Diffusion Model → flux1-schnell.safetensors

  2. DualCLIPLoader → clip_l.safetensors + t5xxl_fp16.safetensors

  3. CLIP Text Encode → dein Prompt

  4. Empty SD3 Latent Image → Abmessungen einstellen

  5. KSampler → Schritte: 4, cfg: 1.0

  6. VAE-Decodierung → ae.safetensors

  7. Bild speichern

FLUX.1-dev (Qualität)

Gleicher Workflow, aber:

  • Schritte: 20-50

  • CFG: 3.5

  • Verwende guidance_scale im Prompt

Python-API

Grundlegende Generierung

Mit Speicheroptimierung

Batch-Erzeugung

FLUX.1-dev (Höhere Qualität)

Prompt-Tipps

FLUX glänzt bei:

  • Text in Bildern: "Ein Neonschild mit der Aufschrift 'OPEN 24/7'"

  • Komplexe Szenen: "Eine belebte Straße in Tokio bei Nacht mit Spiegelungen"

  • Spezifische Stile: "Ölgemälde im Stil von Monet"

  • Detaillierte Beschreibungen: Lange, detaillierte Prompts funktionieren gut

Beispiel-Prompts

Speicheroptimierung

Für 12GB VRAM (RTX 3060)

Für 8GB VRAM

Verwende quantisierte Version oder ComfyUI mit GGUF:

Leistungsvergleich

Modell
Schritte
Zeit (4090)
Qualität

FLUX.1-schnell

4

~3 Sek.

Großartig

FLUX.1-dev

20

~12 Sek.

Ausgezeichnet

FLUX.1-dev

50

~30 Sek.

Am besten

SDXL

30

~8 Sek.

Gut

GPU-Anforderungen

Einrichtung
Minimum
Empfohlen

FLUX.1-schnell

12GB

16GB+

FLUX.1-dev

16GB

24GB+

Mit CPU-Offload

8GB

12GB+

Quantisiert (GGUF)

6GB

8GB+

GPU-Voreinstellungen

RTX 3060 12GB (Budget)

RTX 3090 24GB (Optimal)

RTX 4090 24GB (Performance)

A100 40GB/80GB (Produktion)

Kostenabschätzung

GPU
Stündlich
Bilder/Stunde

RTX 3060 12GB

~$0.03

~200 (schnell)

RTX 3090 24GB

~$0.06

~600 (schnell)

RTX 4090 24GB

~$0.10

~1000 (schnell)

A100 40GB

~$0.17

~1500 (schnell)

Fehlerbehebung

Kein Speicher mehr

Langsame Generierung

  • Verwende FLUX.1-schnell (4 Schritte)

  • torch.compile aktivieren: pipe.unet = torch.compile(pipe.unet)

  • Verwende fp16 statt bf16 auf älteren GPUs

Schlechte Qualität

  • Verwende mehr Schritte (FLUX-dev: 30-50)

  • Erhöhe guidance_scale (3.0-4.0 für dev)

  • Schreiben Sie detailliertere Prompts


FLUX LoRA

LoRA (Low-Rank Adaptation)-Gewichte ermöglichen es, FLUX für bestimmte Stile, Charaktere oder Konzepte feinzujustieren, ohne das komplette Modell neu zu trainieren. Hunderte von Community-LoRAs sind auf HuggingFace und CivitAI verfügbar.

Installation

Laden einer einzelnen LoRA

Laden aus dem HuggingFace Hub

LoRA-Skala (Stärke)

Kombinieren mehrerer LoRAs

LoRA entladen

Eigene FLUX-LoRA trainieren

Empfohlene LoRA-Quellen

Quelle
URL
Hinweise

CivitAI

civitai.com

Große Community-Bibliothek

HuggingFace

huggingface.co/models

Nach FLUX filtern

Replicate

replicate.com

Durch trainierte Modelle stöbern


ControlNet für FLUX

ControlNet ermöglicht die Steuerung der FLUX-Generierung mit strukturellen Eingaben wie Canny-Kanten, Tiefenkarten und Posen-Skeletten. XLabs-AI hat die ersten ControlNet-Modelle speziell für FLUX.1 veröffentlicht.

Installation

FLUX ControlNet Canny (XLabs-AI)

FLUX ControlNet Depth

Multi-ControlNet für FLUX

Verfügbare FLUX ControlNet-Modelle

Modell
Repo
Einsatzgebiet

Canny

XLabs-AI/flux-controlnet-canny-diffusers

Kanten-geführte Generierung

Tiefe

XLabs-AI/flux-controlnet-depth-diffusers

Tiefen-geführte Generierung

HED/Soft Edge

XLabs-AI/flux-controlnet-hed-diffusers

Weiche strukturelle Steuerung

Pose

XLabs-AI/flux-controlnet-openpose-diffusers

Pose-geführte Porträts

ControlNet-Tipps

  • conditioning_scale 0.5–0.8 funktioniert am besten für FLUX (zu hoch verliert Kreativität)

  • Verwenden Sie 1024×1024 oder Vielfache für beste Qualität

  • Mit LoRA für Stil + Struktur kombinieren

  • Weniger Schritte (20–25) sind mit ControlNet meist ausreichend


FLUX.1-schnell: Schneller Generierungsmodus

FLUX.1-schnell ist die destillierte, geschwindigkeitsoptimierte Variante von FLUX. Es erzeugt hochwertige Bilder in nur 4 Schritte (vs. 20–50 für FLUX.1-dev), was es ideal für schnelles Prototyping und Workflows mit hoher Durchsatzrate macht.

Wesentliche Unterschiede zu FLUX.1-dev

Funktion
FLUX.1-schnell
FLUX.1-dev

Schritte

4

20–50

Geschwindigkeit (4090)

~3 Sek.

~12–30 Sek.

Lizenz

Apache 2.0 (kostenlos kommerziell)

Nicht-kommerziell

guidance_scale

0.0 (kein CFG)

3.5

Qualität

Großartig

Ausgezeichnet

VRAM

12GB+

16GB+

Hinweis zur Lizenz: FLUX.1-schnell ist Apache 2.0 — du kannst es frei in kommerziellen Produkten verwenden. FLUX.1-dev erfordert eine separate kommerzielle Lizenz von Black Forest Labs.

Schnellstart

Hochdurchsatz-Batch-Generierung

Mehrere Seitenverhältnisse mit schnell

schnell mit Speicheroptimierungen

Performance-Benchmarks (schnell)

GPU
VRAM
Zeit/Bild (1024px)
Bilder/Stunde

RTX 3060 12GB

12GB

~8 Sek.

~450

RTX 3090 24GB

24GB

~4 Sek.

~900

RTX 4090 24GB

24GB

~3 Sek.

~1200

A100 40GB

40GB

~2 Sek.

~1800

Wann schnell vs dev verwenden

Verwende FLUX.1-schnell, wenn:

  • Schnelles Prototyping / Prompt-Tests

  • Großvolumige Batch-Generierung

  • Kommerzielle Projekte (Apache 2.0)

  • Begrenztes GPU-Budget

  • Echtzeit- oder Near-Echtzeit-Anwendungen

Verwende FLUX.1-dev, wenn:

  • Maximale Bildqualität Priorität hat

  • Feine Details und komplexe Szenen

  • Forschung / künstlerische Arbeit

  • Kombination mit LoRA/ControlNet (dev reagiert tendenziell besser)


Nächste Schritte

Zuletzt aktualisiert

War das hilfreich?