FLUX.1

在 Clore.ai 上运行 Black Forest Labs 的 FLUX.1 图像生成

circle-info

更快的替代方案! FLUX.2 Klein 在 < 0.5 秒内生成图像(相比 FLUX.1 的 10–30 秒),且质量相当。此指南仍适用于 LoRA 训练和 ControlNet 工作流。

来自 Black Forest Labs 的最先进图像生成模型,在 CLORE.AI GPU 上运行。

circle-check

为什么选择 FLUX.1?

  • 最佳质量 - 优于 SDXL 和 Midjourney v5

  • 文本呈现 - 图像中实际可读的文本

  • 提示遵循能力 - 优秀的指令遵从性

  • 快速变体 - 用于快速生成的 FLUX.1-schnell

1024x1024

A100
性能
质量
显存
许可

FLUX.1-schnell

快速(4 步)

很棒

12GB+

Apache 2.0

FLUX.1-dev

中等(20 步)

优秀

16GB+

非商业

FLUX.1-pro

仅 API

最佳

-

商业

在 CLORE.AI 上快速部署

Docker 镜像:

ghcr.io/huggingface/text-generation-inference:latest

端口:

为最简便部署,请使用 带有 FLUX 节点的 ComfyUI.

安装方法

方法 1:ComfyUI(推荐)

方法 2:Diffusers

方法 3:Fooocus

Fooocus 内置 FLUX 支持:

IC-Light 可作为 ComfyUI 节点使用:

FLUX.1-schnell(快速)

所需节点:

  1. 加载扩散模型(Load Diffusion Model) → flux1-schnell.safetensors

  2. DualCLIPLoader → clip_l.safetensors + t5xxl_fp16.safetensors

  3. CLIP 文本编码 → 你的提示(prompt)

  4. 空的 SD3 潜在图像(Empty SD3 Latent Image) → 设置尺寸

  5. KSampler → steps: 4, cfg: 1.0

  6. VAE 解码 → ae.safetensors

  7. 保存图像

FLUX.1-dev(质量型)

同样的工作流,但:

  • 步骤:20-50

  • CFG:3.5

  • 在提示中使用 guidance_scale

Python API

基础生成

使用内存优化

批量生成

FLUX.1-dev(更高质量)

提示技巧

FLUX 擅长:

  • 图像中的文本: "一个霓虹招牌,上面写着 'OPEN 24/7'"

  • 复杂场景: "夜晚东京繁忙街道,带有倒影"

  • 特定风格: "莫奈风格的油画"

  • 详细描述: 长且详细的提示效果很好

示例提示

内存优化

针对 12GB 显存(RTX 3060)

适用于 8GB 显存

使用量化版本或在 ComfyUI 中使用 GGUF:

性能比较

A100
步数
时间(4090)
质量

FLUX.1-schnell

4

~3 秒

很棒

FLUX.1-dev

20

≈12 秒

优秀

FLUX.1-dev

50

~30 秒

最佳

SDXL

30

≈8 秒

良好

GPU 要求

设置
最低
推荐

FLUX.1-schnell

12GB

16GB+

FLUX.1-dev

16GB

24GB+

启用 CPU 卸载时

8GB

12GB+

量化(GGUF)

6GB

8GB+

GPU 预设

RTX 3060 12GB(入门)

RTX 3090 24GB(理想)

RTX 4090 24GB(性能)

A100 40GB/80GB(生产)

下载所有所需的检查点

GPU
每小时
图像/小时

RTX 3060 12GB

~$0.03

~200(schnell)

RTX 3090 24GB

~$0.06

~600(schnell)

RTX 4090 24GB

~$0.10

~1000(schnell)

按日费率

~$0.17

~1500(schnell)

# 使用固定种子以获得一致结果

内存不足

生成速度慢

  • 使用 FLUX.1-schnell(4 步)

  • 启用 torch.compile: pipe.unet = torch.compile(pipe.unet)

  • 在较旧 GPU 上使用 fp16 而不是 bf16

质量差

  • 使用更多步数(FLUX-dev:30-50)

  • 增加 guidance_scale(dev 建议 3.0-4.0)

  • 编写更详细的提示词


FLUX LoRA

LoRA(低秩适配)权重允许你在不重新训练整个模型的情况下微调 FLUX 以获得特定风格、角色或概念。HuggingFace 和 CivitAI 上有成百上千个社区 LoRA 可用。

安装

加载单个 LoRA

从 HuggingFace Hub 加载

LoRA 比例(强度)

组合多个 LoRA

卸载 LoRA

训练你自己的 FLUX LoRA

推荐的 LoRA 来源

来源
URL
注意事项

CivitAI

civitai.com

大型社区资源库

HuggingFace

huggingface.co/models

按 FLUX 过滤

Replicate

replicate.com

浏览已训练的模型


FLUX 的 ControlNet

ControlNet 允许使用结构性输入(如 canny 边缘、深度图和姿态骨架)来引导 FLUX 的生成。XLabs-AI 已发布首批专为 FLUX.1 设计的 ControlNet 模型。

安装

FLUX ControlNet Canny(XLabs-AI)

FLUX ControlNet 深度(Depth)

FLUX 的多 ControlNet(Multi-ControlNet)

可用的 FLUX ControlNet 模型

A100
仓库(Repo)
模型变体

Canny(边缘)

XLabs-AI/flux-controlnet-canny-diffusers

基于边缘的引导生成

深度

XLabs-AI/flux-controlnet-depth-diffusers

基于深度的引导生成

HED/软边(Soft Edge)

XLabs-AI/flux-controlnet-hed-diffusers

柔和的结构控制

姿势

XLabs-AI/flux-controlnet-openpose-diffusers

基于姿态的肖像生成

ControlNet 使用技巧

  • conditioning_scale 0.5–0.8 最适合 FLUX(过高会丧失创造性)

  • 使用 1024×1024 或其倍数以获得最佳质量

  • 与 LoRA 结合以同时控制风格与结构

  • 较低步数(20–25)通常足够使用 ControlNet 时


FLUX.1-schnell:快速生成模式

FLUX.1-schnell 是 FLUX 的蒸馏、速度优化变体。它只需短短 4 步 (相比 FLUX.1-dev 的 20–50 步),使其非常适合快速原型和高吞吐工作流。

与 FLUX.1-dev 的主要差异

特性
FLUX.1-schnell
FLUX.1-dev

步数

4

20–50

速度(4090)

~3 秒

~12–30 秒

许可

Apache 2.0 (免费商业)

非商业

guidance_scale

0.0(无 CFG)

3.5

质量

很棒

优秀

显存

12GB+

16GB+

许可说明: FLUX.1-schnell 采用 Apache 2.0 — 你可以在商业产品中自由使用。FLUX.1-dev 需要向 Black Forest Labs 另行申请商业许可证。

快速开始

高吞吐批量生成

使用 schnell 的多种纵横比

schnell 的内存优化

性能基准(schnell)

GPU
显存
每张图像时间(1024px)
图像/小时

RTX 3060 12GB

12GB

≈8 秒

~450

RTX 3090 24GB

24GB

~4 秒

~900

RTX 4090 24GB

24GB

~3 秒

~1200

按日费率

40GB

~2 秒

~1800

何时使用 schnell 与 dev

在以下情况下使用 FLUX.1-schnell:

  • 快速原型 / 测试提示

  • 大批量生成

  • 商业项目(Apache 2.0)

  • 有限的 GPU 预算

  • 实时或近实时应用

在以下情况下使用 FLUX.1-dev:

  • 当最高图像质量是优先项

  • 精细细节和复杂场景

  • 研究 / 艺术工作

  • 与 LoRA/ControlNet 结合(dev 通常响应更好)


使用以下方式支付

最后更新于

这有帮助吗?