Images Docker

Images Docker prêtes à déployer pour les charges de travail IA sur Clore.ai

Images Docker prêtes à être déployées pour les charges de travail IA sur CLORE.AI.

circle-check

Référence de déploiement rapide

Les plus populaires

Tâche
Image
Ports

Discuter avec l'IA

ollama/ollama

22, 11434

Interface de type ChatGPT

ghcr.io/open-webui/open-webui

22, 8080

Génération d'images

universonic/stable-diffusion-webui

22, 7860

Génération d'images basée sur des nœuds

yanwk/comfyui-boot

22, 8188

Serveur API LLM

vllm/vllm-openai

22, 8000


Modèles de langage

composant Ollama

Exécuteur LLM universel - la façon la plus simple d'exécuter n'importe quel modèle.

Image : ollama/ollama
Ports : 22/tcp, 11434/http
Commande : ollama serve

Après le déploiement :

Variables d'environnement :


Ouvrir WebUI

Interface de type ChatGPT pour Ollama.

Inclut Ollama intégré. Accès via le port HTTP.

Autonome (se connecter à un Ollama existant) :


vLLM

Service LLM haute performance avec API compatible OpenAI.

Pour les modèles plus grands (multi-GPU) :

Variables d'environnement :


Text Generation Inference (TGI)

Serveur LLM de production de HuggingFace.

Variables d'environnement :


Génération d'images

Stable Diffusion WebUI (AUTOMATIC1111)

Interface SD la plus populaire avec extensions.

Pour faible VRAM (8 Go ou moins) :

Pour l'accès API :


ComfyUI

Flux de travail basé sur des nœuds pour utilisateurs avancés.

Images alternatives :

Commande d'installation manuelle :


Fooocus

Interface SD simplifiée, type Midjourney.


FLUX

Génération d'images haute qualité et récente.

Utiliser ComfyUI avec les nœuds FLUX :

Ou via Diffusers :


Génération vidéo

Stable Video Diffusion


AnimateDiff

Utiliser avec ComfyUI :

Installez les nœuds AnimateDiff via le gestionnaire ComfyUI.


Audio et voix

Whisper (Transcription)

Utilisation de l'API :


Bark (Synthèse vocale)


Stable Audio


Modèles de vision

LLaVA


Llama 3.2 Vision

Utiliser Ollama :


Développement & Entraînement

Base PyTorch

Pour configurations personnalisées et entraînement.

Inclut : CUDA 12.1, cuDNN 8, PyTorch 2.1


Jupyter Lab

Notebooks interactifs pour ML.

Ou utilisez la base PyTorch avec Jupyter :


Entraînement Kohya

Pour LoRA et l'affinage de modèles.


Référence des images de base

Officiel NVIDIA

Image
CUDA
Cas d'utilisation

nvidia/cuda:12.1.0-devel-ubuntu22.04

12.1

Développement CUDA

nvidia/cuda:12.1.0-runtime-ubuntu22.04

12.1

Runtime CUDA uniquement

nvidia/cuda:11.8.0-devel-ubuntu22.04

11.8

Compatibilité héritée

Officiel PyTorch

Image
PyTorch
CUDA

pytorch/pytorch:2.5.1-cuda12.4-cudnn9-devel

2.5

12.4

pytorch/pytorch:2.0.1-cuda11.7-cudnn8-devel

2.0

11.7

pytorch/pytorch:1.13.1-cuda11.6-cudnn8-devel

1.13

11.6

HuggingFace

Image
But

huggingface/transformers-pytorch-gpu

Transformers + PyTorch

ghcr.io/huggingface/text-generation-inference

Serveur TGI


Variables d'environnement

Variables courantes

Variable
Description
Exemple

HUGGING_FACE_HUB_TOKEN

Token API HF pour les modèles restreints

hf_xxx

CUDA_VISIBLE_DEVICES

Sélection du GPU

0,1

TRANSFORMERS_CACHE

Répertoire du cache de modèles

/root/.cache

Variables Ollama

Variable
Description
Par défaut

OLLAMA_HOST

Adresse de liaison

127.0.0.1

OLLAMA_MODELS

Répertoire des modèles

~/.ollama/models

OLLAMA_NUM_PARALLEL

Requêtes parallèles

1

Variables vLLM

Variable
Description

VLLM_ATTENTION_BACKEND

Implémentation de l'attention

VLLM_USE_MODELSCOPE

Utiliser ModelScope au lieu de HF


Référence des ports

Port
Protocole
Service

22

TCP

SSH

7860

HTTP

Gradio (SD WebUI, Fooocus)

7865

HTTP

Alternative Fooocus

8000

HTTP

API vLLM

8080

HTTP

Open WebUI, TGI

8188

HTTP

ComfyUI

8888

HTTP

Jupyter

9000

HTTP

API Whisper

11434

TCP

API Ollama


Conseils

Stockage persistant

Montez des volumes pour conserver les données entre les redémarrages :

Sélection du GPU

Pour systèmes multi-GPU :

Gestion de la mémoire

Si manque de VRAM :

  1. Utilisez des modèles plus petits

  2. Activer le déchargement vers le CPU

  3. Réduire la taille de batch

  4. Utilisez des modèles quantifiés (GGUF Q4)

Prochaines étapes

Mis à jour

Ce contenu vous a-t-il été utile ?