# Introduction

> **184 guides pratiques** pour déployer des modèles d’IA, des workloads GPU et des plateformes d’IA sur [Clore.ai](https://clore.ai) — la place de marché décentralisée de location de GPU.

{% hint style="success" %}
Tous les exemples peuvent être exécutés sur des serveurs GPU loués via le [Marketplace Clore.ai](https://clore.ai/marketplace). Louez de puissants GPU à partir de **0,15 $/jour**.
{% endhint %}

## Qu’est-ce que Clore.ai ?

[Clore.ai](https://clore.ai) est une place de marché GPU pair à pair où vous louez des GPU directement auprès d’autres personnes — comme Airbnb pour le calcul. Des milliers de GPU sont disponibles 24h/24 et 7j/7, des RTX 3060 économiques aux H100 d’entreprise. Payez avec **CLORE**, **BTC**, **USDT**ou **USDC**.

### Pourquoi Clore.ai pour l’IA ?

* **Abordable** — RTX 4090 à partir de 0,50 $/jour (contre 2 à 4 $ chez les fournisseurs cloud)
* **Aucun engagement** — location à l’heure, sans contrat
* **Accès root complet** — conteneurs Docker avec passthrough GPU
* **Large sélection de GPU** — plus de 3 400 machines, plus de 12 800 GPU en ligne
* **Payez à votre façon** — paiements en crypto (CLORE, BTC, USDT/USDC)

## 📚 Catégories de guides

| Catégorie                                                                                                                   | Guides | Points forts                                                                                                              |
| --------------------------------------------------------------------------------------------------------------------------- | ------ | ------------------------------------------------------------------------------------------------------------------------- |
| 🤖 [Modèles de langage](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/language-models)                       | **38** | Llama 4, Gemma 3, Qwen3.5, GLM-5, DeepSeek V4, DeepSeek-R1, Nemotron 3 Super, Gemini 3.1 Flash Lite, Ollama, vLLM, SGLang |
| 🤖 [Plateformes d’IA et agents](https://docs.clore.ai/guides/guides_v2-fr/plateformes-dia-et-agents/ai-platforms)           | **18** | Dify, CrewAI, AutoGPT, OpenHands, MetaGPT, n8n, LibreChat, Open Interpreter, SuperAGI, SWE-agent                          |
| 🔊 [Audio et voix](https://docs.clore.ai/guides/guides_v2-fr/audio-et-voix/audio-voice)                                     | **22** | Voxtral TTS, Whisper, Qwen3-TTS, MiniMax Speech 2.6, Dia, ChatTTS, Kokoro, Fish Speech, MeloTTS, StyleTTS2                |
| 🎬 [Génération vidéo](https://docs.clore.ai/guides/guides_v2-fr/generation-video/video-generation)                          | **13** | Wan2.1, FramePack, CubeComposer 4K 360°, LTX-2, CogVideoX, SkyReels, HunyuanVideo, Mochi-1, AnimateDiff                   |
| 🎨 [Génération d’images](https://docs.clore.ai/guides/guides_v2-fr/generation-dimages/image-generation)                     | **11** | FLUX.2 Klein, HunyuanImage 3.0, SD 3.5, ComfyUI, InvokeAI, SD WebUI Forge                                                 |
| 🧠 [Entraînement](https://docs.clore.ai/guides/guides_v2-fr/entrainement/training)                                          | **12** | Unsloth, Axolotl, LoRA, DreamBooth, DeepSpeed, LLaMA-Factory, TRL, LitGPT, Mergekit                                       |
| 🏁 [Pour commencer](https://docs.clore.ai/guides/guides_v2-fr/pour-commencer/getting-started)                               | **8**  | comparaison des GPU, tarification, FAQ, dépannage                                                                         |
| 👁️ [Modèles de vision](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-vision/vision-models)                          | **6**  | Qwen2.5-VL, SAM2, LLaVA, Florence-2                                                                                       |
| 🖼️ [Traitement d’images](https://docs.clore.ai/guides/guides_v2-fr/traitement-dimages/image-processing)                    | **6**  | Real-ESRGAN, ControlNet, Depth Anything, ICLight                                                                          |
| 🧊 [Génération 3D](https://docs.clore.ai/guides/guides_v2-fr/generation-3d/3d-generation)                                   | **5**  | TRELLIS, Hunyuan3D 2.1, TripoSR, Gaussian Splatting, Nerfstudio                                                           |
| 🎭 [Têtes parlantes](https://docs.clore.ai/guides/guides_v2-fr/tetes-parlantes/talking-heads)                               | **3**  | LivePortrait, SadTalker, Wav2Lip                                                                                          |
| 👤 [Visage et identité](https://docs.clore.ai/guides/guides_v2-fr/visage-et-identite/face-identity)                         | **3**  | FaceFusion, InstantID, IP-Adapter                                                                                         |
| ⚙️ [Avancé](https://docs.clore.ai/guides/guides_v2-fr/avance/advanced)                                                      | **5**  | Multi-GPU, intégration API, traitement par lots                                                                           |
| 🔧 [Autres workloads](https://docs.clore.ai/guides/guides_v2-fr/autres-workloads/other-workloads)                           | **3**  | Blender, Kandinsky, OpenClaw                                                                                              |
| 💻 [Outils de codage IA](https://docs.clore.ai/guides/guides_v2-fr/outils-de-codage-ia/ai-coding)                           | **2**  | Aider, TabbyML (Copilot auto-hébergé)                                                                                     |
| 📊 [Comparaisons](https://docs.clore.ai/guides/guides_v2-fr/comparaisons/comparisons)                                       | **7**  | service de LLM, fine-tuning, génération vidéo, TTS, frameworks RAG, bases vectorielles                                    |
| 📹 [Traitement vidéo](https://docs.clore.ai/guides/guides_v2-fr/traitement-video/video-processing)                          | **2**  | FFmpeg NVENC, interpolation RIFE                                                                                          |
| 🎵 [Génération musicale](https://docs.clore.ai/guides/guides_v2-fr/generation-musicale/music-generation)                    | **1**  | ACE-Step (alternative open-source à Suno)                                                                                 |
| 🔍 [Vision par ordinateur](https://docs.clore.ai/guides/guides_v2-fr/vision-par-ordinateur/computer-vision)                 | **2**  | détection YOLOv9/v10                                                                                                      |
| 🗄️ [RAG / bases vectorielles](https://docs.clore.ai/guides/guides_v2-fr/rag-et-bases-de-donnees-vectorielles/rag-vectordb) | **6**  | LlamaIndex, RAGFlow, ChromaDB, Qdrant, Milvus, Weaviate                                                                   |
| 🔄 [MLOps](https://docs.clore.ai/guides/guides_v2-fr/mlops-et-deploiement/mlops)                                            | **4**  | MLflow, Triton Inference Server, BentoML, ClearML                                                                         |
| ⚡ [DevOps GPU](https://docs.clore.ai/guides/guides_v2-fr/gpu-devops/devops-gpu)                                             | **2**  | TensorRT-LLM, ONNX Runtime                                                                                                |
| 🔬 [Science](https://docs.clore.ai/guides/guides_v2-fr/science-et-recherche/science)                                        | **3**  | AlphaFold2, ESMFold, dynamique moléculaire GROMACS                                                                        |
| 🎮 [Jeux / streaming](https://docs.clore.ai/guides/guides_v2-fr/jeux-et-streaming/gaming-streaming)                         | **1**  | jeu à distance Sunshine + Moonlight                                                                                       |
| ₿ [Minage de cryptomonnaie](https://docs.clore.ai/guides/guides_v2-fr/crypto-et-minage/crypto-mining)                       | **1**  | minage CPU/GPU avec XMRig                                                                                                 |

## 🔥 Nouveautés (mars 2026)

### Semaine du 30 mars 2026 — 1 nouveau guide

* 🔊 **Voxtral TTS** 🆕 — modèle TTS open-weight 4B de Mistral, 9 langues, clonage vocal zero-shot à partir d’une référence de 3 s, seulement 3 Go de VRAM, Apache 2.0 — [guide](https://docs.clore.ai/guides/guides_v2-fr/audio-et-voix/voxtral-tts)

#### Notes de l’industrie (23–30 mars)

* **Seedance 2.0** (ByteDance) — modèle de génération vidéo de nouvelle génération, lancé dans CapCut/Dreamina. API uniquement, aucun poids auto-hébergeable disponible pour le moment.
* **Google Lyria 3 Pro** — modèle de génération musicale, disponible via l’API Gemini/Vertex AI. API uniquement, aucun déploiement local.
* **Gemini 3 Deep Think** — modèle de raisonnement de pointe de Google, disponible pour les abonnés Ultra. API uniquement.
* **Arrêt de Sora** — OpenAI a officiellement arrêté l’application de génération vidéo Sora.
* **DeepSeek V4** — en attente de la sortie officielle des poids (morceaux INT8 repérés le 11 mars). Guide prêt : [deepseek-v4.md](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/deepseek-v4)

### Semaine du 16 mars 2026 — 3 nouveaux guides

* 🤖 **NVIDIA Nemotron 3 Super** 🆕 — MoE 120B / 12B actifs, débit x5, contexte 1M, Apache 2.0, conçu pour l’IA agentique — [guide](https://github.com/defiocean/clore-docs-guides/blob/main/language-models/nvidia-nemotron-3-super.md)
* 🌐 **Gemini 3.1 Flash Lite** 🆕 — le modèle le moins cher/le plus rapide de Google (3 mars 2026), API + alternatives open-source — [guide](https://github.com/defiocean/clore-docs-guides/blob/main/language-models/gemini-3-1-flash-lite.md)
* 🎬 **Vidéo 4K 360° CubeComposer** 🆕 — premier modèle à générer nativement une vidéo panoramique 4K 360° à partir de séquences standard (CVPR 2026) — [guide](https://github.com/defiocean/clore-docs-guides/blob/main/video-generation/cubecomposer-360-video.md)

### Également cette semaine (9–16 mars 2026)

* **GPT-5.4** — publié le 5 mars 2026 ; usage natif de l’ordinateur (75,0 % OSWorld), contexte 1M, combine le pipeline de codage GPT-5.3-Codex avec un raisonnement général. API uniquement, aucun déploiement local.
* **DeepSeek V4** ⏳ — poids repérés sur HuggingFace (morceaux INT8, 11 mars) — sortie imminente d’un MoE multimodal de 1T paramètres. [Guide](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/deepseek-v4) prêt lorsqu’il sortira.
* **Wan 2.2** — nouvelle version du modèle de fondation de génération vidéo Wan (variante image-vers-vidéo 12V en ligne sur HuggingFace)

### Nouveautés de mars 2026 — 6 nouvelles catégories, 57 nouveaux guides

* 🗄️ **RAG / bases vectorielles** — 6 guides : [LlamaIndex](https://docs.clore.ai/guides/guides_v2-fr/rag-et-bases-de-donnees-vectorielles/llamaindex), [RAGFlow](https://docs.clore.ai/guides/guides_v2-fr/rag-et-bases-de-donnees-vectorielles/ragflow), [ChromaDB](https://docs.clore.ai/guides/guides_v2-fr/rag-et-bases-de-donnees-vectorielles/chromadb), [Qdrant](https://docs.clore.ai/guides/guides_v2-fr/rag-et-bases-de-donnees-vectorielles/qdrant), [Milvus](https://docs.clore.ai/guides/guides_v2-fr/rag-et-bases-de-donnees-vectorielles/milvus), [Weaviate](https://docs.clore.ai/guides/guides_v2-fr/rag-et-bases-de-donnees-vectorielles/weaviate)
* 🔄 **MLOps** — 4 guides : [MLflow](https://docs.clore.ai/guides/guides_v2-fr/mlops-et-deploiement/mlflow), [Triton Inference Server](https://docs.clore.ai/guides/guides_v2-fr/mlops-et-deploiement/triton-inference-server), [BentoML](https://docs.clore.ai/guides/guides_v2-fr/mlops-et-deploiement/bentoml), [ClearML](https://docs.clore.ai/guides/guides_v2-fr/mlops-et-deploiement/clearml)
* ⚡ **DevOps GPU** — 2 guides : [TensorRT-LLM](https://docs.clore.ai/guides/guides_v2-fr/gpu-devops/tensorrt-llm), [ONNX Runtime](https://docs.clore.ai/guides/guides_v2-fr/gpu-devops/onnx-runtime)
* 🔬 **Science** — 3 guides : [AlphaFold2](https://docs.clore.ai/guides/guides_v2-fr/science-et-recherche/alphafold2), [ESMFold](https://docs.clore.ai/guides/guides_v2-fr/science-et-recherche/esmfold), [GROMACS](https://docs.clore.ai/guides/guides_v2-fr/science-et-recherche/gromacs) dynamique moléculaire
* 🎮 **Jeux / streaming** — [Sunshine + Moonlight](https://docs.clore.ai/guides/guides_v2-fr/jeux-et-streaming/sunshine-moonlight) jeu à distance accéléré par GPU
* ₿ **Minage de cryptomonnaie** — [XMRig](https://docs.clore.ai/guides/guides_v2-fr/crypto-et-minage/xmrig) minage CPU/GPU sur Clore.ai

### Derniers modèles ajoutés (4 mars 2026)

* **DeepSeek V4** ⏳ — MoE multimodal d’environ 1T de paramètres, licence MIT, **sortie imminente (poids repérés le 11 mars)** — [guide](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/deepseek-v4)
* **MiniMax Speech 2.6** 🆕 — TTS à très faible latence pour agents vocaux, TTFB < 300 ms — [guide](https://docs.clore.ai/guides/guides_v2-fr/audio-et-voix/minimax-speech)
* **SGLang** 🆕 — RadixAttention pour le partage du cache KV, débit x2 à x5 par rapport à vLLM sur MoE — [guide](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/sglang)
* **TGI** 🆕 — service LLM de production de HuggingFace avec Flash Attention 2 + PagedAttention — [guide](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/tgi)
* **LLaMA-Factory** 🆕 — affinez plus de 100 LLM avec WebUI, LoRA/QLoRA, RLHF — [guide](https://docs.clore.ai/guides/guides_v2-fr/entrainement/llama-factory)
* **Fish Speech** 🆕 — clonage vocal zero-shot dans plus de 8 langues à partir de 10 à 15 s d’audio de référence — [guide](https://docs.clore.ai/guides/guides_v2-fr/audio-et-voix/fish-speech)
* **Mochi-1** 🆕 — diffusion vidéo 10B paramètres, 848×480 à 30 ips, 24 Go de VRAM — [guide](https://docs.clore.ai/guides/guides_v2-fr/generation-video/mochi-1)

### Ajoutés précédemment (février 2026)

* **Qwen3.5** — MoE 397B d’Alibaba, bat Claude 4.5 Opus en mathématiques
* **GLM-5** — MoE 744B de Zhipu AI, licence MIT, n°1 dans les classements open source
* **Ling-2.5-1T** — modèle d’Ant Group à un trillion de paramètres avec attention linéaire
* **Kimi K2.5** — MoE 1T de Moonshot AI, licence MIT, agentique visuel
* **Mistral Large 3** — MoE 675B, Apache 2.0, codage et raisonnement de pointe
* **Llama 4 Scout/Maverick** — révolution MoE de Meta, fenêtre de contexte de 10M
* **Gemma 3** — le modèle 27B de Google qui bat des modèles 405B
* **FLUX.2 Klein** — génération d’images en moins d’une seconde (< 0,5 s sur RTX 4090)
* **HunyuanImage 3.0** — MoE 80B, plus grand modèle d’images open source
* **ACE-Step 1.5** — génération de chansons complètes avec moins de 4 Go de VRAM
* **FramePack** — vidéo IA avec seulement 6 Go de VRAM
* **Qwen3-TTS** — clonage vocal dans plus de 10 langues à partir de 3 secondes d’audio
* **Kani-TTS-2** — TTS ultra-léger, seulement 3 Go de VRAM
* **DeepSeek-R1** — modèle de raisonnement équivalent à OpenAI o1

### Catégories ajoutées précédemment (février 2026)

* 🤖 **Plateformes d’IA et agents** — 18 guides : Dify, CrewAI, AutoGPT, OpenHands, MetaGPT, n8n, LibreChat, Open Interpreter, SuperAGI, SWE-agent
* 🎵 **Génération musicale** — chansons composées par IA avec voix (ACE-Step)
* 💻 **Outils de codage IA** — alternatives Copilot auto-hébergées (Aider, TabbyML)
* 🔧 **OpenClaw sur Clore** — faites tourner votre assistant IA 24h/24 et 7j/7 sur des GPU loués

## 💰 Tarification des GPU (mars 2026)

> Données en direct de la place de marché Clore.ai, échantillonnées le 16 mars 2026 (2 592 serveurs).

| GPU         | VRAM  | Fourchette de prix spot | Moy./h    | Idéal pour                                      |
| ----------- | ----- | ----------------------- | --------- | ----------------------------------------------- |
| RTX 3060    | 12 Go | 0,16 à 1,00 $/h         | \~$0.93   | TTS, petits modèles, génération musicale        |
| RTX 3070    | 8 Go  | 0,17 à 3,33 $/h         | \~$0.55   | modèles 7B, Whisper, inférence par lots         |
| RTX 3080    | 10 Go | 0,20 à 3,50 $/h         | \~$0.79   | modèles 7B–14B, génération d’images             |
| RTX 3090    | 24 Go | 0,08 à 4,00 $/h         | \~$1.24   | SDXL, modèles 32B, génération vidéo             |
| RTX 4090    | 24 Go | 1,19 à 6,50 $/h         | \~$2.44   | FLUX, Llama 4, modèles 35B                      |
| RTX 5070 Ti | 16 Go | 0,75 à 3,00 $/h         | \~$1.31   | inférence rapide, LLM 30B                       |
| RTX 5080    | 16 Go | 0,90 à 9,00 $/h         | \~$1.86   | FLUX rapide, LLM 30B                            |
| RTX 5090    | 32 Go | 1,72 à 10,00 $/h        | \~$3.94   | 70B quantifié, Nemotron 3 Super, le plus rapide |
| A100 80GB   | 80 Go | \~20 $/h                | \~$20     | 70B FP16, entraînement à grande échelle         |
| H100 80GB   | 80 Go | 5 à 10 $/h              | \~6 à 8 $ | modèles 400B+, production                       |

*Les commandes Spot sont 20 à 40 % moins chères que le tarif à la demande. Le parc de RTX 5090 compte désormais plus de 218 cartes. La RTX 5070 Ti s’est imposée comme une forte option milieu de gamme (73 serveurs).*

## 🚀 Démarrage rapide

Nouveau sur Clore.ai ? → [**Guide de démarrage rapide**](https://docs.clore.ai/guides/guides_v2-fr/quickstart)

Vous savez déjà ce dont vous avez besoin ?

| Je veux...                                   | Commencer ici                                                                                                                                                                                                                                                       |
| -------------------------------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
| Discuter avec l’IA en local                  | [Guide Ollama](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/ollama)                                                                                                                                                                                 |
| Générer des images                           | [FLUX.2 Klein](https://docs.clore.ai/guides/guides_v2-fr/generation-dimages/flux2-klein) ou [ComfyUI](https://docs.clore.ai/guides/guides_v2-fr/generation-dimages/comfyui)                                                                                         |
| Générer des vidéos                           | [FramePack](https://docs.clore.ai/guides/guides_v2-fr/generation-video/framepack) (6 Go !) ou [Wan2.1](https://docs.clore.ai/guides/guides_v2-fr/generation-video/wan-video)                                                                                        |
| Cloner une voix                              | [Voxtral TTS](https://docs.clore.ai/guides/guides_v2-fr/audio-et-voix/voxtral-tts), [Qwen3-TTS](https://docs.clore.ai/guides/guides_v2-fr/audio-et-voix/qwen3-tts)ou [Zonos](https://docs.clore.ai/guides/guides_v2-fr/audio-et-voix/zonos-tts)                     |
| Transcrire de l’audio                        | [WhisperX](https://docs.clore.ai/guides/guides_v2-fr/audio-et-voix/whisperx)                                                                                                                                                                                        |
| Affiner un modèle                            | [Unsloth](https://docs.clore.ai/guides/guides_v2-fr/entrainement/unsloth-finetune) (2x plus rapide, 70 % de VRAM en moins)                                                                                                                                          |
| Générer de la musique                        | [ACE-Step](https://docs.clore.ai/guides/guides_v2-fr/generation-musicale/ace-step) (< 4 Go de VRAM !)                                                                                                                                                               |
| Auto-héberger Copilot                        | [TabbyML](https://docs.clore.ai/guides/guides_v2-fr/outils-de-codage-ia/tabby) (4,50 $/mois)                                                                                                                                                                        |
| Exécuter une plateforme d’agent IA           | [Dify](https://docs.clore.ai/guides/guides_v2-fr/plateformes-dia-et-agents/dify), [CrewAI](https://docs.clore.ai/guides/guides_v2-fr/plateformes-dia-et-agents/crewai)ou [OpenHands](https://docs.clore.ai/guides/guides_v2-fr/plateformes-dia-et-agents/openhands) |
| Auto-héberger une alternative à ChatGPT      | [LibreChat](https://docs.clore.ai/guides/guides_v2-fr/plateformes-dia-et-agents/librechat) ou [LobeChat](https://docs.clore.ai/guides/guides_v2-fr/plateformes-dia-et-agents/lobechat)                                                                              |
| Faire tourner un assistant IA 24h/24 et 7j/7 | [OpenClaw sur Clore](https://docs.clore.ai/guides/guides_v2-fr/autres-workloads/openclaw-on-clore)                                                                                                                                                                  |
| Choisir le bon GPU                           | [Comparaison des GPU](https://docs.clore.ai/guides/guides_v2-fr/pour-commencer/gpu-comparison)                                                                                                                                                                      |

## 📖 Documentation et support

* **Documentation principale**: [docs.clore.ai](https://docs.clore.ai/)
* **Ces guides**: [docs.clore.ai/guides](https://docs.clore.ai/guides/)
* **Marketplace**: [clore.ai/marketplace](https://clore.ai/marketplace)
* **Support**: [clore.ai/support](https://clore.ai/support) / <support@clore.ai>
* **Discord**: [discord.com/invite/clore-ai](https://discord.com/invite/clore-ai)
* **Telegram**: [@clorechat](https://t.me/clorechat)
