# Introduction

> **189 guides pratiques** pour déployer des modèles d’IA, des charges de travail GPU et des plateformes d’IA sur [Clore.ai](https://clore.ai) — la place de marché décentralisée de location de GPU.

{% hint style="success" %}
Tous les exemples peuvent être exécutés sur des serveurs GPU loués via la [Clore.ai Marketplace](https://clore.ai/marketplace). Louez des GPU puissants à partir de **0,15 $/jour**.
{% endhint %}

## Qu’est-ce que Clore.ai ?

[Clore.ai](https://clore.ai) est une place de marché GPU de pair à pair où vous louez des GPU directement à d’autres personnes — comme Airbnb pour le calcul. Des milliers de GPU sont disponibles 24 h/24, 7 j/7, des RTX 3060 d’entrée de gamme aux H100 d’entreprise. Payez avec **CLORE**, **BTC**, **USDT**, ou **USDC**.

### Pourquoi Clore.ai pour l’IA ?

* **Abordable** — RTX 4090 à partir de 0,50 $/jour (contre 2 à 4 $ chez les fournisseurs cloud)
* **Sans engagement** — location à l’heure, sans contrat
* **Accès root complet** — conteneurs Docker avec passthrough GPU
* **Large choix de GPU** — plus de 3 400 machines, plus de 12 800 GPU en ligne
* **Payez à votre façon** — paiements en crypto (CLORE, BTC, USDT/USDC)

## 📚 Catégories de guides

| Catégorie                                                                                                                              | Guides | Points forts                                                                                                                                     |
| -------------------------------------------------------------------------------------------------------------------------------------- | ------ | ------------------------------------------------------------------------------------------------------------------------------------------------ |
| 🤖 [Modèles de langage](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/language-models)                                  | **40** | GLM-5.1, Llama 4, Gemma 3, Qwen3.5, Qwen3.5-Omni, GLM-5, DeepSeek V4, DeepSeek-R1, Nemotron 3 Super, Gemini 3.1 Flash Lite, Ollama, vLLM, SGLang |
| 🤖 [Plateformes et agents IA](https://docs.clore.ai/guides/guides_v2-fr/plateformes-et-agents-ia/ai-platforms)                         | **18** | Dify, CrewAI, AutoGPT, OpenHands, MetaGPT, n8n, LibreChat, Open Interpreter, SuperAGI, SWE-agent                                                 |
| 🔊 [Audio et voix](https://docs.clore.ai/guides/guides_v2-fr/audio-et-voix/audio-voice)                                                | **23** | MOSS-TTS, Voxtral TTS, Whisper, Qwen3-TTS, MiniMax Speech 2.6, Dia, ChatTTS, Kokoro, Fish Speech, MeloTTS, StyleTTS2                             |
| 🎬 [Génération vidéo](https://docs.clore.ai/guides/guides_v2-fr/generation-video/video-generation)                                     | **14** | Wan2.1, Wan 2.2 VBVR, FramePack, CubeComposer 4K 360°, LTX-2, CogVideoX, SkyReels, HunyuanVideo, Mochi-1, AnimateDiff                            |
| 🎨 [Génération d’images](https://docs.clore.ai/guides/guides_v2-fr/generation-dimages/image-generation)                                | **11** | FLUX.2 Klein, HunyuanImage 3.0, SD 3.5, ComfyUI, InvokeAI, SD WebUI Forge                                                                        |
| 🧠 [Entraînement](https://docs.clore.ai/guides/guides_v2-fr/entrainement/training)                                                     | **12** | Unsloth, Axolotl, LoRA, DreamBooth, DeepSpeed, LLaMA-Factory, TRL, LitGPT, Mergekit                                                              |
| 🏁 [Pour commencer](https://docs.clore.ai/guides/guides_v2-fr/pour-commencer/getting-started)                                          | **8**  | comparaison des GPU, tarification, FAQ, dépannage                                                                                                |
| 👁️ [Modèles de vision](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-vision/vision-models)                                     | **6**  | Qwen2.5-VL, SAM2, LLaVA, Florence-2                                                                                                              |
| 🖼️ [Traitement d’images](https://docs.clore.ai/guides/guides_v2-fr/traitement-dimages/image-processing)                               | **6**  | Real-ESRGAN, ControlNet, Depth Anything, ICLight                                                                                                 |
| 🧊 [Génération 3D](https://docs.clore.ai/guides/guides_v2-fr/generation-3d/3d-generation)                                              | **6**  | Hunyuan World 2.0, TRELLIS, Hunyuan3D 2.1, TripoSR, Gaussian Splatting, Nerfstudio                                                               |
| 🎭 [Têtes parlantes](https://docs.clore.ai/guides/guides_v2-fr/tetes-parlantes/talking-heads)                                          | **3**  | LivePortrait, SadTalker, Wav2Lip                                                                                                                 |
| 👤 [Visage et identité](https://docs.clore.ai/guides/guides_v2-fr/visage-et-identite/face-identity)                                    | **3**  | FaceFusion, InstantID, IP-Adapter                                                                                                                |
| ⚙️ [Avancé](https://docs.clore.ai/guides/guides_v2-fr/avance/advanced)                                                                 | **5**  | Multi-GPU, intégration API, traitement par lots                                                                                                  |
| 🔧 [Autres charges de travail](https://docs.clore.ai/guides/guides_v2-fr/autres-charges-de-travail/other-workloads)                    | **3**  | Blender, Kandinsky, OpenClaw                                                                                                                     |
| 💻 [Outils de codage IA](https://docs.clore.ai/guides/guides_v2-fr/outils-de-codage-ia/ai-coding)                                      | **2**  | Aider, TabbyML (Copilot auto-hébergé)                                                                                                            |
| 📊 [Comparaisons](https://docs.clore.ai/guides/guides_v2-fr/comparaisons/comparisons)                                                  | **7**  | service LLM, fine-tuning, génération vidéo, TTS, frameworks RAG, bases de données vectorielles                                                   |
| 📹 [Traitement vidéo](https://docs.clore.ai/guides/guides_v2-fr/traitement-video/video-processing)                                     | **2**  | FFmpeg NVENC, interpolation RIFE                                                                                                                 |
| 🎵 [Génération musicale](https://docs.clore.ai/guides/guides_v2-fr/generation-musicale/music-generation)                               | **1**  | ACE-Step (alternative open source à Suno)                                                                                                        |
| 🔍 [Vision par ordinateur](https://docs.clore.ai/guides/guides_v2-fr/vision-par-ordinateur/computer-vision)                            | **2**  | détection YOLOv9/v10                                                                                                                             |
| 🗄️ [RAG / bases de données vectorielles](https://docs.clore.ai/guides/guides_v2-fr/rag-et-bases-de-donnees-vectorielles/rag-vectordb) | **6**  | LlamaIndex, RAGFlow, ChromaDB, Qdrant, Milvus, Weaviate                                                                                          |
| 🔄 [MLOps](https://docs.clore.ai/guides/guides_v2-fr/mlops-et-deploiement/mlops)                                                       | **4**  | MLflow, Triton Inference Server, BentoML, ClearML                                                                                                |
| ⚡ [GPU DevOps](https://docs.clore.ai/guides/guides_v2-fr/devops-gpu/devops-gpu)                                                        | **2**  | TensorRT-LLM, ONNX Runtime                                                                                                                       |
| 🔬 [Science](https://docs.clore.ai/guides/guides_v2-fr/science-et-recherche/science)                                                   | **3**  | AlphaFold2, ESMFold, dynamique moléculaire GROMACS                                                                                               |
| 🎮 [Jeux / streaming](https://docs.clore.ai/guides/guides_v2-fr/jeux-et-streaming/gaming-streaming)                                    | **1**  | jeux à distance Sunshine + Moonlight                                                                                                             |
| ₿ [Minage de crypto](https://docs.clore.ai/guides/guides_v2-fr/crypto-et-minage/crypto-mining)                                         | **1**  | minage CPU/GPU avec XMRig                                                                                                                        |

## 🔥 Quoi de neuf (avril 2026)

### Semaine du 20 avril 2026 — 3 nouveaux guides

* 🧊 **Hunyuan World 2.0** 🆕 — premier modèle de monde 3D open source de Tencent. Texte/image/vidéo → maillage éditable + Gaussian Splatting 3D pour Unity/Unreal/Blender. \~1,2 milliard de paramètres BF16, 12–24 Go de VRAM — [guide](https://docs.clore.ai/guides/guides_v2-fr/generation-3d/hunyuan-world-2)
* 🤖 **GLM-5.1** 🆕 — la puissance de codage MoE 744B / 40B actifs de Zhipu AI. Contexte de 200K, licence MIT, n°1 sur SWE-Bench Pro (58,4 %) devant Claude Opus 4.6 et GPT-5.4 — [guide](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/glm-5-1)
* 🔊 **MOSS-TTS** 🆕 — modèle TTS ultra-léger 100M de paramètres d’OpenMOSS. Stéréo 48 kHz, 20 langues, inférence uniquement sur CPU (GPU non requis), clonage vocal zero-shot, Apache 2.0 — [guide](https://docs.clore.ai/guides/guides_v2-fr/audio-et-voix/moss-tts)

#### Notes de l’industrie (13–20 avril 2026)

*Lancements propriétaires ou uniquement via API cette semaine — pas encore auto-hébergeables sur Clore. Pour chacun, nous avons lié l’alternative open-weight la plus proche que vous pouvez exécuter aujourd’hui sur Clore.*

* **Alibaba Happy Oyster** — modèle de monde 3D interactif en temps réel (modes Roaming et Directing). Liste d’attente / bêta fermée. → Alternative auto-hébergeable : [Hunyuan World 2.0](https://docs.clore.ai/guides/guides_v2-fr/generation-3d/hunyuan-world-2)
* **API Seedance 2.0 de ByteDance** — entièrement ouvert le 14 avril sur Volcano Engine, uniquement via API. → Alternatives auto-hébergeables : [Wan 2.2 VBVR](https://docs.clore.ai/guides/guides_v2-fr/generation-video/wan22-vbvr), [LTX-2](https://docs.clore.ai/guides/guides_v2-fr/generation-video/ltx-video-2)
* **Qwen 3.6-Plus** — agent de codage propriétaire d’Alibaba avec contexte de 1M. Uniquement via API. → Alternatives auto-hébergeables : [Qwen3.5-Omni](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/qwen35-omni), [GLM-5.1](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/glm-5-1)
* **Meta Muse Spark** — premier modèle propriétaire de Meta après Llama. → Alternative auto-hébergeable : [Llama 4](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/llama4)
* **Wan 2.7** — les poids ouverts sont toujours attendus pour le T2 2026 (actuellement uniquement via API avec Together AI). → Auto-hébergez dès aujourd’hui : [Wan 2.2 VBVR](https://docs.clore.ai/guides/guides_v2-fr/generation-video/wan22-vbvr)

### Semaine du 13 avril 2026 — 2 nouveaux guides

* 🤖 **Qwen3.5-Omni** 🆕 — modèle multimodal unifié d’Alibaba : compréhension du texte, de l’audio, des images et de la vidéo + génération de texte et de parole dans un seul MoE 30B. INT4 tient dans 24 Go de VRAM. Apache 2.0 — [guide](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/qwen35-omni)
* 🎬 **Wan 2.2 VBVR** 🆕 — référence vidéo basée sur la vidéo pour un contrôle cohérent du mouvement. Utilisez un clip de référence pour piloter l’animation dans une nouvelle génération vidéo. FP8 fonctionne sur RTX 3090 (16–24 Go). Workflow ComfyUI inclus — [guide](https://docs.clore.ai/guides/guides_v2-fr/generation-video/wan22-vbvr)

#### Notes de l’industrie (6–13 avril 2026)

*Uniquement via API ou poids ouverts en attente — alternatives auto-hébergeables liées.*

* **Wan 2.7** (Alibaba) — génération de première et dernière image, édition vidéo vers vidéo, référencement de sujet. Poids ouverts attendus mi-T2 2026. → Auto-hébergez dès aujourd’hui : [Wan 2.2 VBVR](https://docs.clore.ai/guides/guides_v2-fr/generation-video/wan22-vbvr), [Wan2.1](https://docs.clore.ai/guides/guides_v2-fr/generation-video/wan-video)
* **Qwen3.6-Plus** (Alibaba) — fenêtre de contexte de 1M, codage agentique. Publication des poids ouverts en attente. → Alternatives auto-hébergeables : [Qwen3.5](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/qwen35), [GLM-5.1](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/glm-5-1)
* **LTX 2.3** — nouveau modèle de génération vidéo LTX, 22B de paramètres, base de 32 Go de VRAM. → Utilisez la version ouverte actuelle : [LTX-2](https://docs.clore.ai/guides/guides_v2-fr/generation-video/ltx-video-2)

## 🔥 Quoi de neuf (mars 2026)

### Semaine du 30 mars 2026 — 1 nouveau guide

* 🔊 **Voxtral TTS** 🆕 — modèle TTS open-weight 4B de Mistral, 9 langues, clonage vocal zero-shot à partir d’une référence de 3 s, seulement 3 Go de VRAM, Apache 2.0 — [guide](https://docs.clore.ai/guides/guides_v2-fr/audio-et-voix/voxtral-tts)

#### Notes de l’industrie (23–30 mars)

*Uniquement via API / arrêté — alternatives auto-hébergeables liées.*

* **Seedance 2.0** (ByteDance) — génération vidéo de nouvelle génération lancée dans CapCut/Dreamina. Uniquement via API. → Alternatives auto-hébergeables : [Wan2.1](https://docs.clore.ai/guides/guides_v2-fr/generation-video/wan-video), [LTX-2](https://docs.clore.ai/guides/guides_v2-fr/generation-video/ltx-video-2)
* **Google Lyria 3 Pro** — génération musicale via l’API Gemini / Vertex AI. Uniquement via API. → Alternative auto-hébergeable : [ACE-Step](https://docs.clore.ai/guides/guides_v2-fr/generation-musicale/ace-step)
* **Gemini 3 Deep Think** — modèle de raisonnement de pointe de Google, uniquement via API. → Alternatives auto-hébergeables : [DeepSeek-R1](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/deepseek-r1), [GLM-5.1](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/glm-5-1)
* **arrêt de Sora** — OpenAI a officiellement arrêté l’application de génération vidéo Sora. → Alternative auto-hébergeable : [OpenSora](https://docs.clore.ai/guides/guides_v2-fr/generation-video/opensora)
* **DeepSeek V4** — en attente de la publication officielle des poids (morceaux INT8 repérés le 11 mars). Guide prêt : [DeepSeek V4](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/deepseek-v4)

### Semaine du 16 mars 2026 — 3 nouveaux guides

* 🤖 **NVIDIA Nemotron 3 Super** 🆕 — MoE 120B / 12B actifs, débit x5, contexte de 1M, Apache 2.0, conçu pour l’IA agentique — [guide](https://github.com/defiocean/clore-docs-guides/blob/main/language-models/nvidia-nemotron-3-super.md)
* 🌐 **Gemini 3.1 Flash Lite** 🆕 — le modèle le moins cher/le plus rapide de Google (3 mars 2026), alternatives API + open source — [guide](https://github.com/defiocean/clore-docs-guides/blob/main/language-models/gemini-3-1-flash-lite.md)
* 🎬 **CubeComposer 4K 360° Video** 🆕 — premier modèle à générer nativement une vidéo panoramique 4K 360° à partir de séquences standard (CVPR 2026) — [guide](https://github.com/defiocean/clore-docs-guides/blob/main/video-generation/cubecomposer-360-video.md)

### Également cette semaine (9–16 mars 2026)

* **GPT-5.4** — publié le 5 mars 2026 ; utilisation native de l’ordinateur (75,0 % OSWorld), contexte de 1M. Uniquement via API, aucun déploiement local. → Alternatives auto-hébergeables : [GLM-5.1](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/glm-5-1), [DeepSeek-R1](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/deepseek-r1)
* **DeepSeek V4** ⏳ — poids repérés sur HuggingFace (morceaux INT8, 11 mars) — sortie imminente d’un MoE multimodal de 1T de paramètres. [Guide](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/deepseek-v4) prêt quand il sortira.
* **Wan 2.2** — nouvelle version du modèle fondation de génération vidéo Wan. → Auto-héberger : [Wan 2.2 VBVR](https://docs.clore.ai/guides/guides_v2-fr/generation-video/wan22-vbvr), [Wan2.1](https://docs.clore.ai/guides/guides_v2-fr/generation-video/wan-video)

### Nouveautés de mars 2026 — 6 nouvelles catégories, 57 nouveaux guides

* 🗄️ **RAG / bases de données vectorielles** — 6 guides : [LlamaIndex](https://docs.clore.ai/guides/guides_v2-fr/rag-et-bases-de-donnees-vectorielles/llamaindex), [RAGFlow](https://docs.clore.ai/guides/guides_v2-fr/rag-et-bases-de-donnees-vectorielles/ragflow), [ChromaDB](https://docs.clore.ai/guides/guides_v2-fr/rag-et-bases-de-donnees-vectorielles/chromadb), [Qdrant](https://docs.clore.ai/guides/guides_v2-fr/rag-et-bases-de-donnees-vectorielles/qdrant), [Milvus](https://docs.clore.ai/guides/guides_v2-fr/rag-et-bases-de-donnees-vectorielles/milvus), [Weaviate](https://docs.clore.ai/guides/guides_v2-fr/rag-et-bases-de-donnees-vectorielles/weaviate)
* 🔄 **MLOps** — 4 guides : [MLflow](https://docs.clore.ai/guides/guides_v2-fr/mlops-et-deploiement/mlflow), [Triton Inference Server](https://docs.clore.ai/guides/guides_v2-fr/mlops-et-deploiement/triton-inference-server), [BentoML](https://docs.clore.ai/guides/guides_v2-fr/mlops-et-deploiement/bentoml), [ClearML](https://docs.clore.ai/guides/guides_v2-fr/mlops-et-deploiement/clearml)
* ⚡ **GPU DevOps** — 2 guides : [TensorRT-LLM](https://docs.clore.ai/guides/guides_v2-fr/devops-gpu/tensorrt-llm), [ONNX Runtime](https://docs.clore.ai/guides/guides_v2-fr/devops-gpu/onnx-runtime)
* 🔬 **Science** — 3 guides : [AlphaFold2](https://docs.clore.ai/guides/guides_v2-fr/science-et-recherche/alphafold2), [ESMFold](https://docs.clore.ai/guides/guides_v2-fr/science-et-recherche/esmfold), [GROMACS](https://docs.clore.ai/guides/guides_v2-fr/science-et-recherche/gromacs) dynamique moléculaire
* 🎮 **Jeux / streaming** — [Sunshine + Moonlight](https://docs.clore.ai/guides/guides_v2-fr/jeux-et-streaming/sunshine-moonlight) jeux à distance accélérés par GPU
* ₿ **Minage de crypto** — [XMRig](https://docs.clore.ai/guides/guides_v2-fr/crypto-et-minage/xmrig) minage CPU/GPU sur Clore.ai

### Derniers modèles ajoutés (4 mars 2026)

* **DeepSeek V4** ⏳ — MoE multimodal d’environ 1T de paramètres, licence MIT, **sortie imminente (poids repérés le 11 mars)** — [guide](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/deepseek-v4)
* **MiniMax Speech 2.6** 🆕 — TTS à très faible latence pour agents vocaux, < 300 ms TTFB — [guide](https://docs.clore.ai/guides/guides_v2-fr/audio-et-voix/minimax-speech)
* **SGLang** 🆕 — RadixAttention pour le partage du cache KV, débit x2 à x5 par rapport à vLLM sur MoE — [guide](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/sglang)
* **TGI** 🆕 — service LLM de production de HuggingFace avec Flash Attention 2 + PagedAttention — [guide](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/tgi)
* **LLaMA-Factory** 🆕 — fine-tunez plus de 100 LLM avec WebUI, LoRA/QLoRA, RLHF — [guide](https://docs.clore.ai/guides/guides_v2-fr/entrainement/llama-factory)
* **Fish Speech** 🆕 — clonage vocal zero-shot dans plus de 8 langues à partir de 10 à 15 s d’audio de référence — [guide](https://docs.clore.ai/guides/guides_v2-fr/audio-et-voix/fish-speech)
* **Mochi-1** 🆕 — diffusion vidéo de 10B de paramètres, 848×480 à 30 ips, 24 Go de VRAM — [guide](https://docs.clore.ai/guides/guides_v2-fr/generation-video/mochi-1)

### Ajouts précédents (février 2026)

* **Qwen3.5** — MoE 397B d’Alibaba, a battu Claude 4.5 Opus en mathématiques
* **GLM-5** — MoE 744B de Zhipu AI, licence MIT, n°1 dans les classements open source
* **Ling-2.5-1T** — modèle à mille milliards de paramètres d’Ant Group avec attention linéaire
* **Kimi K2.5** — MoE 1T de Moonshot AI, licence MIT, agentique visuel
* **Mistral Large 3** — MoE 675B, Apache 2.0, codage et raisonnement de pointe
* **Llama 4 Scout/Maverick** — révolution MoE de Meta, fenêtre de contexte de 10M
* **Gemma 3** — le 27B de Google qui bat les modèles 405B
* **FLUX.2 Klein** — génération d’images en moins d’une seconde (< 0,5 s sur RTX 4090)
* **HunyuanImage 3.0** — MoE 80B, plus grand modèle d’images open source
* **ACE-Step 1.5** — génération de chanson complète avec < 4 Go de VRAM
* **FramePack** — vidéo IA avec seulement 6 Go de VRAM
* **Qwen3-TTS** — clonage vocal dans plus de 10 langues à partir de 3 secondes d’audio
* **Kani-TTS-2** — TTS ultra-léger, seulement 3 Go de VRAM
* **DeepSeek-R1** — modèle de raisonnement correspondant à OpenAI o1

### Catégories ajoutées précédemment (février 2026)

* 🤖 **Plateformes et agents IA** — 18 guides : Dify, CrewAI, AutoGPT, OpenHands, MetaGPT, n8n, LibreChat, Open Interpreter, SuperAGI, SWE-agent
* 🎵 **Génération musicale** — chansons composées par IA avec voix (ACE-Step)
* 💻 **Outils de codage IA** — alternatives Copilot auto-hébergées (Aider, TabbyML)
* 🔧 **OpenClaw sur Clore** — faites tourner votre assistant IA 24 h/24, 7 j/7 sur des GPU loués

## 💰 Tarification GPU (mars 2026)

> Données en direct de la place de marché Clore.ai, relevées le 16 mars 2026 (2 592 serveurs).

| GPU         | VRAM  | Fourchette de prix spot | Moy./h  | Idéal pour                                      |
| ----------- | ----- | ----------------------- | ------- | ----------------------------------------------- |
| RTX 3060    | 12 Go | 0,16–1,00 $/h           | \~$0.93 | TTS, petits modèles, génération musicale        |
| RTX 3070    | 8 Go  | 0,17–3,33 $/h           | \~$0.55 | modèles 7B, Whisper, inférence par lots         |
| RTX 3080    | 10 Go | 0,20–3,50 $/h           | \~$0.79 | modèles 7B–14B, génération d’images             |
| RTX 3090    | 24 Go | 0,08–4,00 $/h           | \~$1.24 | SDXL, modèles 32B, génération vidéo             |
| RTX 4090    | 24 Go | 1,19–6,50 $/h           | \~$2.44 | FLUX, Llama 4, modèles 35B                      |
| RTX 5070 Ti | 16 Go | 0,75–3,00 $/h           | \~$1.31 | inférence rapide, LLM 30B                       |
| RTX 5080    | 16 Go | 0,90–9,00 $/h           | \~$1.86 | FLUX rapide, LLM 30B                            |
| RTX 5090    | 32 Go | 1,72–10,00 $/h          | \~$3.94 | 70B quantifié, Nemotron 3 Super, le plus rapide |
| A100 80 Go  | 80 Go | \~20 $/h                | \~$20   | 70B FP16, entraînement à grande échelle         |
| H100 80 Go  | 80 Go | 5–10 $/h                | \~6–8 $ | modèles 400B+, production                       |

*Les commandes spot sont 20 à 40 % moins chères que les commandes à la demande. La flotte RTX 5090 compte désormais plus de 218 cartes. La RTX 5070 Ti s’est imposée comme une forte option milieu de gamme (73 serveurs).*

## 🚀 Démarrage rapide

Nouveau sur Clore.ai ? → [**Guide de démarrage rapide**](https://docs.clore.ai/guides/guides_v2-fr/quickstart)

Vous savez déjà ce qu’il vous faut ?

| Je veux...                                       | Commencez ici                                                                                                                                                                                                                                                      |
| ------------------------------------------------ | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ |
| Discuter localement avec l’IA                    | [Guide Ollama](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/ollama)                                                                                                                                                                                |
| Générer des images                               | [FLUX.2 Klein](https://docs.clore.ai/guides/guides_v2-fr/generation-dimages/flux2-klein) ou [ComfyUI](https://docs.clore.ai/guides/guides_v2-fr/generation-dimages/comfyui)                                                                                        |
| Générer des vidéos                               | [FramePack](https://docs.clore.ai/guides/guides_v2-fr/generation-video/framepack) (6 Go !) ou [Wan2.1](https://docs.clore.ai/guides/guides_v2-fr/generation-video/wan-video)                                                                                       |
| Cloner une voix                                  | [Voxtral TTS](https://docs.clore.ai/guides/guides_v2-fr/audio-et-voix/voxtral-tts), [Qwen3-TTS](https://docs.clore.ai/guides/guides_v2-fr/audio-et-voix/qwen3-tts), ou [Zonos](https://docs.clore.ai/guides/guides_v2-fr/audio-et-voix/zonos-tts)                  |
| Transcrire l’audio                               | [WhisperX](https://docs.clore.ai/guides/guides_v2-fr/audio-et-voix/whisperx)                                                                                                                                                                                       |
| Fine-tuner un modèle                             | [Unsloth](https://docs.clore.ai/guides/guides_v2-fr/entrainement/unsloth-finetune) (2x plus rapide, 70 % de VRAM en moins)                                                                                                                                         |
| Générer de la musique                            | [ACE-Step](https://docs.clore.ai/guides/guides_v2-fr/generation-musicale/ace-step) (< 4 Go de VRAM !)                                                                                                                                                              |
| Auto-héberger Copilot                            | [TabbyML](https://docs.clore.ai/guides/guides_v2-fr/outils-de-codage-ia/tabby) (4,50 $/mois)                                                                                                                                                                       |
| Exécuter une plateforme d’agent IA               | [Dify](https://docs.clore.ai/guides/guides_v2-fr/plateformes-et-agents-ia/dify), [CrewAI](https://docs.clore.ai/guides/guides_v2-fr/plateformes-et-agents-ia/crewai), ou [OpenHands](https://docs.clore.ai/guides/guides_v2-fr/plateformes-et-agents-ia/openhands) |
| Auto-héberger une alternative à ChatGPT          | [LibreChat](https://docs.clore.ai/guides/guides_v2-fr/plateformes-et-agents-ia/librechat) ou [LobeChat](https://docs.clore.ai/guides/guides_v2-fr/plateformes-et-agents-ia/lobechat)                                                                               |
| Faire fonctionner un assistant IA 24 h/24, 7 j/7 | [OpenClaw sur Clore](https://docs.clore.ai/guides/guides_v2-fr/autres-charges-de-travail/openclaw-on-clore)                                                                                                                                                        |
| Choisir le bon GPU                               | [Comparaison des GPU](https://docs.clore.ai/guides/guides_v2-fr/pour-commencer/gpu-comparison)                                                                                                                                                                     |

## 📖 Documentation et assistance

* **Docs principales**: [docs.clore.ai](https://docs.clore.ai/)
* **Ces guides**: [docs.clore.ai/guides](https://docs.clore.ai/guides/)
* **Marché**: [clore.ai/marketplace](https://clore.ai/marketplace)
* **Assistance**: [clore.ai/support](https://clore.ai/support) / <support@clore.ai>
* **Discord**: [discord.com/invite/clore-ai](https://discord.com/invite/clore-ai)
* **Telegram**: [@clorechat](https://t.me/clorechat)


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://docs.clore.ai/guides/guides_v2-fr/readme.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
