Démarrage rapide

circle-check

Étape 1 : Créer un compte et ajouter des fonds

  1. Aller à clore.aiarrow-up-rightS'inscrire

  2. Vérifiez votre e-mail

  3. Aller à CompteDépôt

  4. Ajouter des fonds via CLORE, BTC, USDT, ou USDC (minimum ~5 $ pour commencer)

Étape 2 : Choisir un GPU

Aller au Marketplacearrow-up-right et choisissez selon votre tâche :

Ce que je veux faire
GPU minimum
Budget/jour

Chatter avec l'IA (modèles 7B)

RTX 3060 12GB

~$0.15

Chatter avec l'IA (modèles 32B)

RTX 4090 24GB

~$0.50

Générer des images (FLUX)

RTX 3090 24GB

~$0.30

Générer des vidéos

RTX 4090 24GB

~$0.50

Générer de la musique

N'importe quel GPU 4GB+

~$0.15

Clonage vocal / TTS

RTX 3060 6GB+

~$0.15

Transcrire l'audio

RTX 3060 8GB+

~$0.15

Affiner un modèle

RTX 4090 24GB

~$0.50

Exécuter des modèles 70B+

A100 80GB

~$2.00

triangle-exclamation

Guide rapide des GPU

GPU
VRAM
Prix
Point idéal pour

RTX 3060

12GB

0,15–0,30 $/jour

TTS, musique, petits modèles

RTX 3090

24GB

0,30–1,00 $/jour

Génération d'images, modèles 32B

RTX 4090

24GB

0,50–2,00 $/jour

Tout jusqu'à 35B, inférence rapide

RTX 5090

32GB

1,50–3,00 $/jour

70B quantifié, le plus rapide

A100 80GB

80GB

2,00–4,00 $/jour

70B FP16, entraînement sérieux

H100 80GB

80GB

3,00–6,00 $/jour

Modèles MoE 400B+

Étape 3 : Déployer

Cliquez Louer sur le serveur choisi, puis configurez :

  • Type de commande : À la demande (garanti) ou Spot (30–50 % moins cher, peut être interrompu)

  • Image Docker : Voir les recettes ci-dessous

  • Ports : Inclure toujours 22/tcp (SSH) + le port de votre application

  • Environnement : Ajoutez toutes les clés API nécessaires

🚀 Recettes en un clic

Chatter avec l'IA (Ollama + Open WebUI)

La façon la plus simple d'exécuter de l'IA locale — interface type ChatGPT avec n'importe quel modèle ouvert.

Après le déploiement, ouvrez l'URL HTTP → créez un compte → choisissez un modèle (Llama 4 Scout, Gemma 3, Qwen3.5) → discutez !

Génération d'images (ComfyUI)

Flux de travail basé sur des nœuds pour FLUX, Stable Diffusion, et plus.

Génération d'images (Stable Diffusion WebUI)

Interface classique pour Stable Diffusion, SDXL et SD 3.5.

Serveur API LLM (vLLM)

Mise en service de niveau production avec une API compatible OpenAI.

Génération de musique (ACE-Step)

Générez des chansons complètes avec voix — fonctionne sur n'importe quel GPU 4GB+ !

Connectez-vous en SSH, puis :

Étape 4 : Se connecter

Après le démarrage de votre commande :

  1. Aller à Mes commandes → trouvez votre commande active

  2. Interface Web : Cliquez sur l'URL HTTP (par ex., https://xxx.clorecloud.net)

  3. SSH : ssh -p <port> root@<adresse-proxy>

circle-exclamation
Déployer
Démarrage typique

Ollama + Open WebUI

3–5 min

ComfyUI

10–15 min

vLLM

5–15 min (dépend de la taille du modèle)

SD WebUI

10–20 min

Étape 5 : Commencer à créer

Une fois votre service en cours d'exécution, consultez les guides pour votre cas d'utilisation spécifique :

🤖 Modèles de langage (Chat, Code, Raisonnement)

  • Ollama — gestion de modèles la plus simple

  • Llama 4 Scout — le dernier de Meta, 10M de contexte

  • Gemma 3 — le 27B de Google qui bat des modèles 405B

  • Qwen3.5 — a battu Claude 4.5 en mathématiques (févr. 2026 !)

  • DeepSeek-R1 — raisonnement en chaîne de pensée

  • vLLM — service API de production

🎨 Génération d'images

🎬 Génération vidéo

  • FramePack — seulement 6GB de VRAM requis !

  • Wan2.1 — T2V + I2V de haute qualité

  • LTX-2 — vidéo AVEC audio

  • CogVideoX — le modèle vidéo de Zhipu AI

🔊 Audio & Voix

  • Qwen3-TTS — clonage vocal, 10+ langues

  • WhisperX — transcription + diarisation des intervenants

  • Dia TTS — dialogue multi-intervenants

  • Kokoro — petit TTS, seulement 2GB de VRAM

🎵 Musique

  • ACE-Step — chansons complètes sur < 4GB de VRAM

💻 Codage IA

  • TabbyML — Copilot auto-hébergé pour 4,50 $/mois

  • Aider — assistant de codage IA en terminal

🧠 Entraînement

  • Unsloth — 2x plus rapide, 70 % moins de VRAM

  • Axolotl — fine-tuning basé sur YAML

💡 Conseils pour débutants

  1. Commencez avec Ollama — c'est la façon la plus simple d'essayer l'IA localement

  2. Le RTX 4090 est le point idéal — gère 90 % des cas d'utilisation à 0,50–2 $/jour

  3. Utilisez les commandes Spot pour les expériences — 30–50 % moins cher

  4. Utilisez On-Demand pour le travail important — garanti, sans interruptions

  5. Téléchargez vos résultats avant la fin de la commande — les fichiers sont supprimés après

  6. Payez avec le token CLORE — souvent des tarifs meilleurs qu'avec les stablecoins

  7. Vérifiez la RAM et le réseau — une faible RAM est la cause n°1 des échecs

Dépannage

Problème
Solution

HTTP 502 pendant longtemps

Attendez 10–20 min pour le premier démarrage ; vérifiez RAM ≥ 16GB

Le service ne démarre pas

RAM trop faible (nécessite 16GB+) ou VRAM trop petite pour le modèle

Téléchargement lent du modèle

Normal lors du premier lancement ; préférez des serveurs 500Mbps+

CUDA out of memory

Utilisez un modèle plus petit ou un GPU plus grand ; essayez des versions quantifiées

Impossible de SSH

Vérifiez que le port est 22/tcp dans la config ; attendez que le serveur soit complètement démarré

🐍 SDK Python & CLI (recommandé)

Vous préférez coder plutôt que cliquer ? Installez le SDK officiel :

Ou utilisez Python directement :

Démarrage rapide complet en Python | Guide du SDK | Automatisation CLI

Besoin d'aide ?

Mis à jour

Ce contenu vous a-t-il été utile ?