Démarrage rapide
Aucune expérience préalable en GPU ou en IA n'est nécessaire. Ce guide vous emmène de zéro à l'exécution d'IA en 5 minutes.
Étape 1 : Créer un compte et ajouter des fonds
Aller à clore.ai → S'inscrire
Vérifiez votre e-mail
Aller à Compte → Dépôt
Ajouter des fonds via CLORE, BTC, USDT, ou USDC (minimum ~5 $ pour commencer)
Étape 2 : Choisir un GPU
Aller au Marketplace et choisissez selon votre tâche :
Chatter avec l'IA (modèles 7B)
RTX 3060 12GB
~$0.15
Chatter avec l'IA (modèles 32B)
RTX 4090 24GB
~$0.50
Générer des images (FLUX)
RTX 3090 24GB
~$0.30
Générer des vidéos
RTX 4090 24GB
~$0.50
Générer de la musique
N'importe quel GPU 4GB+
~$0.15
Clonage vocal / TTS
RTX 3060 6GB+
~$0.15
Transcrire l'audio
RTX 3060 8GB+
~$0.15
Affiner un modèle
RTX 4090 24GB
~$0.50
Exécuter des modèles 70B+
A100 80GB
~$2.00
Important — vérifiez plus que le GPU !
RAM : 16GB+ minimum pour la plupart des charges d'IA
Réseau : 500Mbps+ recommandé (les modèles sont téléchargés depuis HuggingFace)
Disque : 50GB+ d'espace libre pour le stockage des modèles
Guide rapide des GPU
RTX 3060
12GB
0,15–0,30 $/jour
TTS, musique, petits modèles
RTX 3090
24GB
0,30–1,00 $/jour
Génération d'images, modèles 32B
RTX 4090
24GB
0,50–2,00 $/jour
Tout jusqu'à 35B, inférence rapide
RTX 5090
32GB
1,50–3,00 $/jour
70B quantifié, le plus rapide
A100 80GB
80GB
2,00–4,00 $/jour
70B FP16, entraînement sérieux
H100 80GB
80GB
3,00–6,00 $/jour
Modèles MoE 400B+
Étape 3 : Déployer
Cliquez Louer sur le serveur choisi, puis configurez :
Type de commande : À la demande (garanti) ou Spot (30–50 % moins cher, peut être interrompu)
Image Docker : Voir les recettes ci-dessous
Ports : Inclure toujours
22/tcp(SSH) + le port de votre applicationEnvironnement : Ajoutez toutes les clés API nécessaires
🚀 Recettes en un clic
Chatter avec l'IA (Ollama + Open WebUI)
La façon la plus simple d'exécuter de l'IA locale — interface type ChatGPT avec n'importe quel modèle ouvert.
Après le déploiement, ouvrez l'URL HTTP → créez un compte → choisissez un modèle (Llama 4 Scout, Gemma 3, Qwen3.5) → discutez !
Génération d'images (ComfyUI)
Flux de travail basé sur des nœuds pour FLUX, Stable Diffusion, et plus.
Génération d'images (Stable Diffusion WebUI)
Interface classique pour Stable Diffusion, SDXL et SD 3.5.
Serveur API LLM (vLLM)
Mise en service de niveau production avec une API compatible OpenAI.
Génération de musique (ACE-Step)
Générez des chansons complètes avec voix — fonctionne sur n'importe quel GPU 4GB+ !
Connectez-vous en SSH, puis :
Étape 4 : Se connecter
Après le démarrage de votre commande :
Aller à Mes commandes → trouvez votre commande active
Interface Web : Cliquez sur l'URL HTTP (par ex.,
https://xxx.clorecloud.net)SSH :
ssh -p <port> root@<adresse-proxy>
Le premier lancement prend 5–20 minutes — le serveur télécharge les modèles d'IA depuis HuggingFace. Les erreurs HTTP 502 pendant ce temps sont normales. Attendez et actualisez.
Ollama + Open WebUI
3–5 min
ComfyUI
10–15 min
vLLM
5–15 min (dépend de la taille du modèle)
SD WebUI
10–20 min
Étape 5 : Commencer à créer
Une fois votre service en cours d'exécution, consultez les guides pour votre cas d'utilisation spécifique :
🤖 Modèles de langage (Chat, Code, Raisonnement)
Ollama — gestion de modèles la plus simple
Llama 4 Scout — le dernier de Meta, 10M de contexte
Gemma 3 — le 27B de Google qui bat des modèles 405B
Qwen3.5 — a battu Claude 4.5 en mathématiques (févr. 2026 !)
DeepSeek-R1 — raisonnement en chaîne de pensée
vLLM — service API de production
🎨 Génération d'images
FLUX.2 Klein — < 0,5 s par image !
ComfyUI — flux de travail basé sur des nœuds
FLUX.1 — qualité la plus élevée avec LoRA + ControlNet
Stable Diffusion 3.5 — meilleur rendu du texte
🎬 Génération vidéo
FramePack — seulement 6GB de VRAM requis !
Wan2.1 — T2V + I2V de haute qualité
LTX-2 — vidéo AVEC audio
CogVideoX — le modèle vidéo de Zhipu AI
🔊 Audio & Voix
Qwen3-TTS — clonage vocal, 10+ langues
WhisperX — transcription + diarisation des intervenants
Dia TTS — dialogue multi-intervenants
Kokoro — petit TTS, seulement 2GB de VRAM
🎵 Musique
ACE-Step — chansons complètes sur < 4GB de VRAM
💻 Codage IA
🧠 Entraînement
💡 Conseils pour débutants
Commencez avec Ollama — c'est la façon la plus simple d'essayer l'IA localement
Le RTX 4090 est le point idéal — gère 90 % des cas d'utilisation à 0,50–2 $/jour
Utilisez les commandes Spot pour les expériences — 30–50 % moins cher
Utilisez On-Demand pour le travail important — garanti, sans interruptions
Téléchargez vos résultats avant la fin de la commande — les fichiers sont supprimés après
Payez avec le token CLORE — souvent des tarifs meilleurs qu'avec les stablecoins
Vérifiez la RAM et le réseau — une faible RAM est la cause n°1 des échecs
Dépannage
HTTP 502 pendant longtemps
Attendez 10–20 min pour le premier démarrage ; vérifiez RAM ≥ 16GB
Le service ne démarre pas
RAM trop faible (nécessite 16GB+) ou VRAM trop petite pour le modèle
Téléchargement lent du modèle
Normal lors du premier lancement ; préférez des serveurs 500Mbps+
CUDA out of memory
Utilisez un modèle plus petit ou un GPU plus grand ; essayez des versions quantifiées
Impossible de SSH
Vérifiez que le port est 22/tcp dans la config ; attendez que le serveur soit complètement démarré
🐍 SDK Python & CLI (recommandé)
Vous préférez coder plutôt que cliquer ? Installez le SDK officiel :
Ou utilisez Python directement :
→ Démarrage rapide complet en Python | Guide du SDK | Automatisation CLI
Besoin d'aide ?
Mis à jour
Ce contenu vous a-t-il été utile ?