Démarrage rapide
Aucune expérience préalable en GPU ou en IA nécessaire. Ce guide vous amène de zéro à l'exécution d'IA en 5 minutes.
Étape 1 : Créer un compte et ajouter des fonds
Aller à la clore.ai → S'inscrire
Vérifiez votre email
Aller à la Compte → Dépôt
Ajouter des fonds via CLORE, BTC, USDT, ou USDC (minimum ~5 $ pour commencer)
Étape 2 : Choisir un GPU
Aller à Place de marché et choisir en fonction de votre tâche :
Discuter avec l'IA (modèles 7B)
RTX 3060 12GB
~$0.15
Discuter avec l'IA (modèles 32B)
RTX 4090 24GB
~$0.50
Générer des images (FLUX)
RTX 3090 24GB
~$0.30
Générer des vidéos
RTX 4090 24GB
~$0.50
Générer de la musique
N'importe quel GPU 4GB+
~$0.15
Clonage de voix / TTS
RTX 3060 6GB+
~$0.15
Transcrire de l'audio
RTX 3060 8GB+
~$0.15
Affiner un modèle
RTX 4090 24GB
~$0.50
Exécuter des modèles 70B+
A100 80GB
~$2.00
Important — vérifiez plus que le GPU !
RAM : 16 Go+ minimum pour la plupart des charges IA
Réseau : 500 Mbps+ recommandé (les modèles se téléchargent depuis HuggingFace)
Disque : 50 Go+ d'espace libre pour le stockage des modèles
Guide rapide du GPU
RTX 3060
12Go
0,15–0,30 $/jour
TTS, musique, petits modèles
RTX 3090
24 Go
0,30–1,00 $/jour
Génération d'images, modèles 32B
RTX 4090
24 Go
0,50–2,00 $/jour
Tout jusqu'à 35B, inférence rapide
RTX 5090
32Go
1,50–3,00 $/jour
70B quantifié, le plus rapide
A100 80GB
80GB
2,00–4,00 $/jour
70B FP16, entraînement sérieux
H100 80GB
80GB
3,00–6,00 $/jour
Modèles MoE 400B+
Étape 3 : Déployer
Cliquez Louer sur le serveur choisi, puis configurer :
Type de commande : À la demande (garanti) ou Spot (30–50 % moins cher, peut être interrompu)
Image Docker : Voir les recettes ci-dessous
Ports : Inclure toujours
22/tcp(SSH) + le port de votre applicationEnvironnement : Ajouter toutes les clés API nécessaires
🚀 Recettes en un clic
Discuter avec l'IA (Ollama + Open WebUI)
La façon la plus simple d'exécuter l'IA locale — interface de type ChatGPT avec n'importe quel modèle ouvert.
Après le déploiement, ouvrez l'URL HTTP → créez un compte → choisissez un modèle (Llama 4 Scout, Gemma 3, Qwen3.5) → discutez !
Génération d'images (ComfyUI)
Flux de travail basé sur des nœuds pour FLUX, Stable Diffusion, et plus.
Génération d'images (Stable Diffusion WebUI)
Interface classique pour Stable Diffusion, SDXL et SD 3.5.
Serveur API LLM (vLLM)
Service de production avec API compatible OpenAI.
Génération de musique (ACE-Step)
Générez des chansons complètes avec chant — fonctionne sur n'importe quel GPU 4GB+ !
Connectez-vous en SSH, puis :
Étape 4 : Se connecter
Après le démarrage de votre commande :
Aller à la Mes commandes → trouvez votre commande active
Interface Web : Cliquez sur l'URL HTTP (par ex.,
https://xxx.clorecloud.net)SSH :
ssh -p <port> root@<adresse-proxy>
Le premier lancement prend 5–20 minutes — le serveur télécharge les modèles d'IA depuis HuggingFace. Les erreurs HTTP 502 pendant ce temps sont normales. Attendez et actualisez.
Ollama + Open WebUI
3–5 min
ComfyUI
10–15 min
vLLM
5–15 min (dépend de la taille du modèle)
SD WebUI
10–20 min
Étape 5 : Commencer à créer
Une fois votre service en cours d'exécution, explorez les guides pour votre cas d'utilisation spécifique :
🤖 Modèles de langage (Chat, Code, Raisonnement)
composant Ollama — gestion des modèles la plus simple
Llama 4 Scout — le dernier de Meta, contexte 10M
Gemma 3 — le 27B de Google qui bat des modèles 405B
Qwen3.5 — a battu Claude 4.5 en mathématiques (févr. 2026 !)
DeepSeek-R1 — raisonnement en chaîne de pensée
vLLM — service API de production
🎨 Génération d'images
FLUX.2 Klein — < 0,5 s par image !
ComfyUI — flux de travail basés sur des nœuds
FLUX.1 — meilleure qualité avec LoRA + ControlNet
Stable Diffusion 3.5 — meilleur rendu du texte
🎬 Génération vidéo
FramePack — seulement 6 Go de VRAM nécessaires !
Wan2.1 — T2V + I2V de haute qualité
LTX-2 — vidéo AVEC audio
CogVideoX — modèle vidéo de Zhipu AI
🔊 Audio & Voix
Qwen3-TTS — clonage de voix, 10+ langues
WhisperX — transcription + diarisation des locuteurs
Dia TTS — dialogue multi-interlocuteurs
Kokoro — petit TTS, seulement 2 Go de VRAM
🎵 Musique
ACE-Step — chansons complètes sur < 4 Go de VRAM
💻 Codage IA
🧠 Entraînement
💡 Conseils pour les débutants
Commencez avec Ollama — c'est la façon la plus simple d'essayer l'IA localement
La RTX 4090 est le point idéal — gère 90 % des cas d'utilisation à 0,50–2 $/jour
Utilisez des commandes Spot pour des expérimentations — 30–50 % moins cher
Utilisez On-Demand pour un travail important — garanti, sans interruptions
Téléchargez vos résultats avant la fin de la commande — les fichiers sont supprimés après
Payez avec le token CLORE — souvent de meilleurs tarifs que les stablecoins
Vérifiez la RAM et le réseau — une RAM faible est la cause n°1 des échecs
Dépannage
HTTP 502 pendant longtemps
Attendez 10–20 min pour le premier démarrage ; vérifiez RAM ≥ 16 Go
Le service ne démarre pas
RAM trop faible (nécessite 16 Go+) ou VRAM trop petite pour le modèle
Téléchargement lent du modèle
Normal au premier lancement ; privilégiez des serveurs 500 Mbps+
CUDA out of memory
Utilisez un modèle plus petit ou un GPU plus grand ; essayez des versions quantifiées
Impossible de se connecter en SSH
Vérifiez que le port est 22/tcp dans la config ; attendez que le serveur ait complètement démarré
Besoin d'aide ?
Mis à jour
Ce contenu vous a-t-il été utile ?