Démarrage rapide

circle-check

Étape 1 : Créer un compte et ajouter des fonds

  1. Aller à la clore.aiarrow-up-rightS'inscrire

  2. Vérifiez votre email

  3. Aller à la CompteDépôt

  4. Ajouter des fonds via CLORE, BTC, USDT, ou USDC (minimum ~5 $ pour commencer)

Étape 2 : Choisir un GPU

Aller à Place de marchéarrow-up-right et choisir en fonction de votre tâche :

Ce que je veux faire
GPU minimum
Budget / jour

Discuter avec l'IA (modèles 7B)

RTX 3060 12GB

~$0.15

Discuter avec l'IA (modèles 32B)

RTX 4090 24GB

~$0.50

Générer des images (FLUX)

RTX 3090 24GB

~$0.30

Générer des vidéos

RTX 4090 24GB

~$0.50

Générer de la musique

N'importe quel GPU 4GB+

~$0.15

Clonage de voix / TTS

RTX 3060 6GB+

~$0.15

Transcrire de l'audio

RTX 3060 8GB+

~$0.15

Affiner un modèle

RTX 4090 24GB

~$0.50

Exécuter des modèles 70B+

A100 80GB

~$2.00

triangle-exclamation

Guide rapide du GPU

GPU
VRAM
Prix
Point idéal pour

RTX 3060

12Go

0,15–0,30 $/jour

TTS, musique, petits modèles

RTX 3090

24 Go

0,30–1,00 $/jour

Génération d'images, modèles 32B

RTX 4090

24 Go

0,50–2,00 $/jour

Tout jusqu'à 35B, inférence rapide

RTX 5090

32Go

1,50–3,00 $/jour

70B quantifié, le plus rapide

A100 80GB

80GB

2,00–4,00 $/jour

70B FP16, entraînement sérieux

H100 80GB

80GB

3,00–6,00 $/jour

Modèles MoE 400B+

Étape 3 : Déployer

Cliquez Louer sur le serveur choisi, puis configurer :

  • Type de commande : À la demande (garanti) ou Spot (30–50 % moins cher, peut être interrompu)

  • Image Docker : Voir les recettes ci-dessous

  • Ports : Inclure toujours 22/tcp (SSH) + le port de votre application

  • Environnement : Ajouter toutes les clés API nécessaires

🚀 Recettes en un clic

Discuter avec l'IA (Ollama + Open WebUI)

La façon la plus simple d'exécuter l'IA locale — interface de type ChatGPT avec n'importe quel modèle ouvert.

Après le déploiement, ouvrez l'URL HTTP → créez un compte → choisissez un modèle (Llama 4 Scout, Gemma 3, Qwen3.5) → discutez !

Génération d'images (ComfyUI)

Flux de travail basé sur des nœuds pour FLUX, Stable Diffusion, et plus.

Génération d'images (Stable Diffusion WebUI)

Interface classique pour Stable Diffusion, SDXL et SD 3.5.

Serveur API LLM (vLLM)

Service de production avec API compatible OpenAI.

Génération de musique (ACE-Step)

Générez des chansons complètes avec chant — fonctionne sur n'importe quel GPU 4GB+ !

Connectez-vous en SSH, puis :

Étape 4 : Se connecter

Après le démarrage de votre commande :

  1. Aller à la Mes commandes → trouvez votre commande active

  2. Interface Web : Cliquez sur l'URL HTTP (par ex., https://xxx.clorecloud.net)

  3. SSH : ssh -p <port> root@<adresse-proxy>

circle-exclamation
Déployer
Démarrage typique

Ollama + Open WebUI

3–5 min

ComfyUI

10–15 min

vLLM

5–15 min (dépend de la taille du modèle)

SD WebUI

10–20 min

Étape 5 : Commencer à créer

Une fois votre service en cours d'exécution, explorez les guides pour votre cas d'utilisation spécifique :

🤖 Modèles de langage (Chat, Code, Raisonnement)

  • composant Ollama — gestion des modèles la plus simple

  • Llama 4 Scout — le dernier de Meta, contexte 10M

  • Gemma 3 — le 27B de Google qui bat des modèles 405B

  • Qwen3.5 — a battu Claude 4.5 en mathématiques (févr. 2026 !)

  • DeepSeek-R1 — raisonnement en chaîne de pensée

  • vLLM — service API de production

🎨 Génération d'images

🎬 Génération vidéo

  • FramePack — seulement 6 Go de VRAM nécessaires !

  • Wan2.1 — T2V + I2V de haute qualité

  • LTX-2 — vidéo AVEC audio

  • CogVideoX — modèle vidéo de Zhipu AI

🔊 Audio & Voix

  • Qwen3-TTS — clonage de voix, 10+ langues

  • WhisperX — transcription + diarisation des locuteurs

  • Dia TTS — dialogue multi-interlocuteurs

  • Kokoro — petit TTS, seulement 2 Go de VRAM

🎵 Musique

  • ACE-Step — chansons complètes sur < 4 Go de VRAM

💻 Codage IA

  • TabbyML — Copilot auto-hébergé pour 4,50 $/mois

  • Aider — assistant de codage IA en terminal

🧠 Entraînement

  • Unsloth — 2x plus rapide, 70 % moins de VRAM

  • Axolotl — fine-tuning basé sur YAML

💡 Conseils pour les débutants

  1. Commencez avec Ollama — c'est la façon la plus simple d'essayer l'IA localement

  2. La RTX 4090 est le point idéal — gère 90 % des cas d'utilisation à 0,50–2 $/jour

  3. Utilisez des commandes Spot pour des expérimentations — 30–50 % moins cher

  4. Utilisez On-Demand pour un travail important — garanti, sans interruptions

  5. Téléchargez vos résultats avant la fin de la commande — les fichiers sont supprimés après

  6. Payez avec le token CLORE — souvent de meilleurs tarifs que les stablecoins

  7. Vérifiez la RAM et le réseau — une RAM faible est la cause n°1 des échecs

Dépannage

Problème
Solution

HTTP 502 pendant longtemps

Attendez 10–20 min pour le premier démarrage ; vérifiez RAM ≥ 16 Go

Le service ne démarre pas

RAM trop faible (nécessite 16 Go+) ou VRAM trop petite pour le modèle

Téléchargement lent du modèle

Normal au premier lancement ; privilégiez des serveurs 500 Mbps+

CUDA out of memory

Utilisez un modèle plus petit ou un GPU plus grand ; essayez des versions quantifiées

Impossible de se connecter en SSH

Vérifiez que le port est 22/tcp dans la config ; attendez que le serveur ait complètement démarré

Besoin d'aide ?

Mis à jour

Ce contenu vous a-t-il été utile ?