# Démarrage rapide

{% hint style="success" %}
Aucune expérience préalable en GPU ou en IA n'est nécessaire. Ce guide vous emmène de zéro à l'exécution d'IA en 5 minutes.
{% endhint %}

## Étape 1 : Créer un compte et ajouter des fonds

1. Aller à [clore.ai](https://clore.ai) → **S'inscrire**
2. Vérifiez votre e-mail
3. Aller à **Compte** → **Dépôt**
4. Ajouter des fonds via **CLORE**, **BTC**, **USDT**, ou **USDC** (minimum \~5 $ pour commencer)

## Étape 2 : Choisir un GPU

Aller au [Marketplace](https://clore.ai/marketplace) et choisissez selon votre tâche :

| Ce que je veux faire            | GPU minimum             | Budget/jour |
| ------------------------------- | ----------------------- | ----------- |
| Chatter avec l'IA (modèles 7B)  | RTX 3060 12GB           | \~$0.15     |
| Chatter avec l'IA (modèles 32B) | RTX 4090 24GB           | \~$0.50     |
| Générer des images (FLUX)       | RTX 3090 24GB           | \~$0.30     |
| Générer des vidéos              | RTX 4090 24GB           | \~$0.50     |
| Générer de la musique           | N'importe quel GPU 4GB+ | \~$0.15     |
| Clonage vocal / TTS             | RTX 3060 6GB+           | \~$0.15     |
| Transcrire l'audio              | RTX 3060 8GB+           | \~$0.15     |
| Affiner un modèle               | RTX 4090 24GB           | \~$0.50     |
| Exécuter des modèles 70B+       | A100 80GB               | \~$2.00     |

{% hint style="danger" %}
**Important — vérifiez plus que le GPU !**

* **RAM :** 16GB+ minimum pour la plupart des charges d'IA
* **Réseau :** 500Mbps+ recommandé (les modèles sont téléchargés depuis HuggingFace)
* **Disque :** 50GB+ d'espace libre pour le stockage des modèles
  {% endhint %}

### Guide rapide des GPU

| GPU           | VRAM | Prix             | Point idéal pour                   |
| ------------- | ---- | ---------------- | ---------------------------------- |
| **RTX 3060**  | 12GB | 0,15–0,30 $/jour | TTS, musique, petits modèles       |
| **RTX 3090**  | 24GB | 0,30–1,00 $/jour | Génération d'images, modèles 32B   |
| **RTX 4090**  | 24GB | 0,50–2,00 $/jour | Tout jusqu'à 35B, inférence rapide |
| **RTX 5090**  | 32GB | 1,50–3,00 $/jour | 70B quantifié, le plus rapide      |
| **A100 80GB** | 80GB | 2,00–4,00 $/jour | 70B FP16, entraînement sérieux     |
| **H100 80GB** | 80GB | 3,00–6,00 $/jour | Modèles MoE 400B+                  |

## Étape 3 : Déployer

Cliquez **Louer** sur le serveur choisi, puis configurez :

* **Type de commande :** À la demande (garanti) ou Spot (30–50 % moins cher, peut être interrompu)
* **Image Docker :** Voir les recettes ci-dessous
* **Ports :** Inclure toujours `22/tcp` (SSH) + le port de votre application
* **Environnement :** Ajoutez toutes les clés API nécessaires

### 🚀 Recettes en un clic

#### Chatter avec l'IA (Ollama + Open WebUI)

La façon la plus simple d'exécuter de l'IA locale — interface type ChatGPT avec n'importe quel modèle ouvert.

```
Image : ghcr.io/open-webui/open-webui:ollama
Ports : 22/tcp, 8080/http
```

Après le déploiement, ouvrez l'URL HTTP → créez un compte → choisissez un modèle (Llama 4 Scout, Gemma 3, Qwen3.5) → discutez !

#### Génération d'images (ComfyUI)

Flux de travail basé sur des nœuds pour FLUX, Stable Diffusion, et plus.

```
Image : yanwk/comfyui-boot:cu126-slim
Ports : 22/tcp, 8188/http
Environnement : CLI_ARGS=--listen 0.0.0.0
```

#### Génération d'images (Stable Diffusion WebUI)

Interface classique pour Stable Diffusion, SDXL et SD 3.5.

```
Image : universonic/stable-diffusion-webui:latest
Ports : 22/tcp, 8080/http
```

#### Serveur API LLM (vLLM)

Mise en service de niveau production avec une API compatible OpenAI.

```
Image : vllm/vllm-openai:latest
Ports : 22/tcp, 8000/http
Commande : vllm serve Qwen/Qwen3.5-9B-Instruct --host 0.0.0.0 --max-model-len 8192
```

#### Génération de musique (ACE-Step)

Générez des chansons complètes avec voix — fonctionne sur n'importe quel GPU 4GB+ !

```
Ports : 22/tcp, 7860/http
```

Connectez-vous en SSH, puis :

```bash
git clone https://github.com/ACE-Step/ACE-Step-1.5.git && cd ACE-Step-1.5
pip install -r requirements.txt
python app.py --port 7860 --listen 0.0.0.0
```

## Étape 4 : Se connecter

Après le démarrage de votre commande :

1. Aller à **Mes commandes** → trouvez votre commande active
2. **Interface Web :** Cliquez sur l'URL HTTP (par ex., `https://xxx.clorecloud.net`)
3. **SSH :** `ssh -p <port> root@<adresse-proxy>`

{% hint style="warning" %}
**Le premier lancement prend 5–20 minutes** — le serveur télécharge les modèles d'IA depuis HuggingFace. Les erreurs HTTP 502 pendant ce temps sont normales. Attendez et actualisez.
{% endhint %}

| Déployer            | Démarrage typique                        |
| ------------------- | ---------------------------------------- |
| Ollama + Open WebUI | 3–5 min                                  |
| ComfyUI             | 10–15 min                                |
| vLLM                | 5–15 min (dépend de la taille du modèle) |
| SD WebUI            | 10–20 min                                |

## Étape 5 : Commencer à créer

Une fois votre service en cours d'exécution, consultez les guides pour votre cas d'utilisation spécifique :

### 🤖 Modèles de langage (Chat, Code, Raisonnement)

* [**Ollama**](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/ollama) — gestion de modèles la plus simple
* [**Llama 4 Scout**](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/llama4) — le dernier de Meta, 10M de contexte
* [**Gemma 3**](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/gemma3) — le 27B de Google qui bat des modèles 405B
* [**Qwen3.5**](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/qwen35) — a battu Claude 4.5 en mathématiques (févr. 2026 !)
* [**DeepSeek-R1**](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/deepseek-r1) — raisonnement en chaîne de pensée
* [**vLLM**](https://docs.clore.ai/guides/guides_v2-fr/modeles-de-langage/vllm) — service API de production

### 🎨 Génération d'images

* [**FLUX.2 Klein**](https://docs.clore.ai/guides/guides_v2-fr/generation-dimages/flux2-klein) — < 0,5 s par image !
* [**ComfyUI**](https://docs.clore.ai/guides/guides_v2-fr/generation-dimages/comfyui) — flux de travail basé sur des nœuds
* [**FLUX.1**](https://docs.clore.ai/guides/guides_v2-fr/generation-dimages/flux) — qualité la plus élevée avec LoRA + ControlNet
* [**Stable Diffusion 3.5**](https://docs.clore.ai/guides/guides_v2-fr/generation-dimages/stable-diffusion-3-5) — meilleur rendu du texte

### 🎬 Génération vidéo

* [**FramePack**](https://docs.clore.ai/guides/guides_v2-fr/generation-video/framepack) — seulement 6GB de VRAM requis !
* [**Wan2.1**](https://docs.clore.ai/guides/guides_v2-fr/generation-video/wan-video) — T2V + I2V de haute qualité
* [**LTX-2**](https://docs.clore.ai/guides/guides_v2-fr/generation-video/ltx-video-2) — vidéo AVEC audio
* [**CogVideoX**](https://docs.clore.ai/guides/guides_v2-fr/generation-video/cogvideox) — le modèle vidéo de Zhipu AI

### 🔊 Audio & Voix

* [**Qwen3-TTS**](https://docs.clore.ai/guides/guides_v2-fr/audio-et-voix/qwen3-tts) — clonage vocal, 10+ langues
* [**WhisperX**](https://docs.clore.ai/guides/guides_v2-fr/audio-et-voix/whisperx) — transcription + diarisation des intervenants
* [**Dia TTS**](https://docs.clore.ai/guides/guides_v2-fr/audio-et-voix/dia-tts) — dialogue multi-intervenants
* [**Kokoro**](https://docs.clore.ai/guides/guides_v2-fr/audio-et-voix/kokoro-tts) — petit TTS, seulement 2GB de VRAM

### 🎵 Musique

* [**ACE-Step**](https://docs.clore.ai/guides/guides_v2-fr/generation-musicale/ace-step) — chansons complètes sur < 4GB de VRAM

### 💻 Codage IA

* [**TabbyML**](https://docs.clore.ai/guides/guides_v2-fr/outils-de-codage-ia/tabby) — Copilot auto-hébergé pour 4,50 $/mois
* [**Aider**](https://docs.clore.ai/guides/guides_v2-fr/outils-de-codage-ia/aider) — assistant de codage IA en terminal

### 🧠 Entraînement

* [**Unsloth**](https://docs.clore.ai/guides/guides_v2-fr/entrainement/unsloth-finetune) — 2x plus rapide, 70 % moins de VRAM
* [**Axolotl**](https://docs.clore.ai/guides/guides_v2-fr/entrainement/axolotl-training) — fine-tuning basé sur YAML

## 💡 Conseils pour débutants

1. **Commencez avec Ollama** — c'est la façon la plus simple d'essayer l'IA localement
2. **Le RTX 4090 est le point idéal** — gère 90 % des cas d'utilisation à 0,50–2 $/jour
3. **Utilisez les commandes Spot** pour les expériences — 30–50 % moins cher
4. **Utilisez On-Demand** pour le travail important — garanti, sans interruptions
5. **Téléchargez vos résultats** avant la fin de la commande — les fichiers sont supprimés après
6. **Payez avec le token CLORE** — souvent des tarifs meilleurs qu'avec les stablecoins
7. **Vérifiez la RAM et le réseau** — une faible RAM est la cause n°1 des échecs

## Dépannage

| Problème                      | Solution                                                                                             |
| ----------------------------- | ---------------------------------------------------------------------------------------------------- |
| HTTP 502 pendant longtemps    | Attendez 10–20 min pour le premier démarrage ; vérifiez RAM ≥ 16GB                                   |
| Le service ne démarre pas     | RAM trop faible (nécessite 16GB+) ou VRAM trop petite pour le modèle                                 |
| Téléchargement lent du modèle | Normal lors du premier lancement ; préférez des serveurs 500Mbps+                                    |
| CUDA out of memory            | Utilisez un modèle plus petit ou un GPU plus grand ; essayez des versions quantifiées                |
| Impossible de SSH             | Vérifiez que le port est `22/tcp` dans la config ; attendez que le serveur soit complètement démarré |

## 🐍 SDK Python & CLI (recommandé)

Vous préférez coder plutôt que cliquer ? Installez le SDK officiel :

```bash
pip install clore-ai
clore search --gpu "RTX 4090" --max-price 5.0
clore deploy 123 --image cloreai/ubuntu22.04-cuda12 --type on-demand --currency bitcoin --ssh-password mypass --port 22:tcp
clore ssh 456
```

Ou utilisez Python directement :

```python
from clore_ai import CloreAI

client = CloreAI()
servers = client.marketplace(gpu="RTX 4090", max_price_usd=5.0)
order = client.create_order(server_id=servers[0].id, image="cloreai/ubuntu22.04-cuda12", type="on-demand", currency="bitcoin")
```

→ [Démarrage rapide complet en Python](https://docs.clore.ai/guides/guides_v2-fr/pour-commencer/python-quickstart) | [Guide du SDK](https://docs.clore.ai/guides/guides_v2-fr/avance/python-sdk) | [Automatisation CLI](https://docs.clore.ai/guides/guides_v2-fr/avance/cli-automation)

## Besoin d'aide ?

* 📖 [Guide complet de dépannage](https://docs.clore.ai/guides/guides_v2-fr/pour-commencer/clore-troubleshooting)
* 📊 [Tableau comparatif des GPU](https://docs.clore.ai/guides/guides_v2-fr/pour-commencer/gpu-comparison)
* 💰 [Référence des prix](https://docs.clore.ai/guides/guides_v2-fr/pour-commencer/pricing)
* 💬 [Discord](https://discord.com/invite/clore-ai)
* 💬 [Telegram](https://t.me/clorechat)
* 📧 <support@clore.ai>
