# Schnellstart

{% hint style="success" %}
Keine vorherige GPU- oder KI-Erfahrung nötig. Dieser Leitfaden bringt dich in 5 Minuten von null dazu, KI laufen zu lassen.
{% endhint %}

## Schritt 1: Konto erstellen & Geld einzahlen

1. Gehe zu [clore.ai](https://clore.ai) → **Registrieren**
2. Bestätige deine E-Mail
3. Gehe zu **Konto** → **Einzahlung**
4. Füge Mittel hinzu über **CLORE**, **BTC**, **USDT**, oder **USDC** (mindestens \~5 $ zum Start)

## Schritt 2: Wähle eine GPU

Gehe zum [Marktplatz](https://clore.ai/marketplace) und wähle je nach Aufgabe:

| Was ich tun möchte           | Minimale GPU       | Budget/Tag |
| ---------------------------- | ------------------ | ---------- |
| Mit KI chatten (7B-Modelle)  | RTX 3060 12GB      | \~$0.15    |
| Mit KI chatten (32B-Modelle) | RTX 4090 24GB      | \~$0.50    |
| Bilder generieren (FLUX)     | RTX 3090 24GB      | \~$0.30    |
| Videos generieren            | RTX 4090 24GB      | \~$0.50    |
| Musik generieren             | Beliebige GPU 4GB+ | \~$0.15    |
| Stimmenklonen / TTS          | RTX 3060 6GB+      | \~$0.15    |
| Audio transkribieren         | RTX 3060 8GB+      | \~$0.15    |
| Ein Modell feinabstimmen     | RTX 4090 24GB      | \~$0.50    |
| 70B+ Modelle ausführen       | A100 80GB          | \~$2.00    |

{% hint style="danger" %}
**Wichtig — prüfe mehr als nur die GPU!**

* **RAM:** Mindestens 16GB für die meisten KI-Workloads
* **Netzwerk:** Empfohlen 500Mbps+ (Modelle werden von HuggingFace heruntergeladen)
* **Festplatte:** 50GB+ freier Speicher für Modellspeicherung
  {% endhint %}

### Schnelle GPU-Anleitung

| GPU           | VRAM | Preis           | Sweet Spot für                   |
| ------------- | ---- | --------------- | -------------------------------- |
| **RTX 3060**  | 12GB | 0,15–0,30 $/Tag | TTS, Musik, kleine Modelle       |
| **RTX 3090**  | 24GB | 0,30–1,00 $/Tag | Bildgenerierung, 32B-Modelle     |
| **RTX 4090**  | 24GB | 0,50–2,00 $/Tag | Alles bis 35B, schnelle Inferenz |
| **RTX 5090**  | 32GB | 1,50–3,00 $/Tag | 70B quantisiert, am schnellsten  |
| **A100 80GB** | 80GB | 2,00–4,00 $/Tag | 70B FP16, ernsthaftes Training   |
| **H100 80GB** | 80GB | 3,00–6,00 $/Tag | 400B+ MoE-Modelle                |

## Schritt 3: Bereitstellen

Klicke **Mieten** bei deinem gewählten Server, dann konfiguriere:

* **Bestelltyp:** On-Demand (garantiert) oder Spot (30–50 % günstiger, kann unterbrochen werden)
* **Docker-Image:** Siehe Rezepte unten
* **Ports:** Immer einschließen `22/tcp` (SSH) + dein App-Port
* **Umgebung:** Füge alle benötigten API-Keys hinzu

### 🚀 Ein-Klick-Rezepte

#### Mit KI chatten (Ollama + Open WebUI)

Der einfachste Weg, lokale KI auszuführen — ChatGPT-ähnliche Oberfläche mit jedem offenen Modell.

```
Image: ghcr.io/open-webui/open-webui:ollama
Ports: 22/tcp, 8080/http
```

Nach der Bereitstellung öffne die HTTP-URL → Konto erstellen → ein Modell wählen (Llama 4 Scout, Gemma 3, Qwen3.5) → chatten!

#### Bildgenerierung (ComfyUI)

Node-basierter Workflow für FLUX, Stable Diffusion und mehr.

```
Image: yanwk/comfyui-boot:cu126-slim
Ports: 22/tcp, 8188/http
Umgebung: CLI_ARGS=--listen 0.0.0.0
```

#### Bildgenerierung (Stable Diffusion WebUI)

Klassische Oberfläche für Stable Diffusion, SDXL und SD 3.5.

```
Image: universonic/stable-diffusion-webui:latest
Ports: 22/tcp, 8080/http
```

#### LLM API Server (vLLM)

Produktionsreife Bereitstellung mit OpenAI-kompatibler API.

```
Image: vllm/vllm-openai:latest
Ports: 22/tcp, 8000/http
Befehl: vllm serve Qwen/Qwen3.5-9B-Instruct --host 0.0.0.0 --max-model-len 8192
```

#### Musikgenerierung (ACE-Step)

Erzeuge komplette Songs mit Gesang — funktioniert auf jeder GPU mit 4GB+!

```
Ports: 22/tcp, 7860/http
```

Per SSH einloggen, dann:

```bash
git clone https://github.com/ACE-Step/ACE-Step-1.5.git && cd ACE-Step-1.5
pip install -r requirements.txt
python app.py --port 7860 --listen 0.0.0.0
```

## Schritt 4: Verbinden

Nachdem deine Bestellung gestartet ist:

1. Gehe zu **Meine Bestellungen** → finde deine aktive Bestellung
2. **Web UI:** Klicke die HTTP-URL (z. B., `https://xxx.clorecloud.net`)
3. **SSH:** `ssh -p <port> root@<proxy-address>`

{% hint style="warning" %}
**Erster Start dauert 5–20 Minuten** — der Server lädt KI-Modelle von HuggingFace herunter. HTTP-502-Fehler in dieser Zeit sind normal. Warten und aktualisieren.
{% endhint %}

| Bereitstellen       | Typischer Startvorgang                  |
| ------------------- | --------------------------------------- |
| Ollama + Open WebUI | 3–5 min                                 |
| ComfyUI             | 10–15 min                               |
| vLLM                | 5–15 min (abhängig von der Modellgröße) |
| SD WebUI            | 10–20 min                               |

## Schritt 5: Beginne zu erstellen

Sobald dein Service läuft, erkunde die Guides für deinen speziellen Anwendungsfall:

### 🤖 Sprachmodelle (Chat, Code, Schlussfolgerungen)

* [**Ollama**](https://docs.clore.ai/guides/guides_v2-de/sprachmodelle/ollama) — einfachstes Modellmanagement
* [**Llama 4 Scout**](https://docs.clore.ai/guides/guides_v2-de/sprachmodelle/llama4) — Metas neuestes, 10M Kontext
* [**Gemma 3**](https://docs.clore.ai/guides/guides_v2-de/sprachmodelle/gemma3) — Googles 27B, das 405B-Modelle schlägt
* [**Qwen3.5**](https://docs.clore.ai/guides/guides_v2-de/sprachmodelle/qwen35) — schlug Claude 4.5 in Mathe (Feb 2026!)
* [**DeepSeek-R1**](https://docs.clore.ai/guides/guides_v2-de/sprachmodelle/deepseek-r1) — Chain-of-Thought-Reasoning
* [**vLLM**](https://docs.clore.ai/guides/guides_v2-de/sprachmodelle/vllm) — Produktions-API-Bereitstellung

### 🎨 Bildgenerierung

* [**FLUX.2 Klein**](https://docs.clore.ai/guides/guides_v2-de/bildgenerierung/flux2-klein) — < 0,5 Sek. pro Bild!
* [**ComfyUI**](https://docs.clore.ai/guides/guides_v2-de/bildgenerierung/comfyui) — node-basierte Workflows
* [**FLUX.1**](https://docs.clore.ai/guides/guides_v2-de/bildgenerierung/flux) — höchste Qualität mit LoRA + ControlNet
* [**Stable Diffusion 3.5**](https://docs.clore.ai/guides/guides_v2-de/bildgenerierung/stable-diffusion-3-5) — beste Textdarstellung

### 🎬 Videogenerierung

* [**FramePack**](https://docs.clore.ai/guides/guides_v2-de/videogenerierung/framepack) — nur 6GB VRAM nötig!
* [**Wan2.1**](https://docs.clore.ai/guides/guides_v2-de/videogenerierung/wan-video) — hochwertige T2V + I2V
* [**LTX-2**](https://docs.clore.ai/guides/guides_v2-de/videogenerierung/ltx-video-2) — Video MIT Audio
* [**CogVideoX**](https://docs.clore.ai/guides/guides_v2-de/videogenerierung/cogvideox) — Zhipu AIs Videomodell

### 🔊 Audio & Stimme

* [**Qwen3-TTS**](https://docs.clore.ai/guides/guides_v2-de/audio-and-stimme/qwen3-tts) — Stimmenklonen, 10+ Sprachen
* [**WhisperX**](https://docs.clore.ai/guides/guides_v2-de/audio-and-stimme/whisperx) — Transkription + Sprecher-Diarisation
* [**Dia TTS**](https://docs.clore.ai/guides/guides_v2-de/audio-and-stimme/dia-tts) — Mehrsprecher-Dialog
* [**Kokoro**](https://docs.clore.ai/guides/guides_v2-de/audio-and-stimme/kokoro-tts) — winzige TTS, nur 2GB VRAM

### 🎵 Musik

* [**ACE-Step**](https://docs.clore.ai/guides/guides_v2-de/musikgenerierung/ace-step) — komplette Songs mit < 4GB VRAM

### 💻 KI-Coding

* [**TabbyML**](https://docs.clore.ai/guides/guides_v2-de/ki-coding-tools/tabby) — selbstgehosteter Copilot für 4,50 $/Monat
* [**Aider**](https://docs.clore.ai/guides/guides_v2-de/ki-coding-tools/aider) — Terminal-KI-Coding-Assistent

### 🧠 Training

* [**Unsloth**](https://docs.clore.ai/guides/guides_v2-de/training/unsloth-finetune) — 2x schneller, 70% weniger VRAM
* [**Axolotl**](https://docs.clore.ai/guides/guides_v2-de/training/axolotl-training) — YAML-basierte Feinabstimmung

## 💡 Tipps für Anfänger

1. **Fange mit Ollama an** — es ist der einfachste Weg, KI lokal auszuprobieren
2. **RTX 4090 ist der Sweet Spot** — deckt 90 % der Anwendungsfälle für 0,50–2 $/Tag ab
3. **Verwende Spot-Bestellungen** für Experimente — 30–50 % günstiger
4. **Verwende On-Demand** für wichtige Arbeiten — garantiert, keine Unterbrechungen
5. **Lade deine Ergebnisse herunter** bevor die Bestellung endet — Dateien werden danach gelöscht
6. **Zahle mit dem CLORE-Token** — oft bessere Tarife als Stablecoins
7. **Prüfe RAM und Netzwerk** — zu wenig RAM ist die Hauptursache für Fehler

## Fehlerbehebung

| Problem                    | Lösung                                                                                                |
| -------------------------- | ----------------------------------------------------------------------------------------------------- |
| HTTP 502 über längere Zeit | Warte 10–20 Min. beim ersten Start; prüfe RAM ≥ 16GB                                                  |
| Dienst startet nicht       | RAM zu niedrig (mind. 16GB) oder VRAM zu klein für das Modell                                         |
| Langsamer Modelldownload   | Normal beim ersten Lauf; vorzugsweise Server mit 500Mbps+ wählen                                      |
| CUDA: nicht genug Speicher | Verwende ein kleineres Modell oder eine größere GPU; versuche quantisierte Versionen                  |
| Kein SSH möglich           | Prüfe, ob der Port `22/tcp` in der Konfiguration ist; warte, bis der Server vollständig gestartet ist |

## 🐍 Python SDK & CLI (Empfohlen)

Bevorzugst du Code statt Klicken? Installiere das offizielle SDK:

```bash
pip install clore-ai
clore search --gpu "RTX 4090" --max-price 5.0
clore deploy 123 --image cloreai/ubuntu22.04-cuda12 --type on-demand --currency bitcoin --ssh-password mypass --port 22:tcp
clore ssh 456
```

Oder nutze Python direkt:

```python
from clore_ai import CloreAI

client = CloreAI()
servers = client.marketplace(gpu="RTX 4090", max_price_usd=5.0)
order = client.create_order(server_id=servers[0].id, image="cloreai/ubuntu22.04-cuda12", type="on-demand", currency="bitcoin")
```

→ [Vollständiges Python-Quickstart](https://docs.clore.ai/guides/guides_v2-de/erste-schritte/python-quickstart) | [SDK-Anleitung](https://docs.clore.ai/guides/guides_v2-de/fortgeschritten/python-sdk) | [CLI-Automatisierung](https://docs.clore.ai/guides/guides_v2-de/fortgeschritten/cli-automation)

## Brauchst du Hilfe?

* 📖 [Vollständiger Troubleshooting-Guide](https://docs.clore.ai/guides/guides_v2-de/erste-schritte/clore-troubleshooting)
* 📊 [GPU-Vergleichsdiagramm](https://docs.clore.ai/guides/guides_v2-de/erste-schritte/gpu-comparison)
* 💰 [Preisreferenz](https://docs.clore.ai/guides/guides_v2-de/erste-schritte/pricing)
* 💬 [Discord](https://discord.com/invite/clore-ai)
* 💬 [Telegram](https://t.me/clorechat)
* 📧 <support@clore.ai>
