Schnellstart

circle-check

Schritt 1: Konto erstellen & Geld einzahlen

  1. Gehe zu clore.aiarrow-up-rightRegistrieren

  2. Bestätige deine E-Mail

  3. Gehe zu KontoEinzahlung

  4. Füge Mittel hinzu über CLORE, BTC, USDT, oder USDC (mindestens ~5 $ zum Start)

Schritt 2: Wähle eine GPU

Gehe zum Marktplatzarrow-up-right und wähle je nach Aufgabe:

Was ich tun möchte
Minimale GPU
Budget/Tag

Mit KI chatten (7B-Modelle)

RTX 3060 12GB

~$0.15

Mit KI chatten (32B-Modelle)

RTX 4090 24GB

~$0.50

Bilder generieren (FLUX)

RTX 3090 24GB

~$0.30

Videos generieren

RTX 4090 24GB

~$0.50

Musik generieren

Beliebige GPU 4GB+

~$0.15

Stimmenklonen / TTS

RTX 3060 6GB+

~$0.15

Audio transkribieren

RTX 3060 8GB+

~$0.15

Ein Modell feinabstimmen

RTX 4090 24GB

~$0.50

70B+ Modelle ausführen

A100 80GB

~$2.00

triangle-exclamation

Schnelle GPU-Anleitung

GPU
VRAM
Preis
Sweet Spot für

RTX 3060

12GB

0,15–0,30 $/Tag

TTS, Musik, kleine Modelle

RTX 3090

24GB

0,30–1,00 $/Tag

Bildgenerierung, 32B-Modelle

RTX 4090

24GB

0,50–2,00 $/Tag

Alles bis 35B, schnelle Inferenz

RTX 5090

32GB

1,50–3,00 $/Tag

70B quantisiert, am schnellsten

A100 80GB

80GB

2,00–4,00 $/Tag

70B FP16, ernsthaftes Training

H100 80GB

80GB

3,00–6,00 $/Tag

400B+ MoE-Modelle

Schritt 3: Bereitstellen

Klicke Mieten bei deinem gewählten Server, dann konfiguriere:

  • Bestelltyp: On-Demand (garantiert) oder Spot (30–50 % günstiger, kann unterbrochen werden)

  • Docker-Image: Siehe Rezepte unten

  • Ports: Immer einschließen 22/tcp (SSH) + dein App-Port

  • Umgebung: Füge alle benötigten API-Keys hinzu

🚀 Ein-Klick-Rezepte

Mit KI chatten (Ollama + Open WebUI)

Der einfachste Weg, lokale KI auszuführen — ChatGPT-ähnliche Oberfläche mit jedem offenen Modell.

Nach der Bereitstellung öffne die HTTP-URL → Konto erstellen → ein Modell wählen (Llama 4 Scout, Gemma 3, Qwen3.5) → chatten!

Bildgenerierung (ComfyUI)

Node-basierter Workflow für FLUX, Stable Diffusion und mehr.

Bildgenerierung (Stable Diffusion WebUI)

Klassische Oberfläche für Stable Diffusion, SDXL und SD 3.5.

LLM API Server (vLLM)

Produktionsreife Bereitstellung mit OpenAI-kompatibler API.

Musikgenerierung (ACE-Step)

Erzeuge komplette Songs mit Gesang — funktioniert auf jeder GPU mit 4GB+!

Per SSH einloggen, dann:

Schritt 4: Verbinden

Nachdem deine Bestellung gestartet ist:

  1. Gehe zu Meine Bestellungen → finde deine aktive Bestellung

  2. Web UI: Klicke die HTTP-URL (z. B., https://xxx.clorecloud.net)

  3. SSH: ssh -p <port> root@<proxy-address>

circle-exclamation
Bereitstellen
Typischer Startvorgang

Ollama + Open WebUI

3–5 min

ComfyUI

10–15 min

vLLM

5–15 min (abhängig von der Modellgröße)

SD WebUI

10–20 min

Schritt 5: Beginne zu erstellen

Sobald dein Service läuft, erkunde die Guides für deinen speziellen Anwendungsfall:

🤖 Sprachmodelle (Chat, Code, Schlussfolgerungen)

  • Ollama — einfachstes Modellmanagement

  • Llama 4 Scout — Metas neuestes, 10M Kontext

  • Gemma 3 — Googles 27B, das 405B-Modelle schlägt

  • Qwen3.5 — schlug Claude 4.5 in Mathe (Feb 2026!)

  • DeepSeek-R1 — Chain-of-Thought-Reasoning

  • vLLM — Produktions-API-Bereitstellung

🎨 Bildgenerierung

🎬 Videogenerierung

🔊 Audio & Stimme

  • Qwen3-TTS — Stimmenklonen, 10+ Sprachen

  • WhisperX — Transkription + Sprecher-Diarisation

  • Dia TTS — Mehrsprecher-Dialog

  • Kokoro — winzige TTS, nur 2GB VRAM

🎵 Musik

  • ACE-Step — komplette Songs mit < 4GB VRAM

💻 KI-Coding

  • TabbyML — selbstgehosteter Copilot für 4,50 $/Monat

  • Aider — Terminal-KI-Coding-Assistent

🧠 Training

  • Unsloth — 2x schneller, 70% weniger VRAM

  • Axolotl — YAML-basierte Feinabstimmung

💡 Tipps für Anfänger

  1. Fange mit Ollama an — es ist der einfachste Weg, KI lokal auszuprobieren

  2. RTX 4090 ist der Sweet Spot — deckt 90 % der Anwendungsfälle für 0,50–2 $/Tag ab

  3. Verwende Spot-Bestellungen für Experimente — 30–50 % günstiger

  4. Verwende On-Demand für wichtige Arbeiten — garantiert, keine Unterbrechungen

  5. Lade deine Ergebnisse herunter bevor die Bestellung endet — Dateien werden danach gelöscht

  6. Zahle mit dem CLORE-Token — oft bessere Tarife als Stablecoins

  7. Prüfe RAM und Netzwerk — zu wenig RAM ist die Hauptursache für Fehler

Fehlerbehebung

Problem
Lösung

HTTP 502 über längere Zeit

Warte 10–20 Min. beim ersten Start; prüfe RAM ≥ 16GB

Dienst startet nicht

RAM zu niedrig (mind. 16GB) oder VRAM zu klein für das Modell

Langsamer Modelldownload

Normal beim ersten Lauf; vorzugsweise Server mit 500Mbps+ wählen

CUDA: nicht genug Speicher

Verwende ein kleineres Modell oder eine größere GPU; versuche quantisierte Versionen

Kein SSH möglich

Prüfe, ob der Port 22/tcp in der Konfiguration ist; warte, bis der Server vollständig gestartet ist

🐍 Python SDK & CLI (Empfohlen)

Bevorzugst du Code statt Klicken? Installiere das offizielle SDK:

Oder nutze Python direkt:

Vollständiges Python-Quickstart | SDK-Anleitung | CLI-Automatisierung

Brauchst du Hilfe?

Zuletzt aktualisiert

War das hilfreich?