Schnellstart
Keine vorherige GPU- oder KI-Erfahrung nötig. Dieser Leitfaden bringt dich in 5 Minuten von null dazu, KI laufen zu lassen.
Schritt 1: Konto erstellen & Geld einzahlen
Gehe zu clore.ai → Registrieren
Bestätige deine E-Mail
Gehe zu Konto → Einzahlung
Füge Mittel hinzu über CLORE, BTC, USDT, oder USDC (mindestens ~5 $ zum Start)
Schritt 2: Wähle eine GPU
Gehe zum Marktplatz und wähle je nach Aufgabe:
Mit KI chatten (7B-Modelle)
RTX 3060 12GB
~$0.15
Mit KI chatten (32B-Modelle)
RTX 4090 24GB
~$0.50
Bilder generieren (FLUX)
RTX 3090 24GB
~$0.30
Videos generieren
RTX 4090 24GB
~$0.50
Musik generieren
Beliebige GPU 4GB+
~$0.15
Stimmenklonen / TTS
RTX 3060 6GB+
~$0.15
Audio transkribieren
RTX 3060 8GB+
~$0.15
Ein Modell feinabstimmen
RTX 4090 24GB
~$0.50
70B+ Modelle ausführen
A100 80GB
~$2.00
Wichtig — prüfe mehr als nur die GPU!
RAM: Mindestens 16GB für die meisten KI-Workloads
Netzwerk: Empfohlen 500Mbps+ (Modelle werden von HuggingFace heruntergeladen)
Festplatte: 50GB+ freier Speicher für Modellspeicherung
Schnelle GPU-Anleitung
RTX 3060
12GB
0,15–0,30 $/Tag
TTS, Musik, kleine Modelle
RTX 3090
24GB
0,30–1,00 $/Tag
Bildgenerierung, 32B-Modelle
RTX 4090
24GB
0,50–2,00 $/Tag
Alles bis 35B, schnelle Inferenz
RTX 5090
32GB
1,50–3,00 $/Tag
70B quantisiert, am schnellsten
A100 80GB
80GB
2,00–4,00 $/Tag
70B FP16, ernsthaftes Training
H100 80GB
80GB
3,00–6,00 $/Tag
400B+ MoE-Modelle
Schritt 3: Bereitstellen
Klicke Mieten bei deinem gewählten Server, dann konfiguriere:
Bestelltyp: On-Demand (garantiert) oder Spot (30–50 % günstiger, kann unterbrochen werden)
Docker-Image: Siehe Rezepte unten
Ports: Immer einschließen
22/tcp(SSH) + dein App-PortUmgebung: Füge alle benötigten API-Keys hinzu
🚀 Ein-Klick-Rezepte
Mit KI chatten (Ollama + Open WebUI)
Der einfachste Weg, lokale KI auszuführen — ChatGPT-ähnliche Oberfläche mit jedem offenen Modell.
Nach der Bereitstellung öffne die HTTP-URL → Konto erstellen → ein Modell wählen (Llama 4 Scout, Gemma 3, Qwen3.5) → chatten!
Bildgenerierung (ComfyUI)
Node-basierter Workflow für FLUX, Stable Diffusion und mehr.
Bildgenerierung (Stable Diffusion WebUI)
Klassische Oberfläche für Stable Diffusion, SDXL und SD 3.5.
LLM API Server (vLLM)
Produktionsreife Bereitstellung mit OpenAI-kompatibler API.
Musikgenerierung (ACE-Step)
Erzeuge komplette Songs mit Gesang — funktioniert auf jeder GPU mit 4GB+!
Per SSH einloggen, dann:
Schritt 4: Verbinden
Nachdem deine Bestellung gestartet ist:
Gehe zu Meine Bestellungen → finde deine aktive Bestellung
Web UI: Klicke die HTTP-URL (z. B.,
https://xxx.clorecloud.net)SSH:
ssh -p <port> root@<proxy-address>
Erster Start dauert 5–20 Minuten — der Server lädt KI-Modelle von HuggingFace herunter. HTTP-502-Fehler in dieser Zeit sind normal. Warten und aktualisieren.
Ollama + Open WebUI
3–5 min
ComfyUI
10–15 min
vLLM
5–15 min (abhängig von der Modellgröße)
SD WebUI
10–20 min
Schritt 5: Beginne zu erstellen
Sobald dein Service läuft, erkunde die Guides für deinen speziellen Anwendungsfall:
🤖 Sprachmodelle (Chat, Code, Schlussfolgerungen)
Ollama — einfachstes Modellmanagement
Llama 4 Scout — Metas neuestes, 10M Kontext
Gemma 3 — Googles 27B, das 405B-Modelle schlägt
Qwen3.5 — schlug Claude 4.5 in Mathe (Feb 2026!)
DeepSeek-R1 — Chain-of-Thought-Reasoning
vLLM — Produktions-API-Bereitstellung
🎨 Bildgenerierung
FLUX.2 Klein — < 0,5 Sek. pro Bild!
ComfyUI — node-basierte Workflows
FLUX.1 — höchste Qualität mit LoRA + ControlNet
Stable Diffusion 3.5 — beste Textdarstellung
🎬 Videogenerierung
FramePack — nur 6GB VRAM nötig!
Wan2.1 — hochwertige T2V + I2V
LTX-2 — Video MIT Audio
CogVideoX — Zhipu AIs Videomodell
🔊 Audio & Stimme
Qwen3-TTS — Stimmenklonen, 10+ Sprachen
WhisperX — Transkription + Sprecher-Diarisation
Dia TTS — Mehrsprecher-Dialog
Kokoro — winzige TTS, nur 2GB VRAM
🎵 Musik
ACE-Step — komplette Songs mit < 4GB VRAM
💻 KI-Coding
🧠 Training
💡 Tipps für Anfänger
Fange mit Ollama an — es ist der einfachste Weg, KI lokal auszuprobieren
RTX 4090 ist der Sweet Spot — deckt 90 % der Anwendungsfälle für 0,50–2 $/Tag ab
Verwende Spot-Bestellungen für Experimente — 30–50 % günstiger
Verwende On-Demand für wichtige Arbeiten — garantiert, keine Unterbrechungen
Lade deine Ergebnisse herunter bevor die Bestellung endet — Dateien werden danach gelöscht
Zahle mit dem CLORE-Token — oft bessere Tarife als Stablecoins
Prüfe RAM und Netzwerk — zu wenig RAM ist die Hauptursache für Fehler
Fehlerbehebung
HTTP 502 über längere Zeit
Warte 10–20 Min. beim ersten Start; prüfe RAM ≥ 16GB
Dienst startet nicht
RAM zu niedrig (mind. 16GB) oder VRAM zu klein für das Modell
Langsamer Modelldownload
Normal beim ersten Lauf; vorzugsweise Server mit 500Mbps+ wählen
CUDA: nicht genug Speicher
Verwende ein kleineres Modell oder eine größere GPU; versuche quantisierte Versionen
Kein SSH möglich
Prüfe, ob der Port 22/tcp in der Konfiguration ist; warte, bis der Server vollständig gestartet ist
🐍 Python SDK & CLI (Empfohlen)
Bevorzugst du Code statt Klicken? Installiere das offizielle SDK:
Oder nutze Python direkt:
→ Vollständiges Python-Quickstart | SDK-Anleitung | CLI-Automatisierung
Brauchst du Hilfe?
Zuletzt aktualisiert
War das hilfreich?