Schnellstart
Keine vorherige GPU- oder KI-Erfahrung erforderlich. Dieser Leitfaden bringt dich in 5 Minuten von Null zum Ausführen von KI.
Schritt 1: Konto erstellen & Guthaben hinzufügen
Gehen Sie zur clore.ai → Registrieren
Bestätige deine E-Mail
Gehen Sie zur Konto → Einzahlung
Guthaben hinzufügen über CLORE, BTC, USDT, oder USDC (mindestens ~5 $ zum Start)
Schritt 2: Wähle eine GPU
Gehe zu Marktplatz und wähle je nach Aufgabe:
Mit KI chatten (7B-Modelle)
RTX 3060 12GB
~$0.15
Mit KI chatten (32B-Modelle)
RTX 4090 24GB
~$0.50
Bilder generieren (FLUX)
RTX 3090 24GB
~$0.30
Videos generieren
RTX 4090 24GB
~$0.50
Musik erzeugen
Beliebige GPU 4GB+
~$0.15
Stimmenklonen / TTS
RTX 3060 6GB+
~$0.15
Audio transkribieren
RTX 3060 8GB+
~$0.15
Ein Modell feinabstimmen
RTX 4090 24GB
~$0.50
70B+ Modelle ausführen
A100 80GB
~$2.00
Wichtig — prüfe mehr als nur die GPU!
RAM: 16GB+ Mindestanforderung für die meisten KI-Arbeitslasten
Netzwerk: 500Mbps+ empfohlen (Modelle werden von HuggingFace heruntergeladen)
Festplatte: 50GB+ freier Speicher für Modellablage
Kurzer GPU-Leitfaden
RTX 3060
12GB
0,15–0,30 $/Tag
TTS, Musik, kleine Modelle
RTX 3090
24GB
0,30–1,00 $/Tag
Bildgenerierung, 32B-Modelle
RTX 4090
24GB
0,50–2,00 $/Tag
Alles bis 35B, schnelle Inferenz
RTX 5090
32GB
1,50–3,00 $/Tag
70B quantisiert, am schnellsten
A100 80GB
80GB
2,00–4,00 $/Tag
70B FP16, ernsthaftes Training
H100 80GB
80GB
3,00–6,00 $/Tag
400B+ MoE-Modelle
Schritt 3: Bereitstellen
Klicken Mieten auf deinem gewählten Server, dann konfigurieren:
Bestelltyp: On-Demand (garantiert) oder Spot (30–50% günstiger, kann unterbrochen werden)
Docker-Image: Siehe Rezepte unten
Ports: Immer einschließen
22/tcp(SSH) + deinen App-PortUmgebung: Füge alle benötigten API-Schlüssel hinzu
🚀 One-Click-Rezepte
Mit KI chatten (Ollama + Open WebUI)
Die einfachste Möglichkeit, lokale KI auszuführen — ChatGPT-ähnliche Oberfläche mit jedem offenen Modell.
Nach der Bereitstellung die HTTP-URL öffnen → Konto erstellen → ein Modell wählen (Llama 4 Scout, Gemma 3, Qwen3.5) → chatten!
Bildgenerierung (ComfyUI)
Knotenbasierter Workflow für FLUX, Stable Diffusion und mehr.
Bildgenerierung (Stable Diffusion WebUI)
Klassische Oberfläche für Stable Diffusion, SDXL und SD 3.5.
LLM-API-Server (vLLM)
Produktionsgerechte Bereitstellung mit OpenAI-kompatibler API.
Musikgenerierung (ACE-Step)
Erzeuge vollständige Songs mit Gesang — funktioniert auf jeder GPU mit 4GB+!
Per SSH verbinden, dann:
Schritt 4: Verbinden
Nachdem dein Auftrag gestartet ist:
Gehen Sie zur Meine Bestellungen → finde deine aktive Bestellung
Weboberfläche: Klicke die HTTP-URL (z. B.,
https://xxx.clorecloud.net)SSH:
ssh -p <port> root@<proxy-address>
Der erste Start dauert 5–20 Minuten — der Server lädt KI-Modelle von HuggingFace herunter. HTTP 502-Fehler während dieser Zeit sind normal. Warten und aktualisieren.
Ollama + Open WebUI
3–5 Min
ComfyUI
10–15 Min
vLLM
5–15 Min (abhängig von Modellgröße)
SD WebUI
10–20 Min
Schritt 5: Beginne zu erstellen
Sobald dein Service läuft, erkunde die Anleitungen für deinen spezifischen Anwendungsfall:
🤖 Sprachmodelle (Chat, Code, Reasoning)
Ollama — einfachste Modellverwaltung
Llama 4 Scout — Metas neuestes, 10M Kontext
Gemma 3 — Googles 27B, das 405B-Modelle übertrifft
Qwen3.5 — übertraf Claude 4.5 in Mathematik (Feb 2026!)
DeepSeek-R1 — Ketten-von-Gedanken-Reasoning
vLLM — Produktions-API-Bereitstellung
🎨 Bildgenerierung
FLUX.2 Klein — < 0,5 Sek. pro Bild!
ComfyUI — knotenbasierte Workflows
FLUX.1 — höchste Qualität mit LoRA + ControlNet
Stable Diffusion 3.5 — beste Textrendering
🎬 Videogenerierung
FramePack — nur 6GB VRAM erforderlich!
Wan2.1 — hochwertige T2V + I2V
LTX-2 — Video MIT Audio
CogVideoX — Zhipu AIs Videomodell
🔊 Audio & Stimme
Qwen3-TTS — Stimmenklonen, 10+ Sprachen
WhisperX — Transkription + Sprecher-Diarisierung
Dia TTS — Multi-Speaker-Dialog
Kokoro — winzige TTS, nur 2GB VRAM
🎵 Musik
ACE-Step — vollständige Songs auf < 4GB VRAM
💻 KI-Codierung
🧠 Training
💡 Tipps für Anfänger
Beginne mit Ollama — es ist der einfachste Weg, KI lokal auszuprobieren
RTX 4090 ist der Sweetspot — deckt 90% der Anwendungsfälle für 0,50–2 $/Tag ab
Verwende Spot-Bestellungen für Experimente — 30–50% günstiger
Verwende On-Demand für wichtige Arbeit — garantiert, keine Unterbrechungen
Lade deine Ergebnisse herunter bevor die Bestellung endet — Dateien werden danach gelöscht
Bezahlen mit CLORE-Token — oft bessere Tarife als Stablecoins
Prüfe RAM und Netzwerk — niedriger RAM ist die Hauptursache für Fehler
Fehlerbehebung
HTTP 502 über lange Zeit
Warte 10–20 Min beim ersten Start; prüfe RAM ≥ 16GB
Service startet nicht
RAM zu niedrig (benötigt 16GB+) oder VRAM zu klein für das Modell
Langsamer Modelldownload
Normal beim ersten Lauf; bevorzugt 500Mbps+ Server
CUDA out of memory
Verwende kleineres Modell oder größere GPU; versuche quantisierte Versionen
Kann nicht per SSH verbinden
Prüfe, ob Port 22/tcp in der Konfiguration ist; warte, bis der Server vollständig gestartet ist
Brauchst du Hilfe?
Zuletzt aktualisiert
War das hilfreich?