Schnellstart

circle-check

Schritt 1: Konto erstellen & Guthaben hinzufügen

  1. Gehen Sie zur clore.aiarrow-up-rightRegistrieren

  2. Bestätige deine E-Mail

  3. Gehen Sie zur KontoEinzahlung

  4. Guthaben hinzufügen über CLORE, BTC, USDT, oder USDC (mindestens ~5 $ zum Start)

Schritt 2: Wähle eine GPU

Gehe zu Marktplatzarrow-up-right und wähle je nach Aufgabe:

Was ich tun möchte
Minimale GPU
Budget/Tag

Mit KI chatten (7B-Modelle)

RTX 3060 12GB

~$0.15

Mit KI chatten (32B-Modelle)

RTX 4090 24GB

~$0.50

Bilder generieren (FLUX)

RTX 3090 24GB

~$0.30

Videos generieren

RTX 4090 24GB

~$0.50

Musik erzeugen

Beliebige GPU 4GB+

~$0.15

Stimmenklonen / TTS

RTX 3060 6GB+

~$0.15

Audio transkribieren

RTX 3060 8GB+

~$0.15

Ein Modell feinabstimmen

RTX 4090 24GB

~$0.50

70B+ Modelle ausführen

A100 80GB

~$2.00

triangle-exclamation

Kurzer GPU-Leitfaden

GPU
VRAM
Preis
Süßer Punkt für

RTX 3060

12GB

0,15–0,30 $/Tag

TTS, Musik, kleine Modelle

RTX 3090

24GB

0,30–1,00 $/Tag

Bildgenerierung, 32B-Modelle

RTX 4090

24GB

0,50–2,00 $/Tag

Alles bis 35B, schnelle Inferenz

RTX 5090

32GB

1,50–3,00 $/Tag

70B quantisiert, am schnellsten

A100 80GB

80GB

2,00–4,00 $/Tag

70B FP16, ernsthaftes Training

H100 80GB

80GB

3,00–6,00 $/Tag

400B+ MoE-Modelle

Schritt 3: Bereitstellen

Klicken Mieten auf deinem gewählten Server, dann konfigurieren:

  • Bestelltyp: On-Demand (garantiert) oder Spot (30–50% günstiger, kann unterbrochen werden)

  • Docker-Image: Siehe Rezepte unten

  • Ports: Immer einschließen 22/tcp (SSH) + deinen App-Port

  • Umgebung: Füge alle benötigten API-Schlüssel hinzu

🚀 One-Click-Rezepte

Mit KI chatten (Ollama + Open WebUI)

Die einfachste Möglichkeit, lokale KI auszuführen — ChatGPT-ähnliche Oberfläche mit jedem offenen Modell.

Nach der Bereitstellung die HTTP-URL öffnen → Konto erstellen → ein Modell wählen (Llama 4 Scout, Gemma 3, Qwen3.5) → chatten!

Bildgenerierung (ComfyUI)

Knotenbasierter Workflow für FLUX, Stable Diffusion und mehr.

Bildgenerierung (Stable Diffusion WebUI)

Klassische Oberfläche für Stable Diffusion, SDXL und SD 3.5.

LLM-API-Server (vLLM)

Produktionsgerechte Bereitstellung mit OpenAI-kompatibler API.

Musikgenerierung (ACE-Step)

Erzeuge vollständige Songs mit Gesang — funktioniert auf jeder GPU mit 4GB+!

Per SSH verbinden, dann:

Schritt 4: Verbinden

Nachdem dein Auftrag gestartet ist:

  1. Gehen Sie zur Meine Bestellungen → finde deine aktive Bestellung

  2. Weboberfläche: Klicke die HTTP-URL (z. B., https://xxx.clorecloud.net)

  3. SSH: ssh -p <port> root@<proxy-address>

circle-exclamation
Bereitstellen
Typischer Start

Ollama + Open WebUI

3–5 Min

ComfyUI

10–15 Min

vLLM

5–15 Min (abhängig von Modellgröße)

SD WebUI

10–20 Min

Schritt 5: Beginne zu erstellen

Sobald dein Service läuft, erkunde die Anleitungen für deinen spezifischen Anwendungsfall:

🤖 Sprachmodelle (Chat, Code, Reasoning)

  • Ollama — einfachste Modellverwaltung

  • Llama 4 Scout — Metas neuestes, 10M Kontext

  • Gemma 3 — Googles 27B, das 405B-Modelle übertrifft

  • Qwen3.5 — übertraf Claude 4.5 in Mathematik (Feb 2026!)

  • DeepSeek-R1 — Ketten-von-Gedanken-Reasoning

  • vLLM — Produktions-API-Bereitstellung

🎨 Bildgenerierung

🎬 Videogenerierung

🔊 Audio & Stimme

  • Qwen3-TTS — Stimmenklonen, 10+ Sprachen

  • WhisperX — Transkription + Sprecher-Diarisierung

  • Dia TTS — Multi-Speaker-Dialog

  • Kokoro — winzige TTS, nur 2GB VRAM

🎵 Musik

  • ACE-Step — vollständige Songs auf < 4GB VRAM

💻 KI-Codierung

  • TabbyML — selbstgehosteter Copilot für 4,50 $/Monat

  • Aider — Terminal-basierter KI-Coding-Assistent

🧠 Training

  • Unsloth — 2x schneller, 70% weniger VRAM

  • Axolotl — YAML-basiertes Fine-Tuning

💡 Tipps für Anfänger

  1. Beginne mit Ollama — es ist der einfachste Weg, KI lokal auszuprobieren

  2. RTX 4090 ist der Sweetspot — deckt 90% der Anwendungsfälle für 0,50–2 $/Tag ab

  3. Verwende Spot-Bestellungen für Experimente — 30–50% günstiger

  4. Verwende On-Demand für wichtige Arbeit — garantiert, keine Unterbrechungen

  5. Lade deine Ergebnisse herunter bevor die Bestellung endet — Dateien werden danach gelöscht

  6. Bezahlen mit CLORE-Token — oft bessere Tarife als Stablecoins

  7. Prüfe RAM und Netzwerk — niedriger RAM ist die Hauptursache für Fehler

Fehlerbehebung

Problem
Lösung

HTTP 502 über lange Zeit

Warte 10–20 Min beim ersten Start; prüfe RAM ≥ 16GB

Service startet nicht

RAM zu niedrig (benötigt 16GB+) oder VRAM zu klein für das Modell

Langsamer Modelldownload

Normal beim ersten Lauf; bevorzugt 500Mbps+ Server

CUDA out of memory

Verwende kleineres Modell oder größere GPU; versuche quantisierte Versionen

Kann nicht per SSH verbinden

Prüfe, ob Port 22/tcp in der Konfiguration ist; warte, bis der Server vollständig gestartet ist

Brauchst du Hilfe?

Zuletzt aktualisiert

War das hilfreich?