FAQ

Häufig gestellte Fragen zur Nutzung von Clore.ai für KI-Workloads

Häufige Fragen zur Nutzung von CLORE.AI für KI-Workloads.

circle-check

Erste Schritte

Wie erstelle ich ein Konto?

  1. Klicken Registrieren

  2. E-Mail und Passwort eingeben

  3. Bestätige deine E-Mail

  4. Fertig! Du kannst jetzt Guthaben einzahlen und GPUs mieten

Welche Zahlungsmethoden werden akzeptiert?

  • CLORE - Native Token (bietet oft die besten Konditionen)

  • BTC - Bitcoin

  • USDT - Tether (ERC-20, TRC-20)

  • USDC - USD Coin

Wie hoch ist die Mindesteinzahlung?

Es gibt keine strikte Mindestsumme, aber wir empfehlen $5–10, um erste Experimente zu starten. Das deckt mehrere Stunden auf günstigen GPUs ab.

Wie lange dauert es, bis meine Einzahlung ankommt?

Währung
Bestätigungen
Typische Zeit

CLORE

10

~10 Minuten

BTC

2

~20 Minuten

USDT/USDC

Abhängig vom Netzwerk

1–15 Minuten


Hardware-Auswahl

Welche GPU sollte ich wählen?

Das hängt von deiner Aufgabe ab:

Aufgabe
Empfohlene GPU

Chat mit 7B-Modellen

RTX 3060 12GB ($0,15–0,30/Tag)

Chat mit 13B–30B-Modellen

RTX 3090 24GB ($0,30–1,00/Tag)

Chat mit 70B-Modellen

RTX 5090 32GB ($1,50–3,00/Tag) oder A100 40GB ($1,50–3,00/Tag)

Bildgenerierung (SDXL)

RTX 3090 24GB ($0,30–1,00/Tag)

Bildgenerierung (FLUX)

RTX 4090/5090 ($0,50–3,00/Tag)

Videogenerierung

RTX 4090+ oder A100 ($0,50–3,00/Tag)

70B+-Modelle (FP16)

A100 80GB ($2,00–4,00/Tag)

Siehe GPU-Vergleich für detaillierte Spezifikationen.

Was ist der Unterschied zwischen On-Demand und Spot?

Typ
Preis
Verfügbarkeit
Am besten geeignet für

On-Demand

Fixer Preis

Garantiert

Produktion, lange Aufgaben

Spot

30–50% günstiger

Kann unterbrochen werden

Tests, Batch-Jobs

Spot-Aufträge können beendet werden, wenn jemand höher bietet. Speichere deine Arbeit häufig!

Wie viel VRAM brauche ich?

Verwende diese Kurzübersicht:

Modellgröße
Minimales VRAM (Q4)
Empfohlen

7B

6GB

12GB

13B

8GB

16GB

30B

16GB

24GB

70B

35GB

48GB

Siehe Modellkompatibilität für vollständige Details.

Was bedeutet "Unverifiziert" bei einem Server?

Unverifizierte Server haben CLORE.AI's Hardware-Verifizierung nicht abgeschlossen. Sie können:

  • Leicht andere Spezifikationen als angegeben haben

  • Weniger zuverlässig sein

Verifizierte Server haben bestätigte Spezifikationen und bessere Zuverlässigkeit.


Verbindung zu Servern

Wie verbinde ich mich per SSH?

Nachdem dein Auftrag gestartet ist:

  1. Gehen Sie zur Meine Bestellungen

  2. Finde deinen Auftrag

  3. Kopiere den SSH-Befehl: ssh -p <port> root@<proxy-address>

  4. Verwende das im Auftragsdetails angezeigte Passwort

Beispiel:

SSH-Verbindung abgelehnt – was soll ich tun?

  1. Warte 1–2 Minuten - Der Server könnte noch starten

  2. Prüfe den Auftragsstatus - Muss "Running" sein

  3. Überprüfe den Port - Verwende den Port aus den Auftragsdetails, nicht 22

  4. Prüfe die Firewall - Dein Netzwerk könnte nicht-standardmäßige Ports blockieren

Wie greife ich auf Web-Interfaces (Gradio, Jupyter) zu?

  1. Finde in den Auftragsdetails den HTTP-Port-Link

  2. Klicke den Link, um ihn im Browser zu öffnen

  3. Oder manuell: http://<proxy-adresse>:<http-port>

Kann ich VS Code Remote SSH verwenden?

Ja! Füge zu deiner ~/.ssh/config:

Verbinde dich dann in VS Code: Remote-SSH: Mit Host verbindenclore-gpu

Wie übertrage ich Dateien?

Auf den Server hochladen:

Vom Server herunterladen:

Für große Übertragungen, verwende rsync:


Ausführen von KI-Workloads

Wie installiere ich Python-Pakete?

Für persistente Installationen, nimm es in deinen Startbefehl oder dein Docker-Image auf.

Warum läuft mein Modell wegen Speichermangel ab?

  1. Quantisierung verwenden - Q4 verwendet 4x weniger VRAM als FP16

  2. CPU-Offload aktivieren - Langsamer, aber funktionsfähig

  3. Batch-Größe reduzieren - Verwende batch_size=1

  4. Geringere Kontextlänge - Reduziere max_tokens

  5. Wähle eine größere GPU - Manchmal erforderlich

Wie verwende ich Hugging Face-Modelle, die Login erfordern?

Für geschützte Modelle (Llama usw.) akzeptiere zunächst die Bedingungen auf der Hugging Face-Website.

Kann ich mehrere Modelle gleichzeitig ausführen?

Ja, wenn du genug VRAM hast:

  • Jedes Modell benötigt seine eigene VRAM-Zuordnung

  • Verwende unterschiedliche Ports für verschiedene Dienste

  • Ziehe vLLM für effizientes Multi-Model-Serving in Betracht

Wie sichere ich meine Arbeit, bevor der Auftrag endet?

Bevor der Auftrag endet:

  1. Lade Ausgaben herunter: scp -P <port> root@<proxy>:/root/outputs/* ./

  2. In die Cloud pushen: aws s3 sync /root/outputs s3://bucket/

  3. Ins Git committen: git push

Daten gehen verloren, wenn der Auftrag endet! Sichere wichtige Dateien immer.


Abrechnung & Aufträge

Wie wird abgerechnet?

  • Stundensatz × genutzte Stunden

  • Die Abrechnung beginnt, wenn der Auftragsstatus "Running" ist

  • Mindestabrechnung: 1 Minute

  • Teilstunden werden minutengenau abgerechnet

Wie stoppe ich einen Auftrag?

  1. Gehen Sie zur Meine Bestellungen

  2. Klicken Stoppen bei deinem Auftrag

  3. Beende die Ausführung bestätigen

Du wirst nur für die genutzte Zeit berechnet.

Kann ich meinen Auftrag verlängern?

Ja, wenn niemand höher auf deinen Spot-Auftrag geboten hat. Füge Guthaben zu deinem Kontostand hinzu und der Auftrag läuft automatisch weiter.

Was passiert, wenn mein Guthaben aufgebraucht ist?

  1. Warnmeldung gesendet

  2. Schonfrist (~5–10 Minuten)

  3. Auftrag beendet

  4. Alle Daten verloren!

Halte ausreichend Guthaben oder lade deine Arbeit herunter, bevor es knapp wird.

Kann ich eine Rückerstattung bekommen?

Kontaktiere den Support für:

  • Hardware-Probleme (GPU funktioniert nicht)

  • Bedeutende Ausfallzeiten

  • Abrechnungsfehler

Rückerstattungen werden nicht gewährt für:

  • Benutzerfehler

  • Normale Auftragsnutzung

  • Unterbrechungen bei Spot-Aufträgen


Docker & Images

Welche Docker-Images sind verfügbar?

Siehe Docker-Images-Katalog für einsatzbereite Images:

  • ollama/ollama - LLM Runner

  • vllm/vllm-openai - Hochleistungs-LLM-API

  • universonic/stable-diffusion-webui - Bildgenerierung

  • yanwk/comfyui-boot - Node-basierte Bildgenerierung

Kann ich mein eigenes Docker-Image verwenden?

Ja! Gib dein Image im Auftrag an:

Stelle sicher, dass das Image öffentlich zugänglich ist oder liefere Zugangsdaten.

Wie halte ich Daten zwischen Neustarts persistent?

Verwende die bereitgestellten Volume-Mount-Punkte oder gib eigene Volumes an:


Fehlerbehebung

"CUDA out of memory"-Fehler

  1. Prüfe VRAM - nvidia-smi

  2. Kleineres Modell verwenden oder Quantisierung

  3. Aktiviere Offload - --cpu-offload

  4. Batch-Größe reduzieren - batch_size=1

  5. Beende andere Prozesse - pkill python

"Connection timed out"-Fehler

  1. Prüfe den Auftragsstatus - Muss "Running" sein

  2. Warte länger - Große Images brauchen Zeit zum Starten

  3. Prüfe Ports - Verwende den korrekten Port aus dem Auftrag

  4. Versuche es erneut - Netzwerkprobleme sind temporär

Web-UI lädt nicht

  1. Warte auf den Start - Manche UIs benötigen 2–5 Minuten

  2. Prüfe die Logs: docker logs <container>

  3. Überprüfe den Port - Verwende den HTTP-Port aus den Auftragsdetails

  4. Prüfe den Befehl - Muss folgendes enthalten --listen 0.0.0.0

Modell-Download hängt

  1. Überprüfe Festplattenspeicher: df -h

  2. Kleineres Modell verwenden - Starte mit 7B

  3. Vorab-Download - In Docker-Image einbinden

  4. Prüfe HF-Token - Für geschützte Modelle erforderlich

Langsame Inferenzgeschwindigkeit

  1. Prüfe GPU-Auslastung: nvidia-smi

  2. GPU aktivieren - Modell könnte auf der CPU laufen

  3. Verwende Flash Attention - --flash-attn

  4. Optimiere Einstellungen - Reduziere Präzision, Batch


Sicherheit

Sind meine Daten sicher?

  • Jeder Auftrag läuft in einem isolierten Container

  • Daten werden gelöscht, wenn der Auftrag endet

  • Der Netzwerkverkehr läuft über CLORE-Proxies

  • Speichere keine sensiblen Daten auf gemieteten GPUs

Sollte ich das Root-Passwort ändern?

Optional, aber empfohlen für lange Aufträge:

Wie schütze ich API-Schlüssel?

  1. Verwende Umgebungsvariablen - Nicht als Befehlszeilenargumente

  2. Nicht ins Git einchecken - Verwende .gitignore

  3. Nach Gebrauch löschen - Verlauf löschen: history -c


Benötigst du weiterhin Hilfe?

Zuletzt aktualisiert

War das hilfreich?