OpenClaw auf Clore

OpenClaw AI-Assistent auf einem Clore.ai GPU-Server bereitstellen — immer verfügbar, GPU-beschleunigt, mit Telegram-/Discord-Integration, lokaler LLM-Inferenz und Sprachfunktionen.

Überblick

OpenClawarrow-up-right ist eine Open-Source-AI-Agent-Plattform, die sich mit Claude, GPT, Gemini und lokalen Modellen verbindet — und als persönlicher KI-Assistent über Telegram, Discord, WhatsApp und mehr fungiert. Wenn Sie sie auf einem Clore.ai-Server betreiben, erhalten Sie:

  • 24/7 Betriebsbereitschaft — kein Laptop-Schlaf, keine Verbindungsabbrüche

  • GPU-Beschleunigung — lokale LLM-Inferenz (Ollama, vLLM), Whisper STT, TTS, Bildgenerierung

  • Geringe Kosten — mieten Sie genau die Hardware, die Sie brauchen, zahlen Sie stundenweise

  • Volle Kontrolle — Root-Zugriff, Docker-Unterstützung, beliebiger Software-Stack

Warum Clore + OpenClaw?

Funktion
Laptop
Traditioneller VPS
Clore.ai-Server

Immer an

GPU verfügbar

Begrenzt

❌ oder $$$

✅ ab $0.10/Stunde

Lokale LLM-Inferenz

Langsam

Nur CPU

Volle GPU-Geschwindigkeit

Sprache (Whisper/TTS)

Langsam (CPU)

✅ Echtzeit

Root + Docker

Stundenabrechnung

Nicht anwendbar

Monatlich

✅ Pro Stunde

Empfohlene Hardware

Anwendungsfall
GPU
VRAM
RAM
Geschätzte Kosten

Basis-Assistent (nur API, keine lokalen Modelle)

Beliebig / nur CPU

8 GB+

$0.05–0.15/Stunde

Lokales 7–8B LLM (Ollama + Llama 3.1 8B)

RTX 3060/3070

12 GB

16 GB+

$0.10–0.25/Stunde

Lokales 70B LLM (vLLM + Llama 3.1 70B)

RTX 4090 / A100

24–80 GB

64 GB+

$0.30–1.00/Stunde

Vollständiger Stack (LLM + Whisper + TTS + Bildgenerierung)

RTX 4090

24 GB

32 GB+

$0.25–0.50/Stunde

Tipp: Wenn Sie OpenClaw nur als cloudbasierten Assistenten mit API-Modellen (Claude, GPT) verwenden, benötigen Sie überhaupt keine GPU — ein günstiger CPU-Server ist ausreichend. Fügen Sie eine GPU hinzu, wenn Sie lokale Inferenz möchten.


Schritt 1: Mieten Sie einen Server auf Clore.ai

1.1 Durchsuchen Sie den Marktplatz

Gehen Sie zu clore.ai/marketplacearrow-up-right und filtern Sie nach Ihren Anforderungen:

  • Für Basis-Assistenten: Nach Preis sortieren, einen günstigen Ubuntu-Server wählen

  • Für lokale LLMs: Nach GPU filtern (z. B. RTX 4090), sicherstellen, dass ≥24 GB VRAM vorhanden sind

  • Betriebssystem: Wählen Sie Ubuntu 22.04 oder Ubuntu 24.04 (beste Kompatibilität)

1.2 Erstellen Sie eine Bestellung

  1. Wählen Sie den Server → Mieten

  2. Wählen On-Demand (stündlich) oder Spot (günstiger, kann aber überboten werden)

  3. Wählen Sie das Docker-Image: ubuntu:22.04 oder nvidia/cuda:12.4.0-runtime-ubuntu22.04 (falls Sie eine GPU benötigen)

  4. Setzen Sie den SSH-Public-Key (oder verwenden Sie ein Passwort — SSH-Key empfohlen)

  5. Bestätigen Sie die Bestellung

1.3 Verbinden Sie sich per SSH

Sobald der Server läuft, finden Sie die SSH-Verbindungsdaten auf Ihrer Bestellungenarrow-up-right Seite:

Hinweis: Clore-Server verwenden Docker-Container, sodass Sie Root-Zugriff innerhalb des Containers erhalten. Der SSH-Port kann nicht-standardmäßig sein (z. B. 50022) — prüfen Sie Ihre Bestelldaten.


Schritt 2: Installieren Sie OpenClaw

2.1 Installieren Sie Node.js 22+

2.2 Installieren Sie OpenClaw

Option A: Installationsskript (empfohlen)

Das Skript installiert das CLI, führt das Onboarding durch und startet das Gateway.

Option B: Manuelle npm-Installation

2.3 Führen Sie den Onboarding-Assistenten aus

Wenn Sie das Installationsskript verwendet haben, läuft das Onboarding automatisch. Andernfalls:

Der Assistent wird Sie bitten:

  1. Auth einzurichten — fügen Sie Ihren Anthropic-API-Schlüssel ein oder verbinden Sie sich per OAuth

  2. Einen Kanal auszuwählen — Telegram-Bot-Token, Discord, WhatsApp usw.

  3. Das Gateway zu konfigurieren — Port, Bindung, Sicherheit

Für Telegram: Erstellen Sie einen Bot über @BotFatherarrow-up-right, kopieren Sie das Token und fügen Sie es während des Onboardings ein.


Schritt 3: Konfiguration für Always-On-Betrieb

3.1 Starten Sie das Gateway als Dienst

3.2 Halten Sie es mit systemd am Laufen (empfohlen)

Wenn OpenClaw den systemd-Dienst nicht automatisch installiert hat:

3.3 Alternative: Screen/tmux (schnell & einfach)


Schritt 4: GPU-Einrichtung (optional — für lokale Modelle)

Überspringen Sie diesen Abschnitt, wenn Sie nur API-basierte Modelle (Claude, GPT usw.) verwenden.

4.1 GPU-Zugriff überprüfen

Wenn nvidia-smi funktioniert, ist Ihre GPU bereit. Die meisten Clore CUDA-Images sind vorkonfiguriert.

4.2 Installieren Sie Ollama (lokale LLM-Inferenz)

Konfigurieren Sie OpenClaw so, dass Ollama als Anbieter verwendet wird — siehe den Ollama-Leitfaden für Details.

4.3 Installieren Sie Whisper (Sprach-Transkription)

Für GPU-beschleunigte Spracherkennung:

Siehe den WhisperX-Leitfaden für die vollständige Einrichtung.


Schritt 5: Sicherheit & Fernzugriff

5.1 Sichern Sie das Gateway

Standardmäßig bindet das Gateway an Loopback (127.0.0.1). Für Fernzugriff:

Option A: SSH-Tunnel (am sichersten)

Von Ihrem Laptop aus:

Öffnen Sie dann http://127.0.0.1:18789/ im Browser.

Option B: Token-geschützter Direktzugriff

Bearbeiten Sie ~/.openclaw/config.json5:

⚠️ Setzen Sie immer ein Token wenn Sie an lanbinden.

Ohne es kann jeder auf Ihr Gateway zugreifen.


ufw enable

Schritt 6: Persistenz & Backups

6.1 Wichtige Verzeichnisse
Pfad

Inhalt

~/.openclaw/

Konfiguration, Auth, Status, Agentenprofile

~/.openclaw/workspace/

MEMORY.md, tägliche Notizen, Skills, Tools

~/.openclaw/agents/

Multi-Agent-Konfigurationen (falls Teams verwendet werden)

6.2 Backup-Skript

(crontab -l 2>/dev/null; echo "0 4 * * * /root/backup-openclaw.sh") | crontab -

6.3 Migration zwischen Servern


tar xzf /tmp/openclaw-migration.tar.gz -C /

Beispielkonfigurationen

Basis Telegram-Bot (keine GPU)

Konfiguration: Anthropic-API-Schlüssel + Telegram-Bot-Token

AI-Arbeitsstation (GPU)

Stack: OpenClaw + Ollama (Llama 3.1 70B) + WhisperX + Coqui TTS

Multi-Agent-Team


Stack: OpenClaw Multi-Agent (5+ Agenten) + Ollama + gemeinsame Skills

Fehlerbehebung

kill <pid>

# Bestellung mit nvidia/cuda:12.4.0-runtime-ubuntu22.04 neu erstellen

Verbindung bricht bei Serverneustart ab

  • Clore-Spot-Instanzen können zurückgefordert werden. Für persistenten Betrieb: Verwenden Sie On-Demand

  • Preise (nicht Spot)

  • Richten Sie den systemd-Dienst ein (automatischer Neustart)

  • Halten Sie Backups bereit (siehe oben Backup-Skript)

Erwägen Sie einen dedizierten/reservierten Server für kritische Workloads


# Falls unter v22, neu installieren

  1. Tipps & Best Practices Günstig anfangen

  2. — Verwenden Sie zuerst einen einfachen CPU-Server. Fügen Sie eine GPU hinzu, wenn Sie lokale Inferenz benötigen. Verwenden Sie On-Demand für Produktion

  3. — Spot ist günstiger, kann aber unterbrochen werden. On-Demand garantiert Betriebszeit. Regelmäßig sichern Konfiguration, Auth, Status, Agentenprofile — Ihr

  4. enthält alle Memorys und Konfigurationen. Kosten überwachen

  5. — Überprüfen Sie regelmäßig Ihr Clore-Dashboard. Richten Sie Ausgabenalarme ein, falls verfügbar. Verwenden Sie die Control-UI http://127.0.0.1:18789/ — Zugriff über SSH-Tunnel unter

  6. für webbasierte Verwaltung. Mit API-Modellen kombinieren


— Selbst mit einem GPU-Server verwenden Sie Claude/GPT per API für den Hauptagenten und lokale Modelle für spezifische Aufgaben (Embeddings, Transkription).

Zuletzt aktualisiert

War das hilfreich?