OpenClaw auf Clore

OpenClaw AI‑Assistent auf einem Clore.ai GPU‑Server bereitstellen — always‑on, GPU‑beschleunigt, mit Telegram/Discord‑Integration, lokaler LLM‑Inferenz und Sprachfunktionen.

Überblick

OpenClawarrow-up-right ist eine Open-Source-AI-Agentenplattform, die sich mit Claude, GPT, Gemini und lokalen Modellen verbindet — und als persönlicher KI-Assistent über Telegram, Discord, WhatsApp und mehr fungiert. Wenn Sie sie auf einem Clore.ai-Server betreiben, erhalten Sie:

  • 24/7 Betriebszeit — kein Laptop-Schlaf, keine Verbindungsabbrüche

  • GPU-Beschleunigung — lokale LLM-Inferenz (Ollama, vLLM), Whisper STT, TTS, Bildgenerierung

  • Geringe Kosten — mieten Sie genau die Hardware, die Sie brauchen, Zahlung pro Stunde

  • Volle Kontrolle — Root-Zugriff, Docker-Unterstützung, beliebiger Software-Stack

Warum Clore + OpenClaw?

Funktion
Laptop
Traditioneller VPS
Clore.ai Server

Immer eingeschaltet

GPU verfügbar

Begrenzt

❌ oder $$$

✅ ab $0.10/Stunde

Lokale LLM-Inferenz

Langsam

Nur CPU

Volle GPU-Geschwindigkeit

Sprache (Whisper/TTS)

Langsam (CPU)

✅ Echtzeit

Root + Docker

Stundenabrechnung

N/A

Monatlich

✅ Pro Stunde

Empfohlene Hardware

Anwendungsfall
GPU
VRAM
RAM
Gesch. Kosten

Basis-Assistent (Nur API, keine lokalen Modelle)

Beliebig / Nur CPU

8 GB+

$0.05–0.15/Stunde

Lokales 7–8B LLM (Ollama + Llama 3.1 8B)

RTX 3060/3070

12 GB

16 GB+

$0.10–0.25/Stunde

Lokales 70B LLM (vLLM + Llama 3.1 70B)

RTX 4090 / A100

24–80 GB

64 GB+

$0.30–1.00/Stunde

Vollständiger Stack (LLM + Whisper + TTS + Bildgenerierung)

RTX 4090

24 GB

32 GB+

$0.25–0.50/Stunde

Tipp: Wenn Sie OpenClaw nur als cloudbasierten Assistenten mit API-Modellen (Claude, GPT) verwenden, benötigen Sie überhaupt keine GPU — ein günstiger CPU-Server reicht aus. Fügen Sie eine GPU hinzu, wenn Sie lokale Inferenz möchten.


Schritt 1: Mieten Sie einen Server auf Clore.ai

1.1 Durchsuchen Sie den Marktplatz

Gehen Sie zu clore.ai/marketplacearrow-up-right und filtern Sie nach Ihren Anforderungen:

  • Für Basis-Assistenten: Nach Preis sortieren, irgendeinen günstigen Ubuntu-Server auswählen

  • Für lokale LLM: Nach GPU filtern (z. B. RTX 4090), ≥24 GB VRAM sicherstellen

  • Betriebssystem: Wählen Sie Ubuntu 22.04 oder Ubuntu 24.04 (beste Kompatibilität)

1.2 Erstellen Sie eine Bestellung

  1. Wählen Sie den Server → Mieten

  2. Wählen On-Demand (stündlich) oder Spot (günstiger, kann aber überboten werden)

  3. Wählen Sie das Docker-Image aus: ubuntu:22.04 oder nvidia/cuda:12.4.0-runtime-ubuntu22.04 (falls Sie eine GPU benötigen)

  4. Setzen Sie den SSH-Public-Key (oder verwenden Sie ein Passwort — SSH-Schlüssel empfohlen)

  5. Bestätigen Sie die Bestellung

1.3 Verbinden Sie sich per SSH

Sobald der Server läuft, finden Sie die SSH-Verbindungsdaten auf Ihrer Bestellungenarrow-up-right Seite:

Hinweis: Clore-Server verwenden Docker-Container, daher erhalten Sie Root-Zugriff innerhalb des Containers. Der SSH-Port kann unüblich sein (z. B. 50022) — prüfen Sie die Bestelldetails.


Schritt 2: Installieren Sie OpenClaw

2.1 Installieren Sie Node.js 22+

2.2 Installieren Sie OpenClaw

Option A: Installationsskript (empfohlen)

Das Skript installiert das CLI, führt das Onboarding aus und startet das Gateway.

Option B: Manuelle npm-Installation

2.3 Führen Sie den Onboarding-Assistenten aus

Wenn Sie das Installationsskript verwendet haben, läuft das Onboarding automatisch. Andernfalls:

Der Assistent wird Sie bitten:

  1. Authentifizierung einrichten — fügen Sie Ihren Anthropic-API-Schlüssel ein oder verbinden Sie sich über OAuth

  2. Wählen Sie einen Kanal — Telegram-Bot-Token, Discord, WhatsApp usw.

  3. Konfigurieren Sie das Gateway — Port, Bindung, Sicherheit

Für Telegram: Erstellen Sie einen Bot über @BotFatherarrow-up-right, kopieren Sie das Token und fügen Sie es während des Onboardings ein.


Schritt 3: Konfiguration für den Always-On-Betrieb

3.1 Starten Sie das Gateway als Dienst

3.2 Lassen Sie es mit systemd laufen (empfohlen)

Falls OpenClaw den systemd-Dienst nicht automatisch installiert hat:

3.3 Alternative: screen/tmux (schnell & einfach)


Schritt 4: GPU-Einrichtung (optional — für lokale Modelle)

Überspringen Sie diesen Abschnitt, wenn Sie nur API-basierte Modelle (Claude, GPT usw.) verwenden.

4.1 GPU-Zugriff überprüfen

Wenn nvidia-smi funktioniert, ist Ihre GPU bereit. Die meisten Clore CUDA-Images sind vorkonfiguriert.

4.2 Installieren Sie Ollama (lokale LLM-Inferenz)

Konfigurieren Sie OpenClaw so, dass Ollama als Anbieter verwendet wird — siehe die Ollama-Anleitung für Details.

4.3 Installieren Sie Whisper (Spracherkennung)

Für GPU-beschleunigte Speech-to-Text:

Siehe die WhisperX-Anleitung für die vollständige Einrichtung.


Schritt 5: Sicherheit & Fernzugriff

5.1 Sichern Sie das Gateway

Standardmäßig bindet das Gateway an Loopback (127.0.0.1). Für Fernzugriff:

Option A: SSH-Tunnel (am sichersten)

Von Ihrem Laptop:

Dann öffnen Sie http://127.0.0.1:18789/ in Ihrem Browser.

Option B: Token-geschützter Direktzugriff

Bearbeiten Sie ~/.openclaw/config.json5:

⚠️ Setzen Sie immer ein Token wenn Sie an lanbinden.

Ohne dieses kann jeder auf Ihr Gateway zugreifen.


ufw enable

Schritt 6: Persistenz & Backups

6.1 Wichtige Verzeichnisse
Pfad

Inhalt

~/.openclaw/

Konfiguration, Auth, Zustand, Agentenprofile

~/.openclaw/workspace/

MEMORY.md, tägliche Notizen, Skills, Tools

~/.openclaw/agents/

Multi-Agenten-Konfigurationen (bei Nutzung von Teams)

6.2 Backup-Skript

(crontab -l 2>/dev/null; echo "0 4 * * * /root/backup-openclaw.sh") | crontab -

6.3 Migration zwischen Servern


tar xzf /tmp/openclaw-migration.tar.gz -C /

Beispielkonfigurationen

Basis Telegram-Bot (keine GPU)

Konfiguration: Anthropic-API-Schlüssel + Telegram-Bot-Token

AI-Arbeitsstation (GPU)

Stack: OpenClaw + Ollama (Llama 3.1 70B) + WhisperX + Coqui TTS

Multi-Agenten-Team


Stack: OpenClaw Multi-Agent (5+ Agenten) + Ollama + geteilte Skills

Fehlerbehebung

kill <pid>

# Bestellung mit nvidia/cuda:12.4.0-runtime-ubuntu22.04 neu erstellen

Verbindung bricht bei Server-Neustart ab

  • Clore-Spot-Instanzen können zurückgefordert werden. Für persistente Operation: Verwenden Sie On-Demand

  • Preise (nicht Spot)

  • Richten Sie den systemd-Dienst ein (automatischer Neustart)

  • Bewahren Sie Backups auf (das obenstehende Backup-Skript)

Erwägen Sie einen dedizierten/reservierten Server für kritische Workloads


# Falls unter v22, neu installieren

  1. Tipps & Best Practices Günstig starten

  2. — Verwenden Sie zunächst einen einfachen CPU-Server. Fügen Sie eine GPU hinzu, wenn Sie lokale Inferenz benötigen. Verwenden Sie On-Demand für Produktion

  3. — Spot ist günstiger, kann aber unterbrochen werden. On-Demand garantiert Betriebszeit. Regelmäßig sichern Konfiguration, Auth, Zustand, Agentenprofile — Ihr

  4. enthält alle Erinnerungen und Konfigurationen. Kosten überwachen

  5. — Prüfen Sie regelmäßig Ihr Clore-Dashboard. Legen Sie Ausgabenwarnungen fest, falls verfügbar. Verwenden Sie die Control-UI http://127.0.0.1:18789/ — Zugriff über SSH-Tunnel unter

  6. für webbasierte Verwaltung. Mit API-Modellen kombinieren


— Selbst mit einem GPU-Server sollten Sie Claude/GPT per API für den Hauptagenten verwenden und lokale Modelle für spezielle Aufgaben (Embeddings, Transkription).

Zuletzt aktualisiert

War das hilfreich?