OpenClaw auf Clore

Setzen Sie den OpenClaw KI-Assistenten auf einem Clore.ai GPU-Server ein — immer verfügbar, GPU-beschleunigt, mit Telegram-/Discord-Integration, lokaler LLM-Inferenz und Sprachfunktionen.

Überblick

OpenClawarrow-up-right ist eine Open-Source-AI-Agentenplattform, die sich mit Claude, GPT, Gemini und lokalen Modellen verbindet — und als persönlicher KI-Assistent über Telegram, Discord, WhatsApp und mehr fungiert. Wenn Sie sie auf einem Clore.ai-Server betreiben, erhalten Sie:

  • 24/7 Verfügbarkeit — kein Laptop-Schlaf, keine Verbindungsabbrüche

  • GPU-Beschleunigung — lokale LLM-Inferenz (Ollama, vLLM), Whisper STT, TTS, Bildgenerierung

  • Geringe Kosten — mieten Sie genau die Hardware, die Sie brauchen, zahlen Sie stundenweise

  • Volle Kontrolle — Root-Zugang, Docker-Unterstützung, beliebiger Software-Stack

Warum Clore + OpenClaw?

Funktion
Laptop
Traditioneller VPS
Clore.ai Server

Immer an

GPU verfügbar

Begrenzt

❌ oder $$$

✅ ab $0.10/Stunde

Lokale LLM-Inferenz

Langsam

Nur CPU

Volle GPU-Geschwindigkeit

Sprache (Whisper/TTS)

Langsam (CPU)

✅ Echtzeit

Root + Docker

Stundenabrechnung

N/A

Monatlich

✅ Pro Stunde

Empfohlene Hardware

Einsatzgebiet
GPU
VRAM
RAM
Geschätzte Kosten

Basis-Assistent (nur API, keine lokalen Modelle)

Beliebig / nur CPU

8 GB+

$0.05–0.15/Stunde

Lokales 7–8B LLM (Ollama + Llama 3.1 8B)

RTX 3060/3070

12 GB

16 GB+

$0.10–0.25/Stunde

Lokales 70B LLM (vLLM + Llama 3.1 70B)

RTX 4090 / A100

24–80 GB

64 GB+

$0.30–1.00/Stunde

Full Stack (LLM + Whisper + TTS + Bildgenerierung)

RTX 4090

24 GB

32 GB+

$0.25–0.50/Stunde

Tipp: Wenn Sie OpenClaw nur als cloudbasierten Assistenten mit API-Modellen (Claude, GPT) nutzen, benötigen Sie überhaupt keine GPU — ein günstiger CPU-Server reicht aus. Fügen Sie eine GPU hinzu, wenn Sie lokale Inferenz möchten.


Schritt 1: Einen Server auf Clore.ai mieten

1.1 Durchsuchen Sie den Marktplatz

Gehen Sie zur clore.ai/marketplacearrow-up-right und filtern Sie nach Ihren Anforderungen:

  • Für Basis-Assistenten: Nach Preis sortieren, einen günstigen Ubuntu-Server wählen

  • Für lokale LLM: Nach GPU filtern (z. B. RTX 4090), sicherstellen, dass ≥24 GB VRAM vorhanden sind

  • Betriebssystem: Wählen Sie Ubuntu 22.04 oder Ubuntu 24.04 (beste Kompatibilität)

1.2 Erstellen Sie eine Bestellung

  1. Wählen Sie den Server → Mieten

  2. Wählen On-Demand (stündlich) oder Spot (günstiger, kann aber überboten werden)

  3. Wählen Sie das Docker-Image: ubuntu:22.04 oder nvidia/cuda:12.4.0-runtime-ubuntu22.04 (falls Sie eine GPU benötigen)

  4. Setzen Sie den SSH-Public-Key (oder verwenden Sie ein Passwort — SSH-Schlüssel empfohlen)

  5. Bestätigen Sie die Bestellung

1.3 Verbindung via SSH herstellen

Sobald der Server läuft, finden Sie die SSH-Verbindungsdetails auf Ihrer Bestellungenarrow-up-right Seite:

Hinweis: Clore-Server verwenden Docker-Container, daher erhalten Sie Root-Zugriff innerhalb des Containers. Der SSH-Port kann nicht standardmäßig sein (z. B. 50022) — prüfen Sie Ihre Bestelldetails.


Schritt 2: OpenClaw installieren

2.1 Installieren Sie Node.js 22+

2.2 Installieren Sie OpenClaw

Option A: Installationsskript (empfohlen)

Das Skript installiert die CLI, führt das Onboarding aus und startet das Gateway.

Option B: Manuelle npm-Installation

2.3 Führen Sie den Onboarding-Assistenten aus

Wenn Sie das Installationsskript verwendet haben, läuft das Onboarding automatisch. Andernfalls:

Der Assistent wird Sie auffordern:

  1. Auth einrichten — fügen Sie Ihren Anthropic-API-Schlüssel ein oder verbinden Sie sich per OAuth

  2. Wählen Sie einen Kanal — Telegram-Bot-Token, Discord, WhatsApp usw.

  3. Konfigurieren Sie das Gateway — Port, Bindung, Sicherheit

Für Telegram: Erstellen Sie einen Bot über @BotFatherarrow-up-right, kopieren Sie das Token und fügen Sie es während des Onboardings ein.


Schritt 3: Für Always-On-Betrieb konfigurieren

3.1 Starten Sie das Gateway als Dienst

3.2 Laufend halten mit systemd (empfohlen)

Wenn OpenClaw den systemd-Dienst nicht automatisch installiert hat:

3.3 Alternative: Screen/tmux (schnell & einfach)


Schritt 4: GPU-Einrichtung (optional — für lokale Modelle)

Überspringen Sie diesen Abschnitt, wenn Sie nur API-basierte Modelle (Claude, GPT usw.) verwenden.

4.1 GPU-Zugriff überprüfen

Wenn nvidia-smi funktioniert, ist Ihre GPU einsatzbereit. Die meisten Clore-CUDA-Images sind vorkonfiguriert.

4.2 Installieren Sie Ollama (lokale LLM-Inferenz)

Konfigurieren Sie OpenClaw so, dass Ollama als Provider verwendet wird — siehe das Ollama-Anleitung für Details.

4.3 Installieren Sie Whisper (Sprachtranskription)

Für GPU-beschleunigte Spracherkennung:

Siehe die WhisperX-Anleitung für die vollständige Einrichtung.


Schritt 5: Sicherheit & Remote-Zugriff

5.1 Sichern Sie das Gateway

Standardmäßig bindet das Gateway an Loopback (127.0.0.1). Für Remote-Zugriff:

Option A: SSH-Tunnel (am sichersten)

Von Ihrem Laptop:

Öffnen Sie dann http://127.0.0.1:18789/ in Ihrem Browser.

Option B: Token-geschützter direkter Zugriff

Bearbeiten ~/.openclaw/config.json5:

⚠️ Setzen Sie immer ein Token wenn Sie an lanbinden. Ohne Token kann jeder auf Ihr Gateway zugreifen.

5.2 Firewall-Einrichtung


Schritt 6: Persistenz & Backups

6.1 Wichtige Verzeichnisse

Pfad
Inhalt

~/.openclaw/

Konfiguration, Auth, Status, Agentenprofile

~/.openclaw/workspace/

MEMORY.md, tägliche Notizen, Skills, Tools

~/.openclaw/agents/

Multi-Agent-Konfigurationen (bei Verwendung von Teams)

6.2 Backup-Skript

Erstellen Sie ein einfaches Backup, um Ihre Konfiguration zu sichern:

6.3 Migration zwischen Servern

Wenn Sie auf einen anderen Clore-Server wechseln müssen:


Beispielkonfigurationen

Einfacher Telegram-Bot (keine GPU)

Günstigste Konfiguration — nur ein API-basierter Assistent:

AI-Arbeitsstation (GPU)

Voll ausgestattet mit lokalen Modellen:

Multi-Agenten-Team

Führen Sie ein Team spezialisierter KI-Agenten aus:


Fehlerbehebung

Gateway startet nicht

GPU nicht erkannt

Verbindung bricht bei Serverneustart ab

Clore-Spot-Instanzen können zurückgefordert werden. Für persistenten Betrieb:

  • Verwenden Sie On-Demand Preise (nicht Spot)

  • Richten Sie den systemd-Dienst ein (automatischer Neustart)

  • Sichern Sie Backups (das obenstehende Backup-Skript)

  • Erwägen Sie einen dedizierten/reservierten Server für kritische Workloads

Node.js Versionsprobleme


Tipps & bewährte Methoden

  1. Günstig starten — Verwenden Sie zuerst einen einfachen CPU-Server. Fügen Sie eine GPU hinzu, wenn Sie lokale Inferenz benötigen.

  2. Für Produktion On-Demand verwenden — Spot ist günstiger, kann aber unterbrochen werden. On-Demand gewährleistet Verfügbarkeit.

  3. Regelmäßig sichern — Ihr ~/.openclaw/workspace/ enthält alle Erinnerungen und Konfigurationen.

  4. Kosten überwachen — Prüfen Sie regelmäßig Ihr Clore-Dashboard. Legen Sie, falls verfügbar, Ausgabenwarnungen fest.

  5. Verwenden Sie die Control UI — Zugriff über SSH-Tunnel unter http://127.0.0.1:18789/ für webbasierte Verwaltung.

  6. Mit API-Modellen kombinieren — Selbst mit einem GPU-Server nutzen Sie Claude/GPT per API für den Hauptagenten und lokale Modelle für bestimmte Aufgaben (Embeddings, Transkription).


Weiterführende Lektüre

Zuletzt aktualisiert

War das hilfreich?