OpenClaw sur Clore

Déployez l’assistant IA OpenClaw sur un serveur GPU de Clore.ai — toujours actif, accéléré par GPU, avec intégration Telegram/Discord, inférence LLM locale et capacités vocales.

Aperçu

OpenClawarrow-up-right est une plateforme d'agents IA open-source qui se connecte à Claude, GPT, Gemini et des modèles locaux — agissant comme un assistant IA personnel sur Telegram, Discord, WhatsApp et plus. L'exécuter sur un serveur Clore.ai vous offre :

  • Disponibilité 24/7 — pas de mise en veille de l'ordinateur portable, pas de déconnexions

  • Accélération GPU — inférence LLM locale (Ollama, vLLM), STT Whisper, TTS, génération d'images

  • Faible coût — louez exactement le matériel dont vous avez besoin, payez à l'heure

  • Contrôle total — accès root, prise en charge de Docker, n'importe quelle pile logicielle

Pourquoi Clore + OpenClaw ?

Fonctionnalité
Ordinateur portable
VPS traditionnel
Serveur Clore.ai

Toujours actif

GPU disponible

Limité

❌ ou $$$

✅ à partir de 0,10 $/h

Inférence LLM locale

Lent

CPU seulement

Pleine vitesse GPU

Voix (Whisper/TTS)

Lent (CPU)

✅ Temps réel

Root + Docker

Facturation horaire

N/A

Mensuel

✅ À l'heure

Matériel recommandé

Cas d'utilisation
GPU
VRAM
RAM
Coût estimé

Assistant de base (API uniquement, pas de modèles locaux)

N'importe lequel / CPU seulement

8 Go+

0,05–0,15 $/h

LLM local 7–8B (Ollama + Llama 3.1 8B)

RTX 3060/3070

12 Go

16 Go+

0,10–0,25 $/h

LLM local 70B (vLLM + Llama 3.1 70B)

RTX 4090 / A100

24–80 Go

64 Go+

0,30–1,00 $/h

Pile complète (LLM + Whisper + TTS + génération d'images)

RTX 4090

24 Go

32 Go+

0,25–0,50 $/h

Astuce : Si vous n'avez besoin d'OpenClaw qu'en tant qu'assistant cloud utilisant des modèles API (Claude, GPT), vous n'avez pas besoin de GPU du tout — un serveur CPU bon marché suffit. Ajoutez un GPU lorsque vous souhaitez l'inférence locale.


Étape 1 : Louer un serveur sur Clore.ai

1.1 Parcourir le Marketplace

Aller à clore.ai/marketplacearrow-up-right et filtrez selon vos exigences :

  • Pour un assistant de base : Triez par prix, choisissez n'importe quel serveur Ubuntu bon marché

  • Pour un LLM local : Filtrez par GPU (par ex. RTX 4090), assurez-vous ≥24 Go de VRAM

  • OS : Choisir Ubuntu 22.04 ou Ubuntu 24.04 (meilleure compatibilité)

1.2 Créer une commande

  1. Sélectionnez le serveur → Louer

  2. Choisir À la demande (horaire) ou Spot (moins cher mais peut être surenchéri)

  3. Sélectionnez l'image Docker : ubuntu:22.04 ou nvidia/cuda:12.4.0-runtime-ubuntu22.04 (si vous avez besoin de GPU)

  4. Définissez la clé publique SSH (ou utilisez un mot de passe — clé SSH recommandée)

  5. Confirmez la commande

1.3 Se connecter via SSH

Une fois le serveur en fonctionnement, trouvez les détails de connexion SSH dans votre Commandesarrow-up-right page :

Remarque : Les serveurs Clore utilisent des conteneurs Docker, vous obtenez donc un accès root à l'intérieur du conteneur. Le port SSH peut être non standard (par ex. 50022) — vérifiez les détails de votre commande.


Étape 2 : Installer OpenClaw

2.1 Installer Node.js 22+

2.2 Installer OpenClaw

Option A : Script d'installation (recommandé)

Le script installe l'outil CLI, lance l'onboarding et démarre la passerelle.

Option B : Installation manuelle via npm

2.3 Lancer l'assistant d'onboarding

Si vous avez utilisé le script d'installation, l'onboarding s'exécute automatiquement. Sinon :

L'assistant vous demandera de :

  1. Configurer l'authentification — collez votre clé API Anthropic ou connectez-vous via OAuth

  2. Choisir un canal — jeton de bot Telegram, Discord, WhatsApp, etc.

  3. Configurer la passerelle — port, liaison, sécurité

Pour Telegram : Créez un bot via @BotFatherarrow-up-right, copiez le jeton et collez-le pendant l'onboarding.


Étape 3 : Configurer pour un fonctionnement toujours actif

3.1 Démarrer la passerelle en tant que service

3.2 La garder en marche avec systemd (recommandé)

Si OpenClaw n'a pas auto-installé le service systemd :

3.3 Alternative : Screen/tmux (Rapide & Simple)


Étape 4 : Configuration GPU (Optionnel — Pour modèles locaux)

Ignorez cette section si vous utilisez uniquement des modèles basés sur API (Claude, GPT, etc.).

4.1 Vérifier l'accès GPU

Si nvidia-smi fonctionne, votre GPU est prêt. La plupart des images CUDA Clore sont préconfigurées.

4.2 Installer Ollama (Inférence LLM locale)

Configurer OpenClaw pour utiliser Ollama comme fournisseur — voir le guide Ollama pour les détails.

4.3 Installer Whisper (Transcription vocale)

Pour la reconnaissance vocale accélérée par GPU :

Voir le guide WhisperX pour l'installation complète.


Étape 5 : Sécurité & Accès à distance

5.1 Sécuriser la passerelle

Par défaut, la passerelle se lie à loopback (127.0.0.1). Pour un accès à distance :

Option A : Tunnel SSH (le plus sécurisé)

Depuis votre ordinateur portable :

Puis ouvrez http://127.0.0.1:18789/ dans votre navigateur.

Option B : Accès direct protégé par token

Éditez ~/.openclaw/config.json5:

⚠️ Toujours définir un token si liaison à lan. Sans cela, n'importe qui peut accéder à votre passerelle.

5.2 Configuration du pare-feu


Étape 6 : Persistance & Sauvegardes

6.1 Répertoires importants

Chemin
Contenu

~/.openclaw/

Configuration, auth, état, profils d'agents

~/.openclaw/workspace/

MEMORY.md, notes quotidiennes, compétences, outils

~/.openclaw/agents/

Configurations multi-agents (si utilisation d'équipes)

6.2 Script de sauvegarde

Créez une sauvegarde simple pour protéger votre configuration :

6.3 Migration entre serveurs

Si vous devez passer à un autre serveur Clore :


Configurations d'exemple

Bot Telegram basique (Pas de GPU)

Configuration la moins chère — juste un assistant alimenté par API :

Station de travail IA (GPU)

Fonctionnalités complètes avec modèles locaux :

Équipe multi-agents

Exécutez une équipe d'agents IA spécialisés :


Dépannage

La passerelle ne démarre pas

GPU non détecté

Connexions coupées au redémarrage du serveur

Les instances spot Clore peuvent être récupérées. Pour une opération persistante :

  • Utilisez la tarification à la demande (pas spot) Configurez le service systemd (redémarrage automatique)

  • Conservez des sauvegardes (le script de sauvegarde ci-dessus)

  • Envisagez un serveur dédié/réservé pour les charges critiques

  • Problèmes de version Node.js

# Vérifier la version


Commencez bon marché

  1. — Utilisez d'abord un serveur CPU basique. Ajoutez un GPU lorsque vous avez besoin d'inférence locale. Utilisez on-demand pour la production

  2. — Spot est moins cher mais peut être interrompu. On-demand garantit la disponibilité. Sauvegardez régulièrement

  3. — Votre contient toute la mémoire et les configurations. ~/.openclaw/workspace/ Surveillez les coûts

  4. — Vérifiez régulièrement votre tableau de bord Clore. Configurez des alertes de dépenses si disponible. Utilisez l'interface Control

  5. — Accédez via tunnel SSH à pour la gestion via le web. http://127.0.0.1:18789/ Combinez avec des modèles API

  6. — Même avec un serveur GPU, utilisez Claude/GPT via API pour l'agent principal et des modèles locaux pour des tâches spécifiques (embeddings, transcription). Lectures complémentaires


Prise en main d'OpenClaw

Mis à jour

Ce contenu vous a-t-il été utile ?