Cadre d'agents SuperAGI

Déployez SuperAGI sur Clore.ai — un cadre d'agents IA autonomes axé développeur avec tableau de bord GUI, place de marché d'outils, agents concurrents et support optionnel de LLM local sur des serveurs cloud GPU puissants.

Aperçu

SuperAGIarrow-up-right est un cadre d'agents IA autonomes open-source, orienté développeur, avec plus de 15K étoiles sur GitHub. Contrairement aux simples chatbots, SuperAGI exécute agents autonomes — des systèmes d'IA qui planifient de manière autonome, exécutent des tâches en plusieurs étapes, utilisent des outils et itèrent vers un objectif sans intervention humaine constante.

Pourquoi exécuter SuperAGI sur Clore.ai ?

  • GPU optionnel avec prise en charge puissante des LLM locaux — Exécutez des agents soutenus par des modèles locaux (Llama, Mistral, etc.) sur les GPU de Clore.ai pour une IA autonome entièrement privée et à coût contrôlé.

  • Exécution concurrente d'agents — Exécutez plusieurs agents en parallèle sur le même serveur, chacun travaillant sur des tâches différentes simultanément.

  • Mémoire persistante des agents — Les agents conservent le contexte, apprennent des sorties des outils et stockent une mémoire à long terme dans des bases de données vectorielles entre les exécutions.

  • Place de marché d'outils — Intégrations préconstruites pour Google Search, GitHub, Email, Jira, Notion, et plus encore.

  • Économie de Clore.ai — À environ 0,20 $/h pour une RTX 3090, vous pouvez exécuter des agents autonomes capables à une fraction du coût des services d'IA cloud.

Principales caractéristiques

Fonction
Description

Provisionnement d'agents

Créez, configurez et déployez des agents via une interface graphique

Place de marché d'outils

Plus de 30 outils intégrés (recherche, code, fichiers, API)

Prise en charge multi-modèle

OpenAI, Anthropic, LLM locaux via endpoint personnalisé

Agents concurrents

Exécutez plusieurs agents simultanément

Mémoire d'agent

Court terme (fenêtre de contexte) + long terme (BD vectorielle)

Tableau de bord GUI

Interface web complète pour la gestion des agents

Gestionnaire de ressources

Suivez l'utilisation des tokens et les coûts par agent

Modèles de workflow

Modèles d'agents préconstruits pour tâches courantes

Architecture


Exigences

Spécifications du serveur

Composant
Minimum
Recommandé
Remarques

GPU

Aucun (mode API)

RTX 3090 (LLM locaux)

GPU nécessaire pour l'inférence de modèles locaux

VRAM

24 Go

Pour exécuter des modèles locaux 13B+

CPU

4 vCPU

8 vCPU

L'exécution d'agents est gourmande en CPU

RAM

8 Go

16 Go

Plusieurs agents concurrents ont besoin de mémoire

Stockage

20 Go

100+ Go

Journaux d'agents, BD vectorielle, stockage de modèles

Référence de tarification Clore.ai

Type de serveur
Coût approximatif
Cas d'utilisation

CPU (8 vCPU, 16 Go)

≈ 0,10–0,20 $/h

SuperAGI + API externe (OpenAI/Anthropic)

RTX 3090 (24 Go)

~0,20 $/h

SuperAGI + Ollama modèle local 13B

RTX 4090 (24 Go)

~0,35 $/h

SuperAGI + Ollama, inférence plus rapide

2× RTX 3090

~0,40 $/h

SuperAGI + modèle 70B (quantifié Q4)

A100 80 Go

~1,10 $/h

SuperAGI + grands modèles, haute concurrence

H100 80 Go

≈ 2,50 $/h

Systèmes d'agents autonomes de niveau production

💡 Conseil sur les coûts : Pour le développement et les tests, utilisez les APIs OpenAI ou Anthropic (aucun GPU requis). Passez à une instance GPU seulement lorsque vous avez besoin d'inférence LLM locale pour des raisons de confidentialité ou de coût. Voir Guide de comparaison GPU.

Prérequis

  • Serveur Clore.ai avec accès SSH

  • Docker + Docker Compose (pré-installés sur Clore.ai)

  • Git (préinstallé)

  • 4+ vCPU, 8+ Go de RAM (16 Go recommandés pour agents concurrents)

  • Clé API OpenAI ou endpoint LLM local (Ollama/vLLM)


Démarrage rapide

Méthode 1 : Docker Compose (Officiel — Recommandé)

Le déploiement officiel de SuperAGI utilise Docker Compose pour gérer tous les services.

Étape 1 : Connectez-vous à votre serveur Clore.ai

Étape 2 : Cloner et configurer

Étape 3 : Éditer config.yaml

Configuration minimale requise :

Étape 4 : Démarrer la stack

Le processus de build télécharge les dépendances et compile le frontend (~5–10 minutes lors de la première exécution).

Étape 5 : Surveiller le démarrage

Étape 6 : Accéder au tableau de bord

L'API est disponible à :

Documentation de l'API :


Méthode 2 : Démarrage rapide avec images préconstruites

Pour un démarrage plus rapide en utilisant des images préconstruites (sauter l'étape de build) :


Méthode 3 : Configuration minimale mono-modèle

Une configuration simplifiée pour tester uniquement avec OpenAI :


Configuration

config.yaml Référence

Connexion de SuperAGI aux outils

Les outils sont configurés via l'interface graphique à Settings → Toolkit. Chaque outil peut être activé/désactivé par agent.

Outils intégrés :

Outil
But
Clé API requise

Recherche Google

Recherche web

Oui (API Google)

DuckDuckGo

Recherche web

Non

GitHub

Accès au dépôt de code

Oui (token GitHub)

Email

Envoyer/recevoir des e-mails

Oui (config SMTP)

Générateur de code

Écrire et exécuter du code

Non

Gestionnaire de fichiers

Lire/écrire des fichiers locaux

Non

Navigateur

Navigation web headless

Non

Jira

Suivi des tickets

Oui

Notion

Base de connaissances

Oui

Génération d'images

DALL-E 3, Stable Diffusion

Oui (clé OpenAI)

Créer votre premier agent

Via l'interface graphique (Settings → Agents → Create Agent) :

  1. Nom — Donnez à votre agent un nom descriptif

  2. Description — Ce que fait cet agent

  3. Objectifs — Listez les objectifs (un par ligne)

  4. Instructions — Prompt système pour le comportement

  5. Modèle — Sélectionnez LLM (GPT-4, Claude ou local)

  6. Outils — Activez les outils pertinents

  7. Itérations max — Limite de sécurité (10–50 typique)

Via l'API REST :


Accélération GPU

SuperAGI prend en charge l'inférence LLM locale via tout endpoint compatible OpenAI, ce qui le rend idéal pour les déploiements Clore.ai avec GPU.

Configurer Ollama comme backend LLM pour les agents

Voir Guide Ollama pour la configuration complète d'Ollama. Intégration avec SuperAGI :

Étape 1 : Démarrer Ollama sur le même serveur Clore.ai

Étape 2 : Configurer SuperAGI pour utiliser Ollama

Dans config.yaml:

Ou configurer dans l'UI SuperAGI :

  • Settings → Models → Add Custom Model

  • Fournisseur : compatible OpenAI

  • URL de base : http://172.17.0.1:11434/v1

  • Clé API : ollama (n'importe quelle chaîne)

  • Nom du modèle : llama3.1:8b

Configurer vLLM pour des agents à haut débit

Pour les déploiements en production avec de nombreux agents concurrents (voir - Débit le plus élevé):

Dimensionnement GPU pour charges de travail d'agents

Cas d'utilisation
Modèle
GPU
VRAM
Agents concurrents

Test

GPT-4o-mini (API)

Aucune

Illimité (limité par le débit)

Agents légers

Llama 3.1 8B

RTX 3090

8 Go

2–4

Tâches de raisonnement

Mistral 7B Instruct

RTX 3090

6 Go

3–5

Agents complexes

Llama 3.1 70B Q4

2× RTX 3090

48 Go

1–2

Production

Llama 3.1 70B FP16

A100 80GB

80 Go

3–6


Conseils et bonnes pratiques

Conception d'agent

  • Soyez précis avec les objectifs — Des objectifs vagues comme « faire des recherches » font boucler les agents. Utilisez « Rechercher X et écrire un résumé de 500 mots dans output.txt. »

  • Définir des limites d'itération — Fixez toujours max_iterations (20–50). Les agents illimités peuvent consommer rapidement des tokens.

  • Utiliser le mode file de tâches — Pour les pipelines multi-étapes, les agents « Task Queue » sont plus fiables que le mode « Don't Limit ».

  • Testez d'abord avec des modèles peu coûteux — Validez la logique de l'agent avec GPT-4o-mini ou un modèle local 7B avant d'utiliser des modèles coûteux.

Gestion des coûts sur Clore.ai

Puisque Clore.ai facture à l'heure :

Sécurisation de SuperAGI

Stockage persistant entre les sessions Clore.ai

Mise à jour de SuperAGI


Dépannage

Le build échoue pendant docker compose up --build

Le backend plante au démarrage

Le frontend ne se charge pas (port 3000)

Les agents bouclent indéfiniment

Erreurs de connexion Redis

Ollama non joignable depuis le conteneur SuperAGI

Pool de connexions à la base de données épuisé


Lectures complémentaires

Mis à jour

Ce contenu vous a-t-il été utile ?