Agent autonome AutoGPT

Déployez AutoGPT sur Clore.ai — exécutez la plateforme d'agents IA autonomes originale avec navigation web, exécution de code et automatisation de tâches à horizon long.

Aperçu

AutoGPTarrow-up-right est la plateforme pionnière open-source d'agents IA autonomes, avec 175K+ étoiles sur GitHub — l'un des dépôts les plus étoilés sur GitHub. À l'origine un outil CLI Python devenu viral en 2023, AutoGPT a évolué en une plateforme complète avec une interface Web, un constructeur de flux visuels, une orchestration multi-agent et une suite de benchmarks auto-améliorante pour agents.

La plateforme AutoGPT actuelle se compose de :

  • Frontend — constructeur visuel d'agents Next.js (port 3000)

  • Backend / API — service FastAPI gérant l'exécution des agents (port 8000)

  • Exécuteur d'agents — workers Python exécutant des boucles de tâches autonomes

  • Postgres — stockage persistant pour l'état des agents et les exécutions

  • Redis — file de tâches et pub/sub

  • Minio — stockage d'objets compatible S3 pour les artefacts des agents

Sur Clore.ai, AutoGPT fonctionne entièrement sur CPU (il délègue les appels LLM aux API cloud), ce qui le rend abordable à 0,05–0,20 $/h. Vous pouvez optionnellement intégrer des modèles locaux via son support de fournisseurs compatibles OpenAI.

Principales capacités :

  • 🤖 Agents autonomes — les agents décomposent les tâches en sous-objectifs et les exécutent de manière itérative

  • 🌐 Navigation Web — les agents peuvent rechercher sur le web, extraire des pages et synthétiser l'information

  • 💻 Exécution de code — environnement d'exécution Python sandboxé pour les agents de codage

  • 📁 Opérations sur les fichiers — lire, écrire et gérer des fichiers dans le cadre de l'exécution des tâches

  • 🔗 Multi-agent — lancer des sous-agents spécialisés et les orchestrer de façon hiérarchique

  • 🧠 Mémoire à long terme — mémoire vectorielle persistée entre les sessions

  • 📈 Benchmarking d'agents — suite AgentBenchmark intégrée pour évaluer les performances des agents


Exigences

Les besoins en calcul d'AutoGPT dépendent de l'utilisation d'API LLM cloud (par défaut) ou de modèles locaux. La plateforme elle-même est légère.

Configuration
GPU
VRAM
RAM système
Disque
Prix Clore.ai

Minimale (API cloud)

Aucun / CPU

4 Go

20 Go

≈ 0,05 $/h (CPU)

Standard

Aucun / CPU

8 Go

40 Go

≈ 0,08 $/h

Recommandé

Aucun / CPU

16 Go

60 Go

≈ 0,12 $/h

+ LLM local (Ollama)

RTX 3090

24 Go

16 Go

80 Go

~0,20 $/h

+ Grand LLM local

A100 40 GB

40 Go

32 Go

100 Go

≈ 0,80 $/h

Remarque : AutoGPT utilise par défaut des LLM basés sur API (OpenAI GPT-4, Anthropic Claude, etc.). Un GPU n'est utile que si vous configurez un endpoint de modèle local via Ollama ou un autre serveur compatible OpenAI.

Clés API requises

Vous aurez besoin d'au moins l'une des suivantes :

  • Clé API OpenAI (GPT-4o recommandé pour de meilleures performances des agents)

  • Clé API Anthropic (Claude 3.5 Sonnet est excellent pour les agents)

  • Clé Google AI (modèles Gemini pris en charge)


Démarrage rapide

1. Louez un serveur Clore.ai

Connectez-vous à clore.aiarrow-up-right et lancez un serveur avec :

  • 2+ cœurs CPU, 8 Go de RAM minimum

  • Ports exposés 8000 (API backend) et 3000 (frontend)

  • Accès SSH activé

  • 20+ Go d'espace disque

2. Connectez-vous au serveur

3. Cloner et configurer AutoGPT

4. Définir les variables d'environnement requises

5. Construire et lancer

6. Vérifier que les services sont sains

7. Accéder à AutoGPT

Ouvrez votre navigateur :

  • Frontend : http://<clore-server-ip>:3000

  • API Backend : http://<clore-server-ip>:8000

  • Docs API (Swagger) : http://<clore-server-ip>:8000/docs

Créez un compte sur le frontend, configurez votre fournisseur LLM dans les Paramètres et commencez à créer des agents.


Configuration

Complet .env référence

Personnalisation des capacités des agents

Gestion de la mise à l'échelle de l'exécuteur d'agents


Accélération GPU

AutoGPT délègue par défaut toute l'inférence LLM à des fournisseurs externes. Pour utiliser des modèles locaux accélérés par GPU :

Connectez-vous à Ollama sur le même serveur

Dans .env, pointez AutoGPT vers Ollama :

Note sur les performances : Les agents autonomes effectuent de nombreux appels LLM séquentiels. Les modèles locaux sur RTX 3090 (~30 tok/s) fonctionnent, mais un A100 80GB permet une itération plus rapide. Voir Comparaison GPU.

Recommandations de modèles locaux pour les agents

Modèle
Qualité de l'agent
VRAM
GPU Clore

Llama 3 8B

Correct

8 Go

RTX 3080

Llama 3.1 8B Instruct

Bon

8 Go

RTX 3080

Llama 3.1 70B

Excellent

40 Go

A100 40GB

Mixtral 8x7B

Bon

24 Go

RTX 3090

Qwen 2.5 72B

Excellent

40 Go

A100 40GB


Conseils et bonnes pratiques

Gestion des coûts sur Clore.ai

Mise à jour d'AutoGPT

Surveillance des exécutions d'agents

Renforcement de la sécurité

Optimisation des temps de build


Dépannage

Le build échoue avec une erreur d'absence de mémoire

Le backend retourne 500 / « Database not ready »

Le frontend affiche « Failed to connect to backend »

L'exécuteur d'agents plante / est tué par OOM

Connexion Redis refusée

Agent bloqué dans une boucle


Lectures complémentaires

Mis à jour

Ce contenu vous a-t-il été utile ?