Cadre multi-agent CrewAI

Déployez CrewAI sur Clore.ai — orchestrez des équipes d'agents IA autonomes jouant des rôles pour des tâches complexes en plusieurs étapes en utilisant n'importe quel fournisseur LLM.

Aperçu

CrewAIarrow-up-right est un framework de pointe pour orchestrer agents IA autonomes jouant des rôles, avec 44K+ étoiles sur GitHub. Contrairement aux systèmes à agent unique, CrewAI vous permet de définir des agents spécialisés (Chercheur, Rédacteur, Développeur, Analyste...) qui collaborent en tant que « équipe » pour accomplir des tâches complexes — chaque agent avec son propre rôle, objectif, histoire de fond et boîte à outils.

Sur Clore.ai, CrewAI peut être déployé dans un environnement Dockerisé pour aussi peu que 0,05–0,20 $/h. Alors que CrewAI lui-même dépend du CPU (il orchestre des appels API), le combiner avec un serveur Ollama ou vLLM local sur le même nœud GPU vous donne un système multi-agents entièrement privé, capable de fonctionner hors ligne.

Principales capacités :

  • 👥 Équipes multi-agents — définir des personas d'agents avec rôles, objectifs et histoires de fond

  • 🎯 Délégation de tâches — l'agent manager assigne automatiquement les tâches au spécialiste approprié

  • 🛠️ Écosystème d'outils — recherche web, E/S de fichiers, exécution de code, accès base de données, outils personnalisés

  • 🔁 Séquentiel & Parallèle — exécuter les tâches dans l'ordre ou lancer des tâches indépendantes simultanément

  • 🧠 Mémoire des agents — types de mémoire à court terme, long terme, entité et contextuelle

  • 🔌 Indépendant du LLM — fonctionne avec OpenAI, Anthropic, Google, Ollama, Groq, Azure, et plus

  • 📊 CrewAI Studio — interface visuelle pour construire des équipes sans code (entreprise)

  • 🚀 Pipelines — enchaîner plusieurs équipes pour des workflows multi-étapes complexes


Exigences

CrewAI est une bibliothèque Python. Elle s'exécute sur CPU et ne nécessite qu'un environnement Python système 3.10+ ou Docker. Le GPU est optionnel mais permet une inférence locale de modèles très performante.

Configuration
GPU
VRAM
RAM système
Disque
Prix Clore.ai

Minimale (APIs cloud)

Aucun / CPU

2 Go

10 Go

≈ 0,03 $/h (CPU)

Standard

Aucun / CPU

4 Go

20 Go

≈ 0,05 $/h

+ LLM local (petit)

RTX 3080

10 Go

8 Go

40 Go

≈ 0,15 $/h

+ LLM local (grand)

RTX 3090 / 4090

24 Go

16 Go

60 Go

0,20–0,35 $/h

+ LLM local de haute qualité

A100 40 GB

40 Go

32 Go

100 Go

≈ 0,80 $/h

Clés API

CrewAI fonctionne avec la plupart des principaux fournisseurs de LLM. Vous avez besoin d'au moins une :

  • OpenAI — GPT-4o (meilleure capacité de raisonnement pour les tâches complexes)

  • Anthropic — Claude 3.5 Sonnet (excellent pour les équipes axées sur l'écriture)

  • Groq — Offre gratuite, inférence rapide (Llama 3 70B)

  • composant Ollama — Entièrement local, aucune clé API requise (voir Accélération GPU)


Démarrage rapide

1. Louez un serveur Clore.ai

Connectez-vous à clore.aiarrow-up-right:

  • CPU uniquement si vous utilisez des APIs cloud LLM

  • RTX 3090/4090 pour l'inférence Ollama locale

  • Accès SSH activé

  • Aucune exigence de port spéciale pour l'utilisation CLI (exposez des ports uniquement pour les interfaces web)

2. Connectez-vous et préparez

3. Option A — Installation directe via pip (la plus rapide)

4. Option B — Conteneur Docker (recommandé pour la reproductibilité)

5. Créez votre première équipe


Configuration

Structure du projet (depuis crewai create)

agents.yaml — Définissez vos agents

tasks.yaml — Définissez les tâches

crew.py — Assemblez l'équipe

Exécution avec Docker Compose (avec Ollama)


Accélération GPU

CrewAI lui-même n'utilise pas le GPU — mais le LLM qu'il appelle oui. Exécutez Ollama ou vLLM sur le même serveur Clore pour une inférence locale accélérée par GPU.

Installation d'Ollama (recommandée pour la simplicité)

Configurer le LLM de CrewAI par agent

Recommandations de modèles selon les tâches des agents

Type de tâche
Modèle recommandé
VRAM
Remarques

Recherche + recherche web

Llama 3.1 70B

40 Go

Meilleur raisonnement local

Génération de code

Codestral 22B

13 Go

Spécialisé code

Rédaction

Llama 3.1 8B

6 Go

Rapide, bonne qualité

Orchestration complexe

GPT-4o (API)

Meilleur en général

Embeddings/mémoire

nomic-embed-text

< 1 GB

Requis pour la mémoire

Voir Ollama sur Clore.ai et vLLM sur Clore.ai pour les guides complets d'installation d'inférence.


Conseils et bonnes pratiques

Optimisation des coûts

Exécution des équipes en service persistant

Outils intégrés utiles de CrewAI

Mise en œuvre de l'humain dans la boucle


Dépannage

"openai.AuthenticationError" même avec une clé valide

Agent bloqué dans une boucle de raisonnement

Les outils CrewAI échouent (SerperDevTool 403)

Erreurs de mémoire (ChromaDB / embeddings)

Échec de la construction Docker sur mismatch ARM/x86

Limitation de débit des APIs LLM


Lectures complémentaires

Mis à jour

Ce contenu vous a-t-il été utile ?