CrewAI Multi-Agenten-Framework

Setzen Sie CrewAI auf Clore.ai ein — orchestrieren Sie Teams von rollenspielenden autonomen KI-Agenten für komplexe mehrstufige Aufgaben unter Nutzung beliebiger LLM-Anbieter.

Überblick

CrewAIarrow-up-right ist ein hochmodernes Framework zur Orchestrierung rollenbasierter autonomer KI-Agenten, mit 44K+ GitHub-Sternen. Im Gegensatz zu Ein-Agenten-Systemen ermöglicht CrewAI die Definition spezialisierter Agenten (Researcher, Writer, Coder, Analyst...), die als "Crew" zusammenarbeiten, um komplexe Aufgaben zu erfüllen — jeder Agent mit eigener Rolle, Zielsetzung, Hintergrundgeschichte und Werkzeugkasten.

An Clore.ai, CrewAI kann in einer dockerisierten Umgebung für nur 0,05–0,20 $/Std.. Während CrewAI selbst CPU-gebunden ist (es orchestriert API-Aufrufe), erhalten Sie in Kombination mit einem lokalen Ollama- oder vLLM-Server auf demselben GPU-Knoten ein vollständig privates, offline-fähiges Multi-Agenten-System.

Wesentliche Funktionen:

  • 👥 Multi-Agenten-Crews — definieren Sie Agenten-Personas mit Rollen, Zielen und Hintergrundgeschichten

  • 🎯 Aufgabendelegation — Manager-Agent weist Aufgaben automatisch dem passenden Spezialisten zu

  • 🛠️ Tool-Ökosystem — Websuche, Datei-I/O, Code-Ausführung, Datenbankzugriff, benutzerdefinierte Tools

  • 🔁 Sequenziell & Parallel — führe Aufgaben nacheinander aus oder lasse unabhängige Aufgaben gleichzeitig laufen

  • 🧠 Agenten-Speicher — Kurzzeit-, Langzeit-, Entitäts- und Kontextspeicher-Typen

  • 🔌 LLM-agnostisch — funktioniert mit OpenAI, Anthropic, Google, Ollama, Groq, Azure und mehr

  • 📊 CrewAI Studio — visuelle Oberfläche zum Erstellen von Crews ohne Code (Enterprise)

  • 🚀 Pipelines — verknüpfe mehrere Crews für komplexe mehrstufige Workflows


Anforderungen

CrewAI ist eine Python-Bibliothek. Sie läuft auf der CPU und benötigt nur eine System-Python-Umgebung 3.10+ oder Docker. GPU ist optional, ermöglicht jedoch leistungsstarke lokale Modell-Inferenz.

Konfiguration
GPU
VRAM
System-RAM
Festplatte
Clore.ai-Preis

Minimal (Cloud-APIs)

Keine / CPU

2 GB

10 GB

~0,03 $/Std. (CPU)

Standard

Keine / CPU

4 GB

20 GB

~0,05 $/Std.

+ Lokales LLM (klein)

RTX 3080

10 GB

8 GB

40 GB

~0,15 $/Std.

+ Lokales LLM (groß)

RTX 3090 / 4090

24 GB

16 GB

60 GB

0,20–0,35 $/Std.

+ Hochwertiges lokales LLM

A100 40 GB

40 GB

32 GB

100 GB

~0,80 $/Std.

API-Schlüssel

CrewAI funktioniert mit den meisten großen LLM-Anbietern. Sie benötigen mindestens einen:

  • OpenAI — GPT-4o (beste Reasoning-Fähigkeiten für komplexe Aufgaben)

  • Anthropic — Claude 3.5 Sonnet (ausgezeichnet für schreibintensive Crews)

  • Groq — Kostenloser Tarif, schnelle Inferenz (Llama 3 70B)

  • Ollama — Vollständig lokal, kein API-Schlüssel erforderlich (siehe GPU-Beschleunigung)


Schnellstart

1. Miete einen Clore.ai-Server

Melde dich an bei clore.aiarrow-up-right:

  • Nur CPU bei Nutzung von Cloud-LLM-APIs

  • RTX 3090/4090 für lokale Ollama-Inferenz

  • SSH-Zugriff aktiviert

  • Keine speziellen Portanforderungen für CLI-Nutzung (Ports nur für Web-UIs öffnen)

2. Verbinden und vorbereiten

3. Option A — Direkte pip-Installation (am schnellsten)

4. Option B — Docker-Container (empfohlen für Reproduzierbarkeit)

5. Erstelle deine erste Crew


Konfiguration

Projektstruktur (von crewai create)

agents.yaml — Definiere deine Agenten

tasks.yaml — Definiere Aufgaben

crew.py — Stelle die Crew zusammen

Ausführen mit Docker Compose (mit Ollama)


GPU-Beschleunigung

CrewAI selbst nutzt die GPU nicht — das aufgerufene LLM jedoch. Führe Ollama oder vLLM auf demselben Clore-Server aus für GPU-beschleunigte lokale Inferenz.

Ollama-Setup (empfohlen wegen Benutzerfreundlichkeit)

CrewAI-LLM pro Agent konfigurieren

Modellempfehlungen für Agentenaufgaben

Aufgabentyp
Empfohlenes Modell
VRAM
Hinweise

Recherche + Websuche

Llama 3.1 70B

40 GB

Bestes lokales Reasoning

Code-Generierung

Codestral 22B

13 GB

Code-spezialisiert

Schreiben

Llama 3.1 8B

6 GB

Schnell, gute Qualität

Komplexe Orchestrierung

GPT-4o (API)

Insgesamt am besten

Embeddings/Speicher

nomic-embed-text

< 1 GB

Erforderlich für Speicher

Siehe Ollama auf Clore.ai und vLLM auf Clore.ai für vollständige Inferenz-Setup-Anleitungen.


Tipps & bewährte Methoden

Kostenoptimierung

Crews als persistenten Dienst ausführen

Nützliche eingebaute CrewAI-Tools

Implementierung Human-in-the-Loop


Fehlerbehebung

"openai.AuthenticationError" selbst bei gültigem Schlüssel

Agent in Reasoning-Schleife festgefahren

CrewAI-Tools schlagen fehl (SerperDevTool 403)

Speicherfehler (ChromaDB / Embeddings)

Docker-Build scheitert wegen ARM/x86-Unterschied

Rate-Limiting durch LLM-APIs


Weiterführende Lektüre

Zuletzt aktualisiert

War das hilfreich?