AutoGPT Autonomer Agent

Setzen Sie AutoGPT auf Clore.ai ein — betreiben Sie die ursprüngliche autonome KI-Agentenplattform mit Web-Browsing, Code-Ausführung und langfristiger Aufgabenautomatisierung.

Überblick

AutoGPTarrow-up-right ist die wegweisende Open-Source-Plattform für autonome KI-Agenten, mit 175K+ GitHub-Sternen — eines der am meisten mit Sternen versehenen Repositories auf GitHub. Ursprünglich ein Python-CLI-Tool, das 2023 viral ging, hat sich AutoGPT zu einer voll ausgestatteten Plattform mit Web-Frontend, visuellem Workflow-Builder, Multi-Agent-Orchestrierung und einer sich selbst verbessernden Agenten-Benchmark-Suite entwickelt.

Die aktuelle AutoGPT-Plattform besteht aus:

  • Frontend — Next.js visueller Agenten-Builder (Port 3000)

  • Backend / API — FastAPI-Service, der die Agentenausführung übernimmt (Port 8000)

  • Agenten-Ausführer — Python-Worker, die autonome Aufgaben-Schleifen ausführen

  • Postgres — persistenter Speicher für Agentenzustand und Ausführungen

  • Redis — Job-Queue und Pub/Sub

  • Minio — S3-kompatibler Objektspeicher für Agenten-Artefakte

An Clore.ai, AutoGPT läuft vollständig auf der CPU (es delegiert LLM-Aufrufe an Cloud-APIs), wodurch es erschwinglich ist bei 0,05–0,20 $/Std.. Optional können lokale Modelle über die OpenAI-kompatible Provider-Unterstützung integriert werden.

Wesentliche Funktionen:

  • 🤖 Autonome Agenten — Agenten zerlegen Aufgaben in Teilziele und führen sie iterativ aus

  • 🌐 Web-Browsing — Agenten können das Web durchsuchen, Seiten scrapen und Informationen synthetisieren

  • 💻 Code-Ausführung — sandboxed Python-Ausführungsumgebung für Coding-Agenten

  • 📁 Dateioperationen — lesen, schreiben und verwalten von Dateien als Teil der Aufgabenausführung

  • 🔗 Multi-Agent — spezialisierte Unteragenten erzeugen und hierarchisch orchestrieren

  • 🧠 Langzeitgedächtnis — vektorbasiertes Gedächtnis, das über Sitzungen hinweg persistiert

  • 📈 Agenten-Benchmarking — eingebaute AgentBenchmark-Suite zur Bewertung der Agentenleistung


Anforderungen

Die Compute-Anforderungen von AutoGPT hängen davon ab, ob Sie Cloud-LLM-APIs (Standard) oder lokale Modelle verwenden. Die Plattform selbst ist leichtgewichtig.

Konfiguration
GPU
VRAM
System-RAM
Festplatte
Clore.ai-Preis

Minimal (Cloud-APIs)

Keine / CPU

4 GB

20 GB

~0,05 $/Std. (CPU)

Standard

Keine / CPU

8 GB

40 GB

~0,08 $/Std.

Empfohlen

Keine / CPU

16 GB

60 GB

~0,12 $/Std.

+ Lokales LLM (Ollama)

RTX 3090

24 GB

16 GB

80 GB

~$0.20/Stunde

+ Großes lokales LLM

A100 40 GB

40 GB

32 GB

100 GB

~0,80 $/Std.

Hinweis: AutoGPT verwendet standardmäßig API-basierte LLMs (OpenAI GPT-4, Anthropic Claude usw.). Eine GPU ist nur nützlich, wenn Sie einen lokalen Modellendpunkt über Ollama oder einen anderen OpenAI-kompatiblen Server konfigurieren.

API-Schlüssel erforderlich

Sie benötigen mindestens einen der folgenden:

  • OpenAI-API-Schlüssel (GPT-4o empfohlen für beste Agentenleistung)

  • Anthropic-API-Schlüssel (Claude 3.5 Sonnet ist ausgezeichnet für Agenten)

  • Google AI-Schlüssel (Gemini-Modelle unterstützt)


Schnellstart

1. Miete einen Clore.ai-Server

Melden Sie sich an bei clore.aiarrow-up-right und starten Sie einen Server mit:

  • 2+ CPU-Kerne, 8 GB RAM Minimum

  • Freigegebene Ports 8000 (Backend-API) und 3000 (Frontend)

  • SSH-Zugriff aktiviert

  • 20+ GB Festplattenspeicher

2. Verbinden Sie sich mit dem Server

3. AutoGPT klonen und konfigurieren

4. Erforderliche Umgebungsvariablen setzen

5. Build und Start

6. Überprüfen, ob Services gesund sind

7. Auf AutoGPT zugreifen

Öffnen Sie Ihren Browser:

  • Frontend: http://<clore-server-ip>:3000

  • Backend-API: http://<clore-server-ip>:8000

  • API-Dokumentation (Swagger): http://<clore-server-ip>:8000/docs

Erstellen Sie ein Konto im Frontend, konfigurieren Sie Ihren LLM-Provider in den Einstellungen und beginnen Sie mit dem Erstellen von Agenten.


Konfiguration

Vollständig .env Referenz

Anpassen der Agenten-Fähigkeiten

Verwalten der Skalierung des Agenten-Ausführers


GPU-Beschleunigung

AutoGPT delegiert standardmäßig alle LLM-Inferenz an externe Provider. Um lokal GPU-beschleunigte Modelle zu verwenden:

Mit Ollama auf demselben Server verbinden

In .env, richten Sie AutoGPT auf Ollama aus:

Leistungshinweis: Autonome Agenten führen viele sequentielle LLM-Aufrufe aus. Lokale Modelle auf RTX 3090 (~30 Tok/s) funktionieren, aber A100 80GB ermöglicht schnellere Iteration. Siehe GPU-Vergleich.

Empfehlungen für lokale Modelle für Agenten

Modell
Agentenqualität
VRAM
Clore-GPU

Llama 3 8B

Akzeptabel

8 GB

RTX 3080

Llama 3.1 8B Instruct

Gut

8 GB

RTX 3080

Llama 3.1 70B

Ausgezeichnet

40 GB

A100 40GB

Mixtral 8x7B

Gut

24 GB

RTX 3090

Qwen 2.5 72B

Ausgezeichnet

40 GB

A100 40GB


Tipps & bewährte Methoden

Kostenmanagement auf Clore.ai

AutoGPT aktualisieren

Agentenläufe überwachen

Sicherheits-Härtung

Build-Zeiten optimieren


Fehlerbehebung

Build schlägt mit Out-of-Memory-Fehler fehl

Backend gibt 500 / "Database not ready" zurück

Frontend zeigt "Failed to connect to backend"

Agenten-Ausführer crasht / wird OOM-getötet

Redis-Verbindung verweigert

Agent steckt in einer Schleife fest


Weiterführende Lektüre

Zuletzt aktualisiert

War das hilfreich?