SuperAGI Agenten-Framework

Setzen Sie SuperAGI auf Clore.ai ein — ein entwicklerorientiertes autonomes KI-Agenten-Framework mit GUI-Dashboard, Tool-Marktplatz, gleichzeitigen Agenten und optionaler lokaler LLM-Unterstützung auf leistungsstarken GPU-Cloud-Servern.

Überblick

SuperAGIarrow-up-right ist ein Open-Source-, Entwickler-zentriertes Framework für autonome KI-Agenten mit über 15.000 GitHub-Sternen. Im Gegensatz zu einfachen Chatbots führt SuperAGI autonome Agenten — KI-Systeme, die eigenständig planen, mehrstufige Aufgaben ausführen, Werkzeuge nutzen und iterativ auf ein Ziel hinarbeiten, ohne ständige menschliche Eingaben.

Warum SuperAGI auf Clore.ai betreiben?

  • GPU-optional mit leistungsfähiger lokaler LLM-Unterstützung — Führen Sie Agenten, die von lokalen Modellen (Llama, Mistral usw.) unterstützt werden, auf Clore.ai-GPUs für vollständig private, kostenkontrollierte autonome KI aus.

  • Gleichzeitige Agentenausführung — Führen Sie mehrere Agenten parallel auf demselben Server aus, die gleichzeitig an unterschiedlichen Aufgaben arbeiten.

  • Persistenter Agentenspeicher — Agenten behalten Kontext, lernen aus Werkzeugausgaben und speichern Langzeiterinnerungen in Vektor-Datenbanken zwischen den Läufen.

  • Werkzeug-Marktplatz — Vorgefertigte Integrationen für Google Search, GitHub, E-Mail, Jira, Notion und mehr.

  • Clore.ai Ökonomie — Bei etwa $0,20/Stunde für eine RTX 3090 können Sie leistungsfähige autonome Agenten zu einem Bruchteil der Kosten von Cloud-KI-Diensten betreiben.

Hauptmerkmale

Funktion
Beschreibung

Agentenbereitstellung

Erstellen, konfigurieren und bereitstellen von Agenten über eine GUI

Werkzeug-Marktplatz

30+ integrierte Werkzeuge (Suche, Code, Dateien, APIs)

Multi-Modell-Unterstützung

OpenAI, Anthropic, lokale LLMs über benutzerdefinierte Endpunkte

Gleichzeitige Agenten

Führen Sie mehrere Agenten gleichzeitig aus

Agentenspeicher

Kurzfristig (Kontextfenster) + langfristig (Vektor-DB)

GUI-Dashboard

Vollständige Weboberfläche zur Verwaltung von Agenten

Ressourcenmanager

Verfolgen Sie Tokenverbrauch und Kosten pro Agent

Workflow-Vorlagen

Vorgefertigte Agentenvorlagen für gängige Aufgaben

Architektur


Anforderungen

Server-Spezifikationen

Komponente
Minimum
Empfohlen
Hinweise

GPU

Keines (API-Modus)

RTX 3090 (lokale LLMs)

GPU erforderlich für lokale Modellausführung

VRAM

24 GB

Zum Ausführen von lokalen Modellen ab 13B+

CPU

4 vCPU

8 vCPU

Agentenausführung ist CPU-intensiv

RAM

8 GB

16 GB

Mehrere gleichzeitige Agenten benötigen Speicher

Speicher

20 GB

100+ GB

Agentenprotokolle, Vektor-DB, Modellspeicher

Clore.ai Preisinformationen

Servertyp
Ungefähre Kosten
Einsatzgebiet

CPU (8 vCPU, 16 GB)

~$0.10–0.20/Stunde

SuperAGI + externe API (OpenAI/Anthropic)

RTX 3090 (24 GB)

~$0.20/Stunde

SuperAGI + Ollama 13B lokales Modell

RTX 4090 (24 GB)

~$0.35/Stunde

SuperAGI + Ollama, schnellere Inferenz

2× RTX 3090

~$0.40/Stunde

SuperAGI + 70B Modell (Q4 quantisiert)

A100 80 GB

~$1.10/Stunde

SuperAGI + große Modelle, hohe Gleichzeitigkeit

H100 80 GB

~$2.50/Stunde

Produktionsreife autonome Agentensysteme

💡 Kosten-Tipp: Für Entwicklung und Tests verwenden Sie die OpenAI- oder Anthropic-APIs (keine GPU erforderlich). Wechseln Sie zu einer GPU-Instanz nur, wenn Sie lokale LLM-Inferenz aus Datenschutz- oder Kostengründen benötigen. Siehe GPU-Vergleichsanleitung.

Voraussetzungen

  • Clore.ai-Server mit SSH-Zugang

  • Docker + Docker Compose (vorinstalliert auf Clore.ai)

  • Git (vorinstalliert)

  • 4+ vCPU, 8+ GB RAM (16 GB empfohlen für gleichzeitige Agenten)

  • OpenAI API-Schlüssel oder lokaler LLM-Endpunkt (Ollama/vLLM)


Schnellstart

Methode 1: Docker Compose (Offiziell — Empfohlen)

Die offizielle SuperAGI-Bereitstellung verwendet Docker Compose zur Verwaltung aller Dienste.

Schritt 1: Verbinden Sie sich mit Ihrem Clore.ai-Server

Schritt 2: Klonen und konfigurieren

Schritt 3: Bearbeiten config.yaml

Mindestanforderung an die Konfiguration:

Schritt 4: Stack starten

Der Build-Prozess lädt Abhängigkeiten herunter und kompiliert das Frontend (~5–10 Minuten beim ersten Lauf).

Schritt 5: Start überwachen

Schritt 6: Auf das Dashboard zugreifen

Die API ist verfügbar unter:

API-Dokumentation:


Methode 2: Schnellstart mit vorgefertigten Images

Für schnelleren Start mit vorgefertigten Images (überspringen Sie den Build-Schritt):


Methode 3: Minimale Ein-Modell-Installation

Eine vereinfachte Einrichtung zum Testen nur mit OpenAI:


Konfiguration

config.yaml Referenz

SuperAGI mit Werkzeugen verbinden

Werkzeuge werden über die GUI konfiguriert unter Einstellungen → Toolkit. Jedes Werkzeug kann pro Agent ein-/ausgeschaltet werden.

Eingebaute Werkzeuge:

Tool
Zweck
API-Schlüssel erforderlich

Google-Suche

Websuche

Ja (Google API)

DuckDuckGo

Websuche

Nein

GitHub

Zugriff auf Code-Repository

Ja (GitHub-Token)

E-Mail

E-Mails senden/lesen

Ja (SMTP-Konfiguration)

Code Writer

Code schreiben und ausführen

Nein

Dateimanager

Lokale Dateien lesen/schreiben

Nein

Browser

Headless-Web-Browsing

Nein

Jira

Issue-Tracking

Ja

Notion

Wissensdatenbank

Ja

Bildgenerierung

DALL-E 3, Stable Diffusion

Ja (OpenAI-Schlüssel)

Erstellen Ihres ersten Agenten

Über die GUI (Einstellungen → Agents → Agent erstellen):

  1. Name — Geben Sie Ihrem Agenten einen beschreibenden Namen

  2. Beschreibung — Was dieser Agent tut

  3. Ziele — Listen Sie die Ziele auf (jeweils eine pro Zeile)

  4. Anweisungen — System-Prompt für das Verhalten

  5. Modell — Wählen Sie LLM (GPT-4, Claude oder lokal)

  6. Werkzeuge — Aktivieren Sie relevante Werkzeuge

  7. Maximale Iterationen — Sicherheitsbegrenzung (typisch 10–50)

Über die REST-API:


GPU-Beschleunigung

SuperAGI unterstützt lokale LLM-Inferenz über jeden OpenAI-kompatiblen Endpunkt, was es ideal für GPU-gestützte Clore.ai-Bereitstellungen macht.

Einrichtung von Ollama als Agent-LLM-Backend

Siehe Ollama-Anleitung für die vollständige Ollama-Einrichtung. Integration mit SuperAGI:

Schritt 1: Starten Sie Ollama auf demselben Clore.ai-Server

Schritt 2: Konfigurieren Sie SuperAGI zur Nutzung von Ollama

In config.yaml:

Oder konfigurieren Sie es in der SuperAGI-UI:

  • Einstellungen → Modelle → Benutzerdefiniertes Modell hinzufügen

  • Anbieter: OpenAI-kompatibel

  • Basis-URL: http://172.17.0.1:11434/v1

  • API-Schlüssel: ollama (beliebiger String)

  • Modellname: llama3.1:8b

Einrichtung von vLLM für hochdurchsatzfähige Agenten

Für Produktionsbereitstellungen mit vielen gleichzeitigen Agenten (siehe vLLM-Leitfaden):

GPU-Bemessung für Agenten-Workloads

Einsatzgebiet
Modell
GPU
VRAM
Gleichzeitige Agenten

Test

GPT-4o-mini (API)

Keine

Unbegrenzt (drosselbar)

Leichte Agenten

Llama 3.1 8B

RTX 3090

8 GB

2–4

Schlussfolgerungsaufgaben

Mistral 7B Instruct

RTX 3090

6 GB

3–5

Komplexe Agenten

Llama 3.1 70B Q4

2× RTX 3090

48 GB

1–2

Produktion

Llama 3.1 70B FP16

A100 80GB

80 GB

3–6


Tipps & bewährte Methoden

Agenten-Design

  • Seien Sie spezifisch mit Zielen — Vage Ziele wie "Recherchiere" führen dazu, dass Agenten in Schleifen geraten. Verwenden Sie "Recherchiere X und schreibe eine 500-Wörter-Zusammenfassung in die Datei output.txt."

  • Legen Sie Iterationslimits fest — Setzen Sie immer max_iterations (20–50). Unbegrenzte Agenten können schnell Tokens verbrauchen.

  • Verwenden Sie den Task-Queue-Modus — Für mehrstufige Pipelines sind "Task Queue"-Agenten zuverlässiger als der Modus "Don't Limit".

  • Testen Sie zuerst mit günstigen Modellen — Validieren Sie die Agentenlogik mit GPT-4o-mini oder einem lokalen 7B-Modell, bevor Sie teure Modelle verwenden.

Kostenmanagement auf Clore.ai

Da Clore.ai stündlich abrechnet:

Absicherung von SuperAGI

Persistenter Speicher zwischen Clore.ai-Sitzungen

Aktualisierung von SuperAGI


Fehlerbehebung

Build schlägt fehl während docker compose up --build

Backend stürzt beim Start ab

Frontend lädt nicht (Port 3000)

Agenten laufen endlos in Schleifen

Redis-Verbindungsfehler

Ollama vom SuperAGI-Container nicht erreichbar

Datenbank-Verbindungspool erschöpft


Weiterführende Lektüre

Zuletzt aktualisiert

War das hilfreich?