Marco de Agentes SuperAGI

Despliega SuperAGI en Clore.ai — un marco de agentes autónomos orientado a desarrolladores con panel GUI, mercado de herramientas, agentes concurrentes y soporte opcional de LLM local en potentes servidores GPU en la nube.

Resumen

SuperAGIarrow-up-right es un marco de agentes de IA autónomos de código abierto y orientado a desarrolladores con más de 15K estrellas en GitHub. A diferencia de los simples chatbots, SuperAGI ejecuta agentes autónomos — sistemas de IA que planifican de forma independiente, ejecutan tareas de varios pasos, usan herramientas e iteran hacia un objetivo sin entrada humana constante.

¿Por qué ejecutar SuperAGI en Clore.ai?

  • GPU opcional con potente soporte para LLM locales — Ejecuta agentes respaldados por modelos locales (Llama, Mistral, etc.) en GPUs de Clore.ai para una IA autónoma totalmente privada y con control de costos.

  • Ejecución concurrente de agentes — Ejecuta múltiples agentes en paralelo en el mismo servidor, cada uno trabajando en distintas tareas simultáneamente.

  • Memoria persistente de agentes — Los agentes mantienen el contexto, aprenden de las salidas de las herramientas y almacenan memoria a largo plazo en bases de datos vectoriales entre ejecuciones.

  • Mercado de herramientas — Integraciones preconstruidas para Google Search, GitHub, Email, Jira, Notion y más.

  • Economía de Clore.ai — A ~0,20 $/h para una RTX 3090, puedes ejecutar agentes autónomos capaces a una fracción del costo de los servicios de IA en la nube.

Características clave

Función
Descripción

Provisionamiento de agentes

Crea, configura y despliega agentes vía GUI

Mercado de herramientas

Más de 30 herramientas integradas (búsqueda, código, archivos, APIs)

Soporte multmodelo

OpenAI, Anthropic, LLMs locales vía endpoint personalizado

Agentes concurrentes

Ejecuta múltiples agentes simultáneamente

Memoria del agente

Corto plazo (ventana de contexto) + largo plazo (BD vectorial)

Panel GUI

Interfaz web completa para la gestión de agentes

Gestor de recursos

Rastrea el uso de tokens y costos por agente

Plantillas de flujo de trabajo

Plantillas de agentes preconstruidas para tareas comunes

Arquitectura


Requisitos

Especificaciones del servidor

Componente
Mínimo
Recomendado
Notas

GPU

Ninguno (modo API)

RTX 3090 (LLMs locales)

GPU necesaria para la inferencia de modelos locales

VRAM

24 GB

Para ejecutar modelos locales de 13B+

CPU

4 vCPU

8 vCPU

La ejecución de agentes es intensiva en CPU

RAM

8 GB

16 GB

Múltiples agentes concurrentes necesitan memoria

Almacenamiento

20 GB

Más de 100 GB

Registros de agentes, BD vectorial, almacenamiento de modelos

Referencia de precios de Clore.ai

Tipo de servidor
Costo aprox.
Caso de uso

CPU (8 vCPU, 16 GB)

≈0,10–0,20 $/h

SuperAGI + API externa (OpenAI/Anthropic)

RTX 3090 (24 GB)

~$0.20/h

SuperAGI + modelo local Ollama 13B

RTX 4090 (24 GB)

~$0.35/h

SuperAGI + Ollama, inferencia más rápida

2× RTX 3090

~0,40 USD/h

SuperAGI + modelo 70B (Q4 cuantizado)

A100 80 GB

~$1.10/h

SuperAGI + modelos grandes, alta concurrencia

H100 80 GB

≈2,50 $/h

Sistemas de agentes autónomos de nivel producción

💡 Consejo de coste: Para desarrollo y pruebas, use las APIs de OpenAI o Anthropic (no se necesita GPU). Cambie a una instancia con GPU solo cuando necesite inferencia de LLM local por motivos de privacidad o costo. Vea Guía de comparación de GPU.

Prerrequisitos

  • Servidor Clore.ai con acceso SSH

  • Docker + Docker Compose (preinstalado en Clore.ai)

  • Git (preinstalado)

  • 4+ vCPU, 8+ GB RAM (se recomiendan 16 GB para agentes concurrentes)

  • Clave API de OpenAI o endpoint de LLM local (Ollama/vLLM)


Inicio rápido

Método 1: Docker Compose (Oficial — Recomendado)

El despliegue oficial de SuperAGI usa Docker Compose para gestionar todos los servicios.

Paso 1: Conéctate a tu servidor Clore.ai

Paso 2: Clonar y configurar

Paso 3: Editar config.yaml

Configuración mínima requerida:

Paso 4: Inicia el stack

El proceso de compilación descarga dependencias y compila el frontend (~5–10 minutos en la primera ejecución).

Paso 5: Monitorizar el arranque

Paso 6: Acceder al panel

La API está disponible en:

Documentación de la API:


Método 2: Inicio rápido con imágenes preconstruidas

Para un inicio más rápido usando imágenes preconstruidas (omite el paso de compilación):


Método 3: Configuración mínima de un solo modelo

Una configuración simplificada para pruebas solo con OpenAI:


Configuración

config.yaml Referencia

Conectar SuperAGI a las herramientas

Las herramientas se configuran a través de la GUI en Settings → Toolkit. Cada herramienta puede activarse/desactivarse por agente.

Herramientas integradas:

Herramienta
Propósito
Se necesita clave API

Búsqueda en Google

Búsqueda web

Sí (API de Google)

DuckDuckGo

Búsqueda web

No

GitHub

Acceso a repositorios de código

Sí (token de GitHub)

Correo electrónico

Enviar/leer correo

Sí (configuración SMTP)

Escritor de código

Escribir y ejecutar código

No

Administrador de archivos

Leer/escribir archivos locales

No

Navegador

Navegación web sin cabeza

No

Jira

Seguimiento de incidencias

Notion

Base de conocimiento

Generación de imágenes

DALL-E 3, Stable Diffusion

Sí (clave de OpenAI)

Creando tu primer agente

Vía la GUI (Settings → Agents → Create Agent):

  1. Nombre — Dale a tu agente un nombre descriptivo

  2. Descripción — Qué hace este agente

  3. Metas — Lista los objetivos (uno por línea)

  4. Instrucciones — Prompt del sistema para el comportamiento

  5. Modelo — Seleccionar LLM (GPT-4, Claude o local)

  6. Herramientas — Habilita las herramientas relevantes

  7. Máx. Iteraciones — Límite de seguridad (10–50 típico)

Vía la API REST:


Aceleración por GPU

SuperAGI admite la inferencia de LLM local mediante cualquier endpoint compatible con OpenAI, lo que lo hace ideal para despliegues en Clore.ai con respaldo por GPU.

Configurando Ollama como backend LLM para agentes

Ver Guía de Ollama para la configuración completa de Ollama. Integración con SuperAGI:

Paso 1: Iniciar Ollama en el mismo servidor Clore.ai

Paso 2: Configurar SuperAGI para usar Ollama

En config.yaml:

O configurar en la UI de SuperAGI:

  • Settings → Models → Add Custom Model

  • Proveedor: compatible con OpenAI

  • URL base: http://172.17.0.1:11434/v1

  • Clave API: ollama (cualquier cadena)

  • Nombre del modelo: llama3.1:8b

Configurando vLLM para agentes de alto rendimiento

Para despliegues de producción con muchos agentes concurrentes (ver Guía de vLLM):

Dimensionamiento de GPU para cargas de trabajo de agentes

Caso de uso
Modelo
GPU
VRAM
Agentes concurrentes

Pruebas

GPT-4o-mini (API)

Ninguna

Ilimitado (limitado por tasa)

Agentes ligeros

Llama 3.1 8B

RTX 3090

8 GB

2–4

Tareas de razonamiento

Mistral 7B Instruct

RTX 3090

6 GB

3–5

Agentes complejos

Llama 3.1 70B Q4

2× RTX 3090

48 GB

1–2

Producción

Llama 3.1 70B FP16

A100 80GB

80 GB

3–6


Consejos y mejores prácticas

Diseño de agentes

  • Sé específico con las metas — Metas vagas como "hacer investigación" hacen que los agentes entren en bucle. Usa "Investigar X y escribir un resumen de 500 palabras en el archivo output.txt."

  • Establece límites de iteración — Siempre establece max_iterations (20–50). Los agentes ilimitados pueden consumir tokens rápidamente.

  • Usa el modo de cola de tareas — Para pipelines de múltiples pasos, los agentes "Task Queue" son más fiables que el modo "Don't Limit".

  • Prueba primero con modelos baratos — Valida la lógica del agente con GPT-4o-mini o un modelo local de 7B antes de usar modelos caros.

Gestión de costos en Clore.ai

Dado que Clore.ai cobra por hora:

Asegurando SuperAGI

Almacenamiento persistente entre sesiones de Clore.ai

Actualizando SuperAGI


Solución de problemas

La compilación falla durante docker compose up --build

El backend falla al arrancar

El frontend no carga (puerto 3000)

Los agentes entran en bucle indefinidamente

Errores de conexión a Redis

Ollama no accesible desde el contenedor de SuperAGI

Pool de conexiones de la base de datos agotado


Lecturas adicionales

Última actualización

¿Te fue útil?