Фреймворк агентов SuperAGI

Разверните SuperAGI на Clore.ai — ориентированный на разработчиков фреймворк автономных AI-агентов с GUI-панелью, маркетплейсом инструментов, параллельными агентами и опциональной поддержкой локальных LLM на мощных GPU-облачных серверах.

Обзор

SuperAGIarrow-up-right — это проект с открытым исходным кодом, ориентированный на разработчиков, фреймворк для автономных AI-агентов с более чем 15 тысячами звёзд на GitHub. В отличие от простых чат-ботов, SuperAGI запускает автономных агентов — AI-системы, которые самостоятельно планируют, выполняют многошаговые задачи, используют инструменты и итеративно достигают цели без постоянного вмешательства человека.

Почему запускать SuperAGI на Clore.ai?

  • Опционально с GPU с мощной поддержкой локальных LLM — Запускайте агентов на базе локальных моделей (Llama, Mistral и т.д.) на GPU Clore.ai для полностью приватного, контролируемого по затратам автономного ИИ.

  • Параллельное выполнение агентов — Запускайте несколько агентов параллельно на одном сервере, каждый из которых работает над разными задачами одновременно.

  • Постоянная память агента — Агенты сохраняют контекст, учатся на выводах инструментов и хранят долгосрочную память в векторных базах данных между запусками.

  • Маркетплейс инструментов — Готовые интеграции для Google Search, GitHub, Email, Jira, Notion и других.

  • Экономика Clore.ai — При цене ~0,20 $/час за RTX 3090 вы можете запускать способных автономных агентов за долю стоимости облачных AI-сервисов.

Ключевые особенности

Функция
Описание

Provisioning агентов

Создание, конфигурация и развёртывание агентов через GUI

Маркетплейс инструментов

Более 30 встроенных инструментов (поиск, код, файлы, API)

Поддержка нескольких моделей

OpenAI, Anthropic, локальные LLM через пользовательский endpoint

Параллельные агенты

Запуск нескольких агентов одновременно

Память агента

Краткосрочная (окно контекста) + долгосрочная (векторная БД)

GUI-панель

Полный веб-интерфейс для управления агентами

Менеджер ресурсов

Отслеживание использования токенов и затрат по агентам

Шаблоны рабочих процессов

Готовые шаблоны агентов для типовых задач

Архитектура


Требования

Спецификации сервера

Компонент
Минимум
Рекомендуется
Примечания

GPU

Нет (режим API)

RTX 3090 (локальные LLM)

GPU требуется для вывода локальных моделей

VRAM

24 ГБ

Для запуска локальных моделей 13B+

CPU

4 vCPU

8 vCPU

Выполнение агентов нагружает CPU

ОЗУ

8 ГБ

16 ГБ

Несколько параллельных агентов требуют памяти

Хранилище

20 ГБ

100+ ГБ

Логи агентов, векторная БД, хранение моделей

Справка по ценам Clore.ai

Тип сервера
Примерная стоимость
Случай использования

CPU (8 vCPU, 16 ГБ)

~0,10–0,20 $/час

SuperAGI + внешний API (OpenAI/Anthropic)

RTX 3090 (24 ГБ)

≈ $0.20/ч

SuperAGI + Ollama 13B локальная модель

RTX 4090 (24 ГБ)

≈ $0.35/ч

SuperAGI + Ollama, более быстрая инференция

2× RTX 3090

~$0.40/ч

SuperAGI + модель 70B (квантованная Q4)

A100 80 GB

≈ $1.10/ч

SuperAGI + крупные модели, высокая конкуренция

H100 80 ГБ

~2,50 $/час

Автономные агентные системы промышленного класса

💡 Совет по стоимости: Для разработки и тестирования используйте API OpenAI или Anthropic (GPU не нужен). Переключайтесь на инстанс с GPU только когда требуется локальная инференция LLM ради приватности или экономии. См. Руководство по сравнению GPU.

Требования

  • Сервер Clore.ai с доступом по SSH

  • Docker + Docker Compose (предустановлены на Clore.ai)

  • Git (предустановлен)

  • 4+ vCPU, 8+ ГБ RAM (рекомендуется 16 ГБ для параллельных агентов)

  • Ключ OpenAI API или локальный endpoint LLM (Ollama/vLLM)


Быстрый старт

Метод 1: Docker Compose (Официальный — Рекомендуется)

Официальное развёртывание SuperAGI использует Docker Compose для управления всеми сервисами.

Шаг 1: Подключитесь к вашему серверу Clore.ai

Шаг 2: Клонирование и настройка

Шаг 3: Редактирование config.yaml

Минимально необходимая конфигурация:

Шаг 4: Запустите стек

Процесс сборки скачивает зависимости и компилирует фронтенд (~5–10 минут при первом запуске).

Шаг 5: Мониторинг запуска

Шаг 6: Доступ к панели

API доступно по адресу:

Документация API:


Метод 2: Быстрый старт с использованием предсобранных образов

Для более быстрого запуска с предсобранными образами (пропустите шаг сборки):


Метод 3: Минимальная настройка с одной моделью

Упрощённая настройка для тестирования только с OpenAI:


Конфигурация

config.yaml Справка

Подключение SuperAGI к инструментам

Инструменты настраиваются через GUI в Settings → Toolkit. Каждый инструмент можно включать/выключать для каждого агента.

Встроенные инструменты:

Инструмент
Назначение
Требуется API-ключ

Поиск в Google

Веб-поиск

Да (Google API)

DuckDuckGo

Веб-поиск

Нет

GitHub

Доступ к репозиторию кода

Да (GitHub token)

Электронная почта

Отправка/чтение писем

Да (настройка SMTP)

Code Writer

Написание и выполнение кода

Нет

Файловый менеджер

Чтение/запись локальных файлов

Нет

Браузер

Безголовый веб-браузинг

Нет

Jira

Отслеживание задач

Да

Notion

База знаний

Да

Генерация изображений

DALL-E 3, Stable Diffusion

Да (ключ OpenAI)

Создание вашего первого агента

Через GUI (Settings → Agents → Create Agent):

  1. Имя — Дайте агенту описательное имя

  2. Описание — Что делает этот агент

  3. Цели — Перечислите цели (по одной на строку)

  4. Инструкции — Системный промпт для поведения

  5. Модель — Выберите LLM (GPT-4, Claude или локальную)

  6. Инструменты — Включите соответствующие инструменты

  7. Макс. итераций — Ограничение безопасности (обычно 10–50)

Через REST API:


Ускорение с помощью GPU

SuperAGI поддерживает инференс локальных LLM через любой endpoint, совместимый с OpenAI, что делает его идеальным для развёртываний на GPU-backed Clore.ai.

Настройка Ollama как бэкенда LLM для агентов

См. Руководство по Ollama для полной настройки Ollama. Интеграция с SuperAGI:

Шаг 1: Запустите Ollama на том же сервере Clore.ai

Шаг 2: Настройте SuperAGI на использование Ollama

В config.yaml:

Или настройте в UI SuperAGI:

  • Settings → Models → Add Custom Model

  • Провайдер: Совместимый с OpenAI

  • Базовый URL: http://172.17.0.1:11434/v1

  • API Key: ollama (любой текст)

  • Название модели: llama3.1:8b

Настройка vLLM для агентов с высокой пропускной способностью

Для продакшн-развёртываний с большим количеством параллельных агентов (см. Руководство по vLLM):

Размер GPU для рабочих нагрузок агентов

Случай использования
Модель
GPU
VRAM
Параллельные агенты

Тестирование

GPT-4o-mini (API)

Нет

Неограниченно (с ограничением по скорости)

Лёгкие агенты

Llama 3.1 8B

RTX 3090

8 ГБ

2–4

Задачи с рассуждениями

Mistral 7B Instruct

RTX 3090

6 GB

3–5

Сложные агенты

Llama 3.1 70B Q4

2× RTX 3090

48 GB

1–2

Продакшн

Llama 3.1 70B FP16

A100 80GB

80 ГБ

3–6


Подсказки и лучшие практики

Проектирование агентов

  • Формулируйте цели конкретно — Расплывчатые цели вроде «провести исследование» заставляют агентов зациклиться. Используйте «Исследовать X и написать 500-словный обзор в файл output.txt.»

  • Устанавливайте лимиты итераций — Всегда задавайте max_iterations (20–50). Неограниченные агенты могут быстро расходовать токены.

  • Используйте режим task queue — Для многошаговых пайплайнов агенты в режиме "Task Queue" надёжнее, чем в режиме "Don't Limit".

  • Тестируйте сначала на дешёвых моделях — Проверьте логику агента на GPT-4o-mini или локальной 7B модели перед использованием дорогих моделей.

Управление затратами на Clore.ai

Поскольку Clore.ai взымает плату почасово:

Обеспечение безопасности SuperAGI

Постоянное хранилище между сессиями Clore.ai

Обновление SuperAGI


Устранение неполадок

Сборка завершилась с ошибкой во время docker compose up --build

Бэкенд падает при запуске

Фронтенд не загружается (порт 3000)

Агенты зацикливаются бесконечно

Ошибки подключения к Redis

Ollama недоступна из контейнера SuperAGI

Пул подключений к базе данных исчерпан


Дополнительное чтение

Последнее обновление

Это было полезно?