Автономный агент AutoGPT

Разверните AutoGPT на Clore.ai — запускайте оригинальную платформу автономных AI-агентов с веб-браузингом, выполнением кода и автоматизацией задач с длинным горизонтом.

Обзор

AutoGPTarrow-up-right является первопроходческой платформой с открытым исходным кодом для автономных ИИ-агентов, с 175K+ звезд на GitHub — одним из самых популярных репозиториев на GitHub. Изначально инструмент командной строки на Python, ставший вирусным в 2023 году, AutoGPT превратился в полнофункциональную платформу с веб-интерфейсом, визуальным конструктором рабочих процессов, оркестрацией нескольких агентов и набором тестов для самоулучшающихся агентов.

Текущая платформа AutoGPT состоит из:

  • Фронтенд — визуальный конструктор агентов на Next.js (порт 3000)

  • Бэкенд / API — сервис FastAPI, обрабатывающий выполнение агентов (порт 8000)

  • Исполнитель агентов — Python-воркеры, выполняющие автономные циклы задач

  • Postgres — постоянное хранилище для состояния агентов и запусков

  • Redis — очередь задач и pub/sub

  • Minio — совместимое с S3 объектное хранилище для артефактов агентов

На Clore.ai, AutoGPT полностью работает на CPU (вызовы LLM делегируются облачным API), что делает его доступным по цене $0.05–0.20/час. По желанию вы можете интегрировать локальные модели через поддержку провайдеров, совместимых с OpenAI.

Ключевые возможности:

  • 🤖 Автономные агенты — агенты разлагают задачи на подцели и выполняют их итеративно

  • 🌐 Просмотр веб-страниц — агенты могут искать в интернете, парсить страницы и синтезировать информацию

  • 💻 Выполнение кода — песочница для выполнения Python для агентов, пишущих код

  • 📁 Операции с файлами — чтение, запись и управление файлами в рамках выполнения задач

  • 🔗 Мультиагентность — порождение специализированных суб-агентов и их иерархическая оркестрация

  • 🧠 Долговременная память — векторная память, сохраняемая между сессиями

  • 📈 Бенчмаркинг агентов — встроенный набор AgentBenchmark для оценки производительности агентов


Требования

Требования AutoGPT к вычислениям зависят от того, используете ли вы облачные LLM API (по умолчанию) или локальные модели. Сама платформа лёгкая.

Конфигурация
GPU
VRAM
ОЗУ системы
Диск
Clore.ai Цена

Минимальная (облачные API)

Нет / только CPU

4 ГБ

20 ГБ

~$0.05/час (CPU)

Стандартный

Нет / только CPU

8 ГБ

40 ГБ

~$0.08/час

Рекомендуется

Нет / только CPU

16 ГБ

60 ГБ

~$0.12/час

+ Локальная LLM (Ollama)

RTX 3090

24 ГБ

16 ГБ

80 ГБ

≈ $0.20/ч

+ Большая локальная LLM

A100 40 GB

40 ГБ

32 ГБ

100 ГБ

~$0.80/час

Примечание: По умолчанию AutoGPT использует LLM через API (OpenAI GPT-4, Anthropic Claude и т.п.). GPU полезен только если вы настроите локальную модель через Ollama или другой сервер, совместимый с OpenAI.

Требуются ключи API

Вам потребуется как минимум один из:

  • Ключ OpenAI API (рекомендуется GPT-4o для лучшей производительности агентов)

  • Ключ Anthropic API (Claude 3.5 Sonnet отлично подходит для агентов)

  • Ключ Google AI (поддерживаются модели Gemini)


Быстрый старт

1. Арендуйте сервер Clore.ai

Войдите в clore.aiarrow-up-right и запустите сервер с:

  • 2+ ядра CPU, 8 ГБ ОЗУ минимум

  • Открытые порты 8000 (backend API) и 3000 (frontend)

  • SSH-доступ включён

  • 20+ ГБ дискового пространства

2. Подключитесь к серверу

3. Клонируйте и настройте AutoGPT

4. Установите необходимые переменные окружения

5. Сборка и запуск

6. Проверить состояние сервисов

7. Доступ к AutoGPT

Откройте браузер:

  • Фронтенд: http://<clore-server-ip>:3000

  • Backend API: http://<clore-server-ip>:8000

  • Документация API (Swagger): http://<clore-server-ip>:8000/docs

Создайте аккаунт во фронтенде, настройте провайдера LLM в настройках и начните создавать агентов.


Конфигурация

Полное .env справка

Настройка возможностей агента

Управление масштабированием исполнителя агентов


Ускорение с помощью GPU

AutoGPT по умолчанию делегирует всю инференс LLM внешним провайдерам. Чтобы использовать локальные модели с ускорением на GPU:

Подключитесь к Ollama на том же сервере

В .env, укажите AutoGPT на Ollama:

Заметка о производительности: Автономные агенты совершают множество последовательных вызовов LLM. Локальные модели на RTX 3090 (~30 ток/с) работают, но A100 80GB обеспечивает более быструю итерацию. См. Сравнение GPU.

Рекомендации по локальным моделям для агентов

Модель
Качество агента
VRAM
Clore GPU

Llama 3 8B

Приемлемо

8 ГБ

RTX 3080

Llama 3.1 8B Instruct

Хорошо

8 ГБ

RTX 3080

Llama 3.1 70B

Отлично

40 ГБ

A100 40GB

Mixtral 8x7B

Хорошо

24 ГБ

RTX 3090

Qwen 2.5 72B

Отлично

40 ГБ

A100 40GB


Подсказки и лучшие практики

Управление затратами на Clore.ai

Обновление AutoGPT

Мониторинг запусков агентов

Укрепление безопасности

Оптимизация времени сборки


Устранение неполадок

Сборка завершилась с ошибкой из-за нехватки памяти

Бэкенд возвращает 500 / "Database not ready"

Фронтенд показывает «Не удалось подключиться к бэкенду»

Исполнитель агентов падает / убивается из-за OOM

Подключение к Redis отклонено

Агент застрял в цикле


Дополнительное чтение

Последнее обновление

Это было полезно?