OpenHands AI Developer

Разверните OpenHands (ранее OpenDevin) на Clore.ai — запускайте полностью автономного AI-инженера программного обеспечения на доступных GPU-облачных серверах для кодирования, отладки и решения задач на GitHub.

Обзор

OpenHandsarrow-up-right (ранее OpenDevin) — это платформа с открытым исходным кодом для автономных агентов разработки ПО с использованием ИИ. С более чем 65 тысячами звёзд на GitHub она стала одним из самых популярных инструментов для делегирования реальных программных задач ИИ — написание кода, исправление ошибок, решение проблем на GitHub, выполнение shell-команд, просмотр веба и взаимодействие с вашим кодовой базой от начала до конца.

В отличие от типичных инструментов автозаполнения кода, OpenHands запускает агентную петлю: он принимает задачу, планирует, пишет код, выполняет его, наблюдает результат и итеративно повторяет — всё без вмешательства человека. Поддерживает десятки LLM-бэкендов, включая OpenAI, Anthropic Claude, Google Gemini и локально размещённые модели через Ollama или vLLM.

Почему Clore.ai для OpenHands?

  • Сам OpenHands работает на CPU и не требует GPU

  • Тем не менее, сочетание его с локальной LLM (Ollama, vLLM) на том же сервере устраняет расходы на API и задержки

  • Доступные GPU‑серверы Clore.ai позволяют запускать одновременно OpenHands и локальную модель всего за $0.20–$0.35/ч

  • Вы получаете постоянное хранилище рабочего пространства, поддержку Docker-in-Docker и полный root‑доступ

  • Идеально для длительных автономных задач, которые через облачные LLM API были бы дорогими

Типичные сценарии использования на Clore.ai:

  • Автономная генерация кода по спецификации или описанию issue

  • Массовое рефакторинг больших кодовых баз

  • Совместный запуск OpenHands + Ollama для 100% офлайн‑агентной разработки

  • Автоматизация CI/CD задач без затрат на API


Требования

OpenHands требует доступа к Docker‑сокету и внутри запускает сандбокс‑runtime контейнер. В таблице ниже приведены рекомендуемые настройки на Clore.ai:

Конфигурация
GPU
VRAM
ОЗУ
Хранилище
Оцениваемая цена

Только через API (без локальной LLM)

Любой / только CPU

N/A

8 ГБ

20 ГБ

~$0.05–0.10/час

+ Ollama (Llama 3.1 8B)

RTX 3090

24 ГБ

16 ГБ

40 ГБ

≈ $0.20/ч

+ Ollama (Qwen2.5 32B)

RTX 4090

24 ГБ

32 ГБ

60 ГБ

≈ $0.35/ч

+ vLLM (Llama 3.1 70B)

A100 80GB

80 ГБ

64 ГБ

100 ГБ

≈ $1.10/ч

+ vLLM (Llama 3.3 70B INT4)

RTX 4090

24 ГБ

32 ГБ

80 ГБ

≈ $0.35/ч

Примечание: Если вы используете только OpenAI/Anthropic/Gemini API, подойдёт любой сервер с ≥8 ГБ ОЗУ. GPU требуется только если вы хотите запускать локальную LLM на той же машине. См. Руководство по сравнению GPU для подробностей.

Требования к ПО на сервере Clore.ai:

  • Docker Engine (предустановлен на всех образах Clore.ai)

  • NVIDIA Container Toolkit (предустановлен на GPU‑образах)

  • Docker‑сокет доступен по адресу /var/run/docker.sock

  • Исходящий доступ в интернет для загрузки образов с GHCR


Быстрый старт

Шаг 1: Выберите и подключитесь к серверу Clore.ai

В маркетплейсе Clore.aiarrow-up-right, фильтруйте серверы по:

  • ОЗУ ≥ 16 ГБ (для комбинации с локальной LLM)

  • Docker: ✓ включён

  • Выберите предпочитаемый GPU, если используете локальную модель

Подключитесь по SSH после Provision сервера:

Шаг 2: Убедитесь, что Docker запущен

Обе команды должны выполниться успешно. Если Docker‑сокет отсутствует, свяжитесь со службой поддержки Clore.ai или выберите другой образ.

Шаг 3: Загрузите и запустите OpenHands

Шаг 4: Доступ к веб‑интерфейсу

Интерфейс доступен по адресу http://<server-ip>:3000

Проброс портов в Clore.ai: В панели Clore.ai убедитесь, что порт 3000 проброшен/открыт в конфигурации сервера. Некоторые шаблоны ограничивают внешние порты — проверьте раздел «Порты» в деталях сервера.

При первом запуске OpenHands попросит вас настроить поставщика LLM.

Шаг 5: Настройте вашу LLM

В настройках веб‑интерфейса:

  • Поставщик: Выберите OpenAI, Anthropic, Google или Custom

  • API Key: Введите ваш API‑ключ

  • Модель: например, gpt-4o, claude-3-5-sonnet-20241022, или ollama/llama3.1

Для локального Ollama (см. раздел про ускорение на GPU ниже) используйте:

  • Поставщик: ollama

  • Базовый URL: http://host.docker.internal:11434

  • Модель: ollama/llama3.1:8b


Конфигурация

Переменные окружения

OpenHands можно полностью настроить через переменные окружения, передаваемые в docker run:

Переменная
Описание
По умолчанию

LLM_MODEL

Идентификатор модели (например gpt-4o, claude-3-5-sonnet-20241022)

Установлено в UI

LLM_API_KEY

API‑ключ для поставщика LLM

Установлено в UI

LLM_BASE_URL

Пользовательский базовый URL (для Ollama, vLLM, LiteLLM)

По умолчанию поставщика

SANDBOX_TIMEOUT

Таймаут сандбокса агента в секундах

120

MAX_ITERATIONS

Макс. число итераций агентной петли на задачу

100

SANDBOX_USER_ID

UID, под которым запускается сандбокс (используйте $(id -u))

0

LOG_ALL_EVENTS

Включить подробное логирование событий (true/false)

false

Постоянный конфигурационный файл

Вы можете сохранять настройки, смонтировав директорию конфигурации:

Запуск в фоновом режиме (Detached Mode)

Для длительных сессий на Clore.ai:


Ускорение на GPU (интеграция локальной LLM)

Хотя сам OpenHands не использует GPU, сочетание его с локальной LLM работающим на GPU Clore.ai даёт вам мощного, экономичного автономного агента без API‑затрат.

Вариант A: OpenHands + Ollama (рекомендуется для начинающих)

Сначала запустите Ollama, затем укажите OpenHands на него:

См. полный руководство по Ollama для выбора модели, настройки производительности и конфигурации GPU.

Вариант B: OpenHands + vLLM (высокая производительность)

Для максимальной пропускной способности с большими моделями:

См. руководство по vLLM для полной настройки, опций квантизации и конфигураций с несколькими GPU.

Рекомендуемые локальные модели для кодирования

Модель
Размер
Мин. VRAM
Качество

qwen2.5-coder:7b

7B

8 ГБ

★★★☆☆

deepseek-coder-v2:16b

16B

12 ГБ

★★★★☆

qwen2.5-coder:32b

32B

24 ГБ

★★★★☆

llama3.1:70b

70B

48 GB

★★★★★


Подсказки и лучшие практики

1. Разумно используйте монтирование рабочего пространства

Смонтируйте вашу реальную директорию проекта как рабочее пространство, чтобы OpenHands мог напрямую редактировать ваши файлы:

2. Формулировка задачи для лучших результатов

OpenHands лучше всего работает со специфичными, выполнимыми подсказками:

3. Мониторьте использование ресурсов

4. Установите лимиты итераций

Предотвращайте бесконтрольную работу агентов, потребляющих слишком много API‑токенов:

5. Интеграция с GitHub

OpenHands может решать проблемы на GitHub напрямую. Настройте в UI:

  • GitHub Token: ваш персональный токен доступа с правами repo область

  • OpenHands клонирует репозиторий, исправит проблему и создаст PR

6. Оценка стоимости

Для LLM на основе API оцените стоимость за задачу:

  • Простое исправление бага: ~$0.05–0.15 (Claude Haiku/GPT-4o-mini)

  • Сложная функция: ~$0.50–2.00 (Claude Sonnet/GPT-4o)

  • При 100+ задач/день локальная LLM на Clore.ai окупает себя


Устранение неполадок

Доступ к Docker‑сокету запрещён (Permission Denied)

Сандбокс‑контейнер не запускается

Порт 3000 недоступен

Ошибки подключения LLM с Ollama

Агентные петли выполняются бесконечно

Недостаточно памяти (OOM)


Дополнительное чтение

Последнее обновление

Это было полезно?