Desarrollador AI OpenHands

Despliega OpenHands (anteriormente OpenDevin) en Clore.ai — ejecuta un ingeniero de software autónomo en servidores GPU de nube asequibles para codificación, depuración y resolución de issues en GitHub.

Resumen

OpenHandsarrow-up-right (anteriormente OpenDevin) es una plataforma de código abierto para agentes autónomos de desarrollo de software con IA. Con más de 65K estrellas en GitHub, se ha convertido en una de las herramientas más populares para delegar tareas reales de programación a la IA: escribir código, corregir errores, resolver incidencias en GitHub, ejecutar comandos de shell, navegar por la web e interactuar con su base de código de extremo a extremo.

A diferencia de las herramientas típicas de autocompletado de código, OpenHands ejecuta un bucle agentivo: recibe una tarea, planifica, escribe código, lo ejecuta, observa la salida e itera — todo sin intervención humana. Admite decenas de backends LLM incluidos OpenAI, Anthropic Claude, Google Gemini y modelos alojados localmente mediante Ollama o vLLM.

¿Por qué Clore.ai para OpenHands?

  • OpenHands en sí se basa en CPU y no requiere GPU

  • Sin embargo, combinarlo con un LLM local (Ollama, vLLM) en el mismo servidor elimina los costes de API y la latencia

  • Los servidores GPU asequibles de Clore.ai le permiten ejecutar tanto OpenHands como un modelo local por tan solo $0.20–$0.35/h

  • Obtiene almacenamiento persistente del área de trabajo, soporte Docker-in-Docker y acceso root completo

  • Ideal para tareas autónomas de larga duración que serían costosas mediante APIs de LLM en la nube

Casos de uso típicos en Clore.ai:

  • Generación autónoma de código a partir de una especificación o descripción de incidencia

  • Refactorización masiva de grandes bases de código

  • Ejecutar OpenHands + Ollama juntos para un desarrollo agentivo 100% offline

  • Automatización de tareas CI/CD sin costes de API


Requisitos

OpenHands requiere acceso al socket de Docker y ejecuta internamente un contenedor runtime aislado. La tabla siguiente cubre las configuraciones recomendadas en Clore.ai:

Configuración
GPU
VRAM
RAM
Almacenamiento
Precio estimado

Solo API (sin LLM local)

Cualquiera / solo CPU

N/A

8 GB

20 GB

~$0.05–0.10/h

+ Ollama (Llama 3.1 8B)

RTX 3090

24 GB

16 GB

40 GB

~$0.20/h

+ Ollama (Qwen2.5 32B)

RTX 4090

24 GB

32 GB

60 GB

~$0.35/h

+ vLLM (Llama 3.1 70B)

A100 80GB

80 GB

64 GB

100 GB

~$1.10/h

+ vLLM (Llama 3.3 70B INT4)

RTX 4090

24 GB

32 GB

80 GB

~$0.35/h

Nota: Si solo utiliza las APIs de OpenAI/Anthropic/Gemini, cualquier servidor con ≥8 GB de RAM funciona. La GPU solo es necesaria si quiere ejecutar un LLM local en la misma máquina. Vea el Guía de comparación de GPU para más detalles.

Requisitos de software en el servidor Clore.ai:

  • Docker Engine (preinstalado en todas las imágenes de Clore.ai)

  • NVIDIA Container Toolkit (preinstalado en imágenes con GPU)

  • Socket de Docker accesible en /var/run/docker.sock

  • Acceso a internet saliente para descargar imágenes GHCR


Inicio rápido

Paso 1: Seleccione y conéctese a un servidor Clore.ai

En el mercado de Clore.aiarrow-up-right, filtre servidores por:

  • RAM ≥ 16 GB (para combinación con LLM local)

  • Docker: ✓ habilitado

  • Elija la GPU preferida si va a usar un modelo local

Conéctese vía SSH una vez que el servidor esté aprovisionado:

Paso 2: Verifique que Docker está en ejecución

Ambos comandos deberían tener éxito. Si falta el socket de Docker, contacte con el soporte de Clore.ai o elija una imagen diferente.

Paso 3: Descargar y ejecutar OpenHands

Paso 4: Acceder a la interfaz web

La interfaz está disponible en http://<server-ip>:3000

Reenvío de puertos en Clore.ai: En el panel de Clore.ai, asegúrese de que el puerto 3000 esté reenviado/expuesto en la configuración de su servidor. Algunas plantillas restringen puertos externos — consulte la sección "Puertos" en los detalles de su servidor.

En el primer lanzamiento, OpenHands le pedirá que configure un proveedor de LLM.

Paso 5: Configure su LLM

En la configuración de la interfaz web:

  • Proveedor: Seleccione OpenAI, Anthropic, Google o Personalizado

  • Clave API: Ingrese su clave API

  • Modelo: p. ej., gpt-4o, claude-3-5-sonnet-20241022, o ollama/llama3.1

Para Ollama local (vea la sección de Aceleración GPU más abajo), use:

  • Proveedor: ollama

  • URL base: http://host.docker.internal:11434

  • Modelo: ollama/llama3.1:8b


Configuración

Variables de entorno

OpenHands puede configurarse completamente mediante variables de entorno pasadas a docker run:

Variable
Descripción
Valor por defecto

LLM_MODEL

Identificador del modelo (p. ej. gpt-4o, claude-3-5-sonnet-20241022)

Establecido en la UI

LLM_API_KEY

Clave API para el proveedor de LLM

Establecido en la UI

LLM_BASE_URL

URL base personalizada (para Ollama, vLLM, LiteLLM)

Por defecto del proveedor

SANDBOX_TIMEOUT

Tiempo de espera del sandbox del agente en segundos

120

MAX_ITERATIONS

Máximo de iteraciones del bucle agentivo por tarea

100

SANDBOX_USER_ID

UID para ejecutar el sandbox como (use $(id -u))

0

LOG_ALL_EVENTS

Habilitar registro detallado de eventos (true/false)

false

Archivo de configuración persistente

Puede persistir la configuración montando un directorio de configuración:

Ejecutar en segundo plano (modo detached)

Para sesiones de larga duración en Clore.ai:


Aceleración GPU (Integración de LLM local)

Aunque OpenHands en sí no usa la GPU, combinarlo con un LLM local ejecutado en la GPU de Clore.ai le da un agente autónomo potente, rentable y sin necesidad de APIs.

Opción A: OpenHands + Ollama (Recomendado para principiantes)

Ejecute Ollama primero y luego apunte OpenHands hacia él:

Vea el guía de Ollama completo para la selección de modelos, ajuste de rendimiento y configuración de GPU.

Opción B: OpenHands + vLLM (Alto rendimiento)

Para máximo rendimiento con modelos más grandes:

Ver el guía de vLLM para la configuración completa, opciones de cuantización y configuraciones multi-GPU.

Modelos locales recomendados para codificación

Modelo
Tamaño
VRAM mínima
Calidad

qwen2.5-coder:7b

7B

8 GB

★★★☆☆

deepseek-coder-v2:16b

16B

12 GB

★★★★☆

qwen2.5-coder:32b

32B

24 GB

★★★★☆

llama3.1:70b

70B

48 GB

★★★★★


Consejos y mejores prácticas

1. Use los montajes del área de trabajo con prudencia

Monte su directorio de proyecto real como área de trabajo para que OpenHands pueda editar directamente sus archivos:

2. Prompts de tarea para mejores resultados

OpenHands funciona mejor con prompts específicos y accionables:

3. Monitoree el uso de recursos

4. Establezca límites de iteración

Evite que agentes descontrolados consuman demasiados tokens de API:

5. Integración con GitHub

OpenHands puede resolver incidencias de GitHub directamente. Configure en la UI:

  • Token de GitHub: Su token de acceso personal con repo alcance

  • OpenHands clonará el repositorio, corregirá la incidencia y creará un PR

6. Estimación de costes

Para LLMs basados en API, estime el coste por tarea:

  • Corrección simple de bug: ~$0.05–0.15 (Claude Haiku/GPT-4o-mini)

  • Funcionalidad compleja: ~$0.50–2.00 (Claude Sonnet/GPT-4o)

  • Para más de 100 tareas/día, un LLM local en Clore.ai se amortiza


Solución de problemas

Permiso denegado en el socket de Docker

El contenedor sandbox no inicia

Puerto 3000 no accesible

Errores de conexión LLM con Ollama

El agente entra en bucle indefinidamente

Falta de memoria (OOM)


Lecturas adicionales

Última actualización

¿Te fue útil?