Développeur IA OpenHands

Déployez OpenHands (anciennement OpenDevin) sur Clore.ai — exécutez un ingénieur logiciel IA entièrement autonome sur des serveurs cloud GPU abordables pour coder, déboguer et résoudre des issues GitHub.

Aperçu

OpenHandsarrow-up-right (anciennement OpenDevin) est une plateforme open-source pour des agents de développement logiciel autonomes alimentés par l'IA. Avec plus de 65K étoiles sur GitHub, elle est devenue l'un des outils les plus populaires pour déléguer de vraies tâches de programmation à l'IA — écrire du code, corriger des bugs, résoudre des issues GitHub, exécuter des commandes shell, parcourir le web et interagir avec votre base de code de bout en bout.

Contrairement aux outils classiques d'auto-complétion de code, OpenHands exécute une boucle agentique: elle reçoit une tâche, planifie, écrit du code, l'exécute, observe la sortie et itère — le tout sans intervention humaine. Elle prend en charge des dizaines de backends LLM, notamment OpenAI, Anthropic Claude, Google Gemini, et des modèles hébergés localement via Ollama ou vLLM.

Pourquoi Clore.ai pour OpenHands ?

  • OpenHands lui-même est basé sur le CPU et ne nécessite pas de GPU

  • Cependant, l'associer à un LLM local (Ollama, vLLM) sur le même serveur élimine les coûts et la latence des API

  • Les serveurs GPU abordables de Clore.ai vous permettent d'exécuter à la fois OpenHands et un modèle local pour aussi peu que 0,20 $–0,35 $/h

  • Vous bénéficiez d'un stockage de workspace persistant, du support Docker-in-Docker et d'un accès root complet

  • Idéal pour des tâches autonomes de longue durée qui seraient coûteuses via les API LLM cloud

Cas d'utilisation typiques sur Clore.ai :

  • Génération de code autonome à partir d'un cahier des charges ou de la description d'une issue

  • Refactorisation en masse de grandes bases de code

  • Exécution conjointe d'OpenHands + Ollama pour un développement agentique 100 % hors ligne

  • Automatisation des tâches CI/CD sans coûts d'API


Exigences

OpenHands nécessite l'accès au socket Docker et exécute un conteneur runtime sandboxé en interne. Le tableau suivant couvre les configurations recommandées sur Clore.ai :

Configuration
GPU
VRAM
RAM
Stockage
Prix estimé

API uniquement (pas de LLM local)

N'importe lequel / CPU uniquement

N/A

8 Go

20 Go

~0,05–0,10 $/h

+ Ollama (Llama 3.1 8B)

RTX 3090

24 Go

16 Go

40 Go

~0,20 $/h

+ Ollama (Qwen2.5 32B)

RTX 4090

24 Go

32 Go

60 Go

~0,35 $/h

+ vLLM (Llama 3.1 70B)

A100 80GB

80 Go

64 Go

100 Go

~1,10 $/h

+ vLLM (Llama 3.3 70B INT4)

RTX 4090

24 Go

32 Go

80 Go

~0,35 $/h

Remarque : Si vous utilisez uniquement les APIs OpenAI/Anthropic/Gemini, tout serveur avec ≥8 Go de RAM convient. Le GPU n'est nécessaire que si vous souhaitez exécuter un LLM local sur la même machine. Voir le Guide de comparaison GPU pour plus de détails.

Exigences logicielles sur le serveur Clore.ai :

  • Docker Engine (pré-installé sur toutes les images Clore.ai)

  • NVIDIA Container Toolkit (pré-installé sur les images GPU)

  • Socket Docker accessible à /var/run/docker.sock

  • Accès internet sortant pour récupérer des images GHCR


Démarrage rapide

Étape 1 : Sélectionnez et connectez-vous à un serveur Clore.ai

Dans le la place de marché Clore.aiarrow-up-right, filtrez les serveurs par :

  • RAM ≥ 16 Go (pour la combinaison avec LLM local)

  • Docker : ✓ activé

  • Choisissez votre GPU préféré si vous utilisez un modèle local

Connectez-vous via SSH une fois le serveur provisionné :

Étape 2 : Vérifiez que Docker est en cours d'exécution

Les deux commandes devraient réussir. Si le socket Docker est manquant, contactez le support Clore.ai ou choisissez une image différente.

Étape 3 : Récupérer et exécuter OpenHands

Étape 4 : Accéder à l'interface Web

L'interface est disponible à http://<server-ip>:3000

Redirection de port Clore.ai : Dans le tableau de bord Clore.ai, assurez-vous que le port 3000 est redirigé/exposé dans la configuration de votre serveur. Certains templates restreignent les ports externes — vérifiez la section "Ports" dans les détails de votre serveur.

Au premier lancement, OpenHands vous demandera de configurer un fournisseur LLM.

Étape 5 : Configurez votre LLM

Dans les paramètres de l'interface web :

  • Fournisseur : Sélectionnez OpenAI, Anthropic, Google ou Personnalisé

  • Clé API : Saisissez votre clé API

  • Modèle : par ex., gpt-4o, claude-3-5-sonnet-20241022, ou ollama/llama3.1

Pour Ollama local (voir la section Accélération GPU ci‑dessous), utilisez :

  • Fournisseur : ollama

  • URL de base : http://host.docker.internal:11434

  • Modèle : ollama/llama3.1:8b


Configuration

Variables d'environnement

OpenHands peut être entièrement configuré via des variables d'environnement passées à docker run:

Variable
Description
Par défaut

LLM_MODEL

Identifiant du modèle (p.ex. gpt-4o, claude-3-5-sonnet-20241022)

Défini dans l'UI

LLM_API_KEY

Clé API pour le fournisseur LLM

Défini dans l'UI

LLM_BASE_URL

URL de base personnalisée (pour Ollama, vLLM, LiteLLM)

Par défaut du fournisseur

SANDBOX_TIMEOUT

Timeout du sandbox de l'agent en secondes

120

MAX_ITERATIONS

Nombre maximal d'itérations de la boucle agentique par tâche

100

SANDBOX_USER_ID

UID pour exécuter le sandbox comme (utilisez $(id -u))

0

LOG_ALL_EVENTS

Activer la journalisation détaillée des événements (true/false)

false

Fichier de configuration persistant

Vous pouvez conserver les paramètres en montant un répertoire de configuration :

Exécution en arrière-plan (mode détaché)

Pour des sessions de longue durée sur Clore.ai :


Accélération GPU (Intégration LLM local)

Bien qu'OpenHands n'utilise pas le GPU lui-même, le combiner avec un LLM local exécuté sur le GPU de Clore.ai vous offre un agent autonome puissant, économique et sans API.

Option A : OpenHands + Ollama (recommandé pour les débutants)

Démarrez Ollama en premier, puis pointez OpenHands vers celui-ci :

Voir le guide complet guide Ollama pour la sélection de modèle, l'optimisation des performances et la configuration GPU.

Option B : OpenHands + vLLM (Haute performance)

Pour un débit maximal avec des modèles plus grands :

Voir le guide vLLM pour la configuration complète, les options de quantification et les configurations multi-GPU.

Modèles locaux recommandés pour le codage

Modèle
Taille
VRAM min
Qualité

qwen2.5-coder:7b

7B

8 Go

★★★☆☆

deepseek-coder-v2:16b

16B

12 Go

★★★★☆

qwen2.5-coder:32b

32B

24 Go

★★★★☆

llama3.1:70b

70B

48 Go

★★★★★


Conseils et bonnes pratiques

1. Utilisez judicieusement les montages de workspace

Montez votre répertoire de projet réel comme workspace afin qu'OpenHands puisse modifier directement vos fichiers :

2. Rédaction de tâches pour de meilleurs résultats

OpenHands fonctionne mieux avec des invites spécifiques et exploitables :

3. Surveillez l'utilisation des ressources

4. Définir des limites d'itération

Empêchez les agents hors de contrôle de consommer trop de tokens d'API :

5. Intégration GitHub

OpenHands peut résoudre des issues GitHub directement. Configurez dans l'UI :

  • Token GitHub : votre token d'accès personnel avec repo portée

  • OpenHands clonera le repo, corrigera le problème et créera une PR

6. Estimation des coûts

Pour les LLM basés sur API, estimez le coût par tâche :

  • Correction de bug simple : ~0,05–0,15 $ (Claude Haiku/GPT-4o-mini)

  • Fonctionnalité complexe : ~0,50–2,00 $ (Claude Sonnet/GPT-4o)

  • Pour 100+ tâches/jour, un LLM local sur Clore.ai s'amortit


Dépannage

Permission du socket Docker refusée

Le conteneur sandbox ne démarre pas

Le port 3000 n'est pas accessible

Erreurs de connexion LLM avec Ollama

Les boucles d'agent tournent indéfiniment

Plus de mémoire (OOM)


Lectures complémentaires

Mis à jour

Ce contenu vous a-t-il été utile ?