OpenHands KI-Entwickler

Setzen Sie OpenHands (ehemals OpenDevin) auf Clore.ai ein — betreiben Sie einen vollständig autonomen KI-Softwareingenieur auf kostengünstigen GPU-Cloud-Servern für Kodierung, Debugging und GitHub-Issue-Lösungen.

Überblick

OpenHandsarrow-up-right (früher OpenDevin) ist eine Open-Source-Plattform für autonome KI-Software-Entwicklungsagenten. Mit über 65.000 GitHub-Sternen ist sie zu einem der beliebtesten Werkzeuge geworden, um reale Programmieraufgaben an KI zu delegieren — Code schreiben, Fehler beheben, GitHub-Issues lösen, Shell-Befehle ausführen, im Web browsen und mit Ihrem Codebestand von Anfang bis Ende interagieren.

Im Gegensatz zu typischen Code-Vervollständigungswerkzeugen läuft OpenHands in einer agentischen Schleife: es erhält eine Aufgabe, plant, schreibt Code, führt ihn aus, beobachtet die Ausgabe und iteriert — alles ohne menschliches Eingreifen. Es unterstützt Dutzende von LLM-Backends einschließlich OpenAI, Anthropic Claude, Google Gemini sowie lokal gehostete Modelle über Ollama oder vLLM.

Warum Clore.ai für OpenHands?

  • OpenHands selbst ist CPU-basiert und benötigt keine GPU

  • Die Kombination mit einem lokalen LLM (Ollama, vLLM) auf demselben Server eliminiert API-Kosten und Latenz

  • Clore.ais erschwingliche GPU-Server ermöglichen es Ihnen, sowohl OpenHands als auch ein lokales Modell für nur 0,20–0,35 $/Std.

  • Sie erhalten persistenten Workspace-Speicher, Docker-in-Docker-Unterstützung und vollständigen Root-Zugriff

  • Ideal für lang laufende autonome Aufgaben, die über Cloud-LLM-APIs teuer wären

Typische Anwendungsfälle auf Clore.ai:

  • Autonome Code-Generierung aus einer Spezifikation oder Issue-Beschreibung

  • Massenrefactoring großer Codebasen

  • Ausführen von OpenHands + Ollama zusammen für 100% offline agentische Entwicklung

  • CI/CD-Task-Automatisierung ohne API-Kosten


Anforderungen

OpenHands benötigt Zugriff auf den Docker-Socket und führt intern einen sandboxed Runtime-Container aus. Die folgende Tabelle behandelt empfohlene Konfigurationen auf Clore.ai:

Konfiguration
GPU
VRAM
RAM
Speicher
Geschätzter Preis

Nur API (kein lokales LLM)

Beliebig / nur CPU

N/A

8 GB

20 GB

~0,05–0,10 $/Std.

+ Ollama (Llama 3.1 8B)

RTX 3090

24 GB

16 GB

40 GB

~$0.20/Stunde

+ Ollama (Qwen2.5 32B)

RTX 4090

24 GB

32 GB

60 GB

~$0.35/Stunde

+ vLLM (Llama 3.1 70B)

A100 80GB

80 GB

64 GB

100 GB

~$1.10/Stunde

+ vLLM (Llama 3.3 70B INT4)

RTX 4090

24 GB

32 GB

80 GB

~$0.35/Stunde

Hinweis: Wenn Sie nur OpenAI/Anthropic/Gemini-APIs verwenden, funktioniert jeder Server mit ≥8 GB RAM. Eine GPU ist nur erforderlich, wenn Sie ein lokales LLM auf derselben Maschine betreiben möchten. Siehe die GPU-Vergleichsanleitung für weitere Details.

Softwareanforderungen auf dem Clore.ai-Server:

  • Docker Engine (auf allen Clore.ai-Images vorinstalliert)

  • NVIDIA Container Toolkit (vorinstalliert auf GPU-Images)

  • Docker-Socket zugänglich unter /var/run/docker.sock

  • Ausgehender Internetzugang zum Herunterladen von GHCR-Images


Schnellstart

Schritt 1: Wählen und verbinden Sie sich mit einem Clore.ai-Server

Im Clore.ai-Marktplatzarrow-up-right, filtern Sie Server nach:

  • RAM ≥ 16 GB (für lokale LLM-Kombination)

  • Docker: ✓ aktiviert

  • Wählen Sie Ihre bevorzugte GPU, wenn Sie ein lokales Modell verwenden

Verbinden Sie sich per SSH, sobald der Server bereitgestellt wurde:

Schritt 2: Überprüfen Sie, ob Docker läuft

Beide Befehle sollten erfolgreich sein. Wenn der Docker-Socket fehlt, kontaktieren Sie den Clore.ai-Support oder wählen Sie ein anderes Image.

Schritt 3: OpenHands ziehen und starten

Schritt 4: Zugriff auf die Web-UI

Die UI ist verfügbar unter http://<server-ip>:3000

Clore.ai Portweiterleitung: Stellen Sie im Clore.ai-Dashboard sicher, dass der Port 3000 in Ihrer Serverkonfiguration weitergeleitet/offengelegt ist. Manche Vorlagen beschränken externe Ports — prüfen Sie den Bereich „Ports“ in Ihren Serverdetails.

Beim ersten Start wird OpenHands Sie auffordern, einen LLM-Anbieter zu konfigurieren.

Schritt 5: Konfigurieren Sie Ihr LLM

In den Einstellungen der Web-UI:

  • Anbieter: Wählen Sie OpenAI, Anthropic, Google oder Benutzerdefiniert

  • API-Schlüssel: Geben Sie Ihren API-Schlüssel ein

  • Modell: z. B. gpt-4o, claude-3-5-sonnet-20241022, oder ollama/llama3.1

Für lokales Ollama (siehe Abschnitt GPU-Beschleunigung unten) verwenden Sie:

  • Anbieter: ollama

  • Basis-URL: http://host.docker.internal:11434

  • Modell: ollama/llama3.1:8b


Konfiguration

Umgebungsvariablen

OpenHands kann vollständig über Umgebungsvariablen konfiguriert werden, die an docker run:

Variable
Beschreibung
Standard

LLM_MODEL

Modellkennzeichen (z. B. gpt-4o, claude-3-5-sonnet-20241022)

Im UI gesetzt

LLM_API_KEY

API-Schlüssel für den LLM-Anbieter

Im UI gesetzt

LLM_BASE_URL

Benutzerdefinierte Basis-URL (für Ollama, vLLM, LiteLLM)

Anbieter-Standard

SANDBOX_TIMEOUT

Sandbox-Timeout des Agenten in Sekunden

120

MAX_ITERATIONS

Maximale agentische Schleifen-Iterationen pro Aufgabe

100

SANDBOX_USER_ID

UID, unter der die Sandbox ausgeführt wird (verwenden Sie $(id -u))

0

LOG_ALL_EVENTS

Aktivieren Sie ausführliche Ereignisprotokollierung (true/false)

false

Persistente Konfigurationsdatei

Sie können Einstellungen beibehalten, indem Sie ein Konfigurationsverzeichnis mounten:

Im Hintergrund ausführen (Detached-Modus)

Für lang laufende Sitzungen auf Clore.ai:


GPU-Beschleunigung (Integration lokaler LLMs)

Auch wenn OpenHands selbst die GPU nicht nutzt, verschafft die Kombination mit einem lokalen LLM auf Clore.ais GPU laufenden Modell Ihnen einen leistungsstarken, kosteneffizienten, API-freien autonomen Agenten.

Option A: OpenHands + Ollama (Empfohlen für Einsteiger)

Starten Sie zuerst Ollama und richten Sie dann OpenHands darauf ein:

Siehe das vollständige Ollama-Anleitung für Modellauswahl, Performance-Tuning und GPU-Konfiguration.

Option B: OpenHands + vLLM (Hohe Leistung)

Für maximale Durchsatzleistung mit größeren Modellen:

Siehe die vLLM-Anleitung für die vollständige Einrichtung, Quantisierungsoptionen und Multi-GPU-Konfigurationen.

Empfohlene lokale Modelle fürs Codieren

Modell
Größe
Min. VRAM
Qualität

qwen2.5-coder:7b

7B

8 GB

★★★☆☆

deepseek-coder-v2:16b

16B

12 GB

★★★★☆

qwen2.5-coder:32b

32B

24 GB

★★★★☆

llama3.1:70b

70B

48 GB

★★★★★


Tipps & bewährte Methoden

1. Workspace-Mounts sinnvoll nutzen

Moun-ten Sie Ihr tatsächliches Projektverzeichnis als Workspace, damit OpenHands Ihre Dateien direkt bearbeiten kann:

2. Aufgaben-Prompting für beste Ergebnisse

OpenHands arbeitet am besten mit spezifischen, umsetzbaren Prompts:

3. Ressourcenverbrauch überwachen

4. Iterationslimits setzen

Verhindern Sie, dass außer Kontrolle geratene Agenten zu viele API-Tokens verbrauchen:

5. GitHub-Integration

OpenHands kann GitHub-Issues direkt lösen. Konfigurieren Sie es in der UI:

  • GitHub-Token: Ihr persönlicher Zugriffstoken mit repo Berechtigung

  • OpenHands wird das Repo klonen, das Problem beheben und einen PR erstellen

6. Kostenschätzung

Für API-basierte LLMs schätzen Sie die Kosten pro Aufgabe:

  • Einfacher Bugfix: ~0,05–0,15 $ (Claude Haiku/GPT-4o-mini)

  • Komplexes Feature: ~0,50–2,00 $ (Claude Sonnet/GPT-4o)

  • Ab 100+ Aufgaben/Tag zahlt sich ein lokales LLM auf Clore.ai aus


Fehlerbehebung

Docker-Socket: Berechtigung verweigert

Sandbox-Container startet nicht

Port 3000 nicht zugänglich

LLM-Verbindungsfehler mit Ollama

Agenten-Schleifen laufen unendlich

Out of Memory (OOM)


Weiterführende Lektüre

Zuletzt aktualisiert

War das hilfreich?