Open Interpreter

Open Interpreter ermöglicht Sprachmodellen, Code auszuführen, im Web zu browsen und Dateien auf Ihrem Rechner über eine natürliche Sprach-Chat-Oberfläche zu bearbeiten. Mit über 57.000 GitHub-Sternen ist es die führende Open-Source-Alternative zu ChatGPTs Code Interpreter — jedoch ohne Sandbox-Beschränkungen.

circle-check

Was ist Open Interpreter?

Open Interpreter bringt die Kraft eines KI-Coding-Assistenten direkt in Ihr Terminal. Anstatt zwischen ChatGPT und Ihrer Shell zu kopieren und einzufügen, chatten Sie natürlich und das Modell führt Code in Echtzeit aus:

  • Führen Sie Python, JS, Shell, R, AppleScript aus — direkt auf Ihrem Server

  • Im Web browsen — Seiten abrufen, Formulare ausfüllen, Daten extrahieren

  • Dateien bearbeiten — jede Datei auf der Festplatte erstellen, ändern und verwalten

  • Persistenter Zustand — Variablen, Imports und Ergebnisse über Nachrichten hinweg erhalten sich

  • Mehrere LLM-Backends — OpenAI, Anthropic, lokale Modelle über Ollama/LlamaCpp

circle-info

Open Interpreter ist für Entwickler und Forscher konzipiert, die eine konversationelle Schnittstelle zu ihrer gesamten Rechenumgebung wünschen. Auf einem Clore.ai GPU-Server erhalten Sie eine leistungsfähige Maschine mit vollem Internetzugang und ohne Ausführungsbegrenzungen.


Serveranforderungen

Komponente
Minimum
Empfohlen

GPU

Jede (CPU-Modus verfügbar)

RTX 3090 / A100 für lokale LLMs

VRAM

24 GB+ für lokale 13B-Modelle

RAM

8 GB

16 GB+

CPU

4 Kerne

8+ Kerne

Speicher

20 GB

50 GB+

Betriebssystem

Ubuntu 20.04+

Ubuntu 22.04

Python

3.10+

3.11

Netzwerk

Erforderlich

Highspeed für Web-Browsing


Ports

Port
Dienst
Hinweise

22

SSH

Terminalzugang, Tunnel für Web-UI

8000

Open Interpreter Server

REST-API & optionale Web-UI


Schnellstart mit Docker

Open Interpreter hat kein offizielles Docker-Image, daher bauen wir ein sauberes. Dieser Ansatz bietet Ihnen eine reproduzierbare, isolierte Umgebung auf jedem Clore.ai-Server.

Dockerfile

Build & Run


Installation auf Clore.ai (Bare Metal)

Wenn Sie es vorziehen, direkt auf einem Clore.ai-Server ohne Docker zu arbeiten:

Schritt 1 — Einen Server mieten

  1. Filtern nach RAM ≥ 16 GB, GPU (optional, aber nützlich für lokale Modelle)

  2. Wählen Sie einen Server mit PyTorch oder Ubuntu Basis-Image

  3. Offen SSH-Port 22 und optional 8000 in Ihrer Bestellung

Schritt 2 — Verbindung per SSH

Schritt 3 — Abhängigkeiten installieren

Schritt 4 — Open Interpreter installieren

Schritt 5 — API-Schlüssel konfigurieren

Schritt 6 — Erster Start


Verwendung lokaler LLMs (kein API-Schlüssel erforderlich)

Eines der Killer-Features von Open Interpreter auf Clore.ai GPU-Servern ist das vollständige Ausführen lokaler Modelle:

Option A: Ollama-Backend

Option B: LlamaCpp-Backend


Als Server ausführen (REST-API)

Open Interpreter 0.2+ enthält einen eingebauten HTTP-Server für programmatischen Zugriff:

SSH-Tunnel für lokalen Zugriff

Wenn Port 8000 nicht öffentlich freigegeben ist, verwenden Sie SSH-Tunneling:


Praktische Beispiele

Beispiel 1: Datenanalyse-Pipeline

Beispiel 2: Web-Scraping

Beispiel 3: Dateiverwaltung

Beispiel 4: Systemüberwachungs-Skript


Konfigurationsdatei

Erstellen ~/.interpreter/config.yaml um Standardwerte zu setzen:


Ausführung mit systemd (persistenter Dienst)


Fehlerbehebung

interpreter Befehl nicht gefunden

Codeausführung ist blockiert / Sicherheitsmodus

Playwright / Browser-Fehler

Speichermangel bei lokalen LLMs

Verbindung auf Port 8000 verweigert

API-Rate-Limits


Sicherheitsüberlegungen

circle-exclamation

Clore.ai GPU-Empfehlungen

Open Interpreter selbst ist leichtgewichtig — der GPU-Bedarf wird von dem jeweiligen lokalen Modell bestimmt, das Sie als Backend ausführen.

GPU
VRAM
Clore.ai-Preis
Empfehlung für lokale Modelle

RTX 3090

24 GB

~$0.12/Stunde

CodeLlama 13B Q8, Llama 3 8B, Mistral 7B — solide Code-Qualität

RTX 4090

24 GB

~$0.70/Stunde

CodeLlama 34B Q4, DeepSeek Coder 33B Q4 — nahezu GPT-4-Coding-Qualität

A100 40GB

40 GB

~$1.20/Stunde

Llama 3 70B Q4 — produktionsreifer autonomer Coding-Agent

Nur CPU

~$0.02/Stunde

Jedes Modell über OpenAI/Anthropic-API — keine lokale GPU erforderlich

circle-info

Wenn Sie die OpenAI/Anthropic-API verwenden: Sie benötigen nur eine CPU-Instanz (~$0.02/Stunde) — die GPU ist irrelevant, da die Inferenz in der Cloud läuft. Wählen Sie GPU-Instanzen nur, wenn Sie lokale Modelle ausführen, um pro-Token-API-Kosten zu vermeiden.

Beste lokale Modellkonfiguration: RTX 3090 + Ollama läuft mit codellama:13b gibt Ihnen einen vollständig autonomen, datenschutzwahrenden Coding-Agenten ohne API-Kosten für etwa ~$0.12/Stunde.


Zuletzt aktualisiert

War das hilfreich?