Open Interpreter

Open Interpreter позволяет языковым моделям запускать код, просматривать веб, и редактировать файлы на вашем компьютере через интерфейс чата на естественном языке. С более чем 57К звезд на GitHub, это ведущая open-source альтернатива Code Interpreter от ChatGPT — но без ограничений песочницы.

circle-check

Что такое Open Interpreter?

Open Interpreter приносит мощь AI-помощника по коду прямо в ваш терминал. Вместо копирования между ChatGPT и вашей оболочкой вы общаетесь естественно, и модель выполняет код в реальном времени:

  • Запуск Python, JS, shell, R, AppleScript — прямо на вашем сервере

  • Просмотр веба — получение страниц, заполнение форм, извлечение данных

  • Редактирование файлов — создание, изменение и управление любым файлом на диске

  • Постоянное состояние — переменные, импорты и результаты сохраняются между сообщениями

  • Несколько LLM-бэкендов — OpenAI, Anthropic, локальные модели через Ollama/LlamaCpp

circle-info

Open Interpreter разработан для разработчиков и исследователей, которым нужен разговорный интерфейс ко всей их вычислительной среде. На GPU-сервере Clore.ai вы получаете мощную машину с полным доступом в интернет и без ограничений на выполнение.


Требования к серверу

Компонент
Минимум
Рекомендуется

GPU

Любой (режим CPU доступен)

RTX 3090 / A100 для локальных LLM

VRAM

24 ГБ+ для локальных моделей 13B

ОЗУ

8 ГБ

16 ГБ+

CPU

4 ядра

8+ ядер

Хранилище

20 ГБ

50 ГБ+

ОС

Ubuntu 20.04+

Ubuntu 22.04

Python

3.10+

3.11

Сеть

Требуется

Высокоскоростная для веб-просмотра


Порты

Порт
Сервис
Примечания

22

SSH

Доступ к терминалу, туннель для веб-UI

8000

Сервер Open Interpreter

REST API и опциональный веб-интерфейс


Быстрый старт с Docker

У Open Interpreter нет официального образа Docker, поэтому мы собираем чистый. Такой подход дает воспроизводимую, изолированную среду на любом сервере Clore.ai.

Dockerfile

Сборка и запуск


Установка на Clore.ai (Bare Metal)

Если вы предпочитаете запускать напрямую на сервере Clore.ai без Docker:

Шаг 1 — Аренда сервера

  1. Перейдите на Clore.ai Marketplacearrow-up-right

  2. Фильтровать по ОЗУ ≥ 16 ГБ, GPU (опционально, но полезно для локальных моделей)

  3. Выберите сервер с PyTorch или Ubuntu базовый образ

  4. Открыто SSH порт 22 и опционально 8000 в вашем заказе

Шаг 2 — Подключение по SSH

Шаг 3 — Установка зависимостей

Шаг 4 — Установка Open Interpreter

Шаг 5 — Настройка API-ключа

Шаг 6 — Первый запуск


Использование локальных LLM (API-ключ не требуется)

Одна из ключевых возможностей Open Interpreter на GPU-серверах Clore.ai — запуск полностью локальных моделей:

Вариант A: бэкенд Ollama

Вариант B: бэкенд LlamaCpp


Запуск в режиме сервера (REST API)

Open Interpreter 0.2+ включает встроенный HTTP-сервер для программного доступа:

SSH-туннель для локального доступа

Если порт 8000 не открыт публично, используйте SSH-туннелирование:


Практические примеры

Пример 1: конвейер анализа данных

Пример 2: веб-скрапинг

Пример 3: управление файлами

Пример 4: скрипт мониторинга системы


Файл конфигурации

Создать ~/.interpreter/config.yaml чтобы задать значения по умолчанию:


Запуск через systemd (постоянный сервис)


Устранение неполадок

interpreter команда не найдена

Выполнение кода заблокировано / режим безопасности

Ошибки Playwright / браузера

Недостаток памяти при локальных LLM

Соединение отклонено на порту 8000

Ограничения по количеству запросов API


Соображения по безопасности

circle-exclamation

Рекомендации Clore.ai по GPU

Сам Open Interpreter легковесен — потребность в GPU определяется той локальной моделью которую вы запускаете в качестве бэкенда.

GPU
VRAM
Цена Clore.ai
Рекомендации по локальным моделям

RTX 3090

24 ГБ

~$0.12/ч

CodeLlama 13B Q8, Llama 3 8B, Mistral 7B — хорошее качество кодирования

RTX 4090

24 ГБ

~$0.70/ч

CodeLlama 34B Q4, DeepSeek Coder 33B Q4 — близкое к качеству кодирования GPT-4

A100 40GB

40 ГБ

~$1.20/ч

Llama 3 70B Q4 — производственный автономный агент для кодирования

Только CPU

~$0.02/ч

Любая модель через OpenAI/Anthropic API — локальный GPU не требуется

circle-info

Если вы используете OpenAI/Anthropic API: Вам нужен только CPU-инстанс (~$0.02/ч) — GPU не имеет значения, так как инференс выполняется в облаке. Выбирайте GPU-инстансы только при запуске локальных моделей чтобы избежать платы за токены API.

Лучшая конфигурация для локальной модели: RTX 3090 + Ollama, запущенный codellama:13b даст вам полностью автономного, сохраняющего приватность агента для кодирования без расходов на API примерно за ~$0.12/ч.


Полезные ссылки

Последнее обновление

Это было полезно?