Open Interpreter

ओपन इंटरप्रेटर भाषा मॉडल्स को आपके मशीन पर कोड चलाने, वेब ब्राउज़ करने और फ़ाइलें संपादित करने देता है एक प्राकृतिक भाषा चैट इंटरफ़ेस के माध्यम से। 57K+ GitHub स्टार्स के साथ, यह ChatGPT के Code Interpreter का प्रमुख ओपन-सोर्स विकल्प है — पर सैंडबॉक्स सीमाओं के बिना।

circle-check

Open Interpreter क्या है?

Open Interpreter एक AI कोडिंग सहायक की शक्ति सीधे आपके टर्मिनल तक लाता है। ChatGPT और आपके शेल के बीच कॉपी-पेस्ट करने के बजाय, आप प्राकृतिक रूप से चैट करते हैं और मॉडल वास्तविक समय में कोड निष्पादित करता है:

  • Python, JS, shell, R, AppleScript चलाएँ — सीधे आपके सर्वर पर

  • वेब ब्राउज़ करें — पेज लाएं, फॉर्म भरें, डेटा निकालें

  • फ़ाइलें संपादित करें — डिस्क पर किसी भी फ़ाइल को बनाएं, संशोधित करें और प्रबंधित करें

  • स्थायी स्थिति — वेरिएबल्स, इम्पोर्ट्स और परिणाम संदेशों के बीच जीवित रहते हैं

  • कई LLM बैकएंड — OpenAI, Anthropic, स्थानीय मॉडल Ollama/LlamaCpp के माध्यम से

circle-info

Open Interpreter उन डेवलपर्स और शोधकर्ताओं के लिए डिज़ाइन किया गया है जो अपनी पूरी कंप्यूट वातावरण के लिए एक वार्तालाप इंटरफ़ेस चाहते हैं। Clore.ai GPU सर्वर पर, आपको एक शक्तिशाली मशीन मिलती है पूर्ण इंटरनेट पहुँच और कोई निष्पादन सीमाएँ नहीं।


सर्वर आवश्यकताएँ

घटक
न्यूनतम
अनुशंसित

GPU

कोई भी (CPU मोड उपलब्ध)

स्थानीय LLMs के लिए RTX 3090 / A100

VRAM

आणविक गतिशीलता

स्थानीय 13B मॉडल्स के लिए 24 GB+

RAM

8 GB

16 GB+

CPU

4 कोर

8+ कोर

स्टोरेज

20 GB

50 GB+

ऑपरेटिंग सिस्टम

Ubuntu 20.04+

Ubuntu 22.04

Python

3.10+

3.11

नेटवर्क

आवश्यक

वेब ब्राउज़िंग के लिए हाई-स्पीड


पोर्ट्स

पोर्ट
सेवा
नोट्स

22

SSH

टर्मिनल पहुँच, वेब UI के लिए टनल

8000

Open Interpreter सर्वर

REST API और वैकल्पिक वेब UI


Docker के साथ क्विक स्टार्ट

Open Interpreter के पास आधिकारिक Docker इमेज नहीं है, इसलिए हम एक साफ़ इमेज बनाते हैं। यह तरीका आपको किसी भी Clore.ai सर्वर पर एक पुनरुत्पाद्य, अलग-थलग वातावरण देता है।

Dockerfile

बिल्ड और चलाएँ


Clore.ai पर इंस्टॉलेशन (बेर मेटल)

यदि आप Docker के बिना सीधे Clore.ai सर्वर पर चलाना पसंद करते हैं:

चरण 1 — एक सर्वर किराए पर लें

  1. फ़िल्टर करें RAM ≥ 16 GB, GPU (वैकल्पिक लेकिन स्थानीय मॉडलों के लिए उपयोगी)

  2. ऐसा सर्वर चुनें जिसमें PyTorch इमेज जेनरेट करें Ubuntu बेस इमेज

  3. खुला SSH पोर्ट 22 और वैकल्पिक रूप से 8000 आपके ऑर्डर में

चरण 2 — SSH के द्वारा कनेक्ट करें

चरण 3 — निर्भरताएँ इंस्टॉल करें

चरण 4 — Open Interpreter इंस्टॉल करें

चरण 5 — API की कॉन्फ़िगर करें

चरण 6 — पहली बार चलाएँ


स्थानीय LLMs का उपयोग करना (API की आवश्यक नहीं)

Clore.ai GPU सर्वर्स पर Open Interpreter की एक प्रमुख विशेषता पूरी तरह से स्थानीय मॉडल चलाना है:

विकल्प A: Ollama बैकएंड

विकल्प B: LlamaCpp बैकएंड


सर्वर के रूप में चलाना (REST API)

Open Interpreter 0.2+ में प्रोग्रामेटिक एक्सेस के लिए बिल्ट-इन HTTP सर्वर शामिल है:

लोकल एक्सेस के लिए SSH टनल

यदि पोर्ट 8000 सार्वजनिक रूप से एक्सपोज़ नहीं है, तो SSH टनलिंग का उपयोग करें:


व्यावहारिक उदाहरण

उदाहरण 1: डेटा विश्लेषण पाइपलाइन

उदाहरण 2: वेब स्क्रैपिंग

उदाहरण 3: फ़ाइल प्रबंधन

उदाहरण 4: सिस्टम मॉनिटरिंग स्क्रिप्ट


कॉन्फ़िगरेशन फ़ाइल

बनाएँ ~/.interpreter/config.yaml डिफ़ॉल्ट सेट करने के लिए:


systemd के साथ चलाना (स्थायी सेवा)


समस्या निवारण

interpreter command नहीं मिला

कोड निष्पादन ब्लॉक है / सेफ़्टी मोड

Playwright / ब्राउज़र त्रुटियाँ

स्थानीय LLMs के साथ मेमोरी ख़त्म होना

पोर्ट 8000 पर कनेक्शन अस्वीकार

API दर सीमाएँ


सुरक्षा विचार

circle-exclamation

Clore.ai GPU सिफारिशें

Open Interpreter स्वयं हल्का है — GPU की आवश्यकता उस लोकल मॉडल से निर्धारित होती है जो लोकल मॉडल आप बैकएंड के रूप में चलाते हैं।

GPU
VRAM
Clore.ai कीमत
लोकल मॉडल सिफारिश

RTX 3090

24 GB

~$0.12/घंटा

CodeLlama 13B Q8, Llama 3 8B, Mistral 7B — मजबूत कोडिंग गुणवत्ता

RTX 4090

24 GB

~$0.70/घंटा

CodeLlama 34B Q4, DeepSeek Coder 33B Q4 — GPT-4 के समीप कोडिंग गुणवत्ता

A100 40GB

40 GB

~$1.20/घंटा

Llama 3 70B Q4 — उत्पादन-प्रमाण ऑटोनॉमस कोडिंग एजेंट

केवल CPU

आणविक गतिशीलता

~$0.02/घं

OpenAI/Anthropic API के माध्यम से कोई भी मॉडल — किसी लोकल GPU की जरूरत नहीं

circle-info

यदि आप OpenAI/Anthropic API का उपयोग कर रहे हैं: आपको केवल एक CPU इंस्टेंस की आवश्यकता है (~$0.02/घं) — GPU अप्रासंगिक है क्योंकि इनफरेंस क्लाउड में चलता है। केवल तब GPU इंस्टेंस चुनें जब आप लोकल मॉडल प्रति-टोकन API लागत से बचने के लिए।

श्रेष्ठ लोकल मॉडल सेटअप: RTX 3090 + Ollama चल रहा है codellama:13b आपको लगभग ~$0.12/घं में एक पूर्ण रूप से स्वायत्त, गोपनीयता-संरक्षित कोडिंग एजेंट देता है जिसमें कोई API लागत नहीं है।


उपयोगी लिंक

Last updated

Was this helpful?