OpenHands AI डेवलपर

Clore.ai पर OpenHands (पूर्व में OpenDevin) तैनात करें — कोडिंग, डिबगिंग और GitHub मुद्दा समाधान के लिए किफायती GPU क्लाउड सर्वरों पर पूर्णतः स्वायत्त एआई सॉफ़्टवेयर इंजीनियर चलाएँ।

अवलोकन

OpenHandsarrow-up-right (पूर्व में OpenDevin) स्वायत्त एआई सॉफ़्टवेयर विकास एजेंटों के लिए एक ओपन-सोर्स प्लेटफ़ॉर्म है। 65K+ GitHub स्टार्स के साथ, यह एआई को वास्तविक प्रोग्रामिंग कार्य सौंपने के लिए सबसे लोकप्रिय टूल्स में से एक बन गया है — कोड लिखना, बग ठीक करना, GitHub मुद्दों का समाधान करना, शेल कमांड चलाना, वेब ब्राउज़ करना और आपके कोडबेस के साथ एंड-टू-एंड इंटरैक्ट करना।

सामान्य कोड-पूरक टूल्स के विपरीत, OpenHands एक एजेन्टिक लूपचलाता है: यह एक कार्य प्राप्त करता है, योजना बनाता है, कोड लिखता है, उसे निष्पादित करता है, आउटपुट का निरीक्षण करता है, और पुनरावृत्ति करता है — यह सब बिना मानव हस्तक्षेप के। यह OpenAI, Anthropic Claude, Google Gemini सहित दर्जनों LLM बैकएंड्स और Ollama या vLLM के माध्यम से लोकली-होस्टेड मॉडलों का समर्थन करता है।

OpenHands के लिए Clore.ai क्यों?

  • OpenHands स्वयं CPU-आधारित है और GPU की आवश्यकता नहीं होती

  • हालाँकि, इसे स्थानीय LLM (Ollama, vLLM) के साथ एक ही सर्वर पर जोड़ने से API लागत और विलंबता समाप्त हो जाती है

  • Clore.ai के किफायती GPU सर्वर आपको OpenHands और एक स्थानीय मॉडल चलाने देते हैं, वह भी सिर्फ $0.20–$0.35/घं

  • आपको स्थायी वर्कस्पेस स्टोरेज, Docker-in-Docker समर्थन और पूर्ण रूट एक्सेस मिलता है

  • लंबे समय तक चलने वाले स्वायत्त कार्यों के लिए आदर्श जो क्लाउड LLM APIs के माध्यम से महंगे होंगे

Clore.ai पर सामान्य उपयोग के मामलों में:

  • विशिष्ट विवरण या मुद्दे के वर्णन से स्वायत्त कोड जनरेशन

  • बड़े कोडबेस का थोक रीफैक्टरिंग

  • 100% ऑफ़लाइन एजेन्टिक विकास के लिए OpenHands + Ollama को साथ में चलाना

  • API लागत के बिना CI/CD कार्य स्वचालन


आवश्यकताएँ

OpenHands को Docker सॉकेट एक्सेस की आवश्यकता होती है और यह आंतरिक रूप से एक सैंडबॉक्सेड रनटाइम कंटेनर चलाता है। निम्न तालिका Clore.ai पर अनुशंसित कॉन्फ़िगरेशन को कवर करती है:

कॉन्फ़िगरेशन
GPU
VRAM
RAM
स्टोरेज
अनुमानित मूल्य

केवल API (कोई स्थानीय LLM नहीं)

किसी भी / केवल CPU

लागू नहीं

8 GB

20 GB

~$0.05–0.10/घंटा

+ Ollama (Llama 3.1 8B)

RTX 3090

24 GB

16 GB

40 GB

~$0.20/घंटा

+ Ollama (Qwen2.5 32B)

RTX 4090

24 GB

32 GB

60 GB

~$0.35/घंटा

+ vLLM (Llama 3.1 70B)

A100 80GB

80 GB

64 GB

100 GB

~$1.10/घंटा

+ vLLM (Llama 3.3 70B INT4)

RTX 4090

24 GB

32 GB

80 GB

~$0.35/घंटा

नोट: यदि आप केवल OpenAI/Anthropic/Gemini APIs का उपयोग करते हैं, तो ≥8 GB RAM वाला कोई भी सर्वर काम कर जाएगा। उसी मशीन पर स्थानीय LLM चलाना है तो GPU की आवश्यकता होगी। देखें GPU तुलना मार्गदर्शिका अधिक विवरण के लिए।

Clore.ai सर्वर पर सॉफ़्टवेयर आवश्यकताएँ:

  • Docker Engine (सभी Clore.ai इमेजेस पर पहले से इंस्टॉल)

  • NVIDIA कंटेनर टूलकिट (GPU इमेज पर पूर्व-इंस्टॉल्ड)

  • Docker सॉकेट पहुंच योग्य है: /var/run/docker.sock

  • GHCR इमेज खींचने के लिए बाहरी इंटरनेट एक्सेस


त्वरित प्रारम्भ

चरण 1: एक Clore.ai सर्वर चुनें और कनेक्ट करें

में Clore.ai मार्केटप्लेसarrow-up-rightसेर्वरों को फ़िल्टर करने के लिए:

  • RAM ≥ 16 GB (स्थानीय LLM कॉम्बो के लिए)

  • Docker: ✓ सक्षम

  • यदि स्थानीय मॉडल का उपयोग कर रहे हैं तो अपनी पसंदीदा GPU चुनें

सर्वर प्रोविजन होने के बाद SSH के माध्यम से कनेक्ट करें:

चरण 2: जांचें कि Docker चल रहा है

दोनों कमांड सफल होनी चाहिए। यदि Docker सॉकेट गायब है, तो Clore.ai समर्थन से संपर्क करें या किसी अलग इमेज का चयन करें।

चरण 3: OpenHands पुल और चलाएँ

चरण 4: वेब UI तक पहुँच

UI उपलब्ध है: http://<server-ip>:3000

Clore.ai पोर्ट फॉरवर्डिंग: Clore.ai डैशबोर्ड में, सुनिश्चित करें कि पोर्ट 3000 आपकी सर्वर कॉन्फ़िगरेशन में अग्रेषित/एक्सपोज़ किया गया है। कुछ टेम्पलेट्स बाहरी पोर्ट्स को प्रतिबंधित करते हैं — अपने सर्वर विवरण में "Ports" सेक्शन की जाँच करें।

प्रथम लॉन्च पर, OpenHands आपसे एक LLM प्रदाता कॉन्फ़िगर करने के लिए कहेगा।

चरण 5: अपना LLM कॉन्फ़िगर करें

वेब UI सेटिंग्स में:

  • प्रदाता: OpenAI, Anthropic, Google, या Custom चुनें

  • API कुंजी: अपनी API कुंजी दर्ज करें

  • मॉडल: उदा., gpt-4o, claude-3-5-sonnet-20241022, या ollama/llama3.1

लोकल Ollama (नीचे GPU Acceleration सेक्शन देखें) के लिए, उपयोग करें:

  • प्रदाता: ollama

  • बेस URL: http://host.docker.internal:11434

  • मॉडल: ollama/llama3.1:8b


कॉन्फ़िगरेशन

पर्यावरण चर

OpenHands को पूरी तरह से उन पर्यावरण चर के माध्यम से कॉन्फ़िगर किया जा सकता है जो docker run:

वैरिएबल
विवरण
डिफ़ॉल्ट

LLM_MODEL

मॉडल पहचानकर्ता (जैसे gpt-4o, claude-3-5-sonnet-20241022)

UI में सेट किया गया

LLM_API_KEY

LLM प्रदाता के लिए API कुंजी

UI में सेट किया गया

LLM_BASE_URL

कस्टम बेस URL (Ollama, vLLM, LiteLLM के लिए)

प्रदाता डिफ़ॉल्ट

SANDBOX_TIMEOUT

एजेंट सैंडबॉक्स टाइमआउट (सेकंड में)

120

MAX_ITERATIONS

प्रति कार्य अधिकतम एजेन्टिक लूप पुनरावृत्तियाँ

100

SANDBOX_USER_ID

सैंडबॉक्स को चलाने के लिए UID (उपयोग करें $(id -u))

0

LOG_ALL_EVENTS

विस्तृत इवेंट लॉगिंग सक्षम करें (true/false)

false

स्थायी कॉन्फ़िगरेशन फ़ाइल

आप सेटिंग्स को एक कॉन्फ़िग डायरेक्टरी माउंट करके स्थायी बना सकते हैं:

बैकग्राउंड में चलाना (Detached मोड)

Clore.ai पर लंबे चलने वाले सत्रों के लिए:


GPU त्वरण (स्थानीय LLM एकीकरण)

जबकि OpenHands स्वयं GPU का उपयोग नहीं करता, इसे Clore.ai के GPU पर स्थानीय LLM चलाने से आपको एक शक्तिशाली, किफायती, API-रहित स्वायत्त एजेंट मिलता है।

विकल्प A: OpenHands + Ollama (शुरुआती के लिए अनुशंसित)

पहले Ollama चलाएँ, फिर OpenHands को उसकी ओर इशारा करें:

पूरा देखें Ollama गाइड मॉडल चयन, प्रदर्शन ट्यूनिंग, और GPU कॉन्फ़िगरेशन के लिए।

विकल्प B: OpenHands + vLLM (उच्च प्रदर्शन)

बड़े मॉडलों के साथ अधिकतम थ्रूपुट के लिए:

पूरे सेटअप के लिए देखें vLLM गाइड पूर्ण सेटअप, क्वांटाइज़ेशन विकल्प, और मल्टी-GPU कॉन्फ़िगरेशन के लिए।

कोडिंग के लिए अनुशंसित लोकल मॉडल्स

मॉडल
आकार
न्यूनतम VRAM
गुणवत्ता

qwen2.5-coder:7b

7B

8 GB

★★★☆☆

deepseek-coder-v2:16b

16B

12 GB

★★★★☆

qwen2.5-coder:32b

32B

24 GB

★★★★☆

llama3.1:70b

70B

48 GB

★★★★★


टिप्स और सर्वोत्तम प्रथाएँ

1. वर्कस्पेस माउंट्स का बुद्धिमानी से उपयोग करें

अपनी वास्तविक प्रोजेक्ट डायरेक्टरी को वर्कस्पेस के रूप में माउंट करें ताकि OpenHands सीधे आपकी फ़ाइलों को संपादित कर सके:

2. सर्वोत्तम परिणामों के लिए टास्क प्रॉम्प्टिंग

OpenHands विशिष्ट, क्रियान्वयन योग्य प्रॉम्प्ट्स के साथ सबसे अच्छा काम करता है:

3. संसाधन उपयोग की निगरानी करें

4. पुनरावृत्ति सीमाएँ सेट करें

एजेंट्स को बहुत अधिक API टोकन उपयोग करने से रोकें:

5. GitHub एकीकरण

OpenHands सीधे GitHub मुद्दों को हल कर सकता है। UI में कॉन्फ़िगर करें:

  • GitHub टोकन: आपका व्यक्तिगत एक्सेस टोकन जिसमें repo स्कोप

  • OpenHands रिपो को क्लोन करेगा, समस्या ठीक करेगा और एक PR बनाएगा

6. लागत का अनुमान

API-आधारित LLMs के लिए, प्रति कार्य लागत का अनुमान:

  • सरल बग फिक्स: ~$0.05–0.15 (Claude Haiku/GPT-4o-mini)

  • जटिल फीचर: ~$0.50–2.00 (Claude Sonnet/GPT-4o)

  • यदि दिन में 100+ कार्य हैं, तो Clore.ai पर स्थानीय LLM अपनी लागत निकाल लेता है


समस्याओं का निवारण

Docker सॉकेट अनुमति अस्वीकृत

सैंडबॉक्स कंटेनर शुरू नहीं होता

पोर्ट 3000 पहुँच योग्य नहीं है

Ollama के साथ LLM कनेक्शन त्रुटियाँ

एजेंट लूप अनंत तक चलता है

मेमोरी समाप्त (OOM)


अधिक पढ़ने के लिए

Last updated

Was this helpful?