Continue.dev एआई कोडिंग

Clore.ai GPU के साथ Continue.dev को शक्तिशाली बनाएं — निजी AI कोडिंग सहायता के लिए CodeLlama 34B, DeepSeek Coder और Qwen2.5-Coder सस्ते GPU रेंटलों पर लोकली चलाएँ।

Continue.dev एक ओपन-सोर्स AI कोडिंग सहायक है जो VS Code और JetBrains के लिए 25K+ GitHub सितारों के साथ उपलब्ध है। एक्सटेंशन आपके स्थानीय मशीन पर चलता है (या आपके IDE में), लेकिन यह इंफरेंस के लिए एक बैकएंड मॉडल सर्वर से जुड़ता है। Continue.dev को Clore.ai से किराए पर लिए गए शक्तिशाली GPU की ओर इशारा करके आप पाते हैं:

  • शीर्ष-स्तरीय कोडिंग मॉडल (34B+ पैरामीटर) जो आपके लैपटॉप पर बैठेंगे नहीं

  • पूर्ण गोपनीयता — कोड उस इन्फ्रास्ट्रक्चर पर रहता है जिसे आप नियंत्रित करते हैं

  • लचीला खर्च — केवल तब भुगतान करें जब आप कोड कर रहे हों (~$0.20–0.50/घं बनाम Copilot के $19/माह)

  • OpenAI-अनुकूल API — Continue.dev Ollama, vLLM, या TabbyML से सहज रूप से कनेक्ट होता है

यह मार्गदर्शिका सेटअप पर केंद्रित है Clore.ai GPU बैकएंड (Ollama या vLLM) से जिसे आपका स्थानीय Continue.dev एक्सटेंशन कनेक्ट करता है।

circle-check
circle-info

आर्किटेक्चर: आपका IDE (Continue.dev एक्सटेंशन के साथ) → इंटरनेट → Clore.ai GPU सर्वर (Ollama / vLLM / TabbyML चल रहा है) → स्थानीय मॉडल इंफरेंस। कोई भी कोड कभी तृतीय-पक्ष API को टैच नहीं करता।

अवलोकन

संपत्ति
विवरण

प्रोजेक्ट

लाइसेंस

Apache 2.0

GitHub स्टार्स

25K+

IDE समर्थन

VS Code, JetBrains (IntelliJ, PyCharm, WebStorm, GoLand, आदि)

कॉन्फ़िग फ़ाइल

~/.continue/config.json

बैकएंड विकल्प

Ollama, vLLM, TabbyML, LM Studio, llama.cpp, OpenAI-संगत APIs

कठिनाई

सरल (एक्सटेंशन इंस्टॉल) / मध्यम (स्व-होस्टेड बैकएंड)

GPU आवश्यक?

Clore.ai सर्वर पर (हाँ); आपके लैपटॉप पर (नहीं)

प्रमुख विशेषताएँ

ऑटोकम्प्लीट, चैट, एडिट मोड, कोडबेस संदर्भ (RAG), कस्टम स्लैश कमांड्स

कोडिंग के लिए अनुशंसित मॉडल

मॉडल
VRAM
मजबूती
नोट्स

codellama:7b

~6 GB

तेज़ ऑटोकम्प्लीट

अच्छा शुरूआती विकल्प

codellama:13b

~10 GB

संतुलित

ऑटोकम्प्लीट के लिए सर्वोत्तम गुणवत्ता/गति

codellama:34b

~22 GB

सबसे अच्छा CodeLlama गुणवत्ता

RTX 3090 / A100 की जरूरत

deepseek-coder:6.7b

~5 GB

Python/JS विशेषज्ञ

वेब विकास के लिए उत्कृष्ट

deepseek-coder:33b

~22 GB

शीर्ष-स्तरीय ओपन सोर्स

कोड पर GPT-4 को टक्कर देता है

qwen2.5-coder:7b

~6 GB

बहुभाषी कोड

40+ भाषाओं पर मजबूत

qwen2.5-coder:32b

~22 GB

राज्य-ऑफ-द-आर्ट

2024 का सर्वश्रेष्ठ खुला कोडिंग मॉडल

starcoder2:15b

~12 GB

कोड पूर्णता विशेषज्ञ

FIM (fill-in-the-middle) समर्थन

आवश्यकताएँ

Clore.ai सर्वर आवश्यकताएँ

टियर
GPU
VRAM
RAM
डिस्क
मूल्य
मॉडल

बजट

RTX 3060

12 GB

16 GB

40 GB

~$0.10/घं

CodeLlama 7B, DeepSeek 6.7B, Qwen2.5-Coder 7B

अनुशंसित

RTX 3090

24 GB

32 GB

80 GB

~$0.20/घंटा

CodeLlama 34B, DeepSeek 33B, Qwen2.5-Coder 32B

प्रदर्शन

RTX 4090

24 GB

32 GB

80 GB

~$0.35/घंटा

ऊपर के समान मॉडल, तेज़ इंफरेंस

शक्ति

A100 40GB

40 GB

64 GB

120 GB

~$0.60/घं

एक साथ कई 34B मॉडल

अधिकतम

A100 80GB

80 GB

80 GB

200 GB

~$1.10/घंटा

70B मॉडल (CodeLlama 70B)

लोकल आवश्यकताएँ (आपकी मशीन)

  • VS Code या कोई भी JetBrains IDE

  • Continue.dev एक्सटेंशन इंस्टॉल किया हुआ

  • आपके Clore.ai सर्वर के साथ स्थिर इंटरनेट कनेक्शन

  • कोई लोकल GPU आवश्यक नहीं — सभी इंफरेंस Clore.ai पर होते हैं

त्वरित प्रारम्भ

भाग 1: Clore.ai बैकएंड सेट अप करें

विकल्प A — Ollama बैकएंड (ज्यादातर उपयोगकर्ताओं के लिए अनुशंसित)

Ollama Continue.dev के लिए सबसे आसान बैकएंड है — सरल सेटअप, उत्कृष्ट मॉडल प्रबंधन, OpenAI-संगत API।

Ollama को बाहरी रूप से एक्सपोज़ करने के लिए (ताकि आपका लोकल IDE कनेक्ट कर सके):

circle-exclamation

विकल्प B — vLLM बैकएंड (उच्च-थ्रूपुट / OpenAI-संगत)

vLLM तेज़ इंफरेंस और मल्टी-यूज़र समर्थन प्रदान करता है। आदर्श यदि कई डेवलपर एक Clore.ai सर्वर साझा करते हैं।

विकल्प C — TabbyML बैकएंड (FIM ऑटोकम्प्लीट विशेषज्ञ)

TabbyML श्रेष्ठ fill-in-the-middle (FIM) ऑटोकम्प्लीट प्रदान करता है — इनलाइन घोस्ट-टेक्स्ट सुझाव। देखें TabbyML गाइडarrow-up-right पूर्ण सेटअप विवरण के लिए।

भाग 2: Continue.dev एक्सटेंशन इंस्टॉल करें

VS Code:

  1. एक्सटेंशन्स पैनल खोलें (Ctrl+Shift+X / Cmd+Shift+X)

  2. खोजें "Continue" — Continue (continuedev) द्वारा आधिकारिक एक्सटेंशन इंस्टॉल करें

  3. साइडबार में Continue आइकन पर क्लिक करें (या Ctrl+Shift+I)

JetBrains (IntelliJ, PyCharm, WebStorm, GoLand):

  1. File → Settings → Plugins → Marketplace

  2. खोजें "Continue" और इंस्टॉल करें

  3. IDE को रीस्टार्ट करें; Continue पैनल दाहिने साइडबार पर दिखाई देता है

भाग 3: Continue.dev को Clore.ai उपयोग करने के लिए कॉन्फ़िगर करें

संपादित करें ~/.continue/config.json आपके स्थानीय मशीन पर:

के लिए vLLM बैकएंड Ollama के बजाय:

के लिए TabbyML बैकएंड (केवल ऑटोकम्प्लीट):

कॉन्फ़िगरेशन

SSH टनल सेटअप (सुरक्षित रिमोट एक्सेस)

पोर्ट्स को सार्वजनिक रूप से एक्सपोज़ करने की बजाय, अपनी लोकल मशीन से SSH टनल का उपयोग करें:

स्थायी टनल autossh के साथ

विभिन्न कार्यों के लिए कई मॉडल लोड करें

एक RTX 3090 (24 GB) पर, आप एक बड़े चैट मॉडल और एक छोटे ऑटोकम्प्लीट मॉडल को एक साथ चला सकते हैं:

कोडबेस इंडेक्सिंग (आपके रिपो के लिए RAG)

Continue.dev संदर्भ-आधारित सुझावों के लिए आपके कोडबेस को इंडेक्स कर सकता है। एक एम्बेडिंग मॉडल खींचें:

GPU त्वरक

इन्फरेंस प्रदर्शन निगरानी करें

GPU के अनुसार अपेक्षित प्रदर्शन

GPU
मॉडल
संदर्भ
टोकन्स/सेकंड (अनुमानित)

RTX 3060 12GB

CodeLlama 7B

8K

~40–60 t/s

RTX 3060 12GB

DeepSeek-Coder 6.7B

8K

~45–65 t/s

RTX 3090 24GB

Qwen2.5-Coder 32B (Q4)

16K

~15–25 t/s

RTX 3090 24GB

DeepSeek-Coder 33B (Q4)

16K

~15–22 t/s

RTX 4090 24GB

Qwen2.5-Coder 32B (Q4)

16K

~25–40 t/s

A100 40GB

Qwen2.5-Coder 32B (FP16)

32K

~35–50 t/s

A100 80GB

CodeLlama 70B (Q4)

32K

~20–30 t/s

ऑटोकम्प्लीट (fill-in-the-middle) के लिए, starcoder2:3b या codellama:7b 50–100 t/s प्राप्त कर सकता है — IDE में तात्कालिक अनुभव के लिए पर्याप्त तेज।

Ollama को बेहतर प्रदर्शन के लिए ट्यून करें

टिप्स और सर्वोत्तम प्रथाएँ

विभिन्न कार्यों के लिए अलग मॉडलों का उपयोग करें

Continue.dev को प्रत्येक कार्य प्रकार के लिए विशिष्ट मॉडलों के साथ कॉन्फ़िगर करें — UI आपको बातचीत के बीच मॉडल स्विच करने देता है:

लागत तुलना

समाधान
मासिक लागत (8घंटे/दिन उपयोग)
गोपनीयता
मॉडल गुणवत्ता

GitHub Copilot

$19/उपयोगकर्ता/माह

❌ Microsoft क्लाउड

GPT-4o (बंद)

Cursor Pro

$20/उपयोगकर्ता/माह

❌ Cursor क्लाउड

Claude 3.5 (बंद)

Clore.ai पर RTX 3060

~$24/माह

✅ आपका सर्वर

CodeLlama 13B

Clore.ai पर RTX 3090

~$48/माह

✅ आपका सर्वर

Qwen2.5-Coder 32B

Clore.ai पर RTX 4090

~$84/माह

✅ आपका सर्वर

Qwen2.5-Coder 32B

Clore.ai पर A100 80GB

~$264/माह

✅ आपका सर्वर

CodeLlama 70B

3+ डेवलपर्स की टीम के लिए एक Clore.ai RTX 3090 (~$48/माह कुल) साझा करने पर, प्रति-उपयोगकर्ता लागत Copilot से बेहतर होती है जबकि एक बड़ा, निजी मॉडल प्रदान करती है।

कोडिंग न कर रहे हों तो बंद कर दें

Clore.ai प्रति घंटे शुल्क लेता है। सर्वर शुरू/रोकने के लिए एक सरल स्क्रिप्ट का उपयोग करें:

Continue.dev कस्टम कमांड्स का उपयोग करें

कस्टम स्लैश कमांड्स जोड़ें config.json में सामान्य कोडिंग वर्कफ़्लो के लिए:

समस्याओं का निवारण

समस्या
संभावित कारण
समाधान

Continue.dev "Connection refused" दिखा रहा है

Ollama पहुँच योग्य नहीं है

जांचें कि SSH टनल सक्रिय है; सत्यापित करें curl http://localhost:11434/ काम करता है

ऑटोकम्प्लीट चालू नहीं हो रहा

Tab ऑटोकम्प्लीट मॉडल सेट नहीं है

जोड़ें tabAutocompleteModel को config.json में जोड़ें; Continue सेटिंग्स में सक्षम करें

बहुत धीमे उत्तर (>30s पहला टोकन)

डिस्क से मॉडल लोड हो रहा है

पहला अनुरोध मॉडल को VRAM में लोड करता है — बाद के अनुरोध तेज़ होते हैं

"Model not found" त्रुटि

मॉडल खींचा नहीं गया

चलाएँ docker exec ollama ollama pull <model-name> Clore.ai सर्वर पर

टोकन्स के बीच उच्च विलंबता

नेटवर्क लैग या मॉडल बहुत बड़ा

SSH टनल का उपयोग करें; छोटे मॉडल में स्विच करें; सर्वर GPU उपयोग की जांच करें

कोडबेस संदर्भ काम नहीं कर रहा

एम्बेडिंग मॉडल गायब है

खींचें nomic-embed-text Ollama के माध्यम से; जाँचें embeddingsProvider config.json में

SSH टनल बार-बार गिरता है

अस्थिर कनेक्शन

उपयोग करें autossh स्थायी पुन: कनेक्शन के लिए; जोड़ें ServerAliveInterval 30

संदर्भ विंडो अधिक हो गई

लंबी फाइलें/बातचीतें

घटाएँ contextLength config.json में; लंबी कान्टेक्स्ट वाली मॉडल का उपयोग करें

JetBrains प्लगइन लोड नहीं हो रहा

IDE संस्करण असंगतता

JetBrains IDE को नवीनतम में अपडेट करें; Continue.dev प्लगइन अनुकूलता मैट्रिक्स जांचें

vLLM लोडिंग के दौरान OOM

पर्याप्त VRAM नहीं

जोड़ें --gpu-memory-utilization 0.85; छोटे मॉडल या क्वांटाइज़्ड संस्करण का उपयोग करें

डिबग कमांड्स

Continue.dev कॉन्फ़िग सत्यापन

अधिक पढ़ने के लिए

Last updated

Was this helpful?