# अवलोकन

Clore.ai पर GPU किराए पर लें, Ollama या vLLM के माध्यम से लोकल LLM चलाएँ, और एक कोडिंग असिस्टेंट कनेक्ट करें — आपको एक पूरी तरह से **प्राइवेट AI विकास वातावरण** जहाँ आपका कोड कभी भी मशीन से बाहर नहीं जाता। कोई API कीज़ प्रबंधित करने के लिए नहीं, कोई टोकन सीमाएँ नहीं, कोई डेटा तीसरे पक्ष के सर्वरों पर नहीं भेजा जाता।

## यह कैसे काम करता है

```
Clore.ai GPU  →  Ollama / vLLM (लोकल LLM)  →  कोडिंग टूल (Aider, TabbyML)
                     ↑                              ↑
              RTX 4090 / A100               localhost:11434 या :8000 के माध्यम से जुड़ता है
```

1. **GPU किराए पर लें** पर [clore.ai/marketplace](https://clore.ai/marketplace) — RTX 3090 ($0.30–1/दिन) या RTX 4090 ($0.50–2/दिन)
2. **एक LLM तैनात करें** — `ollama run deepseek-r1:32b` या किसी भी कोडिंग-उन्मुख मॉडल के साथ vLLM चालू करें
3. **अपना कोडिंग टूल लॉन्च करें** — यह LLM से localhost पर बात करता है, कोड पूरा करता है, टेस्ट लिखता है, और रिफैक्टरिंग करता है

## उपलब्ध मार्गदर्शिकाएँ

| मार्गदर्शिका                                                               | टूल   | विवरण                                                                                                       |
| -------------------------------------------------------------------------- | ----- | ----------------------------------------------------------------------------------------------------------- |
| [Aider](https://docs.clore.ai/guides/guides_v2-hi/ai-coding-tools/aider)   | Aider | टर्मिनल-आधारित AI पेयर प्रोग्रामर — प्राकृतिक भाषा के माध्यम से सीधे आपके रेपो की फाइलों को संपादित करता है |
| [TabbyML](https://docs.clore.ai/guides/guides_v2-hi/ai-coding-tools/tabby) | Tabby | IDE एक्सटेंशन्स (VS Code, JetBrains) के साथ सेल्फ-होस्टेड कोड कंप्लीशन सर्वर                                |

## Clore.ai पर सेल्फ-होस्ट क्यों करें?

* **गोपनीयता** — आपका कोडबेस किराए पर ली गई इंस्टेंस पर रह जाता है, OpenAI/Anthropic सर्वरों पर नहीं
* **कोई रेट लिमिट नहीं** — GPU स्पीड पर अनलिमिटेड कंप्लीशन
* **लागत नियंत्रण** — घंटा/दिन के हिसाब से भुगतान करें, आइडल होने पर बंद कर दें
* **मॉडल चयन** — किसी भी ओपन मॉडल को चलाएँ: DeepSeek-R1, Qwen 2.5 Coder, CodeLlama, StarCoder2
