Jan.ai ऑफ़लाइन असिस्टेंट
Clore.ai पर Jan.ai सर्वर तैनात करें — मॉडल हब, बातचीत प्रबंधन और Cortex इंजन द्वारा संचालित GPU-त्वरित इनफरेंस के साथ पूर्णत: ऑफ़लाइन, OpenAI-अनुकूल LLM सर्वर।
अवलोकन
आवश्यकताएँ
हार्डवेयर आवश्यकताएँ
टियर
GPU
VRAM
RAM
स्टोरेज
Clore.ai मूल्य
मॉडल VRAM संदर्भ
मॉडल
आवश्यक VRAM
अनुशंसित GPU
सॉफ्टवेयर अनिवार्यताएँ
त्वरित प्रारम्भ
चरण 1 — Clore.ai पर एक GPU सर्वर किराये पर लें
चरण 2 — अपने सर्वर से कनेक्ट करें
चरण 3 — Docker Compose इंस्टॉल करें (यदि मौजूद नहीं है)
चरण 4 — Docker Compose के साथ Jan Server तैनात करें
चरण 5 — सत्यापित करें कि सर्वर चल रहा है
चरण 6 — अपना पहला मॉडल पुल करें
चरण 7 — मॉडल शुरू करें और चैट करें
कॉन्फ़िगरेशन
पर्यावरण चर
वैरिएबल
डिफ़ॉल्ट
विवरण
मल्टी-GPU कॉन्फ़िगरेशन
कस्टम मॉडल कॉन्फ़िगरेशन
API को टोकन से सुरक्षित करना
GPU त्वरक
CUDA त्वरण सत्यापन
इन्फरेंस बैकएंड्स बदलना
कंटेक्स्ट विंडो और बैच साइज ट्यूनिंग
पैरामीटर
विवरण
अनुशंसा
टिप्स और सर्वोत्तम प्रथाएँ
🎯 Clore.ai बजट के लिए मॉडल चयन
💾 स्थायी मॉडल स्टोरेज
🔗 Jan Server का उपयोग OpenAI ड्रॉप-इन के रूप में
📊 संसाधन उपयोग की निगरानी
समस्याओं का निवारण
कंटेनर शुरू नहीं होता — GPU नहीं मिला
मॉडल डाउनलोड फंस गया या विफल हो गया
VRAM समाप्त (CUDA आउट ऑफ मेमोरी)
कंटेनर के बाहर से API से कनेक्ट नहीं कर पाना
धीमी इन्फरेंस (CPU फॉलबैक)
अधिक पढ़ने के लिए
Last updated
Was this helpful?