LobeChat AI असिस्टेंट

Clore.ai पर LobeChat तैनात करें — मल्टी-प्रोवाइडर समर्थन, नॉलेज बेस और प्लगइन्स के साथ शानदार, फीचर-समृद्ध एआई चैट इंटरफ़ेस किफायती GPU-समर्थित क्लाउड सर्वरों पर चलाएँ।

अवलोकन

LobeChatarrow-up-right एक आधुनिक ओपन-सोर्स एआई चैट फ्रेमवर्क है जिसके 55K+ GitHub स्टार हैं, जो अपने परिष्कृत UI और व्यापक फीचर सेट के लिए जाना जाता है। यह मूल रूप से हर बड़े LLM प्रदाता — OpenAI, Anthropic Claude, Google Gemini, Mistral, और Ollama के माध्यम से स्थानीय मॉडल — को एक ही, स्वयं-होस्ट किए गए इंटरफ़ेस से समर्थन करता है।

Clore.ai पर LobeChat क्यों चलाना चाहिए?

  • किसी GPU की आवश्यकता नहीं — LobeChat स्वयं एक हल्का वेब ऐप है। Clore.ai के केवल-CPU या न्यूनतम-GPU इंस्टेंस इंटरफ़ेस के लिए पूरी तरह पर्याप्त हैं।

  • स्थानीय LLMs के साथ जोड़ें — उसी Clore.ai सर्वर पर Ollama या vLLM चालू करें और पूर्णतः स्थानीय, निजी इन्फरेंस के लिए LobeChat को उस पर पॉइंट करें।

  • किफायती होस्टिंग — एक बुनियादी Clore.ai इंस्टेंस पारंपरिक VPS प्रदाताओं की तुलना में बहुत कम लागत का होता है, और आप उपयोग न होने पर इसे बंद कर सकते हैं।

  • पूर्ण डेटा स्वामित्व — डेटाबेस मोड सभी वार्तालापों, फ़ाइलों और एम्बेडिंग्स को आपके सर्वर पर आपके स्वयं के PostgreSQL इंस्टेंस में संग्रहीत करता है।

LobeChat दो अलग-अलग मोड में संचालित होता है:

मोड
विवरण
उत्तम हेतु

स्टैंडअलोन

एकल Docker कंटेनर, सेटिंग्स ब्राउज़र में संग्रहीत

त्वरित परीक्षण, व्यक्तिगत उपयोग

डेटाबेस

पूर्ण स्टैक (PostgreSQL + MinIO + Auth + App)

टीमें, स्थायी इतिहास, नॉलेज बेस


आवश्यकताएँ

सर्वर विनिर्देश

घटक
न्यूनतम
अनुशंसित
नोट्स

GPU

कोई आवश्यक नहीं

RTX 3090 (यदि स्थानीय LLMs चला रहे हों)

केवल Ollama/vLLM बैकएंड चलाने के लिए आवश्यक

VRAM

24 GB (RTX 3090)

स्थानीय मॉडल इन्फरेंस के लिए

CPU

2 vCPU

4+ vCPU

LobeChat स्वयं हल्का है

RAM

2 GB

8 GB

डेटाबेस मोड का उपयोग करने पर 4+ GB

स्टोरेज

10 GB

50+ GB

अपलोड की गई फ़ाइलें या मॉडल संग्रहीत करने पर अधिक आवश्यक होगा

Clore.ai मूल्य संदर्भ

सर्वर प्रकार
अनुमानित लागत
उपयोग का मामला

केवल-CPU इंस्टेंस

~$0.05–0.10/घंटा

केवल स्टैंडअलोन LobeChat के लिए

RTX 3090 (24 GB VRAM)

~$0.20/घंटा

LobeChat + Ollama स्थानीय LLMs

RTX 4090 (24 GB VRAM)

~$0.35/घंटा

LobeChat + तेज़ स्थानीय इन्फरेंस

A100 80 GB

~$1.10/घंटा

LobeChat + बड़े मॉडल (70B+)

💡 संकेत: केवल API उपयोग (OpenAI, Anthropic आदि से कनेक्ट करना) के लिए, कोई भी छोटा इंस्टेंस काम करेगा। केवल तभी GPU सर्वर तर्कसंगत है जब आप स्थानीय LLMs भी चलाना चाहते हों। देखें GPU तुलना मार्गदर्शिका विवरण के लिए।

पूर्वापेक्षाएँ

  • Clore.ai खाता और तैनात सर्वर

  • अपने सर्वर के लिए SSH एक्सेस

  • Docker और Docker Compose (Clore.ai सर्वरों पर पहले से इंस्टॉल)

  • NVIDIA ड्राइवर (पहले से इंस्टॉल; केवल स्थानीय LLM बैकएंड उपयोग करने पर प्रासंगिक)

  • कम से कम एक API कुंजी (OpenAI, Anthropic, आदि) या एक स्थानीय Ollama इंस्टेंस


त्वरित प्रारम्भ

विकल्प A: स्टैंडअलोन मोड (शुरू करने के लिए अनुशंसित)

स्टैंडअलोन मोड LobeChat को एकल कंटेनर के रूप में चलाता है। सेटिंग्स और वार्तालाप इतिहास ब्राउज़र के स्थानीय स्टोरेज में संग्रहीत होते हैं — किसी डेटाबेस की आवश्यकता नहीं।

चरण 1: अपने Clore.ai सर्वर से कनेक्ट करें

चरण 2: LobeChat को पुल करें और चलाएँ

चरण 3: सत्यापित करें कि यह चल रहा है

चरण 4: इंटरफ़ेस तक पहुँचें

अपने ब्राउज़र को खोलें और नेविगेट करें:

⚠️ सुरक्षा नोट: Clore.ai सर्वर सार्वजनिक रूप से पहुँच योग्य हैं। सेट करने पर विचार करें ACCESS_CODE अपने इंस्टेंस को पासवर्ड-प्रोटेक्ट करने के लिए (नीचे कॉन्फ़िगरेशन अनुभाग देखें)।


विकल्प B: कई प्रदाताओं के साथ स्टैंडअलोन

विभिन्न प्रदाताओं को एक-साथ समर्थन देने के लिए कई API कुंजियाँ पास करें:


विकल्प C: स्थानीय Ollama बैकएंड के साथ

यदि आपके पास उसी Clore.ai सर्वर पर Ollama चल रहा है (देखें Ollama गाइड):

Linux पर, बदलें host-gateway वास्तविक Docker ब्रिज IP से, जो आमतौर पर 172.17.0.1:


विकल्प D: डेटाबेस मोड (Docker Compose)

डेटाबेस मोड स्थायी वार्तालाप इतिहास, मल्टी-यूज़र समर्थन, S3-संगत स्टोरेज पर फ़ाइल अपलोड और पूर्ण नॉलेज बेस सक्षम करता है।

चरण 1: प्रोजेक्ट डायरेक्टरी बनाएं

चरण 2: बनाएं docker-compose.yml

चरण 3: स्टैक शुरू करें

चरण 4: MinIO बकेट बनाएं


कॉन्फ़िगरेशन

पर्यावरण चर संदर्भ

वैरिएबल
विवरण
डिफ़ॉल्ट

OPENAI_API_KEY

OpenAI API कुंजी

OPENAI_PROXY_URL

कस्टम OpenAI-संगत अंतबिंदु

https://api.openai.com/v1

ANTHROPIC_API_KEY

Anthropic Claude API कुंजी

GOOGLE_API_KEY

Google Gemini API कुंजी

MISTRAL_API_KEY

Mistral AI API कुंजी

OLLAMA_PROXY_URL

स्थानीय Ollama इंस्टेंस का URL

ACCESS_CODE

इंटरफ़ेस की सुरक्षा के लिए पासवर्ड

DEFAULT_AGENT_CONFIG

डिफ़ॉल्ट सहायक व्यवहार के लिए JSON कॉन्फ़िग

FEATURE_FLAGS

विशिष्ट सुविधाओं को सक्षम/अक्षम करें

विशिष्ट सुविधाओं को सक्षम करना

वेब सर्च प्लगइन सक्षम करें:

टेक्स्ट-टू-स्पीच सक्षम करें:

डिफ़ॉल्ट एजेंट के लिए कस्टम सिस्टम प्रॉम्प्ट सेट करें:

LobeChat अपडेट करना

Docker Compose के लिए:


GPU त्वरक

LobeChat स्वयं समर्थन GPU की आवश्यकता नहीं करता। हालाँकि, जब इसे Clore.ai पर GPU-त्वरित बैकएंड के साथ जोड़ा जाता है, तो आपको स्थानीय, निजी LLM इन्फरेंस मिलता है:

vLLM के साथ पेयरिंग (उच्च-प्रदर्शन इन्फरेंस)

पूरे सेटअप के लिए देखें vLLM गाइड त्वरित एकीकरण:

संसाधन उपयोग

बैकएंड
GPU VRAM उपयोग
अनुमानित थ्रूपुट

Ollama (Llama 3.2 3B)

~2 GB

3090 पर 50–80 टोकन/सेकंड

Ollama (Llama 3.1 8B)

~6 GB

3090 पर 40–60 टोकन/सेकंड

vLLM (Llama 3.1 8B)

~16 GB

3090 पर 80–150 टोकन/सेकंड

vLLM (Llama 3.1 70B)

~80 GB

A100 80GB पर 20–40 टोकन/सेकंड


टिप्स और सर्वोत्तम प्रथाएँ

लागत अनुकूलन

  • जब सर्वर निष्क्रिय हो तो उसे रोक दें। Clore.ai प्रति घंटे शुल्क लेता है — उन इंस्टेंसों को अस्थायी रूप से रोकने के लिए डैशबोर्ड का उपयोग करें जिन्हें आप सक्रिय रूप से उपयोग नहीं कर रहे हैं।

  • व्यक्तिगत उपयोग के लिए स्टैंडअलोन मोड। जब तक आपको मल्टी-यूज़र समर्थन या सर्वर-साइड परस्थायी इतिहास की आवश्यकता न हो, स्टैंडअलोन मोड PostgreSQL और MinIO के ओवरहेड से बचाता है।

  • बड़े मॉडलों के लिए API प्रदाताओं का उपयोग करें। Claude या GPT-4 अनुरोधों को बाहरी APIs के माध्यम से रूट करना कभी-कभी आकस्मिक प्रश्नों के लिए H100 किराए पर लेने से सस्ता होता है।

सुरक्षा

  • कभी भी सार्वजनिक IP पर LobeChat को बिना ACCESS_CODE के उजागर न करें।

  • लंबे समय तक चलाने पर HTTPS के साथ Nginx रिवर्स प्रॉक्सी का उपयोग करने पर विचार करें।

  • यदि आपको कुंजी के एक्सपोज़ होने का संदेह हो तो API कुंजियों को रोटेट करें।

प्रदर्शन

  • 10+ समकालिक उपयोगकर्ताओं वाले डेटाबेस मोड के लिए, होस्ट पर कम से कम 8 GB RAM सुनिश्चित करें।

  • MinIO NVMe-backed (SSD) स्टोरेज के साथ बेहतर प्रदर्शन करता है (Clore.ai NVMe इंस्टेंस)।

Clore.ai सत्रों के बीच परसिस्टेंस

चूँकि Clore.ai सर्वरों को समाप्त किया जा सकता है:

UI में सेटिंग्स → डेटा एक्सपोर्ट से नियमित रूप से वार्तालाप निर्यात करें।


समस्याओं का निवारण

कंटेनर शुरू नहीं हो रहा

LobeChat से Ollama से कनेक्ट नहीं कर पा रहे

डेटाबेस कनेक्शन त्रुटियाँ (डेटाबेस मोड)

इमेज/फ़ाइलें अपलोड नहीं हो रही (डेटाबेस मोड)

मेमोरी समाप्ति त्रुटियाँ


अधिक पढ़ने के लिए

Last updated

Was this helpful?