AnythingLLM RAG प्लेटफ़ॉर्म

Clore.ai पर AnythingLLM तैनात करें — अंतर्निहित दस्तावेज़ चैट, नो-कोड एजेंट बिल्डर और MCP समर्थन के साथ एक ऑल-इन-वन RAG एप्लिकेशन और एआई एजेंट प्लेटफ़ॉर्म लागत-कुशल GPU क्लाउड सर्वरों पर चल रहा है।

अवलोकन

AnythingLLMarrow-up-right यह एक पूर्ण-विशेषताओं वाला, ओपन-सोर्स AI वर्कस्पेस है जिसे GitHub पर 40K+ स्टार मिले हैं। यह दस्तावेज़-आधारित RAG (Retrieval-Augmented Generation), AI एजेंट्स, और एक नो-कोड एजेंट बिल्डर को एक ही स्व-होस्ट किए गए एप्लिकेशन में जोड़ता है — सब कुछ एक साफ़, सहज UI के माध्यम से प्रबंधित होता है जिसे सेटअप के लिए कोई कोडिंग नहीं चाहिए।

AnythingLLM को Clore.ai पर क्यों चलाएं?

  • बॉक्स से पूरी RAG पाइपलाइन — PDF, Word दस्तावेज़, वेबसाइट और YouTube ट्रांसक्रिप्ट अपलोड करें। AnythingLLM स्वचालित रूप से उन्हें चंक करता है, एम्बेड करता है, और सेमांटिक सर्च के लिए संग्रहित करता है।

  • ऐप्लिकेशन के लिए GPU की आवश्यकता नहीं — AnythingLLM डिफ़ॉल्ट रूप से CPU-आधारित एम्बेडिंग का उपयोग करता है। स्थानीय इनफेरेंस के लिए इसे Ollama या vLLM चलाने वाले Clore.ai GPU सर्वर के साथ पेयर करें।

  • वास्तविक टूल्स वाले AI एजेंट — बिल्ट-इन एजेंट वेब ब्राउज़ कर सकते हैं, कोड लिख और निष्पादित कर सकते हैं, फ़ाइलें प्रबंधित कर सकते हैं, और बाहरी APIs को कॉल कर सकते हैं — सभी GUI के माध्यम से नियंत्रित।

  • MCP संगतता — विस्तारित टूल कनेक्टिविटी के लिए Model Context Protocol इकोसिस्टम के साथ एकीकृत होता है।

  • वर्कस्पेस पृथक्करण — विभिन्न प्रोजेक्ट्स या टीमों के लिए अलग ज्ञान बेस और LLM सेटिंग्स वाले अलग वर्कस्पेस बनाएं।

आर्किटेक्चर अवलोकन

┌─────────────────────────────────────────────┐
│            AnythingLLM (Port 3001)          │
│                                             │
│  ┌──────────┐  ┌──────────┐  ┌──────────┐  │
│  │ RAG/Docs │  │  Agents  │  │  Users   │  │
│  └────┬─────┘  └────┬─────┘  └──────────┘  │
│       │             │                       │
│  ┌────▼─────────────▼───────┐               │
│  │    LLM Provider Router   │               │
│  └──────────────┬───────────┘               │
└─────────────────┼───────────────────────────┘

     ┌────────────┼────────────┐
     ▼            ▼            ▼
  OpenAI       Anthropic    Ollama (local)
  Claude        Gemini      vLLM (local)

आवश्यकताएँ

सर्वर विनिर्देश

घटक
न्यूनतम
अनुशंसित
नोट्स

GPU

कोई आवश्यक नहीं

RTX 3090 (यदि स्थानीय LLMs का उपयोग कर रहे हों तो)

केवल Ollama/vLLM बैकएंड के लिए

VRAM

24 GB

स्थानीय मॉडल इन्फरेंस के लिए

CPU

2 vCPU

4 vCPU

एंबेडिंग CPU पर चलती है

RAM

4 GB

8 GB

ज्यादा = मेमोरी में बड़ा दस्तावेज़ सूचकांक

स्टोरेज

10 GB

50+ GB

दस्तावेज़ भंडारण, वेक्टर DB, मॉडल कैश

Clore.ai मूल्य संदर्भ

सर्वर प्रकार
अनुमानित लागत
उपयोग का मामला

CPU इंस्टेंस (4 vCPU, 8 GB RAM)

~$0.05–0.10/घंटा

AnythingLLM + बाहरी API प्रदाता

RTX 3090 (24 GB VRAM)

~$0.20/घंटा

AnythingLLM + Ollama स्थानीय LLMs

RTX 4090 (24 GB VRAM)

~$0.35/घंटा

AnythingLLM + तेज़ स्थानीय इनफेरेंस

A100 80 GB

~$1.10/घंटा

AnythingLLM + बड़े 70B+ मॉडल

💡 प्रो टिप: AnythingLLM का बिल्ट-इन एम्बेडिंग (LanceDB + स्थानीय CPU एम्बेडर) GPU के बिना काम करता है। LLM बैकएंड के लिए, आप लागत कम रखने के लिए OpenRouter या Groq जैसे फ्री-टीयर API प्रदाताओं का उपयोग कर सकते हैं।

पूर्वापेक्षाएँ

  • SSH एक्सेस वाला Clore.ai सर्वर

  • Docker (Clore.ai सर्वरों पर प्री-इंस्टॉल्ड)

  • कम से कम एक LLM API कुंजी या स्थानीय Ollama/vLLM बैकएंड


त्वरित प्रारम्भ

विधि 1: सिंगल Docker कंटेनर (सुझावित)

आधिकारिक सिंगल-कंटेनर डिप्लॉयमेंट में सब कुछ शामिल है: वेब UI, LanceDB वेक्टर स्टोर, और दस्तावेज़ प्रोसेसर।

चरण 1: अपने Clore.ai सर्वर से कनेक्ट करें

स्टेप 2: स्टोरेज डायरेक्टरी सेट करें

स्टेप 3: AnythingLLM चलाएँ

क्यों --cap-add SYS_ADMIN? AnythingLLM वेबपेज स्क्रैपिंग और PDF रेंडरिंग के लिए Chromium का उपयोग करता है, जिसके लिए कंटेनर क्षमता को बढ़ाने की आवश्यकता होती है।

स्टेप 4: स्टार्टअप सत्यापित करें

स्टेप 5: सेटअप विज़ार्ड पूरा करें

ब्राउज़र में खोलें:

पहली बार सेटअप विज़ार्ड आपको मार्गदर्शन करता है:

  1. एडमिन अकाउंट बनाएं

  2. LLM प्रदाता चुनें

  3. एम्बेडिंग मॉडल चुनें

  4. अपना पहला वर्कस्पेस कॉन्फ़िगर करें


विधि 2: Docker Compose (मल्टी-सर्विस)

अलग सेवाओं और आसान प्रबंधन वाले प्रोडक्शन डिप्लॉयमेंट्स के लिए:

चरण 1: प्रोजेक्ट डायरेक्टरी बनाएं

चरण 2: बनाएं docker-compose.yml

स्टेप 3: बनाएँ .env फाइल

स्टेप 4: शुरू करें


विधि 3: प्री-कॉन्फ़िगर किए गए एनवायरनमेंट वेरिएबल्स के साथ

सेटअप विज़ार्ड के बिना स्वचालित डिप्लॉयमेंट के लिए:


कॉन्फ़िगरेशन

LLM प्रदाता विकल्प

AnythingLLM कई प्रकार के LLM बैकएंड का समर्थन करता है। UI में सेट करें: Settings → LLM Preference, या एनवायरनमेंट वेरिएबल्स के माध्यम से:

OpenAI:

Anthropic Claude:

Google Gemini:

Ollama (स्थानीय):

OpenRouter (100+ मॉडल्स तक पहुँच):

एम्बेडिंग कॉन्फ़िगरेशन

इंजन
बैकएंड
GPU आवश्यक
गुणवत्ता

native

CPU (बिल्ट-इन)

नहीं

अच्छा

openai

OpenAI API

नहीं

उत्कृष्ट

ollama

स्थानीय Ollama

वैकल्पिक

अच्छा-उत्कृष्ट

localai

LocalAI

वैकल्पिक

वैरिएबल

वेक्टर डेटाबेस विकल्प

DB
विवरण
उत्तम हेतु

lancedb

बिल्ट-इन, कोई कॉन्फ़िग नहीं

डिफ़ॉल्ट, छोटे-मध्यम डैटासेट्स

chroma

ChromaDB (बाहरी)

मध्यम डैटासेट्स, लचीलापन

pinecone

Pinecone क्लाउड

बड़े डैटासेट्स, प्रोडक्शन

weaviate

Weaviate (स्व-होस्टेड)

उन्नत उपयोग मामलों के लिए

वर्कस्पेस कॉन्फ़िगरेशन

AnythingLLM वर्कस्पेस अलग-अलग वातावरण होते हैं जिनके अपने:

  • दस्तावेज़ ज्ञान आधार

  • LLM सेटिंग्स (ग्लोबल को ओवरराइड कर सकती हैं)

  • चैट इतिहास

  • एजेंट कॉन्फ़िगरेशन

UI या API के माध्यम से वर्कस्पेस बनाएं:

दस्तावेज़ इनजेस्टन

UI या API के माध्यम से दस्तावेज़ अपलोड करें:


GPU त्वरक

AnythingLLM स्वयं CPU पर चलता है। GPU एक्सेलेरेशन LLM इनफेरेंस बैकएंड पर लागू होता है।

एक ही Clore.ai सर्वर पर Ollama चलाना

Clore.ai पर GPU-मॉडल प्रदर्शन

मॉडल
GPU
VRAM
एम्बेडिंग स्पीड
इनफेरेंस स्पीड
लागत/घंटा

Llama 3.2 3B

RTX 3090

2 GB

तेज़

60–80 tok/s

~$0.20

Llama 3.1 8B

RTX 3090

6 GB

तेज़

40–60 tok/s

~$0.20

Mistral 7B

RTX 3090

5 GB

तेज़

45–65 tok/s

~$0.20

Llama 3.1 70B

A100 80GB

40 GB

मध्यम

20–35 tok/s

~$1.10


टिप्स और सर्वोत्तम प्रथाएँ

दस्तावेज़ इनजेस्टन सर्वोत्तम अभ्यास

  • बड़े PDFs को प्री-प्रोसेस करें — OCR-भारी स्कैन इनजेस्टन धीमा कर देते हैं। पहले pdftotext या Adobe OCR का उपयोग करें।

  • वर्कस्पेस के अनुसार व्यवस्थित करें — बेहतर पुनर्प्राप्ति सटीकता के लिए प्रोजेक्ट/डोमेन के अनुसार अलग वर्कस्पेस बनाएं।

  • विशिष्ट क्वेरीज़ का उपयोग करें — RAG विशेष प्रश्नों के साथ सबसे अच्छा काम करता है, व्यापक अनुरोधों के साथ नहीं।

Clore.ai पर लागत प्रबंधन

चूंकि Clore.ai इंस्टेंस क्षणिक (ephemeral) होते हैं, हमेशा स्टोरेज डायरेक्टरी का बैकअप लें। इसमें शामिल है:

  • वेक्टर एम्बेडिंग्स (LanceDB)

  • अपलोड किए गए दस्तावेज़

  • चैट इतिहास

  • एजेंट कॉन्फ़िगरेशन

मल्टी-यूज़र सेटअप

AI एजेंट कॉन्फ़िगरेशन

AnythingLLM एजेंट वास्तविक-विश्व कार्य कर सकते हैं। उपकरणों को सक्षम करें: Settings → Agents:

  • वेब ब्राउज़ — वेब पेज फ़ेच और पढ़ता है

  • Google सर्च — Google खोज करता है (API की आवश्यकता)

  • कोड इंटरप्रेटर — सैंडबॉक्स में Python निष्पादित करता है

  • GitHub — रिपॉज़िटरी पढ़ता है

  • SQL कनेक्टर — डेटाबेस से प्रश्न करता है

प्रदर्शन ट्यूनिंग

AnythingLLM को अपडेट करना


समस्याओं का निवारण

कंटेनर तो चालू है पर UI सुलभ नहीं

दस्तावेज़ अपलोड विफल होता है

RAG प्रतिक्रियाएं खराब गुणवत्ता / हल्लुसीनेट कर रही हैं

सामान्य कारण और समाधान:

Ollama कनेक्शन AnythingLLM से विफल होता है

मेमोरी समाप्त / कंटेनर क्रैश


अधिक पढ़ने के लिए

Last updated

Was this helpful?