Dify.ai वर्कफ़्लो प्लेटफ़ॉर्म

Clore.ai पर Dify.ai तैनात करें — प्रोडक्शन-तैयार एआई वर्कफ़्लो, RAG पाइपलाइनों और एजेंट ऐप्लिकेशनों को GPU क्लाउड कीमतों पर विज़ुअल इंटरफ़ेस के साथ बनाएं।

अवलोकन

Dify.aiarrow-up-right एक ओपन-सोर्स LLM एप्लिकेशन विकास प्लेटफ़ॉर्म है जिसमें 114K+ GitHub स्टार। यह एक विज़ुअल वर्कफ़्लो बिल्डर, रिट्रीवल-ऑगमेंटेड जेनरेशन (RAG) पाइपलाइन, एजेंट ऑर्केस्ट्रेशन, मॉडल प्रबंधन, और एक एक-क्लिक API डिप्लॉयमेंट लेयर को एक सिंगल self-hostable स्टैक में संयोजित करता है।

पर Clore.ai आप पूरे Dify स्टैक को चला सकते हैं — जिसमें इसका Postgres डेटाबेस, Redis कैश, Weaviate वेक्टर स्टोर, Nginx रिवर्स प्रॉक्सी, API वर्कर्स, और वेब फ्रंटएंड शामिल हैं — एक किराये पर ली गई GPU सर्वर पर सिर्फ $0.20–$0.35/घं (RTX 3090/4090)। GPU Dify के लिए वैकल्पिक है, लेकिन जब आप लोकल मॉडल इन्फरेंस को Ollama या vLLM बैकएंड के माध्यम से जोड़ते हैं तो यह आवश्यक बन जाता है।

मुख्य क्षमताएँ:

  • 🔄 विज़ुअल वर्कफ़्लो बिल्डर — ब्रांचिंग, लूप और सशर्त लॉजिक के साथ ड्रैग-एंड-ड्रॉप LLM पाइपलाइन्स

  • 📚 RAG पाइपलाइन — PDF, URL, Notion पृष्ठ अपलोड करें; चंकिंग + एम्बेडिंग + रिट्रीवल सभी UI में प्रबंधित

  • 🤖 एजेंट मोड — टूल उपयोग के साथ ReAct और फ़ंक्शन-कॉलिंग एजेंट (वेब सर्च, कोड इंटरप्रेटर, कस्टम API)

  • 🚀 API-प्रथम — हर ऐप तुरंत एक REST एंडपॉइंट और SDK स्नीपेट्स उत्पन्न करता है

  • 🔌 100+ मॉडल इंटीग्रेशन — OpenAI, Anthropic, Mistral, Cohere, साथ ही Ollama/vLLM के माध्यम से लोकल मॉडल

  • 🏢 मल्टी-टेनेंट — टीमें, वर्कस्पेस, RBAC, उपयोग कोटा


आवश्यकताएँ

Dify मल्टी-कंटेनर Docker Compose स्टैक के रूप में चलता है। विकास के लिए न्यूनतम योग्य सर्वर CPU-ओनली इंस्टेंस है; लोकल मॉडल इन्फरेंस के साथ प्रोडक्शन के लिए आप एक GPU नोड चाहेंगे।

कॉन्फ़िगरेशन
GPU
VRAM
सिस्टम RAM
डिस्क
Clore.ai मूल्य

न्यूनतम (सिर्फ़ API कीज़)

कोई नहीं / केवल CPU

8 GB

30 GB

~$0.05/घं (CPU)

मानक

RTX 3080

10 GB

16 GB

50 GB

~$0.15/घंटा

अनुशंसित

RTX 3090 / 4090

24 GB

32 GB

80 GB

$0.20–0.35/घंटा

प्रोडक्शन + लोकल LLM

A100 80 GB

80 GB

64 GB

200 GB

~$1.10/घंटा

हाई-थ्रूपुट

H100 SXM

80 GB

128 GB

500 GB

~$2.50/घं

संकेत: यदि आप केवल क्लाउड API प्रदाताओं (OpenAI, Anthropic, आदि) का उपयोग करते हैं, तो किसी भी 2‑कोर CPU इंस्टेंस के साथ 8 GB RAM काम करता है। केवल तब GPU मायने रखता है जब आप Ollama या vLLM के माध्यम से लोकल मॉडल चला रहे हों — देखें GPU त्वरक नीचे।

डिस्क नोट

Weaviate और Postgres डेटा दस्तावेज़ अपलोड के साथ तेजी से बढ़ते हैं। प्रावधान करें कम से कम 50 GB और Clore.ai के वॉल्यूम विकल्पों के माध्यम से स्थायी स्टोरेज माउंट करें।


त्वरित प्रारम्भ

1. एक Clore.ai सर्वर किराए पर लें

ब्राउज़ करें clore.aiarrow-up-right, अपनी इच्छित GPU से फ़िल्टर करें, और निम्न के साथ एक सर्वर डिप्लॉय करें:

  • Docker प्रि-इंस्टॉल (सभी Clore इमेज इसमें शामिल हैं)

  • एक्सपोज़्ड पोर्ट 80 और 443 (यदि आवश्यक हो तो ऑफर सेटिंग्स में कस्टम पोर्ट जोड़ें)

  • SSH एक्सेस सक्षम

2. सर्वर से कनेक्ट करें और तैयार करें

3. Dify क्लोन करें और लॉन्च करें

4. सत्यापित करें कि सभी सेवाएँ स्वस्थ हैं

5. वेब UI तक पहुँचें

अपने ब्राउज़र को खोलें और नेविगेट करें:

पहली लॉन्च पर, Dify आपको व्यवस्थापक खाता बनाने के लिए सेटअप विज़ार्ड पर रीडायरेक्ट करेगा। विज़ार्ड पूरा करें, फिर लॉग इन करें।


कॉन्फ़िगरेशन

सारी कॉन्फ़िगरेशन इन में रहती है dify/docker/.env। यहाँ सबसे महत्वपूर्ण सेटिंग्स हैं:

आवश्यक पर्यावरण चर

एक्सपोज़्ड पोर्ट बदलना

डिफ़ॉल्ट रूप से Nginx पोर्ट पर सुनता है 80। बदलने के लिए:

स्थायी डेटा वॉल्यूम

Dify की Compose फ़ाइल डिफ़ॉल्ट रूप से ये वॉल्यूम माउंट करती है:

बैकअप लेने के लिए:


GPU त्वरक

Dify का मूल प्लेटफ़ॉर्म CPU-आधारित है, लेकिन आप जोड़कर लोकल मॉडल इन्फरेंस अनलॉक करते हैं Ollama या vLLM के रूप में मॉडल प्रदाताओं — दोनों GPU से अत्यधिक लाभान्वित होते हैं।

विकल्प A: Ollama साइडकार (सबसे आसान)

उसी Clore सर्वर पर Dify के साथ Ollama चलाएँ:

फिर Dify UI → Settings → Model Providers → Ollama:

  • बेस URL: http://localhost:11434

  • अपना मॉडल चुनें और सहेजें

पूरा Ollama गाइड देखने के लिए देखें language-models/ollama.md.

विकल्प B: vLLM साइडकार (हाई-थ्रूपुट)

फिर Dify UI → Settings → Model Providers → OpenAI-compatible:

  • बेस URL: http://localhost:8000/v1

  • API कुंजी: dummy

  • मॉडल नाम: mistralai/Mistral-7B-Instruct-v0.2

पूरा vLLM सेटअप देखने के लिए देखें language-models/vllm.md.

लोकल मॉडलों के लिए GPU मेमोरी सिफारिशें

मॉडल
आवश्यक VRAM
अनुशंसित Clore GPU

Llama 3 8B (Q4)

6 GB

RTX 3060

Llama 3 8B (FP16)

16 GB

RTX 3090 / 4090

Mistral 7B (Q4)

5 GB

RTX 3060

Llama 3 70B (Q4)

40 GB

A100 40GB

Llama 3 70B (FP16)

140 GB

2× H100


टिप्स और सर्वोत्तम प्रथाएँ

Clore.ai पर लागत अनुकूलन

Caddy के साथ HTTPS सक्षम करें (प्रोडक्शन के लिए अनुशंसित)

भारी वर्कलोड के लिए वर्कर्स को स्केल करें

रिसोर्स उपयोग की निगरानी करें

RAG प्रदर्शन ट्यूनिंग

  • सेट करें चंक साइज अधिकांश दस्तावेज़ प्रकारों के लिए 512–1024 टोकन तक

  • सक्षम करें पैरेंट-चाइल्ड रिट्रीवल लंबे दस्तावेज़ों के लिए Dataset सेटिंग्स में

  • उपयोग करें हाइब्रिड सर्च (कीवर्ड + वेक्टर) तकनीकी सामग्री पर बेहतर रिकॉल के लिए

  • API रेट सीमाओं से बचने के लिए ऑफ-पीक घंटों में दस्तावेज़ों को इंडेक्स करें


समस्याओं का निवारण

सेवाएँ बार-बार रिस्टार्ट हो रही हैं

"स्टार्टअप पर माइग्रेशन फेल हुआ"

Dify से Ollama से कनेक्ट नहीं कर पा रहे

डिस्क स्पेस ख़त्म

Weaviate वेक्टर स्टोर त्रुटियाँ

पोर्ट 80 पहले से उपयोग में है


अधिक पढ़ने के लिए

Last updated

Was this helpful?