Flowise AI एजेंट बिल्डर

Clore.ai पर Flowise तैनात करें — ड्रैग-एंड-ड्रॉप नो-कोड इंटरफ़ेस और तात्कालिक API एंडपॉइंट्स के साथ किफायती GPU क्लाउड सर्वरों पर विज़ुअल LLM चैटबॉट, एआई एजेंट और RAG पाइपलाइनों का निर्माण और होस्ट करें।

अवलोकन

Flowisearrow-up-right यह एक ओपन-सोर्स, ड्रैग-एंड-ड्रॉप टूल है जो बिना कोड लिखे LLM-समर्थित एप्लिकेशन बनाने के लिए है। 35K+ GitHub स्टार और 5 मिलियन से अधिक Docker Hub पुलके साथ, Flowise इकोसिस्टम में सबसे अधिक डिप्लॉय किए गए स्व-होस्टेड AI टूल्स में से एक बन गया है। यह टीमों को सहज दृश्य इंटरफ़ेस के माध्यम से चैटबॉट, RAG सिस्टम, AI एजेंट और स्वचालित वर्कफ़्लो बनाने और उन्हें मिनटों में REST API एंडपॉइंट के रूप में तैनात करने में सक्षम बनाता है।

Flowise LangChain.js पर बनाया गया है और एक नोड-आधारित कैनवास प्रदान करता है जहाँ आप घटकों को जोड़ते हैं: LLMs, वेक्टर डेटाबेस, डॉक्यूमेंट लोडर, मेमोरी स्टोर्स, टूल और एजेंट। हर फ्लो अपने आप एक एम्बेडेबल चैट विजेट और API एंडपॉइंट जनरेट करता है जिसे आप किसी भी एप्लिकेशन में इंटीग्रेट कर सकते हैं।

मुख्य क्षमताएँ:

  • ड्रैग-एंड-ड्रॉप फ्लो बिल्डर — 100+ प्री-बिल्ट नोड्स के साथ दृश्य LLM ऑर्केस्ट्रेशन

  • चैटबॉट निर्माण — वेबसाइट और ऐप्स के लिए एम्बेडेबल चैट विजेट

  • RAG पाइपलाइन्स — दस्तावेज़ लोडर्स, एम्बेडर्स और वेक्टर स्टोर्स को दृश्य रूप से कनेक्ट करें

  • मल्टी-एजेंट समर्थन — टूल उपयोग और डेलिगेशन के साथ एजेंट पदानुक्रम बनाएं

  • तुरंत API — हर फ्लो एक जनरेट करता है /api/v1/prediction/<flowId> एंडपॉइंट

  • LangChain नोड्स — LangChain.js इकोसिस्टम तक पूरा एक्सेस

  • क्रेडेंशियल मैनेजर — केंद्रीय रूप से API कीज़, डेटाबेस कनेक्शंस प्रबंधित करें

Flowise के लिए Clore.ai क्यों?

Flowise एक हल्का Node.js सर्वर है — यह ऑर्केस्ट्रेशन संभालता है, कंप्यूट नहीं। इसे Clore.ai के साथ जोड़ने से सक्षम होता है:

  • लोकल मॉडल इनफ़रेंस — उसी GPU सर्वर पर Ollama या vLLM चलाएँ, API लागत समाप्त हो जाती है

  • निजी दस्तावेज़ प्रसंस्करण — RAG पाइपलाइन्स जो कभी भी डेटा बाहरी सेवाओं पर नहीं भेजते

  • स्थायी तैनाती — GPU सर्वर कीमतों पर हमेशा-चालू चैटबॉट और API होस्टिंग

  • स्केल पर लागत प्रभावी — प्रति-कॉल API शुल्क के बिना मल्टी-टेनेंट चैटबॉट प्लेटफ़ॉर्म बनाएं

  • फुल-स्टैक AI होस्टिंग — Flowise + Ollama + Qdrant/Chroma सब एक किफायती सर्वर पर


आवश्यकताएँ

Flowise स्वयं एक Node.js एप्लीकेशन है जिसका संसाधन आवश्यकताएँ न्यूनतम हैं। लोकल LLM बैकएंड जोड़ने पर ही GPU की आवश्यकता होती है।

कॉन्फ़िगरेशन
GPU
VRAM
RAM
स्टोरेज
अनुमानित मूल्य

केवल Flowise (बाहरी APIs)

कोई नहीं

2–4 GB

10 GB

~$0.03–0.08/घंटा

+ Ollama (Llama 3.1 8B)

RTX 3090

24 GB

16 GB

40 GB

~$0.20/घंटा

+ Ollama (Mistral 7B + एम्बेडिंग्स)

RTX 3090

24 GB

16 GB

30 GB

~$0.20/घंटा

+ Ollama (Qwen2.5 32B)

RTX 4090

24 GB

32 GB

60 GB

~$0.35/घंटा

+ vLLM (प्रोडक्शन)

A100 80GB

80 GB

64 GB

100 GB

~$1.10/घंटा

नोट: Flowise किसी भी Clore.ai सर्वर पर आराम से चल जाता है। केवल तब GPU की आवश्यकता होती है जब आप मुफ्त लोकल इनफ़रेंस चाहते हों। देखें GPU तुलना मार्गदर्शिका.

Clore.ai सर्वर आवश्यकताएँ:

  • Docker Engine (सभी Clore.ai इमेजेस पर पहले से इंस्टॉल)

  • NVIDIA कंटेनर टूलकिट (केवल GPU/Ollama के लिए)

  • पोर्ट 3000 पहुँच योग्य (या Clore.ai डैशबोर्ड में मैप किया गया)

  • न्यूनतम 2 GB फ्री RAM, 10 GB डिस्क स्पेस


त्वरित प्रारम्भ

चरण 1: Clore.ai पर एक सर्वर बुक करें

में Clore.ai मार्केटप्लेसarrow-up-right:

  • केवल API उपयोग के लिए: कोई भी सर्वर, RAM ≥ 4 GB से फ़िल्टर करें

  • लोकल LLM के लिए: GPU ≥ 24 GB VRAM से फ़िल्टर करें

  • टेम्पलेट में Docker सक्षम होना सुनिश्चित करें

SSH के माध्यम से कनेक्ट करें:

चरण 2: Flowise चलाएँ (सिंगल कमांड)

बस इतना ही। Flowise उपलब्ध होगा http://<server-ip>:3000 20–30 सेकंड के भीतर।

चरण 3: सत्यापित करें कि यह चल रहा है

चरण 4: UI खोलें

अपने ब्राउज़र में नेविगेट करें http://<server-ip>:3000

Clore.ai पोर्ट मैपिंग: सुनिश्चित करें कि पोर्ट 3000 आपके Clore.ai सर्वर कॉन्फ़िगरेशन में फॉरवर्ड किया गया है। अपने सर्वर विवरण → Ports → पुष्टि करें 3000:3000 मैप किया गया है। कुछ टेम्पलेट्स डिफ़ॉल्ट रूप से केवल SSH एक्सपोज़ करते हैं।


कॉन्फ़िगरेशन

स्थायी स्टोरेज

वॉल्यूम माउंट करें ताकि आपके फ्लोज़, क्रेडेंशियल और अपलोड कंटेनर रीस्टार्ट्स में सुरक्षित रहें:

प्रमाणीकरण

अपने Flowise इंस्टेंस को यूज़रनेम/पासवर्ड से सुरक्षित करें:

सुरक्षा नोट: Flowise को सार्वजनिक रूप से Clore.ai पर एक्सपोज़ करते समय हमेशा क्रेडेंशियल सेट करें। प्रमाणीकरण के बिना, आपके सर्वर IP वाले कोई भी व्यक्ति आपके फ्लोज़ और API कीज़ तक पहुँच सकता है।

पूर्ण एनवायरनमेंट वेरिएबल संदर्भ

वैरिएबल
विवरण
डिफ़ॉल्ट

PORT

वेब सर्वर पोर्ट

3000

FLOWISE_USERNAME

एडमिन उपयोगकर्ता नाम (प्रमाणीकरण सक्षम करता है)

— (कोई प्रमाणीकरण नहीं)

FLOWISE_PASSWORD

एडमिन पासवर्ड

FLOWISE_SECRETKEY_OVERWRITE

क्रेडेंशियल्स के लिए एन्क्रिप्शन की

ऑटो-जनरेटेड

DATABASE_TYPE

sqlite या mysql या postgres

sqlite

DATABASE_PATH

SQLite स्टोरेज पाथ

/root/.flowise

LOG_LEVEL

error, warn, info, debug

info

TOOL_FUNCTION_BUILTIN_DEP

कोड नोड्स में अनुमत Node.js बिल्टिन्स

TOOL_FUNCTION_EXTERNAL_DEP

कोड नोड्स में अनुमत npm पैकेजेज़

CORS_ORIGINS

API के लिए अनुमत CORS ओरिज़न्स

*

IFRAME_ORIGINS

एंबेडिंग के लिए अनुमत iframe ओरिज़न्स

*

Docker Compose (अनुशंसित)

आधिकारिक Flowise रेपो में एक Docker Compose कॉन्फ़िगरेशन शामिल है। Clore.ai के लिए यह अनुशंसित दृष्टिकोण है:

या PostgreSQL के साथ अपना खुद का बनाएं:


GPU तीव्रता (लोकल LLM इंटीग्रेशन)

Flowise ऑर्केस्ट्रेट करता है — कनेक्टेड सेवाओं में भारी काम GPU करता है।

Flowise + Ollama (अनुशंसित)

उसी Clore.ai सर्वर पर Ollama चलाएँ और Flowise को उससे कनेक्ट करें:

Flowise UI में:

  1. एक नया Chatflow बनाएं

  2. जोड़ें Ollama नोड (Chat Models के अंतर्गत)

    • बेस URL: http://host.docker.internal:11434

    • मॉडल का नाम: llama3.1:8b

  3. जोड़ें OllamaEmbeddings नोड (RAG के लिए)

    • बेस URL: http://host.docker.internal:11434

    • मॉडल का नाम: nomic-embed-text

  4. अपने वेक्टर स्टोर से कनेक्ट करें (Chroma, FAISS, Qdrant)

पूरा देखें Ollama गाइड मॉडल डाउनलोड और GPU सेटअप के लिए।

Flowise + vLLM (प्रोडक्शन स्केल)

OpenAI-संगत उच्च-थ्रूपुट सर्विंग के लिए:

पूरे सेटअप के लिए देखें vLLM गाइड क्वांटाइज़ेशन और मल्टी-GPU कॉन्फ़िगरेशन के लिए।

केवल लोकल RAG चैटबॉट बनाना

Clore.ai पर शून्य बाहरी API कॉल के साथ पूर्ण Flowise फ्लो:

नोड
घटक
सेटिंग्स

1

PDF फ़ाइल लोडर

दस्तावेज़ अपलोड करें

2

Recursive टेक्स्ट स्प्लिटर

Chunk: 1000, Overlap: 200

3

Ollama एम्बेडिंग्स

मॉडल: nomic-embed-text

4

इन-मेमोरी वेक्टर स्टोर

(या परसिस्टेंस के लिए Chroma)

5

Ollama चैट

मॉडल: llama3.1:8b

6

संवादात्मक रिट्रीवल QA

चेन प्रकार: Stuff

7

बफ़र मेमोरी

सत्र-आधारित मेमोरी

इसे API के रूप में एक्सपोर्ट करें और किसी भी वेबसाइट पर चैट विजेट एम्बेड करें।


टिप्स और सर्वोत्तम प्रथाएँ

1. फ्लोज़ को नियमित रूप से एक्सपोर्ट करें

Clore.ai सर्वरों को रोकने या बदलने से पहले:

2. एम्बेड विजेट का उपयोग करें

हर Flowise चैटफ्लो एक प्रोडक्शन-रेडी चैट विजेट जनरेट करता है:

  1. अपने चैटफ्लो खोलें → क्लिक करें </> (Embed) बटन

  2. स्क्रिप्ट स्निपेट कॉपी करें

  3. किसी भी HTML पेज में पेस्ट करें — तुरंत कस्टमर सपोर्ट बॉट

3. API कीज़ को सुरक्षित रूप से प्रबंधित करें

सभी LLM API कीज़ को Flowise के Credentials पैनल में स्टोर करें (फ्लोज़ में हार्डकोड न करें):

  • Menu → Credentials → Add Credential

  • कुंजियाँ इसके साथ एन्क्रिप्ट होती हैं FLOWISE_SECRETKEY_OVERWRITE

4. रेट लिमिटिंग

पब्लिक-फेसिंग डिप्लॉयमेंट्स के लिए, Flowise के आगे Nginx या Caddy के माध्यम से रेट लिमिटिंग जोड़ें:

5. प्रदर्शन की निगरानी करें

6. SQLite डेटाबेस का बैकअप लें


समस्याओं का निवारण

कंटेनर तुरंत बाहर निकलता है

UI "Connection Failed" दिखाता है

Flows LLM त्रुटियों के साथ फेल होते हैं

डाटाबेस माइग्रेशन त्रुटियाँ अपडेट पर

रीस्टार्ट के बाद क्रेडेंशियल डिक्रिप्शन त्रुटियाँ

चैट विजेट CORS त्रुटियाँ


अधिक पढ़ने के लिए

Last updated

Was this helpful?