CrewAI मल्टी-एजेंट फ़्रेमवर्क

Clore.ai पर CrewAI तैनात करें — किसी भी LLM प्रोवाइडर का उपयोग करके जटिल बहु-चरण कार्यों के लिए भूमिका-आधारित स्वायत्त एआई एजेंटों की टीमों का समन्वय करें।

अवलोकन

CrewAIarrow-up-right एक उन्नत फ्रेमवर्क है ऑर्केस्ट्रेशन के लिए भूमिका-अनुकूलन स्वायत्त AI एजेंटोंके साथ, 44K+ GitHub स्टार्स. एकल-एजेंट सिस्टम्स के विपरीत, CrewAI आपको विशिष्ट एजेंट (Researcher, Writer, Coder, Analyst...) परिभाषित करने देता है जो एक जटिल कार्य पूरा करने के लिए "क्रू" के रूप में सहयोग करते हैं — हर एजेंट की अपनी भूमिका, लक्ष्य, पृष्ठभूमि और टूलकिट होती है।

पर Clore.ai, CrewAI को Dockerized वातावरण में केवल $0.05–0.20/घंटा के लिए तैनात किया जा सकता है। जबकि CrewAI स्वयं CPU-बंधित है (यह API कॉल्स का समन्वय करता है), इसे उसी GPU नोड पर स्थानीय Ollama या vLLM सर्वर के साथ जोड़ने से आपको पूरी तरह निजी, ऑफ़लाइन-सक्षम मल्टी-एजेंट सिस्टम मिलता है।

मुख्य क्षमताएँ:

  • 👥 मल्टी-एजेंट क्रू — एजेंट पर्सोनास को परिभाषित करें भूमिकाओं, लक्ष्यों और पृष्ठभूमियों के साथ

  • 🎯 कार्य delegation — मैनेजर एजेंट स्वचालित रूप से सही विशेषज्ञ को कार्य सौंपता है

  • 🛠️ टूल इकोसिस्टम — वेब सर्च, फ़ाइल I/O, कोड निष्पादन, डेटाबेस एक्सेस, कस्टम टूल्स

  • 🔁 क्रमिक और समानांतर — कार्य क्रम में निष्पादित करें या स्वतंत्र कार्यों को समानांतर चलाएँ

  • 🧠 एजेंट मेमोरी — शॉर्ट-टर्म, लॉन्ग-टर्म, एंटिटी और संदर्भात्मक मेमोरी प्रकार

  • 🔌 LLM-एग्नॉस्टिक — OpenAI, Anthropic, Google, Ollama, Groq, Azure, और अन्य के साथ काम करता है

  • 📊 CrewAI स्टूडियो — बिना कोड के क्रू बनाने के लिए विज़ुअल इंटरफ़ेस (एंटरप्राइज़)

  • 🚀 पाइपलाइन्स — जटिल बहु-चरण वर्कफ़्लो के लिए कई क्रू को चेन करें


आवश्यकताएँ

CrewAI एक Python लाइब्रेरी है। यह CPU पर चलता है और केवल सिस्टम Python 3.10+ वातावरण या Docker की आवश्यकता होती है। GPU वैकल्पिक है लेकिन शक्तिशाली लोकल मॉडल इन्फ़रेंस अनलॉक करता है।

कॉन्फ़िगरेशन
GPU
VRAM
सिस्टम RAM
डिस्क
Clore.ai मूल्य

न्यूनतम (क्लाउड APIs)

कोई नहीं / केवल CPU

2 GB

10 GB

~$0.03/घंटा (CPU)

मानक

कोई नहीं / केवल CPU

4 GB

20 GB

~$0.05/घंटा

+ लोकल LLM (छोटा)

RTX 3080

10 GB

8 GB

40 GB

~$0.15/घंटा

+ लोकल LLM (बड़ा)

RTX 3090 / 4090

24 GB

16 GB

60 GB

$0.20–0.35/घंटा

+ उच्च-गुणवत्ता लोकल LLM

A100 40 GB

40 GB

32 GB

100 GB

~$0.80/घंटा

API कुंजियाँ

CrewAI अधिकांश प्रमुख LLM प्रदाताओं के साथ काम करता है। आपको कम से कम एक चाहिए:

  • OpenAI — GPT-4o (जटिल कार्यों के लिए सबसे अच्छा तर्क)

  • Anthropic — Claude 3.5 Sonnet (लिखने-प्रधान क्रू के लिए उत्कृष्ट)

  • Groq — मुफ्त टियर, तेज़ इन्फ़रेंस (Llama 3 70B)

  • Ollama — पूरी तरह स्थानीय, किसी API कुंजी की आवश्यकता नहीं (देखें GPU त्वरक)


त्वरित प्रारम्भ

1. एक Clore.ai सर्वर किराए पर लें

में लॉग इन करें clore.aiarrow-up-right:

  • केवल CPU यदि क्लाउड LLM APIs का उपयोग कर रहे हैं

  • RTX 3090/4090 लोकल Ollama इन्फ़रेंस के लिए

  • SSH एक्सेस सक्षम

  • CLI उपयोग के लिए कोई विशिष्ट पोर्ट आवश्यकताएँ नहीं (वेब UI के लिए ही पोर्ट खोलें)

2. कनेक्ट और तैयार करें

3. विकल्प A — सीधे pip install (सबसे तेज़)

4. विकल्प B — Docker कंटेनर (पुनरुत्पादन के लिए अनुशंसित)

5. अपना पहला क्रू बनाएं


कॉन्फ़िगरेशन

प्रोजेक्ट संरचना (से) crewai create)

agents.yaml — अपने एजेंट परिभाषित करें

tasks.yaml — कार्य परिभाषित करें

crew.py — क्रू असेंबल करें

Docker Compose के साथ चलाना (Ollama के साथ)


GPU त्वरक

CrewAI स्वयं GPU का उपयोग नहीं करता — लेकिन जिस LLM को यह कॉल करता है वह करता है। GPU-त्वरित लोकल इन्फ़रेंस के लिए Ollama या vLLM को उसी Clore सर्वर पर चलाएँ।

Ollama सेटअप (सरलता के लिए अनुशंसित)

प्रति-एजेंट CrewAI LLM कॉन्फ़िगर करें

एजेंट कार्यों के लिए मॉडल सिफारिशें

कार्य प्रकार
अनुशंसित मॉडल
VRAM
नोट्स

शोध + वेब सर्च

Llama 3.1 70B

40 GB

सर्वोत्तम लोकल तर्क

कोड जनरेशन

Codestral 22B

13 GB

कोड-विशेषीकृत

लिखना

Llama 3.1 8B

6 GB

तेज़, अच्छी गुणवत्ता

जटिल ऑर्केस्ट्रेशन

GPT-4o (API)

कुल मिलाकर सबसे अच्छा

एम्बेडिंग/मेमोरी

nomic-embed-text

< 1 GB

मेमोरी के लिए आवश्यक

देखें Clore.ai पर Ollama और Clore.ai पर vLLM पूर्ण इन्फ़रेंस सेटअप गाइड्स के लिए।


टिप्स और सर्वोत्तम प्रथाएँ

लागत अनुकूलन

क्रू को एक स्थायी सेवा के रूप में चलाना

उपयोगी बिल्ट-इन CrewAI टूल्स

मानव-इन-द-लूप लागू करना


समस्याओं का निवारण

"openai.AuthenticationError" भले ही कुंजी वैध हो

एजेंट तर्क लूप में फँसा हुआ है

CrewAI टूल्स विफल होते हैं (SerperDevTool 403)

मेमोरी त्रुटियाँ (ChromaDB / एम्बेडिंग)

Docker बिल्ड ARM/x86 असंगति पर विफल होता है

LLM APIs से दर-सीमांकन


अधिक पढ़ने के लिए

Last updated

Was this helpful?