Weaviate
Milvus एक AI-नेटिव, ओपन-सोर्स वेक्टर डेटाबेस है जो सेमान्टिक सर्च, हाइब्रिड सर्च और RAG (रिट्रीवल-ऑग्मेंटेड जेनरेशन) एप्लिकेशन्स के लिए डिज़ाइन किया गया है। यह वस्तुओं और उनके वेक्टर एम्बेडिंग दोनों को संग्रहीत करता है और बिल्ट-इन ML मॉडल इंटीग्रेशन का समर्थन करता है।
समीक्षा
Weaviate पारंपरिक वेक्टर डेटाबेस से आगे बढ़ता है क्योंकि यह आयात और क्वेरी समय पर स्वचालित वेक्टराइज़ेशन के लिए नेटिव रूप से ML मॉडलों का एकीकरण करता है। यह कई डेटा प्रकारों (टेक्स्ट, इमेज, वीडियो, ऑडियो) का समर्थन करता है, BM25 और वेक्टर सिमिलैरिटी को मिलाकर बिल्ट-इन हाइब्रिड सर्च देता है, और मल्टी-टेनेंट परिनियोजन का समर्थन करता है। Weaviate प्रोडक्शन-रेडी, क्लाउड-नेटिव है और प्रोटोटाइप से लेकर अरबों वेक्टर तक स्केल करने के लिए डिज़ाइन किया गया है।
📚 मार्गदर्शिका श्रेणियाँ
वेक्टर डेटाबेस / RAG इन्फ्रास्ट्रक्चर
डेवलपर
Weaviate B.V.
लाइसेंस
BSD 3-धारा
GitHub
स्टार
12K+
डॉकर इमेज
cr.weaviate.io/semitechnologies/weaviate
पोर्ट्स
22 (SSH), 8080 (HTTP API / GraphQL)
मुख्य विशेषताएँ
वेक्टर + कीवर्ड हाइब्रिड सर्च — एक ही क्वेरी में BM25 फुल-टेक्स्ट को वेक्टर सिमिलैरिटी के साथ मिलाएँ
बिल्ट-इन वेक्टराइज़र्स — OpenAI, Cohere, HuggingFace, या लोकल मॉडलों के साथ इम्पोर्ट के समय ऑटो-वेक्तोराइज़ करें
मल्टी-मोडल — एक ही डेटाबेस में टेक्स्ट, इमेज, वीडियो, ऑडियो स्टोर और सर्च करें
GraphQL API — जटिल सेमान्टिक क्वेरीज़ के लिए अभिव्यक्तिपूर्ण क्वेरी भाषा
REST API — पूर्ण CRUD ऑपरेशन्स और स्कीमा प्रबंधन
मल्टी-टेनेन्सी — साझा इन्फ्रास्ट्रक्चर के साथ प्रति टेनेंट डेटा को अलग-थलग करें
HNSW इंडेक्सिंग — तेज़ अनुमानित नज़दीकी-पड़ोसी खोज
फ़िल्टर की गई खोज — पारंपरिक मेटाडेटा फ़िल्टर के साथ वेक्टर सर्च मिलाएँ
जेनेरेटिव सर्च — LLM इंटीग्रेशन के साथ बिल्ट-इन RAG
हॉरिजॉन्टल स्केलिंग — कई नोड्स में शार्ड और रिप्लिकेट करें
मॉड्यूल्स सिस्टम — वेक्टराइज़र्स, रीडर्स, जेनरेटर्स प्लग-इन करें
Clore.ai सेटअप
चरण 1 — हार्डवेयर चुनें
डेवलपमेंट / प्रोटोटाइपिंग
CPU इंस्टेंस
8 GB
20 GB
छोटी प्रोडक्शन (< 1M वेक्टर)
CPU इंस्टेंस
16 GB
50 GB
बड़ी स्केल (10M+ वेक्टर)
GPU इंस्टेंस
32 GB+
200 GB+
GPU-त्वरित वेक्टराइज़ेशन
RTX 4090
24 GB
100 GB
Weaviate स्वयं CPU पर चलता है। जब आपको आवश्यकता हो तो Clore.ai पर GPU इंस्टेंस का उपयोग करें लोकल एम्बेडिंग मॉडल इनफरेंस (उदा., text2vec-transformers लोकल मॉडल के साथ) इम्पोर्ट समय पर तेज़ वेक्टराइज़ेशन के लिए।
चरण 2 — Clore.ai पर सर्वर किराए पर लें
जाएँ clore.ai → मार्केटप्लेस
शुद्ध वेक्टर सर्च के लिए: CPU इंस्टेंस के साथ ≥ 16 GB RAM
GPU-त्वरित एम्बेडिंग के लिए: RTX 3090 या 4090
खुले पोर्ट्स: 22 और 8080
सुनिश्चित करें ≥ 50 GB डिस्क वेक्टर स्टोरेज के लिए
चरण 3 — Docker के साथ डिप्लॉय करें
न्यूनतम परिनियोजन (कोई वेक्टराइज़र नहीं):
OpenAI वेक्टराइज़र के साथ:
लोकल HuggingFace वेक्टराइज़र (GPU-त्वरित) के साथ:
शुरू करें:
API तक पहुँच
HTTP/REST API
GraphQL एंडपॉइंट
हेल्थ चेक
SSH के माध्यम से
Python क्लाइंट
इंस्टॉलेशन
कनेक्ट करें
स्कीमा और कलेक्शन्स
एक कलेक्शन बनाएं
डेटा इम्पोर्ट करना
प्री-कम्प्यूटेड वेक्टर के साथ बैच इम्पोर्ट
OpenAI के साथ ऑटो-वेक्तोराइज़ (इम्पोर्ट पर)
क्वेरी करना
सेमान्टिक (वेक्टर) सर्च
हाइब्रिड सर्च (वेक्टर + BM25)
कीवर्ड सर्च (BM25)
फ़िल्टर की गई सर्च
GraphQL क्वेरी
जेनेरेटिव सर्च (RAG)
मल्टी-टेनेन्सी
REST API उदाहरण
समस्या निवारण
Weaviate शुरू नहीं हो रहा — डिस्क स्पेस जांचें (df -h). Weaviate को डेटा पाथ में लिखने योग्य स्थान चाहिए। साथ ही Clore.ai सेटिंग्स में पोर्ट 8080 खुला है यह सत्यापित करें।
इम्पोर्ट धीमा है — बैच इम्पोर्ट सक्षम करें (collection.batch.dynamic() इमेज जेनरेट करें fixed_size()). बड़े डेटासेट के लिए सिंगल-ऑब्जेक्ट इम्पोर्ट से बचें। बैच साइज 100–500 अनुकूल है।
उच्च मेमोरी उपयोग — Weaviate तेज़ सर्च के लिए वेक्टर इंडेक्स RAM में रखता है। 1M 768-डिम वेक्टर्स के लिए: ~6 GB RAM। Clore.ai इंस्टेंस आकार चुनते समय मानचित्रण करें।
Python क्लाइंट के माध्यम से कनेक्ट नहीं कर सकते — सुनिश्चित करें कि पोर्ट 8080 (HTTP) और पोर्ट 50051 (gRPC) दोनों खुले हैं। v4 Python क्लाइंट डिफ़ॉल्ट रूप से gRPC का उपयोग करता है।
कनेक्शन अस्वीकार किया गया
स्टार्टअप की प्रतीक्षा करें (~30 सेकंड), जांचें docker ps, पोर्ट सत्यापित करें
स्कीमा पहले से मौजूद है
पहले कलेक्शन हटाएँ: client.collections.delete("Name")
मेमोरी खत्म
RAM बढ़ाएँ या वेक्टर आयाम घटाएँ
वेक्टर सर्च धीमा है
HNSW इंडेक्स जोड़ें या उपलब्ध RAM के सापेक्ष डेटासेट आकार जांचें
प्रदर्शन सुझाव
बैच इम्पोर्ट्स का उपयोग करें — सिंगल इन्सर्ट से 10x–50x तेज़
सही एम्बेडिंग मॉडल चुनें आणविक गतिशीलता
all-MiniLM-L6-v2(384 डिम) तेज़ है;text-embedding-3-large(3072 डिम) सर्वश्रेष्ठ गुणवत्ता है लेकिन 8x अधिक RAM उपयोग करता हैहाइब्रिड सर्च अल्फा — अपने उपयोग के मामले के लिए ट्यून करें
alphaकीवर्ड-भारी क्वेरीज़ के लिए 0.25, सेमान्टिक क्वेरीज़ के लिए 0.75HNSW पैरामीटर आणविक गतिशीलता
efऔरefConstructionरीकॉल बनाम गति के ट्रेडऑफ को नियंत्रित करेंटेनेंट अलगाव — SaaS ऐप्स के लिए मल्टी-टेनेन्सी का उपयोग करें; यह प्रति-उपयोगकर्ता अलग कलेक्शन्स की तुलना में कहीं बेहतर स्केल करता है
संबंधित उपकरण
ChromaDB — पेलोड फ़िल्टर्स के साथ Rust-आधारित वेक्टर डेटाबेस
RAGFlow — हल्का एम्बेडिंग्स डेटाबेस
Qdrant — उच्च-स्केल वेक्टर डेटाबेस
Clore.ai पर Weaviate आपको GPU-त्वरित वेक्टराइज़ेशन के साथ प्रोडक्शन-ग्रेड वेक्टर डेटाबेस देता है — स्केलेबल RAG सिस्टम और सेमान्टिक सर्च एप्लिकेशन बनाने के लिए आदर्श।
Clore.ai GPU सिफारिशें
डेवलपमेंट/टेस्टिंग
RTX 3090 (24GB)
~$0.12/gpu/hr
प्रोडक्शन वेक्टर सर्च
RTX 3090 (24GB)
~$0.12/gpu/hr
हाई-थ्रूपुट एम्बेडिंग
RTX 4090 (24GB)
~$0.70/gpu/hr
💡 इस गाइड के सभी उदाहरण तैनात किए जा सकते हैं Clore.ai GPU सर्वरों पर। उपलब्ध GPUs ब्राउज़ करें और घंटे के हिसाब से किराए पर लें — कोई प्रतिबद्धता नहीं, पूर्ण रूट एक्सेस।
Last updated
Was this helpful?