Qdrant

उच्च-प्रदर्शन वेक्टर डेटाबेस सिमेंटिक खोज और RAG अनुप्रयोगों के लिए — GPU-त्वरित इंडेक्सिंग

Qdrant एक ओपन-सोर्स, प्रोडक्शन-रेडी वेक्टर डेटाबेस है जो Rust में लिखा गया है। यह विस्तृत फ़िल्टरिंग, पेलोड इंडेक्सिंग, और मल्टी-वेक्टर समर्थन के साथ अरबों वेक्टरों पर तेज़ अनुमानित निकटतम पड़ोसी (ANN) खोज प्रदान करता है। यह कई प्रोडक्शन RAG (Retrieval-Augmented Generation) पाइपलाइनों और सिमेंटिक सर्च अनुप्रयोगों की रीढ़ है।

GitHub: qdrant/qdrantarrow-up-right — 22K+ ⭐


Qdrant क्यों?

फ़ीचर
ChromaDB
Pinecone
Milvus
Chroma

ओपन सोर्स

Rust प्रदर्शन

आणविक गतिशीलता

❌ Go

❌ Python

क्वेरी समय पर फ़िल्टरिंग

✅ उन्नत

✅ बुनियादी

✅ बुनियादी

मल्टी-वेक्टर

डिस्क-आधारित HNSW

पेलोड इंडेक्सिंग

सीमित

सीमित

gRPC + REST

✅ दोनों

✅ REST

REST

स्वयं-होस्टेड

❌ केवल क्लाउड

circle-check

मुख्य उपयोग के मामले

  • RAG (Retrieval-Augmented Generation) — LLM प्रॉम्प्ट्स के लिए प्रासंगिक संदर्भ खोजें

  • सिमेंटिक खोज — केवल कीवर्ड्स नहीं बल्कि अर्थ के आधार पर खोज

  • सिफारिश प्रणाली — एम्बेडिंग सादृश्यता के आधार पर समान आइटम खोजें

  • नकल पहचान — निकट-नकली सामग्री की पहचान करें

  • विचित्रता पहचान (Anomaly detection) — क्लस्टर केंद्रों से दूर वाले वेक्टर खोजें

  • छवि/ऑडियो सादृश्यता खोज — मल्टीमॉडल पुनर्प्राप्ति


पूर्व-आवश्यकताएँ

  • GPU किराये के साथ Clore.ai खाता

  • REST APIs या Python की बुनियादी परिचितता

  • आपका चुना हुआ एम्बेडिंग मॉडल (OpenAI, SentenceTransformers, आदि)


चरण 1 — Clore.ai पर सर्वर किराए पर लें

Qdrant मुख्य रूप से सर्विंग के लिए CPU/RAM-बंधित है, लेकिन GPU से लाभ होता है जब:

  • सर्विंग के साथ-साथ एम्बेडिंग उत्पन्न करना (एंबेडिंग मॉडल उसी सर्वर पर)

  • बड़े पैमाने पर बैच इंडेक्सिंग ऑपरेशंस

  1. जाएँ clore.aiarrow-up-rightमार्केटप्लेस

  2. के लिए एंबेडिंग + सर्विंग संयोजन: RTX 3090/4090 के साथ 32GB+ RAM

  3. के लिए केवल सर्विंग: तेज़ NVMe स्टोरेज वाला CPU-ऑप्टिमाइज़्ड सर्वर

circle-info

मेमोरी योजना:

  • प्रत्येक float32 वेक्टर 1536 आयामों के साथ = 6KB

  • 1 मिलियन वेक्टर = ~6GB RAM

  • 10 मिलियन वेक्टर = ~60GB RAM

  • बहुत बड़े कलेक्शनों के लिए ऑन-डिस्क स्टोरेज सक्षम करें


चरण 2 — Qdrant कंटेनर तैनात करें

Docker इमेज:

पोर्ट्स:

  • पोर्ट 6333: REST API (HTTP)

  • पोर्ट 6334: gRPC API (बुल्क ऑपरेशंस के लिए अधिक प्रदर्शन)

पर्यावरण चर:

वॉल्यूम/स्थायी स्टोरेज: माउंट करें /qdrant/storage डेटा स्थायित्व के लिए। इसके बिना, कंटेनर पुनःप्रारंभ पर डेटा खो जाता है।


चरण 3 — सत्यापित करें कि Qdrant चल रहा है


चरण 4 — Python क्लाइंट इंस्टॉल करें


चरण 5 — एक कलेक्शन बनाएं

एक कलेक्शन नामांकित वेक्टर समूह है जिसमें निश्चित आयामता होती है।

SentenceTransformers के लिए कलेक्शन (384 आयाम)


चरण 6 — दस्तावेज़ों का इंडेक्स बनाएं

OpenAI एम्बेडिंग के साथ

SentenceTransformers के साथ (स्थानीय, GPU-त्वरित)


चरण 7 — खोज और क्वेरी

मूल सिमेंटिक खोज

फ़िल्टर की गई खोज (मेटाडेटा + वेक्टर)

बैच/मल्टी-क्वेरी खोज


चरण 8 — एक RAG पाइपलाइन बनाएं


चरण 9 — कलेक्शनों की निगरानी और प्रबंधन


समस्या निवारण

कनेक्शन अस्वीकृत

धीमी खोज प्रदर्शन

उच्च मेमोरी उपयोग


REST API शीघ्र संदर्भ


Clore.ai पर लागत अनुमान

सेटअप
सर्वर
मासिक लागत
क्षमता

छोटा RAG

RTX 3090, 32GB RAM

~$60–80

~5M वेक्टर

मध्यम खोज

RTX 4090, 64GB RAM

~$120–150

~15M वेक्टर

बड़े पैमाने

A100, 128GB RAM

~$250–350

~30M वेक्टर


अतिरिक्त संसाधन


Clore.ai पर Qdrant आपको एक स्वयं-होस्टेड, उच्च-प्रदर्शन वेक्टर डेटाबेस देता है बिना Pinecone या Weaviate Cloud के प्रति-क्वेरी लागत के। यह लाखों दस्तावेज़ों को प्रोसेस करने वाली RAG पाइपलाइनों के लिए परफेक्ट है।


Clore.ai GPU सिफारिशें

उपयोग केस
सिफारिश की गई GPU
Clore.ai पर अनुमानित लागत

डेवलपमेंट/टेस्टिंग

RTX 3090 (24GB)

~$0.12/gpu/hr

प्रोडक्शन वेक्टर सर्च

RTX 3090 (24GB)

~$0.12/gpu/hr

हाई-थ्रूपुट एम्बेडिंग

RTX 4090 (24GB)

~$0.70/gpu/hr

💡 इस गाइड के सभी उदाहरण तैनात किए जा सकते हैं Clore.aiarrow-up-right GPU सर्वरों पर। उपलब्ध GPUs ब्राउज़ करें और घंटे के हिसाब से किराए पर लें — कोई प्रतिबद्धता नहीं, पूर्ण रूट एक्सेस।

Last updated

Was this helpful?