Milvus

Die skalierbarste Open-Source-Vektor-Datenbank für KI-Anwendungen — entwickelt für Milliarden von Vektoren

Milvus ist eine Open-Source-Vektor-Datenbank, die speziell für skalierbare Similarity-Suche und KI-Anwendungen entwickelt wurde. Ursprünglich von Zilliz erstellt und an die LF AI & Data Foundation gespendet, betreibt Milvus Produktions-KI-Workloads bei Unternehmen wie NVIDIA, AT&T, IBM und Salesforce. Es ist die bevorzugte Wahl, wenn Sie auf Milliarden von Vektoren skalieren müssen.

GitHub: milvus-io/milvusarrow-up-right — 32K+ ⭐


Milvus vs Qdrant — Wann welches wählen

Kriterien
Milvus
Qdrant

Skalierung

Milliarden von Vektoren

Hunderte Millionen

Architektur

Verteilt (mehrere Dienste)

Einzelne Binärdatei

Einrichtungsaufwand

Höher

Niedriger

GPU-Index-Unterstützung

✅ Native GPU FAISS

Begrenzt

Multi-Tenancy

✅ Partitionen + Aliase

Sammlungsbasiert

Streaming-Ingestion

✅ Kafka/Pulsar

Begrenzt

Hybride Suche

✅ Dicht + spärlich

Cloudverwaltete Option

Zilliz Cloud

Qdrant Cloud

circle-check

Milvus-Architektur

Milvus im Standalone-Modus (Einzelserver) umfasst:

  • milvus — der Hauptdienst (Proxy-, Query-, Data-, Index-Koordinatoren)

  • etcd — Metadatenspeicher und Service-Discovery

  • MinIO — Objektspeicher für Segmentdaten

Im verteilten Modus (Cluster) skaliert jede Komponente unabhängig.


Voraussetzungen

  • Clore.ai-Konto mit GPU-Vermietung

  • Docker Compose (in der Regel vorinstalliert)

  • Grundkenntnisse in Python

  • 16GB+ RAM (32GB für Produktion empfohlen)


Schritt 1 — Mieten Sie einen GPU-Server auf Clore.ai

  1. Gehe zu clore.aiarrow-up-rightMarktplatz

  2. Empfohlene GPU: RTX 4090 oder A100 für GPU-beschleunigtes Indexing

  3. CPU-Alternative: Jeder Server mit 32GB+ RAM für CPU-basiertes Indexing

Mindestanforderungen:

  • CPU: 8 Kerne

  • RAM: 16GB (32GB empfohlen)

  • Festplatte: 50GB SSD/NVMe

  • GPU: Optional (nur für GPU-Index-Typen erforderlich)

circle-info

GPU-Index-Typen in Milvus (IVF_FLAT_GPU, IVFSQ8_GPU) erfordern CUDA-fähige GPUs und beschleunigen den Indexaufbau für große Sammlungen erheblich. Wenn Sie planen, häufig 10M+ Vektoren zu indexieren, amortisiert sich GPU-Indexing schnell.


Schritt 2 — Milvus Standalone bereitstellen

Docker-Image:

Milvus Standalone benötigt etcd und MinIO. Verwenden Sie Docker Compose für die einfachste Einrichtung.

Ports:

  • Port 19530: Milvus SDK/gRPC-Port (primär)

  • Port 9091: Milvus REST API und Health-Check (intern)

Umgebungsvariablen:


Schritt 3 — Einrichtung mit Docker Compose

SSH auf Ihren Clore.ai-Server und erstellen Sie die Compose-Datei:

Passen Sie docker-compose.yml an

Milvus starten


Schritt 4 — Python-Client installieren


Schritt 5 — Erstelle eine Collection

In Milvus ist eine Sammlung ähnlich wie eine Datenbanktabelle. Sie hat ein Schema mit typisierten Feldern, einschließlich Vektorfeldern.


Schritt 6 — Index erstellen

Erstellen Sie vor dem Laden der Daten für die Suche einen geeigneten Index:


Schritt 7 — Daten einfügen


Schritt 8 — Suche und Abfragen

Basis Semantische Suche

Gefilterte Suche

Hybride Suche (Dicht + Spärlich)


Schritt 9 — Einen RAG-Service aufbauen


Schritt 10 — Überwachen und Verwalten


Fehlerbehebung

Dienste starten nicht

Connection Refused auf 19530

Index-Bau-Timeout für große Sammlungen

Hoher Speicherverbrauch


Leitfaden zur Auswahl des Index-Typs

Index-Typ
Am besten für
Speicher
Geschwindigkeit
GPU erforderlich

FLAT

Klein (<1M), exakte Suche

Hoch

Langsam

Nein

IVF_FLAT

Mittel (1M–10M)

Mittel

Gut

Nein

HNSW

Geringe Latenz, <100M

Hoch

Ausgezeichnet

Nein

IVF_SQ8

Komprimiert, groß

Niedrig

Gut

Nein

GPU_IVF_FLAT

Schnelle Batch-Abfragen

GPU+RAM

Beste

Ja

DISKANN

Milliarden-Skala

Niedrig (Festplatte)

Gut

Nein


Leistungs-Benchmarks

Sammlung Größe
Index
GPU
QPS

1M Vektoren

HNSW

RTX 3090

~8,000

10M Vektoren

IVF_FLAT

RTX 4090

~2,500

10M Vektoren

GPU_IVF_FLAT

A100

~12,000

100M Vektoren

DISKANN

A100

~1,200


Weitere Ressourcen


Milvus auf Clore.ai ist die ideale Lösung für KI-Anwendungen, die über Hunderte Millionen Vektoren hinaus skalieren müssen. In Kombination mit GPU-beschleunigter Embedding-Erzeugung können Sie erstklassige semantische Suche- und RAG-Systeme zu einem Bruchteil der Kosten verwalteter Clouds aufbauen.


Clore.ai GPU-Empfehlungen

Anwendungsfall
Empfohlene GPU
Geschätzte Kosten auf Clore.ai

Entwicklung/Tests

RTX 3090 (24GB)

~$0.12/gpu/hr

Produktionsfähige Vektorsuche

RTX 3090 (24GB)

~$0.12/gpu/hr

Hochdurchsatz-Embedding

RTX 4090 (24GB)

~$0.70/gpu/hr

💡 Alle Beispiele in diesem Leitfaden können bereitgestellt werden auf Clore.aiarrow-up-right GPU-Servern. Durchsuchen Sie verfügbare GPUs und mieten Sie stundenweise — keine Verpflichtungen, voller Root-Zugriff.

Zuletzt aktualisiert

War das hilfreich?