Weaviate

circle-info

Weaviate ist eine KI-native, Open-Source-Vektor-Datenbank, die für semantische Suche, hybride Suche und RAG (Retrieval-Augmented Generation)-Anwendungen entwickelt wurde. Sie speichert sowohl Objekte als auch deren Vektor-Embeddings und unterstützt die Integration eingebauter ML-Modelle.

Übersicht

Weaviate geht über traditionelle Vektor-Datenbanken hinaus, indem es ML-Modelle nativ für die automatische Vektorisierung beim Import und zur Abfragezeit integriert. Es unterstützt mehrere Datentypen (Text, Bilder, Video, Audio), eingebaute hybride Suche, die BM25 und Vektorähnlichkeit kombiniert, und Multi-Tenant-Deployments. Weaviate ist produktionsbereit, cloud-nativ und so konzipiert, dass es von Prototypen bis zu Milliarden von Vektoren skaliert.

Eigenschaft
Wert

Kategorie

Vektor-Datenbank / RAG-Infrastruktur

Entwickler

Weaviate B.V.

Lizenz

BSD 3-Klausel

Sterne

12K+

Docker-Image

cr.weaviate.io/semitechnologies/weaviate

Ports

22 (SSH), 8080 (HTTP API / GraphQL)


Hauptfunktionen

  • Vektor- + Schlüsselwort-hybride Suche — BM25-Volltext mit Vektorähnlichkeit in einer Abfrage kombinieren

  • Eingebaute Vektorisierer — Daten beim Import automatisch mit OpenAI, Cohere, HuggingFace oder lokalen Modellen vektorisieren

  • Multimodal — Text, Bilder, Video, Audio in einer Datenbank speichern und durchsuchen

  • GraphQL-API — ausdrucksstarke Abfragesprache für komplexe semantische Abfragen

  • REST-API — vollständige CRUD-Operationen und Schema-Verwaltung

  • Multi-Tenancy — Daten pro Mandant mit gemeinsamer Infrastruktur isolieren

  • HNSW-Indexierung — schnelle approximative k-nächste-Nachbarn-Suche

  • Gefilterte Suche — Vektorsuche mit traditionellen Metadatenfiltern kombinieren

  • Generative Suche — eingebaute RAG mit LLM-Integration

  • Horizontale Skalierung — über mehrere Knoten sharden und replizieren

  • Modul-System — Vektorisierer, Reader, Generatoren einstecken


Clore.ai Setup

Schritt 1 — Hardware auswählen

Anwendungsfall
Empfohlen
RAM
Speicher

Entwicklung / Prototyping

CPU-Instanz

8 GB

20 GB

Kleine Produktion (< 1M Vektoren)

CPU-Instanz

16 GB

50 GB

Großmaßstab (10M+ Vektoren)

GPU-Instanz

32 GB+

200 GB+

GPU-beschleunigte Vektorisierung

RTX 4090

24 GB

100 GB

circle-info

Weaviate selbst läuft auf der CPU. Verwenden Sie GPU-Instanzen auf Clore.ai, wenn Sie benötigen lokales Embedding-Modell Inference (z. B., text2vec-transformers mit einem lokalen Modell) für schnelle Vektorisierung beim Import.

Schritt 2 — Mieten Sie einen Server auf Clore.ai

  1. Gehe zu clore.aiarrow-up-rightMarktplatz

  2. Für reine Vektorsuche: CPU-Instanzen mit ≥ 16 GB RAM

  3. Für GPU-beschleunigte Embeddings: RTX 3090 oder 4090

  4. Offene Ports: 22 und 8080

  5. Stellen Sie sicher ≥ 50 GB Festplatte für Vektorspeicherung

Schritt 3 — Deployment mit Docker

Minimales Deployment (kein Vektorisierer):

Mit OpenAI-Vektorisierer:

Mit lokalem HuggingFace-Vektorisierer (GPU-beschleunigt):

Start:


Zugriff auf die API

HTTP/REST-API

GraphQL-Endpunkt

Health Check

Per SSH


Python-Client

Installation

Verbinden


Schema & Collections

Erstellen einer Collection


Daten importieren

Batch-Import mit vorab berechneten Vektoren

Automatische Vektorisierung mit OpenAI (beim Import)


Abfragen

Semantische (Vektor-)Suche

Hybride Suche (Vektor + BM25)

Schlüsselwortsuche (BM25)

Gefilterte Suche

GraphQL-Abfrage


Generative Suche (RAG)


Multi-Tenancy


REST-API-Beispiele


Fehlerbehebung

circle-exclamation
circle-exclamation
circle-info

Hoher Speicherverbrauch — Weaviate hält den Vektorindex im RAM für schnelle Suche. Für 1M 768-dim Vektoren: ~6 GB RAM. Planen Sie entsprechend bei der Auswahl der Clore.ai-Instanzgröße.

circle-info

Keine Verbindung über Python-Client möglich — Stellen Sie sicher, dass sowohl Port 8080 (HTTP) als auch Port 50051 (gRPC) offen sind. Der v4 Python-Client verwendet standardmäßig gRPC.

Problem
Lösung

Verbindung abgelehnt

Warten Sie auf den Start (~30 Sek.), prüfen Sie docker ps, überprüfen Sie die Ports

Schema existiert bereits

Collection zuerst löschen: client.collections.delete("Name")

Speicher erschöpft

RAM erhöhen oder Vektordimensionen reduzieren

Langsame Vektorsuche

HNSW-Index hinzufügen oder Dataset-Größe vs. verfügbarem RAM prüfen


Leistungs-Tipps

  1. Batch-Imports verwenden — 10x–50x schneller als Einzelinserts

  2. Wählen Sie das richtige Embedding-Modellall-MiniLM-L6-v2 (384 dims) ist schnell; text-embedding-3-large (3072 dims) bietet beste Qualität, benötigt aber 8x mehr RAM

  3. Hybrid-Search Alpha — abstimmen alpha für Ihren Anwendungsfall: 0.25 für keyword-lastige Abfragen, 0.75 für semantische Abfragen

  4. HNSW-Parameteref und efConstruction steuern Recall vs. Geschwindigkeits-Kompromiss

  5. Mandanten-Isolierung — Multi-Tenancy für SaaS-Apps verwenden; skaliert deutlich besser als separate Collections pro Benutzer


Verwandte Tools

  • Qdrant — Rust-basierte Vektor-Datenbank mit Payload-Filtern

  • ChromaDB — leichtgewichtige Embeddings-Datenbank

  • Milvus — hochskalierbare Vektor-Datenbank


Weaviate auf Clore.ai bietet Ihnen eine produktionsreife Vektor-Datenbank mit GPU-beschleunigter Vektorisierung — ideal zum Aufbau skalierbarer RAG-Systeme und semantischer Suchanwendungen.


Clore.ai GPU-Empfehlungen

Anwendungsfall
Empfohlene GPU
Geschätzte Kosten auf Clore.ai

Entwicklung/Tests

RTX 3090 (24GB)

~$0.12/gpu/hr

Produktionsfähige Vektorsuche

RTX 3090 (24GB)

~$0.12/gpu/hr

Hochdurchsatz-Embedding

RTX 4090 (24GB)

~$0.70/gpu/hr

💡 Alle Beispiele in diesem Leitfaden können bereitgestellt werden auf Clore.aiarrow-up-right GPU-Servern. Durchsuchen Sie verfügbare GPUs und mieten Sie stundenweise — keine Verpflichtungen, voller Root-Zugriff.

Zuletzt aktualisiert

War das hilfreich?