Milvus

La base de données vectorielle open-source la plus évolutive pour les applications IA — conçue pour des milliards de vecteurs

Milvus est une base de données vectorielle open-source conçue pour la recherche de similarité évolutive et les applications d'IA. Initialement créée par Zilliz puis donnée à la LF AI & Data Foundation, Milvus alimente des charges de travail IA en production dans des entreprises telles que NVIDIA, AT&T, IBM et Salesforce. C'est le choix de référence lorsque vous devez monter à l'échelle jusqu'à des milliards de vecteurs.

GitHub : milvus-io/milvusarrow-up-right — 32K+ ⭐


Milvus vs Qdrant — Quand choisir lequel

Critères
Milvus
Qdrant

Échelle

Milliards de vecteurs

Centaines de millions

Architecture

Distribué (plusieurs services)

Binaire unique

Complexité d'installation

Plus élevée

Plus faible

Prise en charge d'index GPU

✅ FAISS GPU natif

Limité

Multi-tenant

✅ Partitions + alias

Basé sur des collections

Ingestion en streaming

✅ Kafka/Pulsar

Limité

Recherche hybride

✅ Dense + sparse

Option gérée dans le cloud

Zilliz Cloud

Qdrant Cloud

circle-check

Architecture de Milvus

Milvus en mode autonome (serveur unique) inclut :

  • milvus — le service principal (coordonnateurs proxy, query, data, index)

  • etcd — stockage des métadonnées et découverte de services

  • MinIO — stockage d'objets pour les données de segments

En mode distribué (cluster), chaque composant s'échelonne indépendamment.


Prérequis

  • Compte Clore.ai avec location de GPU

  • Docker Compose (généralement préinstallé)

  • Connaissances Python de base

  • 16 Go+ RAM (32 Go recommandés pour la production)


Étape 1 — Louer un serveur GPU sur Clore.ai

  1. Aller à clore.aiarrow-up-rightPlace de marché

  2. GPU recommandé : RTX 4090 ou A100 pour l'indexation accélérée par GPU

  3. Alternative CPU : Tout serveur avec 32 Go+ de RAM pour l'indexation basée sur CPU

Configuration minimale :

  • CPU : 8 cœurs

  • RAM : 16 Go (32 Go recommandés)

  • Disque : SSD/NVMe 50 Go

  • GPU : Optionnel (nécessaire uniquement pour les types d'index GPU)

circle-info

Types d'index GPU dans Milvus (IVF_FLAT_GPU, IVFSQ8_GPU) nécessitent des GPU compatibles CUDA et accélèrent considérablement la construction d'index pour de grandes collections. Si vous prévoyez d'indexer fréquemment plus de 10M de vecteurs, l'indexation GPU s'amortit rapidement.


Étape 2 — Déployer Milvus en mode autonome

Image Docker :

Milvus en mode autonome nécessite etcd et MinIO. Utilisez Docker Compose pour l'installation la plus simple.

Ports :

  • Port 19530 : Port SDK/gRPC de Milvus (principal)

  • Port 9091 : API REST de Milvus et vérification de santé (interne)

Variables d’environnement :


Étape 3 — Configurer avec Docker Compose

Connectez-vous en SSH à votre serveur Clore.ai et créez le fichier compose :

Personnaliser docker-compose.yml

Démarrer Milvus


Étape 4 — Installer le client Python


Étape 5 — Créer une collection

Dans Milvus, une collection est similaire à une table de base de données. Elle a un schéma avec des champs typés incluant des champs vecteurs.


Étape 6 — Créer l'index

Avant de charger des données pour la recherche, créez un index approprié :


Étape 7 — Insérer des données


Étape 8 — Recherche et requêtes

Recherche sémantique basique

Recherche filtrée

Recherche hybride (Dense + Sparse)


Étape 9 — Construire un service RAG


Étape 10 — Surveiller et gérer


Dépannage

Services ne démarrent pas

Connexion refusée sur 19530

Timeout de construction d'index pour les grandes collections

Usage élevé de la mémoire


Guide de sélection du type d'index

Type d'index
Idéal pour
Mémoire
Vitesse
GPU requis

FLAT

Petit (<1M), recherche exacte

Élevée

Lent

Non

IVF_FLAT

Moyen (1M–10M)

Moyen

Bonne

Non

HNSW

Faible latence, <100M

Élevée

Excellente

Non

IVF_SQ8

Compressé, grand

Faible

Bonne

Non

GPU_IVF_FLAT

Requêtes par lots rapides

GPU+RAM

Meilleur

Oui

DISKANN

À l'échelle du milliard

Faible (disque)

Bonne

Non


Benchmarks de performance

Taille de la collection
Index
GPU
QPS

1M de vecteurs

HNSW

RTX 3090

~8,000

10M de vecteurs

IVF_FLAT

RTX 4090

~2,500

10M de vecteurs

GPU_IVF_FLAT

A100

~12,000

100M de vecteurs

DISKANN

A100

~1,200


Ressources supplémentaires


Milvus sur Clore.ai est la solution idéale pour les applications IA qui doivent dépasser les centaines de millions de vecteurs. Combiné à la génération d'embeddings accélérée par GPU, vous pouvez construire des systèmes de recherche sémantique et de RAG de classe mondiale à une fraction du coût des solutions cloud managées.


Recommandations GPU Clore.ai

Cas d’utilisation
GPU recommandé
Coût estimé sur Clore.ai

Développement/Test

RTX 3090 (24GB)

~$0.12/gpu/hr

Recherche vectorielle en production

RTX 3090 (24GB)

~$0.12/gpu/hr

Embeddings à haut débit

RTX 4090 (24GB)

~$0.70/gpu/hr

💡 Tous les exemples de ce guide peuvent être déployés sur Clore.aiarrow-up-right serveurs GPU. Parcourez les GPU disponibles et louez à l’heure — sans engagement, avec accès root complet.

Mis à jour

Ce contenu vous a-t-il été utile ?