ChromaDB

Déployer ChromaDB, base de données vectorielle open-source pour applications IA, sur les GPU Clore.ai

ChromaDB est le principal base de données vectorielle open-source conçue pour les applications d'IA. Elle fournit une API simple et intuitive pour stocker, interroger et gérer des embeddings de haute dimension — l'épine dorsale des systèmes RAG modernes, de la recherche sémantique, des moteurs de recommandation et de la mémoire des LLM.

ChromaDB masque la complexité de la recherche de similarité vectorielle, vous permettant de vous concentrer sur la création d'applications d'IA. Elle prend en charge à la fois un mode en mémoire pour le développement et un mode serveur persistant pour les déploiements en production, avec un support Docker pour un déploiement facile sur les serveurs GPU Clore.ai.

Principales fonctionnalités :

  • 🚀 API Python/JavaScript simple — commencez en quelques minutes

  • 💾 Stockage persistant — les données survivent aux redémarrages du conteneur

  • 🔍 Plusieurs métriques de distance — cosinus, L2, produit scalaire

  • 📦 Embeddings intégrés — prise en charge intégrée pour OpenAI, Cohere, sentence-transformers

  • 🏗️ Multi-tenant — collections pour organiser différents jeux de données

  • 🔌 API REST — interface HTTP agnostique au langage

  • Rapide — index HNSW pour la recherche approximative du plus proche voisin

  • 🔗 Intégration native LangChain/LlamaIndex — intégration de première classe

circle-check

Exigences serveur

Paramètre
Minimum
Recommandé

GPU

N'importe quel GPU NVIDIA (optionnel)

NVIDIA RTX 3080+ (pour les embeddings)

VRAM

Non requis pour ChromaDB

8–16 Go (pour les modèles d'embeddings locaux)

RAM

4 Go

16–32 Go

CPU

2 cœurs

8 cœurs

Disque

10 Go

50–200 Go (pour les grands jeux de données)

OS

Ubuntu 20.04+

Ubuntu 22.04

Docker

Requis

Docker + Docker Compose

Ports

22, 8000

22, 8000

circle-info

ChromaDB lui-même ne nécessite pas de GPU — il fonctionne efficacement sur CPU. Cependant, la génération d'embeddings (conversion du texte en vecteurs) bénéficie grandement de l'accélération GPU. Si vous prévoyez d'utiliser des modèles d'embeddings locaux (sentence-transformers, etc.), choisissez un serveur avec un GPU.


Déploiement rapide sur CLORE.AI

1. Trouvez un serveur adapté

Aller à CLORE.AI Marketplacearrow-up-right et choisissez :

  • CPU uniquement pour le serveur ChromaDB + API (stocker des embeddings pré-calculés)

  • serveur GPU si vous souhaitez également générer des embeddings localement

2. Configurez votre déploiement

Image Docker :

Mappages de ports :

Variables d’environnement :

Commande de démarrage :

3. Tester le déploiement


Configuration étape par étape

Étape 1 : Connectez-vous en SSH à votre serveur

Étape 2 : Créer le répertoire de données

Étape 3 : Exécuter le conteneur ChromaDB

Étape 4 : Vérifier qu'il fonctionne

Étape 5 : Installer le client Python

Étape 6 : Tester la connectivité depuis Python

Étape 7 : (Optionnel) Activer l'authentification


Exemples d’utilisation

Exemple 1 : Opérations de base sur le magasin vectoriel


Exemple 2 : Recherche sémantique


Exemple 3 : Pipeline RAG avec ChromaDB + OpenAI


Exemple 4 : Gestion de documents multi-collections


Exemple 5 : Filtrage et requêtes par métadonnées


Configuration

Docker Compose (Production)

Référence des variables d'environnement

Variable
Par défaut
Description

IS_PERSISTENT

FALSE

Activer le stockage persistant

ANONYMIZED_TELEMETRY

TRUE

Désactiver le suivi d'utilisation

CHROMA_SERVER_LOG_LEVEL

INFO

Niveau de verbosité des logs

CHROMA_MEMORY_LIMIT_BYTES

Aucune

Mémoire maximale pour le cache de segments

ALLOW_RESET

FALSE

Autoriser la réinitialisation de toutes les données via l'API

CHROMA_SERVER_AUTH_PROVIDER

Aucune

Classe du fournisseur d'authentification


Conseils de performance

1. Choisir le bon modèle d'embeddings

Modèle
Dimensions
Vitesse
Qualité
GPU requis

all-MiniLM-L6-v2

384

Rapide

Bonne

Non

all-mpnet-base-v2

768

Moyen

Meilleur

Optionnel

text-embedding-3-small

1536

Rapide

Excellent

API uniquement

BAAI/bge-large-en-v1.5

1024

Moyen

Meilleur

Oui

2. Inserations en lot pour la vitesse

3. Tuning de l'index HNSW

4. Client persistant pour usage local


Dépannage

Problème : Impossible de se connecter à ChromaDB

Problème : Données perdues au redémarrage du conteneur

Problème : Erreurs de mémoire insuffisante

Problème : Génération d'embeddings lente

Problème : Collection introuvable après redémarrage


Liens


Recommandations GPU Clore.ai

Cas d’utilisation
GPU recommandé
Coût estimé sur Clore.ai

Développement/Test

RTX 3090 (24GB)

~$0.12/gpu/hr

RAG en production

RTX 3090 (24GB)

~$0.12/gpu/hr

Embeddings à haut débit

RTX 4090 (24GB)

~$0.70/gpu/hr

💡 Tous les exemples de ce guide peuvent être déployés sur Clore.aiarrow-up-right serveurs GPU. Parcourez les GPU disponibles et louez à l’heure — sans engagement, avec accès root complet.

Mis à jour

Ce contenu vous a-t-il été utile ?