ChromaDB

Despliega ChromaDB, base de datos vectorial de código abierto para aplicaciones de IA en las GPU de Clore.ai

ChromaDB es el principal base de datos de vectores de código abierto diseñada específicamente para aplicaciones de IA. Proporciona una API simple e intuitiva para almacenar, consultar y gestionar embeddings de alta dimensión: la columna vertebral de los sistemas RAG modernos, la búsqueda semántica, los motores de recomendación y la memoria de los LLM.

ChromaDB abstrae la complejidad de la búsqueda por similitud de vectores, permitiéndote centrarte en construir aplicaciones de IA. Admite tanto el modo en memoria para desarrollo como un modo servidor persistente para despliegues en producción, con soporte para Docker para un despliegue sencillo en servidores GPU de Clore.ai.

Características clave:

  • 🚀 API simple para Python/JavaScript — empieza en minutos

  • 💾 Almacenamiento persistente — los datos sobreviven a reinicios del contenedor

  • 🔍 Métricas de distancia múltiples — coseno, L2, producto interno

  • 📦 Embeddings integrados — soporte incorporado para OpenAI, Cohere, sentence-transformers

  • 🏗️ Multiinquilino — colecciones para organizar diferentes conjuntos de datos

  • 🔌 API REST — interfaz HTTP independiente del lenguaje

  • Rápido — índice HNSW para búsqueda aproximada de vecinos más cercanos

  • 🔗 Nativo con LangChain/LlamaIndex — integración de primera clase

circle-check

Requisitos del servidor

Parámetro
Mínimo
Recomendado

GPU

Cualquier GPU NVIDIA (opcional)

NVIDIA RTX 3080+ (para embeddings)

VRAM

No es obligatorio para ChromaDB

8–16 GB (para modelos de embeddings locales)

RAM

4 GB

16–32 GB

CPU

2 núcleos

8 núcleos

Disco

10 GB

50–200 GB (para conjuntos de datos grandes)

SO

Ubuntu 20.04+

Ubuntu 22.04

Docker

Requerido

Docker + Docker Compose

Puertos

22, 8000

22, 8000

circle-info

ChromaDB en sí no requiere GPU: funciona de manera eficiente en CPU. Sin embargo, generar embeddings (convertir texto en vectores) se beneficia enormemente de la aceleración por GPU. Si planeas usar modelos de embeddings locales (sentence-transformers, etc.), elige un servidor con GPU.


Despliegue rápido en CLORE.AI

1. Encuentra un servidor adecuado

Ve a CLORE.AI Marketplacearrow-up-right y elige:

  • Solo CPU para el servidor ChromaDB + API (almacenar embeddings precomputados)

  • servidor GPU si también quieres generar embeddings localmente

2. Configura tu despliegue

Imagen Docker:

Mapeo de puertos:

Variables de entorno:

Comando de inicio:

3. Probar el despliegue


Configuración paso a paso

Paso 1: Conéctate por SSH a tu servidor

Paso 2: Crear directorio de datos

Paso 3: Ejecutar el contenedor de ChromaDB

Paso 4: Verificar que se está ejecutando

Paso 5: Instalar el cliente de Python

Paso 6: Probar la conectividad desde Python

Paso 7: (Opcional) Habilitar autenticación


Ejemplos de uso

Ejemplo 1: Operaciones básicas de almacenamiento vectorial


Ejemplo 2: Búsqueda semántica


Ejemplo 3: Canal RAG con ChromaDB + OpenAI


Ejemplo 4: Gestión de documentos con múltiples colecciones


Ejemplo 5: Filtrado y consultas por metadatos


Configuración

Docker Compose (Producción)

Referencia de variables de entorno

Variable
Por defecto
Descripción

IS_PERSISTENT

FALSE

Habilitar almacenamiento persistente

ANONYMIZED_TELEMETRY

TRUE

Desactivar el seguimiento de uso

CHROMA_SERVER_LOG_LEVEL

INFO

Verbosity de registro

CHROMA_MEMORY_LIMIT_BYTES

Ninguna

Memoria máxima para la caché de segmentos

ALLOW_RESET

FALSE

Permitir restablecer todos los datos vía API

CHROMA_SERVER_AUTH_PROVIDER

Ninguna

Clase proveedor de autenticación


Consejos de rendimiento

1. Elegir el modelo de embeddings adecuado

Modelo
Dimensiones
Velocidad
Calidad
GPU requerida

all-MiniLM-L6-v2

384

Rápido

Bueno

No

all-mpnet-base-v2

768

Medio

Mejor

Opcional

text-embedding-3-small

1536

Rápido

Excelente

Solo API

BAAI/bge-large-en-v1.5

1024

Medio

Mejor

2. Inserciones por lotes para velocidad

3. Ajuste del índice HNSW

4. Cliente persistente para uso local


Solución de problemas

Problema: No se puede conectar a ChromaDB

Problema: Datos perdidos al reiniciar el contenedor

Problema: Errores por falta de memoria

Problema: Generación de embeddings lenta

Problema: Colección no encontrada después del reinicio


Enlaces


Recomendaciones de GPU en Clore.ai

Caso de uso
GPU recomendada
Coste estimado en Clore.ai

Desarrollo/Pruebas

RTX 3090 (24GB)

~$0.12/gpu/hr

RAG en producción

RTX 3090 (24GB)

~$0.12/gpu/hr

Embeddings de alto rendimiento

RTX 4090 (24GB)

~$0.70/gpu/hr

💡 Todos los ejemplos en esta guía pueden desplegarse en Clore.aiarrow-up-right servidores GPU. Navega las GPUs disponibles y alquila por hora — sin compromisos, acceso root completo.

Última actualización

¿Te fue útil?