Weaviate

circle-info

Weaviate es una base de datos vectorial de código abierto, nativa de IA, diseñada para búsqueda semántica, búsqueda híbrida y aplicaciones RAG (Generación Aumentada por Recuperación). Almacena tanto objetos como sus incrustaciones vectoriales y admite integración de modelos de ML incorporados.

Resumen

Weaviate va más allá de las bases de datos vectoriales tradicionales al integrar de forma nativa modelos de ML para la vectorización automática en el momento de la importación y de la consulta. Admite múltiples tipos de datos (texto, imágenes, vídeo, audio), búsqueda híbrida incorporada que combina BM25 y similitud vectorial, y despliegues multicliente. Weaviate está listo para producción, es nativo en la nube y está diseñado para escalar desde prototipos hasta miles de millones de vectores.

Propiedad
Valor

Categoría

Base de datos vectorial / Infraestructura RAG

Desarrollador

Weaviate B.V.

Licencia

BSD de 3 cláusulas

Estrellas

12K+

Imagen Docker

cr.weaviate.io/semitechnologies/weaviate

Puertos

22 (SSH), 8080 (API HTTP / GraphQL)


Características clave

  • Búsqueda híbrida vector + palabra clave — combina BM25 de texto completo con similitud vectorial en una sola consulta

  • Vectorizadores integrados — vectoriza automáticamente los datos al importarlos con OpenAI, Cohere, HuggingFace o modelos locales

  • Multimodal — almacena y busca texto, imágenes, vídeo y audio en una sola base de datos

  • API GraphQL — lenguaje de consulta expresivo para consultas semánticas complejas

  • API REST — operaciones CRUD completas y gestión de esquemas

  • Multitenencia — aisla los datos por inquilino con infraestructura compartida

  • Indexado HNSW — búsqueda aproximada de vecinos más cercanos rápida

  • Búsqueda filtrada — combina la búsqueda vectorial con filtros tradicionales de metadatos

  • Búsqueda generativa — RAG incorporado con integración de LLM

  • Escalado horizontal — fragmenta y replica en múltiples nodos

  • Sistema de módulos — enchufa vectorizadores, lectores, generadores


Configuración en Clore.ai

Paso 1 — Elegir hardware

Caso de uso
Recomendado
RAM
Almacenamiento

Desarrollo / prototipado

Instancia CPU

8 GB

20 GB

Pequeña producción (< 1M de vectores)

Instancia CPU

16 GB

50 GB

Gran escala (10M+ de vectores)

Instancia GPU

32 GB+

200 GB+

Vectorización acelerada por GPU

RTX 4090

24 GB

100 GB

circle-info

Weaviate se ejecuta en CPU. Use instancias GPU en Clore.ai cuando necesite modelo de incrustación local inferencia (por ejemplo, text2vec-transformers con un modelo local) para vectorización rápida en el momento de la importación.

Paso 2 — Alquila un servidor en Clore.ai

  1. Ve a clore.aiarrow-up-rightMarketplace

  2. Para búsqueda vectorial pura: instancias CPU con ≥ 16 GB de RAM

  3. Para incrustaciones aceleradas por GPU: RTX 3090 o 4090

  4. Puertos abiertos: 22 y 8080

  5. Asegúrate ≥ 50 GB de disco para almacenamiento de vectores

Paso 3 — Desplegar con Docker

Despliegue mínimo (sin vectorizador):

Con vectorizador OpenAI:

Con vectorizador HuggingFace local (acelerado por GPU):

Iniciar:


Acceder a la API

API HTTP/REST

Endpoint GraphQL

Comprobación de salud

Vía SSH


Cliente Python

Instalación

Conectar


Esquema y Colecciones

Crear una Colección


Importación de datos

Importación por lotes con vectores precomputados

Vectorizar automáticamente con OpenAI (en la importación)


Consultas

Búsqueda semántica (vectorial)

Búsqueda híbrida (Vector + BM25)

Búsqueda por palabra clave (BM25)

Búsqueda filtrada

Consulta GraphQL


Búsqueda generativa (RAG)


Multitenencia


Ejemplos de API REST


Solución de problemas

circle-exclamation
circle-exclamation
circle-info

Alto uso de memoria — Weaviate mantiene el índice vectorial en RAM para búsquedas rápidas. Para 1M de vectores de 768 dimensiones: ~6 GB de RAM. Planifique en consecuencia al elegir el tamaño de la instancia en Clore.ai.

circle-info

No se puede conectar mediante el cliente Python — Asegúrese de que tanto el puerto 8080 (HTTP) como el puerto 50051 (gRPC) estén abiertos. El cliente Python v4 usa gRPC por defecto.

Problema
Solución

Conexión rechazada

Espere el arranque (~30 s), compruebe docker ps, verifique puertos

El esquema ya existe

Eliminar la colección primero: client.collections.delete("Name")

Sin memoria

Aumente la RAM o reduzca las dimensiones de los vectores

Búsqueda vectorial lenta

Añada índice HNSW o compruebe el tamaño del conjunto de datos frente a la RAM disponible


Consejos de rendimiento

  1. Use importaciones por lotes — 10x–50x más rápido que inserciones individuales

  2. Elija el modelo de incrustación adecuadoall-MiniLM-L6-v2 (384 dims) es rápido; text-embedding-3-large (3072 dims) es la mejor calidad pero usa 8x más RAM

  3. Alfa de búsqueda híbrida — ajuste alpha para su caso de uso: 0.25 para consultas centradas en palabras clave, 0.75 para consultas semánticas

  4. Parámetros HNSWef y efConstruction controla la compensación entre recall y velocidad

  5. Aislamiento de inquilinos — use multitenancy para aplicaciones SaaS; escala mucho mejor que colecciones separadas por usuario


Herramientas relacionadas

  • Qdrant — base de datos vectorial basada en Rust con filtros de payload

  • ChromaDB — base de datos de incrustaciones ligera

  • Milvus — base de datos vectorial de alta escala


Weaviate en Clore.ai le ofrece una base de datos vectorial de nivel de producción con vectorización acelerada por GPU — ideal para construir sistemas RAG escalables y aplicaciones de búsqueda semántica.


Recomendaciones de GPU en Clore.ai

Caso de uso
GPU recomendada
Coste estimado en Clore.ai

Desarrollo/Pruebas

RTX 3090 (24GB)

~$0.12/gpu/hr

Búsqueda vectorial en producción

RTX 3090 (24GB)

~$0.12/gpu/hr

Embeddings de alto rendimiento

RTX 4090 (24GB)

~$0.70/gpu/hr

💡 Todos los ejemplos en esta guía pueden desplegarse en Clore.aiarrow-up-right servidores GPU. Navega las GPUs disponibles y alquila por hora — sin compromisos, acceso root completo.

Última actualización

¿Te fue útil?