LlamaIndex
Construye pipelines de datos a LLM y aplicaciones RAG con LlamaIndex en GPUs de Clore.ai
Requisitos del servidor
Parámetro
Mínimo
Recomendado
Despliegue rápido en CLORE.AI
1. Encuentra un servidor adecuado
Caso de uso
GPU
Notas
2. Configura tu despliegue
3. Accede a la API
Configuración paso a paso
Paso 1: Conéctate por SSH a tu servidor
Paso 2: Instala Ollama
Paso 3: Configura el entorno Python
Paso 4: Instala los paquetes de LlamaIndex
Paso 5: Configura ajustes globales
Paso 6: Construye tu primer índice
Paso 7: Consulta el índice
Ejemplos de uso
Ejemplo 1: Preguntas y respuestas básicas sobre documentos
Ejemplo 2: RAG de múltiples documentos con ChromaDB
Ejemplo 3: Descomposición en subpreguntas
Ejemplo 4: Índice de grafo de conocimiento
Ejemplo 5: Motor de consulta SQL sobre base de datos
Configuración
Docker Compose (Stack completo de LlamaIndex)
Variables clave de configuración
Ajuste
Por defecto
Descripción
Consejos de rendimiento
1. Consultas asíncronas para rendimiento
2. Búsqueda híbrida (palabra clave + semántica)
3. Reordenamiento para calidad
4. Streaming para UIs responsivas
Solución de problemas
Problema: el modelo de embeddings no se conecta a Ollama
Problema: la construcción del índice es lenta
Problema: ModuleNotFoundError para integraciones
Problema: Ventana de contexto excedida
Problema: Las consultas devuelven resultados irrelevantes
Enlaces
Recomendaciones de GPU en Clore.ai
Caso de uso
GPU recomendada
Coste estimado en Clore.ai
Última actualización
¿Te fue útil?