Plataforma RAG AnythingLLM
Despliega AnythingLLM en Clore.ai: aplicación RAG todo-en-uno y plataforma de agentes AI con chat de documentos integrado, constructor de agentes sin código y soporte MCP en servidores cloud GPU rentables.
Resumen
Descripción general de la arquitectura
┌─────────────────────────────────────────────┐
│ AnythingLLM (Puerto 3001) │
│ │
│ ┌──────────┐ ┌──────────┐ ┌──────────┐ │
│ │ RAG/Docs │ │ Agents │ │ Users │ │
│ └────┬─────┘ └────┬─────┘ └──────────┘ │
│ │ │ │
│ ┌────▼─────────────▼───────┐ │
│ │ LLM Provider Router │ │
│ └──────────────┬───────────┘ │
└─────────────────┼───────────────────────────┘
│
┌────────────┼────────────┐
▼ ▼ ▼
OpenAI Anthropic Ollama (local)
Claude Gemini vLLM (local)Requisitos
Especificaciones del servidor
Componente
Mínimo
Recomendado
Notas
Referencia de precios de Clore.ai
Tipo de servidor
Costo aprox.
Caso de uso
Prerrequisitos
Inicio rápido
Método 1: Contenedor Docker único (Recomendado)
Método 2: Docker Compose (Multi-Servicio)
Método 3: Con variables de entorno preconfiguradas
Configuración
Opciones de proveedor de LLM
Configuración de Embeddings
Motor
Backend
Necesita GPU
Calidad
Opciones de bases de datos vectoriales
DB
Descripción
Mejor para
Configuración del espacio de trabajo
Ingestión de documentos
Aceleración por GPU
Ejecutando Ollama en el mismo servidor Clore.ai
Rendimiento de modelos GPU en Clore.ai
Modelo
GPU
VRAM
Velocidad de embeddings
Velocidad de inferencia
Costo/hr
Consejos y mejores prácticas
Mejores prácticas para ingestión de documentos
Gestión de costos en Clore.ai
Configuración multiusuario
Configuración de agentes de IA
Ajuste de rendimiento
Actualizar AnythingLLM
Solución de problemas
El contenedor inicia pero la UI no es accesible
La subida de documentos falla
Las respuestas RAG son de mala calidad / con alucinaciones
La conexión a Ollama falla desde AnythingLLM
Falta de memoria / fallo del contenedor
Lecturas adicionales
Última actualización
¿Te fue útil?