Plateforme RAG AnythingLLM
Déployez AnythingLLM sur Clore.ai — une application RAG tout-en-un et plateforme d'agents IA avec chat documentaire intégré, constructeur d'agents no-code et support MCP fonctionnant sur des serveurs cloud GPU économiques.
Aperçu
Vue d'ensemble de l'architecture
┌─────────────────────────────────────────────┐
│ AnythingLLM (Port 3001) │
│ │
│ ┌──────────┐ ┌──────────┐ ┌──────────┐ │
│ │ RAG/Docs │ │ Agents │ │ Users │ │
│ └────┬─────┘ └────┬─────┘ └──────────┘ │
│ │ │ │
│ ┌────▼─────────────▼───────┐ │
│ │ LLM Provider Router │ │
│ └──────────────┬───────────┘ │
└─────────────────┼───────────────────────────┘
│
┌────────────┼────────────┐
▼ ▼ ▼
OpenAI Anthropic Ollama (local)
Claude Gemini vLLM (local)Exigences
Spécifications du serveur
Composant
Minimum
Recommandé
Remarques
Référence de tarification Clore.ai
Type de serveur
Coût approximatif
Cas d'utilisation
Prérequis
Démarrage rapide
Méthode 1 : Conteneur Docker unique (Recommandé)
Méthode 2 : Docker Compose (Multi-service)
Méthode 3 : Avec variables d'environnement préconfigurées
Configuration
Options de fournisseur LLM
Configuration des embeddings
Moteur
Backend
GPU requis
Qualité
Options de base de données de vecteurs
BD
Description
Idéal pour
Configuration de l'espace de travail
Ingestion de documents
Accélération GPU
Exécuter Ollama sur le même serveur Clore.ai
Performance des modèles GPU sur Clore.ai
Modèle
GPU
VRAM
Vitesse d'embedding
Vitesse d'inférence
Coût / h
Conseils et bonnes pratiques
Bonnes pratiques pour l'ingestion de documents
Gestion des coûts sur Clore.ai
Configuration multi-utilisateurs
Configuration des agents IA
Optimisation des performances
Mise à jour d'AnythingLLM
Dépannage
Le conteneur démarre mais l'UI n'est pas accessible
Échec du téléversement de document
Les réponses RAG sont de mauvaise qualité / hallucinent
La connexion Ollama échoue depuis AnythingLLM
Manque de mémoire / crash du conteneur
Lectures complémentaires
Mis à jour
Ce contenu vous a-t-il été utile ?