AnythingLLM RAG-Plattform
Setzen Sie AnythingLLM auf Clore.ai ein — eine All-in-One RAG-Anwendung und KI-Agentenplattform mit integriertem Dokument-Chat, No-Code-Agenten-Builder und MCP-Unterstützung, die auf kosteneffizienten GPU-Cloud-Servern läuft.
Überblick
Architekturübersicht
┌─────────────────────────────────────────────┐
│ AnythingLLM (Port 3001) │
│ │
│ ┌──────────┐ ┌──────────┐ ┌──────────┐ │
│ │ RAG/Docs │ │ Agents │ │ Users │ │
│ └────┬─────┘ └────┬─────┘ └──────────┘ │
│ │ │ │
│ ┌────▼─────────────▼───────┐ │
│ │ LLM Provider Router │ │
│ └──────────────┬───────────┘ │
└─────────────────┼───────────────────────────┘
│
┌────────────┼────────────┐
▼ ▼ ▼
OpenAI Anthropic Ollama (lokal)
Claude Gemini vLLM (lokal)Anforderungen
Server-Spezifikationen
Komponente
Minimum
Empfohlen
Hinweise
Clore.ai Preisinformationen
Servertyp
Ungefähre Kosten
Einsatzgebiet
Voraussetzungen
Schnellstart
Methode 1: Einzelner Docker-Container (empfohlen)
Methode 2: Docker Compose (Multi-Service)
Methode 3: Mit vorkonfigurierten Umgebungsvariablen
Konfiguration
LLM-Anbieter-Optionen
Einbettungskonfiguration
Engine
Backend
GPU benötigt
Qualität
Optionen für Vektor-Datenbanken
DB
Beschreibung
Am besten geeignet für
Workspace-Konfiguration
Dokumentaufnahme (Ingestion)
GPU-Beschleunigung
Ollama auf demselben Clore.ai-Server ausführen
GPU-Modellleistung auf Clore.ai
Modell
GPU
VRAM
Einbettungsgeschwindigkeit
Inferenzgeschwindigkeit
Kosten/Stunde
Tipps & bewährte Methoden
Best Practices für Dokumentenaufnahme
Kostenmanagement auf Clore.ai
Multi-Benutzer-Einrichtung
KI-Agentenkonfiguration
Leistungsoptimierung
AnythingLLM aktualisieren
Fehlerbehebung
Container startet, aber UI nicht erreichbar
Dokument-Upload schlägt fehl
RAG-Antworten sind von schlechter Qualität / Halluzinieren
Ollama-Verbindung von AnythingLLM schlägt fehl
Nicht genügend Speicher / Container-Absturz
Weiterführende Lektüre
Zuletzt aktualisiert
War das hilfreich?