LLaVA
Mit Bildern chatten mit dem LLaVA Vision‑Language‑Modell auf Clore.ai
Mieten auf CLORE.AI
Zugriff auf Ihren Server
Was ist LLaVA?
Modellvarianten
Modell
Größe
VRAM
Qualität
Schnelle Bereitstellung
Zugriff auf Ihren Dienst
Installation
Grundlegende Verwendung
Python-API
Verwendung von Transformers
Ollama-Integration (empfohlen)
LLaVA-API über Ollama
Funktionsweise: /api/generate
NICHT funktionierend: /api/chat (gibt für Vision null zurück)
Python mit Ollama
Vollständiges funktionierendes Beispiel
Anwendungsfälle
Bildbeschreibung
OCR / Textextraktion
Diagrammanalyse
Code aus Screenshot
Objekterkennung
Gradio-Oberfläche
API-Server
Batch-Verarbeitung
Speicheroptimierung
4-Bit-Quantisierung
CPU-Auslagerung
Leistung
Modell
GPU
Tokens/sec
Fehlerbehebung
Kein Speicher mehr
Langsame Generierung
Schlechte Qualität
Kostenabschätzung
GPU
Stundensatz
Tagessatz
4-Stunden-Sitzung
Nächste Schritte
Zuletzt aktualisiert
War das hilfreich?