LLaVA

Discutez avec des images en utilisant le modèle vision-langage LLaVA sur Clore.ai

Discutez avec des images en utilisant LLaVA - l'alternative open-source à GPT-4V.

circle-check

Location sur CLORE.AI

  1. Filtrer par type de GPU, VRAM et prix

  2. Choisir À la demande (tarif fixe) ou Spot (prix d'enchère)

  3. Configurez votre commande :

    • Sélectionnez l'image Docker

    • Définissez les ports (TCP pour SSH, HTTP pour les interfaces web)

    • Ajoutez des variables d'environnement si nécessaire

    • Entrez la commande de démarrage

  4. Sélectionnez le paiement : CLORE, BTC, ou USDT/USDC

  5. Créez la commande et attendez le déploiement

Accédez à votre serveur

  • Trouvez les détails de connexion dans Mes commandes

  • Interfaces Web : utilisez l'URL du port HTTP

  • SSH : ssh -p <port> root@<adresse-proxy>

Qu'est-ce que LLaVA ?

LLaVA (Large Language and Vision Assistant) peut :

  • Comprendre et décrire des images

  • Répondre aux questions sur le contenu visuel

  • Analyser des graphiques, diagrammes, captures d'écran

  • OCR et compréhension de documents

Variantes de modèle

Modèle
Taille
VRAM
Qualité

LLaVA-1.5-7B

7B

8 Go

Bon

LLaVA-1.5-13B

13B

16Go

Meilleur

LLaVA-1.6-34B

34B

40Go

Meilleur

LLaVA-NeXT

7-34B

8-40GB

Dernier

Déploiement rapide

Image Docker :

Ports :

Commande :

Accéder à votre service

Après le déploiement, trouvez votre http_pub URL dans Mes commandes:

  1. Aller à la Mes commandes page

  2. Cliquez sur votre commande

  3. Trouvez l' http_pub URL (par ex., abc123.clorecloud.net)

Utilisez https://VOTRE_HTTP_PUB_URL au lieu de localhost dans les exemples ci-dessous.

Installation

Utilisation de base

API Python

Utilisation de Transformers

Intégration Ollama (recommandée)

La façon la plus simple d'exécuter LLaVA sur CLORE.AI :

API LLaVA via Ollama

circle-exclamation

Mode de fonctionnement : /api/generate

Réponse :

Ne fonctionne PAS : /api/chat (retourne null pour la vision)

Python avec Ollama

Exemple complet fonctionnel

Cas d'utilisation

Description de l'image

OCR / Extraction de texte

Analyse de graphiques

Code à partir d'une capture d'écran

Détection d'objets

Interface Gradio

Serveur API

Traitement par lots

Optimisation de la mémoire

Quantification 4 bits

Déchargement CPU

Performances

Modèle
GPU
Tokens/sec

LLaVA-1.5-7B

RTX 3090

~30

LLaVA-1.5-7B

RTX 4090

~45

LLaVA-1.6-7B

RTX 4090

~40

LLaVA-1.5-13B

A100

~35

Dépannage

Mémoire insuffisante

Génération lente

  • Utiliser l'attention flash

  • Réduire max_new_tokens

  • Utiliser un modèle quantifié

Mauvaise qualité

  • Utiliser un modèle plus grand

  • Meilleurs prompts avec contexte

  • Images de résolution plus élevée

Estimation des coûts

Tarifs typiques du marché CLORE.AI (à partir de 2024) :

GPU
Tarif horaire
Tarif journalier
Session de 4 heures

RTX 3060

~$0.03

~$0.70

~$0.12

RTX 3090

~$0.06

~$1.50

~$0.25

RTX 4090

~$0.10

~$2.30

~$0.40

A100 40GB

~$0.17

~$4.00

~$0.70

A100 80GB

~$0.25

~$6.00

~$1.00

Les prix varient selon le fournisseur et la demande. Vérifiez CLORE.AI Marketplacearrow-up-right pour les tarifs actuels.

Économisez de l'argent :

  • Utilisez Spot market pour les charges de travail flexibles (souvent 30-50 % moins cher)

  • Payer avec CLORE jetons

  • Comparer les prix entre différents fournisseurs

Prochaines étapes

  • LLMs Ollama - Exécuter LLaVA avec Ollama

  • RAG + LangChain - Vision + RAG

  • vLLM Inference - Mise en production

Mis à jour

Ce contenu vous a-t-il été utile ?