Gemma 3
Exécutez les modèles multimodaux Google Gemma 3 sur Clore.ai — surpassent Llama-405B tout en étant 15x plus petits
Principales caractéristiques
Variantes de modèle
Modèle
Paramètres
VRAM (Q4)
VRAM (FP16)
Idéal pour
Exigences
Composant
Gemma 3 4B
Gemma 3 27B (Q4)
Gemma 3 27B (FP16)
Démarrage rapide avec Ollama
Serveur API Ollama
Vision avec Ollama
Configuration vLLM (Production)
HuggingFace Transformers
Génération de texte
Vision (Compréhension d'image)
Démarrage rapide Docker
Points forts des benchmarks
Benchmark
Gemma 3 27B
Llama 3.1 70B
Llama 3.1 405B
Conseils pour les utilisateurs de Clore.ai
Dépannage
Problème
Solution
Lectures complémentaires
Mis à jour
Ce contenu vous a-t-il été utile ?