LocalAI
API compatible OpenAI auto-hébergée avec LocalAI sur Clore.ai
Exigences du serveur
Paramètre
Minimum
Recommandé
Qu'est-ce que LocalAI ?
Modèles pris en charge
Type
Formats
Exemples
Déploiement rapide
Vérifiez que cela fonctionne
Modèles préinstallés
Nom du modèle
Type
Description
Accéder à votre service
Déploiement Docker (Alternative)
Télécharger des modèles
Depuis la galerie de modèles
Depuis Hugging Face
Configuration du modèle
Utilisation de l'API
Chat Completions (compatible OpenAI)
Streaming
Embeddings
Génération d'images
Exemples cURL
Chat
Embeddings
Texte en parole (TTS)
Reconnaissance vocale (STT)
Reranking
Référence complète de l'API
Points de terminaison standard (compatibles OpenAI)
Point de terminaison
Méthode
Description
Points de terminaison supplémentaires
Point de terminaison
Méthode
Description
Obtenir la version
Documentation Swagger
Accélération GPU
Backend CUDA
Déchargement GPU complet
Modèles multiples
Réglage des performances
Pour la vitesse
Pour la mémoire
Benchmarks
Modèle
GPU
Tokens/sec
Dépannage
HTTP 502 sur l'URL http_pub
Le modèle ne se charge pas
Réponses lentes
Mémoire insuffisante
Problèmes de génération d'images
Estimation des coûts
GPU
VRAM
Prix/jour
Convient pour
Prochaines étapes
Mis à jour
Ce contenu vous a-t-il été utile ?