Phi-4

Exécutez le petit modèle de langage Phi-4 de Microsoft sur les GPU Clore.ai

Exécutez Phi-4 de Microsoft - un petit modèle de langage mais puissant.

circle-check

Location sur CLORE.AI

  1. Filtrer par type de GPU, VRAM et prix

  2. Choisir À la demande (tarif fixe) ou Spot (prix d'enchère)

  3. Configurez votre commande :

    • Sélectionnez l'image Docker

    • Définissez les ports (TCP pour SSH, HTTP pour les interfaces web)

    • Ajoutez des variables d'environnement si nécessaire

    • Entrez la commande de démarrage

  4. Sélectionnez le paiement : CLORE, BTC, ou USDT/USDC

  5. Créez la commande et attendez le déploiement

Accédez à votre serveur

  • Trouvez les détails de connexion dans Mes commandes

  • Interfaces Web : utilisez l'URL du port HTTP

  • SSH : ssh -p <port> root@<adresse-proxy>

Qu'est-ce que Phi-4 ?

Phi-4 de Microsoft offre :

  • 14 milliards de paramètres avec d'excellentes performances

  • Batte des modèles plus grands aux benchmarks

  • Fort en raisonnement et en mathématiques

  • Inférence efficace

Variantes de modèle

Modèle
Paramètres
VRAM
Spécialité

Phi-4

14B

16Go

Général

Phi-3.5-mini

3,8 milliards

4 Go

Léger

Phi-3.5-MoE

42 milliards (6,6 milliards actifs)

16Go

Mélange d'experts

Phi-3.5-vision

4,2 milliards

6 Go

Vision

Déploiement rapide

Image Docker :

Ports :

Commande :

Accéder à votre service

Après le déploiement, trouvez votre http_pub URL dans Mes commandes:

  1. Aller à la Mes commandes page

  2. Cliquez sur votre commande

  3. Trouvez l' http_pub URL (par ex., abc123.clorecloud.net)

Utilisez https://VOTRE_HTTP_PUB_URL au lieu de localhost dans les exemples ci-dessous.

Utilisation d'Ollama

Installation

Utilisation de base

Phi-3.5-Vision

Pour la compréhension d'images :

Mathématiques et raisonnement

Génération de code

Inférence quantifiée

Interface Gradio

Performances

Modèle
GPU
Tokens/sec

Phi-3.5-mini

RTX 3060

~100

Phi-3.5-mini

RTX 4090

~150

Phi-4

RTX 4090

~60

Phi-4

A100

~90

Phi-4 (4 bits)

RTX 3090

~40

Benchmarks

Modèle
MMLU
HumanEval
GSM8K

Phi-4

84.8%

82.6%

94.6%

GPT-4-Turbo

86.4%

85.4%

94.2%

Llama-3.1-70B

83.6%

80.5%

92.1%

Phi-4 égalise ou bat des modèles beaucoup plus grands

Dépannage

"trust_remote_code" erreur

  • Ajoutez trust_remote_code=True à from_pretrained()

  • Ceci est requis pour les modèles Phi

Sorties répétitives

  • Température plus basse (0,3-0,6)

  • Ajouter repetition_penalty=1.1

  • Utiliser un modèle de chat approprié

Problèmes de mémoire

  • Phi-4 est efficace mais nécessite encore ~8 Go pour 14B

  • Utiliser la quantification 4 bits si nécessaire

  • Réduire la longueur du contexte

Format de sortie incorrect

  • Utilisez apply_chat_template() pour un formatage correct

  • Vérifiez que vous utilisez la version instruct, pas la base

Estimation des coûts

Tarifs typiques du marché CLORE.AI (à partir de 2024) :

GPU
Tarif horaire
Tarif journalier
Session de 4 heures

RTX 3060

~$0.03

~$0.70

~$0.12

RTX 3090

~$0.06

~$1.50

~$0.25

RTX 4090

~$0.10

~$2.30

~$0.40

A100 40GB

~$0.17

~$4.00

~$0.70

A100 80GB

~$0.25

~$6.00

~$1.00

Les prix varient selon le fournisseur et la demande. Vérifiez CLORE.AI Marketplacearrow-up-right pour les tarifs actuels.

Économisez de l'argent :

  • Utilisez Spot market pour les charges de travail flexibles (souvent 30-50 % moins cher)

  • Payer avec CLORE jetons

  • Comparer les prix entre différents fournisseurs

Cas d'utilisation

  • Tutorat en mathématiques

  • Assistance au code

  • Analyse de documents (vision)

  • Déploiement efficace en périphérie

  • Inférence rentable

Prochaines étapes

  • Qwen2.5 - Modèle alternatif

  • Gemma 2 - modèle de Google

  • Llama 3.2 - modèle de Meta

Mis à jour

Ce contenu vous a-t-il été utile ?