Phi-4

Führen Sie Microsofts Phi-4 kleines Sprachmodell auf Clore.ai GPUs aus

Führen Sie Microsofts Phi-4 aus - ein kleines, aber leistungsstarkes Sprachmodell.

circle-check

Mieten auf CLORE.AI

  1. Nach GPU-Typ, VRAM und Preis filtern

  2. Wählen On-Demand (Festpreis) oder Spot (Gebotspreis)

  3. Konfigurieren Sie Ihre Bestellung:

    • Docker-Image auswählen

    • Ports festlegen (TCP für SSH, HTTP für Web-UIs)

    • Umgebungsvariablen bei Bedarf hinzufügen

    • Startbefehl eingeben

  4. Zahlung auswählen: CLORE, BTC, oder USDT/USDC

  5. Bestellung erstellen und auf Bereitstellung warten

Zugriff auf Ihren Server

  • Verbindungsdetails finden Sie in Meine Bestellungen

  • Webschnittstellen: Verwenden Sie die HTTP-Port-URL

  • SSH: ssh -p <port> root@<proxy-address>

Was ist Phi-4?

Phi-4 von Microsoft bietet:

  • 14B Parameter mit ausgezeichneter Leistung

  • Übertrifft größere Modelle in Benchmarks

  • Starke Schlussfolgerungs- und Mathematikfähigkeiten

  • Effiziente Inferenz

Modellvarianten

Modell
Parameter
VRAM
Spezialgebiet

Phi-4

14B

16GB

Allgemein

Phi-3.5-mini

3,8B

4GB

Leichtgewichtig

Phi-3.5-MoE

42B (6,6B aktiv)

16GB

Mixture of Experts

Phi-3.5-vision

4,2B

6GB

Vision

Schnelle Bereitstellung

Docker-Image:

Ports:

Befehl:

Zugriff auf Ihren Dienst

Nach der Bereitstellung finden Sie Ihre http_pub URL in Meine Bestellungen:

  1. Gehen Sie zur Meine Bestellungen Seite

  2. Klicken Sie auf Ihre Bestellung

  3. Finden Sie die http_pub URL (z. B., abc123.clorecloud.net)

Verwenden Sie https://IHRE_HTTP_PUB_URL anstelle von localhost in den Beispielen unten.

Verwendung von Ollama

Installation

Grundlegende Verwendung

Phi-3.5-Vision

Für Bildverständnis:

Mathematik und Schlussfolgern

Codegenerierung

Quantisierte Inferenz

Gradio-Oberfläche

Leistung

Modell
GPU
Tokens/sec

Phi-3.5-mini

RTX 3060

~100

Phi-3.5-mini

RTX 4090

~150

Phi-4

RTX 4090

~60

Phi-4

A100

~90

Phi-4 (4-Bit)

RTX 3090

~40

Benchmarks

Modell
MMLU
HumanEval
GSM8K

Phi-4

84.8%

82.6%

94.6%

GPT-4-Turbo

86.4%

85.4%

94.2%

Llama-3.1-70B

83.6%

80.5%

92.1%

Phi-4 erreicht oder übertrifft deutlich größere Modelle

Fehlerbehebung

"trust_remote_code" Fehler

  • Hinzufügen trust_remote_code=True auf from_pretrained()

  • Dies ist für Phi-Modelle erforderlich

Wiederholende Ausgaben

  • Niedrigere Temperatur (0,3-0,6)

  • Fügen Sie repetition_penalty=1.1 hinzu

  • Verwenden Sie die richtige Chat-Vorlage

Speicherprobleme

  • Phi-4 ist effizient, benötigt aber trotzdem ~8 GB für 14B

  • Verwenden Sie bei Bedarf 4-Bit-Quantisierung

  • Reduzieren Sie die Kontextlänge

Falsches Ausgabeformat

  • Verwenden Sie apply_chat_template() für richtige Formatierung

  • Überprüfen Sie, ob Sie die Instruct-Version verwenden, nicht die Basisversion

Kostenabschätzung

Typische CLORE.AI-Marktplatztarife (Stand 2024):

GPU
Stundensatz
Tagessatz
4-Stunden-Sitzung

RTX 3060

~$0.03

~$0.70

~$0.12

RTX 3090

~$0.06

~$1.50

~$0.25

RTX 4090

~$0.10

~$2.30

~$0.40

A100 40GB

~$0.17

~$4.00

~$0.70

A100 80GB

~$0.25

~$6.00

~$1.00

Preise variieren je nach Anbieter und Nachfrage. Prüfen Sie CLORE.AI Marketplacearrow-up-right auf aktuelle Preise.

Geld sparen:

  • Verwenden Sie Spot Markt für flexible Workloads (oft 30–50% günstiger)

  • Bezahlen mit CLORE Token

  • Preise bei verschiedenen Anbietern vergleichen

Anwendungsfälle

  • Mathematik-Nachhilfe

  • Code-Unterstützung

  • Dokumentenanalyse (Vision)

  • Effiziente Edge-Bereitstellung

  • Kosteneffiziente Inferenz

Nächste Schritte

  • Qwen2.5 - alternatives Modell

  • Gemma 2 - Googles Modell

  • Llama 3.2 - Metas Modell

Zuletzt aktualisiert

War das hilfreich?