Überblick

Selbstgehostete AI-Coding-Tools auf Clore.ai GPUs

Miete eine GPU auf Clore.ai, betreibe ein lokales LLM über Ollama oder vLLM und verbinde einen Coding-Assistenten — du erhältst eine vollständig private KI-Entwicklungsumgebung in der dein Code die Maschine niemals verlässt. Keine API-Schlüssel zu verwalten, keine Token-Limits, keine Daten an Drittanbieter-Server gesendet.

So funktioniert es

Clore.ai GPU  →  Ollama / vLLM (lokales LLM)  →  Coding-Tool (Aider, TabbyML)
                     ↑                              ↑
              RTX 4090 / A100               verbindet über localhost:11434 oder :8000
  1. Miete eine GPU auf clore.ai/marketplacearrow-up-right — RTX 3090 (0,30–1 $/Tag) oder RTX 4090 (0,50–2 $/Tag)

  2. Ein LLM bereitstellenollama run deepseek-r1:32b oder starte vLLM mit jedem auf Coding ausgerichteten Modell

  3. Starte dein Coding-Tool — es kommuniziert mit dem LLM über localhost, vervollständigt Code, schreibt Tests und refaktoriert

Verfügbare Anleitungen

Anleitung
Tool
Beschreibung

Aider

Terminalbasierter KI-Pair-Programmierer — bearbeitet Dateien in deinem Repo direkt per natürlicher Sprache

Tabby

Self-hosted Code-Vervollständigungsserver mit IDE-Erweiterungen (VS Code, JetBrains)

Warum selbst hosten auf Clore.ai?

  • Datenschutz — dein Code bleibt auf der gemieteten Instanz, nicht auf OpenAI-/Anthropic-Servern

  • Keine Ratenbegrenzungen — unbegrenzte Vervollständigungen in GPU-Geschwindigkeit

  • Kostenkontrolle — bezahle stunden- oder tagesweise, herunterfahren bei Inaktivität

  • Modellwahl — betreibe jedes offene Modell: DeepSeek-R1, Qwen 2.5 Coder, CodeLlama, StarCoder2

Zuletzt aktualisiert

War das hilfreich?