# Überblick

Miete eine GPU auf Clore.ai, betreibe ein lokales LLM über Ollama oder vLLM und verbinde einen Coding-Assistenten — du erhältst eine vollständig **private KI-Entwicklungsumgebung** in der dein Code die Maschine niemals verlässt. Keine API-Schlüssel zu verwalten, keine Token-Limits, keine Daten an Drittanbieter-Server gesendet.

## So funktioniert es

```
Clore.ai GPU  →  Ollama / vLLM (lokales LLM)  →  Coding-Tool (Aider, TabbyML)
                     ↑                              ↑
              RTX 4090 / A100               verbindet über localhost:11434 oder :8000
```

1. **Miete eine GPU** auf [clore.ai/marketplace](https://clore.ai/marketplace) — RTX 3090 (0,30–1 $/Tag) oder RTX 4090 (0,50–2 $/Tag)
2. **Ein LLM bereitstellen** — `ollama run deepseek-r1:32b` oder starte vLLM mit jedem auf Coding ausgerichteten Modell
3. **Starte dein Coding-Tool** — es kommuniziert mit dem LLM über localhost, vervollständigt Code, schreibt Tests und refaktoriert

## Verfügbare Anleitungen

| Anleitung                                                                  | Tool  | Beschreibung                                                                                               |
| -------------------------------------------------------------------------- | ----- | ---------------------------------------------------------------------------------------------------------- |
| [Aider](https://docs.clore.ai/guides/guides_v2-de/ki-coding-tools/aider)   | Aider | Terminalbasierter KI-Pair-Programmierer — bearbeitet Dateien in deinem Repo direkt per natürlicher Sprache |
| [TabbyML](https://docs.clore.ai/guides/guides_v2-de/ki-coding-tools/tabby) | Tabby | Self-hosted Code-Vervollständigungsserver mit IDE-Erweiterungen (VS Code, JetBrains)                       |

## Warum selbst hosten auf Clore.ai?

* **Datenschutz** — dein Code bleibt auf der gemieteten Instanz, nicht auf OpenAI-/Anthropic-Servern
* **Keine Ratenbegrenzungen** — unbegrenzte Vervollständigungen in GPU-Geschwindigkeit
* **Kostenkontrolle** — bezahle stunden- oder tagesweise, herunterfahren bei Inaktivität
* **Modellwahl** — betreibe jedes offene Modell: DeepSeek-R1, Qwen 2.5 Coder, CodeLlama, StarCoder2
