Aider AI-Codierung

Terminalbasiertes AI-Coding mit Aider auf Clore.ai — Git-bewusst, mehrdateifähig, lokale Modelle über Ollama

Aider ist ein terminalbasiertes KI-Coding-Assistenztool mit über 39.000 GitHub-Sternen. Es bearbeitet Dateien direkt in Ihrem Repository, erstellt automatisch Git-Commits und unterstützt sowohl Cloud-APIs (OpenAI, Anthropic) als auch vollständig lokale Modelle über Ollama. Auf einer Clore.ai-GPU können Sie große Codiermodelle wie DeepSeek-R1 32B oder Qwen2.5-Coder-32B vollständig auf Ihrer eigenen Hardware ausführen — privat, schnell und kosteneffizient.

circle-check

Hauptmerkmale

  • Terminal-nativ — funktioniert über SSH, perfekt für headless Clore.ai-Server

  • Git-bewusst — commitet jede Änderung automatisch mit beschreibenden Nachrichten, leicht zu prüfen und rückgängig zu machen

  • Mehrfach-Dateibearbeitung — fügen Sie mehrere Dateien in den Kontext hinzu und bearbeiten Sie sie gleichzeitig

  • Unterstützung für lokale Modelle — verbinden Sie sich mit Ollama für vollständig private Codierung ohne API-Kosten

  • Architekt-Modus — verwenden Sie ein starkes Reasoning-Modell zum Planen und ein schnelles Modell zur Umsetzung

  • Repository-Karte — indexiert automatisch Ihre Codebasis für kontextbewusste Änderungen

  • Linting und Tests — führen Sie Linter/Tests nach jeder Änderung aus, beheben Sie Fehler automatisch

  • Spracheingabe — Diktieren von Programmieranweisungen per Mikrofon

Anforderungen

Komponente
Minimum
Empfohlen

GPU

RTX 3060 12 GB

RTX 4090 24 GB

VRAM

12 GB

24 GB

RAM

16 GB

32 GB

Festplatte

30 GB

60 GB

Python

3.9

3.11

Clore.ai-Preise: RTX 4090 ≈ $0.5–2/Tag · RTX 3090 ≈ $0.3–1/Tag · RTX 3060 ≈ $0.15–0.3/Tag

Für ausschließlich Cloud-Modelle (keine lokale Inferenz) ist eine GPU nicht erforderlich — aber Clore.ai-GPUs ermöglichen es Ihnen, Ollama-Modelle lokal auszuführen für vollständige Privatsphäre.

Schnellstart

1. Aider installieren

2. Ollama für lokale Modelle einrichten

3. Aider mit einem lokalen Modell starten

4. Mit dem Coden beginnen

Innerhalb des Aider-REPL:

Aider wird:

  1. Die Dateien lesen und die Codebasis verstehen

  2. Änderungen als Diff vorschlagen

  3. Die Änderungen auf der Festplatte anwenden

  4. Einen Git-Commit mit einer beschreibenden Nachricht erstellen

Beispielanwendungen

Architekt-Modus (Zwei-Modell-Setup)

Verwenden Sie ein starkes Modell für Reasoning und ein schnelles Modell für Codegenerierung:

Das Architekt-Modell plant die Änderungen, und das Editor-Modell schreibt den eigentlichen Code — kombiniert hochwertige Reasoning-Fähigkeiten mit schneller Umsetzung.

Dateien hinzufügen und bearbeiten

Mit Cloud-APIs verwenden

Git-Integration

Lint und Auto-Fix

Nicht-interaktiver (geskripteter) Modus

Modell-Empfehlungen

Modell
VRAM
Geschwindigkeit
Qualität
Am besten geeignet für

deepseek-r1:32b

~20 GB

Mittel

Hoch

Komplexes Refactoring

qwen2.5-coder:32b

~20 GB

Mittel

Hoch

Code-Generierung

qwen2.5-coder:7b

~5 GB

Schnell

Gut

Schnelle Änderungen, RTX 3060

codellama:34b

~20 GB

Mittel

Gut

Legacy-Code, C/C++

deepseek-coder-v2:16b

~10 GB

Schnell

Gut

Ausgewogene Leistung

Tipps

  • Verwenden Sie /add selektiv — fügen Sie nur Dateien hinzu, die Aider sehen muss. Zu viele Dateien verschwenden Kontext-Token

  • Architekt-Modus ist leistungsstark für komplexe Änderungen — das Reasoning-Modell erkennt Randfälle, die das Editor-Modell möglicherweise übersieht

  • /undo macht die letzte Änderung sauber über Git rückgängig — experimentieren Sie frei

  • /diff zeigt die vorgeschlagenen Änderungen vor dem Anwenden — zur Überprüfung verwenden

  • Setze --auto-commits (Standard) für vollständige Git-Historie jeder KI-Änderung

  • Verwenden Sie .aiderignore um Dateien von der Repo-Karte auszuschließen (node_modules, .venv, etc.)

  • Für große Repositories, Aiders Repo-Karte hilft dem Modell, die Code-Struktur zu verstehen — lassen Sie sie beim ersten Laden laufen

  • Tests nach Änderungen ausführen/test pytest erkennt Regressionen sofort

Fehlerbehebung

Problem
Lösung

Ollama-Modell zu langsam

Verwenden Sie eine kleinere Quantisierung (q4_0) oder ein kleineres Modell

CUDA out of memory mit Ollama

Ziehen Sie eine kleinere Modellvariante oder verwenden Sie OLLAMA_NUM_GPU=0 für die CPU

Git-Commit-Fehler

Stelle sicher, dass git config user.email und user.name sind gesetzt

Aider ignoriert meine Dateien

Verwenden Sie /add filename.py explizit — Aider bearbeitet nur hinzugefügte Dateien

Modell produziert schlechte Änderungen

Versuchen Sie ein stärkeres Modell oder verwenden Sie den Architekt-Modus

Verbindung verweigert (Ollama)

Stellen Sie sicher, dass Ollama läuft: ollama serve oder systemctl start ollama

Kontextfenster überschritten

Entfernen Sie Dateien mit /drop, behalten Sie nur relevante

Ressourcen

Zuletzt aktualisiert

War das hilfreich?