Aider — AI-кодинг

Терминальный AI-кодинг с Aider на Clore.ai — осведомлённость о Git, многомодульная работа, локальные модели через Ollama

Aider — это терминальный AI-помощник для кодирования с более чем 39K звёзд на GitHub. Он редактирует файлы прямо в вашем репозитории, автоматически создаёт коммиты Git и поддерживает как облачные API (OpenAI, Anthropic), так и полностью локальные модели через Ollama. На GPU Clore.ai вы можете запускать крупные модели для кодирования, такие как DeepSeek-R1 32B или Qwen2.5-Coder-32B, полностью на вашем оборудовании — приватно, быстро и экономично.

circle-check

Ключевые особенности

  • Родной для терминала — работает по SSH, идеально для безголовых серверов Clore.ai

  • Осведомлён о Git — автоматически коммитит каждое изменение с описательными сообщениями, легко просматривать и откатывать

  • Редактирование нескольких файлов — добавляйте несколько файлов в контекст и редактируйте их одновременно

  • Поддержка локальных моделей — подключайтесь к Ollama для полностью приватного кодирования без затрат на API

  • Режим архитектора — используйте мощную модель для планирования, а быструю модель для реализации

  • Карта репозитория — автоматически индексирует ваш кодовый базис для редактирования с учётом контекста

  • Линтинг и тестирование — запускайте линтеры/тесты после каждого редактирования, автоматически исправляйте ошибки

  • Голосовой ввод — диктуйте инструкции по кодированию через микрофон

Требования

Компонент
Минимум
Рекомендуется

GPU

RTX 3060 12 ГБ

RTX 4090 24 ГБ

VRAM

12 ГБ

24 ГБ

ОЗУ

16 ГБ

32 ГБ

Диск

30 GB

60 ГБ

Python

3.9

3.11

Цены Clore.ai: RTX 4090 ≈ $0.5–2/день · RTX 3090 ≈ $0.3–1/день · RTX 3060 ≈ $0.15–0.3/день

Для только облачных моделей (без локального вывода) GPU не требуется — но GPU Clore.ai позволяет запускать модели Ollama локально для полной приватности.

Быстрый старт

1. Установите Aider

2. Настройте Ollama для локальных моделей

3. Запустите Aider с локальной моделью

4. Начните кодить

Внутри REPL Aider:

Aider будет:

  1. Прочитать файлы и понять кодовую базу

  2. Предложить изменения в виде diff

  3. Применить изменения на диск

  4. Создать Git-коммит с описательным сообщением

Примеры использования

Режим архитектора (настройка с двумя моделями)

Используйте мощную модель для рассуждений и быструю модель для генерации кода:

Модель-архитектор планирует изменения, а модель-редактор пишет фактический код — сочетая высокое качество рассуждений с быстрой реализацией.

Добавление файлов и редактирование

Использование с облачными API

Интеграция с Git

Линтинг и авто-исправление

Неинтерактивный (скриптовый) режим

Рекомендации по моделям

Модель
VRAM
Скорость
Качество
Лучше всего для

deepseek-r1:32b

≈20 ГБ

Средне

Высокий

Сложный рефакторинг

qwen2.5-coder:32b

≈20 ГБ

Средне

Высокий

Генерация кода

qwen2.5-coder:7b

~5 ГБ

Быстро

Хорошо

Быстрые правки, RTX 3060

codellama:34b

≈20 ГБ

Средне

Хорошо

Устаревший код, C/C++

deepseek-coder-v2:16b

~10 ГБ

Быстро

Хорошо

Сбалансированная производительность

Советы

  • Используйте /add избирательно — добавляйте только те файлы, которые Aider должен видеть. Слишком много файлов тратит токены контекста

  • Режим архитектора мощна для сложных изменений — модель рассуждений улавливает краевые случаи, которые модель-редактор может пропустить

  • /undo отменяет последнее изменение аккуратно через Git — экспериментируйте свободно

  • /diff показывает предложенные изменения перед применением — используйте для проверки

  • Установите --auto-commits (по умолчанию) для полной истории Git каждого изменения от ИИ

  • Используйте .aiderignore чтобы исключить файлы из карты репозитория (node_modules, .venv и т.д.)

  • Для больших репозиториев, карта репозитория Aider помогает модели понять структуру кода — дайте ей прогреться при первой загрузке

  • Запускайте тесты после правок/test pytest немедленно обнаруживает регрессии

Устранение неполадок

Проблема
Решение

Модель Ollama слишком медленная

Используйте меньшую квантизацию (q4_0) или меньшую модель

CUDA — недостаточно памяти с Ollama

Загрузите более компактный вариант модели или используйте OLLAMA_NUM_GPU=0 для CPU

Ошибки коммита Git

Убедитесь, что git config user.email и user.name установлены

Aider игнорирует мои файлы

Используйте /add filename.py явно — Aider редактирует только добавленные файлы

Модель даёт плохие правки

Попробуйте более мощную модель или используйте режим архитектора

Соединение отклонено (Ollama)

Убедитесь, что Ollama запущена: ollama serve или systemctl start ollama

Превышено окно контекста

Удалите файлы с помощью /drop, оставьте только релевантные

Ресурсы

Последнее обновление

Это было полезно?