LLaMA-Factory
Тонкая настройка 100+ LLM с LoRA/QLoRA и веб-интерфейсом на GPU Clore.ai с использованием LLaMA-Factory
Требования к серверу
Параметр
Минимум
Рекомендуется
Быстрое развертывание на CLORE.AI
Переменная
Пример
Описание
Пошаговая настройка
1. Арендуйте GPU-сервер на CLORE.AI
Задача
VRAM
Рекомендуемый GPU
2. Подключитесь по SSH к вашему серверу
3. Создайте рабочие каталоги
4. Скачайте Docker-образ
5. Запустите LLaMA-Factory
6. Доступ к веб-интерфейсу
Примеры использования
Пример 1: LoRA дообучение через веб-интерфейс (LLaMA Board)
Пример 2: QLoRA дообучение через CLI
Пример 3: Загрузка собственного датасета
Пример 4: DPO (Direct Preference Optimization)
Пример 5: Инференс с дообученной моделью
Конфигурация
Ключевые параметры обучения
Параметр
Типичное значение
Описание
Поддерживаемые методы дообучения
Метод
Использование памяти
Качество
Когда использовать
Multi-GPU DeepSpeed обучение
Советы по производительности
1. Оптимальные настройки QLoRA по GPU
2. Flash Attention 2 для более длинного контекста
3. Gradient Checkpointing
4. Выберите правильную цель LoRA
5. Заморозьте верхние слои для быстрой адаптации
6. Мониторинг через TensorBoard
Устранение неполадок
Проблема: "CUDA out of memory" во время обучения
Проблема: Потеря при обучении не уменьшается
Проблема: Медленная скорость обучения
Проблема: Модель не найдена в веб-интерфейсе
Проблема: Ошибки формата датасета
Проблема: Порт WebUI недоступен
Ссылки
Рекомендации Clore.ai по GPU
Сценарий использования
Рекомендуемый GPU
Примерная стоимость на Clore.ai
Последнее обновление
Это было полезно?