LLaMA-Factory
Ajusta más de 100 LLMs con LoRA/QLoRA y una interfaz web en las GPU de Clore.ai usando LLaMA-Factory
Requisitos del servidor
Parámetro
Mínimo
Recomendado
Despliegue rápido en CLORE.AI
Variable
Ejemplo
Descripción
Configuración paso a paso
1. Alquila un servidor GPU en CLORE.AI
Tarea
VRAM
GPU recomendada
2. Conéctate por SSH a tu servidor
3. Crear directorios de trabajo
4. Obtener la imagen Docker
5. Lanzar LLaMA-Factory
6. Acceder a la interfaz web
Ejemplos de uso
Ejemplo 1: Ajuste fino LoRA mediante la UI web (LLaMA Board)
Ejemplo 2: Ajuste fino QLoRA desde CLI
Ejemplo 3: Subir conjunto de datos personalizado
Ejemplo 4: DPO (Optimización Directa por Preferencias)
Ejemplo 5: Inferencia con modelo ajustado
Configuración
Parámetros clave de entrenamiento
Parámetro
Valor típico
Descripción
Métodos de ajuste fino compatibles
Método
Uso de memoria
Calidad
Cuándo usar
Entrenamiento Multi-GPU con DeepSpeed
Consejos de rendimiento
1. Configuraciones QLoRA óptimas por GPU
2. Flash Attention 2 para contextos más largos
3. Gradient Checkpointing
4. Elija el objetivo LoRA correcto
5. Congelar capas superiores para adaptación rápida
6. Monitorear con TensorBoard
Solución de problemas
Problema: "CUDA out of memory" durante el entrenamiento
Problema: La pérdida de entrenamiento no disminuye
Problema: Velocidad de entrenamiento lenta
Problema: Modelo no encontrado en la UI web
Problema: Errores en el formato del conjunto de datos
Problema: Puerto WebUI no accesible
Enlaces
Recomendaciones de GPU en Clore.ai
Caso de uso
GPU recomendada
Coste estimado en Clore.ai
Última actualización
¿Te fue útil?