Detección YOLOv9/v10

Detección de objetos en tiempo real de vanguardia — entrena y despliega los últimos modelos YOLO en GPU

YOLO (You Only Look Once) sigue siendo el estándar de oro para la detección de objetos en tiempo real. YOLOv9 introdujo Información de Gradiente Programable (PGI) y la Red de Agregación de Capas Eficiente Generalizada (GELAN), mientras que YOLOv10 trajo detección sin NMS con asignaciones de etiquetas duales. Ambos ofrecen compensaciones de precisión/velocidad de primer nivel en GPUs NVIDIA.


YOLOv9 vs YOLOv10 vs YOLOv8 — Comparación rápida

Modelo
mAP50-95
Velocidad (A100)
Parámetros
NMS

YOLOv8x

53.9

14.2ms

68.2M

Requerido

YOLOv9e

55.6

16.8ms

57.3M

Requerido

YOLOv10x

54.4

10.7ms

29.5M

Libre

YOLOv10b

53.0

8.8ms

19.1M

Libre

YOLOv10s

46.8

4.2ms

7.2M

Libre

circle-check

Casos de uso

  • Seguridad y vigilancia — detección en tiempo real de personas/vehículos/objetos

  • Vehículos autónomos — detección de peatones y obstáculos

  • Control de calidad en manufactura — detección de defectos en líneas de producción

  • Analítica minorista — flujo de clientes y detección de productos

  • Imágenes médicas — detección de anomalías en radiografías y escaneos

  • Analítica deportiva — seguimiento de jugadores y pelota

  • Agricultura — detección de enfermedades de cultivos y plagas


Prerrequisitos

  • Cuenta de Clore.ai con alquiler de GPU

  • Datos de entrenamiento (para entrenar un modelo personalizado) o usar pesos preentrenados de COCO

  • Conocimientos básicos de Python y línea de comandos


Paso 1 — Alquila una GPU en Clore.ai

  1. Ve a clore.aiarrow-up-rightMarketplace

  2. Elige la GPU según tu tarea:

    • Solo inferencia: RTX 3080/3090 o RTX 4080 — excelente relación precio/rendimiento

    • Entrenamiento de modelos pequeños: RTX 4090 24GB

    • Entrenamiento de modelos grandes (YOLOv9e/YOLOv10x): A100 40/80GB

circle-info

Para inferencia en tiempo real (flujos de video), la RTX 3090 o la RTX 4090 ofrecen 100–500 FPS dependiendo de la variante del modelo. Incluso la más pequeña YOLOv10n funciona a más de 1000 FPS en una 4090 con TensorRT.


Paso 2 — Desplegar el contenedor de Ultralytics

La imagen Docker oficial de Ultralytics admite YOLOv8, YOLOv9 y YOLOv10 a través de una API unificada:

Imagen Docker:

Puertos:

Variables de entorno:

Disco: 20GB mínimo (pesos preentrenados + tu conjunto de datos)


Paso 3 — Conectar y verificar


Paso 4 — Inferencia rápida con modelos preentrenados

Inferencia YOLOv10 (sin NMS)

Inferencia YOLOv9

Inferencia en flujo de video en tiempo real


Paso 5 — Entrenar un modelo personalizado

Prepara tu conjunto de datos

YOLO usa una estructura de directorios y un formato de etiquetas específicos:

Cada archivo de etiqueta (mismo nombre que la imagen, .txt extensión) contiene:

Crear configuración del conjunto de datos

Importar desde Roboflow (Recomendado)

Entrenar YOLOv10

Entrenar YOLOv9

circle-info

Consejos de entrenamiento:

  • Tamaño de lote: Comienza con batch=16 para RTX 4090, batch=32 para A100 40GB

  • Tamaño de imagen: imgsz=640 es estándar; usa 1280 para tareas de alta resolución

  • Épocas: 100 épocas es típico para fine-tuning, 300+ para entrenar desde cero

  • AMP (Precisión Mixta): Siempre habilita amp=True para 1.5–2x de aceleración


Paso 6 — Exportar a TensorRT para máxima velocidad

Exportar a ONNX


Paso 7 — Servir como API REST


Paso 8 — Validar y medir el rendimiento de tu modelo


Descargar resultados


Solución de problemas

CUDA fuera de memoria durante el entrenamiento

Velocidad de entrenamiento lenta

Bajo mAP / Detección deficiente


Referencia de rendimiento (GPUs de Clore.ai)

Modelo
GPU
Lote
FPS (inferencia)
mAP50-95

YOLOv10n

RTX 3090

1

1,200

38.5

YOLOv10s

RTX 3090

1

780

46.8

YOLOv10m

RTX 4090

1

950

51.3

YOLOv10x

RTX 4090

1

380

54.4

YOLOv9e

A100 40G

1

720

55.6

YOLOv10x TRT

RTX 4090

1

920

54.2


Recursos adicionales


YOLOv9 y YOLOv10 en los alquileres de GPU de Clore.ai ofrecen una vía asequible para entrenar modelos personalizados de detección de objetos y desplegar canalizaciones de inferencia en tiempo real — sin la sobrecarga de AWS SageMaker o Google Vertex AI.


Recomendaciones de GPU en Clore.ai

Caso de uso
GPU recomendada
Coste estimado en Clore.ai

Desarrollo/Pruebas

RTX 3090 (24GB)

~$0.12/gpu/hr

Inferencia en Producción

RTX 4090 (24GB)

~$0.70/gpu/hr

Entrenamiento con lotes grandes

A100 80GB

~$1.20/gpu/hr

💡 Todos los ejemplos en esta guía pueden desplegarse en Clore.aiarrow-up-right servidores GPU. Navega las GPUs disponibles y alquila por hora — sin compromisos, acceso root completo.

Última actualización

¿Te fue útil?