Détection YOLOv9/v10

Détection d'objets en temps réel à la pointe — entraînez et déployez les derniers modèles YOLO sur GPU

YOLO (You Only Look Once) reste la référence pour la détection d'objets en temps réel. YOLOv9 a introduit l'Information de Gradient Programmable (PGI) et le Réseau d'Agrégation de Couches Efficace Généralisé (GELAN), tandis que YOLOv10 a apporté une détection sans NMS avec des affectations à double étiquette. Les deux offrent des compromis précision/vitesse de premier ordre sur les GPU NVIDIA.


YOLOv9 vs YOLOv10 vs YOLOv8 — Comparaison rapide

Modèle
mAP50-95
Vitesse (A100)
Paramètres
NMS

YOLOv8x

53.9

14,2 ms

68,2 M

Requis

YOLOv9e

55.6

16,8 ms

57,3 M

Requis

YOLOv10x

54.4

10,7 ms

29,5 M

Libre

YOLOv10b

53.0

8,8 ms

19,1 M

Libre

YOLOv10s

46.8

4,2 ms

7,2 M

Libre

circle-check

Cas d'utilisation

  • Sécurité et surveillance — détection en temps réel de personnes/véhicules/objets

  • Véhicules autonomes — détection de piétons et d'obstacles

  • Contrôle qualité en production — détection de défauts sur les lignes de production

  • Analyse du commerce de détail — flux de clients et détection de produits

  • Imagerie médicale — détection d'anomalies dans les radiographies et les scanners

  • Analyse sportive — suivi des joueurs et de la balle

  • Agriculture — détection des maladies des cultures et des parasites


Prérequis

  • Compte Clore.ai avec location de GPU

  • Données d'entraînement (pour l'entraînement de modèles personnalisés) ou utiliser des poids pré-entraînés COCO

  • Connaissances de base en Python et en ligne de commande


Étape 1 — Louez un GPU sur Clore.ai

  1. Aller à clore.aiarrow-up-rightPlace de marché

  2. Choisissez le GPU en fonction de votre tâche :

    • Uniquement inférence : RTX 3080/3090 ou RTX 4080 — excellent rapport prix/performance

    • Entraînement de petits modèles : RTX 4090 24GB

    • Entraînement de grands modèles (YOLOv9e/YOLOv10x) : A100 40/80GB

circle-info

Pour l'inférence en temps réel (flux vidéo), le RTX 3090 ou le RTX 4090 offre 100–500 FPS selon la variante du modèle. Même le plus petit YOLOv10n tourne à plus de 1000 FPS sur un 4090 avec TensorRT.


Étape 2 — Déployer le conteneur Ultralytics

L'image Docker officielle d'Ultralytics prend en charge YOLOv8, YOLOv9 et YOLOv10 via une API unifiée :

Image Docker :

Ports :

Variables d’environnement :

Disque : 20 Go minimum (poids pré-entraînés + votre jeu de données)


Étape 3 — Se connecter et vérifier


Étape 4 — Inférence rapide avec des modèles pré-entraînés

Inférence YOLOv10 (sans NMS)

Inférence YOLOv9

Inférence en flux vidéo en temps réel


Étape 5 — Entraîner un modèle personnalisé

Préparez votre jeu de données

YOLO utilise une structure de répertoires spécifique et un format d'étiquettes :

Chaque fichier d'étiquette (même nom que l'image, .txt extension) contient :

Créer la configuration du jeu de données

Importer depuis Roboflow (recommandé)

Entraîner YOLOv10

Entraîner YOLOv9

circle-info

Conseils d'entraînement :

  • Taille de lot : Commencez avec batch=16 pour RTX 4090, batch=32 pour A100 40GB

  • Taille d'image : imgsz=640 est standard ; utilisez 1280 pour les tâches à haute résolution

  • Époques : 100 époques est typique pour le fine-tuning, 300+ pour l'entraînement depuis zéro

  • AMP (Précision mixte) : Toujours activer amp=True pour un gain de vitesse de 1,5–2x


Étape 6 — Exporter vers TensorRT pour une vitesse maximale

Exporter en ONNX


Étape 7 — Servir en tant qu'API REST


Étape 8 — Valider et benchmarker votre modèle


Télécharger les résultats


Dépannage

CUDA Out of Memory pendant l'entraînement

Vitesse d'entraînement lente

mAP faible / Mauvaise détection


Référence de performance (GPU Clore.ai)

Modèle
GPU
Batch
FPS (inférence)
mAP50-95

YOLOv10n

RTX 3090

1

1,200

38.5

YOLOv10s

RTX 3090

1

780

46.8

YOLOv10m

RTX 4090

1

950

51.3

YOLOv10x

RTX 4090

1

380

54.4

YOLOv9e

A100 40G

1

720

55.6

YOLOv10x TRT

RTX 4090

1

920

54.2


Ressources supplémentaires


YOLOv9 et YOLOv10 sur les locations GPU Clore.ai offrent une voie abordable pour entraîner des modèles de détection d'objets personnalisés et déployer des pipelines d'inférence en temps réel — sans la surcharge d'AWS SageMaker ou Google Vertex AI.


Recommandations GPU Clore.ai

Cas d’utilisation
GPU recommandé
Coût estimé sur Clore.ai

Développement/Test

RTX 3090 (24GB)

~$0.12/gpu/hr

Inférence en production

RTX 4090 (24GB)

~$0.70/gpu/hr

Entraînement en gros lot

A100 80GB

~$1.20/gpu/hr

💡 Tous les exemples de ce guide peuvent être déployés sur Clore.aiarrow-up-right serveurs GPU. Parcourez les GPU disponibles et louez à l’heure — sans engagement, avec accès root complet.

Mis à jour

Ce contenu vous a-t-il été utile ?