YOLOv11 offre une gamme diversifiée de modèles adaptés à des tâches spécifiques en vision par ordinateur. Les principaux types incluent :
- Modèles de Détection Standard : Ces modèles sont conçus pour la détection d’objets, désignés par des noms de fichiers comme
yolo11n.pt
,
yolo11s.pt.
- Modèles de Segmentation d’Instance : Ils gèrent la segmentation d’instance et sont désignés par un suffixe
-seg
, tel que
yolo11n-seg.pt.
- Modèles d’Estimation de Pose : Ces modèles estiment les poses et sont indiqués par le suffixe
-pose
, comme
yolo11n-pose.pt.
- Modèles de Boîtes Englobantes Orientées (OBB) : Conçus pour la détection d’objets orientés, ces modèles sont marqués par le suffixe
-obb
.
- Modèles de Classification : Ces modèles s’occupent des tâches de classification d’images et sont désignés par le suffixe
-cls
.
Modèles de Segmentation d’Instance (
-seg
)
Les modèles de segmentation d’instance dans YOLOv11 fournissent des contours ou des masques précis pour chaque objet détecté, dépassant ainsi le simple encadrement par boîtes . Ces modèles sont particulièrement utiles dans des applications où des informations de forme précises sont cruciales, comme dans l’imagerie médicale ou la conduite autonome . La sortie de la segmentation comprend des masques ou des contours, ainsi que des étiquettes de classe et des scores de confiance pour chaque objet, permettant ainsi de connaître non seulement la position des objets, mais aussi leurs formes exactes . Par rapport à d’autres modèles comme Mask R-CNN ou Faster R-CNN, les modèles de segmentation de YOLO11 offrent des performances en temps réel, une précision supérieure et une facilité d’utilisation [19:184].
Modèles d’Estimation de Pose (
-pose
)
Les modèles d’estimation de pose dans YOLO11 sont conçus pour identifier des points clés spécifiques, qui représentent généralement les articulations ou d’autres caractéristiques critiques des objets, en particulier des humains . La sortie se compose des coordonnées [x, y] et des scores de confiance pour chaque point clé, permettant ainsi une analyse de pose détaillée . Ces modèles se distinguent des autres modèles en se concentrant sur les poses humaines, ce qui permet une détection et un suivi précis des points clés. Ils sont entraînés sur le jeu de données COCO et introduisent une extraction de caractéristiques améliorée ainsi que des pipelines d’entraînement optimisés pour une meilleure vitesse et précision . Ils utilisent moins de paramètres que le modèle YOLOv8m, ce qui les rend efficaces sur le plan computationnel sans sacrifier la précision .
Principales Différences entre les Modèles de Segmentation et d’Estimation de Pose
- Type de Sortie :
- Les modèles de segmentation produisent des masques ou des contours entourant chaque objet détecté .
- Les modèles d’estimation de pose produisent des coordonnées [x, y] et des scores de confiance pour les points clés .
- Concentration sur les Applications :
- Les modèles de segmentation sont essentiels pour les tâches nécessitant des formes d’objets détaillées, comme l’imagerie médicale et la conduite autonome .
- Les modèles d’estimation de pose sont spécialisés pour l’analyse de poses humaines et les applications impliquant la détection de points clés .
- Caractéristiques de Performance :
- Les modèles de segmentation de YOLO11 offrent des performances en temps réel et une haute précision par rapport à des modèles comme Mask R-CNN .
- Les modèles d’estimation de pose fournissent un moyen efficace et précis de suivre et d’analyser les poses, grâce à une extraction de caractéristiques avancée et à des techniques d’entraînement optimisées .
Conclusion
YOLO11 propose des modèles spécialisés pour différentes tâches en vision par ordinateur. Les modèles de segmentation se concentrent sur les contours précis des objets, tandis que les modèles d’estimation de pose mettent l’accent sur la détection des points clés pour l’analyse des poses. Chaque type de modèle tire parti des avancées architecturales de YOLO11 pour offrir des performances, une précision et une efficacité élevées dans diverses applications.
Related Posts