Effectuer l’apprentissage d’un détecteur d’objets
La détection d’objets est une forme de vision machine dans laquelle un modèle est formé pour détecter la présence et l’emplacement d’une ou plusieurs classes d’objets dans une image.

Il existe deux composants dans une prédiction de détection d’objet :
- L’étiquette de classe de chaque objet détecté dans l’image. Par exemple, vous pouvez vérifier qu’une image contient une pomme, une orange et une banane.
- L’emplacement de chaque objet dans l’image, indiqué sous forme de coordonnées d’un cadre englobant qui englobe l’objet.
Pour entraîner un modèle de détection d’objet, vous pouvez utiliser le portail Azure AI Custom Vision pour charger et étiqueter des images avant l’apprentissage, l’évaluation, le test et la publication du modèle ; ou vous pouvez utiliser l’API REST ou un SDK spécifique au langage pour écrire du code qui effectue les tâches d’entraînement.
Étiquetage d’images
Vous pouvez utiliser Azure AI Custom Vision pour créer des projets pour la classification d’images ou la détection d’objets. La différence la plus significative entre l’entraînement d’un modèle de classification d’images et l’apprentissage d’un modèle de détection d’objet est l’étiquetage des images avec des balises. Bien que la classification d’images nécessite une ou plusieurs balises qui s’appliquent à l’image entière, la détection d’objets nécessite que chaque étiquette se compose d’une balise et d’une région qui définit le cadre englobant pour chaque objet d’une image.
Étiquetage d’images dans le portail Azure AI Custom Vision
Le portail Azure AI Custom Vision fournit une interface graphique que vous pouvez utiliser pour étiqueter vos images d’entraînement.

L’option la plus simple pour étiqueter des images pour la détection d’objets consiste à utiliser l’interface interactive dans le portail Azure AI Custom Vision. Cette interface suggère automatiquement des régions qui contiennent des objets, auxquelles vous pouvez affecter des balises ou ajuster en faisant glisser la zone englobante pour placer l’objet que vous souhaitez étiqueter.
De plus, après avoir étiqueté un lot initial d’images, vous pouvez entraîner le modèle. L’étiquetage ultérieur de nouvelles images peut tirer parti de l’outil d’étiquetage intelligent dans le portail, qui peut suggérer non seulement les régions, mais les classes d’objet qu’elles contiennent.
Autres approches d’étiquetage
Vous pouvez également utiliser un outil d’étiquetage personnalisé ou tiers ou choisir d’étiqueter manuellement des images pour tirer parti d’autres fonctionnalités, telles que l’attribution de tâches d’étiquetage d’images à plusieurs membres de l’équipe.
Si vous choisissez d’utiliser un outil d’étiquetage autre que le portail Azure AI Custom Vision, vous devrez peut-être ajuster la sortie pour qu’elle corresponde aux unités de mesure attendues par l’API Azure AI Custom Vision. Les cadres englobants sont définis par quatre valeurs qui représentent les coordonnées gauche (X) et supérieure (Y) de l’angle supérieur gauche du rectangle englobant, ainsi que la largeur et la hauteur du cadre englobant. Ces valeurs sont exprimées sous forme de valeurs proportionnelles par rapport à la taille de l’image source. Par exemple, prenons ce cadre englobant :
- Gauche : 0.1
- Haut : 0,5
- Largeur : 0,5
- Hauteur : 0,25
Ceci définit une zone dans laquelle la gauche se trouve à 0,1 (un dixième) à partir du bord gauche de l’image, tandis que le haut est à 0,5 (la moitié de la hauteur de l’image) à partir du haut. La boîte fait la moitié de la largeur et un quart de la hauteur de l’image globale.
L’image suivante montre les informations d’étiquetage au format JSON pour les objets d’une image.
