Partager via


Suivi oculaire sur HoloLens 2

Démonstration de suivi oculaire dans MRTK

HoloLens 2 permet un nouveau niveau de compréhension du contexte et de l’homme dans l’expérience holographique en offrant aux développeurs la possibilité d’utiliser des informations sur ce que l’utilisateur regarde. Cette page explique comment les développeurs peuvent tirer parti du suivi oculaire pour différents cas d’usage et ce qu’il faut rechercher lors de la conception d’interactions utilisateur basées sur le regard.

L’API Eye Tracking a été conçue pour la confidentialité d’un utilisateur ; elle évite la transmission d’informations identifiables, en particulier de données biométriques. Pour les applications compatibles avec le suivi oculaire, l’utilisateur doit accorder à l’application l’autorisation d’utiliser les informations de suivi oculaire.

Prise en charge des appareils

Fonctionnalité HoloLens (1ère génération) HoloLens 2 Casques immersifs
Le regard ✔️

Démonstration des concepts de conception de suivi des têtes et des yeux

Si vous souhaitez voir les concepts de conception Head and Eye Tracking en action, case activée notre démonstration vidéo Conception d’hologrammes - Head Tracking and Eye Tracking ci-dessous. Une fois que vous avez terminé, poursuivez pour obtenir une présentation plus détaillée de sujets spécifiques.

Cette vidéo a été tirée de l’application « Conception d’hologrammes » HoloLens 2. Téléchargez et profitez de l’expérience complète ici.

Étalonnage

Pour que le suivi oculaire fonctionne avec précision, chaque utilisateur doit passer par un étalonnage utilisateur de suivi oculaire pour lequel l’utilisateur doit examiner un ensemble de cibles holographiques. Cela permet à l’appareil d’ajuster le système, ce qui se traduit par une expérience d’affichage plus confortable et de meilleure qualité pour l’utilisateur tout en garantissant un suivi oculaire précis en même temps.

Le suivi oculaire doit fonctionner pour la plupart des utilisateurs, mais il existe de rares cas où un utilisateur ne peut pas s’étalonner correctement. L’étalonnage peut échouer pour diverses raisons, notamment :

  • L’utilisateur a précédemment refusé le processus d’étalonnage.
  • L’utilisateur a été distrait et n’a pas suivi les cibles d’étalonnage.
  • L’utilisateur a certains types de lentilles de contact et de lunettes que le système ne prend pas encore en charge.
  • L’utilisateur a une certaine physiologie des yeux ou des conditions oculaires ou a eu une chirurgie oculaire, que le système ne prend pas encore en charge.
  • Facteurs externes inhibant un suivi oculaire fiable comme des taches sur la visière ou les lunettes HoloLens, la lumière du soleil directe intense, et les occlusions dues aux cheveux devant les yeux.

Les développeurs doivent veiller à fournir une prise en charge adéquate aux utilisateurs pour lesquels les données de suivi oculaire peuvent ne pas être disponibles (qui ne sont pas en mesure d’étalonner correctement). Nous avons fourni des recommandations pour les solutions de secours dans la section au bas de cette page.

Pour en savoir plus sur l’étalonnage et sur la façon de garantir une expérience fluide, consultez notre page d’étalonnage utilisateur de suivi oculaire .


Données de suivi oculaire disponibles

Le suivi oculaire sur HoloLens 2 permet aux développeurs de concevoir des scénarios d’entrée et d’interaction naturels et intuitifs. L’API de suivi oculaire fournit des informations sur ce que l’utilisateur regarde comme un seul rayon de regard (origine et direction du regard) à environ 30 FPS (30 Hz). Pour que le suivi oculaire fonctionne avec précision, chaque utilisateur doit passer par un étalonnage utilisateur de suivi oculaire. Pour plus d’informations sur l’accès aux données de suivi oculaire, reportez-vous à nos guides de développement pour l’utilisation du regard dans DirectX et du regard dans Unity.

Le regard prédit est d’environ 1,5 degré dans l’angle visuel autour de la cible réelle (voir l’illustration ci-dessous). De légères imprécisions sont attendues, de sorte que les développeurs doivent prévoir une certaine marge autour de cette valeur de limite inférieure (par exemple, 2,0-3,0 degrés peut entraîner une expérience beaucoup plus confortable). Nous allons expliquer comment traiter la sélection de petites cibles plus en détail ci-dessous.

Taille optimale de la cible à une distance de 2 mètres
Taille optimale de la cible à une distance de 2 mètres


Données de suivi oculaire étendu

Les API de suivi oculaire étendues permettent aux développeurs de déverrouiller le prochain niveau de scénarios innovants tels que l’évaluation de l’intégrité, la surveillance et la thérapie en fournissant des informations plus précises sur le regard de l’utilisateur.

Les API de suivi oculaire étendu permettent d’accéder aux valeurs de suivi oculaire existantes et aux nouvelles fonctionnalités telles que les vecteurs de regard individuels (gauche et droite), les fréquences d’images prises en charge et la possibilité de définir la fréquence d’images de suivi oculaire sur 30, 60 ou 90fps. Pour utiliser l’API de suivi oculaire étendu, reportez-vous à nos guides de développement pour l’utilisation des API de suivi oculaire étendu pour native ou Unity.

Cas d'utilisation

Le suivi oculaire permet aux applications de suivre où l’utilisateur recherche en temps réel. Les cas d’usage suivants décrivent certaines interactions possibles avec le suivi oculaire sur HoloLens 2 dans la réalité mixte. Ces cas d’usage ne font pas encore partie de l’expérience De l’interpréteur de commandes holographique (l’interface que vous voyez lorsque vous démarrez votre HoloLens 2). Vous pouvez essayer certaines d’entre elles dans le kit de ressources Mixed Reality. Le kit de ressources fournit plusieurs exemples intéressants et puissants pour l’utilisation du suivi oculaire, tels que des sélections de cibles prises en charge par les yeux rapides et sans effort et le défilement automatique du texte en fonction de ce que l’utilisateur regarde.

Intention de l’utilisateur

Les informations sur où et ce qu’un utilisateur regarde fournissent un contexte puissant pour d’autres entrées, telles que la voix, les mains et les contrôleurs. Cela peut être utilisé pour diverses tâches. Par exemple, l’utilisateur peut cibler rapidement et facilement sur la scène en regardant un hologramme et en disant « sélectionner » (voir aussi regarder et valider) ou « placer ceci... », puis regarder à l’endroit où il souhaite placer l’hologramme et dire « ... là-bas". Vous trouverez des exemples dans Mixed Reality Toolkit - Eye-supported Target Selection and Mixed Reality Toolkit - Eye-supported Target Positioning.

En outre, un exemple d’intention utilisateur peut inclure l’utilisation d’informations sur ce que les utilisateurs examinent pour améliorer l’engagement avec des agents virtuels incorporés et des hologrammes interactifs. Par exemple, les agents virtuels peuvent adapter les options disponibles et leur comportement, en fonction du contenu actuellement affiché.

Actions implicites

La catégorie d’actions implicites est étroitement liée à l’intention de l’utilisateur. L’idée est que les hologrammes ou les éléments de l’interface utilisateur réagissent d’une manière instinctive qui peut même ne pas avoir l’impression que l’utilisateur interagit avec le système, mais plutôt que le système et l’utilisateur sont synchronisés. Par exemple, le défilement automatique basé sur les yeux permet à l’utilisateur de lire un texte long qui commence automatiquement à faire défiler une fois que l’utilisateur arrive au bas de la zone de texte. Cela maintient l’utilisateur dans le flux de lecture sans lever un doigt. L’un des principaux aspects de ce processus est que la vitesse de défilement s’adapte à la vitesse de lecture de l’utilisateur.

Un autre exemple est le zoom et le panoramique pris en charge par les yeux , où l’utilisateur peut avoir l’impression de plonger exactement vers ce sur quoi il se concentre.

Le déclenchement et le contrôle de la vitesse de zoom peuvent être contrôlés par une entrée vocale ou manuelle, ce qui est important pour fournir à l’utilisateur une sensation de contrôle tout en évitant d’être submergé. Nous aborderons ces considérations de conception plus en détail ci-dessous. Une fois qu’il a zoomé, l’utilisateur peut suivre en douceur, par exemple, le cours d’une rue pour explorer son quartier en utilisant son regard. Vous trouverez des exemples de démonstration pour ces types d’interactions dans l’exemple Mixed Reality Toolkit - Eye-supported Navigation.

D’autres cas d’usage pour les actions implicites peuvent inclure :

  • Notifications intelligentes : Êtes-vous déjà ennuyé par les notifications qui apparaissent en plein milieu de votre vue ? Vous pouvez améliorer cette expérience en désactivant les notifications à partir des endroits où l’utilisateur observe actuellement. Cela limite les distractions et les ignore automatiquement une fois que l’utilisateur a terminé la lecture.
  • Hologrammes attentifs : Il s’agit d’hologrammes qui réagissent subtilement lorsqu’ils sont regardés. Cela peut aller d’éléments d’interface utilisateur légèrement lumineux à une fleur qui fleurit lentement à un chien virtuel qui commence à regarder en arrière l’utilisateur et à remue sa queue. Cette interaction peut fournir un sentiment intéressant de connectivité et de satisfaction dans votre application.

Suivi de l’attention

Les informations sur où et ce que les utilisateurs regardent peuvent être un outil extrêmement puissant. Il peut aider à évaluer la facilité d’utilisation des conceptions et à identifier les problèmes dans les flux de travail pour les rendre plus efficaces. La visualisation et l’analytique du suivi oculaire sont une pratique courante dans différents domaines d’application. Avec HoloLens 2, nous apportons une nouvelle dimension à cette compréhension : les hologrammes 3D peuvent être placés dans des contextes réels et évalués en conséquence.

Le kit de ressources Mixed Reality fournit des exemples de base pour la journalisation et le chargement des données de suivi oculaire et la façon de les visualiser.

Microsoft s’engage à faciliter l’innovation tout en veillant à ce que les utilisateurs disposent d’une expérience informée et transparente de la façon dont leurs informations de suivi oculaire sont utilisées. Nous continuerons à travailler avec nos développeurs et nos équipes d’expérience utilisateur pour fournir des conseils aux tiers afin de garantir que les expériences sont centrées sur l’utilisateur.

D’autres applications dans ce domaine peuvent inclure :

  • Visualisation à distance du regard : Visualisez ce que les collaborateurs distants regardent. Cela peut fournir des commentaires immédiats et faciliter le traitement des informations plus précises.
  • Études de recherche sur les utilisateurs : Le suivi de l’attention peut fournir des insights sur la façon dont les utilisateurs perçoivent et interagissent avec l’environnement naturel sans interférer. Cela peut aider les développeurs à concevoir des interactions homme-ordinateur plus instinctuelles. Le suivi oculaire peut fournir des informations qui ne sont pas directement articulées par les participants à l’étude et peuvent être facilement manquées par le chercheur.
  • Formation et surveillance des performances : Pratiquez et optimisez l’exécution des tâches en identifiant plus efficacement les goulots d’étranglement dans le flux d’exécution. Le suivi oculaire peut fournir des informations naturelles, en temps réel et objectives pour aider à améliorer la formation, la productivité et la sécurité sur le lieu de travail.
  • Évaluations de conception, marketing et recherche sur les consommateurs : Le suivi oculaire permet aux entreprises commerciales d’effectuer des études de marketing et de consommation dans des environnements réels ou d’analyser ce qui capte l’attention d’un utilisateur pour améliorer la conception du produit ou de l’espace.

Autres cas d’usage

  • Jeu: Avez-vous déjà voulu avoir des superpuissances ? Voilà votre chance !

Vous pouvez léviter les hologrammes en les regardant.

Tirez sur les rayons laser de vos yeux.

Transformer les ennemis en pierre ou les figer.

Utilisez votre vision par rayons X pour explorer les bâtiments.

Votre imagination est la limite ! Attention toutefois à ne pas surcharger l’utilisateur. Pour en savoir plus, consultez nos instructions de conception d’entrée basées sur le regard.

  • Avatars expressifs : Le suivi oculaire aide à utiliser des avatars 3D plus expressifs en utilisant des données de suivi oculaire en direct pour animer les yeux de l’avatar et les faire suivre ce que l’utilisateur regarde.

  • Entrée de texte : Le suivi oculaire peut être utilisé comme alternative pour la saisie de texte à faible effort, en particulier lorsque la parole ou les mains ne sont pas pratiques à utiliser.


Utilisation du regard pour l’interaction

Créer une interaction qui tire parti du ciblage oculaire rapide peut être difficile. Étant donné que les yeux peuvent se déplacer rapidement, si vous n’êtes pas prudent sur la façon d’utiliser l’entrée du regard, les utilisateurs peuvent trouver l’expérience écrasante ou distrayante. Mais cela vaut bien le défi, car le suivi oculaire vous permet de créer des expériences vraiment magiques qui vont exciter vos utilisateurs ! Pour vous aider, case activée notre vue d’ensemble des principaux avantages, des défis et des recommandations de conception pour l’interaction.

Solutions de secours lorsque le suivi oculaire n’est pas disponible

Dans de rares cas, les données de suivi oculaire peuvent ne pas être disponibles. Cela peut se produire pour plusieurs raisons : les plus courantes sont répertoriées ci-dessous :

  • Le système n’a pas pu étalonner l’utilisateur.
  • L’utilisateur a ignoré l’étalonnage.
  • L’utilisateur est étalonné, mais a décidé de ne pas autoriser votre application à utiliser ses données de suivi oculaire.
  • L’utilisateur a des lunettes uniques ou une condition oculaire que le système ne prend pas encore en charge.
  • Facteurs externes inhibant un suivi oculaire fiable comme des taches sur la visière ou les lunettes HoloLens, la lumière du soleil directe intense, et les occlusions en raison des cheveux devant les yeux.

Les développeurs doivent s’assurer qu’il existe une prise en charge de secours appropriée pour ces utilisateurs. Dans la page Suivi oculaire dans DirectX , nous expliquons les API nécessaires pour détecter si des données de suivi oculaire sont disponibles.

Certains utilisateurs peuvent décider qu’une plus grande confidentialité est plus importante pour eux que l’expérience améliorée que le suivi oculaire peut fournir, de sorte qu’ils révoquent intentionnellement l’accès à leurs données de suivi oculaire. Toutefois, dans certains cas, cette révocation peut être involontaire. Si votre application utilise le suivi oculaire et qu’il s’agit d’une partie importante de l’expérience, nous vous recommandons de le communiquer clairement à l’utilisateur. Expliquer à l’utilisateur comment le suivi oculaire déverrouille le plein potentiel de votre application peut l’aider à mieux comprendre ce qu’il abandonne. Si le suivi oculaire est activé mais ne fonctionne pas, aidez l’utilisateur à identifier et à résoudre le problème en utilisant la liste de contrôle ci-dessus comme guide. Par exemple, si vous pouvez détecter que le système prend en charge le suivi oculaire et que l’utilisateur est étalonné et a donné son autorisation, mais qu’aucune donnée de suivi oculaire n’est reçue, cela peut indiquer des problèmes tels que des taches ou des yeux obstrués.

Il y a de rares cas où le suivi oculaire ne fonctionne pas pour quelqu’un et il n’y a aucune raison évidente. Respectez cela en autorisant l’utilisateur à ignorer ou désactiver les rappels pour activer le suivi oculaire dans votre application.

Revenir en arrière pour les applications qui utilisent le pointeur visuel comme pointeur d’entrée principal

Si votre application utilise le regard comme entrée de pointeur pour sélectionner rapidement des hologrammes dans la scène, alors que les données de suivi oculaire ne sont pas disponibles, nous vous recommandons de revenir au pointeur et d’afficher le curseur du regard. Nous vous recommandons d’utiliser un délai d’expiration (par exemple, 500 à 1500 ms) pour déterminer s’il faut basculer ou non. Cette action empêche les curseurs d’apparaître chaque fois que le système peut perdre brièvement le suivi en raison de mouvements rapides des yeux ou de clins d’œil et de clignotements. Si vous êtes développeur Unity, le secours automatique au regard tête est déjà géré dans le kit de ressources Mixed Reality. Si vous êtes développeur DirectX, vous devez gérer ce commutateur vous-même.

Revenir en arrière pour d’autres applications spécifiques au suivi oculaire

Votre application peut utiliser le regard d’une manière unique qui est adaptée spécifiquement aux yeux, par exemple en animant les yeux d’un avatar ou des cartes thermiques d’attention basées sur les yeux qui s’appuient sur des informations précises sur l’attention visuelle. Dans ce type de cas, il n’y a pas de secours clair. Si le suivi oculaire n’est pas disponible, ces fonctionnalités doivent peut-être être désactivées. Là encore, nous vous recommandons de le communiquer clairement à l’utilisateur, qui peut ne pas savoir que la fonctionnalité ne fonctionne pas.


Nous espérons que cette page vous a fourni une bonne vue d’ensemble pour vous aider à comprendre le rôle du suivi oculaire et de l’entrée du regard pour le HoloLens 2. Pour commencer à développer, case activée nos informations sur le rôle du regard-regard pour interagir avec les hologrammes, le regard dans Unity et le regard dans DirectX.

Voir aussi