home
Rechercher
Construire pour l'UX : connecter le regard aux objets de l'interface utilisateur

Article d'apprentissage

Construire pour l'UX : connecter le regard aux objets de l'interface utilisateur

Vous avez décidé qu'il était temps d'essayer l'entrée utilisateur (UI) avec l'eye tracking. Vous avez peut-être vu la technologie eye tracking dans des produits de Sony, Meta ou Apple, et vous vous êtes peut-être dit "ne serait-ce pas génial si..." en imaginant le contrôle d'applications et l'interaction avec des objets par des mouvements oculaires. Après tout, rien n'est plus rapide que de jeter un coup d'œil pour choisir un article.

Une fois que vous aurez commencé à expérimenter l'entrée par le regard, il deviendra évident que ce n'est pas comme concevoir pour une souris ou un écran tactile. Vos yeux sont toujours en mouvement. Même lorsqu'ils sont au repos (c'est-à-dire lorsqu'ils sont fixés), il y a de petits mouvements involontaires que vous pouvez découvrir dans Mouvement oculaire : Types et fonctions expliqués .

En outre, il existe toujours une certaine incertitude quant à l'endroit où l'utilisateur regarde réellement par rapport à l'endroit où l'eye tracker ou l'Oculomètres indique que l'utilisateur regarde. La quantité d'erreur dépend à la fois du matériel d'eye tracking et de la personne suivie. Ces caractéristiques du mouvement des yeux et de la qualité du signal d'entrée ajoutent des défis uniques à la création d'interfaces pilotées par le regard.

Dans cet article, nous verrons comment le concept de base de l'interface utilisateur qu'est le pointage nécessite un traitement particulier lors de la création d'interfaces avec des entrées basées sur l'œil.

Que regarde l'utilisateur ?

La fonction de base d'un Eye Tracker ou Oculomètre est d'indiquer au système où l'utilisateur regarde. En général, cette information est déterminée par un vecteur spatial provenant de l'œil, le vecteur du regard . Le regard de l'utilisateur peut être fourni aux Applications sous la forme d'un point à l'écran, la position du regard . Lorsque le vecteur du regard s'aligne sur un élément interactif, il devient focalisé.

La mise en œuvre la plus simple du contrôle du regard pour une interface utilisateur à l'écran consisterait à utiliser la position du regard à la place de la position de la souris, puis à ajouter un mécanisme d'activation tel qu'un geste ou une pression sur un bouton. La version la plus simple du contrôle du regard en 3D consisterait à lancer des rayons à partir du vecteur du regard plutôt que du contrôleur ou de la main. Bien que l'approche soit simple, il y a des raisons pour lesquelles le regard n'est pas un substitut direct à l'entrée du pointeur à la main.

Examinons quelques différences importantes :

En quoi le regard est-il différent de la souris ou du toucher ?

Regard

Pointeur de la souris

Toucher

Résolution du ciblage humain

0,1 à 1 degré (1 à 10 dizaines de pixels)

0,1 degré (un seul pixel)

1 degré
(10's of pixels)

Résolution d'entrée (précision)

1 à 10 degrés (10 à 100s de pixels)

0,1 degré (pixels individuels)

1 degré (10's de pixels)

Stabilité de l'entrée (précision)

Moyenne

Très bonne

Bonne

Faible mouvement involontaire

Moyenne

Très bonne

Bonne

Vitesse de pointage

Très rapide

Moyenne

Rapide

Traçage et dessin fluides

Très médiocre

Moyen

Très bon

Fonction principale de l'interface utilisateur

Balayage

Pointer-cliquer

Tapez

Résolution et stabilité les plus faibles - Le regard mesuré peut différer du regard réel de
de plusieurs degrés ou plus . Tout comme les interfaces tactiles ont besoin de widgets plus grands que les interfaces pilotées par la souris pour s'adapter à des entrées de la taille du doigt, les interfaces pilotées par le regard ont besoin d'encore plus d'espace pour chaque widget. Considérons qu'un clavier tactile typique a la largeur d'un smartphone, alors qu'un clavier commandé par le regard s'étend sur un écran de tablette de taille normale.

Écart entre la résolution humaine et la résolution de l'entrée - Les yeux peuvent se concentrer sur de minuscules détails, tout comme un pointeur de souris, mais l'Eye tracking ne peut pas égaler la précision d'une souris. Le pointeur de souris classique à l'écran ne conviendrait pas à l'entrée par le regard, car il serait presque toujours décalé par rapport à l'endroit où l'utilisateur regarde et constituerait une distraction visuelle à proximité de la zone de focalisation. En tout état de cause, les gens n'ont pas besoin qu'on leur dise où ils regardent.

L' entrée est secondaire au balayage - Le regard a tendance à se déplacer partout en raison de son rôle principal de balayage de l'information visuelle. Les mécanismes de rétroaction et d'activation de l'utilisateur doivent être compatibles avec l'activité de balayage afin d'éviter le problème du "Midas Touch", où les utilisateurs activent involontairement des objets en les regardant.

Une discussion plus approfondie sur la conception de l'interface utilisateur avec l'eye tracking est disponible sur
Interaction Design Fundamentals .

Quelle est la meilleure façon de gérer l'imprécision des Eye Trackers ou Oculomètres ?

Vous vous demandez peut-être comment éviter la frustration de l'utilisateur lorsque la précision de l'eye tracking est faible et qu'il n'y a pas de pointeur visible pour aider l'utilisateur à s'auto-corriger. Examinons plusieurs techniques pour traiter les informations inexactes sur le regard.

Solution #1 - Des cibles plus grandes et pondérées au centre

Les cibles plus grandes sont plus faciles à cibler, mais les positions du regard proches de la limite risquent toujours de s'échapper en dehors de la cible. Par conséquent, les caractéristiques les plus visuellement saillantes doivent être situées vers le centre de la cible afin de guider le regard de l'utilisateur loin du bord.

Avantages

  • Facile et intuitif à mettre en œuvre

Inconvénients

  • Impact sur l'esthétique de l'interface utilisateur, en rendant les contrôles plus volumineux

  • Consomme plus d'espace à l'écran

  • Efficacité réduite à grande distance dans les interfaces utilisateur en 3D - les cibles rétrécissent avec la distance.

Quand utiliser

Si la conception est flexible, il s'agit d'une solution simple et robuste.

Solution #2 - Élargissement de la zone de chalandise

La zone active d'une cible de regard est agrandie de manière invisible pour capturer les positions du regard qui se trouvent juste à l'extérieur de la limite visuelle. Cette technique est utilisée dans les interfaces 2D et 3D pour faciliter l'activation des cibles de petite taille ou de forme irrégulière. La zone élargie est transparente, de sorte que la taille apparente de la cible ne change pas.

Avantages

  • Invisible, respecte la conception visuelle

  • Facile à mettre en œuvre par l'ajout de marges actives ou l'agrandissement de la maille de collision 3D

Inconvénients

  • Ne convient pas aux cibles qui se chevauchent ou qui sont étroitement espacées - l'espace vide autour des cibles devient un territoire interactif.

  • Difficile de garantir un espace libre autour des objets en 3D - les maillages de collision transparents au premier plan peuvent bloquer les cibles visibles à l'arrière-plan.

  • Il faut expérimenter pour trouver la bonne échelle de marge/collision.

Quand utiliser

Les marges actives sont idéales pour les interfaces utilisateur 2D basées sur des grilles, sans que les cibles ne se chevauchent ou ne se touchent. Elles peuvent fonctionner en 3D si les conditions sont acceptables.

Solution #3 - Direction du regard visible

Bien que problématique pour les raisons mentionnées ci-dessus, la visualisation de la direction du regard peut s'avérer utile dans certaines circonstances, par exemple lorsque l'interface utilisateur tolère des décalages du regard.

Avantages

  • Le retour d'information de la part des utilisateurs renforce généralement les stratégies d'utilisation.

Inconvénients

  • Distrayant et peu naturel

  • Peut frustrer les utilisateurs qui ont des décalages de regard plus importants.

  • Peut poser plus de problèmes qu'il n'en vaut la peine

Quand utiliser

Rarement, voire jamais. Si la conception de l'interaction bénéficie d'une estimation approximative du regard, par exemple pour mettre en évidence une zone de l'écran, l'affichage d'un effet de projecteur autour de la position du regard peut fournir un retour d'information pour les opérations de l'interface utilisateur tout en limitant les distractions. La région mise en évidence doit être suffisamment grande pour englober le regard réel de l'utilisateur.

Solution #4 - Désambiguïsation explicite

Comme dans les dialogues de confirmation, l'utilisateur est invité à clarifier ou à confirmer lorsque le système n'est pas sûr de l'intention de l'utilisateur.

Avantages

  • Gère les cas difficiles où le regroupement des cibles est inévitable

  • Modèle d'interaction familier qui peut être facile à apprendre

  • Moment de signature potentiel s'il est bien conçu

Inconvénients

  • Complexité de la conception et du développement

Quand utiliser

Cette technique est à envisager lorsque la disposition des cibles visuelles ne peut être contrôlée et que les fonctions de dialogue de l'interface utilisateur sont disponibles. La clarification peut utiliser un mécanisme d'entrée non visuel tel que la parole ou un geste corporel. En outre, un comportement sensible au contexte peut identifier et filtrer les cibles candidates afin de minimiser la complexité du dialogue.

Solution #5 - Algorithme d'apprentissage automatique

Cette technique utilise un algorithme qui reçoit des informations sur le regard et la scène afin de déterminer l'objet que l'utilisateur regarde. L'algorithme devrait idéalement être réglé pour gérer une variété de scénarios impliquant des objets de différentes tailles à différents endroits, éventuellement en mouvement.

Avantages

  • Invisible, respecte la conception visuelle

  • Aucune contrainte d'interface utilisateur concernant la taille minimale des cibles, les zones de dégagement ou le chevauchement des cibles.

  • Pas besoin d'ajuster les paramètres de conception pour obtenir les meilleurs résultats

Inconvénients

  • Ajoute une charge de calcul qui peut nécessiter des ressources supplémentaires

  • L'algorithme est une boîte noire et n'est pas nécessairement portable

Quand utiliser

Lorsque l'algorithme est disponible et adapté à l'application sur le plan du calcul, cette solution est rapide à mettre en œuvre et améliore immédiatement l'expérience utilisateur. Une mise en œuvre de cette technique est le G2OM (Gaze to Object Mapping) de Tobii disponible pour les applications Unity.

Résumé

L'interaction de l'utilisateur avec le regard est une évolution naturelle de l'humanisation des expériences informatiques. Les mouvements naturels de l'œil humain et la qualité variable du signal des dispositifs d'eye tracking créent de nouveaux défis pour une conception efficace de l'interface utilisateur. Les concepteurs et les développeurs peuvent améliorer la réussite, l'efficacité et le confort de l'utilisateur en mettant en œuvre des techniques d'interface utilisateur spécifiques à la saisie du regard.

Rédigé par

Lawrence Yau

Temps de lecture

12 min

Auteur

  • Lawrence Yau

    Lawrence Yau

    Architecte de solutions commerciales, Tobii

    Lawrence est actuellement architecte de solutions au sein de l'équipe commerciale XR, Intégration sous écran et Intégrations matérielles Automobile de Tobii, où il partage son enthousiasme et son savoir-faire sur les façons dont l'informatique de l'attention fusionnera les capacités de la technologie avec l'intention humaine. Chez Tobii, Lawrence est captivé par les nombreuses façons dont l'eye tracking permet des expériences numériques naturelles, offre des possibilités d'amélioration pour nous-mêmes et pour les autres, et modifie les comportements pour parvenir à des vies plus satisfaisantes et plus durables. Avec ces objectifs de transformation, il s'investit dans la réussite de ceux qui explorent et adoptent les technologies d'Eye tracking. Il est ravi de partager ses connaissances et sa passion avec la communauté XR. Sa curiosité intarissable pour l'humanisation de la technologie a mené sa carrière en facilitant l'intégration des technologies d'eye tracking, en développant des agents d'IA conversationnels, en concevant l'expérience utilisateur pour les applications de gouvernance des données, et en construisant des outils de livraison et de développement de l'apprentissage en ligne. Lawrence a obtenu son BE en génie électrique à la Cooper Union for the Advancement of Science and Art, et son MHCI à l'Institut d'interaction homme-machine de l'université Carnegie Mellon.

Vous pourriez aussi apprécier