home
Buscar
Construir para la UX: conectar la mirada con los objetos de la interfaz de usuario

Artículo de aprendizaje

Construir para la UX: conectar la mirada con los objetos de la interfaz de usuario

Ha decidido que ha llegado el momento de probar la entrada de usuario (UI) con eye tracking. Tal vez haya visto la tecnología eye tracking en productos de Sony, Meta o Apple. Tal vez haya pensado "¿no sería increíble si...?" mientras imaginaba el control de aplicaciones y la interacción de objetos con movimientos oculares. Al fin y al cabo, no hay nada más rápido que lanzar una mirada para elegir un objeto.

Cuando empieces a experimentar con la introducción de datos a través de la mirada, te darás cuenta de que no es como diseñar para un ratón o una pantalla táctil. Los ojos siempre están en movimiento. Incluso cuando están en reposo (es decir, en fijación) se producen pequeños movimientos involuntarios que puedes conocer en Eye Movement: Tipos y funciones explicados .

Además, siempre hay cierta incertidumbre en torno a dónde está mirando realmente el usuario en comparación con dónde el eye tracker informa que está mirando el usuario. El grado de error depende tanto del hardware de eye tracking como de la persona a la que se sigue. Estas características del movimiento ocular y la calidad de la señal de entrada añaden retos únicos a la creación de interfaces basadas en la mirada.

En este artículo, aprenderemos cómo el concepto básico de interfaz de usuario de señalar requiere un manejo especial al crear interfaces con entrada basada en los ojos.

¿Qué está mirando el usuario?

La función básica de un Eye tracker es indicar al sistema hacia dónde mira el usuario. En general, esa información viene determinada por un vector en el espacio que se origina en el ojo, el vector de la mirada . La mirada del usuario puede proporcionarse a las aplicaciones como un punto en la pantalla, la posición de la mirada . Cuando el vector de la mirada se alinea con un elemento interactivo, éste se enfoca.

La implementación más sencilla del control de la mirada para una interfaz de usuario basada en pantalla consistiría en utilizar la posición de la mirada en lugar de la posición del ratón y, a continuación, añadir algún mecanismo de activación, como un gesto o la pulsación de un botón. La versión más sencilla del control de la mirada en 3D consistiría en lanzar un rayo desde el vector de la mirada en lugar de desde el controlador o la mano. Aunque el planteamiento es sencillo, hay razones por las que la mirada no puede sustituir a la entrada del puntero con la mano.

Veamos algunas diferencias importantes:

¿En qué se diferencia la mirada del ratón o del tacto?

Mirada

Puntero del ratón

Toque

Resolución del objetivo humano

0,1 a 1 grado (de 1 a decenas de píxeles)

0,1 grados (píxeles individuales)

1 grado
(10 píxeles)

Resolución de entrada (precisión)

De 1 a 10 grados (de 10 a 100 píxeles)

0,1 grados (píxeles individuales)

1 grado (decenas de píxeles)

Estabilidad de entrada (precisión)

Media

Muy buena

Buena

Bajo movimiento involuntario

Media

Muy bueno

Bueno

Velocidad de punteo

Muy rápida

Media

Rápida

Trazado y dibujo suaves

Muy pobre

Medio

Muy buena

Función principal de la interfaz de usuario

Escanear

Punto-clic

Toque

Resolución y estabilidad mínimas : la mirada medida puede diferir de la real en
varios grados o más . Del mismo modo que las interfaces táctiles necesitan widgets más grandes que las de ratón para acomodar entradas del tamaño de la punta de los dedos, las interfaces controladas por la mirada necesitan aún más espacio para cada widget. Pensemos que un teclado táctil típico tiene la anchura de un smartphone, mientras que un teclado controlado por la mirada abarca la pantalla de una tableta de tamaño completo.

Brecha entre la resolución humana y la de la entrada - Los ojos pueden centrarse en pequeños detalles, igual que un puntero de ratón, pero el eye tracking no puede igualar la precisión de un ratón. El puntero convencional de un ratón en pantalla sería inadecuado para utilizarlo con la mirada, ya que casi siempre estaría desplazado del lugar al que mira el usuario y supondría una distracción visual cerca de la zona de enfoque. En cualquier caso, la gente no necesita que le digan dónde está mirando.

La entrada es secundaria a la exploración - La mirada tiende a moverse por todas partes debido a su función principal de exploración de la información visual. Los mecanismos de retroalimentación y activación del usuario deben ser compatibles con la actividad de escaneado para evitar el problema del toque de Midas, en el que los usuarios activan involuntariamente objetos al mirarlos.

Encontrará más información sobre el diseño de interfaces de usuario con Eye tracking en
Interaction Design Fundamentals .

¿Cuál es la mejor manera de tratar la imprecisión del Eye tracker?

Es posible que se pregunte cómo evitar la frustración del usuario cuando la precisión del eye tracking es baja y no hay ningún puntero visible que ayude al usuario a autocorregirse. Veamos varias técnicas para tratar la información imprecisa de la mirada.

Solución nº 1 - Objetivos más grandes, ponderados al centro

Los objetivos más grandes son más fáciles de enfocar, sin embargo, las posiciones de la mirada cercanas al límite siguen corriendo el riesgo de escaparse fuera del objetivo. Por lo tanto, las características visualmente más destacadas deben situarse hacia el centro del objetivo para guiar la mirada del usuario lejos del borde.

Ventajas

  • Aplicación fácil e intuitiva

Desventajas

  • Afecta a la estética de la interfaz de usuario, haciendo que los controles parezcan más voluminosos.

  • Consume más espacio en pantalla

  • Eficacia reducida a grandes distancias en las interfaces 3D: los objetivos se reducen con la distancia.

Cuándo utilizar

Si el diseño es flexible, se trata de una solución sencilla y sólida.

Solución nº 2 - Región de impacto ampliada

La zona activa de un objetivo de mirada se amplía de forma invisible para captar las posiciones de la mirada que se encuentran justo fuera del límite visual. Esta técnica se utiliza en interfaces 2D y 3D para facilitar la activación de objetivos pequeños o de forma irregular. La zona ampliada es transparente, por lo que el tamaño aparente del objetivo no cambia.

Ventajas

  • Invisible, respeta el diseño visual

  • Fácil de implementar añadiendo márgenes activos o ampliando la malla de colisión 3D

Desventajas

  • No es adecuado para objetivos superpuestos o muy espaciados: el espacio vacío alrededor de los objetivos se convierte en territorio interactivo.

  • Es difícil garantizar un espacio despejado alrededor de los objetos en 3D: las mallas de colisión transparentes en primer plano pueden bloquear los objetivos visibles en segundo plano.

  • Es necesario experimentar para obtener el margen/escala de colisión adecuados.

Cuándo utilizar

Los márgenes activos son ideales para las interfaces de usuario basadas en cuadrículas 2D sin superposición ni contacto de objetivos. Puede funcionar con 3D si las advertencias son aceptables.

Solución nº 3 - Dirección visible de la mirada

Aunque es problemático por las razones mencionadas anteriormente, visualizar la dirección de la mirada puede tener sentido en determinadas circunstancias, como cuando la operación de interfaz de usuario tolera desplazamientos de la mirada.

Ventajas

  • Las opiniones de los usuarios suelen potenciar las estrategias de uso

Desventajas

  • Distrae y no es natural

  • Puede frustrar a los usuarios con mayor desviación de la mirada.

  • Puede dar más problemas de los que vale

Cuándo utilizar

Rara vez, por no decir nunca. Si el diseño de la interacción se beneficia de una estimación aproximada de la mirada, por ejemplo para resaltar una zona de la pantalla, mostrar un efecto de foco alrededor de la posición de la mirada puede proporcionar información para las operaciones de la IU al tiempo que limita la distracción. La región resaltada debe ser lo suficientemente grande como para abarcar la mirada real del usuario.

Solución nº 4 - Desambiguación explícita

Al igual que en los diálogos de confirmación, se pide al usuario que aclare o confirme cuando el sistema no está seguro de la intención del usuario.

Ventajas

  • Maneja casos difíciles en los que la agrupación de objetivos es inevitable

  • Patrón de interacción familiar que puede ser fácil de aprender

  • Momento de firma potencial si se diseña bien

Desventajas

  • Complejidad de diseño y desarrollo

Cuándo utilizar

Considere esta técnica cuando la disposición de los objetivos visuales no pueda controlarse y se disponga de funciones de diálogo en la interfaz de usuario. La aclaración puede utilizar un mecanismo de entrada no visual, como el habla o los gestos corporales. Además, el comportamiento sensible al contexto puede identificar y filtrar objetivos candidatos para minimizar la complejidad del diálogo.

Solución nº 5 - Algoritmo de aprendizaje automático

Esta técnica utiliza un algoritmo que recibe información de la mirada y de la escena para determinar qué objeto está mirando el usuario. Lo ideal sería que el algoritmo se ajustara para manejar una variedad de escenarios que implican objetos de diferentes tamaños en diferentes lugares, posiblemente en movimiento.

Ventajas

  • Invisible, respeta el diseño visual

  • Sin restricciones de interfaz de usuario en cuanto a tamaños mínimos de objetivos, zonas libres u objetivos superpuestos.

  • No es necesario ajustar los parámetros de diseño para obtener los mejores resultados.

Desventajas

  • Añade carga computacional que puede requerir recursos adicionales

  • El algoritmo es una caja negra y no necesariamente portátil

Cuándo utilizar

Cuando el algoritmo está disponible y es computacionalmente adecuado para la aplicación, esta solución es rápida de implantar y mejora inmediatamente la experiencia del usuario. Una aplicación de esta técnica es G2OM (Gaze to Object Mapping) de Tobii, disponible para aplicaciones Unity.

Resumen

La interacción del usuario basada en la mirada es una evolución natural de la humanización de las experiencias informáticas. Los movimientos naturales del ojo humano y la calidad variable de la señal de los dispositivos de eye tracking plantean nuevos retos para un diseño eficaz de la interfaz de usuario. Los diseñadores y desarrolladores pueden mejorar el éxito, la eficiencia y la comodidad del usuario aplicando técnicas de interfaz de usuario específicas para la introducción de datos mediante la mirada.

Escrito por

Lawrence Yau

Leer más

12 minutos

Autor

  • Lawrence Yau

    Lawrence Yau

    Arquitecto de soluciones de ventas, TOBII

    Lawrence es actualmente Arquitecto de Soluciones en el equipo de Ventas de Integraciones en pantalla, XR y Automotive de Tobii, donde comparte su entusiasmo y conocimientos sobre las formas en que la informática de la atención fusionará las capacidades de la tecnología con la intención humana. En Tobii, Lawrence está cautivado por las numerosas formas en que el eye tracking permite experiencias digitales naturales, ofrece oportunidades para mejorarnos a nosotros mismos y a los demás, y cambia el comportamiento para lograr vidas más satisfactorias y sostenibles. Con estos objetivos transformadores, invierte en el éxito de quienes exploran y adoptan las tecnologías de eye tracking. Está encantado de compartir sus conocimientos y su pasión con la comunidad XR. Su inquieta curiosidad por humanizar la tecnología ha llevado su carrera a facilitar la integración de tecnologías de eye tracking, desarrollar agentes conversacionales de IA, diseñar la experiencia del usuario para aplicaciones de gobierno de datos y construir herramientas de entrega y desarrollo de e-learning. Lawrence obtuvo su BE en Ingeniería Eléctrica en The Cooper Union for the Advancement of Science and Art, y su MHCI en el Human-Computer Interaction Institute de la Universidad Carnegie Mellon.

También le puede interesar