5 tips for maximizing the value of eye tracking studies in VR
How to create the best virtual reality environment for your research project.
Con casi una década de experiencia en Eye tracking a sus espaldas, el Dr. Tim Holmes es uno de los grandes líderes del sector. En este artículo comparte algunas lecciones útiles que ha aprendido por el camino.
El primer consejo es el resultado directo de un ejemplo concreto que vi en el que la repetición de la mirada, utilizando el software del fabricante, no tenía sentido cuando se visualizaba sobre los estímulos porque las imágenes se habían mostrado con una resolución de píxeles diferente a la de las imágenes de visualización. Esto significaba que las fijaciones no se visualizaban en los objetos del estímulo relacionados con la tarea. Ahora bien, por mucho que a los investigadores les gustaría que los participantes miraran "en el lugar correcto" todo el tiempo, no es realista y, en este caso, como algunos de los participantes no tenían un desarrollo típico, era creíble que algunas de las fijaciones estuvieran "un poco desviadas", por lo que el problema se había pasado por alto. De hecho, la diapositiva de instrucciones del experimento delataba el juego, porque los movimientos oculares al leer son bastante predecibles y, efectivamente, los participantes mostraban un patrón de fijaciones coherente con la lectura, pero que se extendía más allá del texto en todas direcciones. He visto problemas similares con las relaciones de aspecto de las pantallas, en las que había un desajuste entre ambas, lo que provocaba un desplazamiento leve pero sistemático de los puntos de mirada, normalmente en una dimensión. Lo que hay que recordar aquí es que las fijaciones tienden a agruparse en torno a las regiones de una imagen que son muy informativas, muy destacadas o están muy relacionadas con la tarea que se está realizando. Si tiene datos que se agrupan en otros lugares, vale la pena comprobar que su configuración está mapeando los datos de la mirada correctamente. Otra buena solución es incluir siempre algún tipo de estímulo de calibración en el experimento para comprobar que la mirada se está mapeando correctamente.
Vale, ¡esto podría ser una entrada de blog por derecho propio! Como trabajo con mucha gente que hace eye tracking en el mundo real y no en un laboratorio universitario (sí, lo sé, ¡algunas universidades también hacen investigación en el mundo real!), a menudo me encuentro con estudios en los que ha ocurrido algo inesperado, ya sea el tiempo, la presencia de otras personas en el entorno, los reflejos internos en las Corrective Lenses o que no hubiera tiempo suficiente para recoger datos del participante en el programa de pruebas. En la mayoría de los casos, un poco de pruebas previas habría resuelto la mayoría de los problemas que he encontrado en los estudios de eye tracking.
Cuando hablo de pilotaje, no me refiero sólo a "hacer que un participante realice la tarea" o a leer el guión, sino a recorrer la ruta a diferentes horas del día en el caso de un estudio de compradores, calibrar a varios participantes con el Eye tracker elegido en el entorno real en el que se van a realizar las pruebas, realizar los análisis para asegurarse de que realmente puede obtener los datos que necesita del estudio que ha diseñado. Por supuesto, asegúrese también de que ha seleccionado un paradigma y un eye tracker adecuados para la cuestión que está investigando. Lo que tiene sentido en el laboratorio o en la sala de reuniones puede, de repente, parecer plagado de problemas una vez que lo pruebas.
Como investigador académico, esto es algo que siempre hago; como investigador comercial, sé que es algo para lo que a menudo no hay tiempo ni presupuesto, pero créame, puede ahorrarse muchos disgustos cogiendo a un par de compañeros de trabajo y consiguiendo que participen antes de comprometer miles y días de trabajo en reclutar, probar y analizar los datos de los participantes en un estudio que no ha pilotado. Le garantizo que sólo con este consejo todos los que lo prueben obtendrán mejores resultados.
En la investigación académica tendemos a no utilizar mapas de calor con tanta frecuencia y a centrarnos en el análisis cuantitativo de las medidas reales de la mirada, como la duración media de la fijación, el tiempo hasta la primera fijación y la latencia sacádica. Desde el punto de vista comercial, se confía mucho en los mapas de calor para visualizar todo lo relacionado con el eye tracking, pero sólo funcionan si se cumple la siguiente premisa: todas las personas de la muestra se comportaron más o menos de la misma manera durante el mismo periodo de tiempo. Si hay valores atípicos espaciales o temporales en su muestra, entonces el mapa de calor producido por la mayoría del software disponible comercialmente será casi seguro engañoso; dando por resultado penetraciones inexactas y recomendaciones incorrectas. Si debe confiar en los mapas de calor, es esencial que también examine los gráficos/reproducciones de las miradas individuales para identificar esos valores atípicos y eliminarlos de la visualización que utiliza para contar su historia, de lo contrario, lamento decirlo, estará falseando sus resultados, y aunque eso pueda contentar a sus partes interesadas/clientes, no generará los beneficios que les está prometiendo.
Hablando de mapas de calor, ¿cuántas veces ha observado un punto caliente justo en el centro de la imagen? Esto se debe a lo que llamamos sesgo de fijación central, que es una tendencia de los observadores a mirar al centro de la escena y es especialmente frecuente en las primeras fijaciones tras el inicio del estímulo. Como investigador, el control de la fijación antes de la presentación de un estímulo es algo que hago todo el tiempo, incluso en paradigmas de visión libre, porque conocer el origen de los movimientos oculares de un participante ayuda en el análisis de la atención impulsada por el estímulo, pero desde una perspectiva puramente mecánica, esto significa que siempre habrá un grupo de puntos de mirada alrededor del objetivo de control de fijación, normalmente una cruz, incluso después de que se haya eliminado, porque lleva tiempo planificar y ejecutar los siguientes movimientos oculares.
Entonces, ¿debería preocupar esto al investigador de mercado medio? La respuesta es un gran SÍ. Una forma sencilla de mitigar gran parte de este efecto es analizar las fijaciones que se producen 0,5-1 segundos DESPUÉS del inicio de la imagen. De este modo, al menos se atenuará la mayor parte del sesgo inicial. Pero aquí está lo realmente importante que hay que recordar: si quieres probar si una marca, producto o reclamo atraerá y captará la atención, no lo coloques en el centro de la escena. Anteriormente asesoré en un estudio de encontrabilidad para rediseños de candidatos competidores para un producto. En los planogramas iniciales que recibí, el nuevo diseño siempre estaba en el centro de la estantería central, lo que significaba que sería muy poco probable que la investigación detectara alguna diferencia entre los diseños. Y compradores de investigación, si alguna vez os presentan un mapa de calor que muestra una gran mancha roja en el centro de la pantalla y resulta que vuestro producto está debajo de ella, os aconsejo que os toméis todo lo que se diga sobre esos resultados con una pizca muy grande de sal.
No es ningún secreto que creo que los mapas de calor son un territorio potencialmente engañoso si no se ejecutan correctamente, por lo que esto plantea la pregunta obvia: ¿qué DEBERÍA hacer al analizar sus resultados? Además, si eres un investigador comercial y no quieres sumergirte en los datos brutos cada vez que realizas un estudio, ¿existen herramientas sencillas que puedas utilizar para añadir algo de valor además de los mapas de calor que se te OBLIGARÁ a incluir en tus presentaciones? No temas amigo mío, tengo respuestas a estas preguntas, pero su alcance se limita a aquellos que están interesados en cómo la escena visual puede estar afectando a la atención y/o a la capacidad para completar una tarea. Si lo que te interesa es la mecánica de los movimientos oculares, no creo que haya nada mejor que investigar los datos en bruto.
En la investigación científica solemos tener una hipótesis que queremos probar, algo así como "Los participantes del grupo A encontrarán el objeto 1 más rápido que el objeto 2"... ¡sí, estamos locos! En la investigación comercial, las preguntas pueden formularse de forma más general y a menudo se utilizan conceptos peligrosamente ambiguos como "compromiso" o "me gusta", pero en principio cualquier investigación que merezca la pena tendrá una pregunta en su núcleo: ¿Mi producto destaca en la estantería? ¿El diseño de esta página web reduce el tiempo de compra? ¿Distrae el navegador por satélite la atención del conductor de la carretera? Lo que estas preguntas tienen en común es que plantean una cuestión sobre el tiempo o la ubicación de los objetos en la escena visual, y para este tipo de preguntas, unas cuantas áreas de interés (AOI) pueden llevar su investigación a otro nivel, ya que puede generar medidas como el tiempo hasta la primera fijación, el tiempo de permanencia acumulado, las revisitas, etc., que son especialmente útiles si está realizando algún tipo de prueba A/B.
Pero hay que tener cuidado con la definición de los AOI. Por ejemplo, cubrir toda una página web o un planograma con AOI que no dejen ningún espacio en blanco visible no suele ser una buena idea. Cada Eye tracker tiene un límite de precisión. Los fabricantes pueden informarle al respecto, pero suele ser de entre 0,5 y 1 grado de ángulo visual. Esto significa que, a una distancia de visión aproximada de 60 cm, el punto de mira tiene una precisión de entre 0,5 y 1 cm; con un Eye Tracker portatil, la distancia al objetivo puede ser mayor y, por tanto, esta cifra aumenta. Si sus AOIs no dejan espacio en blanco entre ellos, entonces las fijaciones en los bordes entre sus AOIs serán reportadas, pero es posible que el ruido de la precisión del Eye tracker esté afectando sus resultados. Además, nuestra propia posición de la mirada tampoco es siempre tan precisa; por ejemplo, cuando leo un texto, suelo colocar la mirada ligeramente por encima de las palabras y no directamente sobre ellas. Lo que esto significa es que los AOI deberían cubrir un área ligeramente mayor (0,5 grados en todas las direcciones) que el objeto que le interesa, y lo ideal sería que hubiera un espacio entre su AOI y cualquier otro AOI en todos los lados. De este modo, se puede informar con seguridad de que los puntos de mirada en el AOI se refieren realmente a ese AOI y no se desbordan desde otro adyacente.
Este es el corolario, esperemos que obvio, del consejo 5a, porque si no puede estar seguro de qué AOI estaba mirando una persona cuando los AOIs se tocan, ¡CERTAMENTE no puede estar seguro cuando se solapan! En este caso, sin embargo, su Software de Eye tracking no tendrá ningún problema en reportar fijaciones en 2 AOIs simultáneamente, lo que significa que podría contar las fijaciones dos veces. Además, si los AOIs se solapan debido a que están en las mismas coordenadas (x,y) pero en un plano de profundidad (z) diferente, también es posible que la superposición de los AOIs pueda hacer que su Software de eye tracking asigne el punto de mirada al AOI equivocado si no ha tenido en cuenta las oclusiones o las correcciones de paralaje (si la imagen en la retina está enfocada en el objeto cercano o lejano).
Todo esto es especialmente importante cuando se trabaja con Eye trackers portatiles, donde los AOIs no sólo se aplican a áreas estáticas de la escena, sino que están en constante movimiento debido a los movimientos de la cabeza. Por esta razón, herramientas como Tobii Pro Lab le ofrecen la posibilidad de crear AOI dinámicas y, para ahorrarle parte del trabajo de posicionarlas fotograma a fotograma, aplicar algoritmos de interpolación para animar sus posiciones entre fotogramas clave, y decir cuándo las AOI son visibles o no para tener en cuenta las oclusiones. Recuerde que estos algoritmos suelen transformar o modificar la forma de un AOI 2D entre fotogramas clave en lugar de ajustarse al contorno real del objeto al que está asociado el AOI. Por lo tanto, es necesario utilizar un número de fotogramas clave para obtener la mejor precisión para la aceleración / desaceleración y el cambio de tamaño del objeto durante el estudio.
How to create the best virtual reality environment for your research project.
Learn how the combination of eye tracking and VR can help you. Reveal what attracts customer attention, cut training costs, and optimize your design.
Watch the webinar to get guidance and hands-on tips about how to use our eye tracking research starter kit in UX and consumer research.