Los seres humanos son criaturas sociales que dependen de la comunicación para establecer y desarrollar vínculos con los demás. De todos nuestros sentidos, los ojos son los únicos que reciben y envían señales sociales. A través del contacto visual, nos sentimos reconocidos, comprendidos y validados. Los bebés son más sensibles al estado de los ojos de los adultos que al movimiento de su cabeza. Las personas que mantienen una relación transmiten amor con una mirada larga y profunda, sin necesidad de más palabras. Los oradores experimentados pronuncian discursos impactantes estableciendo contacto visual con el público. El contacto visual es la clave de nuestra comunicación.
Mientras empezamos a fantasear con otra vida en el metaverso, creo que la mayoría de nosotros queremos aportar autenticidad a nuestros avatares porque nos manifiestan en el espacio virtual y aumentado. No es difícil imaginar que socializaremos con otros usuarios (a través de avatares) y participaremos en actividades de grupo y entretenimiento. Permitir el contacto visual y el movimiento a través de la tecnología Eye tracking para los avatares se convierte en una obviedad. Aumentará significativamente la presencia social de los usuarios.
Los usuarios pueden elegir una apariencia similar a la de un personaje de Disney o crear un gemelo digital que se parezca a ellos mismos en todo lo posible según el tipo de actividades que planeen realizar en el metaverso. Hemos visto sistemas de avatares de estilo anime multiplataforma, como Ready Player Me, compatibles con cientos de apps y juegos. Tobii ha anunciado recientemente una colaboración con la plataforma de streaming de RV LIV que incorpora los avatares de Ready Player Me y permite el eye tracking de Tobii para los creadores de contenidos.
Para comprobar si el eye tracking realmente aporta más realismo incluso a los avatares fotorrealistas, recientemente he pasado algún tiempo habilitando el eye tracking de Tobii en la popular herramienta de creación de avatares MetaHuman de Epic. Y hoy quiero compartir lo que me entusiasma de esta fascinante experiencia de "hacking".
Captura de expresiones faciales en RV
Los personajes de MetaHuman son hiperrealistas y pueden cobrar vida mediante dispositivos de Motion Capture (Mocap) en tiempo real conectados a través de Live Link. Existen varias soluciones de Motion Capture que crean personajes increíblemente vivos. También capturan el movimiento de la cara, pero de diferentes maneras, desde el enfoque integrado en las suites de captura de movimiento de cuerpo completo de gama alta (por ejemplo, Cubic Motion) hasta el uso innovador del iPhone X. Sin embargo, no se pueden utilizar directamente para avatares en aplicaciones de RV porque el usuario ya lleva un casco de RV que cubre la cara.