Les êtres humains sont des créatures sociales qui s'appuient sur la communication pour établir et développer des liens avec les autres. De tous nos sens, nos yeux sont uniques en ce sens qu'ils reçoivent et envoient des signaux sociaux. Grâce au contact visuel, nous nous sentons reconnus, compris et validés. Les nourrissons sont plus sensibles à l'état des yeux des adultes qu'à leurs mouvements de tête. Les personnes en couple expriment leur amour par un regard long et profond, sans qu'il soit nécessaire d'ajouter des mots. Les orateurs expérimentés prononcent des discours percutants en établissant un contact visuel avec le public. Le contact visuel est la clé de notre communication.
Alors que nous commençons à imaginer une autre vie dans le métavers, je crois que la plupart d'entre nous veulent apporter de l'authenticité à nos avatars parce qu'ils nous manifestent dans l'espace augmenté et virtuel. Il n'est pas difficile d'imaginer que nous socialiserons avec d'autres utilisateurs (par l'intermédiaire d'avatars) et que nous participerons à des activités de groupe et à des divertissements. Permettre le contact visuel et le mouvement grâce à la technologie d'Eye tracking pour les avatars devient une évidence. Cela améliorera considérablement la présence sociale des utilisateurs.
Les utilisateurs peuvent choisir une apparence semblable à celle d'un personnage de Disney ou créer un jumeau numérique qui leur ressemble en tous points, en fonction du type d'activités qu'ils prévoient d'entreprendre dans le métavers. Nous avons vu des systèmes d'avatars multiplateformes de type anime comme Ready Player Me prendre en charge des centaines d'applications et de jeux. Tobii a récemment annoncé une collaboration avec la plateforme de streaming VR LIV qui intègre les avatars Ready Player Me et permet l'eye tracking de Tobii pour les créateurs de contenu.
Pour voir si l'eye tracking apporte vraiment plus de réalisme même aux avatars photoréalistes, j'ai récemment passé du temps à activer l'eye tracking de Tobii dans MetaHuman, l'outil populaire de création d'avatars d'Epic. Aujourd'hui, je souhaite partager ce qui me passionne dans cette expérience de "hacking" fascinante.
Capturer les expressions faciales dans la RV
Les personnages MetaHuman sont hyperréalistes et peuvent être rendus vivants grâce à des dispositifs de Motion Capture en temps réel (Mocap) connectés via Live Link. Il existe plusieurs solutions de Motion Capture qui permettent de créer des personnages étonnamment vivants. Elles capturent également les mouvements du visage, mais de différentes manières, de l'approche intégrée dans les suites de capture de mouvement du corps entier haut de gamme (par exemple Cubic Motion) à l'utilisation innovante de l'iPhone X. Néanmoins, elles ne peuvent pas être directement utilisées pour les avatars dans les applications VR, car l'utilisateur porte déjà un casque VR qui couvre le visage.