Du eye tracking 2D au regard spatial

L'eye tracking sur écran existe depuis les années 1990, mais la VR transforme radicalement ses possibilités. En 2D, on capture un point de regard sur une surface plate. En VR, on capture un vecteur de regard dans un espace 3D — direction, profondeur de fixation, convergence binoculaire. Les travaux de Duchowski (2017, mis à jour en 2023) montrent que cette richesse de données permet de comprendre non seulement ce que l'utilisateur regarde, mais aussi sa profondeur d'engagement cognitif.

Le Quest Pro, le Vision Pro et le PlayStation VR2 intègrent tous un eye tracking embarqué. La précision actuelle est de 1 à 2 degrés d'angle visuel — suffisante pour identifier quelle zone d'une interface l'utilisateur regarde, mais pas quel mot dans un paragraphe. Les recherches de Tobii (2023) projettent une précision de 0,5 degré d'ici 2026, ce qui ouvrira la porte à des interactions fine-grained.

Pour les designers, l'eye tracking VR est un outil de recherche UX inédit : au lieu de demander aux utilisateurs ce qu'ils ont regardé (déclaratif, biaisé), on le mesure objectivement et en temps réel. Les patterns d'attention révélés par ces données contredisent fréquemment les hypothèses des designers.

Foveated rendering : performance et perception

Le foveated rendering est l'application la plus immédiate de l'eye tracking en VR. Le principe exploite une caractéristique de la vision humaine : seule la fovéa (2° centraux du champ visuel) perçoit les détails fins. La périphérie est floue, sensible au mouvement mais pas aux détails. Les recherches de Patney et al. (2016) chez NVIDIA ont démontré qu'on peut réduire la résolution périphérique de 70 % sans que l'utilisateur ne perçoive de différence.

L'impact sur le design est indirect mais massif : le foveated rendering réduit la charge GPU de 40 à 60 %, permettant des environnements visuellement plus riches ou un framerate plus élevé (qui réduit la cybercinétose). Pour le designer, cela signifie moins de compromis entre qualité visuelle et performance.

Mais le foveated rendering crée aussi un défi de design : les éléments périphériques doivent rester lisibles malgré la résolution réduite. Les petits textes, les icônes détaillées et les indicateurs fins en périphérie deviennent illisibles. La recommandation : utiliser la taille, le contraste et le mouvement (pas le détail) pour communiquer l'information en périphérie.

Patterns d'attention en interface spatiale

Les études de Clay et al. (2019) sur l'attention visuelle en VR révèlent des patterns contre-intuitifs. Contrairement aux interfaces 2D où le regard suit un pattern en F (Nielsen, 2006), les interfaces spatiales suivent un pattern « center-first, then radial ». L'utilisateur commence par le centre de son champ de vision, puis explore en cercles concentriques.

Ce pattern a des implications directes pour le placement des éléments. Le contenu le plus important doit être au centre du champ visuel au repos — pas en haut à gauche comme en web design. Les éléments secondaires se distribuent radialement. La navigation devrait être accessible sans mouvement de tête, dans un arc de 30° autour du centre.

Un autre résultat significatif : les zones mortes. Les études montrent que les utilisateurs ne regardent pratiquement jamais les zones au-dessus de 15° au-dessus de l'horizon et au-delà de 45° de chaque côté. Placer des éléments dans ces zones est inefficace — ils sont invisibles sauf si le design attire activement l'attention (mouvement, son, contraste extrême).

Design adaptatif basé sur le regard

L'application la plus avant-gardiste de l'eye tracking en VR est le design adaptatif en temps réel. Les travaux de Pfeuffer et al. (2021) explorent des interfaces qui se modifient en fonction du regard : un menu se déploie quand l'utilisateur regarde dans sa direction, un texte augmente de taille quand le regard se fixe dessus, un élément interactif s'illumine quand il est dans le champ de vision.

Le risque principal est le « Midas touch problem » mentionné plus haut : si tout ce que je regarde réagit, explorer visuellement l'interface déclenche des actions non désirées. Les solutions émergentes combinent le regard avec un seuil temporel (dwell time de 400-800ms) ou un geste de confirmation. Le regard cible, l'action confirme.

Pour le design UX research, l'eye tracking VR offre un outil de test inédit : les heatmaps 3D d'attention, les séquences de fixation temporelles, et les métriques de charge cognitive dérivées du diamètre pupillaire. Ces données, combinées avec des métriques classiques (taux de succès, temps de tâche), permettent une compréhension beaucoup plus riche du comportement utilisateur.

Éthique et confidentialité du regard

L'eye tracking soulève des questions éthiques spécifiques. Les données de regard sont biométriques — elles peuvent révéler des informations médicales (troubles neurologiques, consommation de substances), psychologiques (anxiété, intérêt sexuel, préférences politiques) et cognitives (niveau de fatigue, charge mentale). Les travaux de Kröger et al. (2020) ont documenté l'étendue des inférences possibles à partir des seuls mouvements oculaires.

Le RGPD classifie les données biométriques comme sensibles (article 9), nécessitant un consentement explicite. Mais la plupart des utilisateurs de casques VR ne réalisent pas que leur regard est enregistré et analysé. Le design éthique exige une transparence claire : quelles données sont collectées, comment elles sont utilisées, et comment les désactiver sans perdre la fonctionnalité de base.

La recommandation pour les designers : traiter les données d'eye tracking comme des données médicales. Minimiser la collecte, anonymiser le traitement, et ne jamais utiliser les patterns de regard pour de la publicité ciblée ou de la manipulation émotionnelle. L'eye tracking doit servir l'utilisateur (meilleure interface, meilleure performance), pas l'exploiter.