Le problème du wayfinding indoor
Le GPS ne fonctionne pas à l'intérieur des bâtiments. Les aéroports, hôpitaux, campus universitaires et centres commerciaux dépendent de la signalétique physique — panneaux, fléchages au sol, plans muraux. Les études de Hölscher et al. (2006) montrent que 30 % du temps passé dans un hôpital par un visiteur est consacré à chercher son chemin. Dans un aéroport, les passagers en correspondance ratent leur vol dans 2 % des cas à cause de la navigation.
Pour les personnes handicapées, le problème est amplifié. Un utilisateur en fauteuil roulant doit non seulement trouver sa destination, mais trouver un chemin accessible — avec ascenseurs, rampes, portes automatiques. La signalétique classique n'indique pas les itinéraires accessibles ; elle suppose que tous les chemins sont praticables par tous.
La réalité augmentée, combinée avec la localisation indoor (BLE beacons, UWB, WiFi RTT), offre une solution que la signalétique physique ne peut pas fournir : une navigation personnalisée, en temps réel, adaptée aux capacités et préférences de chaque utilisateur.
Les preuves d'efficacité de l'AR wayfinding
L'étude de Rehman et Cao (2017) a comparé la navigation AR (flèches superposées au monde réel via smartphone) à la navigation par carte 2D et par signalétique dans un campus universitaire. La navigation AR a réduit le temps de trajet de 45 %, les erreurs de direction de 60 %, et le stress perçu de 35 %. Les participants n'avaient aucune expérience préalable de l'AR — l'interface était intuitive dès la première utilisation.
Google Maps Live View (lancé en 2019) est l'implémentation grand public la plus aboutie. Les données internes de Google (présentées à I/O 2023) montrent que Live View est utilisé principalement dans les 3 situations où le GPS seul échoue : sortie de métro (où suis-je et dans quelle direction ?), rues piétonnes denses (quelle ruelle prendre ?), et intérieur de grands bâtiments (gares, malls).
Les études de Kim et Dey (2016) ajoutent une nuance importante : l'AR wayfinding est significativement plus efficace pour les tâches de navigation « first-time » (premier passage). Pour les trajets récurrents, les utilisateurs préfèrent la navigation « heads-up » (directions vocales) parce que tenir le téléphone levé devient fatigant. Le design optimal combine AR pour l'exploration et audio pour la routine.
Navigation accessible : l'AR comme outil d'inclusion
Le projet Waymap (2020-2024) au Royaume-Uni a développé un système de navigation indoor spécifiquement conçu pour les utilisateurs aveugles et malvoyants. Le système utilise les capteurs inertiels du smartphone (pas de caméra — pas de besoin de « voir » l'écran) combinés avec un réseau de beacons BLE pour fournir des instructions audio spatialisées : le son de la prochaine instruction vient de la direction où l'utilisateur doit tourner.
Pour les utilisateurs en fauteuil roulant, les travaux de Guerreiro et al. (2019) ont montré que l'AR peut calculer et afficher des itinéraires accessibles en temps réel, en tenant compte de la largeur des passages, de la pente des rampes, de la disponibilité des ascenseurs (en service ou en panne), et de la distance totale. Une information impossible à encoder dans une signalétique physique statique.
L'enjeu de design est double : rendre la navigation AR elle-même accessible (commandes vocales, feedback haptique, taille d'affichage adaptable), et utiliser l'AR comme vecteur d'accessibilité pour l'environnement physique. L'AR ne résout pas l'inaccessibilité des bâtiments — mais elle permet de naviguer autour des obstacles en temps réel.
Défis techniques et limites actuelles
La localisation indoor reste le maillon faible. Les technologies actuelles (BLE beacons, WiFi RTT, UWB) offrent une précision de 1 à 3 mètres — suffisante pour la navigation entre zones, mais insuffisante pour identifier quelle porte exactement ouvrir. Les travaux de Zafari et al. (2019) projettent une précision sub-métrique d'ici 2026 avec la fusion de capteurs (IMU + BLE + vision par ordinateur).
L'ergonomie de l'AR mobile est un autre défi. Tenir un smartphone levé devant soi pendant la navigation est fatigant (le « gorilla arm effect » documenté par Hincapié-Ramos et al., 2014). Les lunettes AR (Xreal, Meta Ray-Ban) éliminent ce problème mais ne sont pas encore assez légères et autonomes pour le grand public.
Enfin, le déploiement à l'échelle nécessite une infrastructure de cartographie indoor (digital twin du bâtiment) qui est coûteuse à créer et à maintenir. Les solutions émergentes utilisent le SLAM (Simultaneous Localization and Mapping) pour que les utilisateurs eux-mêmes contribuent à la cartographie en marchant dans le bâtiment — une approche crowdsourcée qui réduit le coût de déploiement.
Concevoir le wayfinding AR : principes de design
Les guidelines de design AR pour le wayfinding, synthétisées par Renevier et Nigay (2001) et actualisées par Ens et al. (2021), convergent sur 5 principes. Premier principe : le « glanceable design » — l'information de navigation doit être compréhensible en un coup d'œil (flèche + distance, pas de texte long). Deuxième principe : la « world-anchoring » — les indications AR doivent être ancrées dans l'environnement physique (flèche collée au sol/mur), pas flottantes dans l'espace.
Troisième principe : la « progressive complexity » — l'interface de base est une flèche directionnelle ; les détails (temps estimé, points d'intérêt, alternatives) apparaissent sur demande. Quatrième principe : le « multimodal fallback » — chaque indication visuelle AR doit avoir un équivalent audio et/ou haptique pour les situations où l'utilisateur ne peut pas regarder l'écran.
Cinquième principe : la « graceful degradation » — quand la localisation indoor perd en précision (signal BLE faible), l'interface doit communiquer transparentement l'incertitude (« Vous êtes approximativement ici ») plutôt que de montrer une position fausse avec confiance. La confiance dans le système dépend de son honnêteté dans les moments de faiblesse, pas de sa performance dans les moments optimaux.