Le paradoxe de la boîte noire
Les systèmes d'IA les plus performants sont souvent les moins compréhensibles. Un réseau de neurones profond peut prédire avec 95 % de précision, mais personne — pas même ses créateurs — ne peut expliquer exactement pourquoi il a pris telle décision. En UX, ce paradoxe crée un problème fondamental : comment faire confiance à un système qu'on ne comprend pas ?
Les travaux de Ribeiro, Singh et Guestrin (2016) sur LIME (Local Interpretable Model-agnostic Explanations) ont posé les bases de l'IA explicable. Leur approche : créer des approximations locales compréhensibles pour chaque prédiction individuelle. En design, ça se traduit par des micro-explications contextuelles plutôt que des descriptions techniques globales.
L'étude de Shin (2021) publiée dans Information Processing & Management a démontré que la transparence algorithmique perçue augmente significativement la confiance et l'intention d'usage. Mais — et c'est le point crucial — seulement quand l'explication correspond au modèle mental de l'utilisateur.
Niveaux d'explication et expertise utilisateur
Les recherches de Liao, Gruen et Miller (2020) à IBM Research ont identifié une taxonomie de questions que les utilisateurs posent face à un système IA : « Pourquoi cette recommandation ? », « Que se passerait-il si je changeais X ? », « Sur quelles données te bases-tu ? ». Chaque profil d'utilisateur privilégie un type de question différent.
Un utilisateur novice veut une explication causale simple : « Ce film est recommandé parce que vous avez aimé des films similaires. » Un utilisateur expert veut une explication technique : les features utilisées, les poids, les données d'entraînement. Proposer l'explication technique à un novice détruit la confiance au lieu de la construire — c'est ce que Kizilcec (2016) a démontré dans ses études sur la transparence algorithmique dans l'éducation.
En tant que designer, la solution est le progressive disclosure appliqué à l'explicabilité. Premier niveau : un résumé humain de la décision. Deuxième niveau : les facteurs principaux. Troisième niveau : les données brutes pour les experts. Chaque utilisateur s'arrête au niveau qui lui suffit.
Impact mesurable sur l'adoption produit
L'étude de Yin, Wortman Vaughan et Wallach (2019) à Microsoft Research a révélé un résultat contre-intuitif : montrer le taux de précision d'un modèle IA ne change pas significativement la confiance des utilisateurs. Ce qui change la confiance, c'est l'explication qualitative de pourquoi le modèle a raison ou tort dans un cas spécifique.
Google Health a publié en 2020 une étude sur son système de détection de rétinopathie diabétique en Thaïlande. Le système avait 90 % de précision, mais les médecins le rejetaient massivement. Pourquoi ? L'interface ne montrait pas quelles zones de l'image rétinienne avaient déclenché l'alerte. Après ajout de heatmaps explicatives (saliency maps), l'adoption a bondi de 30 %.
Ces résultats confirment une règle de design IA : la performance brute ne suffit pas. L'utilisateur a besoin de comprendre le « pourquoi » pour calibrer sa confiance. Et cette compréhension passe par le design, pas par la documentation technique.
Patterns UX pour l'explicabilité
Les travaux du Partnership on AI (2023) ont identifié plusieurs design patterns efficaces pour l'explicabilité. Le « confidence indicator » affiche un score de confiance du modèle — efficace uniquement si l'utilisateur comprend ce que signifie « 82 % de confiance ». Le « counterfactual explanation » montre ce qui aurait dû changer pour obtenir un résultat différent — très efficace pour les décisions de crédit ou d'assurance.
Le pattern le plus sous-estimé : le « example-based explanation ». Au lieu d'expliquer abstraitement pourquoi l'IA a pris une décision, montrer des cas similaires passés où la même décision a été prise. C'est le principe derrière les « Similar items » d'Amazon — une forme d'explicabilité par analogie que les utilisateurs comprennent instinctivement.
Un anti-pattern à éviter absolument : le « disclaimer wall ». Afficher un paragraphe de texte expliquant les limitations de l'IA avant chaque interaction. Les recherches de Buçinca, Malaya et Gajos (2021) montrent que ces disclaimers sont ignorés dans 89 % des cas et créent une fatigue de notification qui réduit l'attention aux véritables alertes.
Vers une éthique de la transparence calibrée
La transparence totale n'est ni possible ni souhaitable. Ananny et Crawford (2018) ont argumenté que la transparence peut créer une « illusion de compréhension » plus dangereuse que l'opacité. Un utilisateur qui croit comprendre un algorithme alors qu'il ne comprend qu'une simplification peut prendre des décisions sur-confiantes.
Le concept de « meaningful transparency » proposé par Selbst et Barocas (2018) offre un meilleur cadre. L'objectif n'est pas de tout montrer, mais de montrer ce qui est actionnable — ce que l'utilisateur peut faire avec l'information. Une explication qui ne change rien au comportement de l'utilisateur est du bruit, pas de la transparence.
En pratique, chaque écran qui affiche un résultat IA devrait répondre à trois questions : « Qu'est-ce que le système a décidé ? », « Pourquoi ? » et « Que puis-je faire si je ne suis pas d'accord ? ». Si votre interface répond à ces trois questions de manière accessible, vous avez atteint le bon niveau de transparence.