Le paradoxe de l'abondance générée

L'IA générative inverse un problème classique du design. Traditionnellement, le défi était de produire suffisamment d'options. Maintenant, Midjourney génère 4 images en 30 secondes, ChatGPT produit 10 variantes de texte en un clic, et Figma AI crée des layouts entiers instantanément. Le problème n'est plus la production — c'est l'évaluation.

Les travaux de Schwartz (2004) sur le « paradoxe du choix » sont plus pertinents que jamais. Son étude classique montrait que proposer 24 confitures au lieu de 6 réduisait les achats de 90 %. Appliqué à l'IA : proposer 20 variantes de design au lieu de 3 ne rend pas le designer plus productif, ça le paralyse.

L'étude de Mozannar et al. (2024) au MIT a mesuré ce phénomène sur des utilisateurs de Copilot : 60 % du temps total d'interaction était consacré à lire, évaluer et comparer les suggestions de l'IA, et seulement 40 % à produire du travail original. Plus l'IA propose d'options, plus le ratio évaluation/production se dégrade.

La théorie de la charge cognitive appliquée aux interfaces IA

La théorie de la charge cognitive de Sweller (1988), actualisée par Kalyuga et Singh (2016), distingue trois types de charge : intrinsèque (complexité de la tâche), extrinsèque (complexité de l'interface), et germane (effort d'apprentissage productif). Une interface IA mal conçue augmente la charge extrinsèque sans réduire la charge intrinsèque.

Concrètement : afficher un mur de texte généré par GPT-4 sans structure, sans titres, sans mise en évidence des points clés, c'est maximiser la charge extrinsèque. L'utilisateur doit scanner, parser et hiérarchiser mentalement l'information avant de pouvoir la traiter. C'est comme recevoir un document de 50 pages non formaté.

Les recherches de Tankelevitch et al. (2024) sur l'UX des copilotes IA recommandent trois principes : chunking (découper les outputs en blocs digestibles), progressive disclosure (montrer d'abord un résumé, puis les détails sur demande), et comparative framing (présenter les options avec des critères de comparaison explicites plutôt que côte à côte sans contexte).

Design patterns pour les outputs d'IA

Le pattern le plus efficace pour les interfaces de génération de texte est le « résumé-expansion ». Le système affiche d'abord un résumé de 2-3 phrases du contenu généré. L'utilisateur peut ensuite développer chaque point, modifier, régénérer une section spécifique. Ce pattern respecte la mémoire de travail (7±2 éléments selon Miller, confirmé par Cowan à 4±1 en 2001).

Pour la génération d'images ou de designs, le pattern « grid comparatif avec critères » surpasse le simple grid. Au lieu d'afficher 4 images sans contexte, ajouter des labels explicites : « Plus coloré / Plus minimal / Plus corporate / Plus créatif ». L'étude de Kocielnik et al. (2019) montre que les critères explicites réduisent le temps de sélection de 35 % et augmentent la satisfaction de 28 %.

Un anti-pattern systématique dans les interfaces IA actuelles : le « dump de contenu ». L'IA génère un bloc massif de texte que l'utilisateur doit lire intégralement avant de pouvoir interagir. La solution : le streaming structuré — afficher le contenu progressivement avec des points d'interaction à chaque section (accepter, modifier, régénérer).

Le problème de la calibration de confiance

Un enjeu spécifique aux interfaces IA : la calibration de confiance de l'utilisateur. Les travaux de Vasconcelos et al. (2023) montrent que les utilisateurs ont tendance soit à sur-faire confiance (automation bias — accepter les suggestions IA sans vérification), soit à sous-faire confiance (automation aversion — rejeter systématiquement).

L'automation bias est amplifié quand l'interface présente les suggestions IA avec un ton assertif et sans marqueur d'incertitude. Dire « Le chiffre d'affaires sera de 1,2M€ » provoque plus d'automation bias que « Le modèle estime le chiffre d'affaires entre 0,9M€ et 1,5M€ avec 75 % de confiance ». Le design du niveau de certitude est un acte de design éthique.

La solution émergente est le « friction calibrée » : introduire des micro-interactions qui forcent l'évaluation critique sans ralentir excessivement. Par exemple, demander à l'utilisateur de confirmer une suggestion IA en sélectionnant la raison de son accord (« J'ai vérifié les données », « Ça correspond à mon expertise », « Je fais confiance au modèle »). Cette introspection forcée réduit l'automation bias de 30 % selon Buçinca et al. (2021).

Concevoir l'IA comme un collaborateur, pas un oracle

La métaphore qui guide le meilleur design d'interfaces IA est celle du collaborateur junior. Un bon collaborateur junior ne produit pas un livrable final parfait — il propose des ébauches, pose des questions, demande des précisions. Les interfaces IA qui adoptent cette posture performent mieux que celles qui adoptent la posture de l'oracle omniscient.

Les travaux de Bansal et al. (2021) sur la complémentarité humain-IA montrent que les meilleures performances ne viennent ni de l'humain seul ni de l'IA seule, mais de l'interaction entre les deux — à condition que l'interface facilite le dialogue itératif plutôt que le one-shot. Générer → évaluer → raffiner → re-générer est un cycle plus productif que générer → accepter ou rejeter.

Pour les designers produit, le message est clair : résistez à la tentation de l'interface « magique » qui résout tout en un clic. Les utilisateurs les plus productifs avec l'IA sont ceux qui utilisent des interfaces qui les maintiennent dans la boucle de décision. L'IA augmente la capacité humaine ; elle ne doit pas la court-circuiter.