Le mur de la première semaine

Les données d'adoption des produits IA grand public (ChatGPT, Copilot, Midjourney) révèlent un pattern alarmant : 60 % des utilisateurs qui essaient un outil IA l'abandonnent dans les 7 premiers jours (données Mixpanel/Amplitude agrégées, 2024). La cause principale n'est pas la qualité du produit — c'est le fossé entre les attentes et la réalité de l'interaction.

L'utilisateur arrive avec une attente magique (« L'IA va tout faire pour moi ») et se heurte à la réalité (« L'IA produit des résultats variables qui nécessitent évaluation et itération »). Cette dissonance, documentée par Kocielnik et al. (2019), produit une déception brutale. L'utilisateur ne comprend pas comment interagir efficacement avec l'IA et conclut que le produit ne fonctionne pas.

Le problème est un problème de design, pas de technologie. L'IA fonctionne — mais l'interface ne guide pas l'utilisateur vers les interactions productives. L'onboarding des produits IA est le point d'intervention le plus critique pour l'adoption.

Le progressive disclosure appliqué à l'IA

Le progressive disclosure, théorisé par Shneiderman (1997) et raffiné par Nielsen (2006), est le principe de révéler la complexité par couches successives. En IA, il se traduit par : montrer les fonctionnalités basiques d'abord, révéler les fonctionnalités avancées quand l'utilisateur maîtrise les bases, et ne montrer les paramètres experts que quand ils sont demandés.

L'étude de Amershi et al. (2019) chez Microsoft a formalisé 18 guidelines pour le design de produits IA, dont la guideline #4 : « Show contextually relevant information at the relevant time. » En onboarding, ça signifie ne pas bombarder l'utilisateur de fonctionnalités le premier jour. Montrer une seule capacité, la faire réussir, puis en montrer une deuxième.

Notion AI illustre bien cette approche : la première interaction est un simple bouton « Demander à l'IA » dans un bloc de texte. L'utilisateur pose une question simple, obtient un résultat utile, comprend le principe. Ensuite, les fonctionnalités avancées apparaissent progressivement : résumé, traduction, changement de ton, génération de contenu structuré. Chaque couche se débloque quand la précédente est maîtrisée.

Templates et exemples : abaisser la barrière du prompt

Le plus grand obstacle à l'adoption des LLM est le « blank canvas problem » : l'utilisateur fait face à un champ de texte vide et ne sait pas quoi écrire. L'étude de Zamfirescu-Pereira et al. (2023) a montré que 72 % des novices des LLM écrivent des prompts sous-optimaux (trop vagues, trop courts, sans contexte) qui produisent des résultats décevants, renforçant le cycle d'abandon.

La solution la plus efficace : les templates et les exemples. Au lieu d'un champ vide « Demandez n'importe quoi à l'IA », proposer 3-4 templates contextuels : « Résumez ce document en 3 points clés », « Rédigez un email professionnel à partir de ces notes », « Analysez les forces et faiblesses de cette stratégie ». ChatGPT utilise ce pattern avec ses « conversation starters » ; Midjourney avec ses styles prédéfinis.

Les études d'usabilité montrent que les templates réduisent le temps de première interaction réussie de 4 minutes à 30 secondes. Plus important : l'utilisateur qui réussit sa première interaction a 3 fois plus de chances de revenir le lendemain. Le template n'est pas un raccourci — c'est un pont entre l'ignorance et la compétence.

Calibrer les attentes dès le premier écran

Les travaux de Kocielnik et al. (2019) sur les attentes envers les agents IA montrent que les utilisateurs qui reçoivent un « expectation setting » (calibrage des attentes) à l'onboarding ont une satisfaction 30 % supérieure après une semaine. Le calibrage n'est pas un disclaimer pessimiste (« L'IA fait des erreurs ») — c'est une communication honnête sur ce que le produit fait bien et ce qu'il ne fait pas.

Le pattern le plus efficace : le « capability framing ». Premier écran : « Ce que [Produit] fait très bien : [3 cas d'usage concrets]. » Deuxième écran : « Ce que [Produit] ne fait pas encore : [2-3 limites honnêtes]. » Troisième écran : « Essayez [un cas d'usage simple] maintenant. » Ce framing réduit la dissonance attentes/réalité et oriente l'utilisateur vers les interactions productives.

Un anti-pattern répandu : le « showcase onboarding » qui montre les capacités les plus impressionnantes du produit (les 1 % de cas où l'IA est spectaculaire) et crée des attentes que l'usage quotidien ne peut pas satisfaire. Les premiers utilisateurs de Copilot qui voyaient les démos marketing étaient systématiquement déçus par les suggestions réelles — non pas parce que Copilot était mauvais, mais parce que les attentes étaient irréalistes.

Mesurer l'onboarding IA : les bonnes métriques

Les métriques traditionnelles d'onboarding (taux de complétion du tutoriel, temps avant première action) sont insuffisantes pour les produits IA. Les métriques qui prédisent la rétention à 30 jours, selon les études de Chen et al. (2023), sont : le « time to first value » (temps avant que l'utilisateur obtienne un résultat utile), le « interaction quality score » (qualité des 5 premières interactions humain-IA), et le « return rate J+1 » (taux de retour le lendemain).

Le « time to first value » est la métrique la plus actionnable. Pour un outil d'écriture IA, c'est le temps entre l'inscription et le premier texte généré que l'utilisateur copie-colle ou utilise. Pour un outil de design IA, c'est le temps avant le premier design exporté. Chaque seconde en moins sur cette métrique augmente la rétention.

La recommandation finale : instrumenter l'onboarding comme un entonnoir de conversion avec des étapes spécifiques à l'IA. Inscription → Premier prompt → Résultat satisfaisant → Utilisation d'une fonctionnalité avancée → Retour J+1 → Retour J+7. Chaque drop-off entre les étapes identifie un problème de design spécifique à résoudre.