Pourquoi votre cerveau rejette l’IA : la science du malaise numérique

Orlene Briard
Lecture en 7 min
pourquoi-votre-cerveau-rejette-l-ia-la-science-du-malaise-numerique
L'essentiel

La division face à l' trouve ses racines dans des mécanismes cognitifs : l'aversion aux algorithmes fait décliner la confiance après une erreur perçue, tandis que l'anthropomorphisme et la « vallée de l'étrange » génèrent malaise quand l'IA paraît humaine sans l'être. Pour les professionnels dont l'identité repose sur une expertise, l'IA suscite une menace identitaire conduisant au rejet. Des solutions émergent : redonner un contrôle minimal à l'utilisateur réduit l'aversion, et la transparence et l'explicabilité, intégrées dès la conception, restaurent la confiance. Le véritable défi est humain : concevoir des systèmes lisibles qui répondent aux besoins cognitifs pour permettre une coexistence harmonieuse entre intelligence humaine et machine.

L'intelligence artificielle divise profondément. Pendant que certains adoptent ChatGPT comme un assistant du quotidien, d'autres éprouvent méfiance et rejet. Cette fracture ne s'explique pas par la génération ou la culture technologique. Elle trouve son origine dans nos mécanismes cognitifs. Des chercheurs ont découvert que nos cerveaux ne réagissent tout simplement pas de la même façon face à l'IA.

Le cerveau déteste l'opacité algorithmique

Nos mécanismes cognitifs manifestent une perte de confiance envers les algorithmes de manière plus rapide qu'envers les humains, suite à l'observation d'une erreur. Cette réaction est désignée par un terme scientifique : l'aversion aux algorithmes. Ce concept a été élaboré par Berkeley Dietvorst et Cade Massey, affiliés à la Wharton School.

Ce phénomène revêt un caractère paradoxal. Les participants se montrent particulièrement réticents envers les prédictions algorithmiques après les avoir vues en action, même lorsqu'elles surpassent les prévisionnistes humains. Lorsqu'une IA refuse d'accorder un prêt ou suggère un contenu difficile à comprendre, cette opacité engendre une frustration cognitive.

Cette méfiance n'est pas irrationnelle. Notre cerveau nécessite de saisir les mécanismes sous-jacents aux processus décisionnels. Par conséquent, une clé permettant de démarrer un véhicule automobile répond à cette exigence de causalité. Toutefois, l'IA fonctionne comme une boîte noire impénétrable. En conséquence, nous lui pardonnons difficilement ses erreurs.

Quand l'IA devient trop humaine sans l'être vraiment

Un autre biais cognitif complexifie notre rapport à l'IA : l'anthropomorphisme. Lorsque ChatGPT répond poliment ou que Netflix devine nos humeurs, notre esprit social prête des intentions à ces systèmes. En réalité, ils se contentent de procéder à des calculs. Néanmoins, nous ne pouvons nous soustraire à l'idée d'y percevoir une dimension humaine.

Les chercheurs Clifford Nass et Byron Reeves ont mis en évidence cette tendance universelle. Bien que nous soyons conscients qu'une IA ne possède ni émotions ni conscience, nous agissons comme si tel était le cas. Ce décalage engendre une gêne spécifique.

Cette sensation porte le nom de vallée de l'étrange, théorisée en 1970 par le roboticien japonais Masahiro Mori. Lorsque qu'un objet acquiert un certain niveau de ressemblance anthropomorphique, une impression d'angoisse et de malaise se manifeste. Un avatar trop réaliste qui fixe trop longtemps provoque ce malaise viscéral.

L'IA menace notre identité professionnelle

Pour certaines professions, l'IA constitue une menace existentielle. Les enseignants, les journalistes et les designers constatent que leurs compétences sont reproduites par des systèmes capables de générer des textes, des codes ou des images. Cette situation engendre ce que le psychologue social Claude Steele désigne sous le terme de menace identitaire.

Lorsque votre expertise distinctive est mise en doute, l'instinct de défense se déclenche de manière automatique. Cela engendre de la méfiance, du rejet ou du cynisme à l'égard de la technologie. Cette réaction ne saurait être qualifiée d'irrationnelle. En revanche, elle représente un dispositif de survie psychologique.

- Advertisement -

La créativité, l'expertise et l'unicité professionnelle constituent le fondement de notre identité. En conséquence, la contestation de leur validité par une machine suscite une résistance légitime. Il ne s'agit pas d'une appréhension face au progrès, mais d'une défense de ce qui constitue notre identité.

Rétablir le contrôle : la réponse à l'exclusion

Donner aux utilisateurs un certain contrôle sur les prédictions d'un algorithme, même minime, réduit l'aversion algorithmique. Cette découverte ouvre des perspectives tangibles en vue d'améliorer l'acceptation de l'IA.

Comme le souligne Dietvorst, les individus ne souhaitent pas renoncer à leur contrôle. La capacité d'apporter des modifications à un algorithme imparfait accroît la satisfaction des participants à l'égard du processus et les rend davantage disposés à croire en sa supériorité.

Cette exigence de contrôle met en lumière un besoin essentiel. Nous sommes plus enclins à accepter les erreurs lorsque nous sommes impliqués dans le processus décisionnel. Une simple modification symbolique est suffisante pour rétablir la confiance. De surcroît, cette approche métamorphose l'utilisateur passif en un acteur pleinement engagé.

Transparence : la clé de la confiance

La confiance ne peut être imposée. Elle s'acquiert progressivement. Les chercheurs soulignent l'importance de disposer de systèmes transparents, clairement expliqués et responsables. L'efficacité à elle seule ne saurait plus suffire.

La confiance émerge lorsque l'on est en mesure de comprendre, d'interroger et d'agir. Tant que l'IA continuera d'être perçue comme une boîte noire, elle suscitera des interrogations. En revanche, si un échange explicite s'établit entre la logique des machines et l'intuition humaine, l'acceptation connaîtra une progression.

Les développeurs se doivent d'intégrer l'explicabilité dès la phase de conception. Les utilisateurs ont le droit de comprendre les raisons qui sous-tendent les décisions prises par une IA. Par ailleurs, cette transparence contribue à renforcer la légitimité de la technologie. Elle convertit la méfiance en une collaboration fructueuse.

Vers une coexistence harmonieuse

L'affection ou l'aversion envers l'IA repose en définitive sur une question de neurones et de confiance. Les cerveaux humains réagissent de manière distincte en fonction de leur aptitude à appréhender et à maîtriser ces systèmes. Cette diversité cognitive contribue à expliquer la polarisation observée actuellement.

Cependant, des solutions sont bel et bien disponibles. Elles s'articulent autour de la transparence, de la participation et de l'explicabilité. Lorsque nos instruments deviendront véritablement lisibles, nos esprits cesseront de faire preuve d'une méfiance systématique.

Le défi n'est pas technologique mais humain. Il s'agit de concevoir des IA qui respectent nos besoins cognitifs fondamentaux. En définitive, la réconciliation entre l'humanité et les machines repose sur notre aptitude à établir des liens entre deux formes d'intelligence complémentaires.

Partager cet article
Passionnée par l’IA, j’aide les marques à comprendre et utiliser cette technologie pour créer des stratégies marketing innovantes, tout en restant centrée sur l’humain.