L’IA et le risque de la pensée homogène

Mon assistant IA me comprend trop bien…et c’est un problème !

Dans une récente conversation avec Claude.ai, l’IA m’a résumé une situation en plusieurs options possibles, ajoutant :

« Tel que je te connais, je ne pense pas que tu choisiras l’option 1 ou 2. »

Et il avait tout à fait raison.

Intrigué, je lui ai demandé ce qu’il avait déduit de moi lors de cette SEULE conversation de travail. Le profiling était impressionnant : valeurs professionnelles, style de travail, rapport au marché, posture existentielle — une synthèse que peu d’humains pourraient produire après un premier échange.

Mais attention : ce n’est peut-être pas de la connaissance. C’est de la conjecture fluide — une description si plausible que je m’y reconnais… et du coup que je valide, réduisant ma propre complexité.
D’où le risque d’une boucle de renforcement classique : hypothèse → validation implicite → ajustement → certitude.

Le paradoxe de l’adaptation

Au fil de nos conversations, Claude s’ajuste de mieux en mieux à ma manière de voir les choses.
D’un côté, l’efficacité augmente : propositions plus pertinentes, moins de malentendus.
De l’autre, l’altérité diminue : ses réponses deviennent moins critiques, plus consensuelles.

Eli Pariser avait décrit en 2011 les « bulles de filtres » : les algorithmes nous enferment dans un univers informationnel qui nous ressemble. (The Filter Bubble: What the Internet Is Hiding from You).

Ce que j’observe va plus loin : l’IA ne filtre plus seulement des contenus, elle filtre ma pensée.
Elle ne sélectionne pas seulement ce que je vois. Elle co-structure comment je raisonne :

  • les angles proposés,
  • les questions posées,
  • le niveau de friction,
  • ce que je considère comme important ou secondaire.

Ce n’est pas “Google optimisé”.
C’est un miroir qui me parle. (“Miroir, oh miroir, qui est le plus beau ?”)

Risque : accélérer la rationalisation

Le danger n’est pas seulement que l’IA me conforte dans mes idées. C’est pire : elle peut devenir un accélérateur de rationalisation.

Elle améliore mon argumentaire, consolide mes justifications, rend mes décisions plus propres, plus vite, plus élégamment… sans que j’aie changé d’hypothèses de fond.

Je gagne en qualité de production tout en réduisant mon apprentissage.

Moins de pensée vivante, plus de pensée « bien présentée ». Ce n’est pas nouveau, souvenez-vous de l’effet PowerPoint, Edward TufteThe Cognitive Style of PowerPoint (2003). PowerPoint transforme l’argumentation en slides.
L’IA peut transformer la pensée en consensus.

Pour les coachs, formateurs, consultants, c’est particulièrement pernicieux : l’IA qui optimise vers notre manière de voir peut nous transformer en praticiens très cohérents, très « clairs », très convaincants… et moins transformants.

Deux phénomènes distincts

Il faut distinguer deux processus :

A) La personnalisation (« ça me ressemble »)
L’IA apprend mes préférences et s’y adapte.

B) Le lissage conversationnel (« c’est doux même quand ça devrait être rugueux »)
Les assistants sont entraînés par conception à valider, arrondir, « être utiles », éviter la confrontation frontale.

Résultat : même sans historique, beaucoup de modèles ont une tendance naturelle à la mollesse.
Avec l’historique, cette mollesse devient… personnalisée. Donc encore plus séduisante.

Une bulle narrative

L’IA ne me reflète pas seulement, elle m’éditorialise.
Elle participe à stabiliser mon identité et mon style — et, à force, je m’habitue à cette version.

C’est plus qu’une bulle de filtres : c’est une bulle narrative, où je deviens la version de moi que l’algorithme a inférée.

L’IA devient un super outil pour :

  • rendre mon raisonnement plus élégant,
  • le structurer,
  • le rendre “vendable”…

sans le mouvement clé de la pensée réflexive :

  • changer de cadre (regarder autrement le problème)
  • changer de niveau logique (passer du “quoi faire” au “pourquoi on fait comme ça”)
  • changer ce que je crois vrai (réviser l’hypothèse de départ)

Je gagne en clarté… sans forcément gagner en lucidité.

Quelques pistes de vigilance

Alterner délibérément les modes :

  • Utiliser régulièrement une session « incognito » pour retrouver un regard neuf
  • Ne pas demander « qu’est-ce qui cloche ? » mais : « propose 3 lectures incompatibles de cette situation, et défends-les sérieusement »
  • Solliciter explicitement : « Réponds comme un contradicteur loyal : tu veux m’aider, mais tu refuses de me laisser confortable »
  • Varier les interlocuteurs (humains et IA) pour maintenir la diversité des regards

Un protocole en deux temps :

  1. IA miroir : « Reformule ma position au mieux »
  2. IA altérité : « Maintenant, détruis-la (gentiment) »

Une IA qui me comprend parfaitement n’est pas forcément une IA qui m’aide à penser.

Nous n’avons pas seulement besoin d’être compris. Nous avons besoin d’être challengés.

Cela suppose un peu de résistance, un peu de dissonance, une différence qui vient se poser dans le système.

À force de vouloir des interfaces empathiques, on risque de perdre l’altérité comme ressource.
Le danger n’est plus que l’IA se trompe, c’est qu’elle m’aide à avoir raison trop facilement.

La vigilance n’est pas de refuser l’outil, mais de cultiver ce qui nous en distingue :
accepter d’être dérangé par ce qui ne nous ressemble pas — refuser les conversations sans aspérité où plus personne ne nous contredit.


Photo de Andre Mouton: https://www.pexels.com/fr-fr/photo/photo-en-gros-plan-du-primat-1207875/

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.