Une étude conduite par le MIT Media Lab sur les effets cognitifs de l’IA générative révèle un paradoxe inquiétant : plus les outils sont performants, plus l’activité cérébrale se contracte. Derrière les gains apparents de productivité se cache une dette cognitive mesurable, qui affecte la mémoire, l’engagement et l’appropriation des contenus. Un avertissement pour les entreprises qui misent sur les assistants IA sans en gouverner les usages.

Verra-t-on un jour un avertissement « À utiliser avec modération » s’affichant à chaque fois que nous solliciterons un modèles d’intelligence artificielle. C’est la question que se sont posés les scientifiques du MIT, avec leurs mot : l’usage de l’IA va-t-il créer une génération de débiteur cognitifs, à l’image de la dette technologique ?

En effet, les assistants conversationnels dopés à l’IA générative sont désormais intégrés à de nombreux environnements professionnels, qu’il s’agisse de production de contenus, de synthèse documentaire, de rédaction de notes ou de génération d’idées. Ce phénomène s’est accéléré avec l’adoption massive de plateformes comme ChatGPT, Claude, Gemini ou Mistral, qui offrent des réponses structurées, immédiates, et souvent perçues comme qualitatives. Mais ce confort cognitif apparent n’est pas sans contrepartie. L’étude « Your Brain on ChatGPT », menée par une équipe du MIT Media Lab, explore les effets de l’IA générative sur les capacités mentales mobilisées lors d’une tâche classique, comme la rédaction d’un essai argumentatif.

L’enquête repose sur une triple approche, neurophysiologique, linguistique et qualitative, afin de mesurer, comparer et interpréter l’évolution de l’activité cérébrale et du rapport au contenu produit, selon le mode d’assistance utilisé. Les résultats sont à la fois précis, préoccupants et riches d’enseignements pour les décideurs et responsables métiers confrontés à l’intégration rapide de ces outils dans les organisations.

Une dette cognitive mesurée par l’activité cérébrale

Le protocole de recherche a mobilisé un échantillon de 54 étudiants, issus de cinq universités américaines (MIT, Wellesley, Harvard, Tufts et Northeastern), répartis en trois groupes : un groupe « IA générative » utilisant exclusivement ChatGPT, un groupe « moteur de recherche » autorisé à naviguer librement sans recours aux IA, et un groupe « cerveau seul » (brain-only), travaillant sans aucun outil externe. Les participants devaient rédiger des essais de 20 minutes à partir de sujets extraits d’épreuves SAT, sur trois sessions distinctes. Lors d’une quatrième session, un sous-groupe volontaire voyait les rôles inversés, permettant d’observer d’éventuels effets de rémanence. Tous les essais ont été évalués par des enseignants et des IA, tandis que l’activité cérébrale était mesurée par électroencéphalographie (EEG). Le dispositif incluait également des entretiens qualitatifs et une analyse sémantique poussée des textes produits. Cette méthodologie rigoureuse, s’étalant sur quatre mois, donne une légitimité scientifique rare aux constats formulés.

Le premier enseignement de l’étude concerne la relation entre assistance technologique et activité cérébrale. Les mesures EEG révèlent une baisse significative de la connectivité neuronale chez les utilisateurs de l’IA, dans toutes les bandes de fréquence observées (alpha, beta, delta, theta). Les régions concernées sont celles associées à l’attention soutenue, à l’intégration conceptuelle et à la coordination exécutive : cortex préfrontal, cortex pariétal, et zones occipitales impliquées dans le traitement visuel. En clair, plus le niveau d’assistance est élevé, plus l’engagement cognitif s’amenuise. Les auteurs précisent que « la connectivité cérébrale diminue systématiquement à mesure que le soutien externe augmente », une phrase qui résume le cœur du problème : l’IA soulage, mais désactive.

Le cerveau s’adapte à l’assistance

Ce phénomène n’est pas transitoire. Les participants qui avaient travaillé durant trois sessions avec ChatGPT (groupe « LLM ») et qui sont repassés en session 4 à une rédaction sans outil (groupe « LLM-to-brain ») n’ont pas retrouvé leur niveau initial d’activation cérébrale. Les chercheurs notent explicitement : « Lors de la session sans IA, les anciens utilisateurs de ChatGPT n’ont pas retrouvé le schéma de connectivité d’un novice. » Autrement dit, le cerveau s’est adapté à l’assistance… au détriment de ses propres capacités. Cette observation alimente la notion de « dette cognitive » : un état de dépendance induit par l’habitude de déléguer certaines fonctions intellectuelles, qui s’installe et perdure même lorsque l’outil est retiré. Une forme de désapprentissage silencieux, mais mesurable, qui interpelle toutes les organisations misant sur la capitalisation des compétences cognitives.

Si la baisse d’activité cérébrale est préoccupante, elle ne s’accompagne pas d’une baisse immédiate de la qualité perçue. Au contraire, les textes générés avec l’aide de ChatGPT sont, dans l’ensemble, mieux notés par les juges que ceux rédigés sans IA. Ils sont plus fluides, plus structurés, et davantage conformes aux attentes formelles du sujet SAT. Cela pourrait conforter les partisans de l’IA comme levier de productivité et de qualité. Mais cette apparente supériorité masque une autre réalité : celle d’une homogénéisation des contenus, d’une réduction de la diversité lexicale, et d’une moindre distance sémantique entre les copies.

Un effondrement du sentiment d’appropriation

Les auteurs observent, par exemple que, sur le sujet « Philanthropy », les essais produits avec l’IA reprennent systématiquement les mêmes termes et arguments, notamment le n-gramme « homeless », absent des autres groupes. Ils notent aussi que ces textes font « très peu l’objet d’un travail de réécriture », et qu’ils sont « très proches de la réponse standard de ChatGPT à la consigne SAT ». Ce manque de personnalisation et d’intégration stratégique, couplé à une faible activité cérébrale, laisse penser que l’utilisateur agit davantage comme un modérateur de contenu généré que comme un auteur véritable. Autrement dit, le texte est bon, mais il ne reflète ni un raisonnement construit, ni une appropriation réelle.

Ce constat est confirmé par les entretiens qualitatifs. Lorsqu’on interroge les participants sur leur capacité à se souvenir de leur texte ou à en citer un passage, les écarts sont spectaculaires. Dans le groupe IA, 83 % des participants (15 sur 18) sont incapables de citer une seule phrase de leur essai, contre 11 % seulement dans les groupes « moteur de recherche » et « cerveau seul ». Pire encore : aucun des participants IA ne parvient à produire une citation correcte. Cette incapacité de restitution immédiate traduit une absence d’encodage mémoriel profond. Elle illustre un processus de consommation passive du texte, sans appropriation cognitive.

Les déclarations recueillies pendant les entretiens renforcent ce diagnostic. Un participant déclare : « J’ai simplement demandé à ChatGPT de structurer l’essai, puis j’ai copié la plupart de ce qu’il a généré. » Un autre reconnaît : « Ce n’est pas vraiment mon essai. J’ai juste modifié ce que ChatGPT m’a donné. » Sur les 18 participants du groupe IA, seuls 9 revendiquent un sentiment de propriété sur leur texte. Les autres évoquent une « coproduction », un partage 50/50 ou une extériorité assumée. Ce désengagement affectif et intellectuel affaiblit le lien entre la pensée produite et son auteur. Il remet en cause l’un des fondements de la légitimité intellectuelle dans un cadre professionnel : la capacité à défendre, expliciter et porter un contenu produit.

Un risque pour la gouvernance des compétences

Les résultats de l’étude dépassent les enjeux pédagogiques ou neurocognitifs. Ils posent des questions centrales pour la gouvernance des compétences dans les entreprises, les administrations et les fournisseurs de services. Lorsque les contenus produits par les collaborateurs ne sont plus véritablement « intériorisés », lorsqu’ils ne reposent plus sur une mémorisation active ni sur un raisonnement explicite, qui porte la responsabilité intellectuelle du livrable ? Qui est en mesure de l’expliquer devant un comité, un client ou une autorité de contrôle ? Et surtout, que se passe-t-il lorsqu’il faut corriger, ajuster, défendre ou réutiliser ce contenu sans resolliciter l’IA ?

La transformation induite par l’IA générative n’est pas qu’une question d’outillage. Elle affecte en profondeur la chaîne de valeur intellectuelle. Elle fait basculer les équipes de la maîtrise vers la dépendance, de la structuration vers la délégation. Ce mouvement n’est pas problématique en soi, mais il nécessite une gouvernance claire, des garde-fous méthodologiques, et une capacité à identifier les zones critiques où la pensée humaine reste indispensable. L’étude du MIT met en garde : « L’usage d’un grand modèle de langage a eu un impact mesurable sur les participants. Si les bénéfices étaient visibles au départ, sur les quatre sessions, les utilisateurs d’IA ont systématiquement obtenu des performances inférieures à tous les niveaux : activité neuronale, qualité linguistique, capacité de restitution. »

Cette phrase résonne comme un avertissement. Pour éviter que l’intelligence artificielle n’aboutisse à une dégradation silencieuse de l’intelligence humaine dans l’entreprise, il faudra apprendre à articuler assistance algorithmique et engagement cognitif, vitesse de production et profondeur d’appropriation. Autrement dit, il faudra gouverner non seulement les outils, mais aussi les usages cognitifs qu’ils engendrent.
publicité