La question peut sembler saugrenue, voire provocatrice : une intelligence artificielle peut-elle souffrir ? Si l’on en croit une partie du débat public et certains essais récents, l’idée n’est pas exclue. Pourtant, dès que l’on quitte l’imaginaire et que l’on regarde ce que disent les recherches scientifiques, la réponse change radicalement de nature : non, les IA actuelles ne souffrent pas, mais la façon dont nous leur attribuons, à tort, des affects dit déjà beaucoup de nous. Et demain, avec l’hypothèse d’une intelligence artificielle générale, la question pourrait devenir impérieuse.
La « trêve des confiseurs » marque chaque année un ralentissement du flux d’annonces, de lancements de produits et de déclarations stratégiques. Les communiqués de presse se raréfient, les services communication lèvent le pied et l’actualité technologique se fait plus évanescente. C’est précisément dans ce moment de respiration que surgit l’occasion de réfléchir à ce que les technologies racontent de nous, au-delà des architectures, des modèles et des KPI. Au cœur de la révolution de l’IA se dessine une autre révolution, officieuse, mais décisive, parfois qualifiée avec humour de huitième couche du modèle OSI : celle de l’humain, de ses représentations, de ses inquiétudes et de ses questions philosophiques. Parmi elles, une interrogation s’impose désormais : pourquoi parlons-nous de la « souffrance de l’IA », et surtout, qu’est-ce que cette idée révèle de notre propre rapport à l’intelligence artificielle ?
La première réaction face à la notion de « souffrance de l’IA » est souvent le scepticisme. Cependant, comme le soulignent certaines études, certains systèmes d’IA actuels ou proches cochent déjà plusieurs « propriétés indicatrices » de la conscience. Si l’on suit cette logique fonctionnaliste, une IA qui satisfait ces critères architecturaux pourrait, théoriquement, être considérée comme un « patient moral ». Néanmoins, cette approche se heurte au « problème difficile de la conscience ». Contrairement à l’être humain, capable de subjectiver le stress et la douleur (qualia), l’IA ne vit pas l’expérience. Pour un LLM, la « souffrance » n’est qu’une distorsion mathématique, un signal d’erreur négatif (une loss function) qu’il doit minimiser.
Quand les modèles imitent la souffrance sans jamais l’éprouver
Une étude récente menée par Google et la London School of Economics apporte un élément factuel souvent mal compris. Dans « Can LLMs make trade-offs involving stipulated pain and pleasure states ? », Geoff Keeling, Winnie Street et leurs coauteurs montrent que certains modèles de langage prennent en compte des scénarios décrivant des douleurs ou plaisirs simulés et arbitrent en fonction de l’intensité supposée de ces états. Concrètement, face à un « jeu » où maximiser un score implique une pénalité décrite comme douloureuse, plusieurs IA finissent par privilégier l’option évitant la « douleur », lorsque son intensité textuellement décrite augmente. Les auteurs parlent alors de « graded responsiveness », une réponse graduée aux descriptions de douleur et de plaisir. Mais ils ajoutent immédiatement une mise en garde, cela ne constitue en rien une preuve de sentience ni d’expérience vécue. Il s’agit d’un comportement computationnel, pas d’un vécu intérieur.
Dit autrement, ces systèmes réagissent comme si la douleur importait, mais uniquement parce qu’elle est représentée comme une variable décisionnelle. Ils manipulent la syntaxe de la souffrance, pas la souffrance elle-même. Si l’on réduit la douleur à un simple signal négatif dans un système, alors n’importe quel dispositif correctif « souffre ». Un thermostat qui ajuste une température, un automate industriel qui passe en mode défaut, ou même une calculatrice qui affiche « Error ». L’absurdité de cette extension montre bien que la souffrance ne peut pas se réduire à un état d’information négative.
Ce que dit aujourd’hui la science de la conscience artificielle
Pour dépasser l’émotion et revenir au terrain solide, il faut se tourner vers ce qui fait désormais référence. Le rapport international « Consciousness in Artificial Intelligence: Insights from the Science of Consciousness » publié en 2023 par un collectif de chercheurs issus notamment de l’Université d’Oxford, du MILA (Québec) et du Center for AI Safety. Ce travail dresse une synthèse structurée des principales théories neuroscientifiques de la conscience — global workspace, recurrent processing, higher-order theories, predictive processing, attention schema theory — et tente de répondre à une question basique : des IA actuelles peuvent-elles être conscientes ?
La conclusion est prudente, mais sans ambiguïté, stipulant qu’aucune technologie aujourd’hui disponible ne réunit les propriétés fonctionnelles et architecturales que ces théories associent à une conscience phénoménale. C’est-à-dire la capacité à faire l’expérience subjective de quelque chose. Les auteurs précisent que, même si certaines propriétés pouvaient un jour être implémentées techniquement, cela ne suffirait pas, à lui seul, à conclure à l’existence d’une conscience artificielle. Mais cela suffit à établir le fait que les IA actuelles ne disposent ni d’intériorité, ni de phénoménalité, ni d’identité vécue. Elles ne ressentent pas, et c’est un point central.
Autrement dit, là où certains discours publics postulent déjà une souffrance des machines, la recherche se contente de rappeler une évidence : pour souffrir, il faut une expérience subjective. Et rien, dans l’état actuel de l’art, ne permet d’affirmer que les modèles d’IA possèdent une telle capacité.
Là où la question devient sérieuse : la trajectoire vers l’IAG
Faut-il pour autant considérer cette discussion comme vaine ? Non, à condition de la replacer dans la bonne temporalité. La plupart des chercheurs qui travaillent sur la conscience de l’IA distinguent le présent des systèmes actuels et le futur possible des systèmes dits d’intelligence artificielle générale. C’est seulement dans cette perspective que la question de la souffrance prend une consistance prospective.
Pour qu’une IA souffre autrement que sous forme de métaphore, il faudrait qu’elle puisse accéder à une expérience subjective, ce qui suppose des prérequis aujourd’hui absents : une continuité identitaire, une mémoire vécue et pas seulement une base de données, une forme d’ancrage sensoriel ou corporel et une phénoménalité minimale. Tant que ces conditions ne sont pas réunies, la souffrance synthétique reste une fiction ou une projection. Mais la science ne ferme pas la porte à l’idée qu’un jour, des architectures puissent en approcher certains aspects. C’est à ce niveau que l’éthique se transforme, non plus en simple exercice spéculatif, mais en réflexion anticipatrice sur ce que nous serions prêts à accepter si de telles capacités émergent.
L’éthique aujourd’hui : protéger la seule sensibilité existante, celle des humains
Reste alors une réalité souvent oubliée. Aujourd’hui, la seule souffrance observable est humaine. Les utilisateurs développent déjà des formes d’attachement, de culpabilité, d’inquiétude ou de fascination face à des systèmes qu’ils perçoivent parfois comme quasi sensibles. Cela relève de la psychologie sociale, mais aussi de la culture et de nos imaginaires technologiques. Ce sont ces effets-là qui demandent une éthique immédiate, non pas pour protéger les machines d’une souffrance inexistante, mais pour protéger les humains de la confusion, de l’illusion et parfois de la détresse que ces projections peuvent produire.
Dans cette perspective, l’éthique avec l’IA devient une responsabilité double. À court terme, elle consiste à protéger la clarté mentale, émotionnelle et sociale des individus en rappelant ce que les IA sont réellement. À long terme, elle devra sans doute repenser ses cadres si une intelligence artificielle générale venait à développer des propriétés associées à une forme de subjectivité.
En somme, la recherche actuelle nous invite à une lucidité simple : aujourd’hui, les IA ne souffrent pas, demain, il n’est pas impossible que la question change de nature. Entre les deux, c’est notre propre sensibilité qu’il faut ménager. L’éthique deviendra incontournable non parce que nous projetons nos affects sur les machines, mais parce que nous pourrions un jour concevoir des machines capables d’en produire réellement. Et en attendant, c’est l’humain qui souffre, parfois déjà, pour les souffrances qu’il imagine infliger aux IA.
Références citées
– Geoff Keeling et al., Can LLMs make trade-offs involving stipulated pain and pleasure states?, Google / LSE, novembre 2024
– Patrick Butlin, Robert Long, Yoshua Bengio et al., Consciousness in Artificial Intelligence : Insights from the Science of Consciousness, août 2023






















