Les usages de l’intelligence artificielle se généralisent à marche forcée,suscitant la réaction d'un collectif d’organisations scientifiques et civiques. Ils relancent l’idée d’un accord international pour encadrer les dérives les plus critiques. Soutenu par Pause IA, cet appel à fixer des « lignes rouges » suscite un large ralliement, bien au-delà des cercles techniques.
Présenté en septembre dernier à l’Assemblée générale des Nations Unies, l’appel à établir des lignes rouges pour l’intelligence artificielle refait surface avec le soutien de Pause IA, une initiative citoyenne française déjà à l’origine d’un moratoire sur les IA dites générales. Ce texte, porté conjointement par le Centre pour la sécurité de l’IA (CeSIA), The Future Society et le Center for Human-Compatible AI (CHAI, Université de Berkeley), exhorte les gouvernements à conclure un accord politique international d’ici la fin 2026, assorti de mécanismes concrets d’application.
Dans la lignée des conventions internationales sur les armes biologiques ou nucléaires, le texte vise à fixer des interdictions explicites sur certains usages de l’IA jugés incompatibles avec les droits humains ou la stabilité démocratique. Il cite notamment : la production de pandémies artificielles, la manipulation comportementale massive, y compris des enfants, la désinformation automatisée à grande échelle, les systèmes d’armes autonomes incontrôlables, ou encore l’érosion programmée de l’autonomie individuelle et de la vie privée.
Le texte complet, disponible sur le site red-lines.ai, est soutenu à ce jour par plus de 300 personnalités du monde académique, politique et scientifique, dont dix Prix Nobel et neuf anciens chefs d’État ou ministres. À cette liste s’ajoutent près d’une centaine d’organisations issues de la société civile, du secteur technologique, et des milieux associatifs. Pause IA appelle désormais les entreprises, les institutions et les citoyens à se joindre à cet engagement.
Un signal fort dans le débat sur la gouvernance mondiale de l’IA
Alors que l’Union européenne s’apprête à mettre en œuvre son règlement IA (AI Act) et que plusieurs États membres du G7 travaillent à la définition de standards partagés, l’initiative pourrait accélérer la convergence vers un cadre multilatéral plus ambitieux. À rebours des chartes éthiques non contraignantes, les porteurs du projet plaident pour un traité fondé sur des interdictions explicites, comparables à celles encadrant les armes chimiques ou le clonage reproductif humain.
En France, cette prise de position résonne dans un climat de vigilance accrue sur les usages algorithmiques sensibles, à l’instar des débats récents sur les IA émotionnelles, les agents conversationnels dans l’éducation, ou les plateformes de notation sociale. Pause IA entend ainsi faire pression pour que la France prenne part activement à la construction d’un cadre international robuste, capable de résister aux intérêts commerciaux dominants.
Vers une mobilisation des acteurs économiques et publics
Au-delà de la communauté scientifique, le collectif à l’origine de l’appel cherche désormais à élargir sa base de soutien aux acteurs économiques, aux collectivités et aux régulateurs. L’objectif : créer un mouvement suffisamment large pour contraindre les grandes puissances technologiques à s’engager formellement. Cette stratégie rejoint d’autres initiatives mondiales comme le *Frontier Safety Framework* ou les discussions engagées au sein du Partenariat mondial sur l’intelligence artificielle (PMIA).
Pour les organisations engagées dans le développement responsable de l’IA, la question n’est plus tant celle de l’innovation que celle de la gouvernabilité. La définition de lignes rouges opérationnelles pourrait devenir, à moyen terme, un critère de légitimité pour les projets IA à fort impact sociétal. Une logique qui dépasse la simple éthique pour entrer dans le champ de la régulation concrète, avec des effets potentiels sur les stratégies des entreprises, les financements publics et les politiques industrielles.