Les plaintes, comme celle du New York Times contre Perplexity, mettent en lumière un dilemme central pour l’économie de l’information. Les moteurs de réponses exploitent une collecte automatisée, transparente et quasi illimitée d’articles qui nécessitent pourtant des investissements humains considérables. Cette tension réactive une opposition ancienne entre diffusion du savoir et diffusion de l’information, deux régimes dont les modèles économiques divergent profondément.
Dans les siècles où les scribes copiaient les textes, la transmission du savoir reposait sur une activité pleinement économique. Les manuscrits étaient réalisés sur commande pour des seigneurs, des marchands ou des institutions religieuses, et le parchemin comme la main-d’œuvre qualifiée se vendaient à prix d’or. La copie n’était pas un geste gratuit, elle constituait un métier, fondé sur la rareté, la lenteur et la valeur matérielle des ouvrages. La presse moderne vit elle aussi d’un modèle économique, mais il repose sur une autre logique.
Elle transforme des faits bruts en contenus contextualisés, vérifiés et hiérarchisés, produits quotidiennement par des équipes nombreuses, financées par l’abonnement, la publicité ou les droits voisins. Le procès intenté par le New York Times contre Perplexity révèle une dissymétrie fondamentale entre cet investissement permanent et les capacités techniques d’un moteur de réponses à prélever et à redistribuer des contenus à coût marginal nul.
De la copie manuscrite à la protection de l’information
Dans l’Antiquité comme au Moyen Âge, la copie répondait à une demande sociale et économique claire. Les manuscrits circulaient dans des réseaux d’élite où la valeur provenait de leur rareté, de leur matérialité et de la compétence des scribes. L’imprimerie a provoqué une transformation radicale en rendant possible la reproduction rapide et multiple. Le droit d’auteur est alors devenu un mécanisme indispensable pour garantir la rémunération des créateurs et des éditeurs, tandis que les droits voisins ont permis d’encadrer l’usage de l’information journalistique à forte valeur ajoutée.
Le New York Times rappelle dans sa plainte qu’il mobilise des milliers de collaborateurs pour produire des centaines d’articles par jour, dont de longues enquêtes nécessitant des déplacements, moult vérifications et des expertises. La valeur d’un article réside autant dans la chaîne éditoriale qui le soutient que dans le texte final. La reproduction automatisée par des systèmes d’IA conversationnelle ne relève donc pas d’une simple diffusion du savoir, mais d’une extraction directe, à grande échelle, dans une économie déjà sous tension.
Les moteurs de réponses, nouveaux copistes mécaniques
Perplexity illustre cette rupture. Le New York Times accuse l’entreprise d’avoir contourné les protocoles d’exclusion, utilisé des agents techniques dissimulés et recyclé des passages entiers d’articles, y compris ceux placés derrière le paywall, c’est-à-dire barrés par une procédure de paiement. Selon la plainte, Perplexity utilise une récupération dynamique fondée sur la génération augmentée par récupération, injectant en temps réel des articles du journal dans des réponses qui se substituent à la consultation de l’original.
Ce mécanisme transforme l’article journalistique en matière première pour une synthèse algorithmique. Le moteur de réponses capte l’usage, l’attention et la valeur de consultation, tandis que la rédaction assume les coûts fixes. Cette dissymétrie est accentuée par la capacité des systèmes d’IA à extraire et à répliquer des milliers de contenus sans effort, sans friction et sans renvoyer vers la source. Les litiges engagés par Dow Jones, le New York Post, Encyclopaedia Britannica, Merriam-Webster et Reddit montrent que cette dynamique dépasse largement le cas du Times.
La frontière brouillée entre savoir partagé et information protégée
Le débat convoie souvent deux notions différentes. Le savoir universel, textes anciens, corpus scientifiques, littérature du domaine public, appartient à la collectivité. Il est légitime qu’il circule, soit résumé, commenté ou transformé. L’information journalistique suit une autre logique. Elle est périssable, coûteuse, produite sous contrainte de responsabilité, et financée par des modèles économiques éprouvés. Les moteurs de réponses brouillent cette frontière en générant des synthèses où savoir et information sont confondus, sans indication claire des sources utilisées.
En supprimant la friction de la consultation, l’IA introduit un paradoxe majeur : plus l’accès aux contenus est fluide, plus les acteurs qui financent cette production sont fragilisés. Une réponse algorithmique qui substitue la lecture d’un article prive la rédaction d’abonnements, de publicité et de visibilité. L’utilisateur reçoit une réponse homogène, sans percevoir la diversité des statuts juridiques ni des coûts de production des contenus agrégés.
La valeur se déplace du producteur vers l’agrégateur IA
Le cœur du problème ne réside pas seulement dans la copie non autorisée. La presse finance l’information avec des coûts fixes élevés, alors que les moteurs de réponses la consomment et la redistribuent à coût marginal nul. Si ces systèmes deviennent le principal point d’accès à l’actualité, la valeur économique se déplace du producteur vers l’agrégateur algorithmique. Sans mécanisme de régulation ou de rémunération, l’écosystème qui produit l’information pourrait s’appauvrir d’autant plus vite que l’IA accélère la diffusion des contenus.
Les accords de licence récemment conclus entre certains médias et des entreprises d’IA montrent que des solutions existent. La rémunération des sources, la transparence sur les corpus et la traçabilité des usages sont des pistes crédibles. En miroir, les pratiques de collecte non régulée actent un transfert de valeur insoutenable. Pour les professionnels du numérique, l’enjeu n’est pas abstrait. Un moteur de réponses qui aspire l’information sans financer sa production met en cause la fiabilité des contenus consommés par les entreprises et la pérennité des écosystèmes informationnels.
Le procès Perplexity–NYT annonce une recomposition inévitable. Comme les copistes d’hier travaillaient pour des commanditaires qui reconnaissaient leur rôle, les agents d’IA devront contribuer à la survie de l’information qu’ils exploitent. L’enjeu n’est plus la simple innovation technique, mais la gouvernabilité d’un système où la valeur risque de se déplacer entièrement vers ceux qui synthétisent, au détriment de ceux qui produisent. Les prochaines décisions judiciaires dessineront les contours de ce nouvel équilibre.
Un dilemme industriel, bien plus qu’un conflit juridique
Pour IT Social, l’équation ne se limite pas à un différend technique entre un journal et un moteur de réponses. Des mécanismes de réutilisation existent déjà pour protéger les auteurs et les éditeurs, qu’il s’agisse du droit voisin, des licences d’archives ou des régimes de citation encadrée. Mais ces cadres ont été conçus pour des modèles de reproduction identifiables, jamais pour des chaînes de génération automatisée capables d’absorber, de recomposer et de diffuser des contenus sans laisser de trace. Si ces outils juridiques ne suffisent plus à encadrer l’usage éditorial des modèles d’IA, il reviendra au législateur de combler les lacunes là où cela s’avère pertinent.
Préserver la presse n’est pas une revendication corporatiste. C’est une condition essentielle à l’exercice du droit à l’information et de la liberté d’expression, deux piliers des démocraties occidentales. Dans un paysage où l’accès à l’information devient algorithmique, la robustesse de ces principes est indissociable de la protection des métiers qui transforment les faits bruts en informations vérifiées, recoupées et fiables, que les modèles d’IA exploitent ensuite à grande échelle.























