Anthropic vient de conclure une transaction inattendue avec des auteurs américains, évitant ainsi un procès de grande ampleur sur l’utilisation de livres piratés pour entraîner son IA Claude. Cette décision survient dans un climat de défiance croissante envers les pratiques des entreprises d’IA et soulève de nouvelles interrogations sur la légalité des corpus utilisés pour former les modèles.
Anthropic évite un procès potentiellement ruineux en préférant un règlement plutôt qu’une clarification judiciaire. Conjointement avec plusieurs auteurs, ils ont convenu d’un règlement de principe cette semaine. Celui-ci reste soumis à l’approbation d’un juge, avec dépôt des détails attendu d’ici le 5 septembre 2025.
En juin, la juge a estimé que l’entraînement de Claude à partir des livres constituait en grande partie un « usage loyal », mais il a jugé illégal le stockage de millions de livres piratés dans une bibliothèque centrale, ouvrant la porte à des milliards, voire un trillion de dollars de dommages et intérêts potentiels.
Suspicion généralisée sur les données d’entraînement
Le règlement d’Anthropic survient dans un contexte où les grands acteurs de l’IA sont régulièrement accusés d’utiliser, sans autorisation, des corpus d’ouvrages, d’articles ou de contenus protégés. Plusieurs procès sont en cours, notamment contre OpenAI et Google, accusés de puiser dans des bases de données massives sans validation juridique ni accord des ayants droit. Ces procédures alimentent une défiance généralisée de la part des éditeurs, des créateurs et des régulateurs, qui dénoncent un manque de transparence dans l’origine des données.Ce climat fragilise l’argument récurrent des fournisseurs d’IA, selon lequel l’entraînement des modèles relèverait de l’« usage loyal » et ne nécessiterait pas d’autorisations systématiques. En réalité, l’absence de traçabilité et la dépendance à des données potentiellement illicites font peser un risque majeur de litiges en cascade.
Des implications encore incertaines pour le secteur de l’IA
La situation est unique. Le règlement pourrait constituer un précédent, mais son influence dépendra des conditions exactes, pour l’instant confidentielles. Le professeur James Grimmelmann (Université de Cornell) note que ce cas singularise Anthropic. Le professeur Chris Buccafusco (Duke) s’étonne que l’entreprise, bien positionnée sur le plan juridique après la décision sur l’« usage loyal », ait néanmoins choisi de régler.Parallèlement, Anthropic fait face à d’autres litiges, notamment une action de Universal Music Group portant sur l’usage illégal supposé de paroles de chansons dans l’entraînement de Claude.
Le règlement met fin à une procédure qui aurait pu clarifier le cadre de l’« usage loyal » appliqué à la formation des IA. Il illustre l’impératif pour les entreprises du secteur de documenter rigoureusement l’origine des données utilisées.
Dans un contexte d’incertitude juridique élevée et de méfiance accrue, les acteurs du marché informatique B2B doivent prioriser l’acquisition légale des contenus, cela pourrait devenir un avantage concurrentiel mesurable en termes de conformité et de maîtrise des risques financiers.