La sortie d’un système d’intelligence artificielle capable de générer des textes cohérents, le GPT-2, a été annoncée par le laboratoire OpenAI. Immédiatement, plusieurs experts se sont alarmés autour de sa formidable capacité. Le laboratoire aurait déjà dû le sortir en début d’année. Mais par crainte de le voir être utilisé à des fins malveillantes, il n’a diffusé que des bribes de la version complète. Actuellement, OpenAI estime qu’il n’y a pas de risque majeur concernant une éventuelle utilisation abusive de GPT-2. Par conséquent, OpenAI a publié la version complète de l’IA. À première vue, la capacité de GPT-2 est remarquable, capable de générer du texte cohérent à partir d’une simple phrase. Mais l’IA devient moins cohérente sur des textes longs qui nécessitent l’utilisation de noms et d’attributs de personnages, ou de faire correspondre un article de presse à son sujet. La version web de GPT-2 est disponible sur TalkToTransformer.com.

Les débats sur les systèmes d'IA font actuellement rage. Bon nombre d’observateurs soulignent le risque que des utilisateurs malveillants pourraient les utiliser à mauvais escients, comme la génération de « revenge porn » basé sur les deepfakes, par exemple. C’est la raison pour laquelle OpenAI a hésité à publier le GPT-2 dans un premier temps. De plus, de nombreux experts ont critiqué le laboratoire pour avoir sorti la version finale de l’IA en soulignant que cela ne permettait pas aux autres développeurs de s’orienter vers des mesures d’atténuation des risques. En réponse, OpenAI déclare être conscient du fait que GPT-2P peut être utilisé par des tiers pour propager des idéologies extrémistes, pour diffuser des spams malveillants d’apparence cohérente ou pour inonder les réseaux sociaux de publications invasives. Mais en même temps, le laboratoire déclare que les risques énumérés ne se sont pas encore manifestés. En parallèle, Open AI aurait développé des systèmes visant à détecter les faux textes à partir de GPT-2, affichant une précision de 95 %. Ce chiffre ne permet pas pour autant d’assurer une totale assurance de détection des faux textes. OpenAI estime qu’il faudra prévoir en parallèle une assistance humaine. Le laboratoire déclare continuer la surveillance de l’utilisation GPT-2.

À lire aussi OpenAI déploie une nouvelle mise à jour de son générateur de texte GPT-2… et vous pouvez l’essayer !