Les créateurs de fausses informations peuvent aujourd’hui se tourner vers les technologies, en particulier l’Intelligence Artificielle, pour développer de nouvelles formes de dérives, et donner l’impression qu’une personne dit ou fait quelque chose.
Ces vidéos ont fait le tour de la planète, les Président Trump et Obama tiennent des discours… qu’ils n’ont jamais prononcés ! De démonstrateurs, ces vidéos placées entre de mauvaises mains peuvent devenir des vecteurs de fausses informations qui ont tout de la vérité, puisqu’on y voit les personnes s’exprimer.
Un exemple de dérive : un parti politique belge, le sp.a (Socialistische Partij Anders), a publié sur FAcebook et Twitter une vidéo où l’on voit Donald Trump donner des conseils aux Belges après son retrait de l’Accord de Paris sur les changements climatiques. “As you know, I had the balls to withdraw from the Paris climate agreement, and so should you”, affirmait-il péremptoirement face à la caméra. Un faux que le parti avait commandé à un studio de production - réalisé à l’aide du logiciel de montage After Effects - et destiné à attirer l’attention afin d’inciter le gouvernement belge à prendre des mesures pour le climat.
Il y deux choses intéressantes dans cette expérience : d’abord elle démontre que le détournement et la transformation des contenus vidéos et sonores est possible, même si la qualité du rendu n’est pas encore au rendez-vous. Et c’est là que prend place le second enseignement, malgré ces défauts, la fausse vidéo a attiré l’attention et surtout la réaction de nombreux Belges. Le discours porté par la ‘fake news’ a été pris au premier degré.
Les deep fakes et deep video portraits
Comment sont réalisées ces fausses videos ? Elles reposent sur l’Intelligence Artificielle (IA), plus précisément sur le machine learning, intégré dans une technologie universitaire développée depuis 2014 et nommée “generative adversarial network” (GAN). Cette dernière consiste à générer de manière algorithmique de nouveaux types de données à partir des ensembles de données existants.
GAN permet par exemple de produire une nouvelle photo à partir de photos existantes, le résultat différent n’étant pas une copie exacte d’une photo existante. Elle s’applique également à la vidéo. Et elle peut être utilisée pour générer de nouveaux sons ou de nouveaux textes.
Une autre technologie universitaire, nommée “deep video portraits”, permet de capter des mouvements d’un visage et de les appliquer à une autre personne. Le deep fake est ainsi piloté par un individu. Les images de Barack Obama prononçant le discours d’un chercheur dont les expressions étaient captées sont surprenantes de vérité…
Du deep fake dans le porno
Utilisée dans un cadre universitaire, cette technologie a commencé à faire parler d’elle en 2017, lorsqu’un individu surnommé ‘Deepfakes’ a exploité TensorFlow, le logiciel gratuit d'apprentissage automatique en open source de Google, afin de superposer le visage de célébrités sur le corps de femmes dans des films pornographiques. Et surtout lorsque leur auteur a diffusé les vidéos porno modifies sur les réseaux sociaux !
L’affaire, croustillante, a été largement reprise par les médias, avec d’ailleurs une bonne dose de voyeurisme et d’intérêt. Le coup de projecteur opportuniste était donné au phénomène naissant des ‘deep fakes’. Et tout à coup le monde découvrait que toute personne ayant accès à Internet et à des images du visage d'une personne pourrait générer son propre deep fake !
Le danger d’une arme massive aux effets dévastateurs
Les faux films pornos violent de manière viscérale le droit des femmes ou des hommes quoi en sont victimes à la vie privée. Les dégâts causés peuvent être considérables. Mais le danger potentiel des deep fakes ne s’arrête pas là. Car un deep fake est un produit, une sorte d’emballage pour véhiculer de fausses infos. Or, il existe de véritables “fournisseurs de fausses nouvelles”, des professionnels de fakes news qui ne manqueront pas de s’emparer de cette technologie à des fins de propagande et de manipulation de l’information.
Dans une société au climat politique polarisé, comme la société américaine - et nous n’en sommes pas loin en France et en Europe parfois ! -, où une partie de la communication au plus haut du gouvernement repose sur le mensonge accepté par un électorat de masse, des deep fakes massif auront un pouvoir d’érosion de la confiance catastrophique. Et un pouvoir de manipulation des communautés comme des croyances.
La toxicité de la manipulation de l’information en réseau via nos biais cognitifs va entraîner une dégradation de la vérité et de la force des médias. Des campagnes de désinformation par des contrefaçons vont perturber et falsifier profondément les processus démocratiques.
Aujourd’hui, les pratiques de deep fakes nécessitent de hauts niveaux de compétence. Une image modifiée sous Photoshop est plus facile à réaliser et peut faire beaucoup plus de mal. Mais demain ? Les deep fakes deviendront à la fois plus faciles à produire et plus réalistes, inaugurant une nouvelle ère de la contrefaçon. Le monde est inquiet, en dehors de l’industrie du cinéma, les implications positives des technologies de deep fake ne l’emporteront pas sur les conséquences négatives.
Menaces sur la confiance
La menace des contrefaçons ne peut que s’intensifier. Il devient urgent de développer et de mettre en application des méthodes de détection des contrefaçons numériques et de lutter contre leur propagation. La course est lancée, mais ce qui est certain c’est que l’IA, en plus de servir à détourner les contenus, sera également exploitée pour contourner les outils de détection. Une simple mise à jour d’un algorithme suffit à changer la donne, les pirates comme les propagateurs de fausses informations le comprendront très vite…
La prolifération massive des faux va exacerber la chute de la confiance dans les institutions et les médias. Par un phénomène appelé “dividende du menteur”, dans un monde ou les faux s’amplifient, les personnes malhonnêtes vont s’épanouir en affirmant que la vérité est fausse. Comme l’a indiqué Hany Farid, professeur d’informatique à l’Université de Californie à Berkeley, interrogé par The Guardian, “Le problème ne réside pas uniquement dans le fait que la technologie des fausses technologies s'améliore. C'est que les processus sociaux par lesquels nous arrivons collectivement à connaître les choses et à les tenir pour vraies ou fausses sont menacés."
Source : The Guardian
Image d’entête 948148916 @ iStock Photo Oleksandr Chaban