Le deepfake est une technologie basée sur l’IA capable de modifier l’apparence d’une personne sur une photo ou dans une vidéo. La société de cybersécurité Deeptrace a réalisé une nouvelle étude qui a fait ressortir que plus de 96 % des vidéos développées en deepfake sont de nature pornographique. En tout, ces contenus en ligne représentent 134 millions de vues. Les sujets concernés sont surtout féminins. D’ailleurs, les femmes seraient les premières victimes de ce phénomène. Selon la professeure de droit Danielle Citron de l’Université de Boston, le deepfake est devenu une arme dirigée contre les femmes. Si ces contenus deviennent de plus en plus nombreux, c’est surtout que la technologie est de plus en plus à la portée de tout le monde. Des algorithmes d’apprentissage automatique se généralisent d’une façon exponentielle, à l’exemple des programmes d’échanges de visages disponibles sur des hébergeurs populaires comme GitHub.

Screenshot-2019-10-07-at-4.35.32-PM

Dans le détail, le rapport présenté par Deeptrace fait apparaître des chiffres hallucinants sur les vidéos deepfake. Tout d’abord, ils ont augmenté de 100 % en une année, passant de 7964 à 14678 vidéos entre 2018 et 2019. Les sites pornographiques qui utilisent le deepfake ont aussi explosé en nombre. Face à ce phénomène, plusieurs entreprises technologiques ont pris des mesures sérieuses. Reddit a par exemple interdit un sous-programme, le r/deepfake. Deeptrace a également découvert une vingtaine de communautés de créateurs de contenus pornographiques sur Reddit, 4chan et 8chan. Dans son rapport, la société indique que cette technologie constitue également une porte d’entrée supplémentaire pour les cybercriminels.

#Deepfake : 96% d'origine #pornographique, les femmes en principales victimes Click to Tweet
À lire aussi L’utilisation de l’IA contre les deepfakes ne serait pas la bonne solution