Le deepfake, une technique de synthèse d’images par l’intermédiaire d’une intelligence artificielle, n’est pas en soi une vile manière de déformer les informations. À la base, elle facilite l’apprentissage d’une AI dans la combinaison d’images. Mais aux mains de personnes malintentionnées, il est vrai qu’il peut devenir une arme redoutable pour manipuler l’opinion publique à travers des vidéos truquées. Les solutions apportées par les entreprises contre les deepfakes incluent l’analyse des images pixel par pixel pour essayer de détecter les sections qui ont été piratées. Il s’agit de la pratique la plus courante. Mais une autre technique soulève des inquiétudes. C’est l’utilisation de l’intelligence artificielle. Dans un rapport de Data and Society, Britt Paris et Joan Donovan déclarent que le recours à l’IA pourrait accroître le pouvoir entre les mains des sociétés privées à travers la concentration de davantage de données. Par conséquent, ils pensent que cette solution n’est pas la meilleure façon de procéder. Au contraire, cela risque d’amplifier le phénomène. Par ailleurs, ils sont convaincus que quelle que soit la technique utilisée, les deepfakes ne disparaîtront pas pour autant. La meilleure approche serait plutôt d’atténuer leur impact. Ainsi, ils préconisent la mise en place d’un cadre judiciaire clair pour poursuivre en justice les auteurs de vidéos truquées afin d’empêcher leur diffusion.
Plusieurs sociétés ont déjà mis en place un panel de techniques contre les deepfakes. C’est le cas de Facebook. La DARPA a également développé Medifor, un outil de détection des différences de pixels capable de déterminer les points falsifiés dans une vidéo. La startup TruePic a proposé une IA pour détecter des photos manipulées.