Grâce à l’IA, Facebook peut détecter aujourd’hui des contenus de pédopornographie et les supprimer à temps sans qu’ils aient été signalés. Selon le réseau social, depuis le lancement de son nouvel outil, 8,7 millions de contenus enfreignant les règles sur la nudité infantile ont été supprimés de la plateforme. Sont aussi inclus dans cette catégorie toute photo d’enfant nu. Ce qui soulève des indignations venant de parents ayant vu leurs publications supprimées alors qu’elles représentaient leurs enfants dans leur bain, en toute innocence.
Facebook s’explique en déclarant que ces mesures sont prises pour éviter toute tentative d’abus. Pour rappel, le réseau social a déjà fait la même erreur en 2016 en supprimant la photo d’une enfant fuyant une attaque au napalm durant la guerre du Vietnam. Facebook a admis son erreur et s’en est excusé. Aujourd’hui, avec cette nouvelle technologie, dès qu’un internaute tente de publier un contenu de pédopornographie, il est immédiatement repéré et la publication est bloquée.