La modération des contenus est un sujet polémique et particulièrement sensible pour Facebook. La plupart du temps, elle est estimée injuste, trop sévère ou tout au contraire trop lente et même laxiste. Aussi, pour expliquer aux 2.2 milliards d’utilisateurs une partie de la gestion des contenus, le réseau social a effectué pour la première fois son « Content summit ». Monika Bickert, directrice de la politique de contenus de Facebook, a confié au journal Le Monde : « Nous voulons donner aux gens un meilleur aperçu de la manière dont nous gérons les contenus et dont nous appliquons les règles, assure Monika Bickert. Nous savons qu’il y a une soif d’informations à ce sujet. » Elle souligne également que les règles du réseau social seront mises à jour régulièrement.
Selon les statistiques publiées par Facebook, le réseau social a supprimé près de 3.4 millions de contenus violents. 85.4% d’entre eux ont été repérés juste avant qu’ils soient signalés par un utilisateur. Au premier trimestre 2018, Facebook a pu effacer 2.5 millions de discours haineux, dont 38% détectés avant signalement. Un autre sujet très en vogue sur le réseau social américain également, le terrorisme. La propagande et le recrutement terroriste représentaient 1.9 millions des contenus supprimés. Et si la nudité relevait de sept contenus sur mille, les spams tiennent encore la première place des contenus les plus évincés. 837 millions ont été supprimés dont 583 millions de faux comptes.