Pour la première fois, Facebook publie un rapport d’application de ses standards communautaires, qui est intégré à son rapport de transparence.

Au premier trimestre, le réseau social affirme avoir supprimé 865,8 millions de publications, à 97 % des pourriels. Facebook a également supprimé 2,5 millions de publications d’incitation à la haine, 1,9 million de publications de propagande terroriste, 3,4 millions de publications avec violence explicite, et 21 millions de publications avec nudité d’adultes ou activités sexuelles.

Facebook aurait supprimé 583 millions de faux comptes.

L’entreprise reconnaît que ce rapport est le « début d’un voyage, et non la fin d’un voyage », et qu’il sera mis à jour tous les six mois.

Le rapport ne fournit d’informations que pour le 4e trimestre 2017 et le premier trimestre 2018, ce qui rend impossible d’obtenir une perspective historique ou de juger si Facebook a bien intensifié ses efforts.

Le rapport est parfois d’une extrême imprécision : aucun exemple de publication violente ou haineuse supprimée, d’autres publications supprimées mais dont il n’est pas tenu compte pour cause de métrique en développement, ni aucune répartition géographique des contenus supprimés.

Certaines personnalités estiment qu’au vu du bilan catastrophique de protection de ses utilisateurs contre les emplois abusifs de sa plateforme, tout comme de leur information sur les abus, il n’y a aucune raison de faire confiance à Facebook, qui devrait faire appel à des tiers indépendants pour corroborer ses chiffres.

L’intelligence artificielle a permis de détecter 99,5 % des contenus terroristes, 95,8 % des publications avec nudité, 85,6 % des publications violentes, et 38 % des incitations à la haine. L’ambition de Facebook est de parvenir à 100 % de signalements par intelligence artificielle.