WhatsApp

La promesse de vie privée dans WhatsApp n’est pas tenue

En mars 2019, Mark Zuckerberg, CEO de Facebook, dévoilait la nouvelle vision pour le groupe : une vision orientée vie privée, citant WhatsApp en modèle.

Il n’en est rien.

Certes, WhatsApp est chiffré de bout en bout, et Zuckerberg promit qu’aucun employé de l’entreprise ne pourrait lire les messages WhatsApp.

Mais en réalité, WhatsApp exploite plus d’un millier de contractuels à Austin, Dublin et Singapour, dans des bureaux abritant aussi des employés de WhatsApp et Facebook, pour examiner les contenus des utilisateurs. Ils examinent notamment tous les messages, vidéos et images qui ont été signalés par des utilisateurs puis analysés par des systèmes d’intelligence artificielle.

En généralement moins d’une minute, ces modérateurs doivent décider si un contenu est bien pornographique, frauduleux, terroriste, un pourriel ou tout autre contenu illégal. Pour se décider, ils ont également accès aux informations de comptes, comme le prouve la plainte d’un dénonciateur devant la SEC : nom, numéro de téléphone, langue, fuseau horaire, identifiant de téléphone, adresse IP, liste des appareils électroniques, comptes Facebook et Instagram liés, historique de violations des conditions d’utilisation, etc.

Certains jugements sont subjectifs : comment faire pour juger s’il s’agit d’un enfant nu, d’un adolescent ou d’un jeune homme ? Même la comparaison avec des index médicaux ne peut mener à une certitude. Quand la qualité d’une vidéo est mauvaise, comment s’assurer que la tête tenue à bout de bras par un manifestant est une tête humaine coupée ou un pastiche ?

Et les modérateurs doivent faire avec des systèmes de traduction pour le moins bogués quand la langue d’origine n’est pas l’anglais.

Ainsi, de nombreux contenus innocents sont reportés par une intelligence artificielle défaillante, puis analysés, en clair, par des humains.

Pourtant, WhatsApp refuse de qualifier ce travail de modération de contenus.

On sait aussi que WhatsApp partage de nombreuses informations avec les forces de l’ordre. Comme des métadonnées, desquelles on peut déduire beaucoup de choses. Leur quantité est largement plus grande que celle de Signal, qui limite au maximum les informations transmises afin de préserver la vie privée de ses utilisateurs, tout en respectant les lois.

WhatsApp, comme Zuckerberg, a des antécédents de mensonges à la chaîne. C’est ainsi que WhatsApp promit à la Commission européenne, pour faire accepter son acquisition par Facebook pour 22 milliards de dollars, qu’il était impossible techniquement de transmettre ses données personnelles à Facebook. Deux ans plus tard, WhatsApp partageait les données personnelles de ses utilisateurs avec Facebook.

Et pour gagner de l’argent, WhatsApp offre des services aux entreprises, sans chercher à faire comprendre à ses utilisateurs que ceux qui exploitaient ces services n’obtiennent aucunement les mêmes gages de vie privée que ceux qu’ils attendent du service de messagerie.

Quant à Facebook et Instagram, qui ne sont pas chiffrés de bout en bout, exploitent plus de 15 000 modérateurs de contenus.