AWS

Le service de reconnaissance faciale Amazon Rekognition aurait bien du mal à reconnaître les femmes

Alors que Microsoft a demandé aux législateurs de réguler le marché de la reconnaissance faciale, Amazon n’a eu de cesse de commercialiser agressivement le sien, Amazon Rekognition, aux forces de l’ordre et aux agences fédérales, afin d’identifier les suspects plus rapidement.

Une étude du MIT Media Lab montre pourtant que Rekognition aurait bien plus de mal à détecter le sexe des faces de femmes à la peau sombre que les services similaires de Microsoft et d’IBM.

Alors que Rekognition reconnaît le sexe des hommes à la peau blanche, il classifie les femmes par erreur en tant qu’hommes 19 % du temps. Une erreur qui grimpe à 31 % pour les femmes au visage sombre.

En comparaison, l’erreur du service de Microsoft se trompe 1,5 % du temps pour les femmes au visage sombre.

Une étude similaire l’an dernier montrait à quel point les systèmes de reconnaissance faciale se trompaient, ce qui fut mis en avant par une vidéo montrant des personnalités célèbres comme Michelle Obama classifiée en tant qu’homme.

Les services avaient alors mis les bouchées doubles pour améliorer leur pertinence. Sauf Amazon qui n’aurait pas daigné répondre aux questions des auteurs de l’étude.

Pour se défendre, Amazon reproche à l’étude de ne pas avoir analysé la nouvelle version du service, mis à jour en novembre. Cette version, d’après les tests internes d’Amazon, aurait la même précision pour classer par sexe quelle que soit l’ethnicité.

On peut se demander, dans ces conditions, pourquoi Amazon refuse de répondre aux questions des législateurs fédéraux, notamment quelles agences du gouvernement utilisent Rekognition, et comment elles l’utilisent.

Avec un taux de fiabilité aussi exécrable, doit-on autoriser l’usage des services de reconnaissance faciale pour les entretiens d’embauches, les utilisations par les forces de l’ordre ou les produits comme les drones et les caméras sur l’uniforme des policiers ?

La Safe Pledge (promesse de sécurité) est une initiative qui invite ses organisations signataires à prendre des mesures pour suivre les principes d’éthique en intelligence artificielle.

L’ICRAC invite AWS à arrêter de fournir sa technologie de reconnaissance faciale aux agences gouvernementales et des forces de l’ordre, d’annuler son contrat avec Palantir et les autres intermédiaires qui fournissent des données et des services d’intelligence artificielle à l’armée ou à la police, et d’établir des lignes directrices  d’éthique qui interdisent la transformation en arme de cette technologie, et de toute autre qui met en péril la vie privée, et les droits civils et humains.

En France, la CNIL s’est émue en septembre dernier du développement rapide de nouveaux outils de captation et de nouvelles modalités d’exploitation de la vidéoprotection dans l’espace public : caméras-piétons, utilisation des terminaux mobiles de particuliers, systèmes de vidéo « intelligente », dispositifs de suivi et de reconnaissance d’individus à l’aide de données biométriques et de la reconnaissance faciale.