La reconnaissance de visage est controversée, en particulier Amazon Rekognition, qui aurait bien du mal à reconnaître les femmes d’après une étude du MIT.

Une autre étude a montré que Amazon Rekognition avait reconnu, à tort, 28 députés comme des criminels, soit un taux d’erreur de 5 %, de façon disproportionnée pour les députés d’origine noire ou hispanique.

Quand les taux de fiabilité sont exécrables, doit-on autoriser l’usage des services de reconnaissance de visage pour les entretiens d’embauches, les utilisations par les forces de l’ordre ou les produits comme les drones et les caméras sur l’uniforme des policiers ? La reconnaissance de visage devrait-elle être exploitée pour discriminer et violer les droits civils ?

Et pourtant, Amazon Rekognition est testée par les polices de Floride et de l’Oregon, ainsi que les services fédéraux de l’immigration et de la douane, ce qui pourrait faciliter la surveillance des immigrés et le profilage racial.

En France, la CNIL s’émut en septembre dernier du développement rapide de nouveaux outils de captation et de nouvelles modalités d’exploitation de la vidéoprotection dans l’espace public : caméras piétons, utilisation des terminaux mobiles de particuliers, systèmes de vidéo « intelligente », dispositifs de suivi et de reconnaissance d’individus à l’aide de données biométriques et de la reconnaissance faciale.

En janvier 2019, l’ICRAC invita AWS à arrêter de fournir sa technologie de reconnaissance faciale aux agences gouvernementales et des forces de l’ordre, à annuler son contrat avec Palantir et les autres intermédiaires qui fournissent des données et des services d’intelligence artificielle à l’armée ou à la police, et à établir des lignes directrices d’éthique qui interdisent la transformation en arme de cette technologie, et de toute autre qui met en péril la vie privée, et les droits civils et humains.

Quelques jours après, une première proposition d’actionnaires exigea que le conseil d’administration de Amazon interdise la vente de technologies de reconnaissance de visage aux agences gouvernementales, à moins qu’il ne conclue, après une évaluation exploitant des preuves indépendantes, que la technologie n’occasionne ni ne contribue à des violations potentielles ou réelles des droits civils et des droits humains.

Une deuxième proposition écrite par un autre actionnaire, exigea que le conseil d’administration commande une étude indépendante de Rekognition et produise un rapport adressant, entre autres, dans quelle mesure une telle technologie peut mettre en danger, menacer ou violer la vie privée et les droits civils, dans quelle mesure une telle technologie peut être commercialisée et vendue à des gouvernements étrangers, et les risques opérationnels et financiers liés à ces problèmes.

Pour s’en débarrasser, Amazon a tenté d’exploiter le procédé « no-action » qui permet à des entreprises cotées en Bourse de ne pas faire voter à ses actionnaires certaines propositions.

Le 28 mars, la SEC – Securities and Exchange Commission, s’est prononcée contre Amazon. L’entreprise a alors fait appel de la décision.

Il y a quelques jours, la SEC s’est à nouveau prononcée contre Amazon.

L’entreprise devrait donc organiser un vote pour les deux résolutions.