Principes fondamentaux de l'IA responsable de Microsoft
Principes fondamentaux de l'IA responsable de Microsoft

Microsoft limite l’accès à son service de reconnaissance faciale

Mardi, Microsoft a dévoilé son standard pour une intelligence artificielle responsable, dont la finalité est de développer une IA meilleure et plus responsable.

Depuis l’essor de l’apprentissage automatique, et d’autres technologies d’intelligence artificielle de type boîte noire, c’est-à-dire dont on ne comprend pas le fonctionnement interne, de multiples questions légales, morales et éthiques se posent sur l’exploitation omniprésente de l’IA dans les sphères économiques, sociales et publiques.

On découvre ainsi que les « algorithmes » d’intelligence artificielle de sélection sont tout autant biaisés que les humains, ou qu’on pourrait facilement abuser de la reconnaissance faciale pour surveiller et violer la vie privée.

Le standard de Microsoft place les gens au centre de systèmes qui doivent tenir compte de valeurs telles que l’équité, la fiabilité, la sûreté, la vie privée, l’inclusion et la responsabilité.

Ce qui se traduit concrètement par :

  • Équité pour la reconnaissance automatique de la parole, alors que des études académiques ont montré que les taux d’erreurs pour les Noirs Américains étaient doubles de ceux des utilisateurs de race blanche ;
  • Des restrictions de l’accès à certains services, et des usages acceptés : voix neurale personnalisée (qui permet de créer une voix de synthèse presque identique à celle d’une personne), ou reconnaissance faciale.
  • Certaines fonctionnalités, telles que la détection des états émotionnels, ou l’identification d’attributs tels que le sexe ou l’âge, sont retirées.

Ces standards sont amenés à évoluer en fonction des nouvelles difficultés qui seront découvertes, des nouvelles recherches, des progrès technologiques et de l’évolution des législations.