Un groupe « d’experts indépendants de haut niveau » (AI HLEG) mis en place par la Commission européenne propose des lignes directrices d’éthique pour une intelligence artificielle digne de confiance :

  • Pouvoir humain et supervision : les systèmes d’IA doivent rendre possible des sociétés équitables en soutenant la société humaine et les droits fondamentaux, et non en réduisant, limitant ou en indusant en erreur l’autonomie humaine ;
  • Robustesse et sécurité : une IA digne de confiance nécessite que les algorithmes soient suffisamment sûrs, fiables et robustes pour traiter les erreurs ou incohérences durant toutes les phases du cycle de vie d’un système d’intelligence artificielle ;
  • Protection de la vie privée et gouvernance des données : les citoyens devraient avoir le plein contrôle de leurs données, tandis que les données les concernant ne seront ni utilisées pour les léser, ni pour les discriminer ;
  • Transparence : la traçabilité des systèmes d’IA devrait être assurée ;
  • Diversité, non-discrimination et équité : les systèmes d’IA doivent prendre en compte l’ensemble des capacités, compétences et exigences humaines et en garantir l’accessibilité ;
  • Bien-être sociétal et environnemental : les systèmes d’IA devraient être utilisés pour favoriser un changement social positif et renforcer la durabilité et la responsabilité écologique ;
  • Responsabilité : Des mécanismes doivent être mis en place pour garantir la responsabilité des systèmes d’IA et de leurs résultats.

Les entreprises, administrations et organisations peuvent joindre l’Alliance IA européenne, ce qui leur permet d’interagir avec les membres du AI HLEG dans le cadre d’un forum.

Cet été, la Commission va lancer une phase pilote, qui sera suivie en 2020 de l’analyse des listes d’évaluation, en tenant compte des retours reçus. La Commission proposera alors de futures étapes.

S’il est important que la Commission européenne s’intéresse au sujet, les propositions ne sont pas contraignantes et la ligne directrice remarquablement vague. On sent que, comme pour la recherche fondamentale, les Européens souhaitent que l’IA soit gouvernée par l’éthique, mais pas au point de les empêcher d’entrer en concurrence avec le reste du monde.

On ne s’étonnera pas que les discussions éthiques fâchent. En particulier, les technologies les plus à la mode actuellement de l’intelligence artificielle, comme l’apprentissage automatique ou l’apprentissage profond, ont pour défaut d’agir comme des boîtes noires : il n’est pas possible au système d’expliquer, encore moins de justifier, comment il parvient à ses conclusions. Il semble impossible que leurs « algorithmes soient suffisamment sûrs, fiables et robustes » et l’on sait, dans de nombreux cas facilement, comment tromper le système en modifiant la donnée d’entrée de façon imperceptible à l’être humain, pour obtenir le résultat souhaité.

C’est ainsi que Amazon finit par abandonner un système IA d’aide au recrutement, quand l’entreprise s’est aperçue qu’il reproduisait les discriminations et le racisme de ses données d’entraînement, sans que l’on trouve un moyen pour supprimer ses biais.

Une question qui risque de revenir est de savoir à qui doit profiter l’IA. Dans la santé, on est sûr qu’elle profitera grandement aux assurances. On est bien moins sûr que le patient en retirera le moindre bénéfice.