L’intelligence artificielle (IA) se développe depuis quelques années à un rythme sans précédent, grâce aux nouvelles opportunités offertes par le nuage informatique, les capacités toujours plus grandes de calcul et de stockage, et la disponibilité de gigantesques ensembles de données.

Ces technologies débouchent sur des applications utiles, comme la traduction automatique ou l’analyse d’images médicales.

À l’inverse, le domaine pose des questions existentielles, de la décimation potentielle des emplois de cols blancs et des professions intellectuelles, à l’avenir de la race humaine face à une nouvelle intelligence qui, selon de multiples critères, lui sera supérieure.

Ces effets secondaires non désirés ne sont pas les seuls risques encourus : l’intelligence artificielle peut être sciemment exploitée à des fins malicieuses ou criminelles.

Vingt-six chercheurs et professeurs d’universités réputées des États-Unis et du Royaume-Uni, et des organisations OpenAI, Electric Frontier Foundation, Open Philanthropy Project, Center for a new American security et Endgame, ont publié un rapport d’une centaine de pages sur ce type de risques lors des cinq prochaines années.

Un des dangers principaux de l’IA est qu’elle va réduire à presque rien le coût de cyberattaques qui nécessitaient jusqu’ici des compétences pointues et de la main d’oeuvre très qualifiée. Des attaques d’hameçonnage, des subterfuges conçus pour que des personnes donnent leurs identifiants de sécurité, pourraient être entièrement automatisées.

Les bots informatiques de conversation, les imitations de voix et la manipulation de vidéos seront indétectables. Aujourd’hui déjà, il suffit de quelques minutes d’analyse à un système de Baidu pour répliquer une voix. Et des vidéos pornographiques circulent où les visages des actrices ont été remplacés par celles de célébrités, bien évidemment sans consentement ni rémunération.

Avec la reconnaissance faciale, d’écriture, de voix, il sera de plus en plus facile pour les États ou les entreprises de surveiller abusivement les citoyens avec des caméras, avec l’analyse en temps réel de leurs communications. Tout comme de se faire passer pour quelqu’un.

Les capacités de l’IA ne sont pas le seul danger. La facilité de mise à l’échelle, presque à l’infini, de ces capacités, l’est tout autant.

Au final, le rapport formule quatre recommandations :

  • Les décideurs devraient collaborer étroitement avec les chercheurs pour étudier, prévenir et atténuer les utilisations malveillantes potentielles de l’IA ;
  • Les chercheurs et les ingénieurs en intelligence artificielle devraient prendre au sérieux la double nature de leur travail, et tenir compte des abus et des détournements potentiels pour le classement par ordre de priorité et les normes de recherche, et d’entrer préventivement en contact avec les acteurs concernés lorsque des applications nuisibles sont prévisibles ;
  • Les meilleures pratiques devraient être identifiées dans les domaines de recherche avec des méthodes plus matures pour répondre aux préoccupations de double usage, telles que la sécurité informatique, et importées, le cas échéant, dans les systèmes d’IA ;
  • Chercher activement à élargir l’ensemble des parties prenantes et des experts du domaine impliqués dans les discussions sur ces défis.