Geoffrey Hinton, un pionnier de l’apprentissage automatique, a tweeté que, contrairement à ce que laissait entendre un article dans le New York Times, il n’a pas démissionné de Google pour critiquer l’entreprise, mais pour discuter librement des dangers de l’intelligence artificielle sans avoir à tenir compte de l’impact sur son ancien employeur.
Âgé de 75 ans, professeur à l’Université de Toronto, ancien chercheur en chef de Google, Hinton avait commencé à étudier les réseaux neuronaux bien avant qu’ils soient à la mode.
Pendant plusieurs décennies, il a travaillé au développement de nouveaux algorithmes et de nouvelles architectures d’intelligence artificielle, dont des techniques d’entraînement de modèles et de traitement de données.
Des recherches qui furent couronnées en 2018 par le Turing Award, considéré comme le prix Nobel de l’informatique, avec Yoshia Bengio et Yann LeCun.
Hinton s’est inquiété de plus en plus au cours du temps des dangers de l’intelligence artificielle, à tel point qu’il regrette aujourd’hui d’y avoir consacré sa vie. Il se consolerait « avec l’excuse habituelle : si je ne l’avais pas fait, quelqu’un d’autre l’aurait fait. »
La concurrence et les intérêts financiers en jeu rendraient difficile d’atténuer les effets délétères de l’intelligence artificielle sur l’être humain et la société, alors même que la vitesse sidérante de son développement en cinq ans, et les perspectives de son futur développement, sont effrayantes.
Avec le développement de l’intelligence artificielle générative, on peut produire des textes, des images, des contenus audio et des vidéos, dont les gens auront le plus grand mal à évaluer la véracité.
Comme les modèles ont été entraînés pour écrire du code source, ils pourraient développer leurs propres programmes en toute autonomie.
Si on les laisse faire sans contrôle, ils pourraient développer des logiciels et des machines en porte-à-faux avec l’humanité.
Une lettre ouverte publiée fin mars, qui a rassemblé plus de 27 000 signatures, dont celles de sommités du domaine, s’inquiète en des termes similaires des dangers de l’intelligence artificielle. Elle réclame un moratoire d’au moins six mois sur les systèmes les plus puissants, pour prendre la mesure du danger et faire évoluer la législation.