Le prix A.M. Turing 2018 de l’Association for Computing Machinery a été attribué à Yoshua Bengio, Geoffrey Hinton, et Yann LeCun, pour leurs contributions conceptuelles et en ingénierie sur les réseaux neuronaux profonds.

Bengio est professeur à l’Université de Montreal et directeur scientifique de Mila, l’institut d’intelligence artificielle du Québec.

Hinton est vice-président et Engineer Fellow chez Google, conseiller scientifique en chef du Vector Institute et professeur émérite à l’Université de Toronto.

LeCun, parisien d’origine, est professeur à l’Université de New York et vice-président et scientifique en chef de l’intelligence artificielle de Facebook.

Travaillant indépendamment et ensemble, Hinon, LeCun et Bengio ont développé les fondations conceptuelles pour le domaine de l’intelligence artificielle, identifiant des phénomènes surprenant lors d’expériences, et ont développé des avances en ingénierie qui ont démontré les avantages pratiques des réseaux neuronaux profonds.

Si les réseaux neuronaux artificiels ont été introduits dans les années quatre-vingt comme outil informatique de reconnaissance de motifs, dans les années 2000, LeCun, Hinton et Bengio étaient parmi les seuls à rester engagés dans cette approche.

Alors que leurs efforts pour raviver l’intérêt de la communauté de l’intelligence artificielle pour les réseaux neuronaux se sont initialement heurtés au scepticisme, leurs idées ont récemment été à l’origine d’avancées technologiques majeures et leur méthodologie est le paradigme dominant du champ.

Le prix Turing, souvent appelé « prix Nobel d’informatique », est doté d’un prix d’un million de dollars, avec le soutien financier de Google, Inc. Il tire son nom d’Alan M. Turing, le mathématicien britannique qui a articulé les fondements mathématiques et les limites de l’informatique.

Si les réseaux neuronaux profonds et l’apprentissage automatique ont permis de développer la reconnaissance d’objets, de la parole, du traitement du langage naturel et de systèmes de recommandation, ils ne sont pas sans fautes.

Les algorithmes utilisés ne sont souvent pas compris dans la théorie, les méthodes d’apprentissages automatiques sont des boîtes noires confirmées empiriquement mais pas dans la théorie, et qui peuvent être facilement trompées par modification des données.

Comme l’a montré l’abandon d’un système de recrutement, l’apprentissage automatique a tendance à renforcer les biais des données d’entrainement du système, comme l’absence relative de femmes cadres ou d’ethnicité non dominante.