Les vulnérabilités de sécurité traditionnelles sont liées à des systèmes logiciels ou matériels spécifiques.

Ce n’est pas le cas des vulnérabilités de l’apprentissage automatique (ML, machine learning), qui sont rendues possibles par les limitations inhérentes aux algorithmes à la base du ML.

Les données peuvent devenir des armes de diverses nouvelles manières, ce qui nécessite une extension à la façon dont nous modelons le comportement des adversaires cyber, afin de refléter les vecteurs de menace émergents et le cycle de vie évoluant rapidement des attaques ML.

Cela est d’autant plus important que depuis trois ans, les systèmes ML de grandes entreprises comme Microsoft, Amazon ou Google ont été dupés, évités ou induits en erreurs ; et que le Gartner Group estime que d’ici 2022, 30 % des cyberattaques impliqueront des empoisonnements de données, des vols de modèles et autres méthodes.

Microsoft offre donc une Matrice des menaces pour l’apprentissage automatique (Adversarial ML Threat Matrix), basée sur le Mitre Att&ck framework, et développée en partenariat avec 12 groupes de recherche académiques et industriels : Airbus, Berryville Institute of Machine Learning, Bosch, Deep Instinct, IBM, NVIDIA, PricewaterhouseCoopers, Two Six Labs, Universités de Cardiff, Carnegie Mellon, Toronto.

Le projet est publié sur GitHub, et fait appel aux retours, corrections, et personnes souhaitant s’investir dans le projet, ou contribuer à des études de cas – sept sont déjà disponibles.

Adversarial ML Threat Matrix

Adversarial ML Threat Matrix – cliquez pour agrandir