Andrus Ansip, Vice-President of the EC in charge of Digital Single Market, Vĕra Jourová, Member of the EC in charge of Justice, Consumers and Gender Equality, Julian King, Member of the EC in charge of Security Union, and Mariya Gabriel, Member of the EC in charge of Digital Economy and Society, will hold a press conference on stepping up the EU's efforts to tackle illegal content online.
EC Audiovisual services

La Commission européenne exige plus d’efforts des grandes plateformes en ligne contre les contenus illicites

Les trois outils de l’Union européenne contre les contenus illicites

Les contenus illicites sont définis au plan national et au plan européen. Ils incluent les contenus racistes, xénophobes, les incitations à la violence et à la haine, la propagande terroriste, la pornographie infantile.

Après un travail avec la Commission européenne, les grandes plateformes en ligne comme Facebook, Microsoft, Twitter ou YouTube, ont signé un code de conduite en mai 2016 pour combattre la propagation de discours haineux illicites en Europe.

Il complémente la création de l’EU Internet Forum en 2015, une organisation qui rassemble des représentants des grands de l’Internet, des ministères de l’intérieur des nations européennes, d’Europol, du Parlement européen, et de la coordination antiterroriste européenne.

Cette organisation a pour but de lutter contre le terrorisme en supprimant les contenus en ligne et en proposant des contenus alternatifs.

Enfin, la Directive sur le commerce en ligne oblige les plateformes en ligne à supprimer les contenus illicites rapidement. Sans définir concrètement le délai accordé.

Peut mieux faire

Aujourd’hui, la Commission européenne note que si la suppression des discours haineux a progressé de 28 % à 59 %, et si les suppressions sont plus rapides que par le passé, 28 % d’entre elles nécessitent toujours plus d’une semaine.

La suppression de la propagande terroriste atteindrait 80 à 90 % des contenus disponibles en ligne, et la suppression de la pornographie infantile atteindrait les 91 % dans les trois jours après publication.

La Commission estime que les plateformes en ligne peuvent mieux faire, et qu’une harmonisation est nécessaire.

C’est pourquoi elle présente ce jour des orientations et des principes pour l’élimination préventive et efficace du contenu illicite. Ils ne sont pas contraignants, mais la menace est claire : si les plateformes en ligne ne font pas assez de progrès, il faudra légiférer.

Orientations et principes pour les plateformes en ligne

Pour lutter efficacement contre le contenu illicite en ligne, la Commission propose, dans un premier temps, des outils communs visant, de manière rapide et préventive, à détecter et supprimer de tels contenus ainsi qu’à en empêcher la réapparition :

Détection et notification : Les plateformes en ligne devraient coopérer plus étroitement avec les autorités nationales compétentes, en désignant des points de contact qui permettraient de prendre rapidement contact avec elles pour supprimer des contenus illicites. Afin d’accélérer la détection, les plateformes en ligne sont incitées à collaborer avec des signaleurs de confiance, c’est-à-dire des entités spécialisées disposant d’une expertise en matière de contenu illicite. En outre, elles devraient mettre en place des mécanismes aisément accessibles afin de permettre aux utilisateurs de signaler des contenus illicites, et investir dans des technologies de détection automatique.

Suppression efficace : La suppression des contenus illicites devrait intervenir aussi rapidement que possible et peut-être soumise à des délais précis lorsque les risques de dommages sont graves, comme dans les cas d’incitation à commettre des actes terroristes. La question des délais de suppression fixes fera l’objet d’une analyse plus approfondie de la Commission. Les plateformes devraient expliquer clairement à leurs utilisateurs leur politique en matière de contenu et publier des rapports de transparence précisant le nombre et le type de signalements reçus. Les entreprises de l’internet devraient également prévoir des garanties pour prévenir le risque de suppression excessive.

Prévention de la réapparition : Les plateformes devraient prendre des mesures afin de dissuader les utilisateurs de mettre en ligne de manière répétée des contenus illicites. La Commission encourage vivement l’utilisation et le développement d’outils automatiques permettant d’empêcher la réapparition d’un contenu précédemment supprimé.

 

La Commission fera le point, au plus tard en mai 2018, sur les progrès réalisés par les plateformes numériques.