Filtrage automatique : un danger pour la liberté sur Internet ?

Un débat sur la réforme du droit d’auteur dans l’Union européenne existe depuis plusieurs années. En plus du le droit d’auteur auxiliaire pour les éditeurs de presse, c’est l’article 17 (anciennement article 13) qui est fortement critiqué. Il vise à obliger les plateformes Web à filtrer les contenus sous copyright de façon automatique. Alors que les partisans de cette réforme considèrent que cette technologie est essentielle pour assurer le respect du droit d’auteur des films, de la musique et des textes. Les opposants eux craignent une diminution de la culture sur ces réseaux et une restriction de la liberté d’expression avec un risque de conséquences néfastes imprévisibles.

Mais quels sont ces filtres de contenu et comment ils fonctionnent ? Où sont-ils déjà utilisés et pourquoi cet article provoque-t-il de vifs débats ?

Bilan à ce jour : l’UE décide du filtrage automatique

Malgré toutes les protestations, le Parlement européen a décidé le 26.03.2019 de valider la réforme du droit d’auteur. Peu de temps auparavant, les opposants à cette réforme avaient tenté de faire pression sur le Parlement via des protestations publiques. Le week-end précédent, des manifestations avaient eu lieu dans toute l’Europe. En vain puisque 384 députés ont voté pour, 274 contre et 36 se sont abstenus.

L’article 17, qui traite du filtrage automatique des contenus (anciennement l’article 13) a également été adopté. La directive ne prévoit pas explicitement de filtres de téléchargement, mais le texte laisse peu de place à d’autres options. Il est exigé que les opérateurs de plateformes vérifient déjà les contenus avant de publier des vidéos, de la musique ou des images afin de vérifier que ces contenus ne portent pas atteinte au droit d’auteur. Dans le cas contraire, les opérateurs seront dorénavant également responsables en cas d’infractions. Théoriquement, il serait également concevable de vérifier chaque contribution manuellement, mais les critiques considèrent que c’est une utopie, surtout pour les grands diffuseurs comme YouTube.

Des exceptions s’appliquent aux encyclopédies en ligne (surtout Wikipédia) ou à d’autres offres éducatives, aux plateformes de développement de logiciels libres, ainsi qu’aux services disponibles depuis moins de trois ans ou générant un chiffre d’affaires inférieur à dix millions d’euros par an.

Il est intéressant de voir ce que les sociétés comme Google ou Facebook vont dorénavant faire. Premièrement, le Conseil européen n’a pas encore approuvé la réforme. Mais personne ne s’attend à une surprise, il ne s’agit en fait que d’une formalité. Ceci est prévu pour le début du mois d’avril. La directive devra ensuite être transposée dans le droit national. Les États membres de l’UE ont deux ans pour transposer la réforme dans leurs législations respectives.

Ce qu’il s’est passé : les discussions sur la réforme du droit d'auteur de l'UE

Les filtres de téléchargement ont fait l’objet de discussions au niveau européen, car ils pourraient jouer un rôle sur le marché unique numérique vis à vis du droit d’auteur. En juillet 2018, le Parlement européen a rejeté un premier projet de loi. Le 12 septembre 2018, une nouvelle version du projet a été dévoilée dans laquelle les dispositions ne s’appliquent alors qu'aux grands diffuseurs tandis que les petits continuent à être épargnés. Les encyclopédies en ligne telles que Wikipédia devraient également être exemptées de l’obligation de vérifier le contenu avec ce nouveau texte.

Dans le contexte des filtres de téléchargement, l’article 13 est particulièrement intéressant (qui dans la version finale se nomme l’article 17), même si le terme n’est pas mentionné ailleurs. Le Parlement européen ne prescrit pas aux opérateurs de plates-formes en ligne comment assurer la protection du droit d’auteur. Mais les critiques et les observateurs supposent qu'il n’y a pas d’autre possibilité. Selon le projet, les plates-formes doivent vérifier que le contenu ne viole pas les droits d’auteur avant de publier le contenu correspondant. En raison de l’énorme volume de données, cela n’est pratiquement possible qu’avec des filtres automatiques.

Lors du nouveau vote, le Parlement européen a adopté le projet de loi par 438 voix pour, 226 contre et 39 abstentions. Le projet a fait l'objet d'une discussion plus approfondie dans le cadre de ce qu’il est convenu d'appeler le trilogue : les représentants du Parlement européen ont négocié une version finale avec les délégués des Commissions de l'UE et du Conseil des États membres.

Le jour du vote, la Commission européenne a présenté une autre directive dans laquelle les filtres automatiques jouent un rôle décisif : dans le cadre de la lutte contre le terrorisme, les plates-formes Internet doivent être obligées d'examiner tous les contenus à la recherche de propagande terroriste. Non inclus dans le règlement : une exception pour les petits exploitants de sites Web ou les offres open source. Selon cette directive, l'utilisation de filtres automatiques à l'échelle nationale serait finalement nécessaire.

Qu’est-ce que le filtrage automatique ?

Ce filtrage automatique est réalisé via un programme informatique automatisé (un robot) qui scanne les données lorsqu’elles sont téléchargées sur Internet ou avant qu’elles ne soient publiées sur une plateforme et les vérifie selon certains critères. Si le programme détecte qu’un contenu n’est pas conforme aux règles prédéfinies, le contenu concerné est alors bloqué, l’utilisateur est empêché de télécharger, de visionner le contenu ou bien ce dernier doit être adapté de sorte qu’il ne constitue plus une violation aux règles. Ces filtres de contenu peuvent être installés sur des sites Web ou des applications individuelles, mais peuvent aussi être utilisés par les hébergeurs Web ou le fournisseur d‘accès Internet de l’internaute. Ils peuvent, entre autres, être utilisés pour les fins suivantes :

  • Limitation des contenus extrémistes et criminels
  • Limitation des dénonciations, insultes et de la cyber-intimidation
  • Filtrage des contenus violents ou pornographiques
  • Identification des documents protégés par le droit d'auteur
  • La censure est possible en cas d'usage abusif

Ce dernier point est la raison pour laquelle le filtrage automatique fait actuellement l’objet de discussions au sein de l’Union européenne en ce qui concerne le copyright.

Comment fonctionne le filtrage automatique ?

Deux composants sont nécessaires pour faire fonctionner un filtre de contenu. Une base de données regroupant des données non autorisées est indispensable, dans le cas du projet de loi de l’UE, il s’agit du matériel protégé par le copyright, le droit d’auteur. Celui-ci est stocké avec des fonctions de hachage.

Remarque

Les valeurs de hachage sont de courtes chaînes de lettres et de caractères générés par une fonction mathématique à partir du matériau source. La même valeur de hachage résulte toujours du même matériau de départ - inversement, il n'est pas possible de déduire le matériau de départ de la valeur de hachage. Les valeurs de hachage sont notamment utilisées lors du stockage des mots de passe.

Un algorithme compare les valeurs de hachage du matériel protégé par le droit d’auteur avec celles des données téléchargées (sur les plateformes). S’il trouve un chevauchement, il empêche alors le fichier d’être téléchargé. Mais les filtres ne sont pas seulement actifs pour des fichiers complètement identiques ou très similaires. Vous pouvez aussi reconnaître des parties individuelles d’une image, d’un film, d’un extrait de musique ou d’un texte à l’aide des méthodes de machine learning (« apprentissage automatique » en français). L’abstraction des fichiers de référence est aussi possible dans une certaine mesure. Par exemple, les algorithmes sont capables d’apprendre à partir d’une base de données d’image de chats à quoi ressemble un chat et de reconnaitre ainsi les nouvelles images de chats qui n’étaient pas stockées auparavant dans la base de données.

Où ces filtres sont-ils déjà utilisés ?

L’obligation d’intégrer des filtres de contenu à l’échelle nationale ou européenne serait un changement important, mais les grandes sociétés du Web utilisent depuis des années déjà cette technologie pour vérifier les énormes quantités de données qui sont téléchargées quotidiennement sur leurs plateformes.

YouTube

« Content ID », le filtre ou robot de la plateforme de vidéos YouTube, passe en revue toutes les vidéos récemment mises en ligne pour violation du droit d’auteur. Si cela est détecté, les titulaires des droits ont alors trois options :

  • Le blocage : la vidéo est supprimée et n’est plus accessible.
  • La monétisation : une publicité est placée avant le lancement de la vidéo, le revenu va au détenteur des droits.
  • L’observation : l’auteur ou l’ayant droit est simplement tenu informé du nombre de vues de la vidéo ou peut recevoir d’autres statistiques.

Le but ici est surtout d’empêcher la distribution non autorisée de longs métrages, de séries, de chansons et de vidéoclips. Selon YouTube, cet algorithme remplace le travail potentiel de 180 000 contrôleurs humains.

Facebook

Le plus grand réseau social utilise des filtres de contenu principalement pour identifier les messages violents, d’incitation à la haine, les images et vidéos pornographiques ou offensantes et cela avant leur publication. Pour lutter contre les contenus terroristes ou extrémistes, Facebook, Twitter, Microsoft et YouTube utilisent une base de données commune gérée en coopération avec l’agence européenne de police criminelle Europol.

Microsoft OneDrive

Le service d’hébergement de fichiers analyse automatiquement les fichiers lorsqu’ils sont chargés dans le Cloud. Cette procédure appelée PhotoDNA sert entre autres à la lutte contre la pédopornographie.

ResearchGate

Suite aux insistances des éditeurs, le réseau social des publications scientifiques a dû introduire un filtre pour identifier les republications non autorisées et les plagiats. L’algorithme devrait alors décider si les publications peuvent être rendues publiques, mises à la disposition de certains groupes de recherche ou si elles doivent être supprimées.

Quels sont les critiques au filtrage automatique ?

Le filtrage automatique semble être une mesure de soutien à la lutte contre la pédopornographie, l’extrémisme et les atteintes au droit d’auteur, mais présente aussi des risques importants que les opposants à la réforme européenne sur le droit d’auteur ne manquent pas de souligner.

Risques d’erreurs et de manipulations

L’application du filtrage dans la pratique montre que les algorithmes sont loin de fonctionner sans erreurs. Premièrement, ils peuvent être relativement facilement déjoués, par exemple, pour faire passer du matériel protégé par des droits d’auteur comme non protégé. Plus inquiétant encore, cependant, ces programmes de filtrage automatique censurent souvent du contenu autorisé. Ainsi, un algorithme ne peut pas reconnaître les parodies, les remix et les hommages, qui sont généralement libres du droit d’auteur. Les critiques parlent donc d’une restriction de la liberté artistique et de la fin de certains mouvements : en effet les phénomènes du Web comme celui des mèmes sont souvent basés sur la mise en contexte d’images, de vidéos et de chansons protégées par le droit d’auteur, leur modification et leur diffusion sur le Web.

Il est aussi possible que quelqu’un puisse revendiquer frauduleusement des documents protégés par le droit d’auteur et de les enregistrer dans la base de données. La diffusion du contenu, même si elle n'est pas protégée par le droit d'auteur, serait alors impossible tant que les faits n'auront pas été clarifiés.

Possibilité de censure

L’instauration du filtrage automatique crée aussi une infrastructure qui peut être utilisée pour le contrôle de l’information par les États et devenir un instrument de pré censure. Dans de mauvaises mains, ces filtres pourraient entraîner une restriction de la liberté d’expression et de la liberté de la presse. Par exemple, si les bases de données étaient alimentées non pas par du matériel protégé par le droit d’auteur, mais plutôt par des déclarations et des critiques du gouvernement, ces dernières ne pourraient alors plus être librement exprimées sur le Web. Il suffit de se pencher sur le cas de l’Internet en Chine pour constater que ces filtres fonctionnent dans la pratique déjà dans ce but.

Quel est le débat actuel sur le filtrage automatique ?

La réforme du droit d’auteur dans l’Union européenne a permis d’attirer davantage l’attention du public sur les filtres de contenu. Généralement, les ayants droits tels que les éditeurs, les distributeurs de films et l’industrie de la musique réclament une meilleure protection de leurs œuvres protégées par le droit d’auteur sur les canaux de distribution numérique et la prévention contre la distribution non autorisée comme c’est déjà le cas sur YouTube, par exemple.

D’autre part, il y a les activistes et défenseurs des droits civils, associations du Web et opérateurs de plateformes (comme Wikipédia) qui bien que soutenant l’objectif de la loi qui est de mieux faire respecter la propriété intellectuelle, soulignent toutefois que le filtrage automatique n’est pas vraiment adapté. Les filtres vont en effet au-delà de l’objectif, ne sont techniquement pas mûrs et constituent surtout une menace pour le droit et la liberté d’expression.

Veuillez prendre connaissance des mentions légales en vigueur sur cet article.