Un débat sur la réforme du droit d’auteur dans l’Union eu­ro­péenne existe depuis plusieurs années. En plus du le droit d’auteur auxi­liaire pour les éditeurs de presse, c’est l’article 17 (an­cien­ne­ment article 13) qui est fortement critiqué. Il vise à obliger les pla­te­formes Web à filtrer les contenus sous copyright de façon au­to­ma­tique. Alors que les partisans de cette réforme con­si­dè­rent que cette tech­no­lo­gie est es­sen­tielle pour assurer le respect du droit d’auteur des films, de la musique et des textes. Les opposants eux craignent une di­mi­nu­tion de la culture sur ces réseaux et une res­tric­tion de la liberté d’ex­pres­sion avec un risque de con­sé­quences néfastes im­pré­vi­sibles.

Mais quels sont ces filtres de contenu et comment ils fonc­tion­nent ? Où sont-ils déjà utilisés et pourquoi cet article provoque-t-il de vifs débats ?

Bilan à ce jour : l’UE décide du filtrage au­to­ma­tique

Malgré toutes les pro­tes­ta­tions, le Parlement européen a décidé le 26.03.2019 de valider la réforme du droit d’auteur. Peu de temps au­pa­ra­vant, les opposants à cette réforme avaient tenté de faire pression sur le Parlement via des pro­tes­ta­tions publiques. Le week-end précédent, des ma­ni­fes­ta­tions avaient eu lieu dans toute l’Europe. En vain puisque 384 députés ont voté pour, 274 contre et 36 se sont abstenus.

L’article 17, qui traite du filtrage au­to­ma­tique des contenus (an­cien­ne­ment l’article 13) a également été adopté. La directive ne prévoit pas ex­pli­ci­te­ment de filtres de té­lé­char­ge­ment, mais le texte laisse peu de place à d’autres options. Il est exigé que les opé­ra­teurs de pla­te­formes vérifient déjà les contenus avant de publier des vidéos, de la musique ou des images afin de vérifier que ces contenus ne portent pas atteinte au droit d’auteur. Dans le cas contraire, les opé­ra­teurs seront do­ré­na­vant également res­pon­sables en cas d’in­frac­tions. Théo­ri­que­ment, il serait également con­ce­vable de vérifier chaque con­tri­bu­tion ma­nuel­le­ment, mais les critiques con­si­dè­rent que c’est une utopie, surtout pour les grands dif­fu­seurs comme YouTube.

Des ex­cep­tions s’ap­pli­quent aux en­cy­clo­pé­dies en ligne (surtout Wikipédia) ou à d’autres offres édu­ca­tives, aux pla­te­formes de dé­ve­lop­pe­ment de logiciels libres, ainsi qu’aux services dis­po­nibles depuis moins de trois ans ou générant un chiffre d’affaires inférieur à dix millions d’euros par an.

Il est in­té­res­sant de voir ce que les sociétés comme Google ou Facebook vont do­ré­na­vant faire. Pre­miè­re­ment, le Conseil européen n’a pas encore approuvé la réforme. Mais personne ne s’attend à une surprise, il ne s’agit en fait que d’une formalité. Ceci est prévu pour le début du mois d’avril. La directive devra ensuite être trans­po­sée dans le droit national. Les États membres de l’UE ont deux ans pour trans­po­ser la réforme dans leurs lé­gis­la­tions res­pec­tives.

Ce qu’il s’est passé : les dis­cus­sions sur la réforme du droit d'auteur de l'UE

Les filtres de té­lé­char­ge­ment ont fait l’objet de dis­cus­sions au niveau européen, car ils pour­raient jouer un rôle sur le marché unique numérique vis à vis du droit d’auteur. En juillet 2018, le Parlement européen a rejeté un premier projet de loi. Le 12 septembre 2018, une nouvelle version du projet a été dévoilée dans laquelle les dis­po­si­tions ne s’ap­pli­quent alors qu'aux grands dif­fu­seurs tandis que les petits con­ti­nuent à être épargnés. Les en­cy­clo­pé­dies en ligne telles que Wikipédia devraient également être exemptées de l’obli­ga­tion de vérifier le contenu avec ce nouveau texte.

Dans le contexte des filtres de té­lé­char­ge­ment, l’article 13 est par­ti­cu­liè­re­ment in­té­res­sant (qui dans la version finale se nomme l’article 17), même si le terme n’est pas mentionné ailleurs. Le Parlement européen ne prescrit pas aux opé­ra­teurs de plates-formes en ligne comment assurer la pro­tec­tion du droit d’auteur. Mais les critiques et les ob­ser­va­teurs supposent qu'il n’y a pas d’autre pos­si­bi­lité. Selon le projet, les plates-formes doivent vérifier que le contenu ne viole pas les droits d’auteur avant de publier le contenu cor­res­pon­dant. En raison de l’énorme volume de données, cela n’est pra­ti­que­ment possible qu’avec des filtres au­to­ma­tiques.

Lors du nouveau vote, le Parlement européen a adopté le projet de loi par 438 voix pour, 226 contre et 39 abs­ten­tions. Le projet a fait l'objet d'une dis­cus­sion plus ap­pro­fon­die dans le cadre de ce qu’il est convenu d'appeler le trilogue : les re­pré­sen­tants du Parlement européen ont négocié une version finale avec les délégués des Com­mis­sions de l'UE et du Conseil des États membres.

Le jour du vote, la Com­mis­sion eu­ro­péenne a présenté une autre directive dans laquelle les filtres au­to­ma­tiques jouent un rôle décisif : dans le cadre de la lutte contre le ter­ro­risme, les plates-formes Internet doivent être obligées d'exa­mi­ner tous les contenus à la recherche de pro­pa­gande ter­ro­riste. Non inclus dans le règlement : une exception pour les petits ex­ploi­tants de sites Web ou les offres open source. Selon cette directive, l'uti­li­sa­tion de filtres au­to­ma­tiques à l'échelle nationale serait fi­na­le­ment né­ces­saire.

Qu’est-ce que le filtrage au­to­ma­tique ?

Ce filtrage au­to­ma­tique est réalisé via un programme in­for­ma­tique au­to­ma­tisé (un robot) qui scanne les données lorsqu’elles sont té­lé­char­gées sur Internet ou avant qu’elles ne soient publiées sur une pla­te­forme et les vérifie selon certains critères. Si le programme détecte qu’un contenu n’est pas conforme aux règles pré­dé­fi­nies, le contenu concerné est alors bloqué, l’uti­li­sa­teur est empêché de té­lé­char­ger, de visionner le contenu ou bien ce dernier doit être adapté de sorte qu’il ne constitue plus une violation aux règles. Ces filtres de contenu peuvent être installés sur des sites Web ou des ap­pli­ca­tions in­di­vi­duelles, mais peuvent aussi être utilisés par les hé­ber­geurs Web ou le four­nis­seur d‘accès Internet de l’in­ter­naute. Ils peuvent, entre autres, être utilisés pour les fins suivantes :

  • Li­mi­ta­tion des contenus ex­tré­mistes et criminels
  • Li­mi­ta­tion des dé­non­cia­tions, insultes et de la cyber-in­ti­mi­da­tion
  • Filtrage des contenus violents ou por­no­gra­phiques
  • Iden­ti­fi­ca­tion des documents protégés par le droit d'auteur
  • La censure est possible en cas d'usage abusif

Ce dernier point est la raison pour laquelle le filtrage au­to­ma­tique fait ac­tuel­le­ment l’objet de dis­cus­sions au sein de l’Union eu­ro­péenne en ce qui concerne le copyright.

Comment fonc­tionne le filtrage au­to­ma­tique ?

Deux com­po­sants sont né­ces­saires pour faire fonc­tion­ner un filtre de contenu. Une base de données re­grou­pant des données non au­to­ri­sées est in­dis­pen­sable, dans le cas du projet de loi de l’UE, il s’agit du matériel protégé par le copyright, le droit d’auteur. Celui-ci est stocké avec des fonctions de hachage.

Remarque

Les valeurs de hachage sont de courtes chaînes de lettres et de ca­rac­tères générés par une fonction ma­thé­ma­tique à partir du matériau source. La même valeur de hachage résulte toujours du même matériau de départ - in­ver­se­ment, il n'est pas possible de déduire le matériau de départ de la valeur de hachage. Les valeurs de hachage sont notamment utilisées lors du stockage des mots de passe.

Un al­go­rithme compare les valeurs de hachage du matériel protégé par le droit d’auteur avec celles des données té­lé­char­gées (sur les pla­te­formes). S’il trouve un che­vau­che­ment, il empêche alors le fichier d’être té­lé­chargé. Mais les filtres ne sont pas seulement actifs pour des fichiers com­plè­te­ment iden­tiques ou très si­mi­laires. Vous pouvez aussi re­con­naître des parties in­di­vi­duelles d’une image, d’un film, d’un extrait de musique ou d’un texte à l’aide des méthodes de machine learning (« ap­pren­tis­sage au­to­ma­tique » en français). L’abs­trac­tion des fichiers de référence est aussi possible dans une certaine mesure. Par exemple, les al­go­rithmes sont capables d’apprendre à partir d’une base de données d’image de chats à quoi ressemble un chat et de re­con­naitre ainsi les nouvelles images de chats qui n’étaient pas stockées au­pa­ra­vant dans la base de données.

Où ces filtres sont-ils déjà utilisés ?

L’obli­ga­tion d’intégrer des filtres de contenu à l’échelle nationale ou eu­ro­péenne serait un chan­ge­ment important, mais les grandes sociétés du Web utilisent depuis des années déjà cette tech­no­lo­gie pour vérifier les énormes quantités de données qui sont té­lé­char­gées quo­ti­dien­ne­ment sur leurs pla­te­formes.

YouTube

« Content ID », le filtre ou robot de la pla­te­forme de vidéos YouTube, passe en revue toutes les vidéos récemment mises en ligne pour violation du droit d’auteur. Si cela est détecté, les ti­tu­laires des droits ont alors trois options :

  • Le blocage : la vidéo est supprimée et n’est plus ac­ces­sible.
  • La mo­né­ti­sa­tion : une publicité est placée avant le lancement de la vidéo, le revenu va au détenteur des droits.
  • L’ob­ser­va­tion : l’auteur ou l’ayant droit est sim­ple­ment tenu informé du nombre de vues de la vidéo ou peut recevoir d’autres sta­tis­tiques.

Le but ici est surtout d’empêcher la dis­tri­bu­tion non autorisée de longs métrages, de séries, de chansons et de vi­déo­clips. Selon YouTube, cet al­go­rithme remplace le travail potentiel de 180 000 con­trô­leurs humains.

Facebook

Le plus grand réseau social utilise des filtres de contenu prin­ci­pa­le­ment pour iden­ti­fier les messages violents, d’in­ci­ta­tion à la haine, les images et vidéos por­no­gra­phiques ou of­fen­santes et cela avant leur pu­bli­ca­tion. Pour lutter contre les contenus ter­ro­ristes ou ex­tré­mistes, Facebook, Twitter, Microsoft et YouTube utilisent une base de données commune gérée en coo­pé­ra­tion avec l’agence eu­ro­péenne de police cri­mi­nelle Europol.

Microsoft OneDrive

Le service d’hé­ber­ge­ment de fichiers analyse au­to­ma­ti­que­ment les fichiers lorsqu’ils sont chargés dans le Cloud. Cette procédure appelée PhotoDNA sert entre autres à la lutte contre la pé­do­por­no­gra­phie.

Re­search­Gate

Suite aux in­sis­tances des éditeurs, le réseau social des pu­bli­ca­tions scien­ti­fiques a dû in­tro­duire un filtre pour iden­ti­fier les re­pu­bli­ca­tions non au­to­ri­sées et les plagiats. L’al­go­rithme devrait alors décider si les pu­bli­ca­tions peuvent être rendues publiques, mises à la dis­po­si­tion de certains groupes de recherche ou si elles doivent être sup­pri­mées.

Quels sont les critiques au filtrage au­to­ma­tique ?

Le filtrage au­to­ma­tique semble être une mesure de soutien à la lutte contre la pé­do­por­no­gra­phie, l’ex­tré­misme et les atteintes au droit d’auteur, mais présente aussi des risques im­por­tants que les opposants à la réforme eu­ro­péenne sur le droit d’auteur ne manquent pas de souligner.

Risques d’erreurs et de ma­ni­pu­la­tions

L’ap­pli­ca­tion du filtrage dans la pratique montre que les al­go­rithmes sont loin de fonc­tion­ner sans erreurs. Pre­miè­re­ment, ils peuvent être re­la­ti­ve­ment fa­ci­le­ment déjoués, par exemple, pour faire passer du matériel protégé par des droits d’auteur comme non protégé. Plus in­quié­tant encore, cependant, ces pro­grammes de filtrage au­to­ma­tique censurent souvent du contenu autorisé. Ainsi, un al­go­rithme ne peut pas re­con­naître les parodies, les remix et les hommages, qui sont gé­né­ra­le­ment libres du droit d’auteur. Les critiques parlent donc d’une res­tric­tion de la liberté ar­tis­tique et de la fin de certains mou­ve­ments : en effet les phé­no­mènes du Web comme celui des mèmes sont souvent basés sur la mise en contexte d’images, de vidéos et de chansons protégées par le droit d’auteur, leur mo­di­fi­ca­tion et leur diffusion sur le Web.

Il est aussi possible que quelqu’un puisse re­ven­di­quer frau­du­leu­se­ment des documents protégés par le droit d’auteur et de les en­re­gis­trer dans la base de données. La diffusion du contenu, même si elle n'est pas protégée par le droit d'auteur, serait alors im­pos­sible tant que les faits n'auront pas été clarifiés.

Pos­si­bi­lité de censure

L’ins­tau­ra­tion du filtrage au­to­ma­tique crée aussi une in­fras­truc­ture qui peut être utilisée pour le contrôle de l’in­for­ma­tion par les États et devenir un ins­tru­ment de pré censure. Dans de mauvaises mains, ces filtres pour­raient entraîner une res­tric­tion de la liberté d’ex­pres­sion et de la liberté de la presse. Par exemple, si les bases de données étaient ali­men­tées non pas par du matériel protégé par le droit d’auteur, mais plutôt par des dé­cla­ra­tions et des critiques du gou­ver­ne­ment, ces dernières ne pour­raient alors plus être librement exprimées sur le Web. Il suffit de se pencher sur le cas de l’Internet en Chine pour constater que ces filtres fonc­tion­nent dans la pratique déjà dans ce but.

Quel est le débat actuel sur le filtrage au­to­ma­tique ?

La réforme du droit d’auteur dans l’Union eu­ro­péenne a permis d’attirer davantage l’attention du public sur les filtres de contenu. Gé­né­ra­le­ment, les ayants droits tels que les éditeurs, les dis­tri­bu­teurs de films et l’industrie de la musique réclament une meilleure pro­tec­tion de leurs œuvres protégées par le droit d’auteur sur les canaux de dis­tri­bu­tion numérique et la pré­ven­tion contre la dis­tri­bu­tion non autorisée comme c’est déjà le cas sur YouTube, par exemple.

D’autre part, il y a les ac­ti­vistes et dé­fen­seurs des droits civils, as­so­cia­tions du Web et opé­ra­teurs de pla­te­formes (comme Wikipédia) qui bien que soutenant l’objectif de la loi qui est de mieux faire respecter la propriété in­tel­lec­tuelle, sou­lig­nent toutefois que le filtrage au­to­ma­tique n’est pas vraiment adapté. Les filtres vont en effet au-delà de l’objectif, ne sont tech­ni­que­ment pas mûrs et cons­ti­tuent surtout une menace pour le droit et la liberté d’ex­pres­sion.

Veuillez prendre con­nais­sance des mentions légales en vigueur sur cet article.

Aller au menu principal