Vous l’avez sûrement remarqué, les réseaux sociaux ont tendance à vous présenter des articles d’actualité qui reflètent vos opinions. Mais est-ce vraiment la réalité ? Pour un nombre croissant d'in­ter­nautes, c'est effrayant. Des citoyens en désaccord et des opinions di­ver­gentes cons­ti­tuent les bases né­ces­saires à une culture dé­mo­cra­tique du débat. Les résultats des élections pré­si­den­tielles amé­ri­caines de 2016, cependant, ont bien mis en évidence que l'image que les médias sociaux et les moteurs de recherche nous donnent n'est pas complète, même dé­bar­ras­sée des opinions des autres. Que cela nous plaise ou non, nous vivons dans une bulle de filtres.

Lorsque Donald Trump a remporté l'élec­tion de 2016 en tant que 45e président des États-Unis, nombreux sont ceux qui ont été choqués à travers le monde : rien n'in­di­quait en effet que l'out­si­der politique pouvait réunir une majorité. Du moins, c'est ce qu’a perçu la majorité de ses opposants. Pour ses partisans, à l’inverse, l'affaire était claire : après tout, tout le monde était contre Hillary Clinton. Les deux parties s'étaient mag­ni­fi­que­ment disputées sur le Web et avaient exprimé leurs propres opinions avec véhémence, mais chacune des parties semble avoir été her­mé­tique aux positions de l’autre. Tous n'avaient lu et commenté qu'à l'in­té­rieur de leur bulle de filtres.

Comment se crée la bulle de filtres ?

Notre société a transféré une grande partie de la vie quo­ti­dienne sur Internet. Pour beaucoup, la com­mu­ni­ca­tion et la recherche d'in­for­ma­tions se fait presque ex­clu­si­ve­ment en ligne. Le fil d'ac­tua­li­tés de Facebook fonc­tionne comme un magazine d'ac­tua­li­tés, Google comme une en­cy­clo­pé­die et des messagers tels que WhatsApp ou Skype sont utilisés pour échanger des in­for­ma­tions avec des amis, des collègues et des membres de la famille. Presque tout ce que nous voulons savoir est désormais ac­ces­sible en ligne. Les four­nis­seurs d'accès à Internet le savent aussi : Google, Facebook, Netflix ou Instagram com­pren­nent l'im­por­tance de leurs offres pour la société. Ils affinent donc cons­tam­ment leurs al­go­rithmes en termes de con­vi­via­lité : ils ne nous montrent que les in­for­ma­tions supposées per­ti­nentes pour nous.

Il n'y a là rien de bien nouveau : les prin­ci­paux four­nis­seurs de services sur Internet re­cueil­lent des données sur le com­por­te­ment des uti­li­sa­teurs sur leurs pla­te­formes et pro­met­tent d'adapter encore mieux l'ex­pé­rience uti­li­sa­teur aux besoins des clients, souvent sans qu’eux-mêmes n’en ma­ni­fes­tent le désir. La collecte de données a déjà été critiquée par de nombreux experts, mais prin­ci­pa­le­ment sous l'aspect, par ailleurs essentiel, de la pro­tec­tion des données. Le terme audacieux data octopus décrit comment Google, Facebook et consorts, col­lec­tent et analysent les données per­son­nelles de leurs uti­li­sa­teurs : combien de temps une personne passe-t-elle en ligne ? Où habite-t-elle ? Quels sont ses passe-temps ?

Bien entendu, toutes ces in­for­ma­tions sont utilisées à des fins très in­té­res­sées par ces en­tre­prises : Google et Facebook, par exemple, réalisent une grande partie de leur chiffre d'af­faires grâce à la publicité per­son­na­li­sée. Mais les données devraient également aider à mieux adapter les offres à chacun des uti­li­sa­teurs : ceci implique de per­son­na­li­ser non seulement la publicité, mais également les in­for­ma­tions proposées.

Par con­sé­quent, les services ne nous montrent que les ac­tua­li­tés, les in­for­ma­tions et les opinions qui cor­res­pon­dent à notre profil d'uti­li­sa­teur. Cela peut sembler positif au premier abord : les fils d’actualité ne sont plus remplis d'ar­ticles qui ne nous in­té­res­sent pas, les messages po­pu­laires ne sont plus remplis de com­men­taires que l’on ne lira pas, et il n’est plus né­ces­saire de lutter dans des débats d'opinion qui n'abou­tis­sent à aucun résultat. Toutefois, cela crée à long terme des problèmes qui ne de­vien­nent évidents que lorsque l'on remet en question les mé­ca­nismes de filtrage des médias sociaux.

Critique des bulles Facebook et Google

Le concept de la bulle de filtres a été défini par le militant Eli Pariser, qui critique l'ampleur de la per­son­na­li­sa­tion de l'in­for­ma­tion sur Internet dans son livre Filter Bubble : how we are in­ca­pa­ci­ta­ted on the Internet. Il avait remarqué que dif­fé­rents uti­li­sa­teurs, en fonction de leur attitude politique par exemple, ob­tien­nent des résultats dif­fé­rents pour les mêmes termes de recherche. Mais cette bulle Google n'est pas un cas isolé : d'autres services Web utilisent également des al­go­rithmes pour la per­son­na­li­sa­tion. Facebook, en par­ti­cu­lier, crée également une bulle de filtres. Les problèmes qui en résultent ne sont pas seulement de nature in­di­vi­duelle, mais ont également un impact sur la société dans son ensemble.

Dans une dé­mo­cra­tie qui fonc­tionne, le discours est crucial : l'échange de points de vue dif­fé­rents n'est pas seulement important entre les po­li­ti­ciens des divers partis, mais devrait exister dans l'en­semble de la société. Ce n'est qu'ainsi qu'il est possible de ne pas rester dans une impasse, mais d'inclure d'autres opinions et d'élargir son propre horizon. Ceux qui vivent dans une bulle de filtres, cependant, ne trou­ve­ront guère d'ar­gu­ments contre leur point de vue, mais une ap­pro­ba­tion excessive. Cependant, dans la mesure où de nombreux in­ter­nautes n'ont pas encore une cons­cience critique suf­fi­sante pour traiter avec les nouveaux médias (on parle à ce sujet de com­pé­tence mé­dia­tique), ils pro­jet­tent leur propre per­cep­tion au sein de la bulle sur l’ensemble du monde extérieur.

Au lieu de con­si­dé­rer sa propre opinion comme une opinion parmi tant d'autres, la bulle de filtres ne fait que la confirmer, de sorte que l’on remarque à peine qu'il y en existe d'autres. C'est ce qui explique des phé­no­mènes tels que la sur­pre­nante victoire de Trump, par exemple pour les re­pré­sen­tants des médias. Dans la bulle de filtres des libéraux, il n'y avait aucun signe que suf­fi­sam­ment de gens par­ta­ge­raient les pu­bli­ca­tions du candidat ré­pu­bli­cain. Les jour­na­listes qui se trouvent également dans une telle bulle de filtres agissent comme des mul­ti­pli­ca­teurs et diffusent l'opinion pré­fa­bri­quée dans les autres médias.

La formation de bulles de filtres contredit deux idées fon­da­men­tales qui ac­com­pag­naient la diffusion d’Internet en tant que média de masse : d'une part, il met en réseau des personnes les plus diverses à travers le monde entier, mais si vous êtes dans un groupe homogène, vous n'avez plus aucun de ces avantages. D'autre part, Internet a été salué comme un lieu virtuel où l'in­for­ma­tion est librement ac­ces­sible et ne peut être censurée. Ceci a permis à Internet de cons­ti­tuer un pendant solide aux médias tra­di­tion­nels, où le contenu est filtré par les ré­dac­tions. Main­te­nant, ce filtrage est également arrivé sur Internet, mais au lieu d'une équipe édi­to­riale, c'est désormais un al­go­rithme qui sé­lec­tionne ce que les uti­li­sa­teurs doivent savoir.

Bulle de filtres : à qui la faute ?

Il est assez facile de blâmer les grandes en­tre­prises et leurs al­go­rithmes : Facebook, Yahoo ou Google n'in­for­ment pas leurs uti­li­sa­teurs, ou pas assez, sur la manière et les raisons pour les­quelles ils filtrent certaines in­for­ma­tions, et ne leur donnent pas di­rec­te­ment la pos­si­bi­lité de modifier ou de dé­sac­ti­ver le filtrage. Toutefois, la plupart des uti­li­sa­teurs sont con­join­te­ment res­pon­sables du contenu qu'ils reçoivent. Facebook, par exemple, montre moins de nouvelles des uti­li­sa­teurs dont on ne clique pas sur les liens pu­bli­ca­tions. Cela signifie que nous signalons à l'avance un manque d'intérêt pour les rapports qui ne sont pas conformes à notre opinion. L'al­go­rithme poursuit dans cette voie et anticipe en nous pré­sen­tant uni­que­ment l'in­for­ma­tion qui nous intéresse réel­le­ment.

Eli Pariser part du principe qu'il existe en chacun une con­tra­dic­tion, qu’il compare avec l’ali­men­ta­tion : bien que nous sachions que nous devrions aussi manger des aliments qui sont bons pour notre santé, nous sommes trop heureux de choisir des produits qui satisfont di­rec­te­ment nos besoins. Par con­sé­quent, nous sommes également res­pon­sables du fait qu'on ne nous offre plus rien d'autre. C'est pourquoi il propose une solution mixte : d'une part, des in­for­ma­tions qui cor­res­pon­dent à notre profil, et d'autre part, des in­for­ma­tions qui nous in­ter­pel­lent. C'est ainsi que les al­go­rithmes doivent être struc­tu­rés.

Savoir qui est fautif en ce qui concerne de dé­ve­lop­pe­ment de la bulle de filtres ne bénéficie pas d’une réponse claire : il semble s'agir d'un mélange de phé­no­mènes sociaux et tech­niques. D'une part, chacun tend à re­cher­cher la con­fir­ma­tion de son opinion. D'autre part, les dé­ve­lop­pe­ments tech­niques utilisés sur le Web sont conçus pour rendre la na­vi­ga­tion aussi agréable que possible, et non pour créer des défis in­tel­lec­tuels. Le fait est que personne ne peut voir tous les messages qui ap­pa­rais­sent quo­ti­dien­ne­ment sur Internet. Il n'y a donc rien de mal à utiliser un filtre basé sur des al­go­rithmes tech­niques. Cependant, les excès qui en résultent font l'objet d'un examen critique.

Chambres d'écho et fausses nouvelles : l’expansion des bulles de filtres

Deux autres termes ap­pa­rais­sent souvent en relation avec la bulle filtrante : chambres d'écho et fake news. Une chambre d'écho désigne une pièce dans laquelle on peut créer une forte ré­ver­bé­ra­tion. Au sens figuré, il s'agit d'un espace virtuel dans lequel les opinions ne font que se conforter car il n'y a plus d'in­fluences con­traires. Ces chambres d'écho ap­pa­rais­sent dans une bulle de filtres, car une opinion alimentée (par exemple sous la forme d'un message Facebook) n'est amplifiée que par l'écho des autres membres à l'in­té­rieur de la bulle, et n'est plus re­la­ti­vi­sée par un point de vue différent.

C'est ce qui explique, entre autres, le succès de ce qu'on appelle les fake news. Des rapports soi-disant factuels déforment les faits ou traitent même ex­clu­si­ve­ment de fictions. Les agi­ta­teurs ali­men­tent ces rumeurs dans une bulle de filtres dans laquelle elles peuvent se répandre sans con­tes­ta­tion et s'orien­ter vers des faits supposés. Ceci crée une per­cep­tion du monde davantage basée sur les opinions que sur les faits, ce qui entraîne des conflits plutôt que des discours.

La bulle de filtres, pas si im­por­tante qu’on ne le pense ?

Il existe également, dans le cadre de la défense de la diversité d'opinion, des voix qui cri­ti­quent la théorie de la bulle de filtres. Ce qui serait par­ti­cu­liè­re­ment dis­cu­table, c'est l'in­fluence réelle d'une bulle de filtres et la question de savoir si Internet ou les al­go­rithmes cor­res­pon­dants l'am­pli­fient réel­le­ment. Aux États-Unis, une enquête de Pew Research menée après l’élection de Donald Trump montre que pour 48 % de ses électeurs, ce sont les chaînes de té­lé­vi­sion Fox News (40 %) et CNN (8 %) qui ont servi de source prin­ci­pale à leur décision, contre seulement 7 % pour Facebook par exemple. La té­lé­vi­sion et la radio, médias tra­di­tion­nels, restent donc des sources d’in­for­ma­tions im­por­tantes pour forger l’opinion publique, et semblent re­la­ti­vi­ser l’impact des al­go­rithmes sur les médias sociaux.

Une étude récente, réalisée par l’agence de presse Reuters, montre qu’en France la té­lé­vi­sion reste le média le plus utilisé pour s’informer, pour 71 % des personnes in­ter­ro­gées, même si sa part a con­si­dé­ra­ble­ment baissé depuis 2013, et qu’elle est suivie de près par Internet, que les uti­li­sa­teurs sont 68 % à consulter lorsqu’ils re­cherchent une in­for­ma­tion. La bulle Google pourrait donc déjà avoir une influence sig­ni­fi­ca­tive sur les in­for­ma­tions que les uti­li­sa­teurs reçoivent. En outre, les jour­na­listes passent également du temps dans les médias sociaux et utilisent Google pour la recherche : à cet égard, cela influence également les médias en dehors d'In­ter­net.

Mais il existe des opinions très con­tra­dic­toires, en par­ti­cu­lier en ce qui concerne la bulle Google : Eli Pariser fournit des preuves claires de l'in­fluence de la per­son­na­li­sa­tion sur les résultats de recherche Google, mais ces ob­ser­va­tions remontent à 2011, et Google est connu pour apporter des chan­ge­ments réguliers à son moteur de recherche ; il n’est donc pas certains que ces éléments soient toujours d’actualité.

Enfin, il ne faut pas oublier que les bulles de filtres exis­taient déjà avant Internet : bien avant le dé­ve­lop­pe­ment du Web, de nom­breuses personnes dans les clubs, les cercles amicaux et familiaux, ont été main­te­nues dans des chambres d'écho sans bulles Google ou Facebook. Internet a permis d'ac­croître sen­si­ble­ment la diversité des opinions et a donc contribué à la plu­ra­li­sa­tion. Cependant, pour avoir un Internet libre à l'avenir, dans lequel des personnes dif­fé­rentes avec des points de vue dif­fé­rents se ren­contrent au même niveau, il ne faut pas sous-estimer le danger des bulles de filtres.

Comment sortir de la bulle de filtres

Si l’on souhaite se libérer de sa bulle de filtres, il existe plusieurs options : la première étape consiste à remettre en question son propre com­por­te­ment de na­vi­ga­tion. Si l’on souhaite dé­li­bé­ré­ment faire face à des opinions con­traires aux siennes, c’est possible malgré la bulle Facebook et la per­son­na­li­sa­tion (supposée) de Google. De cette façon, les al­go­rithmes des médias sociaux peuvent être cons­ciem­ment in­fluen­cés et formés : par exemple, suivre les pages Facebook de plusieurs partis (avec une mention J’aime) permet de recevoir un éventail plus large d'in­for­ma­tions du spectre politique. De cette façon, chacun peut créer sa propre diversité.

De plus, le réseau offre des outils qui libèrent au moins la recherche de résultats per­son­na­li­sés. Ainsi, chaque in­ter­naute est libre d'ef­fec­tuer sa recherche dans d'autres moteurs de recherche que Google. Le moteur de recherche français Qwant, par exemple, annonce qu'aucune donnée per­son­nelle con­cer­nant les uti­li­sa­teurs n'est collectée ou évaluée. Ainsi, aucune recherche per­son­na­li­sée n'a lieu et aucune bulle de filtre ne peut être créée.

De plus, il existe des add-ons pour certains na­vi­ga­teurs Internet, qui aident à empêcher le suivi du com­por­te­ment de na­vi­ga­tion. Ce qui est bon pour la pro­tec­tion des données aide aussi à éviter les bulles de filtres. Si les en­tre­prises ne peuvent pas re­cueil­lir des ren­seig­ne­ments per­son­nels, il n'est pas possible de per­son­na­li­ser. Par ailleurs, il est re­com­mandé de toujours faire preuve de méfiance en ce qui concerne les in­for­ma­tions per­son­nelles que l’on fournit sur les médias sociaux. Si vous ne souhaitez pas renoncer à Facebook, vous pouvez au moins être plus res­tric­tif lorsque vous divulguez des in­for­ma­tions.

En supposant que la bulle de filtres s'étend également aux médias tra­di­tion­nels, il est logique d'uti­li­ser autant de médias et de sources dif­fé­rentes que possible pour obtenir de l'in­for­ma­tion. Cela peut être fait en ligne, par exemple, en utilisant des agré­ga­teurs de contenu équi­li­brés comme The Old Reader ou Newstab. Cela permet de voir les choses sous un angle différent et de regarder au-delà de ses propres limites, même malgré la menace d'une bulle de filtres.

Aller au menu principal