Qu’est-ce qu’exac­te­ment un social bot ? Ce terme a été par­ti­cu­liè­re­ment utilisé dans des dis­cus­sions Internet autour du Brexit et de l’élection de Donald Trump à la pré­si­dence des États-Unis. Les social bots sont des sortes de robots d’opinion qui influent sur les dis­cus­sions des réseaux sociaux. En 2017, la crainte était que ceux-ci influent également sur le vote pré­si­den­tiel en France. L’influence des social bots est-elle vraiment aussi im­por­tante ? Que se cache-t-il réel­le­ment derrière un social bot et comment fonc­tionne-t-il ?

Les social bots feignent d‘être des uti­li­sa­teurs humains sur les réseaux sociaux. Ils ne donnent aucun indice pour pouvoir détecter qu’il s’agit de machines. Ils sont cependant évalués comme « fake accounts ». Les autres uti­li­sa­teurs sont trompés par des données de profil per­ti­nentes et partent du principe qu’ils ont affaire à des humains. Ce type de robot est souvent mis en place pour propager les opinions sur les réseaux sociaux ou activer une dis­cus­sion dans le sens des uti­li­sa­teurs.

Les en­tre­prises utilisent les social bots à des fins marketing, par exemple, pour feindre la po­pu­la­rité de produits. De fausses éva­lua­tions positives de produits seront également rédigés par ces robots d’opinion. Ils peuvent également servir à des fins po­li­tiques. Ils influent alors sur les dis­cus­sions publiques envers un parti ou un candidat politique spé­ci­fique. Pour dis­cré­di­ter les opposants po­li­tiques, les social bots utilisent la dé­sin­for­ma­tion. Il n’est donc pas étonnant que cette tech­no­lo­gie fasse souvent débat avec des termes explosifs tels que « fake news » (fausses in­for­ma­tions), « hate speech » (in­ci­ta­tion à la haine), « filter bubbles » ou la bulle de filtres ou encore le « feedback loop » (boucle de ré­troac­tion).

L’effet de po­la­ri­sa­tion des social bots in­ter­pelle jour­na­listes et en­tre­prises de médias, ainsi que les cher­cheurs en sciences humaines et sociales. De plus, en raison de l’im­por­tance crois­sante des réseaux sociaux, une branche qui gagne de l’argent grâce au dé­ve­lop­pe­ment et à l’uti­li­sa­tion des robots sociaux s’est dé­ve­lop­pée. L’uti­li­sa­tion de social bots est légale, et offrir la tech­no­lo­gie des robots in­fluen­ceurs d’opinion sur Internet constitue une affaire lucrative.

Remarque

En raison du fait que de plus en plus de personnes s’informent sur les médias sociaux, les pro­nos­tics estiment que les robots in­fluen­ceurs d’opinion auront un impact de plus en plus important sur le grand public. Cet article de Com­mu­ni­ca­tions of the ACM sur la montée des social bots informe clai­re­ment sur le danger des social bots.

Cependant, la tech­no­lo­gie ne devrait pas être dia­bo­li­sée aussi ra­pi­de­ment. Elle se laisse fi­na­le­ment utiliser de manière sensée, par exemple sous forme de pro­grammes de chat sur les pages des en­tre­prises en réponse aux questions des clients, sans con­tri­buer à la dé­sin­for­ma­tion ou à la ma­ni­pu­la­tion d’opinion.

Pour com­prendre quel est le danger que re­pré­sen­tent les social bots et comment l’on peut les re­con­naître, il faut d’abord savoir comment fonc­tionne la tech­no­lo­gie de ces robots in­fluen­ceurs d’opinion. Voici une courte dé­fi­ni­tion sur ce qu’est exac­te­ment un bot.

Qu’est-ce qu’un bot exac­te­ment ?

Un bot (de l’anglais « robot ») est un programme au­to­ma­tisé, conçu pour mener des actions spé­ci­fiques qu’il exécute de manière réactive ou régulière. Le bot accomplit ceci sans être commandé par un humain. Il analyse son en­vi­ron­ne­ment et « décide » lui-même selon chaque situation de l’action qu’il exécutera.

Remarque

Une étude d‘ Incapsula en 2016 en vint à la con­clu­sion suivante : plus de la moitié du trafic internet mondial est généré par les bots. Presque 30 % de ces bots sont iden­ti­fiés comme des bad bots (des robots in­fluen­ceurs d’opinion dans le mauvais sens) Incapsula.

Les divers types de bots se dif­fé­ren­cient parfois clai­re­ment en ce qui concerne la com­plexité de leur tech­no­lo­gie. La gamme s’étend de simples al­go­rithmes jusqu’à la très complexe tech­no­lo­gie IA (in­tel­li­gence ar­ti­fi­cielle). Si un bot travaille avec l’in­tel­li­gence ar­ti­fi­cielle, il est alors capable d’apprendre : il étudie son en­vi­ron­ne­ment et s’y adapte. Selon la fonction, un bot peut ne pas du tout être per­cep­tible par les uti­li­sa­teurs humains. Il accomplit son travail en arrière-plan sans se faire remarquer ou bien se manifeste comme un humain (il imite le com­por­te­ment humain). Nous vous pré­sen­tons ci-dessous quelques types de bots :

  • Les crawlers Web : ils ap­par­tien­nent à la catégorie de bots qui tra­vail­lent de manière in­dé­tec­table. Ils sont la plupart du temps mis en place par des moteurs de recherche pour fouiller le Web de manière au­to­ma­tique, analyser les pages Web et entrer ces in­for­ma­tions dans les résultats de recherche. Ils agissent le plus souvent de manière inof­fen­sive dans le cadre des standards généraux connus, comme le Protocole d’exclusion des robots. D’autres crawlers Web agissent en dehors des normes et col­lec­tent des données non au­to­ri­sées au sein d’Internet.
  • Les bots de chats : con­trai­re­ment aux crawlers Web, les bots de chats tra­vail­lent de manière réactive : ils réa­gis­sent aux activités humaines et sont ainsi spé­cia­li­sés dans l’apport de réponses sensées répondre aux par­ti­ci­pants du chat. Dans la vie de tous les jours, les chats-bots se com­por­tent comme des as­sis­tants digitaux. Un assistant de site Web peut par exemple guider l’uti­li­sa­teur à travers le site, ou répondre aux questions sur le thème ou l’offre du site en question. Même des as­sis­tants de langue tels que Siri ou Ok Google ou des as­sis­tants de langue externe comme Amazon Echo ou Google Home reposent sur la tech­no­lo­gie des chats bots.
  • Les joueurs virtuels : des acteurs virtuels qui réa­gis­sent de manière variable envers les humains sont né­ces­saires dans beaucoup de jeux in­for­ma­tiques. Ces opé­ra­tions sont exécutées par des bots. On parle alors de ca­rac­tères non joueurs (jeux de rôle), aim-bots (jeux d’action), poker-bots (poker en ligne), etc. Ces bots agissent de manière réactive et tra­vail­lent largement avec la tech­no­lo­gie de l’in­tel­li­gence ar­ti­fi­cielle. Un exemple spec­ta­cu­laire est l’in­tel­li­gence ar­ti­fi­cielle de Google portant le nom de AlphaZero, qui a im­pres­sionné aussi bien aux échecs qu’au jeu de dames. De telles in­tel­li­gences se trouvent aussi dans l’ali­men­ta­tion des jeux vidéo sous forme de bots.
  • Social bots : ils re­pré­sen­tent chaque bot qui est utilisé au sein des réseaux sociaux. Ils tra­vail­lent aussi bien de manière ré­pé­ti­tive que réactive : ils likent, com­men­tent, partagent et essayent de faire réagir les autres uti­li­sa­teurs ou engager une con­ver­sa­tion. Pour que les autres uti­li­sa­teurs réa­gis­sent na­tu­rel­le­ment avec eux, ils simulent une identité humaine.
Remarque

les bots peuvent alléger fortement le quotidien, mais peuvent cependant être également utilisés à des fins cri­mi­nelles. Puisque beaucoup de bots sont spé­cia­li­sés pour être autonomes et tra­vail­ler si possible en passant inaperçu, et donc en imitant le com­por­te­ment humain, ils sont par­fai­te­ment adaptés pour l’es­pion­nage et le vol de données.

Le crawler Web et le chat-bot sont con­si­dé­rés comme les deux types de bots fon­da­men­taux. Les gé­né­ra­tions de bots actuels combinent souvent des fonctions de base : l’ex­ploi­ta­tion cachée des données des crawlers Web et la si­mu­la­tion de com­mu­ni­ca­tion humaine des chat-bots. Les social bots recourent à ces deux fonctions élé­men­taires.

Qu’est-ce qu’un social bot et qu’est-ce qui le dif­fé­ren­cie des autres bots ?

Un social bot est un programme au­to­ma­tique qui simule le com­por­te­ment humain sur les réseaux sociaux. Les robots sociaux prennent part à des dis­cus­sion sur Twitter ou Facebook et ap­pa­rais­sent comme des uti­li­sa­teurs humains. Ils diffusent sur les médias sociaux du contenu relatif à un thème spé­ci­fique, la plupart du temps avec la finalité d’in­fluen­cer la formation d’opinion du public.

Les social bots sont en règle générale utilisés à des fins marketing ou po­li­tiques. Il n’est pas rare que les robots sociaux répandent aussi des fake news. Ils in­fluen­cent de cette façon l’ambiance et les dis­cus­sions Internet, c’est pourquoi on les appelle aussi robots in­fluen­ceurs d’opinion : pour manipuler l’opinion, les social bots utilisent des tech­niques qui sont typiques des bots et également utilisées par d’autres types de bots. Ils cherchent sur les réseaux sociaux après des dis­cus­sions sur un thème prédéfini (ex­ploi­ta­tion des données comme avec les crawlers Web) et in­fluen­cent celles-ci en tant que par­ti­ci­pant virtuel à la con­ver­sa­tion (si­mu­la­tion de con­ver­sa­tion comme avec un chat-bot).

En ce qui concerne leurs fonctions, les robots sociaux s’ap­pa­ren­tent très fortement aux chats-bots ou aux as­sis­tants digitaux qui servent eux-mêmes à com­mu­ni­quer avec les humains. Il existe cependant une dif­fé­rence décisive : alors que les chat-bots pré­sen­tent la plupart du temps un service de conseil que le par­te­naire de con­ver­sa­tion utilise, les social bots, quant à eux, ma­ni­pu­lent et trompent le l’in­ter­lo­cu­teur humain. Si les chat-bots peuvent remplir dif­fé­rentes fonctions, lorsqu’ils sont mis à profit en tant que programme technique, les social bots n’en ont qu’une seule, qui consiste à tromper les autres uti­li­sa­teurs des réseaux sociaux, afin de pouvoir in­fluen­cer leur opinion.

Exemples de l’uti­li­sa­tion des social bots

Il existe beaucoup d’exemples relatifs à l’uti­li­sa­tion ma­ni­pu­la­trice des social bots. Rien qu’en 2016 et 2017, l’uti­li­sa­tion des robots sociaux fut en­re­gis­trée pour presque toutes les grandes élections publiques, par­ti­cu­liè­re­ment les votes portant sur le Brexit, l’élection pré­si­den­tielle aux Etats-Unis, l’élection pré­si­den­tielle en France et l’élection d’un nouveau chan­ce­lier en Allemagne, qui ont été la cible de dis­cus­sions exécutées par les social bots.

  • Le vote du Brexit : en juin 2016, la majorité des Bri­tan­niques a décidé de sortir de l’Union Eu­ro­péenne. Au­pa­ra­vant, des dis­cus­sions vi­ru­lentes avaient eu lieu sur les réseaux sociaux et il fut établi que de nombreux robots in­fluen­ceurs d’opinion y avaient participé. Comme cet article du journal The In­de­pen­dent en faisait état, les social bots ont joué un rôle stra­té­gique par­ti­cu­liè­re­ment important dans le camp des pro-brexit.
  • L’élection pré­si­den­tielle aux États-Unis : en novembre 2016, Donald Trump est élu 58ème Président des États-Unis. Il y a eu d’in­nom­brables in­for­ma­tions qui dé­montrent que les social bots ont eu beaucoup d’influence sur le résultat serré de l’élection. Selon un autre article de l’Uni­ver­sité D’Oxford, suite au premier débat télévisé, un tiers des tweets pro-Trump ont ap­pa­rem­ment été écrits par un bot. La fake news selon laquelle le Pape aurait appelé à voter Trump a été partagée quasiment un million de fois, également par les robots sociaux ! Même pour les pro-Hillary Clinton, on recense une uti­li­sa­tion massive des robots in­fluen­ceurs d’opinion.
  • Élections fédérales en Allemagne : au regard des élections pré­cé­dentes à l’étranger, l’élection du nouveau chan­ce­lier en Allemagne éveilla les craintes que les social bots in­fluen­cent également l’opinion du public. Par con­sé­quent, tous les partis en con­cur­rence se sont prononcés contre l’uti­li­sa­tion des robots sociaux au cours de la campagne élec­to­rale, alors même que les social bots sont autorisés en Allemagne. Heu­reu­se­ment, les bots n’ont pas eu d’influence « visible » sur les élections lé­gis­la­tives en Allemagne. Cependant, en raison du nombre re­la­ti­ve­ment bas d’uti­li­sa­teurs de Twitter en Allemagne, la portée est également assez faible, et c’est pourquoi peu de robots in­fluen­ceurs d’opinion ont été utilisés.

Quelle influence ont eu les robots sociaux sur le résultat des élections ? Cette question est encore sujette à con­tro­verse. En par­ti­cu­lier le vote con­cer­nant le Brexit et surtout l‘élection de Donald Trump, très inat­ten­due et sur­pre­nante pour beaucoup, oc­cu­pè­rent des mois durant les cou­ver­tures et les pages des journaux français. Les uti­li­sa­teurs soup­çon­naient souvent que les robots in­fluen­ceurs d’opinion étaient utilisés comme aides secrètes aux élections avant ces dites élections. Lors des élections, le nombre de messages redouble et il est difficile de dif­fé­ren­cier les posts d’un humain de ceux d’un bot. Si la plupart des posts et comptes de réseaux sociaux sont con­si­dé­rés comme « fake » par les autres uti­li­sa­teurs humains et soup­çon­nés d’être l’œuvre des social bots, il n’empêche que les bots ont tout de même influencé les sondages po­li­tiques au cours de l’année 2017. Les effets des robots in­fluen­ceurs d’opinion et des fake news sont par con­sé­quent notoires : ils mènent à une grande perte de confiance dans le cadre de la com­mu­ni­ca­tion digitale.

Remarque

un autre effet se­con­daire des social bots : ils faussent les résultats d’analyses des médias sociaux. Lors de l’uti­li­sa­tion de likes et de partages, il n’est guère possible selon les analystes de dire si ceux-ci pro­vien­nent de comptes réels ou virtuels. La per­ti­nence réelle des thèmes est sta­tis­ti­que­ment difficile à établir. Ceci re­pré­sente un dé­sa­van­tage aussi bien pour les en­tre­prises que pour les po­li­tiques. Tous deux appuient en effet leur stratégie sur les résultats d’analyses des médias sociaux.

Méthode de fonc­tion­ne­ment des social bots

Un social bot poste des con­tri­bu­tions le plus souvent sous un faux compte. Celui-ci dispose d’une photo de profil, de pu­bli­ca­tion, de followers et même d’amis propres. Au travers de ce compte, le social bot répand ses messages marketing ou po­li­tiques. Ceci peut se faire au moyen de likes et de partages, ou sous forme de posts et de com­men­taires. Grâce à un programme d’interface de trans­mis­sion (API), un social bot reçoit un accès aux réseaux sociaux et peut aussi bien recevoir qu’envoyer des données.

Les social bots agissent le plus souvent à des horaires jour­na­liers, horaires auxquels les gens sont en général actifs. De plus, ils postent gé­né­ra­le­ment leurs messages à des in­ter­valles de temps variables. Tout ceci dissimule le fait qu’une machine se cache en réalité derrière les messages.

Qui plus est, un social bot peut aussi envoyer une demande d’amitié. Si une telle demande est acceptée par un uti­li­sa­teur humain, le social bot pourra avoir accès à toutes les données de l’uti­li­sa­teur, les collecter et les exploiter. Dès 2011, une étude ca­na­dienne prouvait que les social bots col­lec­tent des données et ex­ploi­tent les in­for­ma­tions de compte des personnes qui ont accepté leur demande d’ami.

Remarque

En raison de ses tweets courts, Twitter est l’un des réseaux sociaux les plus appréciés des social bots. En effet, la capacité de langage limité des robots sociaux leur permet d’agir de manière inaperçue sur ce réseau social

Beaucoup de social bots sont pro­gram­més avec des al­go­rithmes simples, qui sont basés sur des chaînes d’éléments simples comme « si » et « alors »: Si un thème pertinent est identifié, alors le Social Bot poste son contenu pré­pro­grammé. Pour trouver des sujets ap­pro­priés, les robots in­fluen­ceurs d’opinion tra­vail­lent avec des mots clés simples et scannent les fils d’actualité de Twitter ou les posts de Facebook après des mots spé­ci­fiques et des hashtags. Ensuite, ils publient des textes pré­dé­fi­nis ou essayent d’orienter la con­ver­sa­tion dans une direction spé­ci­fique.

Il existe tout de même des social bots tech­ni­que­ment très complexes. Grâce à l’in­tel­li­gence ar­ti­fi­cielle, l’analyse de données complète et l’ex­ploi­ta­tion de textes, ces robots sociaux in­tel­li­gents réus­sis­sent à générer toujours plus de nouveaux com­men­taires, qui se dif­fé­ren­cient des pré­cé­dents. Parfois, les social bots peuvent même faire référence à l’actualité du jour dans leurs messages. Le plus souvent, ils cons­trui­sent leurs messages sur dif­fé­rents textes en ligne, qu’ils arrangent à nouveau. Il est par­ti­cu­liè­re­ment difficile de démasquer ces social bots complexes.

Les robots in­fluen­ceurs d’opinion tra­vail­lent uni­que­ment de manière vraiment efficace lorsqu’ils sont connectés entre eux. Beaucoup de bots agissent entre eux de manière coor­don­née dans ce que l’on appelle un botnet. Ils répandent les in­for­ma­tions de manière encore plus effective. Les robots sociaux peuvent aussi liker et retweeter des messages qui ont été rédigés par un autre social bot. Leur influence grandit avec la masse liée au compte.

Tech­no­lo­gie : pourquoi existe-t-il autant de social bots ?

Pour pouvoir dé­ve­lop­per un social bot, les com­pé­tences tech­niques ne sont guère né­ces­saires : avec les outils ap­pro­priés, il est possible de créer un social bot sans grande con­nais­sance en pro­gram­ma­tion. Il est facile de créer un faux compte uti­li­sa­teur. Sur les gé­né­ra­teurs dis­po­nibles, ils peuvent être créés de toute pièce, ou alors l’ini­tia­teur humain achète un faux compte déjà existant. Même les logiciels de commande au­to­ma­tique peuvent entre temps être achetés en ligne. Par le biais d’un programme d’interface de trans­mis­sion, il est possible de procurer au bot l’accès à Twitter ou Facebook où il a au préalable réagi aux hashtags et aux mots clés. La facilité d’accès à la tech­no­lo­gie contribue de manière sig­ni­fi­ca­tive à la pro­pa­ga­tion rapide des robots sociaux.

La pro­pa­ga­tion se fait aussi fa­ci­le­ment par le biais des réseaux sociaux eux-mêmes puisque Facebook et Twitter main­tien­nent un accès dé­li­bé­ré­ment et re­la­ti­ve­ment facile à leurs in­ter­faces de pro­gram­ma­tion : ceci devrait en­cou­ra­ger les dé­ve­lop­peurs d’ap­pli­ca­tion à continuer de tra­vail­ler sur de nouveaux logiciels pour leurs pla­te­formes. Mais les réseaux sociaux n’offrent guère d’obstacles pour les social bots. Twitter, en par­ti­cu­lier, est facile d’accès pour eux et donc la plupart des bots s’amusent aussi là-bas.

Remarque

En septembre 2016, une étude de Rice Uni­ver­sity estimait qu’environ 23% de tous les comptes Twitter étaient des bots. Sur une base de 330 millions d’uti­li­sa­teurs actifs.

Il existe cependant des mesures qui dé­li­mi­tent la d’agis­se­ment des social bots. Il est possible de mettre en place des barrières tech­niques, qui empêchent la création de faux comptes, ou du moins la rendent difficile. Si l’on a découvert l’adresse IP d’un bot, on peut la bloquer pour que celui-ci ne reçoive plus d’accès au réseau social. Beaucoup de pla­te­formes utilisent des captchas pour se prémunir contre les robots sociaux Captchas. Les captchas sont des tests rapides que les humains peuvent résoudre fa­ci­le­ment, mais qui posent problème à beaucoup de bots. La plupart du temps, l’uti­li­sa­teur doit entrer une suite de chiffres gra­phi­que­ment déformés, et qui ne peut pas être lue par une machine. Plus un bot est programmé de manière so­phis­ti­quée, plus est grande la pro­ba­bi­lité qu’il puisse maîtriser le captcha.

Les dif­fé­rents types de social bots

Les fonctions élé­men­taires d’un social bot sont certes les mêmes mais ils se dis­tin­guent tout de même, selon leur fonction, en trois types dif­fé­rents : le sur­char­geur, le trend­set­ter (lanceur de tendance) et l’auto troll.

  1. Le sur­char­geur : le sur­char­geur est un bot qui inonde une con­ver­sa­tion en ligne de ses com­men­taires. Il poste toujours les mêmes dé­cla­ra­tions à maintes reprises et repousse ainsi d’autres con­tri­bu­tions en arrière-plan. Le sur­char­geur est vraiment efficace uni­que­ment lorsqu’il travaille en coo­pé­ra­tion avec d’autres bots. Quand plusieurs sur­char­geurs likent et com­men­tent mu­tuel­le­ment leurs posts, les uti­li­sa­teurs humains perdent ra­pi­de­ment le contrôle sur les dis­cus­sions. Un échange de contenu est alors im­pos­sible de cette manière.
  2. Le lanceur de tendance : les trend­set­ters agissent également en équipe : si un grand nombre de robots sociaux relayent un hashtag de manière coor­don­née, ils peuvent apporter des con­tri­bu­tions d’une portée énorme à ce sujet. Il est possible d’ap­pa­raître de cette manière dans les colonnes des tendances Facebook ou Twitter et le sujet pourra également être repris par la presse. Les robots in­fluen­ceurs d’opinion pour­raient fausser la per­ti­nence du sujet choisi : les bots lanceurs de tendance ga­ran­tis­sent que les phé­no­mènes marginaux agissent comme des tendances ré­vo­lu­tion­naires ou un petit groupe marginal comme un grand mouvement social.
  3. L’auto-troll : il agit seul. Il essaye de distraire les uti­li­sa­teurs qui s’expriment sur un sujet spé­ci­fique et tente de les impliquer dans la con­ver­sa­tion. Il procède le plus souvent avec des dé­cla­ra­tions pro­vo­quantes qui mènent les uti­li­sa­teurs à la con­tra­dic­tion. De cette manière, la con­ver­sa­tion est détournée du sujet réel, une con­ver­sa­tion cons­truc­tive devient polémique et enflammée. Les bots peuvent fa­ci­le­ment empêcher un échange de contenu avec cette méthode.

Acteurs : à qui profitent les social bots ?

Il est très difficile de découvrir qui se cache réel­le­ment derrière les social bots. Aujourd’hui, il n’existe pas une méthode sûre à 100 %, afin d’iden­ti­fier à tout prix les faux comptes. Découvrir les dé­ve­lop­peurs res­pon­sables est encore plus difficile. Cependant, il existe quatre groupes qui peuvent tirer profit de l’uti­li­sa­tion des robots sociaux.

  1. Le spé­cia­liste marketing des réseaux sociaux et les in­fluen­ceurs : les petites et grandes en­tre­prises peuvent utiliser les robots sociaux pour le marketing caché. Les in­fluen­ceurs, en revanche, veulent lancer des tendances et in­fluen­cer les gens en s’aidant de l’as­sis­tance des robots in­fluen­ceurs d’opinion. Les in­for­ma­tions sur le groupe cible peuvent également être obtenues via un social bot puisque si la demande d’amitié d’un bot est acceptée, celui-ci bénéficie d’un accès complet aux données stockées dans le profil.
  2. Acteurs po­li­tiques : des groupes de lobby (groupes de pression) ou des acteurs po­li­tiques sont soup­çon­nés d’utiliser les social bots. Les services secrets amé­ri­cains présument que des pirates in­for­ma­tiques russes se cachaient derrière de nombreux faux comptes et robots sociaux lors de la campagne élec­to­rale amé­ri­caine. Que l’attaque vienne de criminels ou du gou­ver­ne­ment russe, tout ceci reste cependant obscur.
  3. Autres acteurs ayant intérêt à former l’opinion publique : il existe d’autres acteurs qui veulent in­fluen­cer les opinions au moyen des social bots. Il peut aussi bien s’agir de personnes privées que de groupes, d’or­ga­ni­sa­tions ou de criminels. Ce troisième groupe, un ensemble d’acteurs dif­fi­ci­le­ment iden­ti­fiables, est pro­ba­ble­ment le plus important de ceux qui sont men­tion­nés ici. Les personnes en cause utilisent les robots au profit d’un parti ou pour attirer plus d’attention sur des questions ou sim­ple­ment pour jeter le trouble. Très souvent, l’objectif consiste à diffuser des contenus po­li­tiques extrêmes. Puisque ce groupe est très hé­té­ro­gène, les in­ten­tions des uti­li­sa­teurs peuvent dif­fi­ci­le­ment être ras­sem­blées sous un dé­no­mi­na­teur commun.
  4. Acteurs dénués de mauvaises in­ten­tions : il existe toute une frange de social bots "inof­fen­sifs" qui, par exemple, vont liker mas­si­ve­ment des com­men­taires sur Star Wars. Les bots de ce type ne servent à aucune finalité politique ou éco­no­mique iden­ti­fiable. Vrai­sem­bla­ble­ment, beaucoup d'entre eux ne sont que des gadgets tech­niques.

Dangers et per­for­mance des social bots

Le but des robots sociaux est, dans la plupart des cas, d’in­fluen­cer les opinions et les tendances sur les réseaux sociaux. L’IMC (In­te­gra­ted Marketing Com­mu­ni­ca­tion qui est un mode de réflexion et d’action marketing qui fait voler en éclat les fron­tières ha­bi­tuelles de la com­mu­ni­ca­tion marketing) résume les effets sociaux et éco­no­miques possibles de la manière suivante :

Remarque

con­sé­quences sociales : les robots sociaux peuvent mener à la dé­sin­for­ma­tion, la tromperie et la ma­ni­pu­la­tion des processus de formation d’opinion. Des boucles de ré­troac­tion auto-ren­for­cées sont alors rendues possibles : les médias relayent les opinions des médias sociaux puissants et in­fluen­cent ainsi la poursuite de la formation de l’opinion et des décisions po­li­tiques. Sur le long terme, des risques con­si­dé­rables au travers de la diffusion de fake news de discours d’in­ci­ta­tion à la haine et de positions extrêmes sont constatés et peuvent con­tri­buer à la po­la­ri­sa­tion, la ra­di­ca­li­sa­tion et à la division de la société.

Remarque

con­sé­quences éco­no­miques : les réseaux de robots sociaux peuvent con­tri­buer à la diffusion de la publicité, la si­mu­la­tion de la po­pu­la­rité et peuvent être utilisés pour influer sur le cours de la bourse, augmenter des recettes pu­bli­ci­taires il­lé­gi­times et répandre des virus. Les gérants de réseaux sociaux financés par la publicité ont un intérêt croissant à la di­mi­nu­tion du nombre des robots sociaux actifs sur leurs pla­te­formes. Les social bots ne font pas partie, en effet, de la cible des gérants pu­bli­ci­taires.

Cependant, la manière dont les robots in­fluen­ceurs d’opinion rem­plis­sent leur fonction avec succès est sujette à con­tro­verse. Beaucoup d’experts sont d’accord : les social bots n’ac­com­plis­sent pas par­ti­cu­liè­re­ment bien leur travail et n’ont ainsi guère d’influence sur les uti­li­sa­teurs des médias sociaux.

Un article d’UX Magazine explique pourquoi les bots sont su­res­ti­més alors qu’ils disposent d’une gamme de réponses limitées et four­nis­sent des réponses rigides, ce qui les trahit.

Cependant, il existe un consensus social sur le fait que l’activité et les effets des robots sociaux doivent faire l’objet de re­cherches plus ap­pro­fon­dies. On peut donc supposer que la recherche sociale fournira des résultats plus précis dans les années à venir. En outre, pour des raisons pro­phy­lac­tiques, une in­ves­ti­ga­tion plus précise de la tech­no­lo­gie est logique : à l’heure actuelle, alors que de nombreux bots sont encore faciles à découvrir, ceci ne sera plus le cas avec des bots tech­ni­que­ment plus avancés. Cela aug­men­te­rait également le potentiel d’impact des robots. Il est donc né­ces­saire d’élaborer des stra­té­gies de solution à un stade précoce, afin de pouvoir réagir aux progrès tech­niques.

Résumé

les robots sociaux servent en majorité des objectifs qui s’opposent à ceux du grand public. Leurs uti­li­sa­teurs se de la tech­no­lo­gie des social bots servent pour in­fluen­cer l’opinion, ce qui empêche un vrai échange. Cependant, il est encore difficile de dé­ter­mi­ner dans quelle mesure les robots peuvent réel­le­ment in­fluen­cer l'opinion publique, car ce champs n'a pas encore fait l'objet de re­cherches suf­fi­santes, et il manque à l’heure actuelle des preuves scien­ti­fiques de leur ef­fi­ca­cité.

Comment peut-on re­con­naître un social bot ?

Iden­ti­fier un social bot devient de plus en plus difficile en raison de la com­plexité crois­sante de ces robots in­fluen­ceurs d’opinion. Cependant, il existe une suc­ces­sion de questions que l’on doit se poser lorsque l’on traite avec des comptes de médias sociaux, afin de pouvoir estimer s’il s’agit de vis-à-vis humains :

  1. Dans quelle mesure est-il crédible qu’une personne conçoive un tel profil ? Des preuves sont souvent fournies par la photo de profil, l’an­cien­neté du compte ou le com­por­te­ment des followers et les dé­cla­ra­tions des followers : les bots suivent la plupart du temps de nombreux comptes, sans avoir eux-mêmes beaucoup de followers. Si un compte n’a qu’un ou deux amis, la pro­ba­bi­lité qu’il s’agit d’un bot est com­pa­ra­ti­ve­ment élevée. La photo de profil ressemble-t-elle à une photo unique prise sur le vif, ou plutôt à une photo de modèle pro­fes­sion­nel qu’un robot peut fa­ci­le­ment extraire d’Internet ? De plus, la cohérence du texte de profil indique si on a affaire à un uti­li­sa­teur humain. Par ailleurs, il faut également vérifier depuis quand le compte existe. Beaucoup de robots in­fluen­ceurs d’opinion ne sont dé­ve­lop­pés que peu de temps avant leur uti­li­sa­tion et ont donc souvent des comptes très récents.
  2. Que publie le compte ? Si un compte publie à plusieurs reprises des posts si­mi­laires avec un choix de mots presque iden­tiques ou des liens re­di­ri­geant vers les mêmes médias, il semble évident qu’il s’agit d’un bot censé amener un certain sujet dans la con­ver­sa­tion. Un style de discours ar­ti­fi­ciel ou des erreurs gram­ma­ti­cales in­ha­bi­tuelles laissent également penser qu’il s’agit d’un bot. Enfin, les bots postent plus souvent qu’ils ne com­men­tent.
  3. À quelle fréquence le compte publie-t-il des con­tri­bu­tions et à quelle fréquence en like-t-il d’autres ? D’autres con­clu­sions peuvent être tirées de la fréquence à laquelle un compte est actif dans les réseaux sociaux. Un très grand nombre de posts, de likes et de partages sont tout aussi ré­vé­la­teurs qu’un nombre constant de messages postés chaque jour. Il faut également prêter attention au temps de réaction du compte : si le compte répond et poste dans un laps de temps de quelques secondes, c’est une in­di­ca­tion claire qu’il ne s#agit pas d’un humain.
  4. Comment le compte réagit-il aux questions con­tex­tuelles ? L’une des méthodes les plus fiables pour iden­ti­fier un bot est de poser des questions dites con­tex­tuelles. Ce sont des questions aux­quelles il faut répondre dif­fé­rem­ment dans chaque situation. Par ailleurs, les robots sociaux trouvent la pensée d’ordre spatiale difficile. Si l’on demande à un bot : « à quoi ressemble la photo de profil de la personne qui a commenté au-dessus de ton message ? », il aura du mal à répondre à cette question en rapport avec le contexte.
Conseil

ici une che­ck­liste détaillée vous aide à iden­ti­fier les robots sociaux.

En con­clu­sion, il est toujours utile de se rappeler comment fonc­tion­nent les dif­fé­rents robots sociaux : si l’on observe un com­por­te­ment per­tur­ba­teur selon le type « sur­char­geur » ou « auto-troll », il ne faut pas se provoquer laisser ou distraire. Même s’il n’y a pas de bot derrière le compte, il est utile de l’ignorer et de continuer à discuter de manière cons­truc­tive avec les autres uti­li­sa­teurs. De cette façon, vous con­tre­car­rez à la fois l’influence des robots sociaux et celles des trolls humains.

Aller au menu principal