Qu’il s’agisse de créer de fausses in­for­ma­tions ou de déformer la réalité, les faux n’ont rien de nouveau sur Internet. Le Web regorge en effet d’images tra­fi­quées, de fausses in­for­ma­tions, et il devient de plus en plus difficile de dis­tin­guer la réalité de la fiction. Au­jour­d'hui, les con­tre­fa­çons ont atteint un niveau inédit : les deepfakes.

Les deepfakes sont apparus pour la première fois en décembre 2017 sur Reddit. Un uti­li­sa­teur avait réussi à insérer des visages de cé­lé­bri­tés dans des films por­no­gra­phiques, avec une cré­di­bi­lité épous­tou­flante. Pendant une courte période, la création de por­no­gra­phie mettant en scène des cé­lé­bri­tés a connu un véritable boom. Ces fausses vidéos sont main­te­nant in­ter­dites sur Reddit et sur d'autres pla­te­formes telles que Twitter ou Discord, mais ceci n’a pas pour autant limité la pro­pa­ga­tion des deepfakes. Mais qu'est-ce qui rend les deepfakes si par­ti­cu­liers ?

Que sont les deepfakes ?

En règle générale, les faux sont créés avec beaucoup de travail et d'ex­per­tise. Il n'est même pas né­ces­saire que la scène se situe dans l’ombre. Même dans les films hol­ly­woo­diens, il n'est pas rare d'échan­ger des visages lorsque l’on utilise des doublures par exemple. Pour ce faire, on fait gé­né­ra­le­ment appel à des experts dans les domaines de la tech­no­lo­gie de montage et de CGI. Les deepfakes, à l’inverse, sont créés di­rec­te­ment par l'or­di­na­teur, sans retouches né­ces­saires.

Les deepfakes s’appellent ainsi car ils sont basés sur le deep learning, une forme spé­ci­fique du machine learning. Il est né­ces­saire de recourir à des al­go­rithmes deepfakes pour l'échange de visages ou d'objets ; pour que le deep learning fonc­tionne, les al­go­rithmes sont alimentés avec une très grande quantité d'images ou de données vidéo, puisque plus l’on dispose de matériel d'une personne, meilleur sera le résultat.

Conseil

les vidéos cons­ti­tuent également un très bon moyen de s’exercer. Ceci vous permet d'accéder ra­pi­de­ment à des milliers d'images in­di­vi­duelles à partir de dif­fé­rentes di­rec­tions de vi­sua­li­sa­tion. Les vidéos montrent aussi les visages dans des positions plus na­tu­relles que les photos normales, qui souvent ne montrent qu'un visage souriant de face.

Pour se former, 300 photos avec le visage de la personne choisie (idéa­le­ment avec le maximum de points de vue dif­fé­rents) devraient suffire comme données d'en­traî­ne­ment pour obtenir un résultat ac­cep­table. Le code des deepfakes contient un réseau neuronal, un auto-encodeur : le réseau est formé pour com­pres­ser les données afin de les dé­com­pres­ser à nouveau. Pendant la dé­com­pres­sion, l'auto-encodeur essaie d'obtenir un résultat aussi proche que possible de l'ori­gi­nal. Pour ce faire, le réseau apprend à faire la dis­tinc­tion entre les données critiques et les données sans im­por­tance pendant le processus de com­pres­sion.

Par exemple, en ali­men­tant l'al­go­rithme avec des images de chiens, le réseau neuronal ar­ti­fi­ciel apprend à se con­cen­trer uni­que­ment sur le chien et à ignorer les arrière-plans et le bruit. Enfin, l'auto-encodeur peut créer son propre chien à partir des données. C'est aussi ainsi que fonc­tionne l'échange de visages des deepfakes : le réseau neuronal apprend à quoi ressemble le visage de la personne et peut ensuite le créer de façon autonome, même si le visage bouge.

Pour échanger ef­fi­ca­ce­ment des visages, il en faut deux distincts qui soient re­con­nais­sables : celui qui apparaît dans le matériau d'origine et celui par lequel on souhaite le remplacer. C'est pourquoi l’on utilise une entrée (le codeur) et deux sorties (les décodeurs). Le codeur analyse n'importe quel matériau tandis que les deux décodeurs génèrent chacun une sortie dif­fé­rente : visage A ou visage B.

L’al­go­rithme n'insère pas le visage A dans la vidéo, mais le visage B, qui n’a aucun rapport avec le contenu originel. Ceci révèle également la dif­fé­rence avec les faux déjà connus, qui ne sont réduits qu'à des images : dans ce cas, il s’agit uni­que­ment de découper une image, de la retoucher et de l’insérer dans une autre image. Les deepfakes, à l’inverse, ne copient pas le matériel d'image dans une autre image, mais créent du nouveau matériel. C'est en effet le seul moyen de faire cor­res­pondre les ex­pres­sions faciales du visage original.

Ceci explique également les erreurs qui se pro­dui­sent souvent avec les deepfakes. En effet, les réseaux neuronaux at­teig­nent leurs limites lorsqu’il s’agit de mettre en scène des mou­ve­ments atypiques. S'il n'y a pas assez de matériel il­lus­trant ce point de vue, l’ensemble sera flou, puisque l'al­go­rithme essaie de générer une image à partir du peu de matériel source, ce qui l’empêche de créer suf­fi­sam­ment de détails et conduit à un échec.

L'his­toire des deepfakes : de Reddit à une diffusion in­ter­na­tio­nale

C’est à l’origine sur Reddit qu’étaient diffusés les deepfakes. Le site est connu pour offrir également une page d'accueil dans les sous-forums (les su­bred­dits) pour les sujets par­ti­cu­liers. Un redditor, tel que l’on appelle les uti­li­sa­teurs de Reddit, nommé Deepfakes, a créé en décembre 2017 un subreddit contenant des vidéos por­no­gra­phiques avec des cé­lé­bri­tés. Pour ce faire, cet uti­li­sa­teur anonyme a mis au point l'al­go­rithme que nous avons décrit, basé sur d'autres tech­no­lo­gies telles que les bi­blio­thèques open source Keras et Ten­sor­Flow de Google.

Très ra­pi­de­ment, ce subreddit a rassemblé 15 000 abonnés. Dans l'in­ter­valle, Reddit a mis un terme au forum et, comme d'autres sociétés (y compris la pla­te­forme vidéo por­no­gra­phique Pornhub), a interdit la dis­tri­bu­tion de faux porno. Mais ceci n’a pas empêché les deepfakes de connaître un succès gran­dis­sant ; en effet, dans la mesure où le code que deepfakes a développé est open source, il est ac­ces­sible à tous. Sur GitHub par exemple, on trouve plusieurs ré­fé­ren­tiels où les dé­ve­lop­peurs tra­vail­lent sur les al­go­rithmes. C'est ainsi qu’a été créée une ap­pli­ca­tion Deepfakes, appelée FakeApp.

Avec le programme, toutes les personnes ayant un minimum de con­nais­sances in­for­ma­tiques peuvent procéder à des échanges de visage. Pour créer des deepfakes via une ap­pli­ca­tion, il n’y a besoin que d'une carte graphique puissante de Nvidia. Le programme utilise le pro­ces­seur graphique (GPU) pour les calculs. En dehors de FakeApp, on peut également créer des deepfakes avec le CPU d'un or­di­na­teur, mais ceci prend gé­né­ra­le­ment beaucoup plus de temps.

Entre-temps, les in­ter­nautes ont trouvé d'autres uti­li­sa­tions que la por­no­gra­phie pour les échanges de visage basés sur le machine learning. Comme souvent sur Internet, la tech­no­lo­gie est utilisée pour créer du contenu drôle et absurde. Il est par­ti­cu­liè­re­ment populaire, par exemple, de mettre en scène des acteurs dans des films dans lesquels ils n'ont jamais joué. C’est ainsi que des in­ter­nautes ont par exemple remplacé tous les acteurs d’un court extrait du Seigneur des Anneaux par Nicholas Cage, ou encore remplacé Sharon Stone par Steve Buscemi dans la fameuse scène de Basic Instinct.

Effets sur la société

Lorsqu’il s’agit de blagues, la plupart sont re­la­ti­ve­ment inof­fen­sives. Mais ces nouvelles pos­si­bi­li­tés de ma­ni­pu­la­tion vidéo ac­ces­sibles à tous posent plusieurs défis à la société. Il y a évi­dem­ment la question de la légalité. En effet, les actrices célèbres qui ap­pa­rais­sent dans des deepfakes à caractère por­no­gra­phiques n'ont évi­dem­ment jamais donné leur con­sen­te­ment, puisque ces vidéos ont été créées à leur insu. Ces pratiques soulèvent donc des problèmes relatifs au droit à l’image. Outre la question juridique, ces vidéos nuisent gran­de­ment à la ré­pu­ta­tion des personnes con­cer­nées, et causent d’im­por­tants dommages émo­tion­nels.

Remarque

les deepfakes sont créés prin­ci­pa­le­ment avec les visages de cé­lé­bri­tés. Ceci s’explique par le fait que de très nom­breuses images les re­pré­sen­tant sont dis­po­nibles sur le Web. Les personnes privées diffusant de nom­breuses photos d’elles-mêmes sur Internet risquent également de devenir des victimes de deepfakes.

Outre les dommages in­di­vi­duels, les deepfakes peuvent également provoquer des chan­ge­ments sociaux. Ces dernières années a émergé le phénomène des fake news, et il devient de plus en plus difficile de dis­tin­guer les faits réels des fausses dé­cla­ra­tions. Jusqu'à présent, une preuve vidéo était con­si­dé­rée comme une in­di­ca­tion fiable de l'exac­ti­tude d'une dé­cla­ra­tion, mais ceci est aujourd’hui remis en question avec des deepfakes. Avec re­la­ti­ve­ment peu d'efforts, on peut donc main­te­nant créer de faux documents réalistes, et pas seulement à des fins de di­ver­tis­se­ment. Les faux ont toujours été des outils de pro­pa­gande im­por­tants. Avec les deepfakes, il est possible d'in­fluen­cer la politique de manière sig­ni­fi­ca­tive. Alors qu'une vidéo dans laquelle le visage d’Emmanuel Macron serait remplacé par celui de Donald Trump n'a pas né­ces­sai­re­ment d’incidence, il est possible d’imaginer des vidéos mettant en scène des per­son­na­li­tés po­li­tiques dans des si­tua­tions aux­quelles elles n’ont jamais pris part. Dans la mesure où le machine learning peut même recréer la voix d'une personne de façon re­la­ti­ve­ment crédible, les deepfakes de­vien­dront de plus en plus réels à l'avenir. On peut supposer que ces con­tre­fa­çons in­fluen­ce­ront iné­vi­ta­ble­ment les campagnes élec­to­rales et les relations in­ter­na­tio­nales. Pour notre société, cela signifie qu’il est né­ces­saire de revoir notre approche aux médias et à l’in­for­ma­tion. Une étude in­quié­tante a récemment montré que près de huit français sur dix croient à au moins une théorie du complot. Si cette in­cré­du­lité s’explique par la mul­ti­pli­ca­tion des fake news et la méfiance des citoyens à l’égard de l’in­for­ma­tion, elle exprime également une mé­con­nais­sance et un obs­cu­ran­tisme dangereux. Rejeter l’in­for­ma­tion en bloc n’est évi­dem­ment pas une solution vers davantage de trans­pa­rence. Il semble que la clef réside aujourd’hui dans l’éducation, dès le plus jeune âge, afin d’éveiller le sens critique de chacun et de fournir aux futurs citoyens les outils adaptés pour décrypter l’in­for­ma­tion. The News Literacy Project, mené dans près de 90 pays, est un projet créé en 2006 et qui s’est donné pour mission d’apprendre aux enfants et ado­les­cents, dès l’école primaire, à exercer leur regard critique en tant qu’étudiants, con­som­ma­teurs et citoyens. Rappelons également que les dé­ve­lop­pe­ments autour des deepfakes ne sont pas né­ces­sai­re­ment des­truc­teurs ou stupides, et que le deep learning contribue à ré­vo­lu­tion­ner la création d'effets visuels. Pour l'instant, il est encore re­la­ti­ve­ment difficile de monter les visages d'acteurs sur le corps d'autres personnes. Pour le film Star Wars Rogue One, par exemple, une jeune princesse Leia a été créée avec des effets visuels, alors que l'actrice Carrie Fisher avait déjà 60 ans lorsque le film est sorti. Un in­ter­naute a déclaré avoir obtenu un résultat similaire avec l'aide des deepfakes, en une demi-heure et avec un PC ordinaire. Enfin, les deepfakes per­met­tent de rendre les effets visuels dans les médias de di­ver­tis­se­ment plus rapides et moins chers.

On imagine également que la tech­no­lo­gie deepfakes pourrait à l’avenir ré­vo­lu­tion­ner notre rapport à la con­som­ma­tion et même à la culture. Dans le domaine du cinéma, par exemple, il est en­vi­sa­geable de laisser aux spec­ta­teurs un choix du per­son­nage principal, par exemple grâce à un clic avant le début du film. La même chose est con­ce­vable pour l'in­dus­trie de la publicité. Bientôt, les cé­lé­bri­tés ne tour­ne­ront plus pour vendre de la nour­ri­ture ou des vêtements de créateur ou des spi­ri­tueux, mais vendront seulement une licence pour leurs visages.

En résumé

le machine learning offre de vastes pos­si­bi­li­tés pour l'avenir de notre société. Google travaille déjà avec les réseaux de neurones ar­ti­fi­ciels et le deep learning, pour ca­té­go­ri­ser les images ou dé­ve­lop­per des voitures autonomes, par exemple. Les deepfakes il­lustrent l'un des dangers de la tech­no­lo­gie, car ces dé­ve­lop­pe­ments peuvent également être utilisés de manière des­truc­tive. C'est à la société de trouver des solutions à ces problèmes et de tirer parti des pos­si­bi­li­tés réelles offertes par le machine learning et les deepfakes.

Aller au menu principal