DIVERTISSEMENT
26/01/2018 10:47 EST | Actualisé 26/01/2018 12:06 EST

Ces vidéos pornos avec des têtes de stars générées automatiquement soulèvent bien des questions

La réalité s'efface et il devient de plus en plus difficile de distinguer le vrai du faux...

Connaissez-vous la règle 34 d'internet? "Si cela existe, il y a une version porno. Pas d'exception". Ses origines se perdent dans les limbes du web, mais cette petite phrase est devenue un véritable mème. Et aussi étrange que cela puisse paraître, elle s'applique aujourd'hui à l'intelligence artificielle.

Depuis quelques mois, rapporte Vice, de courtes vidéos pornos mettant en scène des célébrités circulent sur le site communautaire Reddit. Ce sont des faux, créés en mélangeant une scène d'un film X et une vidéo d'une star, une actrice le plus souvent.

En décembre, Vice précisait que ces créations provenait d'un utilisateur qui se fait appeler "deepfake". Un nom qui fait référence au deep learning, la technologie d'intelligence artificielle à la mode, qui permet à un algorithme "d'apprendre" à reconnaître quelque chose à partir de nombreux exemples.

C'est justement en utilisant ces techniques qu'il a réussi à créer des vidéos, certaines très réalistes. La prouesse était déjà incroyable. Elle montrait qu'un simple développeur, avec un ordinateur relativement puissant, mais grand public, pouvait créer des faux impressionnants. Le tout avec des programmes disponibles gratuitement sur internet.

Une app clé en main

Depuis, les choses ont évolué à une vitesse vertigineuse. Un espace dédié (subreddit) à cette pratique a été créé, il est rempli de courts extraits pornographiques. Début janvier, un autre utilisateur, Deepfakeapp, a tout simplement mis en ligne un logiciel permettant à tout un chacun de faire la même chose, sans avoir à écrire une seule ligne de code.

En 20 jours, des dizaines d'exemples ont été mis en ligne et près de 30 000 personnes suivent l'activité de cette sous-rubrique. ici, la tête de Daisy Ridley a été placée sur une actrice porno:

Là, c'est Jessica Alba dont le visage a été transféré sur celui d'une actrice X:

Pour réaliser ce genre de montage, il suffit de disposer de deux vidéos de bonne qualité. Le logiciel permet ensuite de traiter ces deux vidéos images par images. L'algorithme va alors tenter de faire "matcher" les visages des deux personnes. Cela prend environ 12 heures pour un ordinateur grand public équipé d'une bonne carte graphique. Et beaucoup de patience pour aider le logiciel à "apprendre".

Evidemment, le résultat n'est pas toujours saisissant, loin de là. D'ailleurs, plusieurs utilisateurs postent leurs créations en demandant de l'aide pour améliorer le rendu final.

Ici, vous êtes sensé voir Emma Watson:

Lexi Belle to Emma Watson

Parfois, le résultat est encore pire:

Thatrandomguy3891/reddit

Si vous avez perdu foi en l'humanité en lisant ces quelques lignes, sachez tout de même que certains utilisent cette technologie pour des choses moins dérangeantes, comme le fait de mettre Nicolas Cage partout.

Ou pour mettre la tête de la princesse Leia sur la scène de fin de "Star Wars : Rogue One", en arrivant à un résultat très proche de celui de Lucas Film, avec un budget incomparable.

Les premières vagues d'un véritable tsunami

Mais les perspectives sont pour le moins incroyables et inquiétantes. Interrogé par Vice, le créateur du logiciel explique qu'il souhaite l'améliorer jusqu'à ce qu'un utilisateur puisse "simplement sélectionner une vidéo sur son ordinateur, télécharger un réseau neural lié à un visage d'une personnalité publique et changer le visage dans la vidéo en appuyant sur un simple bouton".

Pour le moment, le logiciel demande tout de même beaucoup de travail. Et le résultat est loin d'être parfait, même dans les extraits les plus réussis. Mais l'explosion des techniques d'intelligence artificielle et de la puissance des ordinateurs grand public est telle qu'il est évident que dans les mois ou années à venir, le "rêve" de deepfakeapp sera devenu réalité.

Pas difficile d'imaginer les dérives d'une telle technologie. Le fait de coller le visage de célébrités sur des stars du porno est déjà problématique, mais vu le nombre de vidéos postées sur les réseaux sociaux par les utilisateurs, comment ne pas imaginer qu'une personne puisse créer une fausse vidéo porno d'une connaissance?

D'ailleurs, sur Reddit, un utilisateur a demandé ce 26 janvier s'il était possible "d'éditer son flirt sur une vidéo porno". "Disons que j'ai environ 50 à 150 images de cette personne. Est-ce possible?" Si le chiffre est encore trop faible, il suffirait de quelques centaines de photos de plus pour réaliser cela, selon les commentaires.

Couplée à d'autres avancées (encore réservées pour le moment aux chercheurs), comme celle dévoilée par l'université de Washington en 2017 montrant qu'il est possible de faire dire n'importe quoi à n'importe qui, les conséquences possibles sont encore une fois vertigineuses.

La fin de la réalité ?

Interrogé par Vice, Peter Eckersley, de l'Electronic Frontier Foundation, estime que pour le moment, il est relativement facile de voir que la vidéo est fausse. "Mais cela ne restera pas vrai plus d'un an ou deux". Evidemment, on peut se dire que cela existe déjà depuis des années grâce à Photoshop. Les réalisations montrant la création de montages impressionnants pullulent sur Youtube. Ce qu'il se passe aujourd'hui n'est-il pas simplement la transposition de cet état de fait sur la vidéo?

Il y a pourtant une grande différence. Même si Photoshop est relativement simple d'utilisation, il faut du talent pour réaliser un montage suffisamment efficace pour tromper un oeil averti. Avec les progrès de l'intelligence artificielle, on est aujourd'hui en train de voir arriver des logiciels permettant de modifier une vidéo très facilement.

En clair, il pourrait bientôt être impossible de distinguer à l'oeil nu une vraie vidéo d'un trucage totalement amateur. Une perspective renversante, qui oblige à se demander comment la société doit évoluer dans un tel contexte.

Les réseaux sociaux et médias doivent-ils mettent en place des algorithmes permettant automatiquement de discerner un fake? Doit-on au contraire partir du principe qu'une vidéo ne peut plus être considéré comme réelle par défaut? Que si tout peut être faussé, alors rien n'est vrai?

Aussi dérangeant éthiquement que puisse être deepfakeapp, l'émergence de ce logiciel permet au moins de commencer à réfléchir à un débat qui est en train de nous tomber dessus à toute vitesse.

Ce texte a été publié originalement dans le HuffPost France.