NOUVELLES
02/07/2018 18:11 EDT | Actualisé 03/07/2018 13:16 EDT

Les vidéos truquées, bientôt des armes de désinformation massive?

Est-ce réellement Barack Obama dans cette vidéo?

Cette image prise d'une fausse vidéo du président Barack Obama montre des éléments de cartographie faciale utilisée par de la nouvelle technologie qui permet à n'importe qui de créer des vidéos avec de vraies personnes semblant dire des choses qu'ils n'ont jamais dites.
Photo AP
Cette image prise d'une fausse vidéo du président Barack Obama montre des éléments de cartographie faciale utilisée par de la nouvelle technologie qui permet à n'importe qui de créer des vidéos avec de vraies personnes semblant dire des choses qu'ils n'ont jamais dites.

Ce sénateur a-t-il vraiment fait cette déclaration? Est-ce réellement le président Donald Trump dans cette vidéo, ou est-ce que je me fais berner?

Avec de nouveaux outils technologiques, il est maintenant possible de produire une vidéo où quelqu'un semble dire des choses qui ne sont pourtant jamais sorties de sa bouche.

Au Congrès des États-Unis, républicains comme démocrates craignent que cette technologie se convertisse en arme dans le cadre de guerres de désinformation contre les démocraties occidentales.

Il n'est pas question de vidéos où l'on synchronise approximativement le mouvement des lèvres d'une personne à une trame sonore. Cette technologie a plutôt recours à la reconnaissance faciale et à l'intelligence artificielle pour produire des images qui semblent si réalistes qu'il est difficile de distinguer le vrai du faux.

Les législateurs et les autorités en matière de renseignement appréhendent le moment où ces vidéos truquées — nommées «deepfakes» — seront employées pour menacer la sécurité nationale ou pour s'ingérer dans des élections.

«Je m'attends à ce qu'on commence à voir ce genre de contenu ici aux États-Unis dans les élections de mi-mandat à venir et pendant les élections nationales dans deux ans», estime Hany Farid, un expert en informatique judiciaire de l'Université de Dartmouth, au New Hampshire.

Lorsqu'un internaute ordinaire sera en mesure de créer une vidéo où il pourra faire dire ce qu'il veut au président américain par exemple, «nous serons entrés dans un monde où il sera difficile de savoir si on peut en croire ses yeux», prévient-il.

Le contraire sème aussi l'inquiétude. Les gens pourraient confondre des images authentiques avec des canulars.

Détecter les vidéos falsifiées

Le département de la Défense des États-Unis est au fait de ces risques. Une de ses agences mène depuis deux ans déjà un programme visant à mettre au point des technologies capables de détecter des images et des vidéos falsifiées. Identifier des photos truquées requiert présentement une analyse exhaustive.

Les «deepfakes» tirent leur nom du «deep learning» — l'apprentissage profond nécessaire à leur création. Leur réalisation nécessite un algorithme, une série de consignes et beaucoup d'images et d'enregistrements de la personne ciblée. Le programme informatique apprend ainsi à imiter ses expressions faciales, ses manières, sa voix et ses intonations.

Jusqu'à présent, les «deepfakes» ont surtout été utilisés contre des célébrités, mais il est facile de concevoir qu'ils puissent être employés par une agence de renseignement étrangère, s'inquiète le sénateur floridien Marco Rubio.

Il cite en exemple la possibilité de montrer un militaire massacrant des civils à l'étranger, un politicien reconnaissant la véracité d'une théorie du complot ou encore un dirigeant mettant la population en garde contre une catastrophe imminente.

«C'est une arme qui pourrait être utilisée — au bon moment et au bon endroit — de la même manière que les fausses nouvelles sont utilisées, mais sous forme de vidéo, ce qui pourrait vraiment semer le chaos et l'instabilité à la veille d'une élection ou d'une décision majeure de quelque nature qu'elle soit», s'inquiète le sénateur.

La technologie des «deepfakes» n'est cependant pas tout à fait au point. Les clignements de paupières des personnes figurant dans ces vidéos peuvent par exemple paraître artificiels. Mais ces pépins sont en voie d'être corrigés.

«D'ici un an ou deux, il sera vraiment difficile de distinguer une vraie vidéo d'une fausse», avance Andrew Grotto, du Centre pour la sécurité internationale et le contrôle des armements à l'Université Stanford en Californie.

«Je crois que cette technologie sera irrésistible pour les pays qui font des campagnes de désinformation pour manipuler l'opinion publique, duper des populations et miner la confiance en nos institutions», s'alarme-t-il.