logo

"Deepfakes" : ces trucages vidéo accusés de menacer la démocratie américaine

Des élus américains veulent que les “deepfakes”, des montages vidéo dopés à l’intelligence artificielle, soient inscrits sur la liste des menaces pour la sécurité nationale. Ils craignent qu’ils deviennent les “fake news” des élections de mi-mandat.

Des politiciens américains s’alarment des risques que font courir les “deepfakes” pour la démocratie. Cette technique, qui permet de créer des montages vidéo grâce à un algorithme en substituant notamment une personne par une autre, avait d’abord été utilisée dans le domaine pornographique où les faussaires réussissaient à mettre en scène des célébrités dans des scènes plus que suggestives. Trois élus de la chambre des Représentants - deux démocrates et un républicain - craignent maintenant pour les élections de mi-mandat de novembre 2018 et ont demandé, jeudi 13 septembre, au gouvernement américain d’inscrire les “deepfakes” sur la liste des menaces à la sécurité nationale.

Ils redoutent qu’après une campagne présidentielle de 2016 marquée par les “fake news”, la prochaine échéance électorale soit prise d’assaut par des “acteurs étrangers” diffusant ces fausses vidéos pour influencer le vote. Leur cauchemar serait que des agents russes fassent circuler, sur Facebook et Twitter, des montages réalisés pour faire tenir à des candidats des propos à même de ruiner leur réputation et leurs chances de se faire élire.

“La technologie est au point”

Ces élus américains ont, sans doute, été impressionnés par un trucage du site Buzzfeed, publié en avril 2018, faisant dire à un Barack Obama plus vrai que nature que Donald Trump était “une grosse merde”. “Ils ont raison de s’inquiéter, la technologie est au point”, assure à France 24 Vincent Nozick, chercheur au Laboratoire d’informatique Gaspard-Monge (LIGM), où il travaille sur le programme Mesonet de détection des “deepfakes”.

Pour cet expert, la menace est d’autant plus importante que ces trucages “ne demandent pas de connaissances très approfondies en mathématiques, ni de matériel informatique très perfectionné”. Des algorithmes savent très bien le faire, à condition de leur fournir une base de données suffisante d’images et de vidéos de la victime du montage. L’intelligence artificielle doit, en effet, disposer de suffisamment de points de repère pour pouvoir ensuite recréer la cible dans un autre environnement. “C’est pourquoi il est plus difficile de réaliser un ‘deepfake’ d’un parfait inconnu que d’une célébrité”, explique Vincent Nozik.

Le recours à ce procédé est d’autant plus tentant que la supercherie n’est pas aisée à découvrir sur le Web. “Les vidéos mises sur Internet sont souvent de piètre qualité, car elles sont comprimées [donc dégradées, NDLR] pour être diffusées plus facilement, et il devient alors très difficile de détecter les altérations qui indiquent une manipulation”, explique Jean-Michel Morel, chercheur au Centre de mathématiques de l’École normale supérieure (ENS) de Paris-Saclay, contacté par France 24.

Un autre problème provient du “manque de bases de données de ‘deepfakes’”, souligne Alan Dolhasz, chercheur spécialisé dans l’imagerie numérique à l’université de Birmingham (Grande-Bretagne), contacté par France 24. Les algorithmes chargés de traquer ces trucages sur Internet doivent apprendre à reconnaître une falsification et, comme le phénomène est encore assez récent, il n’y a que peu de points de référence à leur fournir.

Course technologique

Malgré tout, les solutions existent, comme le programme Mesonet de Vincent Nozick. Elles profitent des limites technologiques actuelles des “deepfakes”. “On s’est aperçu, par exemple, que l’observation des yeux a un rôle prépondérant pour la détection du faux”, explique le chercheur du LIGM. Des mouvements ou des clignements d’yeux qui ne seraient pas synchronisés ou trop fréquents trahissent le plus souvent un trucage.

“Mais la recherche dans ce domaine avance très vite”, constate Alan Dolhasz. Les efforts portent sur la synchronisation de la bouche avec la parole, les mouvements des yeux ou encore le lien entre le visage et décor du fond. “Les ‘deepfakes’ vont donner lieu à une course technologique entre les faussaires et ceux qui essaient de les contrer”, conclut Alan Dolhasz.

Pour lui, la bataille technologique est perdue d’avance si “les gens veulent croire aux ‘deepfakes’”. “S’ils ont confiance dans la personne qui, sur Facebook, leur envoie un lien vers une vidéo truquée, ils seront moins susceptibles de chercher si elle est fausse, c’est ce qui s’est passé avec les ‘fake news’ durant l’élection américaine de 2016”, rappelle ce chercheur.

L’enjeu dépasse même les élections de mi-mandat aux États-Unis. Que se passerait-il si une vidéo truquée dans laquelle un chef d’État déclarait la guerre à un autre pays était diffusée à grande échelle ? Même si un démenti officiel intervenait rapidement, ce genre de “deepfakes” pourrait profondément déstabiliser la planète. C’est pourquoi, juge Jean-Michel Morel de l’ENS, le plus important n’est peut-être pas de trouver un antidote technologique, mais “la vraie réponse c'est l'éducation publique, y compris à l'usage et à l'interprétation des médias”.