Video : comment repérer une « deepfake » ?



 

De parfaites fausses vidéos de Tom Cruise ont semé le trouble sur TikTok et relancé l'inquiétude liée au perfectionnement des « deepfakes ». Si des astuces existent pour les démasquer, elles ne sont pas infaillibles. Plongée dans le fake de haut vol avec CQFD, le module pédagogique des Echos.

 
 
 
Si le travail de Miles Fisher sur Tom Cruise peut faire sourire, les « deepfakes » suscitent souvent de l'inquiétude. (Insidefoto/Sipa USA/SIPA)  

Un compte Tik Tok affole le réseau social depuis plusieurs jours. Nommé DeepTomCruise, on y voit par exemple le célèbre acteur en train de jouer au golf… sauf qu'il ne s'agit pas de Tom Cruise. Ces vidéos ont en réalité été réalisées par l'artiste Chris Umé, spécialisé dans la création d'effets spéciaux. Pour fabriquer ces « deepfakes » si réalistes qu'elles ont réussi à passer entre les mailles du filet de la plateforme de détection Deepware, le créateur est allé jusqu'à faire appel à l'acteur Miles Fisher, connu pour sa ressemblance avec Tom Cruise. Il a ensuite utilisé la technique du « faceswap » pour placer le visage de la star à la place de celui de son acteur.

Si le travail de Miles Fisher sur Tom Cruise peut faire sourire, les « deepfakes » sont souvent une source d'inquiétude. Bien réalisées, elles pourraient faire dire n'importe quoi à n'importe qui et ainsi donner une nouvelle dimension à la désinformation en ligne. En 2018, le média américain Buzzfeed avait par exemple mis en ligne une vidéo dans laquelle on voyait Barack Obama tenir des propos insultants à l'égard de Donald Trump. Devenue virale, il s'agissait en réalité d'une fausse vidéo justement destinée à alerter le public. Pour ne pas se faire avoir, que faut-il avoir en tête lorsqu'on regarde une vidéo ? Quels signes faut-il guetter ? Comment la recherche travaille-t-elle pour identifier les deepfakes ? Les explications de CQFD.
1) Quels sont les premiers indices qui doivent attirer notre attention ?

Depuis l'apparition des premières deepfakes, plusieurs éléments caractéristiques de ces fausses vidéos ont été identifiés. Les plus élémentaires d'entre elles ne sont par exemple pas capables de simuler un clignement naturel des yeux. Lors du visionnage d'une vidéo, cet indice fait donc partie des éléments à surveiller.

 

D'autres indices doivent attirer l'attention, comme les incohérences d'éclairage entre le visage du personnage et le reste de son corps. « Par exemple si un autre visage a été échangé avec celui de Mariah Carey dans un clip qui a été tourné de nuit, on pourra constater une différence de luminosité et de bruit entre les différentes parties de l'image », explique Tina Nikoukhah, doctorante en traitement d'image au Centre Borelli, laboratoire de recherche de Saclay. Pour être attentif à ces détails, une astuce peut être d'isoler une ou plusieurs images de la vidéo et de l'examiner. Plus difficile à repérer à l'oeil nu, la fréquence des battements cardiaques des protagonistes d'une vidéo, que les deepfakes ont parfois du mal à imiter, est un autre élément à surveiller.
2) Pourquoi les deepfakes sont-elles de plus en plus difficiles à repérer ?

Si de telles astuces existent, elles ne sont pas infaillibles. A mesure que ces « failles » sont identifiées, elles sont d'ailleurs rapidement résolues par les créateurs de ces vidéos, qui se perfectionnent. « C'est une véritable course », constate Tina Nikoukhah. Des applications comme Lyre Bird, développent par exemple des outils de clonage de voix, tandis que des recherches sont en cours pour reproduire le plus fidèlement possible les expressions faciales. Plus avancée encore, la technique des « réseaux adverses génératifs » (GAN, en anglais) repose sur la mise en concurrence de deux réseaux de manière à créer une imitation la plus fidèle possible à la réalité.

Face à ces progrès, l'importance de l'éducation aux médias est primordiale, souligne Tina Nikoukhah. « De la même manière qu'il est possible de modifier une photo, il faut garder en tête qu'une vidéo n'est pas forcément synonyme de fiabilité », explique-t-elle. Selon la chercheuse, la meilleure posture est encore de se poser la question de la source d'une vidéo et d'adopter un regard critique quant à celles diffusées sur les réseaux sociaux. « Sur ce point, je constate que les jeunes sont souvent un public plus alerte. Cela peut s'expliquer par le fait qu'ils utilisent eux-mêmes des outils de montage ou de modification de l'image, comme TikTok, qui leur permettent de se rendre compte de ce qu'il est possible de réaliser », détaille la chercheuse
3) Comment fonctionnent les logiciels et algorithmes spécialisés ?

Malgré le perfectionnement permanent des vidéos, le monde de la recherche travaille à « trouver des solutions d'identification qui ne peuvent pas être corrigées », explique Tina Nikoukhah. Différentes pistes et manières de procéder sont explorées. Mis en place par l'Agence France presse, le plug-in InVid permet par exemple d'analyser une vidéo image par image pour déterminer si un traitement particulier lui a été appliqué.

A l'instar de Deepware, d'autres plateformes sont fondées sur le deep learning. Il s'agit souvent d'algorithmes qui ont été « entraînés » en analysant de nombreuses de deepfakes et en repérant leurs points communs. Une technique efficace, mais qui n'est, là encore, pas infaillible : « si une fausse vidéo utilise une nouvelle technologie, l'algorithme ne peut pas l'identifier, puisqu'il ne la connaît pas », explique Tina Nikoukhah.

Une autre approche est celle du tatouage numérique, ou « water marking ». « Le but est d'appliquer des filtres sur les vidéos postées sur les réseaux sociaux, pour que les algorithmes de création de deepfakes ne puissent pas y avoir accès, un peu à la manière d'un bouclier », poursuit Tina Nikoukhah.


Dans la même rubrique :