Recherche

 Image symbolique de l'intelligence artificielle

« Il faut adopter une approche de police scientifique »

La vidéo est-elle authentique ? Ou s’agit-il d’un fake ? Il n’est souvent pas simple de répondre à cette question : les logiciels d’intelligence artificielle sont toujours plus perfectionnés et les deepfakes de plus en plus fréquents. Comment les reconnaître ?

La vidéo est-elle authentique ? Ou s’agit-il d’un fake ? Il n’est souvent pas simple de répondre à cette question : les logiciels d’intelligence artificielle sont toujours plus perfectionnés et les deepfakes de plus en plus fréquents. Comment les reconnaître ?

Les exemples sont nombreux : le → pape François en doudoune blanche tendance, le président russe → Vladimir Poutine agenouillé avec respect devant le chef d’État chinois Xi Jinping, → Donald Trump arrêté par la police ou encore le président → Volodymyr Zelensky annonçant la capitulation de l’Ukraine.

Tous ces exemples ont un point commun : ils ont été générés par une intelligence artificielle (IA). Avec cet outil, il est désormais très facile de manipuler des photos, des vidéos ou des voix. En 2018 déjà, l’acteur et réalisateur américain Jordan Peele avait publié une → vidéo deepfake dans laquelle l’ancien président des États-Unis Barack Obama affirmait des choses qu’il n’aurait jamais dites publiquement à moins d’avoir perdu la tête. Cette vidéo montre bien à quel point de telles manipulations peuvent être trompeuses. Et depuis, la technologie a encore évolué et les outils d’IA ne cessent de s’améliorer.

Jusqu’ici, nous faisions beaucoup plus facilement confiance aux contenus audiovisuels. Les vidéos avec du son étaient automatiquement considérées comme plus crédibles.

Patric Raemy, Université de Fribourg

De fausses photos de nu partagées sur Internet

Le terme deepfake provient du fait que l’IA recourt à une forme d’apprentissage automatique (le deep learning, ou « apprentissage profond ») pour produire de faux contenus (fake). En un mot, elle collecte des images et des enregistrements d’une personne, par exemple, les analyse et s’en sert pour générer un contenu entièrement nouveau au moyen d’algorithmes. Ce procédé va donc bien plus loin qu’un simple montage photo, audio ou vidéo.

Par leur technologie complexe, les deepfakes se distinguent des cheapfakes, qui reposent sur des moyens techniques plus simples. Si les deepfakes de célébrités sont si répandus, c’est notamment parce qu’un grand nombre de photos, de vidéos et d’enregistrements audio de ces personnes sont disponibles sur Internet – suffisamment de matériel pour permettre à l’IA d’apprendre. À l’ère des réseaux sociaux, où nous partageons tant de moments de notre vie en ligne, les politiciens, influenceurs et autres stars ne sont toutefois plus les seuls concernés. Pas plus tard que l’automne dernier, les médias ont relayé un cas survenu dans une petite ville espagnole, où des photos nues de plusieurs jeunes filles de 11 à 17 ans se sont mises à circuler dans des groupes WhatsApp. Les auteurs, qui fréquentaient la même école que les victimes et les connaissaient personnellement, avaient utilisé une application d’IA pour générer ces images à partir de photos normales. Même l’une des mères, qui a révélé l’affaire au grand public, a affirmé avoir dû regarder de près la photo de sa fille pour se rendre compte qu’il s’agissait d’un fake.

Les vidéos sont perçues comme fiables

Patric Raemy, du Département des sciences de la communication et des médias de l’Université de Fribourg, en est convaincu : au vu des avancées technologiques constantes, il sera à l’avenir encore plus difficile d’identifier les deepfakes (ou deepnudes dans le cas des photos de nu). Mais ce n’est pas tout. Bien que la manipulation des médias soit aussi ancienne que les médias eux-mêmes, ce docteur en sociologie juge les deepfakes plus préoccupants : « Depuis Photoshop, on sait à quel point il est facile de manipuler des photos. Mais jusqu’ici, nous faisions beaucoup plus facilement confiance aux contenus audiovisuels, car ils combinent des images et du son ; les vidéos avec du son étaient automatiquement considérées comme plus crédibles ».

Il n’est pas si facile de se détacher de cette croyance : « Pour démasquer les deepfakes, il faut rediriger son esprit critique et adopter une approche de police scientifique ».
 

Repérer les erreurs

Vous pouvez vous exercer à cette approche forensique avec votre enfant. Commencez par expérimenter avec ces outils, seul ou à deux. Des applications photo telles que → Midjourney ou → Stable Diffusion, par exemple, sont un point de départ passionnant. Fournissez à l’IA des instructions textuelles et laissez-vous surprendre par les images que l’outil génère. À quoi reconnaît-on que la photo n’est pas authentique ?

Même les deepfakes réalisés par des professionnels comportent, du moins avec les outils dont nous disposons actuellement, des erreurs qui révèlent qu’il s’agit d’un faux contenu. Prêtez attention aux indices suivants :

  • Sauts dans la vidéo
  • Mauvaise synchronisation labiale (les mouvements de la bouche ne correspondent pas aux paroles prononcées)
  • Formes inhabituelles (sur la photo de Poutine agenouillé, par exemple, l’une de ses chaussures est anormalement grande)
  • Zones floues (souvent au niveau des mains ou de la délimitation entre la tête et le cou)
  • Cheveux peu naturels
  • Ombres mal placées
  • Intonations étranges
  • Perfection (un visage trop bien proportionné ou une peau trop lisse)

Sur les réseaux sociaux, il y a beaucoup de mise en scène. Il s’agit certainement de la source à prendre avec le plus de précaution.

Patric Raemy

Les yeux trahissent la vérité

Des scientifiques de l’Université de Buffalo ont par ailleurs développé un « Deepfake-O-Meter » pour les photos et les vidéos contenant des visages. Le logiciel ne fonctionne qu’avec les visages, car il se concentre sur les yeux, plus précisément sur ce qu’ils reflètent. Si la photo ou la vidéo est authentique, en toute logique, les deux yeux refléteront la même chose, car ils sont tournés dans la même direction. En revanche, selon les informaticiens, la plupart des images générées par une IA contiennent des reflets différents. Lors des tests menés, l’outil a correctement identifié les fausses images dans 94 % des cas. À vous d’essayer !

De manière générale, pour déterminer si l’on a affaire à un deepfake, il est toujours utile de vérifier les sources : la photo ou la vidéo a-t-elle été publiée sur un site fiable, par exemple celui d’un journal ? Ou circule-t-elle (uniquement) sur les réseaux sociaux ? « Sur les réseaux sociaux, il y a beaucoup de mise en scène », précise Patric Raemy. « Il s’agit certainement de la source à prendre avec le plus de précaution. Toute son architecture est conçue de manière à générer un maximum de clics et de likes ».

La recherche d’images inversée, par exemple sur → TinEye ou → Google Images, permet de voir où une image a déjà été publiée.

Enfin, il importe bien sûr de faire appel à son bon sens : les propos tenus par la personne sont-ils vraiment sensés ? Ou paraissent-ils illogiques ?

Montrez à votre enfant des exemples de deepfakes et de fausses informations. Ainsi, il apprendra à identifier les cas face auxquels il convient d’être sceptique.

Si votre enfant fait lui-même l’objet d’un deepfake, il est important de conserver des preuves en enregistrant les photos ou vidéos concernées et en faisant des captures d’écran. Ensuite, pour supprimer ces contenus, il peut être judicieux de s’adresser à l’exploitant de la plateforme. Contactez la police et demandez de l’aide à un centre cantonal d’aide aux victimes ou à la Prévention suisse de la criminalité, qui propose un premier entretien de conseil.

Au musée avec Dalí

Et bien sûr, les deepfakes ne sont pas automatiquement synonymes d’activités criminelles. Aujourd’hui déjà, la technologie qu’ils emploient offre de multiples possibilités. Quelques exemples :

Retrouver sa propre voix

La sclérose latérale amyotrophique, ou maladie de Charcot, est une maladie du système nerveux qui engendre une paralysie musculaire causant notamment la perte de la voix. Sous le titre provisoire « Project Revoice », l’ALS Association collabore avec une start-up pour développer une technologie permettant, grâce à l’IA, de reconstituer les voix des personnes atteintes.

Prendre un café avec Dalí

En 2019, le musée Dalí de St. Petersburg, en Floride, avait déjà fait revivre l’artiste. En se basant sur des interviews, l’IA avait « recréé » Dalí, qui accueillait les visiteurs, leur racontait sa vie et les laissait prendre des selfies avec lui.

Trouver la tenue parfaite

Devoir s’habiller et se déshabiller sans cesse rend parfois le shopping assez fatigant. De premières tentatives réalisées à l’aide de l’IA entendent simplifier et raccourcir considérablement ce processus. À l’avenir, quelques clics sur un smartphone devraient suffire pour trouver la tenue parfaite.

*

Avec un nouveau → projet de loi, le Conseil fédéral vise à réglementer les grandes plateformes comme YouTube, Facebook ou X afin d'exiger plus de transparence.

 

 

Bettina Bichsel est journaliste et rédactrice. Elle écrit et blogue pour Jeunes et Médias, parmi ses diverses activités.