Illustration deepfake

Deepfake : la menace fantôme ?

Si la tromperie et les trucages existent depuis l’aube de l’humanité, c’est leur réalisme et accessibilité croissants qui deviennent problématiques aujourd’hui. Que sont les deepfakes ? Pourquoi sont-ils dangereux ? Comment s’en prémunir ? Dans cet article nous répondrons à ces questions, tout en donnant des pistes de réflexion pour le futur !

Deepfake : KESAKO !?

Le “deepfake” (ou “hypertrucage” en français) est un procédé permettant d’utiliser une intelligence artificielle pour remplacer le visage d’une personne par un autre sur une photo ou vidéo.

Comment ça marche :

  • On trouve une vidéo à modifier,
  • On crée une base de données de photos de la personne / du visage que l’on veut insérer,
  • L’Intelligence Artificielle “apprend” le visage en scannant les traits sur ces photos,
  • L’IA remplace le visage dans le contenu cible.

Il est donc logique que les célébrités en soient les premières victimes, car des centaines (voire des milliers) de photos sont disponibles librement sur le web.

Il est à noter qu’un processus similaire serait en cours de développement chez Adobe pour modifier des fichiers audio (et donc à terme remplacer une voix ?) mais aucune date de sortie n’est annoncée.

Exemple: un deepfake de Donald Trump (par l’ONG Solidarité sida)

Comme on peut le voir ci-dessus, le résultat est plutôt convaincant (hormis le discours de Trump qui est clairement décalé). La facilité croissante de réaliser ce genre de trucage nous force donc à nous poser certaines questions : quels sont les applications et les dangers de cette technologie ?

La menace fantôme

Dans un contexte de tensions politiques, à moins d’un an de la présidentielle américaine, les deepfakes attirent l’attention. Concrètement, quel est le danger ? Si Nicolas Cage annonce demain sa candidature à la présidence de la république française, on y verra une blague. Mais si l’on remplace correctement le visage d’un bon acteur / imitateur, on peut faire dire ce que l’on veut, à qui on veut. S’ajoute à cela la différence de rendu en fonction du support : sur mobile, l’image plus petite et la mauvaise qualité audio rendent souvent ces vidéos plus convaincantes.

Les applications sont diverses :

  • Détournement humoristique / divertissement,
  • Cyberharcèlement / chantage (fakes pornographiques par exemple),
  • Diffuser de fausses informations,
  • Discréditer quelqu’un,
  • Manipuler une audience (pour servir un objectif).

En résumé : un deepfake bien placé (présenté à la bonne audience au bon moment) peut avoir un impact non négligeable. On comprend donc pourquoi le sujet est pris au sérieux, avec notamment des mesures législatives aux États-Unis. Mais ces dernières risquent d’être difficiles à appliquer, notamment pour un contenu viral : une heure de présence sur le web peut déjà faire des “dégâts”. C’est pourquoi nos meilleurs outils dans ce cas sont la vigilance et la sensibilisation, comme nous le verrons ci-dessous.

illustration intelligence artificielle

Mais que faire alors ?

Que l’on soit rédacteur, ou simplement à la recherche d’informations, il est important de pouvoir faire confiance à ses sources. Or, en cette fin 2019, il n’y a jamais eu autant de deepfakes et autres fake news, et ils n’ont jamais été aussi faciles à partager.

Pourtant, des moyens existent pour mieux filtrer les contenus que nous voyons, et juger de la véracité des propos tenus ou de l’information :

  • Fact checking (vérification des faits),
  • Vérifier si les propos de la personne sont en accord avec sa ligne habituelle (en politique par exemple),
  • Vérifier la source de la vidéo / photo (créée / publiée par qui ?), demander des précisions à l’auteur,
  • Vérifier l’existence de la personne présentée (les IA peuvent générer des visages crédibles),
  • Faire le tri dans nos abonnements en général (notamment sur Facebook).

Google a également publié un vaste ensemble de données vidéos deepfakes, pour aider les chercheurs qui travaillent sur une IA capable de riposter, en détectant ces contenus.

Cependant, il faut du temps et de la persévérance pour réaliser un deepfake “crédible”. Le jour où Monsieur tout le monde pourra créer de fausses images de qualité pour influer sur le débat politique ou se venger de son ex n’est donc pas encore arrivé. Mais pour une petite équipe motivée, c’est une toute autre histoire… A surveiller !

Pour aller plus loin :

Timothée Lambs – 29/11/2019

Les commentaires ne sont pas autorisés