Comment Reuters forme ses journalistes à repérer les « Deepfakes »

Nouveau phénomène, les "Deepfakes", des vidéos modifiées, pullulent sur le web. Crédit photo: Pixabay

Dans le cadre du Festival International du Journalisme à Perugia, Hazel Baker, responsable de la collecte d’informations générées par les utilisateurs chez Reuters, a donné une conférence sur le phénomène des « Deepfakes. » Il a notamment montré comment les journalistes étaient formés pour faire face à cette nouvelle menace.

Afin de mieux appréhender le problème que posent les « Deepfakes » (ces “fake news” vidéos, truquées grâce à une technologie qui modifie la voix ou le visage d’une personne), l’agence de presse Reuters a décidé de prendre le taureau par les cornes. Pour comprendre le phénomène, elle a simplement décidé de créer sa propre vidéo trafiquée afin de former les journalistes à la détection de faux contenu avant que ceux-ci ne soient largement diffusés.

En quelques jours, Reuters a créé sa « Deepfake » en transposant la voix française d’une de ses journalistes sur le visage d’une autre collègue, qui elle est anglophone. L’agence de presse a ensuite envoyé la vidéo à une douzaine de ses journalistes, leur demandant si ils avaient remarqué quelques chose d’étrange. Plusieurs d’entre-eux ont remarqué que la vidéo avait été manipulée, notant un décalage entre l’audio et la synchronisation des lèvres, ainsi que quelques incohérences où la voix bégayait alors que sur l’image, la journaliste ne semblait pas marquer d’hésitation. Le visage de la journaliste était également étrangement immobile. D’autres ont simplement remarqué que quelque chose n’allait pas dans l’audio, mais sans pouvoir vraiment le définir.

Ces résultats ont permis de mettre en lumière trois éléments essentiels pour vérifier l’authenticité d’une vidéo:

  • Synchronisation audio/vidéo
  • Forme de la bouche et sons « sibilants » (semblables à un sifflement)
  • Sujet statique

« Selon les estimations, il y aurait environ 10’000 « Deepfakes » en ligne actuellement » annonce Hazel Baker. Cependant, la plupart sont utilisées dans l’industrie du divertissement pour adultes; à part quelques exemples bien connus de Donald Trump, Barack Obama et Angela Merkel, trouver des exemples sérieux pour étudier le phénomène est difficile. C’est pourquoi Reuters a décidé de créer la sienne.

Effectifs doublés pour faire face aux « Deepfakes »

Selon les données Google Trends, les internautes ont commencé à chercher le terme « Deepfake » dès décembre 2017, bien que certains rapports disent que l’ampleur de la menace est surestimée.

« C’est vrai qu’il n’y a pas un tas de « Deepfakes » en attente d’être traitées sur mon bureau. Mais je ne veux pas attendre qu’il y en ait » a déclaré Hazel Baker durant sa conférence. « Il y a eu des gros titres alarmistes, mais il n’y a, pour le moment, pas de menace réelle. Mais le fait est que nous voyons chaque jours de fausses vidéos partagées sur le web, il faut avant tout être prévoyant ».

Au cours des deux dernières années, Reuters a tout de même doublé le nombre de personnes qui travaillent à la vérification des contenus vidéos. Selon Baker, son équipe vérifie environ 80 vidéos par semaine. Le temps passé à contrôler un contenu varie mais son équipe ne se concentre que sur les contenus plausibles. « Par exemple, nous ne nous arrêtons pas sur des vidéos montrant une pluie d’astéroïdes s’abattre sur la terre, plaisante-t-elle, même si elles sont très bien faites ».

Développement de techniques de vérification

Suite à leur expérience, Reuters fait vérifier mécaniquement les contenus vidéos par des journalistes et a mis en place plusieurs techniques de vérification: recoupement des lieux avec Google Maps, recherche d’image inversée, examen des métadonnées, interrogation directe des sources ou encore consultation d’experts.

Comment combattre la désinformation grâce à la technologie et l’automatisation ?

Par exemple, alors qu’ils cherchaient des vidéos de témoins oculaires après la tuerie de Christchurch en Nouvelle-Zélande, ils sont tombés sur une vidéo qui montrait prétendument le moment où un suspect était abattu par la police. Ils ont alors parcouru les images-clés en effectuant une recherche inversée et ont rapidement découvert qu’il s’agissait d’un incident totalement différent, survenu en Floride l’an dernier. « Ces techniques sont essentielles pour authentifier les vidéos », clame Hazel Baker.

« Pour un événement de dernière minute, souvent la première caméra sur place n’est pas une caméra professionnelle « , a déclaré M. Baker. « Mais nous ne pouvons pas nous permettre d’ignorer ce matériel, c’est important pour nos lecteurs ».

Reuters a également crée une « échelle de la tromperie », permettant de classer les vidéos truquées. L’échelle part du None, une vidéo authentique sur laquelle on ment juste sur le lieu où elle a été prise, en passant par les vidéos Staged, scénarisées et montées de toutes pièces pour faire croire que c’est vrai, sans intention de nuire mais qui peuvent être rapidement sorties de leur contexte, pour finir par les Deepfakes, stade ultime de la tromperie.

Les médias tentent donc tant bien que mal de répondre à cette nouvelle problématique, sans pour autant tirer sur la sonnette d’alarme. À l’heure où la défiance du public n’a jamais été aussi grande envers les médias, il leur incombe d’être d’autant plus vigilants vis-à-vis des « Deepfakes ».  Surtout que cette technologie se développe à toute vitesse. Selon Hazel Baker, leur nombre ne devrait cesser d’augmenter les prochaines années.

Crédit photo: Pixabay

Derniers articles de Ecrit