Un projet porté par Icfj

Cet outil d'IA aide les journalistes à détecter et contrer les deepfakes

28 nov 2024 dans Lutte contre la désinformation
A tic-tac-toe board with human faces as digital blocks, symbolizing how AI works on pre-existing, biased online data for information processing and decision-making

La personnalisation des réseaux sociaux a élargi la portée et le pouvoir de la désinformation.

Popularisées par l'essor de TikTok et de sa page “For You” (Pour vous) — un flux infini de contenu ancré dans les intérêts des utilisateurs, déterminé par des informations recueillies à partir de l'historique de navigation, des engagements et de la localisation — des plateformes comme Instagram, YouTube et X ont adopté le modèle et créé leurs propres versions. Instagram a commencé à afficher des publications recommandées sur son flux principal en 2018 et a mis en œuvre en 2020 Reels, une fonctionnalité de vidéos courtes de type TikTok. YouTube a lancé Shorts, un concept similaire, la même année et X a ajouté son propre onglet “For You” début 2024.

Ces évolutions ont transformé la façon dont les utilisateurs consomment du contenu sur les réseaux sociaux, déclare Sejin Paik, cheffe de produit chez TrueMedia.org. “Peu importe qui vous suivez, vous obtiendrez du contenu grâce à ce que pense leur système,” dit-elle. 

Dans cet environnement numérique, les fausses informations côtoient les contenus factuels, ce qui donne lieu à des deepfakes, des images ou des vidéos hyperréalistes artificiellement manipulées pour montrer quelqu'un en train de faire ou de dire quelque chose. À l'approche des élections américaines de 2024, des vidéos deepfakes montrant des discours qui n'ont jamais été prononcés, des photos des gardes du corps des services secrets de Donald Trump souriant après l'attentat contre lui en juillet, et des captures d'écran d'articles de presse diffusant de fausses informations sur les élections sont apparues aux côtés d'informations légitimes, brouillant les frontières entre ce qui est réel et ce qui ne l'est pas. 

À mesure que les technologies d’IA génératrices se développent, deviennent plus faciles à utiliser et plus accessibles, il devient de plus en plus difficile d’évaluer l’authenticité des publications sur les réseaux sociaux. Un outil de détection d’IA créé par TrueMedia vise à aider en identifiant les signes de photos et de vidéos manipulées publiées sur les réseaux sociaux.

Deepfakes et désinformation

Oren Etzioni, expert en intelligence artificielle, a fondé TrueMedia en janvier 2024, motivé par ses inquiétudes concernant l'impact de l'IA en cette année électorale. TrueMedia est une organisation à but non lucratif composée de chercheurs, d'ingénieurs et de spécialistes des sciences sociales. Son objectif est de créer une technologie qui réponde aux problèmes de société, ce que Mme Paik appelle la “sociotechnologie.”

À mesure que les technologies sont devenues accessibles au public, le contenu généré artificiellement s’est multiplié comme outil de manipulation politique, et les journalistes craignent que son impact ne fasse que croître à mesure qu’il s’améliore.

Le modèle de page “For You” donne à cette désinformation plus sophistiquée une portée plus large, déclare Mme Paik. Les publications gagnent en popularité en tirant parti des algorithmes qui décident de ce qui est populaire, quels que soient les comptes qui les sous-tendent. Les informations présentées dans les flux des utilisateurs correspondent généralement à leurs intérêts et à leurs croyances, et le contenu affiché, réel ou non, est personnalisé pour générer des likes et des partages qui élargissent les réseaux qu'ils touchent.

Les deepfakes ont un potentiel énorme dans cet environnement. Ils peuvent représenter n’importe quoi, du pape François en tenue de créateur à de faux bulletins d’information entiers, et leur utilisation augmente de manière exponentielle : plus de 500 000 deepfakes ont été partagés en 2023. Quelle que soit la prévalence du contenu déjà présent, les journalistes affirment que la révolution de l’IA ne fait que commencer.

La détection des deepfakes

Les journalistes peuvent utiliser le détecteur de deepfakes phare de TrueMedia pour identifier si une vidéo ou une image a été créée avec l'IA. 

L'outil est simple : les utilisateurs soumettent un lien de réseau social au détecteur qui exécute le contenu via une série de logiciels de détection basés sur l’IA créés par des sociétés technologiques partenaires pour déterminer le pourcentage de probabilité que le contenu soit généré artificiellement. 

L’outil n’est pas en mesure de détecter tous les faux contenus, prévient Mme Paik. Par exemple, il a du mal à détecter les “cheapfakes” (faux bon marché), c’est-à-dire les photos ou vidéos trompeuses créées par des humains à l’aide de logiciels de retouche non basés sur l’IA. Les diffuseurs de désinformation ont également commencé à créer des solutions de contournement, comme la superposition de deepfakes sur des médias réels, pour contourner le processus de détection.

En fin de compte, à mesure que la puissance de l’IA augmente, les outils qui les détectent augmentent également. “Nous sommes loin de pouvoir les atteindre 100 % du temps, mais c’est l’un des moyens très intelligents de s’en rapprocher,” déclare Mme Paik. “Si des gens créent des deepfakes générés par IA, nous allons utiliser l’IA pour contrer cela.”

Associer la détection au journalisme 

Alors que le flot de faux contenus continue inévitablement sur les réseaux sociaux, les journalistes ne doivent pas se fier uniquement à la détection pour lutter contre les deepfakes, exhorte Mme Paik : ils doivent explorer les sources, le raisonnement et l'impact de la désinformation.

Par exemple, de fausses publications générées par l'IA sur les récents ouragans aux États-Unis, montrant des communautés inondées et détruites, ont proliféré sur les fils d'actualité des utilisateurs des réseaux sociaux. Bien que certains de ceux qui ont republié ces images et vidéos savaient qu'elles étaient fausses, y compris des politiciens, elles ont suscité des réactions émotionnelles et ont été utilisées pour faire passer des affirmations inexactes sur la réponse du gouvernement aux catastrophes. 

Plus important encore, les journalistes doivent réfléchir aux raisons pour lesquelles ces publications inexactes deviennent populaires, dit Mme Paik, et s'efforcer de contrer ces récits au-delà de la simple vérification de l'exactitude d'une vidéo. 

“Dire : ‘Oh, nous avons détecté quelque chose !’ n’est pas suffisant”, déclare-t-elle. “Les journalistes ont le pouvoir d’informer et d’éduquer le public. Nous devons le faire.”

 


Amritha R Warrier & AI4Media / Better Images of AI / tic tac toe / Sous licence CC-BY 4.0.