La désinformation générée par IA suscite de vives craintes. Journalistes et experts alertent sur son potentiel à tromper le public, influencer profondément les téléspectateurs et inciter à la violence.
Néanmoins, bien que ces craintes soient largement exprimées, l'impact précis de la désinformation générée par IA demeure incertain. Ce qui semble évident, toutefois, c'est que nous devons nous préparer à une recrudescence de la désinformation alimentée par IA.
La désinformation à l'ère de l'intelligence artificielle
Les avancées technologiques de l'intelligence artificielle, telles que les logiciels de clonage vocal, les modèles de langage de grande envergure et les générateurs de texte associés à des images, ont facilité la création de contenus trompeurs. En particulier sur les plateformes de réseaux sociaux, la prolifération de vidéos, d'images et de clips audio générés par IA est devenue monnaie courante.
Un exemple récent illustre cette tendance, où des fragments de discours du président américain Joe Biden ont été assemblés pour créer une vidéo satirique décrivant une journée fictive de sa vie. La voix off de cette vidéo est remarquablement similaire à celle du président Biden, bien que le contenu du discours soit entièrement fictif. De même, des utilisateurs en ligne ont manipulé des images montrant l'arrestation de M. Trump et ont altéré des photos montrant un mariage entre le Premier ministre indien Narendra Modi et la Première ministre italienne Giorgia Meloni.
Malgré la multiplication de ces contenus trompeurs, un article, révisé par des pairs, récemment publié dans la Misinformation Review de la Harvard Kennedy School, suggère que “les préoccupations actuelles concernant les effets de l'IA générative sur la désinformation sont exagérées.”
L'article de Harvard souligne que même en supposant une augmentation de la quantité de contenu trompeur généré par IA, il lui resterait "très peu de marge de manœuvre". Il est observé que bien que de nombreuses informations trompeuses circulent en ligne, elles ne sont consommées que par une petite fraction, soit environ 5 %, des consommateurs d'informations en Amérique et en Europe.
Andrew Dudfield, responsable des produits chez Full Fact, une organisation britannique de vérification des faits, explique : "C'est le genre de choses auxquelles les gens adhèrent, et il est facile de penser que le contenu généré automatiquement posera un problème."
Cependant, ces arguments tiennent en partie au fait que les méthodes de désinformation actuelles sont déjà efficaces sans avoir besoin d’IA. De plus, il est souligné que les prédictions selon lesquelles les contenus générés par IA, en raison de leur qualité améliorée, auront des conséquences plus graves, manquent de preuves tangibles et restent spéculatives.
Aimee Rinehart, cheffe de produit principale de la stratégie de l'IA à l'Associated Press, exprime également son point de vue en disant : "Je ne pense pas que nous en soyons encore là. Il est logique que des problèmes émergent. Mais je ne pense pas qu'Internet cède aux informations problématiques pour le moment."
Pourquoi tombons-nous dans le panneau de la désinformation ?
Malgré les préoccupations des médias concernant le réalisme des contenus générés par IA, David Fernández Sancho, directeur technique de Maldita.es, une organisation indépendante de vérification des faits basée en Espagne, souligne que "les gens ont tendance à croire une image photoshoppée d'un député ou d'une femme politique avec une fausse phrase qu'elle n'a jamais dite".
Il peut être soutenu que l'efficacité des campagnes de désinformation ne dépend pas tant de la qualité du contenu que de la préexistence de la croyance des gens en la véracité de l'information.
Une étude menée par des chercheurs de l'université de New York, visant à comprendre l'impact de l'appartenance partisane sur la croyance et la diffusion de fausses informations, a révélé que "les gens étaient plus enclins à croire et à partager des informations correspondant à leur identité politique". Un autre article intitulé "Pourquoi nous tombons dans le panneau de la désinformation" a montré que l'acceptation de fausses informations résulterait de biais cognitifs plutôt que de crédulité. Il indique également que l'appartenance à un parti ou les orientations politiques influencent ce que les gens croient ou rejettent dans les informations.
Les visiteurs des plateformes d'information sont motivés par diverses raisons, explique Chris Wiggins, professeur associé de mathématiques appliquées et de biologie des systèmes à l'université de Columbia. Parmi ces motivations, les individus cherchent à renforcer leurs croyances préexistantes et à créer du lien avec des personnes partageant des idées similaires, dans le but de s'intégrer socialement.
"Il y a ce besoin d'inclusion et de ressentir un lien social avec d'autres personnes", souligne-t-il. "Lorsque vous voyez quelqu'un [...] avec qui vous vous identifiez parce que vous avez déjà consommé son contenu par le passé, cela crée vraiment un sentiment d'appartenance, comme si je faisais partie de la communauté de personnes partageant cette croyance."
Utiliser l'IA pour lutter contre la désinformation
Les journalistes, les universitaires et les décideurs politiques peuvent également tirer parti de l'intelligence artificielle pour analyser et contribuer à contrer le volume considérable de désinformation auquel ils sont confrontés, qu'elle soit générée par IA ou non.
Cependant, M. Dudfield souligne qu'une vérification entièrement automatisée des faits à ce stade n'est pas recommandée, car l'esprit humain est mieux équipé pour discerner "le contexte, les avertissements et les nuances" dans le contenu en ligne. Il explique que "l'IA excelle à accomplir d'autres tâches, à savoir mettre de l'ordre dans le chaos.” Elle est efficace pour organiser des informations non structurées, détecter des modèles et regrouper des données similaires, ce qui facilite la vérification des faits. En créant une liste plus gérable de contenus qui peuvent ensuite être examinés par des fact-checkeurs humains, elle peut considérablement accélérer le processus par rapport à une vérification manuelle."
Par exemple, Full Fact a développé un logiciel appelé Full Fact AI, destiné à assister les vérificateurs de faits dans l'identification du contenu pouvant être vérifié, tel que les déclarations par opposition aux opinions ou aux présomptions. Il permet également de déterminer qui a fait ces déclarations, où elles ont été faites et le sujet du contenu. Cela facilite le regroupement des déclarations similaires, aidant ainsi les vérificateurs à cibler plus efficacement ce qui doit être vérifié.
L'entreprise espagnole Maldita.es utilise l'IA pour identifier et classer les récits communs provenant de différentes sources d'information, ce qui facilite la traçabilité des sources de contenus trompeurs. Comme l'explique M. Fernandez, "Si nous observons, par exemple, une grande quantité de contenu partageant un même récit en peu de temps, il est fort probable que cela soit le fruit d'une organisation et non simplement du contenu organique créé par différents individus." Cette approche peut aider à détecter des campagnes de désinformation coordonnées.
Maldita.es participe également à un consortium dans le cadre du projet AI4TRUST de l'Union européenne, qui vise à développer un système hybride où "les machines collaborent avec les êtres humains." Ce système permettra une surveillance en temps réel des plateformes sociales afin d'identifier les contenus potentiellement trompeurs dans divers formats et langues, en vue d'une analyse par des experts.
Ouvrir le champ des possibilités
Il est peut-être encore trop tôt pour prédire de manière précise les implications de l'IA dans l'écosystème de la désinformation. Cependant, il est clair que, au-delà des avertissements, l'IA peut apporter des avantages aux journalistes et aux vérificateurs de faits engagés dans la lutte contre la montée de la désinformation.
La première loi de Kranzberg sur la technologie, "la technologie n'est ni bonne, ni mauvaise, elle n'est pas non plus neutre", s'avère tout à fait pertinente. Comme le souligne M. Wiggins, "Chaque technologie élargit le champ des possibles pour les individus. Certaines personnes l'utiliseront pour promouvoir les droits et la justice, tandis que d'autres l'utiliseront pour opprimer et causer des préjudices."
Photo de Michael Dziedzic sur Unsplash.