Comment les médias taïwanais se sont adaptés pour lutter contre la désinformation électorale

par Rowan Philp
26 avr 2024 dans Lutte contre la désinformation
Drapeau de Taiwan dans la rue

Alors que des dizaines de pays se préparent à une vague de campagnes de désinformation numérique locales et étrangères lors de leurs élections de 2024, l'expérience récente de Taiwan  offre des leçons utiles, ainsi qu'un espoir indispensable, aux journalistes et aux défenseurs de la démocratie ailleurs dans le monde.

Bien que les élections du 13 janvier aient été assaillies par un déluge de désinformation en ligne – en particulier de fausses allégations de fraude électorale et de terribles avertissements d'une guerre future de la part de mauvais acteurs en Chine –  de nouvelles recherches  et  des reportages journalistiques indépendants  révèlent que les médias locaux, les autorités électorales et les vérificateurs des faits à Taïwan ont largement réussi à repousser les agressions, grâce à des techniques telles que le « pré-bunking », une réglementation intelligente des communications et une concentration délibérée sur la confiance dans les médias. Après le vote, Lai Ching-te, chef du Parti progressiste démocrate pro-souveraineté, auquel s'oppose le gouvernement autocratique de la Chine communiste, a été élu président.

Cependant, les élections à Taiwan ont révélé des tendances à la désinformation que les journalistes et les vérificateurs des faits d'autres pays doivent identifier et signaler. Ces modèles incluent l’utilisation de l’IA générative dans les deepfakes, l’amplification de la propagande par des influenceurs populaires sur YouTube et les récits d’opérations de renseignement étrangères conçus pour saper la confiance dans la démocratie elle-même, plutôt que pour promouvoir des candidats individuels.

Dans un webinaire intitulé  Désinformation et IA : ce que nous avons appris des élections de 2024 jusqu'à présent, organisé par la Fondation Thomson, trois panélistes experts ont partagé leurs points de vue avec les journalistes sur les menaces de désinformation actuelles et les leçons tirées de Taïwan.

Parmi les intervenants figuraient le professeur  Chen-Ling Hung, directrice de l'Institut universitaire de journalisme de l'Université nationale de Taiwan ; l'expert électoral  Rasto Kuzel, directeur exécutif de MEMO 98 ; et  Jiore Craig, chercheuse principale résidente à l'Institut pour le dialogue stratégique. La session était modérée par  Caro Kriel, directrice générale de la Fondation Thomson.

Utilisez le vérificateur de liens de CrowdTangle tant que vous le pouvez encore 

Les journalistes devraient profiter des derniers mois de la puissante extension Link Checker de CrowdTangle, qui peut afficher les publications Facebook et Instagram qui mentionnent un lien que vous recherchez, avec une visibilité sur les articles sources, les vidéos YouTube et d'autres plateformes.

En contraste aux enseignements positifs tirés de la résilience de Taiwan, une note sombre du panel a été leur détresse commune face à  la cessation prévue par Meta de son outil CrowdTangle, le 14 août 2024. CrowdTangle est le meilleur outil numérique dont les journalistes d'investigation disposent ces dernières années pour suivre et retracer les campagnes de désinformation en ligne dans le monde entier.

"Mon organisation a bénéficié de l'accès à CrowdTangle par Meta, et nous sommes très inquiets de ce qui se passera après août, lorsque Meta arrêtera cet outil, qui a été absolument crucial pour nos recherches," explique M. Kuzel. “Ce que CrowdTangle a fourni, c'est l'accès aux comptes et groupes publics, et c'est quelque chose dont nous continuerons à avoir besoin. ”

Cependant, Mme Craig a encouragé les journalistes à utiliser ce délai décevant comme date limite d'enquête pour utiliser le tableau de bord de manière intensive afin de suivre les campagnes de désinformation en cours ou émergentes impliquant des élections en 2024. En particulier, elle a recommandé aux journalistes de profiter des derniers mois de la puissante extension Link Checker de CrowdTangle, qui peut afficher les publications Facebook et Instagram qui mentionnent un lien que vous recherchez, avec une visibilité sur les articles sources, les vidéos YouTube et d'autres plateformes.

"C'est un outil incroyable, et l'un des seuls outils dont nous disposions pour faciliter l'attribution," déclare Mme Craig à propos de l'extension LinkChecker. "Alors installez ce plug-in tant que vous le pouvez, pour examiner l'attribution de toute propriété en ligne ou de toute source d'information dont vous n'êtes pas sûr."

Les journalistes peuvent toujours trouver des données utiles via la Meta Content Library, et des pistes de désinformation à partir d'outils plus récents créés par des journalistes, tels que Junkipedia, qui a accès à une douzaine de plateformes de réseaux sociaux, y compris des sites marginaux, ainsi qu'à d'autres fonctionnalités. Cependant, M. Kuzel avertit que “le retrait des données de Meta affectera également Junkipedia.”

(Pour une analyse détaillée des nouvelles menaces de désinformation électorale – et des outils permettant de les démasquer – veuillez consulter le  chapitre Messages politiques et désinformation du Guide électoral révisé de GIJN destiné aux journalistes d'investigation. En outre, pour les outils permettant de lutter contre les deepfakes audio, veuillez consulter la fiche de conseils complète de GIJN  Comment identifier et enquêter sur les deepfakes audio créés par IA, une menace électorale majeure pour 2024.)

Réponse unifiée des médias publics taïwanais aux opérations d'influence étrangère

Commandé par la Fondation Thomson, le rapport sur la lutte contre la désinformation électorale lors des dernières élections à Taiwan – co-écrit par Chen-Ling Hung et trois collègues – a révélé à la fois des attaques numériques coordonnées et également une réponse largement unifiée à cette vague de propagande.

Il indique qu'”à mesure que la période électorale à Taiwan approchait… les messages des groupes de trolls devenaient de plus en plus alarmistes, se concentrant sur une rhétorique de guerre visant à intimider la population taïwanaise.” Selon une étude menée par Taiwan AI Labs : parmi les messages des groupes de trolls qui amplifiaient la propagande des médias d’État chinois, “la représentation d’une menace militaire chinoise imminente était la plus répandue, représentant 25 % du contenu repris. Cela a été suivi de près par des récits suggérant que les États-Unis manipulaient Taiwan dans une confrontation militaire précaire, qui représentaient 14,3 % du discours.”

La désinformation d'origine a priori étrangère comprenait également des diffamations personnelles malveillantes, notamment de fausses allégations sur “l'enfant illégitime” d'un candidat et la publication d'un e-book de 300 pages contenant de fausses allégations sur le président sortant et des agressions sexuelles.

Au départ, l'e-book était déroutant pour les chercheurs taïwanais en opérations de renseignement étrangères, car —  comme l'a déclaré Tim Niven de DoubleThink Lab au magazine Foreign Policy  — “Nous sommes à l'ère des réseaux sociaux. Personne ne lit un livre poubelle que quelqu'un a envoyé dans ses spams.”

Mais les chercheurs ont rapidement compris que l’e-book servait en réalité de “script pour des vidéos sur l’IA générative” et était utilisé comme une source prétendument légitime pour des campagnes de désinformation. Cela a pris la forme de dizaines de vidéos apparaissant sur Instagram et TikTok, avec des présentateurs de nouvelles et des influenceurs “avatars” générés par l’IA utilisant le livre comme source apparemment faisant autorité et lisant de courtes sections du texte.

L'étude électorale comprenait des entretiens avec cinq grands organes de presse sur leur stratégie de lutte contre la désinformation : Taiwan Public Television Service (PTS), Central News Agency (CNA), Radio Taiwan International (RTI), Formosa Television (FTV) et TVBS Media. Les auteurs ont déclaré que les médias publics avaient tendance à collaborer avec des organisations de vérification des faits et avaient “démontré un fort engagement en faveur d’informations authentiques, en utilisant une technologie de pointe et diverses stratégies [pour identifier et démystifier la désinformation].” Ils ont noté que certains médias commerciaux “étaient davantage confrontés à la désinformation [que les médias publics] en raison de biais politiques et de motivations de profit” mais que des efforts de vérification interne étaient généralement déployés et que les questions du journalisme traditionnel étaient appliquées, en particulier pour vérifier les allégations audio et vidéo.

Le rapport cite le responsable de la rédaction de CNA, affirmant que  “les publications de TikTok, considérées comme profondément influencées par le gouvernement chinois, étaient à peine citées dans la couverture médiatique de CNA.”

Les vérificateurs de faits taïwanais ont généralement répondu rapidement aux allégations suspectes mais parfois pas assez rapidement. "Ce qui m'a frappé dans le rapport, c'est un exemple de deepfake d'IA lors des élections. Il a fallu sept jours pour qu'une réponse définitive soit rendue," a noté M. Kriel. "C'est vraiment du temps perdu, quand les théories du complot fleurissent."

"Nous avons également vu des deepfakes dans d'autres pays, du Pakistan au Royaume-Uni, en passant par la Slovaquie, les États-Unis et ailleurs, et également en dehors du contexte électoral - au Soudan, pour promouvoir les objectifs des personnes engagées dans la guerre civile là-bas,” explique Mme Craig. "Cela s'attaque à un paysage de menaces en ligne qui était déjà mauvais et ne fait qu'aggraver la situation." (Voir le récent webinaire de GIJN  sur l'enquête sur les élections : menace des Deepfakes audio par IA)

Malgré quelques points faibles et des ressources limitées dans la rédaction, Mme Chen a déclaré que les premiers messages et les efforts combinés entre les secteurs avaient largement protégé l'environnement de l'information électorale à Taiwan d’un envahissement de fausses déclarations et de messages déformés.

“Il faut une coopération intersectorielle pour lutter contre la désinformation : les vérificateurs des faits, le gouvernement, les médias traditionnels, les plateformes numériques et la société civile,” explique Mme Chen. “Des techniques et des outils avancés ont été utilisés pour lutter contre la désinformation, et certaines organisations ont investi dans des techniques pour résoudre la désinformation liée à l’IA, mais cela ne suffit pas : nous devons investir davantage.”

Mme Chen a déclaré que les électeurs étaient généralement préparés à être à l'affût des fausses déclarations et des méthodes trompeuses grâce aux avertissements préliminaires des médias et de la société civile dans les semaines et les mois précédant le jour du scrutin, créant une “amélioration progressive de la conscience et de la vigilance du peuple taïwanais contre la désinformation.”

Pourquoi la confiance méritée des médias est la défense ultime

“L’exemple de Taïwan est une excellente démonstration de la puissance des messagers de confiance pour répondre aux menaces de désinformation générées par l’IA,” déclare Mme Craig. “Les médias ou tout messager qui gagne la confiance de son public a la possibilité de faire des choix percutants en cas d'attaque de désinformation.”

Elle ajoute : “Pour moi, gagner la confiance signifie à la fois communication et transparence, ainsi que donner la priorité au public des électeurs – plutôt qu’à un public de pairs, par exemple – pour rencontrer les électeurs là où ils reçoivent des informations en 2024. Par exemple, prioriser des sujets plus courts par rapport aux formats plus longs, ainsi que la radio, des podcasts, etc.”

Il est essentiel de reconnaître et de formuler des réponses aux messages trompeurs, car les premiers thèmes de désinformation peuvent autrement prendre racine.

Les intervenants ont noté que l’exactitude constante des autres reportages électoraux est cruciale pour gagner la crédibilité nécessaire pour démystifier les efforts de désinformation “sensibles” à la veille des dates limites d’inscription des électeurs et des jours d’élection, lorsque la menace de deepfakes et d’affirmations incendiaires est la plus accrue.

Plutôt que de tenter de créer des convertis politiques, M. Kuzel déclare que l’objectif de la plupart des campagnes de désinformation électorales en 2024 est le désengagement politique général “et la mort de l’activisme.”

Mme Craig abonde dans le même sens. “Comme les acteurs malveillants cherchent à briser notre confiance, cela nous insécurise, nous rend émotifs - et nous sommes alors fatigués", explique-t-elle. “Et lorsque nous sommes fatigués, nous sommes plus faciles à contrôler. Cela nous pousse à nous désengager.”

M. Kuzel a déclaré qu’il est possible d’anticiper, d’identifier et de dissimuler les mensonges électoraux préjudiciables, car les acteurs malveillants montrent leur jeu des mois avant que le cycle électoral débute réellement. Il est essentiel de reconnaître et de formuler des réponses aux messages trompeurs, car les thèmes de désinformation précoces peuvent alors s'enraciner.

“Ce que nous avons vu lors des élections américaines de 2020, c’est que des récits manipulateurs ont commencé à circuler un an avant les élections, avec Donald Trump affirmant qu’il pourrait y avoir des manipulations du vote par correspondance. Il les a amplifiés par la suite, lorsqu’il n’a pas reconnu les résultats,” note M. Kuzel. “Nous devons comprendre les menaces et vacciner le public contre ces campagnes à venir.”

 


Photo by Lisanto 李奕良 on Unsplash.

Cet article a été initialement publié sur GIJN et republié sur IJNet avec autorisation.