Il est indéniable que l'IA sera utilisée pour produire de la désinformation à l'approche des prochaines élections dans le monde. Ce que l'on ignore, c'est l'impact qu'aura cette désinformation générée par IA. Les candidats et leurs équipes feront-ils preuve de transparence vis-à-vis des électeurs en ce qui concerne l'utilisation de l'IA ?
Notre équipe de Factchequeado, par exemple, a récemment passé au crible une vidéo de campagne qui utilisait des images générées par IA, produite par l'équipe de campagne de Ron DeSantis, le gouverneur de Floride candidat à l'élection présidentielle américaine. La vidéo montre un montage de six images de l'ancien président Donald Trump – contre lequel M. DeSantis est en compétition pour l'investiture républicaine – avec l'ancien directeur du National Institute of Allergy and Infectious Diseases, Anthony Fauci. Trois de ces images ont été générées par IA ; elles montrent M. Trump en train de serrer et d'embrasser M. Fauci, une personnalité peu appréciée des électeurs républicains.
La vidéo n'indique pas clairement aux électeurs que l'IA a été utilisée pour créer ces images, qui sont mélangées à des photos authentiques.
Pouvons-nous nous accorder pour dire qu'il s'agit d'une tromperie à l'égard du public ? Quelqu'un oserait-il affirmer le contraire ?
En avril 2023, le parti républicain (GOP) a utilisé l'IA pour créer une vidéo attaquant le président Joe Biden après qu'il a annoncé qu'il briguerait un nouveau mandat. Dans ce cas, le compte du parti républicain comprenait une clarification écrite indiquant que le contenu avait été créé par IA.
En revanche, la vidéo de la campagne de M. DeSantis n’est pas aussi transparente. Elle n'avertit les spectateurs à aucun moment que l'IA a été utilisée pour créer certaines des images de la vidéo. Notre équipe de Factchequeado n'a pas été en mesure de déterminer quel logiciel d'IA avait été utilisé pour les créer.
Dans cet article que nous avons publié sur Factchequeado, nous expliquons comment déterminer si une image a été créée à l'aide de l'IA. En général, il est utile de rechercher la source de l'image en question et de savoir si elle a déjà été publiée. Il est également important de prêter une attention particulière aux petits détails, par exemple en analysant les mains ou les yeux d'une personne, à la recherche d'imperfections ou d'autres traces d'IA.
Des outils de détection automatique peuvent également être utilisés pour déterminer si une image a été créée par IA. Cependant, comme beaucoup d'outils, ils ne sont pas parfaits et des erreurs peuvent arriver.
Il est connu que les formats utilisés pour diffuser la désinformation sont dynamiques, que les désinformateurs évoluent et améliorent leurs techniques plus rapidement que ceux qui les contrent. Cela s'est produit lors de toutes les élections de ces dernières années : nous avons vu des photos manipulées, des vidéos ralenties, des "cheapfakes" avec des images trafiquées (appelées ainsi parce que les deepfakes étaient plus coûteux par le passé mais n'étaient pas nécessaires pour créer ces images), et des audios WhatsApp falsifiés.
Élection après élection, les désinformateurs surprennent les journalistes, les particuliers et les responsables électoraux avec des techniques inédites. Le "meilleur scénario" pour faire face, loin d’être idéal, consiste alors à préparer les gens à répondre à la désinformation en utilisant les méthodes qui ont été efficaces lors des cycles électoraux précédents.
Plus d'un an avant les élections présidentielles américaines de 2024, les experts mettent en garde contre les façons dont l'IA pourrait menacer ou saper leur légitimité. Certains ont également formulé des recommandations sur la manière de protéger les élections.
Le Brennan Center for Justice a publié une analyse intitulée How AI Puts Elections at Risk - And the Needed Safeguards ("Comment l’IA menace les élections et les garde-fous nécessaires") dans laquelle Mekela Panditharatne, experte en désinformation au Brennan Center, et Noah Giansiracusa, professeur associé de mathématiques et de data science à l'université de Bentley, décrivent les dangers posés par la désinformation liée aux élections et générée par IA.
Ils appellent le gouvernement fédéral, les développeurs d'IA, les entreprises de médias sociaux et d'autres agences à intensifier leurs efforts pour protéger la démocratie.
Ils proposent de prendre les mesures suivantes :
- Affiner les filtres d'IA afin d'éliminer les fausses informations liées aux élections et imposer des limites qui rendent plus difficiles les campagnes de désinformation à grande échelle.
- Demander au gouvernement fédéral de créer des outils pour lutter à la fois contre les ultra-fakes (ou deepfakes) et la fraude électronique (ou phishing). Il conviendrait alors de les partager avec les autorités électorales locales et étatiques pour les aider à identifier les contenus générés par l'IA.
- Désigner une agence référente au sein de l'exécutif pour coordonner la gouvernance des questions liées à l'IA lors des élections.
Si vous êtes journaliste, responsable éditorial ou propriétaire d'un média qui s'adresse aux Latinos aux États-Unis, contactez Factchequeado et rejoignez notre communauté.
Image principale fournie par Factchequeado.
Cet article a d’abord été publié par IJNet en espagnol.