De nos jours, les informations fausses et nuisibles ne manquent pas en ligne. Qu'il s'agisse de complots, de discours haineux ou de désinformation générée par IA, ce contenu prend des formes très diverses.
Qu'elles soient diffusées intentionnellement ou non, les fausses informations ont des conséquences hors ligne. Un rapport de l'Organisation mondiale de la santé a montré que la diffusion d'informations inexactes lors de crises telles que des épidémies ou des catastrophes peut avoir un impact négatif sur notre santé mentale et entraver les efforts en matière de soins de santé.
Actuellement, l'émergence des technologies d'IA a encore compliqué la capacité des gens à distinguer la réalité de la fiction. Il est essentiel que les journalistes et les consommateurs d'informations soient en mesure de le faire, en particulier cette année, alors que de nombreuses élections majeures se profilent à l'horizon.
Voici une liste d'outils d'IA que les journalistes peuvent utiliser pour, entre autres, détecter les fausses informations ou trouver des sources fiables.
GPTZero
Créé par Edward Tian, ancien étudiant en journalisme, en janvier 2023, GPTZero a été initialement conçu pour détecter les contenus créés à l'aide de ChatGPT. Il a depuis été développé pour pouvoir repérer les contenus générés par IA à partir d'autres outils, tels que Bard et LLaMa. GPTZero permet également aux utilisateurs de scanner des documents à la recherche de plagiat.
Les responsables éditoriaux peuvent utiliser GPTZero pour mieux évaluer si les articles qu'ils reçoivent ont été écrits par des humains. Les journalistes peuvent utiliser cet outil pour déterminer l'authenticité des informations qu'ils reçoivent de leurs sources.
Il est important de noter que GPTZero peut parfois renvoyer des résultats faussement positifs. Les utilisateurs doivent donc toujours effectuer un suivi et faire preuve de diligence avant d'écarter purement et simplement un texte.
Coût :
- Version gratuite disponible, avec des fonctionnalités limitées
- Les options payantes vont de 10 à 23 dollars US par mois.
Factiverse AI Editor
Factiverse AI Editor est un outil d'aide à la rédaction conçu pour analyser si une déclaration est vraie ou non. Il s'agit d'un modèle d'apprentissage automatique formé à partir de reportages d'actualité réputés et du travail de vérificateurs de faits. Il donne de meilleurs résultats lorsqu'il est appliqué à des sujets bien couverts tels que le changement climatique ou le COVID-19.
L'interface de l'outil est simple. Il suffit de taper directement dans l'éditeur ou de coller le texte à vérifier pour que l'outil indique aux utilisateurs les sources qui peuvent les aider à déterminer si l'affirmation est vraie ou fausse. Factiverse AI Editor lui-même ne peut pas faire la distinction entre les informations exactes et celles qui ne le sont pas.
Lorsqu'il analyse un texte, l'outil recherche en temps réel dans les bases de données de fact-checking. Il peut être utilisé pour vérifier les faits dans plus de 40 langues.
Coût :
- Essai de 14 jours disponible
- Version Lite (10 euros/mois)
- Version Pro (25 euros/mois)
- Les équipes plus importantes, composées d'au moins cinq membres, peuvent bénéficier d'un tarif d'équipe.
HARO (Help A Reporter Out)
Le recours à des experts est un autre moyen de vérifier les informations et d'éviter la diffusion de fausses informations.
HARO contribue à garantir l'exactitude des informations en mettant les journalistes en contact avec des sources qui possèdent une expertise ou une expérience de première main sur un sujet. Ces experts partagent leurs points de vue et leurs citations, que les journalistes peuvent intégrer pour renforcer leur couverture et accroître la confiance de leurs lecteurs.
HARO a mis en place des politiques qui empêchent les experts de proposer leurs articles aux journalistes ou d'agir en dehors de leur domaine d'expertise.
Remarque : HARO a récemment annoncé qu'il migrerait vers l'application de Cision, Connectively. L'application HARO actuelle sera progressivement supprimée au début de l'année 2024. Au moment de cette publication, les deux applications restent disponibles.
Coût :
- Gratuit
TrollWall
TrollWall est un outil basé sur l'intelligence artificielle conçu pour protéger les profils des marques sur les réseaux sociaux contre les attaques haineuses. Les journalistes peuvent utiliser cet outil pour savoir dans quelle mesure les commentaires nuisibles contribuent à l'interaction globale des utilisateurs de réseaux sociaux avec leurs profils.
La modération manuelle des contenus est un processus laborieux et chronophage. TrollWall offre une détection automatisée et la possibilité de masquer les commentaires toxiques. Cela peut libérer du temps pour les modérateurs de réseaux sociaux des organisations.
Cet outil innovant est basé sur une combinaison d'algorithmes de traitement du langage naturel et d'apprentissage automatique. Il fonctionne en temps réel, ce qui peut s'avérer particulièrement utile lors des livestreams des rédactions.
TrollWall comprend un tableau de bord qui permet aux rédactions de créer des listes noires de phrases, de maintenir des listes de mots-clés bloqués et de suivre le nombre de commentaires qui ont été cachés des profils de réseaux sociaux. Les journalistes peuvent ainsi mieux comprendre les sources du contenu néfaste.
Coût :
- Essai de 14 jours disponible
- Les abonnements commencent à 75 euros par mois, la tarification étant basée sur le nombre de commentaires traités.
Photo de Igor Omilaev sur Unsplash.