Comment l’IA peut analyser la représentation des femmes dans l’actualité

22 nov 2022 dans Innovation dans les médias
Des femmes à une table

De l'automatisation de la production de contenu à l'aide à la vérification des faits, l'intelligence artificielle (IA) est de plus en plus utilisée dans le journalisme depuis quelques années. Les opportunités que les algorithmes offrent aux médias sont devenues plus claires au fil du temps.

Les technologies d'IA peuvent notamment jouer un rôle dans l'amélioration de la représentation des femmes dans l'actualité. Le bot du Financial Times, She said He said, en a été l'un des premiers exemples. Lancé en 2018, il a aidé cette rédaction basée à Londres à mesurer la diversité des sources au sein de ses reportages.

Les organes de presse du monde entier ont ainsi exploité les technologies d'IA de diverses manières pour mieux analyser et identifier les biais dans leurs reportages, détecter les discours haineux à l'encontre des femmes, et plus encore.

Voici comment.

Analyser les biais dans les médias

En 2021, Sahiti Sarva, ingénieure spécialisée dans l'utilisation de la data-science pour comprendre les politiques publiques, a rédigé avec Leonardo Nicoletti un essai visuel sur la nature de la représentation des femmes dans les reportages intitulé When Women Make Headlines (Quand les femmes font la Une). Pour ce projet, l'équipe de Mme Sarva et M. Nicoletti a analysé plus de 10 ans de gros titres provenant des 50 principales publications en Inde, aux États-Unis, au Royaume-Uni et en Afrique du Sud.

Mme Sarva a expliqué son approche lors d'un atelier virtuel organisé par l'initiative JournalismAI de la London School of Economics au début de cette année : "Nous avons trouvé tous les titres dans lesquels apparaissaient un des 20 mots-clés synonymes de femme, fille, féminin, etc. Cela nous a donné environ 382 139 titres d'actualité en anglais."

Cela représente, bien sûr, beaucoup de données. "Il est facile de penser que l'IA va vous faciliter la tâche", admet Mme Sarva lors d'une interview pour cet article. Mais appliquer un algorithme requiert beaucoup de préparation. À savoir, nettoyer les données, supprimer les mots inutiles et trouver les bons codes à utiliser. Souvent, dit-elle, "il faut être créatif quant aux données que l'on va utiliser".

"Nous nous sommes lancés en créant nos propres dictionnaires qui calculent dans les titres ce qu’on appelle le ‘biais de genre’", explique Mme Sarva lors de l'atelier JournalismAI. "[Cela comprend] une combinaison de langage genré comme actrice, fille, épouse, ainsi que des stéréotypes comportementaux et sociaux autour du genre, comme le soutien émotionnel et le soin."

Une fois ces dictionnaires finalisés, l’équipe a utilisé une méthode d'apprentissage automatique appelée "analyse des sentiments" pour comprendre ce qui ressort lorsque les femmes font les gros titres. "Nous avons constaté que l'histoire, lorsque les femmes font les gros titres, est souvent très sensationnelle. Beaucoup plus que les titres habituels que nous lisons. Au fil du temps, ce nombre n'a fait qu'augmenter. Cela pourrait probablement s'expliquer par le fait que, lorsque les femmes font la Une, l'histoire racontée a deux fois plus de chances d'être violente que source d’inspiration", souligne Mme Sarva.

Suivre la propagation des discours misogynes

En tant que personnalités publiques, les femmes sont fréquemment la cible d'attaques sur les réseaux sociaux. Qui sont les auteurs de ces attaques ? Des journalistes de AzMina, au Brésil, de La Nación, en Argentine et de CLIP et DataCrítica en Amérique latine se sont tournés vers l'IA pour le découvrir.

Ensemble, ils ont développé une application web pour mettre en lumière les discours de haine à l’égard des femmes sur Twitter. "Conscients de la montée des discours haineux, en particulier à l'encontre des femmes, notre projet veut être en mesure de surveiller rapidement et sans équivoque le moment où l'une de ces attaques misogynes est lancée par une personnalités politique", affirme Bárbara Libório d'AzMina lors de ce même atelier JournalismAI.

Les attaques, a constaté l'application, proviennent notamment de politiciens, entre autres personnalités publiques. "[C’est ce qui] a déclenché les véritables vagues de discours de haine", explique Mme Libório, "car ensuite, leurs partisans ont décidé d'attaquer ces femmes davantage."

Si l'on veut qu'un programme détecte les messages misogynes, poursuit-elle, la technologie d'IA doit apprendre ce qu'est un discours de haine à l'égard des femmes. La première étape du processus a consisté pour l'équipe de Mme Libório à créer une base de données d'exemples, en marquant les tweets comme étant misogynes ou non.

Une fois que l'IA a appris ces caractéristiques, son équipe a évalué son efficacité à identifier les discours sexistes et misogynes. Elle a créé un système de notation, qu'elle a testé en portugais et en espagnol.

Une fois leur programme prêt, ils ont créé une application web pour aider les utilisateurs à analyser des textes et des fichiers. Mme Libório espère pouvoir partager son prototype avec d'autres projets qui souhaitent cartographier les violences sexistes sur les réseaux sociaux.

Un point de départ

"Les technologies d'IA peuvent être d'une grande utilité pour aider les journalistes à mieux faire leur travail", explique Sabrina Argoub, responsable de programme chez JournalismAI. En ce qui concerne la représentation des femmes dans les médias, l'IA peut être utilisée pour améliorer la transparence et la responsabilisation des acteurs, tout en sensibilisant le public. Le projet AIJO, qui compare le taux de citation des hommes et des femmes dans les articles et leur représentation visuelle dans l’actualité, en est un exemple.

L'IA n'est cependant pas une panacée, souligne Mme Argoub. L'adhésion des rédactions et des journalistes est nécessaire pour réaliser de véritables progrès en la matière.

"Il est bon de garder à l'esprit que l’IA peut fournir des données et nous aider à déterminer si nous nous en sortons bien ou pas", dit-elle. "Pour agir, le point de départ et l'intention de s'attaquer à la sous-représentation des femmes dans l'information doivent venir des rédactions et des journalistes eux-mêmes."


Photo par Alexis Brown sur Unsplash.