Huit solutions pour atténuer les préjugés fondés sur le genre dans les informations assistées par l'IA générative

8 mars 2024 dans Diversité et inclusion
Femme avec des données sur le visage

Voici la deuxième partie d'une série de deux articles sur la lutte contre les biais dans l'IA générative. La première partie est disponible ici (en anglais). 


Les préjugés intégrés dans l'IA générative (GenAI) étouffent, déforment et réduisent au silence les voix des groupes sous-représentés, en particulier les femmes et les femmes de couleur. Une première étape importante pour les rédactions qui souhaitent s'attaquer aux préjugés raciaux et/ou fondés sur le genre de l'IA générative consiste donc à diagnostiquer la nature de ces préjugés et à déterminer dans quelle mesure ils affectent la couverture médiatique. 

Quels sont les points de vue qui manquent dans le journalisme assisté par l'IA générative et dans la couverture de l'actualité en général ? Comment ces perspectives peuvent-elles être incluses ?

Pour répondre à ces questions, j'ai interrogé des experts travaillant avec l'IA sur les solutions qu'ils proposent pour atténuer les préjugés fondés sur le genre dans les informations assistées par l'IA générative. Partant du principe que la diversité des équipes de direction et de rédaction entraînera une diversité de pensée, certaines de ces solutions sont centrées sur l'action humaine - les journalistes chargés d'utiliser la technologie eux-mêmes. D'autres sont ancrées dans l'utilisation de la technologie de l'IA elle-même.

Voici leurs recommandations :

 

Solutions au niveau de l'organisation

(1) Assurer l'interdisciplinarité et la diversité des équipes et des flux de travail autour de l'IA générative

Dans une interview réalisée l'année dernière, Laura Ellis, responsable des prévisions technologiques à la BBC, a souligné la nécessité de refléter la diversité dans les équipes sur le lieu de travail. "C'est un aspect que nous avons pris en compte dès le début, lorsque nous avons constitué notre groupe de pilotage sur l'IA générative", déclare-t-elle. Nous nous sommes spécifiquement posé la question suivante : "Ce groupe est-il assez diversifié ? Avons-nous un éventail assez large de voix ?" 

De même, Agnes Stenbom, responsable d'IN/LAB chez Schibsted, en Suède, a suggéré d'inclure divers groupes de personnes dans les équipes qui discutent de la manière d'intégrer l'IA dans le journalisme. "Ne laissez pas les lacunes existantes dans votre organisation en termes de diversité limiter la façon dont vous abordez l'IA ; soyez créatifs et explorez de nouvelles configurations d'équipes interdisciplinaires pour récolter le potentiel et gérer les risques de l'IA," déclare-t-elle.

(2) Augmenter la représentation des femmes, notamment des femmes de couleur, parmi les responsables éditoriaux et les journalistes spécialisés dans la technologie 

L'expérience vécue des responsables éditoriaux a un impact sur ce qui est vu comme un sujet remarquable, tout comme leurs décisions concernant les perspectives à rechercher et ce qu'il convient de publier. Il est essentiel d'augmenter la proportion de femmes dans les fonctions éditoriales et de reportage sur l'IA si l'on veut que le journalisme élargisse le prisme de l'information et renforce la confiance du public lorsqu'il s'agit de couvrir l'IA générative.

(3) Accroître la part de voix des femmes expertes en IA dans les médias

La professeure Maite Taboada, de l'université Simon Fraser à Vancouver, a fait part du déficit de confiance qu'elle ressent lorsqu'elle entend dans les médias un groupe trop restreint de spécialistes de l'IA, qu'elle perçoit comme ayant un certain agenda politique. 

"La politique de l'IA est certainement en train de dominer et peut-être de forcer la façon dont nous voyons l'IA. Est-elle surprenante ? Est-elle dangereuse ? Nous ne le savons pas vraiment. Personnellement, je ne peux pas faire confiance aux experts qui s'expriment," affirme-t-elle. Il faut plus de diversité parmi ceux qui couvrent les différents aspects et applications de la technologie.

Une méthode éprouvée pour accroître la diversité des contributeurs dans un domaine d'information particulier consiste à utiliser le système simple mais efficace de BBC 50:50, qui implique de suivre le genre et d'autres caractéristiques identitaires des contributeurs. En comptant les sources utilisées dans les reportages sur l'IA générative, les journalistes et les responsables éditoriaux prennent conscience de leurs propres préjugés, ce qui constitue le premier pas vers le changement.

 

Solutions au niveau de l'industrie

(4) Créer des bases de données d'expertes du secteur de l'IA

En réponse à un article du Guardian sur le manque de femmes leaders dans l'industrie de l'IA et de voix féminines dans la couverture médiatique de l'IA, des lecteurs et des influenceurs ont publié des messages sur les réseaux sociaux et des articles qui partageaient des listes de femmes expertes en IA qui pourraient être interviewées. 

La création d'une base de données d'expertes en IA générative qui pourrait être partagée au sein de l'industrie du journalisme économisera les ressources et offrira une réelle opportunité d'augmenter la part de voix d'expert.e.s diversifiées dans les nouvelles sur l'IA, qui à leur tour élargiront les perspectives sur les différents défis de l'IA générative. 

 

(5) Souligner la nécessité d'atténuer les préjugés fondés sur le genre et raciaux dans les normes et lignes directrices éditoriales relatives à l'utilisation de l'IA générative

L'examen de cinq chartes, normes et lignes directrices sur l'IA produites par divers organismes de presse ou organes journalistiques montre qu'il n'y a pas de cohérence dans l'identification de la nécessité d'atténuer les biais algorithmiques à l'avenir. Certains documents le font (par exemple, les principes du moteur d'apprentissage automatique de la BBC et les conditions d'orientation en matière d'IA d’AP), tandis que d'autres ne le font pas (la Charte de Paris sur l'IA et le journalisme de Reporters sans frontières et les normes d’AP sur l'IA générative).

Parmi ces principes, celui de la BBC sur le moteur d'apprentissage automatique se distingue par sa référence complète aux préjugés, à l'équité et à la diversité. Il pose également des questions particulièrement importantes, notamment : si l'équipe est pluridisciplinaire ; si les sources de données, le processus de conception, etc. ont recherché la diversité de pensée ; quelles mesures ont été mises en place pour garantir que les perspectives des groupes concernés sont prises en compte ; et ce qui est fait pour contrer les sources de biais injustes dans les données.

(6) Faciliter la collaboration à l'échelle de l'industrie pour comprendre et compenser les préjugés

Mme Ellis, de la BBC, a longuement parlé de la nécessité d'une collaboration entre les organismes de presse si l'on veut s'attaquer avec succès aux biais algorithmiques. 

"Nous devons partager et travailler ensemble sur le front de la réglementation, être ouverts les uns aux autres parce que nous avons beaucoup de choses en commun et nous ne devrions pas essayer de faire la même chose chacun dans son petit coin," déclare-t-elle. 

Le salon de l'IA pour les journalistes, qu'elle a lancé l'année dernière, offre un forum où différentes organisations peuvent partager leurs défis et leurs solutions potentielles.

 

Des solutions centrées sur la technologie

(7) Utiliser l'IA pour mesurer la part de voix des femmes dans l'actualité, de préférence de manière intersectionnelle

L'IA peut s'avérer efficace pour mettre en lumière les écarts de genre dans la couverture médiatique. 

Interrogé sur les outils d'IA existants qui soutiennent les progrès en matière d'équité de genre dans l'information, Nicholas Diakopoulos, professeur d'études en communication à l'université Northwestern de Chicago, a mis en avant le Gender Gap Tracker de l'université Simon Fraser : "Des outils comme celui-ci peuvent attirer l'attention sur la question et, idéalement, contribuer à faire pression sur les médias pour qu'ils s'efforcent de faire mieux." 

Il est encourageant de constater que les organes de presse sont de plus en plus nombreux à s'inscrire pour utiliser l'outil, a noté Mme Taboada, qui dirige le projet. "Il y a eu une évolution intéressante au cours de l'année écoulée, en ce sens que maintenant tout le monde veut être répertorié. Je pense qu'il y a un sentiment que ce type de responsabilité est bon pour les affaires," affirme-t-elle. 

Dans la mesure du possible, il est nécessaire d’utiliser des systèmes d'intelligence artificielle capables de superposer la race au genre lorsqu'il s'agit de mesurer la part de voix des femmes dans l'actualité. Bien que sa méthodologie soit encore en cours d'affinement, MediaCatch, au Danemark, le fait pour les radiodiffuseurs et les fournisseurs d'informations.

 

(8) Utiliser l'IA pour lutter contre les abus en ligne, qui constituent un obstacle important à l'équilibre genre dans les reportages et la couverture en ligne

Les abus fondés sur le genre en ligne à l'encontre des journalistes et des collaborateurs, qui font partie du fossé de genre existant en matière de sécurité, ont un effet dissuasif sur la volonté des femmes de continuer à être journalistes ou d'exprimer leurs opinions dans les journaux télévisés. 

Lors d'une récente interview sur l'utilisation potentielle de l'IA dans les salles de rédaction, Lynette Mukami, responsable éditoriale chargée des questions sociales, de la recherche et de l'analyse au sein du Nation Media Group au Kenya, a expliqué que les femmes, en particulier les politiciennes, sont beaucoup plus maltraitées que les hommes sur leurs plates-formes. "Si vous pouviez disposer d'un outil capable de filtrer/supprimer les contenus misogynes, cela faciliterait grandement notre travail," déclare-t-elle.

Google Jigsaw, TRFilter de la Fondation Thomson Reuters et Perspective API ne sont que quelques exemples d'outils d'IA conçus pour aider les journalistes à lutter contre les abus en ligne.

Si nous restons les gardiens de la diversité des points de vue dans la couverture de l'actualité et si nous utilisons l'IA pour nous aider à diagnostiquer et à corriger nos angles morts, notre journalisme trouvera un écho auprès d'un public plus large. N'est-ce pas finalement ce que nous voulons tou.te.s ?


Photo de cottonbro studio sur Pexels.