8 soluções para conter o viés de gênero em notícias assistidas por IA

Mar 5, 2024 em Diversidade e Inclusão
Woman with binary numbers highlighted over her face

Esta é a segunda parte de uma série de dois artigos sobre o combate a vieses na IA generativa. A primeira parte pode ser lida aqui.


Os vieses presentes na IA generativa silenciam e distorcem as vozes de grupos sub-representados, principalmente mulheres e mulheres de minorias raciais. Um primeiro passo importante para que as redações lidem com os vieses de gênero e raça na IA generativa é, portanto, diagnosticar quais são esses vieses e o quão profundamente eles afetam a cobertura.

Quais perspectivas estão ausentes do jornalismo assistido por IA e da cobertura jornalística, em geral? Como essas perspectivas podem ser incluídas?

Para responder a essas perguntas, eu conversei com especialistas que trabalham com IA sobre suas sugestões de soluções para conter o viés de gênero nas notícias produzidas com ajuda de IA. Sob a premissa de que a diversidade na liderança e nas equipes de redações vai gerar mais diversidade de pensamento, algumas dessas soluções focam na ação humana – os próprios jornalistas encarregados de usar a tecnologia. Outras estão ancoradas no uso da tecnologia de IA em si.

As recomendações são as seguintes:

Soluções no nível organizacional

(1) Certifique-se de ter equipes e fluxos de trabalho de IA interdisciplinares e diversos

Em uma entrevista no ano passado, Laura Ellis, chefe de vigilância tecnológica na BBC, destacou a necessidade de ter a diversidade refletida nas equipes de trabalho. "É algo que temos considerado desde o começo da criação do nosso grupo de orientação sobre IA generativa", diz. "Especificamente, nós nos perguntamos: Isso é diverso o bastante? Temos uma gama de vozes ampla o bastante?"

De maneira semelhante, Agnes Stenbom, chefe do IN/LAB, na cidade de Schibsted, na Suécia, sugeriu incluir grupos diversos de pessoas em equipes que estejam discutindo como integrar a IA no jornalismo. "Não permita que falhas existentes de diversidade na sua organização limitem a forma como você lida com a IA; seja criativa e explore novas configurações interdisciplinares de equipes para colher os potenciais e administrar os riscos da IA", diz.

(2) Aumente a representatividade de mulheres, inclusive de diferentes etnias, entre editores de tecnologia e repórteres 

As vivências dos editores impactam o que eles definem como pauta, assim como suas decisões sobre quais perspectivas seguir e o que publicar. Aumentar a proporção de mulheres em cargos editoriais ligados à IA e na reportagem é fundamental se o jornalismo quiser ampliar a óptica do noticiário e aprofundar a confiança da audiência em relação à cobertura da IA generativa.

(3) Aumente a presença de mulheres especialistas em IA nas matérias

A professora Maite Taboada, da Universidade Simon Fraser, em Vancouver, compartilhou o déficit de confiança que ela sofre por ver no noticiário um grupo limitado demais dos mesmos especialistas em IA, que ela considera terem uma certa agenda política. 

"A política de IA está certamente dominando e talvez forçando a forma como enxergamos a IA. Isso é incrível? Isso é perigoso? Nós não sabemos de fato. Eu pessoalmente não consigo confiar nos especialistas que estão falando", diz. É preciso mais diversidade entre aquelas pessoas que estão cobrindo os diferentes aspectos e aplicações da tecnologia.

Um método bem-sucedido para aumentar a diversidade de colaboradores dentro de uma área específica do jornalismo é empregar o sistema simples mas efetivo de monitoramento do gênero e outras características identitárias dos colaboradores, a exemplo do 50:50 da BBC. Ao fazer essa análise nas reportagens sobre IA generativa, jornalistas e editores ficam mais cientes de seus próprios vieses, que é o primeiro passo para mudar.

Soluções no nível do jornalismo

(4) Crie bases de dados de mulheres especialistas em IA 

Em resposta a um artigo do Guardian sobre a falta de mulheres líderes no setor de IA e de mulheres na cobertura jornalística sobre IA, leitores e influenciadores fizeram postagens nas redes sociais e publicaram artigos com listas de mulheres especialistas em IA que poderiam ser entrevistadas.

Criar uma base de dados de mulheres especialistas em IA e IA generativa que possa ser compartilhada por jornalistas seria um recurso eficiente e apresentaria uma oportunidade real de aumentar a proporção de vozes diversas de especialistas nas notícias sobre a tecnologia, o que em contrapartida ampliaria a visão sobre os vários desafios da IA generativa.

(5) Destaque a necessidade de conter vieses de gênero e de raça nos padrões editoriais e nas diretrizes sobre o uso de IA generativa.

A partir da análise de cinco estatutos, padrões e diretrizes de IA produzidos por vários veículos jornalísticos ou órgãos de jornalismo, fica evidente que não há consistência na identificação da necessidade de conter vieses algorítmicos no futuro. Alguns documentos abordam isso (por exemplo, os Princípios do Mecanismo de Aprendizado de Máquina da BBC ou os Termos de Orientação da AP), enquanto outro não o fazem (o Estatuto de Paris sobre IA e Jornalismo da Repórteres Sem Fronteiras e os Padrões de IA Generativa da AP).

Desses mencionados, o documento da BBC se destaca por sua referência abrangente a vieses, equidade e diversidade. Ele também faz perguntas particularmente importantes, dentre elas: se a equipe é multidisciplinar; se as fontes de dados, processo de design, etc. buscaram ter diversidade de pensamento; quais medidas foram implementadas para garantir que sejam levadas em conta as perspectivas de grupos relevantes; e o que está sendo feito para contrapor fontes de dados com vieses parciais.

(6) Facilite colaborações abrangentes para entender e contrabalançar vieses

Laura Ellis, da BBC, falou amplamente sobre a necessidade de colaboração entre veículos jornalísticos para enfrentar vieses algorítmicos com sucesso. 

"Precisamos compartilhar e trabalhar juntos na frente regulatória para estarmos abertos uns para os outros porque há muitas coisas que temos em comum e deveríamos tentar não fazer só a mesma coisa no nosso próprio mundinho", diz.

No ano passado, ela criou um fórum no qual diferentes organizações podem compartilhar seus desafios e soluções em potencial para a IA.

Soluções focadas na tecnologia

(7) Use a IA para medir a proporção de mulheres no noticiário sobre a tecnologia, preferencialmente de forma interseccional 

A IA pode ser eficaz para lançar luz sobre onde estão as lacunas de gênero na cobertura jornalística.

Quando perguntado sobre ferramentas de IA existentes que ajudam no progresso da equidade de gênero no noticiário, Nicholas Diakopoulos, professor de estudos de comunicação na Universidade Northwestern de Chicago, destacou a ferramenta Gender Gap Tracker da Universidade Simon Fraser: "ferramentas assim podem chamar a atenção para o problema e, idealmente, ajudar a exercer pressão sobre veículos de mídia para que eles melhorem".

De forma encorajadora, tem havido um aumento de veículos jornalísticos registrados na ferramenta, observa Taboada, que lidera o projeto. "Houve um desenvolvimento interessante no último ano aproximadamente, no sentido de que agora todo mundo quer fazer parte. Eu acho que há uma sensação de que esse tipo de prestação de contas é importante para os negócios", diz. 

Sempre que possível, use sistemas de IA que possam sobrepor a raça ao gênero na hora de medir a proporção de mulheres no noticiário sobre a tecnologia. Embora ainda esteja refinando sua metodologia, isso é algo que o MediaCatch faz para a mídia e redações da Dinamarca.

(8) Use a IA para combater agressões online, que representam uma barreira significativa para o equilíbrio de gênero no jornalismo e na cobertura online

A agressão online de jornalistas e colaboradores com base no gênero, que é parte da atual lacuna de segurança de gênero, enfraquece a vontade de mulheres continuarem sendo jornalistas ou expressarem suas opiniões no noticiário.

Em uma entrevista recente sobre usos em potencial da IA na redação, Lynette Mukami, editora de redes sociais, busca e análises do Nation Media Group, do Quênia, compartilhou como mulheres, principalmente políticas, sofrem muito mais agressões em comparação com os homens em suas plataformas. "Se existisse uma ferramenta para filtrar/remover conteúdo misógino, isso deixaria nosso trabalho muito mais fácil", disse.

Google Jigsaw, o TRFilter da Thomson Reuters Foundation e a Perspective API são apenas algumas das ferramentas de IA criadas para ajudar jornalistas a combater agressões online.

Se permanecermos sendo os guardiões da diversidade de perspectivas na cobertura jornalística, e usarmos a IA para nos ajudar a diagnosticar e corrigir nossos pontos cegos, nosso jornalismo vai repercutir com uma audiência maior. Não é isso, no fim das contas, que todos queremos?


Foto por cottonbro via Pexels.