Como a inteligência artificial analisa a representação feminina nas notícias

Nov 17, 2022 em Inovação da mídia
Women at a table

Da automação da produção de conteúdo à assistência nos esforços de verificação de fatos, a inteligência artificial (IA) passou a ser amplamente usada pelo jornalismo nos últimos anos. As oportunidades que os algoritmos oferecem aos veículos se tornaram mais claras com o tempo.

Dentre elas, as tecnologias de IA podem desempenhar um papel na melhoria da representação das mulheres no noticiário. O bot do Financial Times, She said He said, foi um dos primeiros exemplos disso. Introduzido em 2018, ele ajudou a redação londrina a identificar a diversidade das fontes em suas reportagens. 

De modo semelhante, veículos jornalísticos do mundo todo se valeram das tecnologias de IA de modos variados para ajudá-los a analisar e identificar vieses em suas reportagens, detectar discurso de ódio contra mulheres, dentre outros. 

Confira a seguir alguns exemplos.

Análise de viés na mídia

Sahiti Sarva, engenheira especializada no uso de ciência de dados para entender políticas, foi coautora de um ensaio visual em 2021 que examinava a natureza da representação das mulheres no noticiário, intitulado Quando Muheres Viram Manchete. Sarva e sua equipe analisaram o equivalente a mais de 10 anos de manchetes das 50 principais publicações da Índia, Estados Unidos, Reino Unido e África do Sul para o projeto.   

Sarva explicou a abordagem do trabalho em uma oficina virtual realizada pela iniciativa JournalismAI da London School of Economics no início do ano: "Nós extraímos todas as manchetes marcadas com 20 palavras-chave que eram sinônimos de mulher, menina e assim por diante, e com isso obtivemos 382.139 manchetes em inglês."   

Obviamente, eram muitos dados. "Você acha que a IA vai facilitar as coisas", disse Sarva em uma entrevista para esta matéria. Mas antes de começar a usar um algoritmo, há muito trabalho a ser feito. Mais precisamente, limpar os dados, remover palavras sem serventia e encontrar os pacotes de código certos a serem usados. Muitas vezes, segundo ela, "você precisa ser criativa com os dados que vai usar".

"Nós avançamos e criamos nossos próprios dicionários que calculam o chamado viés de gênero nas manchetes", explicou Sarva na oficina do JournalismAI. "[Isso inclui] uma combinação de linguagem com flexão de gênero, como atriz, filha, esposa, junto com estereótipos comportamentais e sociais em torno do gênero, como apoio emocional e cuidado." 

Com os dicionários prontos, a equipe usou um método de aprendizado de máquina chamado "análise de sentimento" para entender as manchetes quando as mulheres são o assunto. "Nós descobrimos que a matéria — quando as mulheres estão nas manchetes — é frequentemente muito sensacionalista. Bem mais sensacionalista do que manchetes comuns que nós lemos e, ao longo do tempo, a quantidade só aumentou. Isso pode ocorrer porque, provavelmente, quando as mulheres viram manchete, a matéria tem o dobro de chance de ser violenta em vez de empoderadora", diz Sarva.

Monitoramento de discurso misógino

Na condição de figuras públicas, as mulheres são frequentemente alvo de ataques nas redes sociais. Quem são os agressores? Jornalistas da revista AzMina, do Brasil, do La Nación, da Argentina, e dos projetos latino-americanos CLIP e DataCrítica recorreram à IA para descobrir. 

Juntos, eles desenvolveram uma aplicação para identificar discurso de ódio contra mulheres no Twitter. "Ciente da escalada do discurso de ódio, particularmente contra as mulheres, nosso projeto quer ser capaz de monitorar de forma rápida e assertiva quando quaisquer desses ataques misóginos são iniciados por um político", disse Bárbara Libório, da AzMina, na mesma oficina do JournalismAI.   

A aplicação identificou que os ataques vinham de alguns políticos em particular, dentre outras figuras públicas. "[Foi isso] que deu início às reais ondas de discurso de ódio", explicou Libório, "porque os apoiadores deles decidiram atacar as mulheres em um ritmo mais elevado".

Ela explicou que se você quiser um modelo para detectar mensagens misóginas, a IA deve aprender o que é o discurso de ódio contra mulheres. Como primeiro passo do processo, a equipe de Libório criou uma base de dados com exemplos, indicando se os tweets eram misóginos ou não.

Após ensinar a IA, a equipe avaliou o quão efetivamente ela identificava o discurso de ódio contra mulheres. Depois foi criado um sistema de pontuação testado em português e em espanhol. 

Com o modelo pronto, a equipe criou uma aplicação para ajudar os usuários a analisar textos e arquivos. Libório espera poder compartilhar o protótipo com outras iniciativas que queiram mapear a violência de gênero nas redes sociais.

Um ponto de partida

"As tecnologias de IA podem ser de grande ajuda para que os jornalistas façam melhor o seu trabalho", diz Sabrina Argoub, gerente de programas do JournalismAI. Quando se trata da representação das mulheres no noticiário, segundo ela, a IA pode ser usada para melhorar a transparência e prestação de contas, ao mesmo tempo em que promove a conscientização. O projeto AIJO, que compara o ritmo com que homens e mulheres, respectivamente, são citados ou aparecem em matérias, é um exemplo.  

Mas a IA não é a cura para tudo, observa Argoub. A adesão tanto de jornalistas quanto de redações é necessária para que haja progresso real na questão.  

"É bom ter em mente que a máquina pode oferecer dados e ajudar a avaliar o quão bem ou não estamos nos saindo", diz. "Para tomar uma atitude, o ponto de partida e a intenção de combater a sub-representação das mulheres no noticiário precisa vir das próprias redações e dos jornalistas."  


Foto por Alexis Brown via Unsplash.