La IA ayuda a analizar la representación de las mujeres en los medios

Nov 15, 2022 en Innovación en los medios
Mujeres alrededor de una mesa

Desde automatizar la producción de contenidos hasta ayudar en la verificación digital, la inteligencia artificial (IA) se ha extendido en el periodismo en los últimos años. Y las oportunidades que los algoritmos ofrecen a los medios de comunicación se han hecho más evidentes a lo largo del camino.

Es el caso de la contribución que las tecnologías de IA pueden hacer para mejorar la representación de las mujeres en las noticias. El bot del Financial Times She said He said fue uno de los primeros ejemplos de esto. Introducido en 2018, ayudó a la redacción londinense a identificar la diversidad de fuentes dentro de sus coberturas.

Medios de todo el mundo han aprovechado la IA de diversas maneras para analizar e identificar prejuicios en sus contenidos, detectar discursos de odio contra las mujeres, y más.

A continuación, algunos ejemplos.

Prejuicios y estereotipos

Sahiti Sarva, ingeniera especializada en ciencia de los datos aplicada a la política, es coautora del ensayo visual de 2021 When Women Make Headlines, que examina la naturaleza de la representación de las mujeres en la información periodística. Sarva y su equipo analizaron más de 10 años de titulares de las 50 principales publicaciones de la India, Estados Unidos, Reino Unido y Sudáfrica para el proyecto.

La especialista explicó su iniciativa en un taller virtual organizado JournalismAI de la London School of Economics a principios de 2022: "Recogimos todos los titulares etiquetados con 20 palabras clave sinónimo de mujer, niña, femenino, etc., y eso nos dio unos 382.139 titulares de noticias en inglés".

Eran, por supuesto, muchos datos. "Uno piensa que la IA facilita las cosas", dijo Sarva a IJNet. Pero antes de empezar a aplicar cualquier algoritmo, hay trabajo por hacer. A saber, limpiar, eliminar palabras inútiles y buscar paquetes de códigos adecuados para utilizar. "Hay que ser creativos en cuanto a los datos a emplear", señaló.

"Seguimos adelante y creamos nuestros propios diccionarios que calculan algo llamado sesgo de género en los titulares", explicó Sarva en el taller de JournalismAI. "Esto incluyó una combinación de lenguaje relacionado con el género, como actriz, hija, esposa, junto con estereotipos sociales y de comportamiento en torno al género, como 'apoyo emocional' y 'cuidado'".

Una vez que el equipo dispuso de esos diccionarios, utilizó un método de aprendizaje automático llamado "análisis de sentimientos" para entender cómo aparecen las mujeres en los titulares. "Descubrimos que, en esos casos, la historia o cobertura suele ser muy sensacionalista; mucho más sensacionalista que los titulares normales que leemos y, con el tiempo, el número no ha hecho más que aumentar. Esto podría deberse a que cuando las mujeres ocupan los titulares, la historia tiene el doble de probabilidades de ser violenta a ser empoderadora", dijo Sarva.

Seguimiento del discurso misógino

Las figuras públicas femeninas suelen ser objeto de ataques en las redes sociales. ¿Quiénes son los autores? Periodistas de AzMina de Brasil, La Nación de Argentina y las iniciativas latinoamericanas CLIP y DataCrítica recurrieron a la IA para averiguarlo.

Juntos, desarrollaron una aplicación web para rastrear el discurso de odio contra las mujeres en Twitter. "Conscientes de la escalada del discurso de odio, en particular contra las mujeres, nuestro proyecto busca monitorear rápida y asertivamente los casos en que esos ataques misóginos son iniciados por un funcionario político", dijo Bárbara Libório, de AzMina, en el mismo taller de JournalismAI.

De acuerdo con la aplicación, este tipo de ataques procedían sobre todo de políticos, entre otras figuras públicas. "Así se iniciaban las verdaderas olas de discurso de odio", explicó Libório, "porque sus partidarios decidían redoblar los ataques a estas mujeres".

Si se quiere que un modelo detecte mensajes misóginos, continuó, la tecnología de IA debe aprender qué es el discurso de odio contra las mujeres. Así, el equipo de Libório creó una base de datos de ejemplos, marcando los tuits como misóginos o no.

Una vez que la IA aprendió este proceso, su equipo evaluó su eficacia para identificar el discurso misógino, creando un sistema de puntuación que probaron en portugués y español.

Con su modelo listo, construyeron una aplicación web para ayudar a los usuarios a analizar textos y archivos. Libório espera compartir su prototipo con otras iniciativas que quieran cartografiar la violencia de género en las redes sociales.

Un punto de partida

"Las tecnologías de IA pueden ayudar a los periodistas a hacer mejor su trabajo", dijo Sabrina Argoub, directora de programas de JournalismAI. En lo que respecta a la representación de las mujeres en las noticias, añadió, la IA puede utilizarse para mejorar la transparencia, al tiempo que contribuye a la concientización. El proyecto AIJO, que compara el porcentaje de hombres y mujeres citados en artículos o representados en las noticias visuales, es un ejemplo.

Sin embargo, Argoub señala que la IA no es una panacea. Es necesario que tanto las redacciones como los periodistas se impliquen para lograr un verdadero avance en la materia.

"Es importante tener en cuenta que la máquina puede ofrecer datos y ayudar a revisar si lo estamos haciendo bien o no", dijo. "Para pasar a la acción, el punto de partida y la intención de abordar la infrarrepresentación de las mujeres en las noticias tienen que venir de las redacciones y de los propios periodistas".


Foto de Alexis Brown en Unsplash.