Esta es la segunda parte de una serie sobre los sesgos en la IA Generativa. Puedes leer la primera aquí.
Los sesgos de la IA generativa (GenAI) suprimen, distorsionan y silencian las voces de grupos subrepresentados, especialmente de las mujeres y, en particular, las mujeres de color. Un primer paso para que las redacciones aborden estos sesgos de género y raciales es, por tanto, diagnosticar cuáles son y en qué medida afectan a la cobertura.
¿Qué puntos de vista faltan en el periodismo asistido por GenAI y en la cobertura informativa en general? ¿Cómo podrían incluirse?
Para responder a estas preguntas, hablé con expertos que están trabajando en soluciones para mitigar el sesgo de género en las noticias asistidas por GenAI. Partiendo de la premisa de que la diversidad en el liderazgo y en los equipos de redacción conducirá a la diversidad de pensamiento —y el interés por nuestro trabajo— algunas de estas soluciones se enfocan en la acción humana, es decir, en los propios periodistas encargados de utilizar la tecnología. Otras están ancladas en el uso de la propia tecnología de IA.
A continuación, sus recomendaciones.
Soluciones a nivel organizacional
(1) Garantizar equipos y flujos de trabajo interdisciplinarios y diversos en torno a la GenAI
En una entrevista de 2023, Laura Ellis, responsable de previsión tecnológica de la BBC, marcó la necesidad de que la diversidad se refleje en los equipos de trabajo. "Es algo que tenemos en cuenta desde el principio cuando creamos nuestro grupo de GenAI", explica. "Nos preguntamos específicamente: ¿es lo suficientemente diverso este equipo? ¿Tenemos un abanico de voces lo suficientemente amplio?".
De igual modo, Agnes Stenbom, directora de IN/LAB en Schibsted (Suecia), recomienda incluir a diversos grupos de personas en los equipos que debaten cómo integrar la IA en el periodismo. "No dejes que las deficiencias existentes en términos de diversidad en tu organización limiten la forma en que abordas la IA; sé creativo y explora nuevas configuraciones de equipos interdisciplinarios para aprovechar el potencial y gestionar los riesgos de la IA", aconseja.
(2) Aumentar la representación de las mujeres, incluidas las mujeres de color, entre los editores y periodistas tecnológicos
La experiencia vivida por los redactores influye en lo que definen como noticia, al igual que sus decisiones sobre qué puntos de vista buscar y qué publicar. Aumentar la cantidad de mujeres en puestos editoriales y de información sobre IA es clave para que el periodismo amplíe la diversidad en las noticias y aumente la confianza del público en lo que respecta a la cobertura de la GenAI.
(3) Incrementar la presencia de mujeres expertas en IA en las noticias
La profesora Maite Taboada, de la Universidad Simon Fraser de Vancouver, observa que en las noticias circula por lo general un grupo demasiado reducido de los mismos expertos en IA, a los que percibe como poseedores de una determinada agenda política.
"Sin duda, la política de la IA está dominando y tal vez forzando la forma en que vemos la IA. ¿Es asombrosa? ¿Es peligrosa? Realmente no lo sabemos. Personalmente, no me fío de lo que dicen los expertos", dice. Es necesaria una mayor diversidad entre quienes cubren los distintos aspectos y aplicaciones de la tecnología.
Un método probado para aumentar la diversidad de colaboradores dentro de una especialidad informativa concreta consiste en emplear el sencillo pero eficaz sistema de la BBC 50:50 para hacer un seguimiento del género y otras características de identidad de los colaboradores. El recuento de los colaboradores utilizados en las coberturas de GenAI permite a los periodistas y editores tomar conciencia de sus propios prejuicios, lo que constituye el primer paso hacia el cambio.
Soluciones a nivel de la industria
(4) Crear bases de datos de mujeres expertas en la industria de la IA
En respuesta a un artículo de The Guardian sobre la falta de mujeres liderando la industria de la IA y de voces femeninas en la cobertura de noticias sobre IA, lectores e influencers publicaron listas de mujeres expertas que podrían ofrecer sus conocimientos en distintas coberturas.
La creación de una base de datos de mujeres expertas en IA/GenAI permitiría ahorrar recursos y ofrecería una oportunidad real de aumentar la proporción de voces especializadas diversas en las noticias sobre IA, lo que a su vez ampliaría la perspectiva de los distintos retos de la GenAI.
(5) Remarcar la necesidad de mitigar los prejuicios raciales y de género en las normas y directrices editoriales sobre el uso de la GenAI
Al examinar cinco cartas, normas y directrices sobre IA elaboradas por varios medios u organismos de periodismo se desprende que no hay coherencia a la hora de identificar la necesidad de mitigar los sesgos algorítmicos en el futuro. Algunos documentos sí lo hacen (por ejemplo, los Principios de aprendizaje automático de la BBC y los AI Guidance Terms de la AP), mientras que otros no (la Carta de París sobre IA y Periodismo de Reporteros Sin Fronteras y las Estándares de la IA Generativa de la AP).
De todos ellos, los Principios de aprendizaje automático de la BBC se destacan por su amplia referencia a los sesgos, la imparcialidad y la diversidad. También plantean si el equipo es multidisciplinar; si las fuentes de datos, el proceso de diseño, etc., han buscado la diversidad de pensamiento; qué medidas se han puesto en marcha para garantizar que se tengan en cuenta las perspectivas de los grupos pertinentes; y qué se está haciendo para contrarrestar los sesgos en los datos.
(6) Facilitar la colaboración en todo el sector para comprender y compensar los sesgos
Ellis, de la BBC, habló extensamente de la necesidad de colaboración entre medios si se quiere abordar con éxito el problema de los sesgos algorítmicos.
"Necesitamos compartir y trabajar juntos en el tema normativo, ser abiertos unos con otros porque hay muchos problemas que compartiremos y no deberíamos trabajar aislados", dijo.
AI Salon for Journalists, que puso en marcha el año pasado, ofrece un foro en el que distintas organizaciones pueden hablar sobre los desafíos que aparecen y sus posibles soluciones.
Soluciones tecnológicas
(7) Utilizar la IA para medir la cuota de voz de las mujeres en las noticias, preferiblemente de manera interseccional
La IA puede ser efectiva para mostrar dónde están las brechas de género en la cobertura informativa.
Consultado acerca de las herramientas de IA existentes que apoyan el progreso de la igualdad de género en las noticias, Nicholas Diakopoulos, profesor de estudios de comunicación de la Universidad Northwestern de Chicago, destacó el trabajo del Gender Gap Tracker de la Universidad Simon Fraser. "Herramientas como esta pueden llamar la atención sobre el problema y, en el mejor de los casos, ayudar a presionar a los medios de comunicación para que intenten mejorar".
Taboada, que dirige el proyecto, señala que cada vez más medios utilizan la herramienta. "En el último año se ha producido una evolución interesante: ahora todo el mundo quiere figurar en la lista. Creo que existe la sensación de que este tipo de transparencia es bueno para el negocio", dice.
Cuando sea posible, utiliza sistemas de inteligencia artificial que puedan superponer la raza al género al medir la participación de las mujeres en las noticias. Aunque aún está perfeccionando su metodología, esto es algo que MediaCatch en Dinamarca hace para emisoras y proveedores de noticias.
(8) Utilizar la IA para combatir la violencia en línea, que representa un obstáculo importante para el equilibrio de género en la cobertura informativa
El abuso de género en la esfera digital, que forma parte de la brecha de seguridad de género existente, tiene un efecto disuasorio sobre la voluntad de las mujeres de seguir siendo periodistas o de expresar sus opiniones en las noticias.
En una entrevista reciente sobre el posible uso de la IA en las redacciones, Lynette Mukami, editora de redes sociales, búsquedas y análisis del Nation Media Group de Kenia, explicó que las mujeres, especialmente las políticas, sufren muchos más abusos que los hombres en sus redes sociales. "Si pudiéramos tener una herramienta que filtrara o eliminara el contenido misógino, nuestro trabajo sería mucho más fácil", sostiene.
Google Jigsaw, TRFilter de la Fundación Thomson Reuters y Perspective API son solo algunas de las herramientas de IA diseñadas para ayudar a los periodistas a combatir los abusos en línea.
Si cuidamos la diversidad de perspectivas en la cobertura informativa y utilizamos la IA para ayudarnos a diagnosticar y corregir nuestros puntos ciegos, nuestro periodismo resonará en un público más amplio. ¿No es esto, finalmente, lo que todos queremos?
Foto de cottonbro studio en Pexels.