Cómo informar sobre IA en tiempos electorales

Jan 3, 2024 en Lucha contra la desinformación
Mano sosteniendo el sticker "I Voted"

Desde generadores de imágenes a chatbots, la inteligencia artificial (IA) está hoy en todas partes; algunos servicios de IA cuentan con cientos de millones de usuarios. Con unas elecciones presidenciales cruciales que acaban de suceder en Argentina, y muchas más acercándose en todo el mundo en 2024, las personas están preocupadas por la capacidad de la IA para difundir desinformación electoral.

Aunque algunas de estas preocupaciones pueden ser exageradas, sigue siendo vital que los periodistas entiendan cómo el creciente campo de la IA podría afectar a la esfera política. 

En una reciente clase magistral del ICFJ sobre "Desarmar la desinformación", la periodista de investigación mundial de AP, Garance Burke, habló de cómo informar eficazmente sobre las interacciones de la IA con la política.

Volver a las bases

Aprender los términos básicos es un buen punto de partida para investigar la IA y sus repercusiones. He aquí algunas definiciones que conviene recordar:

  • La IA es el término que engloba los sistemas informáticos, programas o procesos que imitan aspectos de la cognición humana. Ninguna IA puede compararse aún con un cerebro humano real.
  • Un algoritmo es una secuencia de instrucciones para resolver un problema o realizar una tarea. Los algoritmos son la base de los programas de reconocimiento facial y de voz, así como de las herramientas predictivas, que analizan datos pasados para predecir patrones o acontecimientos futuros.
  • Los grandes modelos lingüísticos, o LLM (por su sigla en inglés), son sistemas de IA que utilizan la estadística para descubrir patrones en los datos escritos, que luego utilizan para generar respuestas a las consultas. ChatGPT es un ejemplo de LLM; básicamente, estos sistemas examinan montones de datos de Internet para predecir cómo se pueden encadenar las palabras en una frase, y luego imitan lo que encuentran.

Al entrevistar a personas sobre sistemas de IA, también es importante hacer preguntas básicas. ¿Cómo funcionan estos sistemas? ¿Dónde se utilizan? ¿Qué hacen y cómo de bien lo hacen? 

"Es importante desmitificar el funcionamiento de estas herramientas y ayudar al público a comprenderlas", afirma Burke.

Durante las elecciones, mantén esta mentalidad de simplicidad cuando hables con los observadores electorales y los directores de campaña. Pregúntate, dice Burke: "Si yo fuera director de campaña, ¿qué querría predecir? ¿Qué datos me serían útiles?".

Investigar recursos

En un tema tan tecnológico como la IA, los recursos externos pueden ayudar a los periodistas a comprender y comunicar el verdadero impacto de estas herramientas en las elecciones. El Libro de Estilo de AP (al que se puede acceder mediante suscripción) ha añadido recientemente un capítulo entero sobre la información relativa a la IA. El Aspen Institute también tiene manuales de IA para periodistas.

Si vives en un país en el que la tecnología de IA se está desarrollando rápidamente, puede que te resulte fácil encontrar gurús de la tecnología y expertos en IA. Si no es así, Burke recomienda hablar con académicos que estudien la IA, así como con ONGs preocupadas por la privacidad, los derechos digitales y el seguimiento de modelos de IA. Algunos ejemplos son Privacy International, Human Rights Watch, Amnistía Internacional y Electronic Frontier Foundation.

Independientemente de dónde vivas, una vez que empieces a investigar la IA, es vital que busques expertos que puedan ofrecerte explicaciones y puntos de vista. "[La IA es] uno de esos ámbitos que los ingenieros tienen la sensación de que los periodistas nunca acaban de entender", afirma Burke. "Siempre habrá mucha gente que sentirá la necesidad de explicarte cómo funciona desde el principio, y eso es bueno, porque así reforzarás tu propia confianza y comprensión".

Pensar regionalmente

En algunos países, la IA se utilizará entre el público para difundir información, tanto creíble como falsa, durante la temporada electoral. En otros, la IA no será tan importante para el resultado de las elecciones. Considera dónde estás informando y la probabilidad de que se utilice la IA en ese lugar, así como su eficacia entre los votantes.

"Seguí una campaña en el Istmo de Tehuantepec [en México], y esas elecciones se ganaron repartiendo camisetas y bolsas de frijoles a personas que realmente necesitaban un apoyo económico básico", dice Burke. "Así que no creo que todas las elecciones vayan a recurrir al uso de chatbots para difundir desinformación".

Incluso si vives y trabajas en una región donde la IA desempeña un papel menor o inexistente en la difusión de desinformación electoral, sigue mereciendo la pena investigar qué tipo de datos están a disposición de las campañas y los grupos de interés. Averigua cómo podrían utilizarse esos datos para influir en los votantes. 

Por ejemplo, AP descubrió que en países como China, Israel, Australia e India, los datos de vigilancia masiva recogidos originalmente para rastrear casos de COVID-19 se estaban utilizando junto con herramientas de IA para reprimir protestas, amenazar a civiles y acosar a comunidades marginadas.

Entender los límites de la IA

La IA puede aparecer como un monolito confuso, incluso aterrador, para los periodistas y el público. 

"Hay que conocer a fondo lo que estos modelos pueden o no pueden hacer para pensar en cómo pueden utilizarse para difundir desinformación electoral o profundizar en las amenazas a la confianza pública", explica Burke.

Es poco probable, por ejemplo, que la IA cree y difunda espontáneamente una nueva narrativa falsa en torno a las elecciones, al estilo de las conspiraciones del buzón de votos o del votante zombi que se han extendido en Estados Unidos. Sin embargo, una persona podría utilizar herramientas de IA para localizar y dirigirse a personas que puedan ser susceptibles de recibir desinformación. Una vez que el contenido falso comienza a circular, un chatbot de IA con datos agregados de Internet podría regurgitar esta información como un hecho.

"Tengan en cuenta que se trata de herramientas creadas por humanos", afirma Burke. "No caigan en el mito de que las computadoras pueden pensar por sí solas".

Poner a las personas primero

Centrarse en las comunidades y las personas, en lugar de en los códigos y los procesos, puede hacer que un artículo resuene mejor entre los lectores. Burke puso como ejemplo la cobertura que hizo AP de una herramienta de evaluación del bienestar infantil en el condado de Allegheny. La redacción publicó dos artículos diferentes sobre la herramienta, la primera en abril de 2022 y la segunda en enero de 2023. 

Aunque el equipo de investigación de AP disponía de abundante información sobre los algoritmos de la herramienta, decidió centrarse en las personas afectadas por su uso. El primer reportaje se centró en una abogada de familia del condado y otros empleados del sistema de bienestar infantil, cuyo trabajo y toma de decisiones se vieron afectados por el algoritmo.

"Ella dijo: 'Incluso si diseñaran una herramienta perfecta, realmente no importa porque está diseñada a partir de sistemas de datos muy imperfectos'", dice Burke, refiriéndose a una terapeuta familiar que renunció en 2020 debido a las frustraciones con el sistema de Allegheny.

El segundo reportaje se centraba en una pareja con discapacidades, cuya hija fue llevada a un hogar de acogida. Creían que sus discapacidades habían provocado que la herramienta de detección de bienestar infantil los etiquetara como un riesgo para la seguridad de su hija.

Al centrarse en las personas afectadas, los lectores podían empatizar mejor con ellas al tiempo que conocían el impacto de la tecnología. En este caso, eso era absolutamente vital: según la ACLU, 26 estados y Washington D.C. consideraban la posibilidad de utilizar herramientas de IA similares para tomar decisiones sobre el bienestar infantil. El artículo fue tan eficaz que el gobierno de Biden se puso en contacto con las fuentes de AP e incorporó sus preocupaciones a su Declaración de Derechos sobre la IA.

A fin de cuentas, Burke cree que corresponde a los lectores decidir en qué dirección se moverá el arma de doble filo de la IA. "Nuestro trabajo no es decir si la IA es buena o mala, sino ayudar al público a entender cómo funcionan estos sistemas", culmina.


Desarmar la desinformación está dirigido por el ICFJ con financiación principal de la Fundación Scripps Howard, organización afiliada al Scripps Howard Fund, que apoya los esfuerzos benéficos de The E.W. Scripps Company. El proyecto, de tres años de duración, capacitará a periodistas y estudiantes de periodismo para luchar contra la desinformación en los medios de comunicación.

Foto de Mick Haupt en Unsplash.