Así trabajaron los medios de Taiwán para combatir la desinformación electoral

por Rowan Philp
Apr 17, 2024 en Lucha contra la desinformación
La bandera de Taiwán en una calle

Mientras decenas de países se preparan para una avalancha de campañas de desinformación locales y extranjeras en sus elecciones de 2024, la reciente experiencia de Taiwán ofrece lecciones útiles para periodistas y defensores de la democracia de todo el mundo, así como un viso muy necesario de esperanza.

A pesar de que las elecciones del 13 de enero pasado se vieron asaltadas por un diluvio de desinformación en internet —en particular, falsas afirmaciones sobre fraude electoral y advertencias sobre una futura guerra por parte de agentes de China—, nuevas investigaciones y coberturas periodísticas independientes revelan que los medios locales, las autoridades electorales y los verificadores de hechos de Taiwán lograron en gran medida repeler los ataques, con técnicas como el "prebunking", la regulación inteligente de las comunicaciones y un esfuerzo deliberado en construir y mantener la confianza hacia los medios de comunicación. Tras la votación, Lai Ching-te, líder del Partido Democrático Progresista, partidario de la soberanía y opuesto al gobierno autocrático de China, fue elegido presidente.

No obstante, las elecciones en Taiwán pusieron de manifiesto tendencias de desinformación que periodistas y verificadores de hechos de otros países deberían tener en cuenta. Estos patrones abarcan desde el uso de inteligencia artificial generativa, hasta la amplificación de propaganda por parte de influencers vía YouTube, así como narrativas de operaciones extranjeras diseñadas para socavar la confianza en la democracia misma en lugar de promover a candidatos individuales.

En un seminario web de la Fundación Thomson titulado "Desinformación e IA: lo que hemos aprendido hasta ahora de las elecciones de 2024", tres expertos compartieron con periodistas su visión sobre las amenazas actuales de desinformación y las lecciones aprendidas en Taiwán.

Los ponentes fueron la profesora Chen-Ling Hung, directora del Instituto de Periodismo de la Universidad Nacional de Taiwán; el experto en elecciones Rasto Kuzel, director ejecutivo de MEMO 98, y Jiore Craig, investigadora residente del Instituto para el Diálogo Estratégico. La sesión fue moderada por Caro Kriel, directora ejecutiva de la Fundación Thomson.

Usa el link checker de CrowdTangle (mientras aún se pueda)

CrowdTangle es la mejor herramienta digital de que han dispuesto los periodistas de investigación en los últimos años para rastrear y localizar campañas de desinformación en línea en todo el mundo. Lamentablemente, Meta cerrará CrowdTangle el 14 de agosto de 2024.

"Mi organización se benefició del acceso a CrowdTangle y estamos muy preocupados por lo que ocurrirá después de agosto, cuando se supone que Meta pondrá fin a esta herramienta, que ha sido absolutamente crucial para nuestras investigaciones", explicó Kuzel. "Lo que CrowdTangle nos ofrecía era acceso a cuentas y grupos públicos, y esto es algo que seguiremos necesitando".

Sin embargo, Craig animó a los periodistas a tomar este decepcionante final como un plazo para utilizar intensivamente la herramienta para rastrear campañas de desinformación actuales o emergentes relacionadas con cualquier elección de 2024. En particular, recomendó a los reporteros aprovechar los últimos meses de la potente extensión Link Checker de CrowdTangle, que muestra publicaciones de Facebook e Instagram que repliquen un determinado enlace.

"Es una herramienta genial, y una de las únicas que teníamos que ayudaba a encontrar la fuente de un contenido", dijo Craig. "Así que instala ese complemento mientras puedas, para mirar la atribución de cualquier propiedad en línea o cualquier fuente de noticias de la que no estés seguro".

Los periodistas también pueden encontrar datos útiles a través de la Meta Content Library y pistas de desinformación en herramientas más recientes, creadas por periodistas, como Junkipedia, que tiene acceso a una docena de redes sociales, incluidos sitios marginales, además de otras funciones. Sin embargo, Kuzel advirtió que "la retirada de datos de Meta también afectará a Junkipedia".

(Para un desglose detallado de las nuevas amenazas de desinformación electoral —y las herramientas para desenmascararlas—, ve al capítulo Mensajes políticos y desinformación de la Guía revisada de elecciones para periodistas de investigación de GIJN, en inglés. Además puedes consultar la completa hoja de consejos de GIJN Cómo identificar e investigar falsificaciones de audio, una de las principales amenazas para las elecciones de 2024).

Unidos contra operaciones de influencia extranjera

Encargado por la Fundación Thomson, el informe sobre la lucha contra la desinformación electoral en las últimas elecciones de Taiwán —del que son coautores Chen-Ling Hung y tres colegas— constata tanto ataques digitales coordinados como una respuesta en gran medida unificada a esa oleada propagandística.

Se observó que "a medida que se acercaba el periodo electoral en Taiwán... los mensajes de los grupos de trolls se volvieron cada vez más alarmistas, centrándose en una retórica bélica destinada a intimidar a la población taiwanesa". De acuerdo con la investigación de Taiwan AI Labs, entre los mensajes de trolls que amplificaban la propaganda de los medios estatales chinos, "la descripción de una amenaza militar china inminente fue la más frecuente, con un 25% de los contenidos de los que se hicieron eco. Le siguieron de cerca las narrativas que sugerían que Estados Unidos estaba manipulando a Taiwán hacia una precaria confrontación militar, que constituyeron el 14,3% del discurso".

La desinformación, de probable origen extranjero, también incluyó difamaciones personales, como afirmaciones falsas sobre el "hijo ilegítimo" de un candidato, y la publicación de un libro electrónico de 300 páginas con afirmaciones falsas sobre la conducta sexual inapropiada del presidente en ejercicio.

Al principio, el libro electrónico confundió a los investigadores taiwaneses porque — como declaró Tim Niven, de DoubleThink Lab, a la revista Foreign Policy—  "estamos en la era de las redes sociales. Nadie va a leer un libro spam que alguien le ha enviado a su correo electrónico".

Pero los investigadores notaron rápidamente que el libro electrónico servía en realidad como "guion para videos de IA generativa" y se utilizaba como fuente supuestamente legítima para campañas de desinformación. Esto tomó la forma de docenas de videos que aparecieron en Instagram y TikTok, con presentadores de noticias e influencers "avatares" generados por IA que utilizaban el libro como una fuente aparentemente autorizada y leían en voz alta breves secciones del texto.

La investigación electoral incluyó entrevistas con cinco grandes medios sobre su estrategia para contrarrestar la desinformación: Taiwan Public Television Service (PTS), Central News Agency (CNA), Radio Taiwan International (RTI), Formosa Television (FTV) y TVBS Media. Los autores afirman que los medios públicos tendían a colaborar con organizaciones de fact-checking y habían "demostrado un fuerte compromiso con las noticias auténticas, utilizando tecnología avanzada y diversas estrategias [para identificar y desacreditar desinformación]". Señalaron que algunos medios privados "tuvieron más dificultades con la desinformación [que los públicos] debido a sesgos políticos y motivos de lucro", pero que en general se hicieron esfuerzos internos de verificación y se aplicaron preguntas periodísticas tradicionales para comprobar afirmaciones en audio y video.

El informe cita al jefe de la redacción de CNA diciendo que "las publicaciones de TikTok, plataforma que se considera profundamente influenciada por el gobierno chino, apenas se citaban en la cobertura informativa de CNA".

Los fact-checkers taiwaneses solían responder rápidamente a las afirmaciones sospechosas, pero a veces no lo bastante rápido. "Lo que más me llamó la atención del informe fue un ejemplo de deepfake cuya respuesta definitiva tardó siete días en llegar", señaló Kriel. "Eso sí que es tiempo perdido y allí florecen las teorías de la conspiración".

"También hemos visto deepfakes en otros países, desde Pakistán hasta el Reino Unido, Eslovaquia, Estados Unidos y otros lugares, y también fuera del contexto electoral: en Sudán, por ejemplo para promover los objetivos de quienes participan en la guerra civil", explicó Craig. "Es tomar un panorama de amenazas en línea que ya era malo, y empeorarlo" (Véase el reciente seminario web de GIJN sobre deepfakes en audio).

A pesar de algunos puntos débiles y de los limitados recursos de las redacciones, Chen dijo que la reacción temprana y un esfuerzo combinado entre sectores protegieron en gran medida el entorno de la información electoral en Taiwán de ser invadido por afirmaciones falsas y mensajes distorsionados.

"Es necesaria la cooperación intersectorial para luchar contra la desinformación: fact-checkers, gobierno, medios tradicionales, plataformas digitales y sociedad civil", explicó Chen. "Se utilizaron técnicas y herramientas avanzadas para combatir la desinformación, y algunas organizaciones invirtieron en técnicas para resolver la desinformación generada con IA, pero no es suficiente: necesitamos invertir más".

Chen dijo que, en general, los votantes estaban preparados para detectar afirmaciones falsas y métodos engañosos gracias a las advertencias preliminares de los medios de comunicación y la sociedad civil en las semanas y meses anteriores a las elecciones, creando una "mejora gradual de la conciencia y la vigilancia de los taiwaneses contra la desinformación".

¿Por qué la confianza en los medios es la salvaguarda definitiva?

"El ejemplo de Taiwán es una gran demostración del poder de mensajeros de confianza para responder a la desinformación generada con IA", dijo Craig. "Los medios de comunicación o cualquier mensajero que se gane la confianza de su audiencia tiene la oportunidad de tomar decisiones impactantes cuando se presenta un ataque de desinformación".

Y agregó: "Para mí, ganar confianza implica ser transparente y revelar información, además de dar prioridad a la audiencia de votantes en lugar de a una audiencia de pares, por ejemplo. Esto significa adaptarse al lugar y formato en que los votantes están recibiendo información en 2024. Por ejemplo, enfocarse en formatos más breves en lugar de solo en formatos largos, y aprovechar medios como la radio y los podcasts".

Los ponentes señalaron que la precisión constante en las coberturas electorales es crucial para ganar la credibilidad necesaria para desacreditar a los desinformadores en vísperas de los plazos de registro de votantes y los días de las elecciones, cuando la amenaza de deepfakes y afirmaciones incendiarias se agrava.

Más que intentar crear conversos políticos, Kuzel dijo que el objetivo de la mayoría de las campañas de desinformación electoral en 2024 es la desvinculación política general "y acabar con el activismo".

Craig estuvo de acuerdo. "A medida que determinados actores intentan socavar nuestra confianza, nos volvemos inseguros, lo cual nos pone emocionales —y luego nos cansamos", explicó. "Y cuando estamos cansados, somos más fáciles de controlar. Esto nos está llevando a un lugar de desinterés y desconexión".

Kuzel afirma que es posible anticiparse, identificar y desmentir las falsedades electorales perjudiciales, porque los desinformadores suelen dar la voz de alarma meses antes de que el ciclo electoral comience en serio. Reconocer y formular respuestas a los mensajes engañosos es clave, porque de lo contrario la desinformación temprana pueden echar raíces.

"Lo que vimos en las elecciones estadounidenses de 2020 fue que las narrativas falsas comenzaron a circular un año antes de las elecciones, con Donald Trump diciendo que podría haber manipulaciones del voto por correo, y amplificándolas después, cuando no reconoció los resultados", señaló Kuzel. "Tenemos que entender las amenazas, e inocular al público contra estas campañas que se avecinan".


Este artículo fue originalmente publicado en GIJN y se traduce y reproduce en IJNet con permiso.

Foto de Lisanto 李奕良 en Unsplash.