Enquanto vários países se preparam para um ataque de campanhas digitais de desinformação locais e estrangeiras em suas eleições de 2024, a experiência recente de Taiwan traz lições úteis para jornalistas e defensores da democracia do mundo todo, assim como uma dose necessária de esperança.
Apesar de a eleição de 13 de janeiro ter sido atingida por uma enxurrada de desinformação online, principalmente com alegações de fraudes nos votos e alertas extremos de uma futura guerra com a China, novas pesquisas e relatos jornalísticos independentes revelam que a mídia local, autoridades eleitorais e verificadores de fatos em Taiwan foram amplamente bem-sucedidos na contenção dos ataques, com técnicas como o desmascaramento antecipado, regulamentação inteligente da comunicação e um foco deliberado na confiança na mídia. Após a votação, Lai Ching-te, chefe do Partido Democrático Progressivo, legenda pró-soberania que tem a oposição do governo comunista autocrático da China, foi eleito presidente.
Mas a eleição em Taiwan também revelou tendências da desinformação a serem observadas por jornalistas e verificadores de fatos em outros países. Os padrões incluem o uso de IA generativa em deepfakes, intensificação de propaganda por influenciadores populares no YouTube e narrativas de operações estrangeiras criadas para minar a confiança na democracia, em vez de promover candidatos.
No webinar Desinformação e IA: o que aprendemos até agora com as eleições 2024, organizado pela Thomson Foundation, três especialistas compartilharam lições de Taiwan e ideias para jornalistas que enfrentam ameaças contínuas de desinformação.
Dentre os participantes estavam a professora Chen-Ling Hung, diretora do Instituto de Jornalismo da Universidade Nacional de Taiwan; o especialista eleitoral Rasto Kuzel, diretor-executivo do MEMO 98; e Jiore Craig, membro do Instituto para o Diálogo Estratégico. A sessão foi moderada por Caro Kriel, chefe-executiva da Thomson Foundation.
Use o verificador de links do CrowdTangle enquanto é possível
Repórteres devem aproveitar os últimos meses de funcionamento do poderoso verificador de links do CrowdTangle, que mostra postagens do Facebook e Instagram que incluem um determinado link, indicando artigos, vídeos do YouTube e outra plataformas.
Contrastando com os resultados positivos da resiliência de Taiwan, um ponto triste no painel foi o descontentamento dos participantes com o encerramento do CrowdTangle anunciado pela Meta e programado para o dia 14 de agosto de 2024. A ferramenta é o melhor recurso digital investigativo que os repórteres tiveram nos últimos anos para rastrear e monitorar campanhas de desinformação online no mundo todo.
"A organização onde trabalho se beneficiou do acesso ao CrowdTangle e estamos muito preocupados com o que vai acontecer depois de agosto, quando a Meta descontinuar a ferramenta, que tem sido absolutamente crucial para a nossa pesquisa", explicou Kuzel. "O que o CrowdTangle fornecia era o acesso a contas e grupos públicos, e isso é algo que vamos continuar precisando."
No entanto, Craig encorajou os repórteres a encararem esse final decepcionante como um prazo investigativo para usar intensamente a ferramenta e monitorar campanhas de desinformação atuais ou que estejam surgindo que envolvam qualquer eleição em 2024.
"É uma ferramenta incrível, e uma das únicas que tínhamos que ajudava com o trabalho de atribuição", disse Craig sobre o recurso de verificação de links. "Portanto, instale a ferramenta enquanto é possível e pesquise a atribuição de qualquer propriedade online ou fonte de notícia sobre a qual você tenha dúvidas."
Repórteres ainda conseguem encontrar dados úteis na biblioteca de conteúdo da Meta e pistas sobre desinformação em novas ferramentas criadas para jornalistas, como a Junkipedia, que tem acesso a várias plataformas de redes sociais, sites suspeitos e vários outros recursos. Porém, Kuzel alertou que "a indisponibilidade de dados a partir da decisão da Meta também vai afetar a Junkipedia".
(Para uma explicação detalhada de novas ameaças de desinformação eleitoral e as ferramentas para desmascará-las, leia o capítulo sobre desinformação e comunicação política no Guia Revisado de Eleições para Repórteres Investigativos. Para analisar deepfakes de áudio, leia o material abrangente produzido pela GIJN sobre o tema, Como identificar e investigar deepfakes de áudio, uma das principais ameaças às eleições 2024)
A resposta unificada da mídia pública de Taiwan a operações de influência estrangeira
Um relatório sobre o combate à desinformação nas eleições mais recentes de Taiwan encomendado pela Thomson Foundation, e feito em coautoria por Chen-Ling Hung e três colegas, identificou tanto ataques digitais coordenados quanto uma resposta amplamente unificada a essa onda de propaganda.
O relatório observou que "com a proximidade do período eleitoral em Taiwan, as mensagens de grupos de trolls foram se tornando cada vez mais alarmistas, focando em retórica de guerra com o objetivo de intimidar o povo taiwanês". De acordo com uma pesquisa do Taiwan AI Labs, tendo em vista as mensagens que espalharam propaganda da mídia estatal chinesa, "foram prevalentes conteúdos que retratavam uma iminente ameaça militar chinesa, correspondendo a 25% das publicações. Em segundo lugar, compondo 14,3% do discurso, ficaram narrativas sugerindo que os EUA estavam manipulando Taiwan rumo a um precário confronto militar".
Outros tipos de desinformação, possivelmente de origem estrangeira, também incluíram calúnias pessoais, dentre elas alegações falsas sobre o "filho ilegítimo" de um candidato e o lançamento de um ebook de 300 páginas com alegações falsas sobre o atual presidente e comportamento sexual supostamente inapropriado.
A princípio, o ebook confundiu os pesquisadores taiwaneses porque, conforme disse Tim Niven, do DoubleThink Lab, à revista Foreign Policy, "essa é a era das redes sociais. Ninguém vai ler um livro com jeito de spam enviado por email".
Mas rapidamente os pesquisadores viram que o ebook servia como "um script para vídeos de IA generativa" e era usado como uma fonte supostamente legítima para campanhas de desinformação. O resultado foram vídeos no Instagram e TikTok com um avatar de apresentadores de telejornal e influenciadores gerados por IA usando o livro como uma fonte de aparente autoridade e lendo pequenos trechos do texto.
A pesquisa sobre as eleições incluiu entrevistas com cinco grandes veículos jornalísticos sobre suas estratégias para conter a desinformação: o Serviço Público de TV de Taiwan (PTS), Central News Agency (CNA), Radio Taiwan International (RTI), Formosa Television (FTV) e a TVBS Media. Os autores afirmaram que a mídia pública tendeu a colaborar com as organizações de verificação de fatos e "demonstrou um forte comprometimento com notícias autênticas, usando tecnologia avançada e várias estratégias para identificar e desmascarar desinformação". Eles observaram que alguns veículos comerciais "tiveram mais dificuldade com a desinformação do que a mídia pública devido a vieses políticos e motivações de lucro", mas no geral houve esforços internos de verificação e questionamentos tradicionais do jornalismo foram aplicados para verificar informações, particularmente conteúdos em áudio e vídeo.
O relatório citou o chefe de redação da CNA dizendo que "publicações no TikTok, que é considerado profundamente influenciado pelo governo chinês, dificilmente eram citadas na cobertura da CNA".
No geral, os verificadores de fatos taiwaneses responderam rapidamente a alegações suspeitas, mas às vezes não rápido o bastante. "O que me chamou atenção no relatório foi um exemplo de um deepfake de IA na eleição em que levaram sete dias para trazer uma resposta definitiva", observou Kriel. "Isso é realmente um tempo perdido, e é quando as teorias da conspiração prosperam."
"Nós também vimos deepfakes em outros países e contextos, do Paquistão ao Reino Unido, Eslováquia, Estados Unidos e outras partes, e também fora do contexto eleitoral — por exemplo, no Sudão, para promover os objetivos das pessoas envolvidas na guerra civil do país", explicou Craig. "Isso está deixando ainda pior um cenário de ameaças online que já era ruim." (Veja o webinar recente da GIJN sobre investigação eleitoral e ameaças de deepfakes de áudio feitos com IA)
Apesar de alguns pontos fracos e recursos limitados das redações, Chen disse que uma comunicação antecipada e esforços combinados entre setores protegeram em grande medida o ambiente de informações eleitorais em Taiwan de uma infestação de informações falsas e distorcidas.
"É preciso cooperação entre setores para combater a desinformação — verificadores de fatos, governos, mídia tradicional, plataformas digitais e sociedade civil", explicou Chen. "Foram usadas técnicas e ferramentas avançadas para combater a desinformação e algumas organizações investiram em técnicas para lidar com a desinformação em IA, mas isso não é o bastante; precisamos investir mais."
Chen disse que os leitores, no geral, estavam preparados para identificar informações falsas e métodos enganosos graças a alertas preliminares da mídia e da sociedade civil nas semanas e meses que antecederam o dia de votação, criando uma "melhora gradual da conscientização da população taiwanesa e da vigilância contra a desinformação".
Por que a confiança na mídia é a melhor defesa?
"O exemplo de Taiwan é uma grande demonstração do poder de comunicadores de confiança na resposta às ameaças de desinformação gerada por IA", disse Craig. "O veículo ou qualquer comunicador que ganhar a confiança da audiência tem a oportunidade de fazer escolhas de maior impacto quando houver um ataque de desinformação."
Ela acrescenta: "para mim, ganhar a confiança significa tanto divulgação quanto transparência, bem como priorizar a audiência de eleitores em vez de uma audiência público-alvo, por exemplo, para chegar aos eleitores onde eles estiverem consumindo informação em 2024. Por exemplo, formatos curtos em vez de formatos longos, rádio, podcasts, etc.
Os participantes observaram que a precisão consistente em outras matérias sobre eleições é essencial para ganhar a credibilidade necessária para desmascarar esforços de desinformação em "pontos críticos" nas vésperas dos prazos de registro eleitoral e no dia de votação, quando a ameaça de deepfakes e alegações incendiárias se agravam mais.
Em vez de tentar criar convertidos políticos, Kuzel disse que o objetivo da maior parte das campanhas de desinformação eleitoral em 2024 era estimular a falta de envolvimento político generalizado e "matar o ativismo".
Craig concordou. "À medida que agentes mal intencionados tentam quebrar nossa confiança, ficamos inseguros e isso nos deixa emotivos, e aí ficamos cansados", explicou. "E quando ficamos cansados, somos controlados com mais facilidade. Isso nos leva para um lugar de desinteresse."
Kuzel disse que antecipar, identificar e desmascarar com antecedência informações eleitorais falsas e danosas é factível porque os agentes mal intencionados revelam suas intenções meses antes do ciclo eleitoral de fato começar. Reconhecer e formular respostas a conteúdos enganosos é fundamental, porque de outro modo tópicos embrionários de desinformação podem se enraizar.
"O que nós vimos nas eleições de 2020 dos EUA foi que narrativas manipuladoras começaram a circular um ano antes das eleições, com o Trump dizendo que podia haver manipulação no voto pelo correio; e depois ele intensificou isso ao não reconhecer os resultados", observou Kuzel. "Nós precisamos entender as ameaças e imunizar o público contra elas nas próximas campanhas."
Foto por Lisanto 李奕良 via Unsplash.
Este artigo foi originalmente publicado na GIJN e republicado na IJNet com permissão.