Como informar sobre IA durante o período eleitoral

Jan 3, 2024 em Combate à desinformação
Hand holding "I Voted" Sticker

De geradores de imagens a chatbots, a inteligência artificial (IA) está por toda parte atualmente; alguns serviços de IA ostentam centenas de milhões de usuários. Com uma eleição crucial que acabou de ser concluída na Argentina e muitas mais se aproximando em todo o mundo em 2024, as pessoas estão preocupadas com a capacidade da IA de espalhar desinformação eleitoral.

Embora algumas dessas preocupações possam ser exageradas, ainda assim é vital que jornalistas entendam como o campo crescente da IA pode afetar a esfera política.

Em uma aula especial realizada recentemente pelo programa Disarming Disinformation: Investigative do ICFJ, a jornalista investigativa global da AP Garance Burke discutiu como informar sobre as interações da IA com a política de forma eficaz.

Volte ao básico

Aprender termos básicos é um bom ponto de partida quando se está pesquisando sobre IA e seus impactos. A seguir estão algumas definições importantes que você deve lembrar:

  • Inteligência artificial ou IA é o termo abrangente para sistemas computacionais, softwares ou processos que imitam aspectos da cognição humana. Nenhuma IA está em pé de igualdade com o cérebro humana – ainda;
  • Um algoritmo é uma sequência de instruções para a resolução de um problema ou realização de uma tarefa. Algoritmos são a base de softwares de fala e reconhecimento facial, bem como de ferramentas preditivas, que analisam dados passados para prever eventos futuros ou padrões;
  • Grandes Modelos de Linguagem ou LLM na sigla em inglês são sistemas de IA que usam estatísticas para descobrir padrões em dados escritos, que então são usados por esses modelos para gerar respostas a perguntas. O ChatGPT é um exemplo de LLM; em sua essência, esses sistemas examinam grandes quantidades de dados da internet para prever como as palavras podem ser combinadas em uma frase e, com isso, imitam o que encontram.

Ao entrevistar fontes a respeito de sistemas de IA, é importante também fazer perguntas básicas. Como esses sistemas funcionam? Onde estão sendo usados? O que eles fazem e o quão bem estão fazendo seu trabalho?

"É importante desmistificar as formas pelas quais essas ferramentas funcionam e ajudar a introduzir o assunto ao seu público para que ele também possa entendê-lo", disse Burke.

Durante eleições, mantenha essa mentalidade de simplicidade ao falar com observadores eleitorais e gestores de campanhas. Pergunte-se a si mesmo, disse Burke: "se eu fosse um gestor de campanha, o que eu gostaria de prever? Quais dados seriam úteis pra mim?"

Pesquise recursos

Em um assunto tão carregado de tecnologia como a IA, recursos externos podem ajudar jornalistas a entender e comunicar o verdadeiro impacto dessas ferramentas nas eleições. O manual de redação da AP (que pode ser acessado com assinatura) adicionou recentemente um capítulo inteiro sobre cobertura de IA. O Instituto Aspen também tem cartilhas sobre IA para jornalistas.

Se você mora em um país onde a tecnologia de IA está se desenvolvendo rapidamente, pode ser fácil encontrar gurus de tecnologia e especialistas em IA. Se não, Burke recomendou falar com acadêmicos que estudam IA, bem como ONGs preocupadas com privacidade, direitos digitais e monitoramento de modelos de IA. Alguns exemplos são a Privacy International, Human Rights Watch, Anistia Internacional e Electronic Frontier Foundation.

Independentemente de onde você mora, uma vez que comece a investigar IA, é fundamental buscar especialistas que possam fornecer explicações e insights. "A IA é um desses domínios em que engenheiros sentem que os jornalistas nunca entendem de verdade", disse Burke. "Você sempre vai ter um monte de gente que vai sentir a necessidade de te falar como as coisas funcionam desde o princípio e isso é bom, porque vai aumentar sua própria confiança e compreensão.

Pense regionalmente

Em alguns países, a IA vai ser usada durante o período eleitoral para espalhar informação, tanto confiável quanto falsa. Em outros, a IA não será tão importante para o resultado de uma eleição. Considere o local sobre o qual você vai informar e qual a probabilidade de uso da IA nesse lugar – e qual vai ser a eficácia dela entre os eleitores do local em questão.

"Eu acompanhei uma campanha no Istmo de Tehuantepec [no México] e a eleição foi ganha à base da distribuição de camisetas e sacos de feijão para pessoas que realmente precisavam de ajuda econômica básica", disse Burke. "Então, não acho que toda eleição vai recorrer ao uso de chatbots para espalhar desinformação." 

Mesmo se você mora e trabalha em uma região onde a IA desempenha um papel pequeno ou inexistente na disseminação de desinformação, ainda assim vale a pena pesquisar quais tipos de dados estão disponíveis para campanhas e grupos de interesse. Saiba como os dados podem ser usados para influenciar eleitores.

Por exemplo, a AP descobriu que em países como China, Israel, Austrália e Índia, dados de vigilância em massa coletados para rastrear casos de COVID-19 estavam sendo usados em conjunto com ferramentas de IA para reprimir protestos, ameaçar cidadãos e assediar comunidades marginalizadas.

Entenda os limites da IA

A IA pode parecer um monólito confuso, e até mesmo assustador, para jornalistas e público.

"Tenha uma base sobre o que esses modelos podem ou não podem fazer para pensar sobre como eles podem ser usados para espalhar desinformação eleitoral ou aprofundar as ameaças à confiança do público", disse Burke.

Por exemplo, é improvável que a IA vá criar e espalhar espontaneamente uma nova narrativa falsa sobre eleições, no estilo das conspirações em torno do voto por correio ou de eleitores zumbis que se espalharam nos EUA. Mas alguém pode usar ferramentas de IA para localizar e atingir pessoas suscetíveis à desinformação. E uma vez que conteúdo falso começa a circular, um chatbot de IA com dados agregados da internet pode regurgitar essa informação como um fato.

"Por favor, tenha em mente que essas ferramentas são construídas por humanos" disse Burke. "Não caia no mito de que computadores podem pensar por si próprios."

Coloque as pessoas em primeiro lugar

Colocar comunidades e pessoas no centro das coisas, em vez de códigos e processos, pode fazer com que uma matéria repercuta melhor entre os leitores. Burke usou como exemplo a cobertura da AP sobre uma ferramenta de triagem de bem-estar infantil no condado de Allegheny. A redação publicou duas matérias diferentes sobre a ferramenta, a primeira em abril de 2022 e a segunda em janeiro de 2023.

Embora a equipe investigativa da AP tivesse muita informação sobre os algoritmos por trás da ferramenta, os jornalistas optaram por focar nas pessoas afetadas pelo seu uso. A primeira matéria mostrou um advogado da família no condado e outros empregados no sistema de bem-estar infantil cujo trabalho e tomada de decisão foram afetados pelo algoritmo.

Falando sobre uma terapeuta de família que se demitiu em 2020 devido a frustrações com o sistema de Allegheny, Burke contou: "ela disse que 'mesmo que criassem uma ferramenta perfeita, não importaria porque ela é criada a partir de sistemas de dados muito imperfeitos".

A segunda matéria focou em um casal com deficiência cuja filha foi levada para uma instituição de acolhimento familiar. Eles acreditavam que suas deficiências fizeram com que a ferramenta de triagem os rotulasse como um risco à segurança de sua filha.

Com o foco nas pessoas afetadas, os leitores puderam ter mais empatia com os envolvidos ao mesmo tempo em que aprendiam sobre o impacto da tecnologia. Neste caso, isso foi absolutamente vital: de acordo com a União Americana pelas Liberdades Civis, 26 estados e Washington D.C. consideraram o uso de ferramentas de IA similares para tomar decisões sobre o bem estar-infantil. A matéria foi tão eficaz que o governo Biden entrou em contato com as fontes da AP e incorporou as preocupações delas na Declaração de Direitos de IA

No fim das contas, Burke acredita que cabe aos leitores decidir para qual lado a faca de dois gumes da IA deve oscilar. "Nosso trabalho não é dizer se a IA é boa ou má, e sim ajudar as pessoas a entenderem como esses sistemas funcionam", disse.


O projeto Disarming Disinformation é realizado pelo ICFJ com financiamento da Scripps Howard Foundation, organização afiliada ao Scripps Howard Fund, que apoia os esforços beneficentes da The E.W. Scripps Company. O projeto de três anos vai empoderar jornalistas e estudantes de jornalismo para combater a desinformação no noticiário.

Foto por Mick Haupt via Unsplash.