O que jornalistas devem saber sobre desinformação gerada por IA

Nov 2, 2023 em Combate à desinformação
Futuristic sphere

O temor pela desinformação gerada por IA é generalizado. Jornalistas e especialistas alertam que ela pode ser usada para enganar o público, influenciar profundamente os espectadores e incitar a violência.

Embora essas preocupações sejam amplamente expressas, o impacto preciso da desinformação gerada por IA ainda não é claro. No entanto, o que é evidente é que nós podemos esperar uma explosão na desinformação devido à IA.

IA e desinformação atualmente

As tecnologias de IA, como software de clonagem de voz, grandes modelos de linguagem e geradores de texto para imagem, facilitaram a criação de conteúdo enganoso. Particularmente, nas redes sociais, não é incomum se deparar com vídeos, fotos e áudios falsos gerados por IA.

Em um exemplo recente, vídeos do presidente dos EUA Joe Biden foram combinados para criar um vídeo de deboche que retratava um dia fictício em sua vida. A voz do vídeo soa preocupantemente como a do próprio Biden, apesar de o conteúdo da fala ser falso. Usuários da internet também manipularam imagens da prisão de Trump e editaram fotos que retratavam o primeiro-ministro da Índia Narendra Modi e a primeira-ministra da Itália Giorgia Meloni se casando.

Apesar do aumento em volume, um artigo revisado por pares publicado neste mês pela Misinformation Review, da Harvard Kennedy School, argumenta que, em relação ao conteúdo falso e enganoso, "as preocupações atuais sobre os efeitos da IA generativa são exageradas".

Mesmo se supormos que a quantidade de conteúdo enganoso criado por IA generativa vai crescer, ele vai ter "muito pouco espaço para operar", defende o artigo da Harvard. Embora uma quantidade significativa de desinformação circule online, ela é consumida por apenas uma pequena fração, aproximadamente 5%, dos consumidores de notícias nos EUA e na Europa.

"É o tipo de coisa que as pessoas podem tomar como válidas, e é fácil contar a nós mesmos a história de que o conteúdo gerado automaticamente vai ser um problema", diz Andrew Dudfield, chefe de produto do Full Fact, organização de verificação de fatos do Reino Unido.

Esses argumentos partem do fato de que modelos existentes de desinformação já são eficazes sem usar IA. Eles também enfatizam que as previsões de que o conteúdo gerado por IA vai ter consequências maiores devido ao aprimoramento de sua qualidade carecem de evidência concreta e continuam sendo especulativas. 

"Acho que ainda não chegamos a esse ponto", diz Aimee Rinehart, gerente sênior de produto de estratégia de IA da Associated Press. "É óbvio que vamos ter alguns problemas. Mas não sei se a internet já está colapsando em informação que é problemática."  

Por que acreditamos em desinformação

Embora as organizações de mídia estejam preocupadas com conteúdo realista gerado por IA, as "pessoas tendem a acreditar simplesmente em uma imagem alterada no Photoshop de um político com uma frase falsa que nunca foi dita", diz David Fernández Sancho, CTO da Maldita.es, organização de verificação de fatos espanhola.

Pode-se dizer que a eficácia das campanhas de desinformação não dependem da qualidade do conteúdo, mas das crenças preexistentes das pessoas de que algo possa ser verdade.   

Um estudo feito por pesquisadores da Universidade de Nova York que tentou entender como o partidarismo impacta a crença e disseminação de desinformação descobriu que "as pessoas estavam mais propensas a acreditar e compartilhar notícias condizentes com sua identidade política". Outro estudo, intitulado Por que acreditamos em notícias falsas, descobriu que a aceitação de informações falsas é resultado de vieses cognitivos em vez de ingenuidade. O artigo acrescenta que partidarismo ou orientações políticas têm um impacto naquilo que as pessoas acreditam ou rejeitam no noticiário. 

Chris Wiggins, professor de matemática aplicada e biologia de sistemas da Universidade Columbia, explica que as pessoas visitam plataformas de informação por diferentes razões. Dentre elas, as pessoas querem reafirmar suas crenças preexistentes e conectar-se com pessoas que pensam igual, em busca de inclusão social.

"Há a necessidade de ser incluído e de sentir essa conexão social com outras pessoas", diz. "Você vê alguém [...] com quem você se identifica porque você leu o conteúdo dessa pessoa antes – é mesmo como esse sentimento de inclusão, como se eu fosse parte desse grupo de pessoas que acredita em tal coisa."

Uso da IA para combater desinformação

Jornalistas, pesquisadores e formuladores de políticas também podem aproveitar a IA para analisar e ajudar a combater o volume desafiador de desinformação que enfrentam, seja ou não gerado por IA.

Porém, Dudfield alerta contra a verificação de fatos totalmente automatizada nesse estágio, observando que a mente humana é mais bem equipada para encontrar "contexto, ressalvas e nuances" em um conteúdo online. "A IA é muito boa em fazer outra coisa, que é trazer ordem para o caos", diz. Ela é excelente para organizar informação desestruturada, identificando padrões e agrupando dados similares, o que otimiza a verificação de fatos. Ao criar uma lista de conteúdo mais fácil de gerir que pode ser verificada por verificadores de fatos humanos, ela pode economizar tempo considerável em comparação ao monitoramento manual.

O Full Fact, por exemplo, desenvolveu um software chamado Full Fact AI, que ajuda os verificadores de fatos a identificar conteúdo que pode ser checado – como afirmações, por oposição a opiniões e suposições – e determina quem fez aquelas afirmações, onde elas foram ditas e o tópico do conteúdo. Isso ajuda a agrupar afirmações semelhantes, permitindo que os verificadores identifiquem melhor o que é mais importante de ser checado. 

Maldita.es, da Espanha, usa IA para identificar e categorizar narrativas comuns em diferentes fontes de notícias, facilitando o rastreamento das fontes de conteúdo enganoso. "Se vemos, por exemplo, muito conteúdo em um espaço curto de tempo que compartilha a mesma narrativa, é possível que seja algo organizado e que não é simplesmente conteúdo orgânico que foi criado", diz Fernandez, acrescentando que isso pode ajudar a identificar campanhas de desinformação coordenadas.

O Maldita.es também é parte de um consórcio do projeto AI4TRUST, da União Europeia, que vai desenvolver um sistema híbrido "no qual máquinas cooperam com humanos" para permitir monitoramento em tempo real de plataformas sociais para identificar conteúdo potencialmente enganoso em vários formatos e linguagens para serem analisados por especialistas.

Abrindo o espaço de possibilidades

Talvez ainda seja cedo demais para prever as implicações exatas da IA no ecossistema de desinformação. Mas é evidente que, além dos alertas, a IA também pode ser benéfica para jornalistas e verificadores de fatos combaterem o aumento de conteúdo falso.

A primeira lei da tecnologia de Kranzberg — "a tecnologia não é nem boa nem má; nem é neutra" — faz sentido. "Toda tecnologia abre o espaço de possibilidades para as pessoas", diz Wiggins. "Algumas pessoas vão usá-la para os direitos e justiça, e outras pessoas vão usá-la para a opressão e dano."


Foto por Michael Dziedzic via Unsplash.