IA generativa e seus efeitos na desinformação

Dec 20, 2023 em Combate à desinformação
Chat GPT logo on a phone in front of a computer screen

Desde que o ChatGPT foi lançado para o público em novembro de 2022, a inteligência artificial generativa tem dominado a atenção das pessoas. A tecnologia, que evolui rapidamente, já está gerando impacto em setores como educaçãoturismo e governo. A mídia não será poupada.

A IA generativa muda a forma como o conteúdo é feito e consumido, gerando novos desafios na luta contra a desinformação.

Em uma aula recente do programa Disarming Disinformation: Investigative, do ICFJ, Aimee Rinehart, gestora de produtos sênior de estratégia de IA da AP, compartilhou insights sobre IA generativa e como ela afeta a desinformação.  

A seguir está o que jornalistas precisam saber atualmente:

Imagens

Rinehart sugeriu três formas pelas quais jornalistas podem determinar se uma imagem foi gerada por IA:

1) Procure detalhes peculiares em pessoas, como mãos distorcidas, uma perna extra ou acessórios que não combinam.

2) Verifique se há distorções ou borrões no fundo das imagens, e analise sombras ou a falta delas ao buscar legitimidade. 

3) Encontre outros ângulos ou outras fotos para confirmar detalhes na imagem.

Rinehart também compartilhou o método SIFT para verificação de fatos: Pare (Stop), Investigue a Fonte (Investigate), Encontre uma Cobertura Melhor (Find), Rastreie afirmações, falas e conteúdo de mídia até identificar seu contexto original (Trace). O método foi desenvolvido por Mike Caulfield, pesquisador do Centro para um Público Informado da Universidade de Washington.

"Estamos entrando em uma era de novas tecnologias, mas é uma ótima ideia voltar ao básico para que você possa identificar a fonte do conteúdo", disse Rinehart.

Antes de compartilhar uma imagem polêmica ou questionável com outras pessoas, pense com cuidado sobre a validade dela. Procurar por detalhes estranhos ou verificar ângulos e outras imagens pode ajudar a determinar a legitimidade e impedir a disseminação de informação falsa.

Dano público e impacto

Neste ano, as principais plataformas de redes sociais voltaram atrás em seus esforços para combater a desinformação. Consequentemente, de agora em diante pode haver menos supervisão das medidas de proteção online. Isso pode aumentar a vulnerabilidade do público à desinformação.

Nos Estados Unidos, líderes políticos republicanos também estão tentando limitar os gastos federais em pesquisas sobre informações falsas online. Os cortes no financiamento e em recursos provavelmente vão impactar nosso entendimento de como a população é afetada pela disseminação de desinformação.

"Isso causou um verdadeiro efeito de congelamento nos fundos voltadas para a pesquisa de desinformação. Provavelmente vamos saber menos sobre as eleições de 2024 por causa disso e não vamos entender de verdade nem quais nem se vai haver danos", disse Rinehart.

Mesmo assim, não é uma conclusão precipitada dizer que a IA generativa vai intensificar o consumo de desinformação. Em um estudo recente, pesquisadores descobriram que o fato de haver uma grande quantidade de conteúdo falso gerado por IA não significa necessariamente que as pessoas vão consumir mais conteúdo falso.

"Se as pessoas quiserem conteúdo problemático, elas vão conseguir. Não é como se elas fossem inundadas e ficassem sem saída saída para buscar outra coisa e sem alternativa a não ser ver conteúdo problemático e compartilhá-lo", disse Rinehart. 

Melhorias tecnológicas

Atualizações na tecnologia de IA estão melhorando a qualidade do conteúdo, por exemplo com detalhes mais realistas.

"O DALL-E3 e provavelmente o ChatGPT4 e outros avanços vão fazer suposições melhores sobre o que você quer dizer com o seu comando", disse Rinehart. 

Pesquisadores e desenvolvedores de software mostraram que atualizar e melhorar a IA generativa é tanto financeiramente acessível quanto factível. Um estudo da WIRED mostrou como desenvolvedores conseguiram manipular softwares para gerar conteúdo anti-Rússia por apenas US$ 400. Um cientista de dados da Nova Zelândia conseguiu criar um chatbot com tendências de direita por menos de US$ 300.

"Você pode esperar ver outras pessoas usando isso a seu próprio favor, estejam elas concorrendo nas eleições ou administrando um negócio, e com muito a ganhar ao mudarem a narrativa", disse Rinehart.

Algumas empresas estão fazendo esforços pioneiros para rastrear imagens geradas por IA, embora com taxas de sucesso variadas até o momento. Marcas d'água, por exemplo, podem ser facilmente burladas ou manipuladas. A OpenAi está desenvolvendo uma ferramenta de aprendizado de máquina para determinar imagens criadas pelo DALL-E, com uma expectativa de 99% de precisão.

Implicações para as eleições

A IA generativa vai ser influente na realização de eleições em muitos países em 2024. Nos Estados Unidos, a IA generativa já está sendo usada em conteúdos eleitorais com ataques nos formatos de anúncios, áudio, vídeo e imagens.

A equipe de campanha do candidato republicano à presidência Ron DeSantis gerou imagens falsas do ex-presidente Donald Trump e do ex-conselheiro médico chefe da Casa Branca Anthony Fauci se abraçando. Em outro anúncio, um grupo de DeSantis usou IA para gerar a voz de Trump em um vídeo que atacava o governador republicano de Iowa, Kim Reynolds.

Em países onde as pessoas falam muitos idiomas, a IA generativa pode ajudar campanhas políticas a chegarem a audiências diversas que em outras circunstâncias não seriam alcançadas. Por exemplo, na Índia, a IA generativa foi usada em uma música humorística viral sobre o atual primeiro-ministro Narendra Modi em sete línguas diferentes.

"O ChatGPT está no radar das pessoas. Eu acho que se você é um verificador de fatos, você já viu as ramificações, principalmente nos EUA", disse Rinehart. "Sendo um verificador de fatos nos EUA, provavelmente você já está familiarizado com o fato de que o seu trabalho vai ser mais difícil nos próximos dois ou três anos. Se há um momento para compartilhar recursos, táticas e técnicas, o momento é agora."


Foto por Mojahid Mottakin via Unsplash.

O programa Disarming Disinformation é realizado pelo ICFJ com financiamento da Scripps Howard Foundation e organizações afiliadas ao Scripps Howard Fund, que apoia os esforços beneficentes da E.W. Scripps Company. O projeto de três anos vai empoderar jornalistas e estudantes de jornalismo para combater a desinformação na mídia.