Ferramenta de detecção de IA ajuda jornalistas a identificar e combater deepfakes

Nov 27, 2024 em Combate à desinformação
A tic-tac-toe board with human faces as digital blocks, symbolizing how AI works on pre-existing, biased online data for information processing and decision-making

A personalização permitida pelas redes sociais expandiu o alcance e o poder da desinformação.

Popularizada pela explosão do TikTok e a seção "Para Você" — um fluxo infinito de conteúdo baseado nos interesses do usuário, determinado por informações obtidas a partir do histórico de navegação, engajamento e localização — plataformas como Instagram, YouTube e X adotaram o modelo e criaram suas próprias versões. O Instagram começou a mostrar postagens recomendadas no feed principal em 2018 e, em 2020, implementou o Reels, um recurso de vídeo curto no estilo do TikTok. O YouTube introduziu o Shorts, de conceito similar, no mesmo ano e o X adicionou sua própria aba "Para Você" no início de 2023. 

Esses desdobramentos transformaram o modo como usuários consomem conteúdos nas redes sociais, diz Sejin Paik, gerente de produto da TrueMedia.org. "Não importa quem você segue, você vai ter acesso a conteúdos por meio das decisões daquilo que o sistema deles pensa", diz. 

Informações falsas coexistem com conteúdo factual nesse ambiente digital, dando cobertura para os deepfakes — imagens ou vídeos hiper-realistas manipulados artificialmente para mostrar alguém fazendo ou dizendo algo. Às vésperas da eleição 2024 dos EUA, vídeos de deepfakes com discursos que nunca aconteceram, fotos de guarda-costas de Donald Trump rindo após ele ser atingido por um tiro em julho e capturas de telas de matérias com desinformação eleitoral apareceram ao lado de notícias legítimas, borrando os limites entre o que é real e o que não é.

Com as tecnologias de IA generativa se desenvolvendo, tornando-se mais fáceis de usar e mais acessíveis, vai ser ainda mais difícil avaliar a autenticidade de postagens nas redes sociais. Uma ferramenta de detecção de IA criada pela TrueMedia pretende ajudar por meio da identificação de sinais de imagens e vídeos manipulados publicados nas redes.

Deepfakes e desinformação

O especialista em IA Oren Etzioni fundou a TrueMedia em janeiro de 2024 motivado por preocupações que tinha em torno do impacto desse tipo de tecnologia em um ano eleitoral. Organização sem fins lucrativos voltada para pesquisadores, engenheiros e cientistas sociais, a TrueMedia tem o objetivo de criar tecnologia que trate de problemas sociais — o que Paik chama de "sociotecnologia".

Com a disponibilização dessas tecnologias para o público, conteúdos criados artificialmente proliferaram como uma ferramenta para manipulação política e jornalistas temem que o impacto delas só vai aumentar à medida que vão sendo aprimoradas.

O modelo de página "Para Você" dá um alcance mais amplo a essa desinformação mais sofisticada, segundo Paik. As postagens ganham tração ao tirarem vantagem dos algoritmos que decidem o que é popular, independentemente das contas por trás do conteúdo. A informação que aparece no feed dos usuários geralmente se enquadra em seus interesses e crenças, e o conteúdo mostrado — real ou não — é personalizado para obter curtidas e recompartilhamentos para expandir o alcance.

Os deepfakes têm um potencial enorme neste ambiente. Eles podem representar qualquer coisa, desde o Papa Francisco usando roupas assinadas por estilistas a um noticiário inteiramente falso. E o uso desse recurso está crescendo exponencialmente: mais de 500.000 deepfakes foram compartilhados em 2023. Por mais predominante que esse tipo de conteúdo já seja, jornalistas dizem que a revolução da IA está apenas começando.

Detecção de deepfakes

Jornalistas podem usar o detector de deepfake da TrueMedia para identificar se um vídeo ou imagem foi criado com IA.

A ferramenta é simples: os usuários enviam um link de alguma rede social para o detector, que por sua vez passa o conteúdo em uma série de softwares criados por empresas de tecnologia parceiras para determinar o percentual de probabilidade do conteúdo ter sido gerado artificialmente.

Mas Paik alerta que a ferramenta não consegue detectar todo conteúdo falso. Por exemplo, ela tem dificuldade de detectar cheapfakes — fakes baratos, que consistem em fotos ou vídeos criados por humanos usando software de edição sem recursos de IA. Quem atua com desinformação nas redes também começou a criar alternativas, como sobrepor deepfakes em conteúdo real para driblar o processo de detecção.

Em última análise, quanto maior o aumento do poder da IA, maior também será o poder das ferramentas de detecção. "Estamos longe de conseguir acertar 100% das vezes, mas esta é uma das muitas formas inteligentes de chegar perto", diz Paik. "Se estão criando deepfakes de IA, nós vamos usar IA para combatê-los."

Combinando o processo de detecção com o jornalismo

Com a enxurrada de conteúdos falsos inevitavelmente seguindo seu curso nas redes sociais, jornalistas não devem contar unicamente com a detecção para combater os deepfakes, argumenta Paik. Eles precisam explorar as fontes, a lógica e o impacto da desinformação.

Por exemplo, postagens falsas geradas por IA sobre furacões recentes nos EUA, mostrando comunidades inundadas e destruídas, proliferaram nas redes sociais. Embora algumas pessoas que repostaram essas imagens e vídeos soubessem que elas eram falsas, inclusive políticos, elas suscitaram reações emotivas e foram usadas para promover alegações imprecisas sobre a resposta do governo às catástrofes. 

O mais importante de tudo é os jornalistas pensarem sobre por que esses conteúdos com informação imprecisa ganham repercussão, diz Paik, e trabalharem para combater essas narrativas indo além da simples verificação da veracidade de um vídeo.

"Dizer 'olha, detectamos algo!' não é bom o bastante", diz. "Jornalistas têm o poder de informar e educar o público. Nós precisamos fazer isso."


Amritha R Warrier & AI4Media / Better Images of AI / tic tac toe / Licença CC-BY 4.0.