Como entender e combater deepfakes

Mar 22, 2023 em Combate à desinformação
Robot in front of a red background

De filtros de troca de rosto do Snapchat ao presidente dos Estados Unidos Joe Biden cantando Baby Shark, o conteúdo manipulado se proliferou nos últimos anos. Os deepfakes e outras formas de manipulação de mídia sintética e com auxílio de inteligência artificial estão em ascensão, e jornalistas com a tarefa de separar fato de ficção são forçados a se manterem atualizados.

Em uma sessão recente da Conferência Global Empowering the Truth, o ICFJ falou com shirin anlen, tecnologista de mídia na WITNESS, uma organização sem fins lucrativos que ajuda as pessoas a usarem vídeo e tecnologias com apoio aos direitos humanos. A organização tem um projeto chamado "Prepare, Don’t Panic" (Prepare-se, não entre em pânico), focado em combater o uso malicioso de deepfakes e mídia sintética, dentre outras iniciativas.  

 

 

anlen deu dicas sobre como jornalistas podem entender melhor as ameaças impostas por conteúdos manipulados e o que pode ser feito para combatê-los. A seguir estão alguns dos pontos principais do evento.

Tecnologias e suas ameaças

Tecnologias que evoluem rapidamente estão permitindo aos usuários editar objetos e características faciais, animar retratos, transferir movimentos, clonar vozes, dentre outros. Como parte desse ecossistema, os deepfakes são um tipo de manipulação audiovisual que permite aos usuários criarem simulações realistas de rostos, vozes e ações de pessoas. 

Os deepfakes produzidos hoje são usados de formas alarmantes. Por exemplo, eles promovem violência de gênero ao postar de forma não consensual imagens e vídeos sexuais usando a imagem de uma pessoa. Vídeos falsos de pessoas públicas também são disseminados, assim como trechos de áudio. Os deepfakes também se beneficiam do "dividendo do mentiroso", que coloca um ônus extra sobre jornalistas e verificadores de fatos para provar a autenticidade ou não de um conteúdo.

Eles são a forma de mídia manipulada mais amplamente discutida, observou anlen: "o deepfake é em si parte de um cenário maior que vemos cada vez mais no noticiário."

Embora os deepfakes estejam se tornando mais prevalentes, eles não são tão populares como levam a crer. Eles exigem uma quantidade significativa de habilidade e conhecimento para serem executados adequadamente, tornando-os mais difíceis de serem criados por um usuário médio. Consequentemente, muitas das mídias manipuladas não chegam ao nível de um verdadeiro deepfake.

Filtros que mudam a cor dos olhos ou voz de uma pessoa, por exemplo, são manipulações menores chamadas de "fakes superficiais" com os quais as pessoas podem se deparar diariamente, principalmente nas redes sociais. Trechos de áudio gerados por inteligência artificial ou falas falsas de figuras públicas são outros exemplos de fakes superficiais.

"Eles não são usados mesmo em larga escala", disse anlen sobre os deepfakes. "Muito do que ainda estamos vendo no cenário de desinformação são fakes superficiais, que em sua maioria são materiais reciclados contextuais."

Detecção

Toda nova tecnologia tem um calcanhar de Aquiles e os deepfakes não são uma exceção. Usuários podem detectar erros na aparência, por exemplo: as imagens geradas podem ter elementos estáticos no fundo, dentes desalinhados ou o humano gerado por inteligência artificial no vídeo pode não falar sem que as palavras correspondam adequadamente aos movimentos da boca.  

Porém, a tecnologia se adapta rapidamente. "Surgiram pesquisas falando 'deepfakes não piscam, então vai ser muito fácil detectar um porque ele não vai piscar' e duas semanas depois os deepfakes começaram a piscar", disse anlen.

Em um jogo virtual de gato e rato com mídia manipulada que ganhou mais qualidade e ficou mais fácil de acessar, os esforços de detecção têm dificuldade para acompanhar o ritmo.

"A primeira geração de rostos falsos tinha os olhos no centro. Eles estavam sempre no centro, então era isso que a detecção buscava", disse anlen. "Mas agora temos tantas variações de pessoas que estão sendo geradas com iluminação e expressões diferentes – e os olhos não estão mais no centro."

Há também lacunas no acesso às ferramentas de detecção de qualidade, explicou anlen. Embora existam sites que qualquer pessoa pode acessar, essas ferramentas tendem a ser menos efetivas. Apenas uns poucos têm acesso a ferramentas precisas de detecção disponíveis para especialistas em deepfake. 

Soluções

Entre os métodos para identificar deepfakes, jornalistas podem analisar o conteúdo em vídeo em busca de falhas técnicas e distorções, aplicar técnicas forenses e de verificação existentes e usar abordagens baseadas em inteligência artificial quando elas estiverem disponíveis.

É essencial também aumentar a quantidade de ferramentas de letramento de mídia e ter mais treinamentos em mídia manipulada para jornalistas.

"Precisamos nos preparar e precisamos ver", disse anlen. "Precisamos entender o cenário para de fato moldar a tecnologia, moldar como ela deveria ser construída, como ela deveria ser regulada e fazer parte dela – e não somente sermos afetados por ela."


Disarming Disinformation é um projeto do ICFJ com financiamento da Scripps Howard Foundation, organização afiliada ao Scripps Howard Fund, que apoia os esforços beneficentes da The E.W. Scripps Company. O projeto de três anos vai empoderar jornalistas e estudantes de jornalismo para combater a desinformação no jornalismo.

Foto por rishi via Unsplash.