Ferramentas de IA para combater deepfakes

Sep 15, 2023 em Combate à desinformação
"AI' in blue and white letters all over a yellow background.

Os deepfakes estão em ascensão, gerando mais desinformação nas redes sociais. O conteúdo multimídia gerado por inteligência artificial torna cada vez mais difícil separar fato de ficção.

As pessoas por trás dos deepfakes buscam impactar negativamente a população durante as eleições, confundir o público em relação a crises, dentre outros objetivos.

Um exemplo são as imagens geradas por IA de uma explosão no Pentágono dos Estados Unidos que viralizaram em maio. Antes, em março, imagens geradas por IA do ex-presidente Donald Trump sendo preso e do Papa Francisco vestindo um casaco acolchoado circularam amplamente nas redes sociais. Durante as eleições gerais na Nigéria neste ano, se espalhou online um áudio manipulado afirmando que o candidato à presidência Atiku Abubakar, seu companheiro de chapa, Dr. Ifeanyi Okowa, e o governador do estado de Sokoto Aminu Tambuwal, estavam planejando fraudar a votação.

De acordo com Silas Jonathan, professor em Dubawa e integrante da Academia Africana para Investigação de Fontes Abertas, os deepfakes geram inegavelmente questões e preocupações para a mídia. Quanto mais os responsáveis pela desinformação têm sucesso no emprego de deefakes, mais a mídia perde credibilidade, já que a audiência se torna menos capaz de determinar o que é real e o que não é, segundo Jeffrey Nyabor, jornalista e verificador de fatos ganense do Dubawa Ghana

Mas a IA pode ser tanto o problema quanto a solução.

A seguir estão algumas ferramentas que jornalistas podem usar para combater deepfakes:

Redes neurais profundas

TensorFlow e o PyTorch são dois exemplos de ferramentas gratuitas que usam redes neurais profundas para detectar deepfakes. Eles podem ser usados para analisar sinais em imagens, vídeos e áudio para identificar indícios de manipulação. Os usuários só precisam subir exemplos de conteúdo real e falso para treinar um modelo de detecção para diferenciar entre um e outro.

"Essas redes podem aprender a partir de grandes quantidades de dados para identificar inconsistências em expressões faciais, movimentos ou padrões de fala que podem indicar a presença de um deepfake", diz Jonathan. "Algoritmos de aprendizado de máquina podem ser treinados para analisar e detectar padrões em vídeos ou imagens para determinar se eles foram manipulados ou gerados com técnicas de deepfake."

Deepware

Deepware é uma tecnologia de fonte aberta dedicada primordialmente à detecção de vídeos gerados por IA. O site tem um scanner para subir vídeos que identifica se eles foram manipulados sinteticamente.

Semelhante a outros detectores de deepfakes, os modelos deepware buscam por sinais de manipulação no rosto humano. A principal limitação da ferramenta é sua incapacidade de identificar técnicas de troca de voz, que são um perigo muito maior do que a troca de rosto. 

"O resultado nem sempre é 100% preciso. Às vezes é 8 ou 80, dependendo do quanto o fake é bom, qual é o idioma e alguns outros fatores", diz Mayowa Tijani, editor geral do TheCable

Sensity

Sensity é especializado em detecção de deepfakes e reconhecimento de imagem gerada por IA. Seus modelos avançados de aprendizado de máquina podem ser usados para analisar sinais visuais e contextuais para identificar imagens geradas por IA. 

A ferramenta não é gratuita; as cobranças são adaptadas com base no uso mensal e áreas individuais de interesse. 

Hive

Com o Hive, verificadores de fatos independentes e usuários da internet podem escanear rapidamente textos e imagens para verificar sua autenticidade. Para verificar uma imagem, usuários podem subir um arquivo na página de detecção de conteúdo gerado por IA.

Há também a extensão do Chrome Hive AI, que pode ser usada em desktops. Ela permite que os usuários identifiquem gratuitamente textos e imagens gerados por IA a partir do navegador.

Illuminarty

Illuminarty também detecta imagens e textos gerados por IA. A versão gratuita inclui serviços básicos enquanto os planos premium oferecem mais funções.

Com a ferramenta, os usuários podem identificar onde está a manipulação em uma imagem falsa e a partir de qual modelo de IA ela foi gerada. Ela também consegue estimar qual a probabilidade de uma imagem ter sido criada por IA.

Todas essas ferramentas podem ajudar os usuários a identificar e combater deepfakes, mas não são precisas o tempo todo. Há sempre o risco de um falso positivo ou falso negativo, em que um conteúdo legítimo pode equivocadamente ser sinalizado como um deepfake ou vice-versa, explica Jonathan.

Jornalistas e verificadores de fatos independentes também podem detectar deepfakes observando um conteúdo criticamente. Nem todas as imagens e vídeos gerados por IA são superperfeitos; muitos podem ser detectados quando se olha com cuidado.

Foto por Steve Johnson via Unsplash.