Jingles, chatbots, deepfakes e nudes falsos: como a IA foi usada nas eleições de 2024 no Brasil

Nov 26, 2024 en Combate à desinformação
Election Brazil

Neste ano de 2024 o Brasil teve a sua primeira eleição municipal com o uso da Inteligência Artificial de forma mais popularizada. Embora tenha aplicações positivas, a tecnologia também tem gerado receio e desconfiança, especialmente quanto ao impacto que pode ter nos fenômenos de desinformação.

Para compreender a utilização e os impactos dessa ferramenta na campanha eleitoral de primeiro turno, o Observatório IA nas Eleições, criado pelo Desinformante, projeto jornalístico que cobre temas vinculados à desinformação, realizou o estudo “IA no primeiro turno: o que vimos até aqui?”. Elaborado pela Aláfia Lab, laboratório de pesquisa de temas ligados à internet, sociedade e política, o levantamento mapeou casos de uso de inteligência artificial pelas campanhas entre os dias 16 de agosto até 6 de outubro através de monitoramentos e buscas ativas em plataformas digitais, veículos de imprensa e agências de checagem.

Deepfakes em áudio

“Foram identificados usos pontuais da IA e, na maior parte dos casos, sem grandes repercussões, mas que, ainda assim, apontam questões críticas que devemos prestar atenção daqui em diante, como o impacto das ‘deepfakes’ (principalmente as de áudio) para desestabilizar e atacar candidatos”, afirma Matheus Soares Macedo Cruz, jornalista e pesquisador do Desinformante. 

No mesmo sentido avalia Sérgio Ludtke, Editor-chefe do Projeto Comprova, que reúne checagens de fatos de 42 veículos jornalísticos brasileiros: “O uso da IA foi incipiente, mas não nos surpreendeu. Primeiro porque a legislação eleitoral se antecipou ao problema e regulou o uso por parte das campanhas. Segundo, porque a dinâmica da desinformação política não está tão vinculada a peças manipuladas que surgem eventualmente”.

Regras para IA

Pela primeira vez, o Tribunal Superior Eleitoral (TSE) criou regras específicas para delimitar o uso da ferramenta pelos candidatos e campanhas políticas. Foi determinada a proibição total das “deepfakes” e criada a obrigação de identificar de modo explícito, destacado e acessível que os conteúdos foram fabricados ou manipulados por IA.

Restringiu-se também o uso de avatares e chatbots como artifício para intermediar a comunicação com o público, que só poderiam ser criados desde que não simulassem a interlocução com um candidato ou outra pessoa real.  A candidata Tabata Amaral (PSB), por exemplo, criou no WhatsApp um chatbot chamado “Rita” para responder dúvidas dos eleitores.

Banco de dados sobre fakenews

Foi criado um repositório obrigatório no TSE no qual será guardado e exposto tudo aquilo que a Justiça Eleitoral considerou que é notoriamente inverídico ou descontextualizado gravemente, para que os cidadãos, candidatos e partidos possam saber o que é fato e o que não é. O objetivo é que este repositório oriente os juízes brasileiros.

Para Ludtke, o risco maior do uso de IA para desinformação está nos momentos mais próximos ao pleito, quando há possibilidade de se provocar grande impacto sem que exista tempo suficiente para que uma investigação seja feita ou, caso realizada, divulgada.

Por outro lado, ele destaca os pontos positivos do uso da tecnologia. “Os benefícios são muitos começando pelo baixo custo de produção de conteúdos de texto, imagens e infografia. Ela também pode ser usada na produção de análises, sínteses e relatórios sobre o trabalho do poder público e da situação dos cidadãos e para gerar ideias e soluções.”

Principais descobertas da pesquisa

Apesar de não ter tido uma presença massiva nas campanhas políticas deste ano, a Inteligência Artificial foi usada tanto por candidatos como por eleitores para diversos fins e em diferentes formatos. Dentre os usos identificados, destacaram-se:

  • A aplicação ampla da tecnologia para produzir jingles ou auxiliar na produção de conteúdo de campanhas com pouca verba. Segundo Soares, “nessas eleições tivemos diversos candidatos a vereador utilizando IA para criar jingles e materiais sonoros de campanha. Essas candidaturas geralmente não possuem tanto orçamento e as funcionalidades da IA generativa baratearam os custos de produção”.
  • A criação de “deepfakes” produzidas pelo público com impacto relativamente reduzido, mas que já mostram o seu potencial desinformativo para próximas eleições.

Um exemplo foi um vídeo mostrando um suposto abraço entre Tabata Amaral e Pablo Marçal durante um debate televisionado. Também foram encontrados modelos de deepfake manipulados do apresentador William Bonnerelogiando ou indicando candidatura de vereadores. 

Um vídeo que desafiou a ideia de que deepfakes sempre são nocivas foi feito pelo candidato à Prefeitura de Salvador, Bruno Reis (União), em que ele próprio dança seu jingle fazendo uma paródia de si mesmo com uma imagem claramente manipulada. 

  • C⁠asos de “deepnudes” (imagens e vídeos falsos com teor sexual) visando candidatas em pelo menos cinco municípios. Em São Paulo, Tabata Amaral foi vítima de dois casos diferentes. Em um deles, a deputada teve seu rosto adicionado a imagens de uma atriz pornô e, no outro, ela foi alvo da prática junto com a também candidata Marina Helena (Novo). Candidatas no Rio de Janeiro, Taubaté e Bauru também registraram denúncias alegando terem sido vítimas de “nudes” falsos.

O relatório afirmou ainda que, de maneira geral, não houve uso massivo da IA para gerar desinformação e grande parte das fake news que circularam não usaram essa tecnologia na criação das peças.

“Também identificamos casos positivos de usos da IA por outros atores da sociedade, como o próprio Estado e pesquisadores, para automatizar a análise de candidaturas e monitorar desinformação online. Em Goiás, por exemplo, o Tribunal Regional Eleitoral do estado (TRE-GO) e a Universidade Federal de Goiás (UFG) lançaram o GuaIA, app que usa IA para automatizar o processo de monitoramento ativos das desinformações publicadas em redes sociais”, diz o jornalista do Desinformante.

Expectativas para futuras eleições

Embora tenha sido utilizada de forma incipiente nessa eleição, a tendência é que a IA se desenvolva cada vez mais tornando-se mais acessível e fácil de ser utilizada em futuros sufrágios. Segundo Soares, é importante a necessidade de uma articulação coletiva da sociedade que envolva diversos atores (Estado, empresas, cidadãos, academia etc.) atuando em conjunto para identificar problemas e achar as melhores soluções.

“Um ponto importante é a necessidade de termos medidas regulatórias de IA que levem em conta diferentes públicos e que estabeleçam regras básicas para a aplicação dessa tecnologia na sociedade brasileira”, explica.

Ludtke lista uma série de medidas que deveriam ser adotadas em futuros pleitos. “A regulação deu boa resposta neste ano eleitoral e se mostra um caminho relevante, mas é preciso mais. Necessitamos de um amplo programa de letramento da população para identificar as técnicas de persuasão usadas em redes sociais com o intuito de gerar desinformação; precisamos de um jornalismo que contextualize e explique mais os fatos e que não caia em armadilhas criadas por agentes de desinformação; e necessitamos de um envolvimento das plataformas para sinalização de conteúdos já desmentidos e alertas a usuários que tenham tido contato com esse tipo de conteúdo.”


Foto: Montagem Canva