4 ferramentas de IA para evitar a disseminação de conteúdo nocivo

Feb 12, 2024 em Combate à desinformação
Circuitboard with chip reading "AI"

Atualmente, há informações falsas e nocivas de sobra online. De conspirações e discurso de ódio a desinformação gerada por IA, esse tipo de conteúdo assume diversas formas.

E seja difundida intencionalmente ou não, a desinformação tem consequências offline. Um estudo da Organização Mundial da Saúde descobriu que espalhar informações imprecisas durante crises como surtos infecciosos e desastres pode impactar negativamente nossa saúde mental e atrapalhar esforços de assistência à saúde.

O surgimento de tecnologias de IA complicou ainda mais a capacidade das pessoas de distinguir entre fato e ficção. É crucial que jornalistas e consumidores de notícias sejam capazes de fazer essa distinção – principalmente neste ano, com tantas eleições importantes prestes a acontecer no mundo todo.

Confira a seguir uma lista de ferramentas de IA que jornalistas podem usar para detectar informação falsa, encontrar fontes confiáveis e muito mais. 

GPTZero

Criado pelo então estudante de jornalismo Edward Tian em janeiro de 2023, o GPTZero foi feito inicialmente para detectar conteúdo criado com o uso do ChatGPT. Desde então ele se expandiu para identificar conteúdo gerado por IA em outras ferramentas, como Bard e LLaMa. O GPTZero permite que os usuários analisem documentos em busca de plágio.

Editores podem usar o GPTZero para melhor avaliar se os artigos recebidos foram escritos por humanos. Os Repórteres podem usar a ferramenta para determinar a autenticidade de informações recebidas de suas fontes.

É importante observar que o GPTZero pode eventualmente gerar falsos positivos, portanto usuários devem sempre acompanhar e fazer sua própria auditoria antes de descartar de vez o conteúdo.

Custo:

  • Versão gratuita com recursos limitados
  • Opções pagas vão de US$ 10 a US$23/mês

Factiverse AI Editor

O Factiverse AI Editor é uma ferramenta de auxílio à escrita criada para analisar se uma afirmação é verdadeira ou não. É um modelo de aprendizado de máquina treinado com reportagens de credibilidade e o trabalho de verificadores de fatos. Ela funciona melhor quando aplicada a assuntos que têm muita cobertura da mídia, como mudança climática ou COVID-19.

A interface da ferramenta é objetiva. Você simplesmente digita diretamente no editor ou cola o texto que você quer verificar e a ferramenta vai apontar para o usuário as fontes que podem ajudar a determinar se uma afirmação é verdadeira ou falsa. O editor de IA em si não consegue distinguir de forma independente entre informação correta e incorreta.

Ao analisar o texto, a ferramenta faz buscas em bases de dados de verificação de fatos em tempo real. Ela pode ser usada para verificar alegações em mais de 40 idiomas. 

Custo: 

  • Período de teste de 14 dias 
  • Versão básica (€10/mês)
  • Versão pro (€25/mês)
  • Equipes formadas por pelo menos cinco pessoas podem ser elegíveis a uma tarifa de grupo

HARO (Help A Reporter Out)

Ter contato com especialistas é outra forma de verificar dados e evitar a disseminação de informações falsas. 

O HARO ajuda a garantir a precisão de reportagens colocando em contato jornalistas e fontes que são especialistas ou têm experiência direta em um assunto. Esses especialistas compartilham suas ideias e falas, as quais os repórteres podem incorporar para embasar sua cobertura e ajudar a aumentar a confiança entre os leitores. 

A ferramenta tem políticas implementadas para evitar que os especialistas proponham pautas aos jornalistas ou atuem fora de sua área de especialização.

Nota: recentemente, o HARO anunciou que vai migrar para o aplicativo Connectively, da Cision. A atual versão do HARO vai ser encerrada no início deste ano. No momento desta publicação, ambas as versões estavam disponíveis.

Custo: 

  • Gratuito

TrollWall

O TrollWall é uma ferramenta alimentada por IA criada para proteger perfis de redes sociais contra ataques de ódio. Jornalistas podem usar a ferramenta para entender como comentários danosos contribuem para as interações em geral dos usuários de redes sociais com seus perfis.

A moderação de conteúdo feita manualmente é um processo trabalhoso e que consome tempo. O TrollWall oferece detecção automática e a capacidade de ocultar comentários tóxicos. Isso pode fazer com que os moderadores de redes sociais de veículos jornalísticos ganhem tempo. 

ferramenta inovadora é alimentada por uma combinação de algoritmos de processamento de linguagem natural e de aprendizado de máquina. Ela funciona em tempo real, o que pode ser particularmente útil durante transmissões ao vivo. 

O TrollWall inclui um painel que permite aos veículos criarem listas de palavras proibidas e palavras-chave bloqueadas e monitorarem quantos comentários foram ocultados. Isso permite que jornalistas entendam mais a fundo as fontes de conteúdo nocivo. 

Custo: 

  • Período de teste de 14 dias
  • Assinaturas a partir de €75/mês, com a precificação baseada na quantidade de comentários processados

Foto por Igor Omilaev via Unsplash.