Atualmente, há informações falsas e nocivas de sobra online. De conspirações e discurso de ódio a desinformação gerada por IA, esse tipo de conteúdo assume diversas formas.
E seja difundida intencionalmente ou não, a desinformação tem consequências offline. Um estudo da Organização Mundial da Saúde descobriu que espalhar informações imprecisas durante crises como surtos infecciosos e desastres pode impactar negativamente nossa saúde mental e atrapalhar esforços de assistência à saúde.
O surgimento de tecnologias de IA complicou ainda mais a capacidade das pessoas de distinguir entre fato e ficção. É crucial que jornalistas e consumidores de notícias sejam capazes de fazer essa distinção – principalmente neste ano, com tantas eleições importantes prestes a acontecer no mundo todo.
Confira a seguir uma lista de ferramentas de IA que jornalistas podem usar para detectar informação falsa, encontrar fontes confiáveis e muito mais.
GPTZero
Criado pelo então estudante de jornalismo Edward Tian em janeiro de 2023, o GPTZero foi feito inicialmente para detectar conteúdo criado com o uso do ChatGPT. Desde então ele se expandiu para identificar conteúdo gerado por IA em outras ferramentas, como Bard e LLaMa. O GPTZero permite que os usuários analisem documentos em busca de plágio.
Editores podem usar o GPTZero para melhor avaliar se os artigos recebidos foram escritos por humanos. Os Repórteres podem usar a ferramenta para determinar a autenticidade de informações recebidas de suas fontes.
É importante observar que o GPTZero pode eventualmente gerar falsos positivos, portanto usuários devem sempre acompanhar e fazer sua própria auditoria antes de descartar de vez o conteúdo.
Custo:
- Versão gratuita com recursos limitados
- Opções pagas vão de US$ 10 a US$23/mês
Factiverse AI Editor
O Factiverse AI Editor é uma ferramenta de auxílio à escrita criada para analisar se uma afirmação é verdadeira ou não. É um modelo de aprendizado de máquina treinado com reportagens de credibilidade e o trabalho de verificadores de fatos. Ela funciona melhor quando aplicada a assuntos que têm muita cobertura da mídia, como mudança climática ou COVID-19.
A interface da ferramenta é objetiva. Você simplesmente digita diretamente no editor ou cola o texto que você quer verificar e a ferramenta vai apontar para o usuário as fontes que podem ajudar a determinar se uma afirmação é verdadeira ou falsa. O editor de IA em si não consegue distinguir de forma independente entre informação correta e incorreta.
Ao analisar o texto, a ferramenta faz buscas em bases de dados de verificação de fatos em tempo real. Ela pode ser usada para verificar alegações em mais de 40 idiomas.
Custo:
- Período de teste de 14 dias
- Versão básica (€10/mês)
- Versão pro (€25/mês)
- Equipes formadas por pelo menos cinco pessoas podem ser elegíveis a uma tarifa de grupo
HARO (Help A Reporter Out)
Ter contato com especialistas é outra forma de verificar dados e evitar a disseminação de informações falsas.
O HARO ajuda a garantir a precisão de reportagens colocando em contato jornalistas e fontes que são especialistas ou têm experiência direta em um assunto. Esses especialistas compartilham suas ideias e falas, as quais os repórteres podem incorporar para embasar sua cobertura e ajudar a aumentar a confiança entre os leitores.
A ferramenta tem políticas implementadas para evitar que os especialistas proponham pautas aos jornalistas ou atuem fora de sua área de especialização.
Nota: recentemente, o HARO anunciou que vai migrar para o aplicativo Connectively, da Cision. A atual versão do HARO vai ser encerrada no início deste ano. No momento desta publicação, ambas as versões estavam disponíveis.
Custo:
- Gratuito
TrollWall
O TrollWall é uma ferramenta alimentada por IA criada para proteger perfis de redes sociais contra ataques de ódio. Jornalistas podem usar a ferramenta para entender como comentários danosos contribuem para as interações em geral dos usuários de redes sociais com seus perfis.
A moderação de conteúdo feita manualmente é um processo trabalhoso e que consome tempo. O TrollWall oferece detecção automática e a capacidade de ocultar comentários tóxicos. Isso pode fazer com que os moderadores de redes sociais de veículos jornalísticos ganhem tempo.
A ferramenta inovadora é alimentada por uma combinação de algoritmos de processamento de linguagem natural e de aprendizado de máquina. Ela funciona em tempo real, o que pode ser particularmente útil durante transmissões ao vivo.
O TrollWall inclui um painel que permite aos veículos criarem listas de palavras proibidas e palavras-chave bloqueadas e monitorarem quantos comentários foram ocultados. Isso permite que jornalistas entendam mais a fundo as fontes de conteúdo nocivo.
Custo:
- Período de teste de 14 dias
- Assinaturas a partir de €75/mês, com a precificação baseada na quantidade de comentários processados
Foto por Igor Omilaev via Unsplash.