"Oi, eu sou a Eva. Já vão completar dez meses desde que eu fui presa. Estão me acusando de tráfico internacional e crime organizado, embora eu me sinta mais uma vítima do que qualquer outra coisa."
É assim que começa a conversa com Eva, um chatbot alimentado por inteligência artificial (IA) desenvolvido pela equipe do site de notícias paraguaio El Surti.
Embora utilize um nome fictício, há uma pessoa real por trás de cada palavra do chatbot. Eva não é uma assistente virtual. Ela é, na verdade, uma mulher de 28 anos detida no presídio de Buen Pastor, em Assunção, no Paraguai. Ela foi acusada de servir de mula para uma rede de tráfico de drogas e o chatbot é uma ferramenta para manter seu anonimato.
"O meu advogado diz que a sentença será de dez anos, e eu disse a ele que não posso aceitar algo que não corresponde a mim", continua Eva. "O que eu fiz foi uma tentativa, mas não houve conclusão; aquele trabalho não foi concluído. Então por que vão me julgar dessa forma?"
Os criadores da ferramenta explicaram à LatAm Journalism Review (LJR) que o chatbot Eva pode dar mais de 118 respostas via texto. O usuário pode escrever perguntas, mas também há opções para facilitar a conversa.
A história de Eva representa mais de 400 mulheres que estão privadas de liberdade no Paraguai por tráfico de drogas. São mulheres no último elo da cadeia do tráfico que acabam com sentenças longas, separadas de suas famílias e, como no caso de Eva, com depressão.
"Esta foi uma oportunidade para Eva narrar sua própria história e para a audiência se aproximar da história de um outro ângulo e através de uma comunicação mais direta", disse à LJR Juliana Quintana, repórter do projeto.
Não é comum o uso de chatbots na América Latina para contar histórias jornalísticas. A maioria dos chatbots criados na região são assistentes virtuais que ajudam a combater desinformação. Por exemplo, Fátima, do Aos Fatos; A tia do WhatsApp, do Efecto Cocuyo; e Chequeabot, do Chequeado.
"A audiência tem muita prática no uso de chats", disse à LJR Sebastián Hacher, designer de conversação do chatbot do El Surti. "Mas o jornalismo ainda não aproveitou totalmente isso. Pelo menos não nesse formato de contar uma história de não-ficção."
Lucratividade dos chatbots para a mídia
Para criar o chatbot Eva, a equipe do El Surti processou horas de entrevistas com a fonte e as dividiu em pequenos fragmentos para simular um diálogo fluido.
O design foi aprimorado com o uso de IA, mais especificamente o ChatGPT 3.5 turbo.
"Nós usamos IA para treinar o chatbot para que ele possa entender o que está sendo dito e possa dar uma resposta direta", diz Hacher.
Diferentemente de outros chatbots criados na mídia latino-americana, Eva não funciona no WhatsApp.
A razão é financeira. A Meta, empresa dona do aplicativo, cobra por conversa. Portanto, ter um plano padrão de chatbot no WhatsApp pode custar US$ 500 por mês, "um custo que pode ser difícil para um veículo independente", diz Hacher.
O El Surti teve o apoio da Fundação Gabo para desenvolver o chatbot, uma vez que o projeto foi uma das 14 propostas selecionadas pela quinta edição do Fundo para Investigações e Novas Narrativas sobre Drogas (FINND). Foram concedidos US$ 5.000 para a realização do projeto.
No primeiro mês após o lançamento, a ferramenta teve 10.000 interações e uma alta taxa de retenção. "É bastante, se você comparar com o tempo gasto em um artigo normal", diz Hacher.
Chatbots de mídia, em geral, não são criados tendo em vista a performance econômica, mas sim para melhorar o conteúdo e a forma de transmissão da informação.
Laura Zommer, cofundadora do Factchequeado, iniciativa para combater a desinformação em espanhol nos Estados Unidos, diz que os chatbots ajudam a entender as necessidades de informação dos usuários.
"Nós não vamos monetizar chatbots, mas sim investir dinheiro para criá-los", diz Zommer sobre o chatbot do Factchequeado lançado em outubro. "Pode ser lucrativo para o nosso modelo de jornalismo, não necessariamente por causa do dinheiro, mas porque se pudermos saber quais são as lacunas de informação, podemos evitar que a roda da desinformação siga girando."
Proteção das fontes
O projeto do chatbot foi concluído em quatro meses. Enquanto uma parte da equipe se dedicou a desenvolver a ferramenta, a outra ficou encarregada de entrevistar a fonte.
Quintana diz que a equipe prestou bastante atenção a cada palavra que apareceu nas conversas com Eva e se manteve fiel às declarações da fonte. Eles apenas deixaram de fora alguns detalhes para proteger a identidade da fonte.
"Ela ainda está no meio de um processo judicial", diz Quintana. "Não queremos que ela seja exposta ou identificada na prisão. Há muitos conflitos que é importante levar em conta quando você trabalha com populações vulneráveis."
Os chatbots não só mantêm a segurança da identidade das fontes como também podem deixar a audiência mais confortável para fazer perguntas.
"As pessoas podem ter coragem para fazer perguntas que teriam vergonha de fazer pessoalmente", diz Zommmer.
O público se sente tão confortável a ponto de os desenvolvedores do chatbot Eva terem encontrado mensagens provocativas, ofensivas ou sem sentido que tentam bagunçar a ferramenta. O que a equipe fez foi treinar Eva para que ela forneça respostas mais assertivas e consiga se conectar melhor com a audiência.
"O chatbot não é só uma forma de inserir a inteligência artificial na nossa dinâmica de trabalho", diz Quintana. "Ele está a serviço da pauta, ele serve para tornar mais próxima a história da protagonista e para criar uma ponte com a audiência que normalmente não tem muita empatia com temas como esse."
Este artigo foi publicado originalmente na LatAm Journalism Review e republicado na IJNet com permissão
Imagem por Yutong Liu & Kingston School of Art / Better Images of AI / Talking to AI / Licença CC-BY 4.0