Este texto faz parte da série O Jornalismo no Brasil em 2024, uma realização da Abraji e do Farol Jornalismo e foi publicado na Newsletter do Farol Jornalismo.
Há uma chance muito alta de você, assim como os repórteres, editores, fotógrafos e executivos que trabalham com você, já estarem usando inteligência artificial em alguma etapa da produção diária de conteúdos jornalísticos. Mas também é muito alta a chance de você e seus companheiros de trabalho jamais terem recebido das organizações em que atuam um guia claro sobre os limites da inteligência artificial. Diretrizes desse tipo ainda são escassas no Brasil — e é um dos alertas a serem feitos na chegada de 2024.
Desde que o ChatGPT, o Bard, o Midjourney, o Synthesia e outras ferramentas do tipo caíram no gosto dos jornalistas e comunicadores, o mundo da comunicação colhe histórias de grande sucesso e de puro fracasso. É claro que decupar entrevistas ficou mais fácil e rápido (até mesmo em português). É evidente que raspar sites ou burilar milhões de dados ficou menos complexo. Celebremos a IA. Mas também é verdade que deve haver um limite claro do que cada redação aceita (ou não) fazer com a ajuda da inteligência artificial.
Há quase um ano, o site CNet reconheceu publicamente que havia encontrado erros e feito correções em 41 das 77 histórias publicadas pela plataforma usando uma ferramenta de IA. Um dos textos corrigidos tratava de um assunto para lá de objetivo, a matemática. Ensinava, de forma equivocada, a calcular juros compostos. Como nenhum humano passou o olho no conteúdo antes dele ser publicado, lá se foi o erro.
Há cerca de seis meses, o site Gizmodo foi pelo mesmo caminho. Soltou (com certa euforia) seu primeiro texto fabricado por robô (bot) – e viu sua credibilidade cair mundialmente. A IA havia errado 18 vezes ao fazer uma simples cronologia de filmes e séries associadas à saga Star Wars (Guerra nas estrelas).
Mas, entre sucessos e fracasso, o que fica claro é que o jornalismo – e aí falo também do brasileiro – precisa construir manuais de redação para uso de inteligência artificial. E, para tanto, há passos muito concretos e perguntas bem difíceis a serem respondidas.
Compilação feita pelo Nieman Lab, da Universidade de Harvard, mostra que ao menos 21 redações do mundo já produziram guias sobre IA (parabéns ao Núcleo Jornalismopor aparecer num grupo tão seleto!). E nesse universo há um pouco de tudo – o que é terminantemente banido e o que é aceitável. A leitura desse material vale a pena e é enriquecedora. Mas se o que buscamos aqui é estimular a imprensa nacional a criar seus respectivos manuais de redação para IA, a leitura não é suficiente. É preciso se debruçar sobre temas espinhosos.
Perguntas-chave
A pergunta inicial para quem topar dar esse passo e desenvolver seu guia para IA em 2024 talvez deva ser a seguinte: até que ponto o jornalista (estagiário, editor, repórter, fotógrafo, executivo, câmera…) poderá ser substituído pela máquina?
E, como se essa não fosse espinhosa o suficiente, aí vem a segunda: quem, dentro da redação, ficará responsável por validar conteúdos gerados (mesmo que em parte) por IA?
Segundo mostra o material organizado por Harvard, as principais redações do mundo tendem a ser contra a publicação de qualquer conteúdo artificialmente gerado sem revisão humana – o que é bom. Mas, num universo em que o jornalismo mais demite do que contrata, saber quem fará essa revisão e qual o tamanho dessa equipe parece passo vital e inevitável.
O grau de transparência deve aparecer com clareza nos manuais de IA. É imperativo que esses guias tragam diretrizes sobre como e onde serão usadas marcas para distinguir peças desenvolvidas por IA. Falo de instruções concretas: um selo na foto? Um asterisco? No alto ou no pé da página? E se for vídeo?
Os autores dos guias reunidos por Harvard coincidem que haja marcas claras e que elas sejam de fácil visualização e compreensão por parte da ampla audiência. Até onde vi, nenhum dos manuais listados dá detalhes mais específicos.
Investimento e capacitação
Os guias de uso de IA também precisam trazer outros dois tipos de informação: uma lista das ferramentas que são (e não são) aceitas e um lembrete de que muitas delas ainda podem estar fazendo uso de dados pessoais do profissional para seguir existindo. A lógica de que não existe almoço grátis está presente no universo da IA e precisa ser reforçada entre profissionais de comunicação – que já correm tantos outros riscos.
Por último – e não menos importante – é estabelecer a relação dos acervos jornalísticos com as ferramentas de IA. E, nesse assunto, o mundo se dividiu. Em 2023, assistimos à Associated Press fechar um acordo com a OpenAI (criadora do ChatGPT) permitindo que parte selecionada de seu arquivo seja usado como modelo de linguagem para melhorar o robô. Mas também vimos outro gigante, o jornal New York Times, bloquear a mesma empresa e ameaçá-la de processo por usar seu acervo jornalístico como fonte.
Por fim, ressalto que qualquer guia, manual ou mesmo decisão tomada em 2024 sobre como usar IA no jornalismo demandará não só constante revisão (numa frequência certamente maior do que anual), mas também investimento. A compra de ferramentas (geralmente em dólar) e a capacitação dos comunicadores no uso pleno delas vai impactar nos balancetes da mídia.
Quem não quiser perder o bonde da história precisa estar preparado para encarar os desafios impostos pela IA de frente e com os bolsos abertos.
Foto: Canva (gerada por IA)