Agências de fast-checking propõem soluções para desinformação no YouTube

Jan 24, 2022 em Combate à desinformação
Screenshot of YouTube

Conteúdo falso e propositalmente enganoso circula desenfreadamente na internet. De teorias da conspiração a rumores apresentados como fatos, a desinformação parece estar em toda parte — especialmente nas redes sociais.

Isso tem sido notavelmente significativo durante a pandemia. Pessoas que acessam as redes sociais têm mais chances de afirmar que foram expostas à desinformação sobre a COVID-19 em comparação a pessoas que não as utilizam, de acordo com o mais recente Digital News Report.

No centro dessa controvérsia, Facebook, Twitter e YouTube tomaram algumas medidas para tratar o problema, como sinalizar e banir conteúdo. Mesmo assim, a desinformação continua a se espalhar, e os críticos dizem que é preciso fazer mais do que isso.

Em uma recente carta aberta à CEO do YouTube, Susan Wojcicki, a International Fact-Checking Network propôs uma série de soluções para lidar com a questão. "Enquanto uma rede internacional de organização de verificação de fatos, nós monitoramos mentiras disseminadas online — e todos os dias nós vemos que o YouTube é um dos principais veículos de desinformação online no mundo todo", diz a carta assinada por mais de 80 organizações de diferentes países, acrescentando que o YouTube está "permitindo que sua plataforma seja transformada em um arma por agentes inescrupulosos para manipular e explorar outras pessoas e para organizar e financiar a si mesmos."

Discurso de ódio no Brasil, acusações sem provas sobre fraude eleitoral nos Estados Unidos e em Taiwan, e conteúdo que nega falsamente abusos de direitos humanos nas Filipinas durante o período da lei marcial são alguns dos exemplos que a carta cita. Ela ainda observa que "da véspera da eleição presidencial nos Estados Unidos ao dia seguinte, os vídeos no YouTube que apoiavam a narrativa de 'fraude' foram assistidos mais de 33 milhões de vezes”.

Só no ano passado, "milhões de usuários assistiram vídeos em grego e árabe que os encorajavam a boicotar a vacinação ou tratar a infecção pela COVID-19 com curas falsas", explica a carta dos verificadores de fatos.

"[As organizações de checagem de fatos] querem, acima de tudo, abrir um diálogo transparente e uma colaboração eficaz com o YouTube", disse à IJNet Natália Leal, CEO da Agência Lupa. "Nós sugerimos que a plataforma seja mais transparente sobre suas operações, que ela converse com os verificadores de fatos e apoie o trabalho deles, que ela puna quem desinforma repetidamente e nos dê insights a respeito disso." 

Em resposta à carta, a porta-voz do YouTube Ivy Choi disse em uma declaração que a empresa colabora com "centenas de editores no mundo todo" e que lançou painéis de verificação de fatos em países como os Estados Unidos, Índia, Brasil, Alemanha, Indonésia e Reino Unido.

As políticas de ódio e assédio da empresa proíbem "conteúdo de teoria da conspiração que é usado para justificar violência no mundo real". "O discurso de ódio não é permitido no YouTube e nós removemos conteúdo que promove violência ou ódio contra pessoas baseado em características protegidas", disse Choi.

O YouTube também observou o baixo consumo de "desinformação duvidosa recomendada" na plataforma. "Apenas 0,21% de todas as visualizações são de conteúdo violador", o qual é posteriormente removido, de acordo com Choi. 

Isso, no entanto, não tem sido o bastante para controlar a desinformação na plataforma. "A desinformação é parte do que o YouTube chama de 'informação duvidosa', mas esse conceito é mais amplo", diz Leal. "É por isso que defendemos programas e ações focados em desinformação com diálogo aberto com verificadores de fatos e pesquisadores e o fornecimento de contexto em vez de uma remoção sistemática de conteúdo."

Observando que as medidas atuais estão "se mostrando insuficientes", checadores de fatos incluíram uma lista com propostas de soluções que eles acreditam que ajudariam a reduzir a disseminação de desinformação no YouTube. 

Estas são as sugestões:

  • "Comprometimento com uma transparência significativa em relação à desinformação na plataforma: o YouTube deve apoiar pesquisa independente sobre as origens de diferentes campanhas de desinformação, seu alcance e impacto e os modos mais eficazes de desmascarar informação falsa. Ele deve também publicar a íntegra de sua política de moderação em relação à desinformação, incluindo o uso de inteligência artificial e quais dados a alimentam."
  • "Além de remover conteúdo para estar em conformidade com a lei, o YouTube deve focar em fornecer contexto e esclarecimentos visivelmente sobrepostos aos vídeos ou como conteúdo adicional em vídeo. Isso só pode ser obtido por meio de uma colaboração significativa e estruturada que assuma a responsabilidade e invista sistematicamente em esforços independentes de verificação de fatos do mundo todo que estão trabalhando para resolver esses problemas."  
  • "Agir contra infratores reincidentes que produzem conteúdo constantemente sinalizado como desinformação, particularmente aqueles que monetizam o conteúdo em questão dentro e fora da plataforma, principalmente impedindo que os algoritmos de recomendação promovam o conteúdo de tais fontes de desinformação."
  • "Expandir esforços atuais e futuros contra desinformação em idiomas para além do inglês e fornecer dados específicos de país e idioma, assim como serviços de transcrição que funcionem em qualquer língua."

O YouTube também disse que valoriza este feedback e acredita que há mais nuances a se considerar. A empresa concorda, por exemplo, que conectar usuários a informação de alta qualidade através da verificação de fatos, painéis de informação e classificação de conteúdo confiável "é a melhor abordagem."

Há algum motivo para otimismo, de acordo com Leal. "Acreditamos que em breve vamos conseguir falar sobre ações a serem tomadas que, de fato, sejam eficazes e contribuam para a luta contra a desinformação no YouTube", diz.


Foto por Christian Wiediger on Unsplash.

Fabiana Santos contribuiu para este artigo.