Herramientas de IA para evitar la difusión de contenidos nocivos

Feb 12, 2024 en Lucha contra la desinformación
Placa de circuito con un chip en el que se lee "AI"

No hay escasez de información falsa y perjudicial disponible en internet. Desde conspiraciones y discursos de odio hasta desinformación generada por inteligencia artificial (IA), estos contenidos adoptan formas muy diversas.

Y tanto si se difunde intencionadamente como si no, la desinformación tiene consecuencias fuera de Internet. Un informe de la Organización Mundial de la Salud concluyó que la difusión de información inexacta y falsa durante crisis como brotes infecciosos y catástrofes puede tener un impacto negativo en nuestra salud mental y obstaculizar los esfuerzos sanitarios.

La aparición de tecnologías de IA ha complicado aún más la capacidad de las personas para discernir la realidad de la ficción. Es fundamental que tanto los periodistas como los consumidores de noticias sean capaces de hacer esa distinción, especialmente este año, en el que se avecinan elecciones importantes en todo el mundo.

A continuación te presentamos una lista de herramientas de IA que puedes utilizar para detectar información falsa, encontrar fuentes fiables y más.

GPTZero

Desarrollada por Edward Tian en enero de 2023, GPTZero fue concebida originalmente para detectar contenidos generados con ChatGPT. Desde su creación, sin embargo, ha evolucionado para identificar contenidos generados por IA en otras plataformas, como Bard y LLaMa. Además, GPTZero ofrece la posibilidad de revisar documentos en busca de plagios.

Los editores pueden usar GPTZero para evaluar si los artículos que reciben fueron escritos por humanos, y los periodistas pueden emplearla para determinar la autenticidad de la información que reciben de sus fuentes.

Es importante tener en cuenta que GPTZero puede devolver ocasionalmente falsos positivos, por lo que los usuarios siempre deben hacer sus propias diligencias antes de descartar el trabajo sin más.

Costo:

  • Versión gratuita, con funciones limitadas
  • Las opciones de pago oscilan entre US$10 y US$23 dólares

Factiverse AI Editor

Factiverse AI Editor es un asistente de redacción diseñado para analizar si una afirmación es cierta o no. Se trata de un modelo de aprendizaje automático entrenado a partir de noticias reputadas y del trabajo de verificadores. Funciona mejor cuando se aplica a temas que han recibido una amplia cobertura, como el cambio climático o el COVID-19.

La interfaz de la herramienta es sencilla. Basta con escribir directamente en el editor o pegar el texto que se desea verificar y la herramienta indicará a los usuarios las fuentes que pueden ayudar a determinar si la afirmación es verdadera o falsa.  El editor de IA en sí no puede distinguir de manera independiente entre información exacta e inexacta.

Al analizar el texto, la herramienta busca en bases de datos de verificación en tiempo real. Puede utilizarse para comprobar afirmaciones en más de 40 idiomas.

Costo: 

  • Prueba gratuita de 14 días
  • Versión básica (EUR10/mes)
  • Versión profesional (EUR25/mes)
  • Equipos más grandes de al menos cinco miembros pueden optar por una tarifa de equipo

HARO (Help A Reporter Out)

Comunicarse con expertos es otra forma de verificar información. HARO conecta a periodistas con fuentes que tienen expertise o experiencia directa en un tema. Estos especialistas comparten ideas y citas que las redacciones pueden incorporar para fortalecer su cobertura y ayudar a aumentar la confianza entre sus lectores.

HARO tiene políticas que evitan que los expertos propongan notas a los periodistas o actúen fuera de su campo de especialización.

Nota: HARO anunció recientemente que migrará a la aplicación Connectively de Cision. La aplicación actual de HARO será eliminada gradualmente a principios de 2024. En el momento de esta publicación, ambas siguen disponibles.

Costo

  • Gratuita

TrollWall

TrollWall es una herramienta impulsada por inteligencia artificial diseñada para proteger los perfiles de redes sociales de las marcas contra ataques de odio. Los periodistas pueden utilizarla para entender cuánto contribuyen los comentarios dañinos a la interacción general de los usuarios de redes sociales con sus perfiles.

La moderación manual de contenidos es un proceso laborioso y lento. TrollWall ofrece detección automática y la posibilidad de ocultar comentarios tóxicos. Esto ahorra tiempo a los moderadores.

La innovadora herramienta se basa en una combinación de algoritmos de procesamiento del lenguaje natural y aprendizaje automático. Funciona en tiempo real, lo que puede ser especialmente útil durante las retransmisiones en directo.

TrollWall incluye un panel de control que permite a las redacciones crear listas negras de frases, mantener listas de bloqueo de palabras clave y hacer un seguimiento de cuántos comentarios se han ocultado en los perfiles de las redes. Esto permite a los periodistas conocer mejor las fuentes de los contenidos nocivos.

Costo: 

  • Prueba gratuita de 14 días
  • Suscribirse cuesta desde EUR75 al mes, y el precio depende del número de comentarios procesados.

Foto de Igor Omilaev en Unsplash.