Lecciones clave de nuestra herramienta de IA para Periodistas

Sep 25, 2023 en Innovación en los medios
Flujo de datos azules sobre un fondo azul oscuro

La inteligencia artificial (IA) es la nueva palabra de moda en el periodismo. Profesionales de los medios y académicos intentan averiguar a toda velocidad de qué manera esta última innovación tecnológica reconfigurará un sector ya de por sí precario. 

¿Será la IA un recurso para las redacciones con ingresos decrecientes? ¿Suprimirá puestos de trabajo o liberará a los periodistas, ya sobrecargados, para que puedan producir coberturas e investigaciones de alta calidad?

¿Qué es la AI? ¿Qué es NLP? 

Aclaremos, antes que nada, algunas definiciones. La IA hace referencia a la capacidad de las máquinas para llevar a cabo tareas que suelen estar vinculadas a la cognición y la inteligencia humanas. En el contexto del periodismo, la IA suele referirse a aplicaciones que analizan, comprenden y generan texto sin intervención humana.

El Procesamiento del Lenguaje Natural (PLN) es un subconjunto de la IA que se centra en la interacción entre computadoras y humanos a través del lenguaje natural, es decir, a las lenguas habladas por los humanos, como el inglés, en contraste con los lenguajes de programación, como Python.

Gran parte del debate sobre la IA en el periodismo se basa en las capacidades del PLN. Gracias al PLN, la IA ayuda a los periodistas a resumir artículos, traducir contenidos y corroborar información. Esencialmente, todas las aplicaciones de IA que utilizan nuestro lenguaje cotidiano son posibles gracias al PLN.

Cómo desarrollamos una herramienta de IA para periodistas

En 2021 formé parte de un equipo interdisciplinar que trabajó en la resolución de un problema de investigación. Intentábamos analizar información importante de millones de páginas de datos no estructurados, es decir, texto. La dificultad aumentaba por el hecho de que trabajábamos con textos en idiomas distintos del inglés. Empezamos a experimentar con la API GPT-3, y fue entonces cuando tuvimos nuestro momento técnico eureka.

Esto fue antes de que ChatGPT apareciera en escena y cuando los periodistas eran muy escépticos respecto a la IA. Pusimos manos a la obra y creamos una prueba de concepto para demostrar la potencia de esta nueva innovación de OpenAI.

Empezamos a experimentar con artículos de la radio pública estadounidense, NPR, y desarrollamos una herramienta de síntesis para convertirlos en breves resúmenes con viñetas, similar al estilo de los artículos de Axios. Elegimos este estilo principalmente porque a todos nos gustaban las historias de NPR, pero eran bastante extensas. La herramienta que desarrollamos sintetiza los artículos de NPR tan pronto como se publican y los pone a disposición en nuestro sitio web, Gist, después de que un periodista revisa y aprueba el resumen".

Al principio, nos dimos cuenta de que nuestro modelo inicial "alucinaba" cuando las frases se extendían más de dos líneas. El resumen generaba algunas citas que tenían sentido contextual y gramatical, pero que no aparecían en el artículo fuente de NPR.

Las "alucinaciones" en el contexto del PLN refieren a los casos en los que el modelo genera resultados que son inexactos, que no están anclados en los datos de entrada o que simplemente carecen de sentido. En nuestro caso, necesitábamos asegurarnos de que las citas del resumen existían realmente en los artículos originales. Las alucinaciones en un contexto periodístico pueden ser fatales y dar lugar a desinformación.

Empezamos a hacer ajustes para evitar estas alucinaciones. Fue un proceso iterativo, ya que tuvimos que entrenar continuamente el modelo y probarlo. También añadimos más barreras periodísticas al proceso. Este proceso nos dio algunas ideas clave para futuras aplicaciones de IA en el periodismo.

Conclusiones clave

Entrenar un modelo con estándares periodísticos en mente no fue fácil, pero este largo camino nos dejó cuatro puntos claros:

1) El periodismo asistido por inteligencia artificial es factible, pero el reporteo no lo es. La supervisión humana no puede eliminarse del proceso periodístico.

El juicio y la aprobación humanos son parte integral de cualquier proceso periodístico y, aunque podemos utilizar la tecnología para asumir tareas tediosas y repetitivas, no puede sustituir por completo a los periodistas. Por ejemplo, en nuestro modelo, cada resumen es leído y aprobado por un periodista antes de ser publicado.

2) Los modelos de IA son tan buenos como lo fue su entrenamiento. Para conseguir los mejores resultados de cualquier modelo lingüístico, su finalidad debe estar bien definida. Luego se puede identificar el camino más eficiente para la formación y comenzar el proceso.

Los modelos tampoco son una solución única. Las redacciones deben tener en cuenta sus propios desafíos y requisitos a la hora de explorar soluciones de IA, y los periodistas deben desempeñar un papel activo en el entrenamiento del algoritmo en lugar de dejarlo exclusivamente en manos de los desarrolladores. Por ejemplo, un modelo entrenado únicamente con documentos judiciales de Texas puede no dar los mejores resultados con documentos judiciales de Alaska, porque el estilo de redacción de los dictámenes jurídicos es diferente.

3) La colaboración interdisciplinar es esencial para integrar la IA en el periodismo. Los desarrolladores sin periodistas no pueden abordar tareas como la verificación hechos, el resumen de contenidos y la traducción. Y los periodistas tampoco pueden hacerlo solos.

Tenemos que crear espacios de colaboración para que periodistas y desarrolladores trabajen juntos y, lo que es más importante, garantizar que los periodistas puedan opinar sobre cómo se utiliza la IA en su profesión.

4) Los modelos actuales pueden alcanzar un gran rendimiento utilizando únicamente datos de entrenamiento de la propia organización interesada. Descubrimos que podíamos alcanzar el estilo y la calidad que queríamos entrenándonos únicamente con datos creados por nosotros.

Los ejemplos de calidad creados por periodistas aportan mucho más valor y rendimiento que simplemente recopilar contenido similar de otras fuentes. Este proceso no debería limitarse a un único paso; en su lugar, los equipos deberían identificar las deficiencias actuales del modelo y crear ejemplos adicionales que contribuyan a mostrar el comportamiento correcto.


Foto de Conny Schneider en Unsplash.