“Hola, soy Eva. Van a ser diez meses que estoy presa acá. Me acusan de tráfico internacional y crimen organizado, aunque yo me siento más víctima que otra cosa”.
De esta manera empieza la conversación con Eva, un chatbot potenciado por Inteligencia Artificial (IA) desarrollado por el equipo del medio El Surti de Paraguay.
Aunque utiliza un nombre ficticio, detrás de cada palabra del chatbot hay una persona de carne y hueso. No es una asistente virtual. Eva es en realidad una mujer de 28 años presa en la cárcel del Buen Pastor, de Asunción, en Paraguay por haber sido acusada de servir de mula para una red de narcotráfico. El chatbot es un vehículo para mantener su anonimato.
“Mi abogado dice que la condena va a ser de 10 años. Y yo le dije que no puedo aceptar algo que no me corresponde”, continúa diciendo Eva. “Lo que tuve yo fue un intento, pero no hubo una terminación, no se llegó a finalizar ese trabajo. Entonces, ¿por qué me van a juzgar con esa medida?”.
Según explicaron sus creadores a LatAm Journalism Review (LJR), el chatbot de Eva tiene la capacidad de dar más de 118 respuestas vía texto. El usuario puede ir escribiendo sus preguntas, pero a la vez cuenta con opciones que facilitan la conversación.
La historia de Eva representa a las más de 400 mujeres que están privadas de su libertad, en Paraguay, por tráfico ilícito de estupefacientes. Mujeres en el último eslabón de la cadena del narcotráfico que terminan con condenas de años, alejadas de sus familias y, como en el caso de Eva, sufriendo de depresión.
“Esta fue una oportunidad para que Eva pudiera narrarse a sí misma y la audiencia pudiera acercarse a la historia desde otro ángulo y a través de una comunicación más directa”, dijo a LJR Juliana Quintana, reportera del proyecto.
No es común ver el uso de chatbots para contar historias periodísticas en América Latina. La mayoría de los chatbots creados en la región son asistentes virtuales ayudando a combatir la desinformación. Por ejemplo, Fátima de Aos Fatos, La tía de WhatsApp de Efecto Cocuyo, y Chequeabot de Chequeado.
“La audiencia tiene mucho entrenamiento en el uso de chats”, dijo a LJR Sebastián Hacher, diseñador conversacional del chatbot de El Surti. “Sin embargo, en el periodismo no se ha terminado de aprovechar. Al menos no en este formato de contar una historia de no ficción”.
Rentabilidad de los chatbots en los medios
Para construir Eva, el equipo de El Surti procesó horas de entrevista con la fuente y las dividió en pequeños fragmentos para simular un diálogo fluido.
El diseño se potenció con el uso de la IA, en específico de ChatGPT 3.5 turbo.
“Usamos IA como entrenamiento del chatbot para que pueda entender lo que se le dice y pueda dirigir una respuesta”, dijo Hacher.
A diferencia de otros chatbots creados por medios latinoamericanos, Eva no funciona a través de la plataforma de mensajería WhatsApp.
La razón es monetaria. Meta, empresa propietaria de la aplicación, cobra por conversación realizada. Por lo tanto, tener un plan estándar de chatbot en WhatsApp puede costar US$500, “un costo que puede ser difícil para un medio independiente”, dijo Hacher.
Para construir el chatbot, El Surti contó con el apoyo de la Fundación Gabo al ser una de 14 propuestas seleccionadas para la 5a edición Fondo para Investigaciones y Nuevas Narrativas sobre Drogas (FINND). La beca fue de US$5.000 para la realización del proyecto.
En el primer mes después del lanzamiento, el chatbot tuvo 10.000 interacciones y un ranking de permanencia alto. “Es un montón si lo comparas con el tiempo de permanencia en una nota común”, dijo Hacher.
Los chatbots de medios de comunicación, en general, no son creados con el fin de obtener rendimiento económico sino para mejorar el contenido y la forma en la que se transmite la información.
Según Laura Zommer, cofundadora y CEO de Factchequeado, una iniciativa para combatir la desinformación en español en Estados Unidos, los chatbots permiten conocer las necesidades informativas de los usuarios.
“Nosotros no vamos a monetizar nuestro chatbot, más bien invertimos plata para hacerlo”, dijo Zommer sobre el chatbot de Factchequeado que se lanzará en octubre. “Para nuestro modelo de periodismo puede ser rentable, pero no necesariamente por dinero, sino porque si nosotros logramos saber cuáles son los vacíos informativos, podemos prevenir que la bola de desinformación siga rodando”.
Protección de la fuente
El proyecto de Eva se realizó en cuatro meses. Mientras parte del equipo se dedicaba al desarrollo de la herramienta, otro se encargaba de las entrevistas a la fuente.
Quintana dijo que cuidaron cada palabra que aparece en las conversaciones con Eva y se mantuvieron fieles a sus declaraciones. Solo omitieron algunos detalles para proteger la identidad de la fuente.
“Ella está todavía en un proceso judicial”, dijo Quintana. “No queremos que se vea expuesta ni que la identifiquen en el penal. Hay muchas rencillas que son importante tener en cuenta cuando haces un trabajo con poblaciones vulnerables”.
Los chatbots no solo permiten mantener en resguardo la identidad de las fuentes, también pueden hacer que la audiencia se sienta más cómoda haciendo preguntas.
“La gente se anima a preguntar cosas que en persona podría tener vergüenza de hacer”, dijo Zommer.
Tan cómodos que, según explicaron los desarrolladores de Eva, se han encontrado con mensajes provocativos, ofensivos o fuera de lugar que buscan boicotear el chat. Lo que ha hecho el equipo es ir entrenando la herramienta para que cada vez de respuestas más asertivas y puedan conectar mejor con la audiencia.
“El chatbot no es solo una manera de colar la inteligencia artificial en nuestra dinámica de trabajo”, dijo Quintana. “El chatbot sirve a la historia, sirve para acercar la vida de la protagonista y genera un puente con audiencias que habitualmente no empatizan demasiado con temáticas como estas”.
Este artículo fue publicado originalmente en LatAm Journalism Review y se reproduce en IJNet con permiso.
Yutong Liu & Kingston School of Art / Better Images of AI / Talking to AI / Licenced by CC-BY 4.0.