El temor a la desinformación impulsada por inteligencia artificial es generalizado. Periodistas y expertos advierten de que puede utilizarse para confundir y engañar al público, influir fuertemente en los espectadores e incitar a la violencia.
Si bien estas preocupaciones están bien extendidas, el impacto exacto de la desinformación generada por IA sigue sin estar claro. Lo que es evidente, sin embargo, es que estos contenidos van en aumento.
La IA y la desinformación
Las tecnologías de inteligencia artificial, como el software de clonación de voz, los grandes modelos de lenguaje y los generadores de texto a imagen, han facilitado la creación de contenido engañoso. En las redes sociales es común encontrarse con videos, imágenes y clips de audio generados por IA.
En un reciente ejemplo, se combinaron fragmentos de Joe Biden, para crear un video que supuestamente retrata un día en su vida. La voz suena preocupantemente parecida a la del propio Biden, aunque el contenido del discurso es falso. También, se crearon imágenes de un presunto arresto de Trump y fotos editadas que representan al Primer Ministro de la India, Narendra Modi, y a la Primer Ministra de Italia, Giorgia Meloni, casándose.
A pesar del incremento de contenidos generados por IA, un artículo publicado este mes en la revista Misinformation Review de la Harvard Kennedy School sostiene que, con respecto a los contenidos falsos y engañosos, la "preocupación actual por los efectos de la IA generativa es exagerada".
Incluso si asumimos que aumentará el volumen de contenidos engañosos de la IA generativa, esta tendría "muy poco margen de actuación", argumenta el estudio de Harvard. Si bien circula por internet una cantidad significativa de desinformación, solo la consume una pequeña fracción: aproximadamente el 5% de los consumidores de noticias estadounidenses y europeos.
"Es el tipo de cosas que la gente se puede creer de inmediato, y es fácil contarnos a nosotros mismos que los contenidos generados automáticamente van a ser un problema", afirma Andrew Dudfield, jefe de producto de Full Fact, una organización de verificación de hechos de Reino Unido.
Estos argumentos se derivan en parte del hecho de que las formas que toma la desinformación actualmente ya son eficaces sin recurrir a la IA. Asimismo, las predicciones de que los contenidos generados por IA tendrán mayores consecuencias debido a su mayor calidad, carecen de pruebas concretas y siguen siendo especulaciones.
"No creo que hayamos llegado todavía a ese punto", dice Aimee Rinehart, directora de producto de estrategia de IA en Associated Press. "Es lógico que tengamos algunos problemas. Pero no sé si internet está colapsando por esos problemas todavía".
Por qué creemos en contenido falsos en primer lugar
Aunque los medios están preocupadas por el realismo de las creaciones de la IA, "la gente tiende a creerse una imagen photoshopeada de un político con una frase que nunca dijo", afirma David Fernández Sancho, CTO de Maldita.es, organización de verificación de hechos de España.
Podría decirse que la eficacia de las campañas de desinformación no depende de la calidad del contenido, sino de las creencias preexistentes de la gente de que algo puede ser cierto.
Un estudio elaborado por investigadores de la Universidad de Nueva York que buscó comprender cómo influye el partidismo en la creencia y difusión de información falsa descubrió que "la gente estaba más dispuesta a creer y compartir noticias coherentes con su identidad política". Otro trabajo, titulado Why We Fall for Fake News, reveló que la aceptación de contenidos falsos es resultado de sesgos cognitivos más que de credulidad. El partidismo o las orientaciones políticas, añade, influyen en lo que las audiencias creen o rechazan de las noticias.
La gente visita las plataformas de información por varias razones, explica Chris Wiggins, profesor asociado de matemáticas aplicadas y biología de sistemas de la Universidad de Columbia. "Entre ellas, porque quiere reafirmar sus creencias preexistentes y conectar con individuos de ideas afines, buscando inclusión".
"Las personas tienen la necesidad de ser incluidas y de sentir una conexión social con otras", afirma. "Te identificas con otros porque han leído el mismo contenido; se trata de un sentimiento de inclusión que te hace sentir parte de un conjunto de personas".
IA para combatir desinformación
Periodistas, académicos y responsables políticos también pueden aprovechar la IA para analizar y ayudar a combatir el formidable volumen de desinformación que circula, tanto si está generada por IA como si no.
Sin embargo, Dudfield advirtió contra la verificación automatizada en esta etapa, señalando que la mente humana está mejor equipada para encontrar "contexto, limitaciones y detalles" en el contenido en línea. "La IA es muy buena en otra cosa: en poner orden en el caos. Es excelente organizando información no estructurada, detectando patrones y agrupando datos similares, lo que agiliza la verificación. Al crear una lista más manejable de contenidos que luego pueden chequear los verificadores humanos, puede ahorrar un tiempo considerable en comparación con el monitoreo manual.
Full Fact, por ejemplo, desarrolló un software llamado Full Fact AI, que ayuda a los verificadores a identificar contenido que puede ser verificado —por ejemplo, declaraciones frente a opiniones o presunciones— y determinar quién dio esas declaraciones, dónde dijo y el tema. Esto ayuda a agrupar afirmaciones similares, lo que permite identificar mejor lo más importante a chequear.
Maldita.es utiliza la IA para identificar y categorizar narrativas comunes a distintas fuentes de noticias, lo que facilita el rastreo de las fuentes de contenidos engañosos. "Si vemos, por ejemplo, muchos contenidos en un corto espacio de tiempo que comparten la misma narrativa, lo más probable es que se trate de algo organizado y no de contenidos orgánicos que se crean sin más", afirma Fernández, que añade que esto puede ayudar a identificar campañas de desinformación coordinadas.
Maldita.es también forma parte de un consorcio del proyecto AI4TRUST de la UE, que desarrollará un sistema híbrido "en el que las máquinas cooperan con los humanos" para permitir la supervisión en tiempo real de las redes sociales con el fin de identificar contenidos potencialmente engañosos en varios formatos e idiomas para que sean revisados por expertos.
Ni buena ni mala: neutral
Tal vez sea demasiado pronto para predecir las implicaciones exactas de la IA en el ecosistema de desinformación. Sin embargo, es evidente que, además de las advertencias, la IA puede ser beneficiosa para los periodistas y verificadores que trabajan para contener el flujo de contenido falso.
La primera ley de la tecnología de Kranzberg —"a tecnología no es ni buena, ni mala; ni es neutral"— tiene sentido. "Cada tecnología abre el espacio de capacidades", dice Wiggins. "Algunas personas la usarán para ampliar derechos y hacer justicia y otras personas la usarán para oprimir y dañar".
Foto de Michael Dziedzic en Unsplash.