Los deepfakes van en aumento, lo que genera más desinformación en redes sociales. Los contenidos multimedia generados por IA hacen cada vez más difícil separar la realidad de la ficción.
Los creadores de deepfakes buscan influir negativamente en la opinión pública durante los períodos electorales, confundir en tiempos de crisis, y más.
Por ejemplo, las imágenes generadas por IA de una explosión en el Pentágono que se hicieron virales en mayo pasado. Ya en marzo, circularon por las redes sociales imágenes falsas generadas por inteligencia artificial de la detención del expresidente Donald Trump y del Papa Francisco con un abrigo hinchable. Durante las elecciones generales de este año en Nigeria, se difundió por Internet un audio manipulado en el que se afirmaba que el candidato presidencial Atiku Abubakar, su compañero de fórmula, Ifeanyi Okowa, y el gobernador del estado de Sokoto, Aminu Tambuwal, planeaban cometer fraude.
Es innegable que los deepfakes plantean importantes problemas y preocupaciones a los medios de comunicación, dice Silas Jonathan, investigador de Dubawa y becario de la Academia Africana de Investigación de Fuentes Abiertas (AAOS). Cuanto más éxito tengan los desinformadores en el despliegue de deepfakes, más credibilidad perderán los medios, ya que el público será menos capaz de determinar qué es real y qué no lo es, explica Jeffrey Nyabor, periodista ghanés y verificador de hechos en Dubawa Ghana.
Sin embargo, la IA puede ser tanto el problema como la solución.
Te presentamos algunas herramientas que puedes utilizar para detectar y desenmascarar deepfakes.
Redes neuronales profundas
TensorFlow y PyTorch son dos ejemplos de herramientas gratuitas que emplean redes neuronales profundas para detectar deepfakes. Pueden utilizarse para analizar imágenes, vídeos y pistas de audio con el fin de detectar indicios de manipulación. Los usuarios solo tienen que subir ejemplos de contenidos reales y falsos para entrenar un modelo de detección que sea capaz de diferenciar entre ambos.
"Estas redes pueden aprender de grandes cantidades de datos para identificar incoherencias en expresiones faciales, movimientos o patrones de habla que puedan indicar la presencia de un deepfake", explica Jonathan. "Los algoritmos de aprendizaje automático también pueden entrenarse para analizar y detectar patrones en videos o imágenes para determinar si han sido manipulados o generados mediante técnicas de deepfake".
Deepware
Deepware es una tecnología de código abierto dedicada principalmente a detectar videos generados por IA. Dispone de un escáner al que se puede subir el material para averiguar si está manipulado sintéticamente.
Al igual que otros detectores de deepfakes, los modelos de deepware buscan signos de manipulación en el rostro humano. La principal limitación de la herramienta es su incapacidad para detectar técnicas de sustitución de voz, un peligro mucho mayor que el de sustitución de rostros.
"El resultado no siempre es preciso al 100%. A veces acierta o falla, dependiendo de la calidad de la falsificación, el idioma y otros factores", afirma Mayowa Tijani, redactora jefe de TheCable.
Sensity
Sensity está especializada en la detección de deepfakes y de imágenes generadas por IA. Sus avanzados modelos de aprendizaje automático permiten analizar señales visuales y contextuales para identificar imágenes generadas por IA.
La herramienta no es gratuita; las tarifas se personalizan en función del uso mensual y las áreas de interés individuales.
Hive
Con Hive, verificadores e internautas pueden escanear rápidamente textos e imágenes digitales para verificar su autenticidad. Para chequear una imagen, los usuarios suben un archivo a la sección de detección de contenidos generados por IA para que sea procesado rápidamente.
También existe la extensión para Chrome Hive AI Detector, que permite a los usuarios detectar gratuitamente texto e imágenes generados por IA desde el navegador.
Illuminarty
Illuminarty también ofrece la posibilidad de detectar imágenes y texto generados por IA. La versión gratuita incluye servicios básicos, mientras que los planes premium ofrecen más funciones.
Con esta herramienta, los usuarios pueden identificar dónde está exactamente la manipulación en una imagen falsa, y a partir de qué modelos de IA se ha generado. También pueden evaluar la probabilidad de que una imagen haya sido creada por IA.
Todas estas herramientas pueden ayudar a los usuarios a identificar y combatir los deepfakes, pero no son precisas el 100% de las veces. Siempre existe el riesgo de falsos positivos o negativos, donde el contenido legítimo puede ser marcado erróneamente como un deepfake o viceversa, explicó Jonathan.
Periodistas y verificadores también pueden detectar un deepfake observando el contenido de forma crítica. No todas las imágenes y vídeos generados por IA son superperfectos; muchos pueden detectarse observándolos detenidamente.
Imagen de Steve Johnson en Unsplash.