Detrás de los sesgos y la inclusividad en la inteligencia artificial

Sep 28, 2023 em Periodismo digital
asfasfaf

A partir de la entrada de Chat GPT y otras interfaces que emplean modelos de lenguaje por Inteligencia Artificial (IA), se reconocen cada vez más sus sesgos y también retos para construir una tecnología más inclusiva y justa.

El desarrollo acelerado de su automatización puede producir daños inimaginables que perpetúen el sexismo, el racismo y otras formas nocivas de discriminación que amenazan nuestras sociedades en todos los aspectos de la vida e inclusive la vida misma.

¿Cómo desde una mirada inclusiva podemos combatir los sesgos y construir una IA que realmente beneficie a la humanidad y el medio ambiente? 

Los sesgos de la IA no son sólo daños potenciales sino actuales

Aunque el campo de la IA no es nuevo, en los últimos años los avances son tan vertiginosos que para las personas es difícil dar cuenta que no sólo se trata de nuevas herramientas digitales sino de modelos de toma de decisiones que impactan casi todas las áreas de nuestra vida. 

Sus aplicaciones van desde los contenidos y anuncios que vemos diariamente a través de nuestros perfiles digitales hasta sistemas autónomos letales para el uso militar, pasando por atención al cliente, evaluación de crédito, selección de perfiles laborales, diagnóstico médico, automatización de procesos industriales y la gestión de energía, por mencionar algunos. 

Si bien es cierto que la IA tiene la potencia para buscar asociaciones y patrones entre grandes cantidades de datos o los macrodatos de forma autónoma, esto no quiere decir que sea por sí misma neutral y objetiva. 

 Los sesgos provienen de los algoritmos y la calidad de los datos, los pilares que hacen que esta tecnología funcione. Pueden ser introducidos a lo largo de todo el proceso de codificación o también pueden surgir como resultado de las asociaciones que la tecnología hace. Con mayor o menor contribución humana, en muchas ocasiones su impacto suele replicar los problemas enraizados del sexismo y el racismo estructural.  

Existen casos en el mundo, tanto del sector público como privado, donde los daños de la IA hacia los grupos históricamente discriminados son una cuestión del presente y no meramente un asunto potencial. 

Entre estos podemos mencionar algunos como: el programa sexista de reclutamiento en Amazon, el sistema del gobierno neerlandés que acusó sin fundamento a familias inmigrantes de fraude fiscal, el sistema de uso judicial COMPAS que predice la probabilidad de reincidencia en presos y la vigilancia de reconocimiento facial retrospectivo que se utiliza tanto en Estados Unidos como países en Europa para el control policial afectando desproporcionadamente a la población racializada. 

En estos sistemas los algoritmos evalúan los riesgos asignando puntuaciones a partir de características personales como el género, edad, origen y su relación a entornos de pobreza que limitan las oportunidades y la libertad de una persona. 

Es así como amplifican las desigualdades existentes a través de la vigilancia continua y formas de deshumanización que en contextos de guerra significa la violación masiva de derechos humanos y la desprotección del medio ambiente. Estos escenarios hacen recordar ficciones como 1984 de George Orwell o las historias de la serie Black Mirror como el episodio Nosedive (Caída libre) o Men against fire (Hombres contra el fuego).

Desafíos de las propuestas hacia la inclusividad en la IA 

Algunas propuestas para construir una IA más justa van desde desarrollar códigos inclusivos hasta la implementación de prácticas de codificación inclusivas. Líderes de las empresas de datos, por ejemplo, sugieren que para lograr esos objetivos es necesaria la conformación de equipos de trabajo diversos.

Si bien es una propuesta necesaria, no es suficiente. Además de representación en espacios de trabajo, es trascendental que los códigos y sus prácticas de desarrollo sean transparentes, interpretables y explicables en contraste a la noción de la “caja negra” donde se desconoce el funcionamiento del modelo y sólo son observables los resultados. 

Es trascendental la claridad en el qué, cómo y principalmente el por qué se codifica.

 De acuerdo a Michelle Díaz, Ingeniera en Machine Learning y Fundadora de Technolatinas, “la explicabilidad e interpretabilidad son importantes para detectar y reaccionar ante resultados o acciones ‘tomadas’ por el modelo. Permite que el modelo se pueda probar bajo diferentes circunstancias, por personas de diferentes contextos y así potencialmente identificar sesgos”.

Asimismo, Michelle agrega que para diseñar mecanismos de interpretabilidad efectivos que tomen en cuenta los diferentes tipos de personas usuarias se deben identificar y considerar todas las partes interesadas y el objetivo que se trata de lograr. 

Además dice que “la explicabilidad e interpretabilidad deben ser comprensibles para las personas que construyen los modelos, personas tomadoras de decisiones u organismos reguladores que desean auditar el cumplimiento legal o ético y, por supuesto, las personas usuarias finales desean para poder tener seguridad y confianza en el modelo”.

El desafío de construir una IA más justa se ensancha también cuando examinamos, además de los algoritmos, la problemática de la brecha de datos. Carolina Criado, en su libro “La mujer invisible”, muestra a través de estudios, historias personales e investigaciones en todo el mundo cómo las mujeres han sido olvidadas y el impacto que esto ha tenido en su salud y bienestar.  

Explica que la mayor parte de los conocimientos que tenemos parten de datos masculinos que han configurado el mundo y que se contemplan como universales. Lo que no sólo explica las grandes desigualdades de género, sino la dificultad de identificar sesgos normalizados en un contexto que identidades que no conforman la piel blanca y el sexo masculino son ignoradas. 

Los sesgos de género están en políticas públicas, planificación de ciudades, construcción de la tecnología, medios de comunicación o de transporte, indica. Así como también en el ámbito de la medicina donde se ha descubierto que las mujeres son peor diagnosticadas que los hombres en al menos 700 patologías. Una situación que además deslegitima a las mujeres considerando a lo femenino como algo inferior.

De modo que será muy importante motivar auditorías constantes de las bases de datos, además de políticas públicas que aseguren la construcción de datos con perspectiva de género y antirracista en el sector de la información, la investigación y la ciencia. 

Por último, es importante destacar el efecto global en el uso de la IA y reflexionar sobre el impacto asimétrico de ciertas tecnologías en diversos contextos geográficos. Por lo que la inclusividad debería significar también la paralización en el desarrollo de tecnologías como el reconocimiento facial con precisión fenotípica y de género, cuando en muchos países o regiones pueden utilizarlas para la persecución y criminalización.

La Comisión Europea propuso en 2021 el primer marco regulador para garantizar mejores condiciones de desarrollo y uso de la IA. Aunque puede ser una base para reflexionar, es importante propiciar la adecuación de estos marcos de acuerdo a las problemáticas y necesidades únicas de cada país o región. 

Sobre esto, Michelle comenta que “las aplicaciones y casos de uso de IA son tantas que sería casi imposible que los lineamientos de un marco general sean lo suficientemente extendibles para todas ellas. Sí se puede tener un framework base con un enfoque en derechos humanos y responsabilidad hacia con los seres vivos y el medio ambiente a partir del cual se pueda determinar el cumplimiento legal y ético”.  

En primera línea para la protección de la vida será urgente la regulación y limitación inmediata de sistemas de IA para uso militar y armas nucleares, o aquellos que hacen manejo y uso de datos en el sector salud.


Imagen de Freepik.