Racismo, supremacía y exclusión de mujeres: Las acciones de la Inteligencia Artificial

*

24.02.2025/Cimac Noticias.com/ Ciudad de México.- El ritmo acelerado con el que ha avanzado la Inteligencia Artificial, ha convertido a esta herramienta en una transformadora del mundo; se encuentra presente en el arte, en la programación, en la literatura, educación, en el periodismo, en la mercadotecnia y en todo espacio donde se ponga el ojo. Y aunque ha llegado para vindicar la vida de millones de personas, también ha sido una herramienta señalada por dar eco a ciertas desigualdades al ofertar datos con fuertes sesgos de género.

La manera más sencilla de dimensionar las implicaciones de estas prácticas es entender que la inteligencia artificial no es más que un sistema de aprendizaje automático capaz de replicar, sistematizar y aprender tareas a partir de los datos con los que se programan; se nutren constantemente de los algoritmos y de las personas que están detrás de su programación. Esto permite crear trabajos sumamente complejos en un par de minutos, desde imágenes, hasta análisis completos sobre fenómenos de cualquier corte.

La UNWOMEN refiere que, los sesgos aparecen ya de manera natural en la inteligencia artificial, es decir, que a pesar de que el mundo recién ha empezado a experimentar y desarrollar exitosamente esta herramienta, ésta ya posee una programación que perpetúa roles de género, como por ejemplo, crear imágenes de ciencia sólo con hombres como protagonistas y a mujeres en imágenes dedicadas a la enfermería o el hogar; las IA, con todo y sus deficiencias, ya interpreta que las mujeres y los hombres no poseen la mismas condiciones, por lo que la herramienta toma decisiones sesgadas y excluyentes.

Este fenómeno ha sido denunciado por mujeres programadoras y activistas digitales que han bautizado a este hecho «los sesgos de género», que consiste en hacer una distinción clara entre hombre – mujer como producto de los datos con los que se alimenta diariamente.

Racismo, supremacía y exclusión: Las acciones de la IA

Unwomen recoge el testimonio de Zinnya del Villar de Data – Pop Alliance quien advierte que no podemos ver este fenómeno de manera aislada, pues tiene profundas consecuencias en ejes fundamentales desde el acceso a la salud, hasta la abolición de la brecha salarial.
La especialista refiere que, por ejemplo, la IA ha tomado gran partida en el área de la salud, sin embargo, el sesgo produce que sólo considere los síntomas de los hombres como únicos en los diagnósticos, lo que podría causar tratamientos inadecuados o diagnósticos erróneos en el caso de las mujeres.

El New York Times ha documentado en una de sus investigaciones que la mayoría de los sistemas de reconocimiento facial tienen problemas para reconocer los rostros de las mujeres, particularmente, de mujeres afrodescendientes o asiáticas, un error que no se repite en las mujeres blancas. Este hecho ahonda en la discriminación y segregación racial, pues podría derivar en serias consecuencias como por ejemplo, errores de identificación, criminalización, interrogatorios a mujeres inocentes, falsas detenciones e incluso, fabricación del delito. Asimismo, en mayo del 2018 se encontró que un programa informático utilizado en un tribunal de los Estados Unidos tendía a señalar hasta dos veces más a las personas negras como posibles culpables del delito, según recoge la BBC.

El gigante de Amazon lanzó una herramienta de inteligencia artificial que le permitiría segregar mejor los perfiles de las y los postulantes interesados en laborar en la compañía; el objetivo era revisar las solicitudes de empleo, darles una calificación y posteriormente, filtrar únicamente a las personas que obtuvieran 5 estrellas en su verificación. Aunque la idea resultaba tentadora y una manera extraordinaria de ahorrar tiempo, pronto se descubriría que la IA estaba replicando modelos de exclusión, particularmente, en contra de mujeres.
Durante todo un año, el sistema comenzó a penalizar la palabra «mujer», por lo que los candidatos elegidos eran únicamente hombres. Y aunque Amazon pretendió arreglar la situación reprogramando la IA y añadiendo términos como «género neutral», el proyecto terminó siendo abandonado porque no sólo representaba un gasto, sino también, resultaba imposible confiar completamente en el juicio de la IA.

Otro ejemplo concreto fue el chatbot Tay lanzado por Microsoft en 2016 donde usuarios de -entonces- Twitter podían interactuar con la herramienta, sin embargo, la IA dio hacia abajo luego de que el bot aprendiera rápidamente a replicar respuestas altamente misóginas, racistas, defender la supremacía blanca y expresar admiración por Hitler.

De esta manera, existen múltiples ejemplos documentados de que la IA puede llegar a ser un terreno donde las mujeres no son bienvenidas; no sólo por una subrepresentación como programadoras, sino también, como un sector que puede llegar a ser violentado y segregado por el mismo algoritmo.

A nivel global sólo 2 de cada 10 personas con puestos técnicos en la programación de inteligencia artificial son mujeres; sólo el 12% son investigadoras de IA y en una brecha más amplia, sólo el 6% de los desarrolladores profesionales de software son mujeres, según el informe I’d Blush If I Could de la UNESCO.

En la Ciudad de México, las mujeres representan el 33.2 por ciento del total de personas graduadas en áreas relacionadas con programas de Ciencia, Tecnología, Ingeniería y Matemáticas (STEM en inglés), detalla la Comisión de Derechos Humanos de la Ciudad de México.
En estos trabajos las mujeres empleadas con profesiones STEM por lo general ganan un 18% menos que los hombres.A

Además, hoy en día, las mujeres y las niñas tienen un 25% menos de probabilidades que los hombres de saber aprovechar la tecnología digital para fines básicos, 4 veces menos de saber programar ordenadores y 13 veces menos de solicitar una patente TIC.

¿Qué podemos hacer?

La IA no sólo puede ser alimentada por la violencia y la segregación, sino también, puede ser una aliada clave para combatir y erradicar prácticas de discriminación. Ejemplos de éxito también existen, como las aplicaciones que ofrecen seguridad para proteger y auxiliar a las mujeres en peligro o chatbots creados para contener a las víctimas de violencia, como Sophia, que conversa con sobrevivientes, les da apoyo y conecta con servicios jurídicos.

«“Asimismo, los sistemas de IA deberían ser creados por equipos de desarrollo diversos formados por personas de distintos géneros, razas y orígenes culturales. De esta manera, el proceso se nutre de distintas perspectivas y se reducen los puntos ciegos que pueden causar sistemas de IA sesgados”, dice Del Villar para Unwomen.

La IA nació desde un seno androcentrista, sin embargo, es la participación de las mujeres en el área lo que está abonando a destruir estas narrativas; las programadoras son la revolución de este sistema y su trabajo es vitalicio para combatir que la IA continúe siendo nutrida por programadores con visiones excluyentes. La Unwomen recoge los siguientes puntos sobre qué prácticas deben persuadirse:

  • Usar conjuntos de datos diversos y representativos para entrenar los sistemas de IA
  • Mejorar la transparencia de los algoritmos en los sistemas de IA
  • Garantizar la diversidad e inclusión de los equipos de investigación y desarrollo de la IA para evitar puntos ciegos
  • Adoptar sólidos marcos éticos para los sistemas de IA
  • Integrar políticas sensibles al género en el desarrollo de los sistemas de IA