Ser mujer en tiempos de IA: cuando tu jefe es el algoritmo .

/ Foto: Riders de Glove y Deliver en el centro de Madrid. (David F. Sabadell)/

29.02.2024. La inteligencia artificial es el nuevo paradigma social. Todo el mundo habla de ella y el consenso sobre su infalibilidad y beneficios hace rato trascendió el ámbito de las grandes empresas desarrolladoras de tecnologías para pasar a instalarse como una idea bastante enraizada en la sociedad.

En esta época gobernada por el tecnosolucionismo, cada vez son más las Administraciones públicas, empresas y organizaciones de todo ámbito que utilizan herramientas de IA para automatizar procesos y decisiones bajo una premisa de oro: mejorar la eficiencia, la productividad y reducir costes. La IA está de moda.

¿Pero cómo está impactando este nuevo modelo de ordenamiento social en la de vida de las personas, concretamente en la vida laboral de las mujeres?

Los sesgos de género en la focalización (targeting) de los anuncios de plataformas como LinkedIn hacen que las mujeres no vean ofertas de trabajo que el algoritmo sí muestra a los hombres

Se supone que la IA está para ayudarnos, para hacernos la vida menos compleja, pero si hacemos un repaso por sus usos vemos cómo está sirviendo para reproducir viejos patrones de poder. En un estudio conjunto de la UNESCO, el BID y la OCDE llamado Los efectos de la IA en la vida laboral de las mujeres, publicado en 2022, se mencionan varios aspectos en los que el uso de inteligencia artificial está perjudicando a las mujeres al momento de buscar y conseguir un trabajo.

Es el caso de los sesgos de género en la focalización (targeting) de los anuncios de plataformas como LinkedIn, Indeed y Facebook, que hace que las mujeres dejemos de ver determinadas ofertas de trabajo que el algoritmo sí muestra a los hombres. En un experimento con más de 60 mil anuncios, citado por este estudio, se encontró que asignar el género “femenino” a un usuario derivaba en que a esta persona se le mostraran menos anuncios de empleos de alta remuneración, que cuando se le asignaba el género “masculino”.

Ya en 2018 LinkedIn descubrió que sus algoritmos mostraban más puestos abiertos a hombres que a mujeres solo por el hecho de que los hombres buscan nuevos trabajos más a menudo, lo que podría estar relacionado, según esta investigación, a determinados patrones sociales de género: los hombres tienen más tiempo para buscar ofertas de trabajo al dedicar menos tiempo al cuidado de los hijos y además suelen ser más propensos a postularse a puestos para los que están sub-cualificados y a autoasignarse más habilidades de las que tienen.

Los sesgos de género en la focalización de los anuncios impactan directamente en la cantidad de hombres y mujeres que desempeñan determinadas ocupaciones. Un estudio de 2019 sobre el sesgo algorítmico de género en la visualización de ofertas laborales en áreas como ciencia, tecnología, ingeniería y matemáticas determinó que los anuncios de trabajo en estas cuatro áreas se muestran un 20 por ciento más a hombres que a mujeres y que esto termina repercutiendo negativamente en el número de mujeres que ingresan a estudiar a algunas de estas carreras. Esto influye después en el número de mujeres que diseñan y desarrollan sistemas de IA, produciéndose así un círculo vicioso que alimenta y reproduce el sesgo.

El “candidato ideal”

Otro ejemplo de esta carrera loca por el “tecnosolucionismo” en el ámbito laboral son las diversas herramientas de IA que están surgiendo para revisar currículos en tiempo récord y analizar vídeos de entrevistas de trabajo con el fin de puntuar aspectos como expresiones faciales, entonación de la voz y uso de determinadas palabras. Empresas como L´Oreal, Telepizza, Prosegur o Securitas Direct ya están utilizando este tipo de tecnologías, las que se ofertan con el plus de obtener mayor diversidad en las candidaturas al eliminar supuestamente los sesgos de género y raza de reclutadores humanos.

¿Pero funcionan? En el marco de un informe de 2022 sobre sesgos de raza y género en herramientas de IA para contratación laboral, el Centro de estudios de Género de Cambridge quiso probar la efectividad de estas herramientas creando un programa propio basado en IA para analizar vídeos de entrevistas de trabajo. El informe reveló que pequeños cambios en las expresiones fáciles, la ropa e incluso la iluminación, podían dar lecturas de personalidad totalmente diferentes, cuestionando por tanto la eficacia de este tipo de tecnologías.

Por otro lado, el equipo de Cambridge afirmó que estas herramientas pueden aumentar la homogeneidad de las personas contratadas (en lugar de ampliar la diversidad), porque los algoritmos están programados para premiar características previamente comunicadas por los empleadores, sin tomar en cuenta las condiciones estructurales que hacen que las personas calcen o no con estos perfiles.

Cuando el que manda es el algoritmo

Uno de los ámbitos laborales donde la realidad está superando a la ficción en materia de uso de IA es el de las plataformas de reparto a domicilio. Estas empresas se enmarcan en la llamada economía digital y basan su funcionamiento interno en una organización algorítmica del trabajo.

En diciembre del año pasado tuve la oportunidad de coincidir en un evento en Lisboa con Nuria Soto Aliaga, una de las fundadoras de Riders x Derechos. En aquel encuentro Soto Aliaga comentaba que las mujeres riders sufren penalizaciones específicas por parte de los algoritmos utilizados en estas aplicaciones: cuando están menstruando, al parar en establecimientos para poder entrar a un servicio, el algoritmo determina que están tardando demasiado tiempo en hacer una entrega. Estas penalizaciones influyen en los pedidos y las zonas que les asignarán al día siguiente. Y si acumulan demasiadas penalizaciones, corren el riesgo de ser “desconectadas”, que en el lenguaje inventado por estas plataformas significa ser despedidas.

En su libro Riders on the storm, Soto Aliaga comenta otras formas en que este tipo de trabajo está perjudicando a las mujeres: acoso laboral por parte de los clientes, quienes muchas veces reciben a las repartidoras en ropa interior, les hacen propuestas sexuales o les envían mensajes directamente a sus números de móviles (la plataforma les permite acceder a la foto y el número de teléfono de las personas que reparten); problemas de infecciones o cistitis al no contar con un centro de trabajo que les permita acudir a un baño cuando lo necesitan y, derivado de esto, un gasto extra mensual al tener que comprar repetidamente en establecimientos para poder acceder a un servicio.

Las riders no son las únicas que se están viendo afectadas por esta organización algorítmica del trabajo. El libro también habla de la irrupción de la economía de plataformas en sectores altamente feminizados, precarizados y racializados, como es el caso de las trabajadoras sexuales, las trabajadoras del hogar y los cuidados y las camareras de piso, quienes a golpe de un clic se ven obligadas a limpiar habitaciones de hotel en tiempos imposibles, a realizar jornadas laborales que no entienden de horarios ni de tiempos de descanso, por culpa de la proliferación de apps y plataformas que buscan ofrecer los precios más competitivos a costa de la explotación laboral de las trabajadoras, las que deben estar siempre “disponibles” para evitar ser penalizadas por el algoritmo.

“El algoritmo era como tener un jefe omnipresente con el que no podías argumentar, pero que podía imponerte cómo, cuándo y de qué manera ibas a trabajar y en qué momento iba a prescindir de ti”

En referencia a su trabajo como rider, Soto Aliaga señala que “pese a que supuestamente éramos nuestros propios jefes, nunca me he sentido tan vigilada en un trabajo, ni me he regido por un sistema que penalizara tanto el más mínimo desvío de lo que de ti se esperaba”. Y añade: “El algoritmo era como tener un jefe omnipresente con el que no podías argumentar, pero que podía imponerte cómo, cuándo y de qué manera ibas a trabajar y en qué momento iba a prescindir de ti”.

Se sabe que los sectores más precarizados suelen ser laboratorios de pruebas de prácticas que luego se terminan extendiendo al resto de la sociedad. Lo que ahora a muchas les puede parecer lejano porque “no les toca” tal vez mañana rija su salario, sus horarios y su vida entera.

El uso de IA en cuestiones que tienen que ver con derechos de las personas solo se puede frenar mediante una lucha colectiva y organizada. Cuanto antes comencemos, mejor.

Este material se comparte con autorización de El Salto