El sesgo algorítmico: Cuando la injusticia histórica se encuentra con la tecnología actual.
La igualdad de género en el empleo debe ser un derecho inalienable para todos los seres humanos. Pero la realidad nos dice que todavía falta un largo trecho por recorrer antes de que esto sea realidad. Esto es particularmente obvio cuando las herramientas de la tecnología escogidas para »simplificar» el proceso de selección perpetúan las desigualdades históricas que han sufrido las mujeres en el acceso al empleo.
¿Qué es la discriminación algorítmica?
La discriminación algorítmica se produce cuando el empleo de los algoritmos en los procesos de selección de personal no solo perpetúa los prejuicios y desigualdades del pasado, sino que también las amplifica y crea nuevas formas. Estas herramientas, aparentemente neutrales en términos de género, están programadas para reflejar con un compendio de datos históricos la deshumanización de pasados.
Esto significa que los instrumentos automáticos de selección pueden castigar la utilización de palabras que en los currículos se asocian normalmente con las mujeres o ignorar experiencias válidas no coincidentes en forma material con las plantillas masculinas dominantes. En busca de la eficiencia, se perpetúa la discriminación de las mujeres al acceso al empleo.
¿Cómo afecta esto a las mujeres que acceden a un empleo?
La discriminación algorítmica hará que las mujeres no tengan las mismas oportunidades que los hombres de acceder a un determinado puesto de empleo.
Un caso ejemplar es el de Amazon cuya máquina automática de selección descartaba automáticamente a las candidatas femeninas sobre la base de datos históricos de contratación como mayoritariamente hombres. Este caso, revela cómo un sistema mal diseñado puede perjudicar el acceso laboral de las mujeres.
Sin una intervención consciente y decidida, estas tecnologías no solo empeorarán las desigualdades, sino que las multiplicarán. Por eso, es crucial tomar medidas.
Cuatro herramientas metodológicas para combatir la discriminación algorítmica:
Para evitar que la inteligencia artificial refuerce el sesgo de género en los procesos de selección, sugiero cuatro herramientas fundamentales:
Formación en igualdad de género
Es vital que quienes diseñan y emplean estas herramientas entiendan la importancia de la igualdad de género. No basta con que aumenten su conciencia general con respecto a ella: han de aprender a buscar los sesgos implícitos que puedan haber incorporado tal discernimiento y cómo los reflejan los sistemas tecnológicos. Este es el primer paso necesario para tener una IA ética y no discriminatoria.
Transparencia algorítmica
Los algoritmos no deben tomarse como cajas negras. Las empresas han de ser transparentes sobre las operaciones de sus sistemas, qué datos emplean y cuáles criterios usan para seleccionar. Este grado de transparencia no sólo fomenta la confianza: también permite detectar y corregir errores antes de que afecten a personas.
Auditoría algorítmica
Es preciso realizar auditorías regulares para ver cómo trabajan los algoritmos y si están reproduciendo sesgos. Tales auditorías deberían estar a cargo de grupos interdisciplinarios que incluyan expertos en género, tecnología y derecho. Una auditoria bien realizada no se limita a destapar problemas: también ofrece sugerencias para solucionarlos.
Legislación clara y efectiva
Aunque la regulación del campo de la inteligencia artificial avanza, no lo hace con la rapidez y eficacia que debería. Hacen falta leyes que aborden la discriminación algorítmica. Estas leyes han de obligar a las empresas a garantizar la equidad en el diseño y empleo de herramientas de selección, con sanciones precisas para quien no cumpla con tales preceptos.
Tecnología para la igualdad entre géneros
La inteligencia artificial no es intrínsecamente buena ni mala; es una herramienta que refleja los valores de quienes la diseñan y utilizan. Tenemos la oportunidad de construir sistemas que promuevan la igualdad de género en el acceso al empleo, pero lograrlo requiere formación en igualdad de género, transparencia, auditorías y legislación.
Mi esperanza, y el motor de mi investigación, es garantizar que las mujeres no sean vistas como un «riesgo» o una «excepción» en los procesos de selección, sino como lo que realmente son: un talento imprescindible para construir un futuro más justo y diverso.
La discriminación algorítmica no es inevitable. Con voluntad y acción, podemos asegurarnos de que los algoritmos del mañana no perpetúen las desigualdades del pasado.