A medida que nos adentramos más en el siglo XXI, la inteligencia artificial (IA) y el big data se han convertido en herramientas cruciales en una multitud de sectores, prometiendo revolucionar desde la atención médica hasta la administración pública. Sin embargo, a pesar de sus promesas de eficiencia y personalización, estas tecnologías también han replicado y, en algunos casos, intensificado las desigualdades de género preexistentes en la sociedad.
Desde los inicios de la computación moderna, las barreras no solo en el acceso y la participación en el sector tecnológico, sino también en cómo las tecnologías emergentes como la IA han perpetuado las desigualdades de género son evidentes. Históricamente, programas como el «IBM Programmer Aptitude Test» de 1967 excluyeron explícitamente a las mujeres, marcando el comienzo de una larga serie de discriminaciones tecnológicas. Estos precedentes establecieron un patrón que ha seguido afectando negativamente a las mujeres hasta la fecha.
En los últimos años, hemos visto cómo algoritmos de plataformas como LinkedIn y herramientas de traducción como Google Translate han reforzado roles y estereotipos de género. Por ejemplo, un estudio de la Universidad de Stanford en 2018 mostró cómo Google Translate asignaba géneros a profesiones, perpetuando estereotipos anticuados. Más preocupante aún, un algoritmo de reclutamiento de Amazon desechó sistemáticamente los CVs de mujeres debido a los sesgos en los datos de entrenamiento, un error que pasó desapercibido hasta que una investigación interna sacó a la luz la profundidad del problema.
La situación es alarmante: según un informe de IBM de 2023, solo 3 de cada 10 empresas realizan pruebas para reducir sesgos no deseados en sus algoritmos de IA. Esto significa que la mayoría de las tecnologías que influencian decisiones importantes, desde contrataciones hasta créditos y atención médica, pueden estar operando bajo prejuicios no corregidos.
La falta de medidas correctivas adecuadas y la insuficiente regulación han permitido que estos problemas persistan y se magnifiquen. La solución a estos desafíos no es sencilla y requiere una combinación de regulación más estricta, mejor transparencia y un compromiso más firme con la eliminación de sesgos en la recopilación y el uso de datos. Las empresas deben ser obligadas a realizar auditorías regulares de sus algoritmos, mejorando la calidad de los datos con los que entrenan sus sistemas para asegurar que reflejen una perspectiva justa y equitativa.
Es crucial también una mayor colaboración entre los sectores público y privado para desarrollar directrices éticas y estándares que guíen el desarrollo y uso de la IA. La transparencia en los procesos de toma de decisiones y la apertura al diálogo social y la negociación colectiva pueden ayudar a garantizar que las voces de las mujeres no solo sean escuchadas, sino también integradas activamente en la creación de soluciones tecnológicas.
Autores como Cathy O’Neil han explorado estos temas en profundidad en obras como «Weapons of Math Destruction», donde se detallan los impactos destructivos de algoritmos no regulados y sesgados. O’Neil y otros expertos argumentan que sin una acción decisiva, la tecnología podría profundizar las divisiones sociales en lugar de cerrarlas.
En definitiva, el avance hacia una IA equitativa y justa es más que una necesidad técnica; es un imperativo ético y social. Las empresas y los reguladores deben actuar ahora para asegurar que la tecnología refleje los principios de equidad y justicia que son fundamentales para una sociedad progresista. La era de la IA debe ser una era de inclusión, no de perpetuación de antiguas injusticias.
Descubre más desde Isidora Cultural
Suscríbete y recibe las últimas entradas en tu correo electrónico.
Deja una respuesta