Inteligencia Artificial
Alegan inequidad de género en la Inteligencia Artificial
- En artículos publicados por ONUMujer, se concluye que debido a la escasa participación femenina en el desarrollo de la inteligencia artificial los modelos no están siendo neutrales al generar sesgos algorítmicos que favorecen la desigualdad de género.
Usando como base estudios realizados por la UNESCO y el CENIA, que sitúan la participación femenina en el desarrollo de software de IA entre el 6% y el 26,8%, acusan a las plataformas de IA de estar influyendo negativamente en la equidad de oportunidades laborales al carecer de tecnologías inclusivas.
Para el organismo internacional promotor del feminismo, la menor representación de la mujer potencialmente exacerba los sesgos de género y de raza en los sistemas de IA al aplicar algoritmos entrenados con datos sesgados que utilizan lenguajes discriminatorios que asocian la palabra “líder” a hombres y “asistente” a mujeres.
Industria minera
Señalan a la industrias minera como un ejemplo del avance acelerado de la IA, que al estar utilizando algoritmos entrenados con datos históricos neutros podrían tender a excluir a mujeres de determinados procesos laborales.
Añaden que el desarrollo de la IA dominado por una mayor representación masculina limita la innovación, reduce el interés femenino por carreras STEM y desalienta las vocaciones tecnológicas en mujeres jóvenes que podrían ejercer influencia en las tecnologías emergentes.
Descargos de las plataformas IA
Diversos artículos y advertencias en las plataformas de IA reconocen las limitaciones y sesgos que pueden generarse en las respuestas que ofrecen y destacan sus estrategias para mitigar sesgos, centradas en fases de preentrenamiento, entrenamiento y postentrenamiento,
Destacan la permanente labor de los desarrolladores:
- Revisando con atención la procedencia de los datos con que se entrenan los modelo de IA, investigando el origen de los datos y su representatividad conscientes que una base de datos sesgada, entregará respuestas sesgadas y eventualmente comprometiendo todo el proceso.
- Implementando pruebas de equidad durante la fase de validación del modelo, que incluyen métricas que evalúan la equidad en las predicciones, asegurando que no existan disparidades significativas entre grupos.
- Actualizando y reentrenando el modelo periódicamente dado que los contextos sociales y económicos cambian y lo que era representativo en un momento puede haber dejado de serlo en otro.
- Manteniendo los modelos actualizados para reflejar las nuevas realidades.
Recomiendación a los usuarios
- Retroalimentar los modelos opinando sobre el desempeño de éstos y destacando que la retroalimentación resulta crucial para detectar comportamientos inesperados o injustos.
- Utilizar herramientas de interpretabilidad no subestimando la importancia de entender cómo y por qué los modelos deciden sus propuestas. Señalan que herramientas de interpretabilidad, como LIME o SHAP, pueden ayudar a desentrañar el razonamiento detrás de las predicciones y permitir a los desarrolladores y usuarios identificar rápidamente cualquier sesgo o comportamiento inesperado.
Recuerdan que la prevención del sesgo no es una tarea única, sino un proceso continuo de revisión, ajuste y aprendizaje en el que la ética esta siempre presente en cada etapa del desarrollo.










