domingo 15 de junio de 2025 - Edición Nº4103

Interés general | 14 jun 2025

Apenas un 25 %

Sigue siendo baja la fuerza laboral femenina en ciberseguridad

Fue uno de los ejes abordados en la cuarta edición de AppWorld Revolution de F5 en Cancún. Las barreras para las mujeres en ciencia y tecnología persisten mientras la IA reproduce sesgos históricos.


La revolución digital cambió las reglas del mundo laboral tal y como se conocían. Pero otras, como la barrera que se les impone a las mujeres a la hora de profesionalizarse en ciertas áreas como ciencia y tecnología, permanecen casi intactas

En la jornada de este jueves de F5 AppWorld Revolution LATAM, evento que reunió a más de más de 500 profesionales de TI y ciberseguridad de 10 países de la región –incluyendo Argentina-, se realizó una charla sobre tecnología y perspectiva de género a cargo de WOMCY, organización sin fines de lucro dedicada a la profesionalización y el acompañamiento de mujeres en ciberseguridad. Se destacó la urgencia de cerrar la brecha existente y evitar el sesgo en el desarrollo de la Inteligencia Artificial (IA). 

A pesar de los avances en tecnología, las estadísticas demuestran que las mujeres aún no perciben el progreso tecnológico como una herramienta que mejore sus vidas o un campo de interés. Además, su representación en áreas como ciberseguridad sigue siendo el 25 % de la fuerza laboral.

Durante el encuentro, Fátima Rodríguez Giles, líder del programa Tech in WOMCY, explicó cómo su iniciativa se focaliza en mujeres universitarias para demostrar que una carrera en ciberseguridad no solo es posible, sino que es una opción viable y con gran demanda en el mercado. Este programa es parte de los tres pilares de la ONG (profesionalización, mentoría y educación), que busca enfrentar la creciente escasez de profesionales femeninas en el sector.

Los sesgos de género: Un problema sociotecnológico

La discusión central también incluyó el sesgo de género en la Inteligencia Artificial, un problema que no solo reside en el resultado final, sino que se incorpora desde la concepción, el diseño y la carga de datos de los algoritmos. Se enfatizó que, aunque los algoritmos son líneas de instrucciones, los sesgos humanos se transfieren a través de la calidad de los datos de entrenamiento y las decisiones de diseño. 

“Esto no es un problema únicamente tecnológico, es sociotecnológico. El poder identificar un sesgo requiere totalmente de personas que puedan entender cómo estamos funcionando como sociedad, porque los datos que utilizamos el día de hoy no fueron hechos ayer sino hace 10 o 20 años”, destacó la ingeniera. Un ejemplo de cómo la tecnología sigue perpetuando desigualdades estructurales fue el caso de un modelo de reclutamiento que penalizaba currículums de mujeres.

La inteligencia artificial la percibimos como neutral, pero está construida por nosotros y entrenada simulando un comportamiento humano. Todo esto arrastra secuelas en su desarrollo”, señaló la especialista. El sesgo no sólo ocurre en la fase inicial, sino que se retroalimenta incluso por la interacción de los usuarios en plataformas online, como se vio en el caso de una IA que “odiaba” a los humanos tras aprender de las interacciones en una red social.

Para combatir estos desafíos, es importante:

Diversificar los equipos de desarrollo: Es crucial que los equipos sean heterogéneos e incluyan a personas de grupos subrepresentados para identificar y mitigar sesgos.

Establecer marcos éticos y transparencia: La creación de algoritmos debe regirse por marcos éticos sólidos y permitir auditorías para garantizar la ausencia de sesgos.

Limpieza de datos y conciencia histórica: Reconocer que los sesgos actuales a menudo provienen de datos históricos y de deudas sociales es fundamental para una corrección efectiva.

Finalmente, se destacó la importancia de los equipos de trabajo equitativos como parte del plan de cada proyecto tecnológico.
 

OPINÁ, DEJÁ TU COMENTARIO:
Más Noticias