En la cuarta edición de AppWorld Revolution de F5 en Cancún, Fátima Rodríguez Giles, líder del programa Mujeres in Tech WOMCY expresó cómo las barreras para las mujeres en ciencia y tecnología persisten mientras la IA reproduce sesgos históricos.
La revolución digital cambió las reglas del mundo laboral tal y como se conocían. Pero otras, como la barrera que se les impone a las mujeres a la hora de profesionalizarse en ciertas áreas como ciencia y tecnología, permanecen casi intactas.
En la jornada del jueves de F5 AppWorld Revolution LATAM, evento que reunió a más de más de 500 profesionales de TI y ciberseguridad de 10 países de la región –incluyendo Argentina-, se realizó una charla sobre tecnología y perspectiva de género a cargo de WOMCY, organización sin fines de lucro dedicada a la profesionalización y el acompañamiento de mujeres en ciberseguridad. Se destacó la urgencia de cerrar la brecha existente y evitar el sesgo en el desarrollo de la IA.
A pesar de los avances en tecnología, las estadísticas demuestran que las mujeres aún no perciben el progreso tecnológico como una herramienta que mejore sus vidas o un campo de interés. Además, su representación en áreas como ciberseguridad sigue siendo el 25% de la fuerza laboral.
Durante el encuentro, Rodríguez Giles explicó cómo su iniciativa se focaliza en mujeres universitarias para demostrar que una carrera en ciberseguridad no solo es posible, sino que es una opción viable y con gran demanda en el mercado. Este programa es parte de los tres pilares de la ONG (profesionalización, mentoría y educación), que busca enfrentar la creciente escasez de profesionales femeninas en el sector.
La discusión central también incluyó el sesgo de género en la IA, un problema que no solo reside en el resultado final, sino que se incorpora desde la concepción, el diseño y la carga de datos de los algoritmos. Se enfatizó que, aunque los algoritmos son líneas de instrucciones, los sesgos humanos se transfieren a través de la calidad de los datos de entrenamiento y las decisiones de diseño.
Esto no es un problema únicamente tecnológico, es sociotecnológico. El poder identificar un sesgo requiere totalmente de personas que puedan entender cómo estamos funcionando como sociedad, porque los datos que utilizamos el día de hoy no fueron hechos ayer sino hace 10 o 20 años”, destacó la ingeniera.
«La inteligencia artificial la percibimos como neutral, pero está construida por nosotros y entrenada simulando un comportamiento humano. Todo esto arrastra secuelas en su desarrollo», señaló la especialista.
El sesgo no sólo ocurre en la fase inicial, sino que se retroalimenta incluso por la interacción de los usuarios en plataformas online, como se vio en el caso de una IA que «odiaba» a los humanos tras aprender de las interacciones en una red social.
Fuente: F5