SEGRE

La IA no és feminista

Experts alerten que el seu ús en processos de selecció de personal perpetua la discriminació de gènere. Més formació, sensibilització i auditories, propostes per a una igualtat real

Ahir es va celebrar a Lleida una jornada centrada a analitzar desigualtats de gènere en la tecnologia. - INGRID SEGURA

Ahir es va celebrar a Lleida una jornada centrada a analitzar desigualtats de gènere en la tecnologia. - INGRID SEGURA

Creat:

Actualitzat:

Etiquetes:

Lleida tornarà a sortir al carrer avui per reclamar la igualtat real entre homes i dones. En un món cada vegada més digitalitzat, l’ús de la IA s’ha generalitzat en la selecció de personal i els experts alerten que si no s’entrena amb perspectiva de gènere, aquests algoritmes perpetuen la discriminació envers les dones.

La intel·ligència artificial està transformant el nostre món. Però si l’apliquem sense corregir els biaixos dels éssers humans, aquesta tecnologia no ens ajuda a millorar, sinó que perpetua aquests prejudicis. L’ús de la IA és una realitat que ha vingut per quedar-se en àmbits com el de la selecció de personal. Tanmateix, si aquesta no s’entrena amb perspectiva de gènere, reprodueix la discriminació envers les dones. Segons el portal Infojobs, el 65% de les empreses ja utilitzen la IA per destriar perfils. Meritxell Beltrán, dels estudis d’Economia i Empresa de la Universitat Oberta de Catalunya (UOC) i experta en l’impacte dels algoritmes en la igualtat de gènere, assegura en declaracions a SEGRE que cal ser conscients que se’ls han de donar pautes per no reproduir ni amplificar la discriminació. “En una entrevista de treball sabem que no es pot preguntar si una dona té fills, però no en som conscients ni ens preguntem si les eines que utilitzem per fer una selecció curricular són realment neutres”, assenyala.

En aquest sentit, adverteix que es dona per vàlid que la IA, al ser una màquina, serà neutral, però recorda que està entrenada per les persones. Per a Beltrán, els algoritmes sense pautes antidiscriminatòries “són una nova manera d’exercir la discriminació sistemàtica que han patit i pateixen les dones en el món laboral. És la mateixa discriminació amb una nova forma d’exercir-la”. De fet, recorda, si la tecnologia manté una base de dades esbiaixada i discriminatòria, es continuen associant els treballs racionals i de força als homes, i els de cures a les dones.

I, es pot revertir aquesta situació? Segons l’experta hi ha diverses mesures que es poden aplicar contra la discriminació. Posa com a exemple la formació en sensibilització de gènere, en ètica algorítmica i en normativa antidiscriminatòria dels departaments de recursos humans, així com auditorias algorítmiques per “saber què estem donant com un model d’èxit a l’algoritme”.

La professora de la UOC assegura que aquestes mesures es poden aconseguir a través dels convenis col·lectius, els plans d’igualtat o els pactes d’empresa. “Situar com un punt rellevant un ús ètic dels algoritmes en la selecció o la promoció del personal pot evitar continuar perpetuant la discriminació sistèmica de les dones en el món laboral”, conclou. “Si no hi ha sensibilització, no podrem passar d’una igualtat normativa, la qual cosa tenim ara, a una igualtat real”, remarca.

Els experts també alerten d’un altre concepte associat a la IA en el món laboral és la “bretxa invisible”, el fet que suposa ser descartat per un algoritme sense arribar a parlar amb un humà. Això comporta la mateixa discriminació i no deixa ni tan sols capacitat de rèplica.

Titulars del dia

* camp requerit
Subscriu-te a la newsletter de SEGRE
tracking