8-M

És possible una IA feminista?

Expertes expliquen com s'està regulant la intel·ligència artificial i quins passos cal seguir per aconseguir algoritmes ètics i compromesos amb la societat

Ciber feminisme
07/03/2026
5 min
Dossier 8-M: la discriminació masclista de l'algoritme 4 articles

BarcelonaQue partim d'una intel·ligència artificial amb algoritmes esbiaixats no és secret per a ningú. S'ha demostrat i s'ha remarcat la perillositat d'utilitzar la IA sense regulació, sigui per finalitats personals, o per fer-ne ús en una empresa o una institució, o el que és més alarmant, divulgar contingut a les xarxes. Aconseguir algoritmes ètics, alineats amb els valors democràtics i que tinguin perspectiva de gènere és un objectiu que, sobretot a Europa, s'està intentant assolir. Dones expertes en aquesta matèria posen llum davant d'una tecnologia que avança molt ràpidament, que sembla difícil de controlar i en la qual, com passa al món de les big tech, hi falten dones.

"Els equips que fins ara han estat entrenant la IA han estat homes blancs que porten un biaix incorporat. La manca de dones ha fet que ningú llancés l'alerta per dir, per exemple, que aquí hi ha dos milions de fotos i són totes de senyors", assegura Karina Gibert, professora i catedràtica de l'Intelligent Data Science and Artificial Intelligence (IDEAI) de la UPC i professora de la Facultat d'Informàtica de Barcelona. Gibert explica que una IA esbiaixada prové "d'una vulgar mala praxi", que combina la falta de dones en els processos i la utilització de dades també esbiaixades per entrenar aquests algoritmes.

Qui és més vulnerable als biaixos dels algoritmes? Doncs "els que no estan asseguts a la taula", diu Tatiana Caldas Löttiger, advocada especialitzada en tecnologia i regulació de la IA arreu del món. "Les dones, encara que estiguin al mercat laboral, han de ficar-se a la conversa i qüestionar. Tenim un rol important". Caldas té 20 anys d'experiència en legalitat internacional i és fundadora i CEO d'‘International WoMenX in Business for Ethical AI, una organització civil que busca construir un món on la IA sigui desenvolupada i utilitzada de manera ètica.

La solució passa també per regular els algoritmes i formar les persones que entrenen aquesta tecnologia, així com propiciar un canvi cultural en la societat. Podem crear una IA feminista? "És clar que podem. El que passa és que si algú la crea, la societat l'ha de consumir", afirma Karina Gibert.

Regular algoritmes: una peça clau

Europa és qui està més avançada pel que fa a la regulació de la IA: la EU AI Act, aprovada el 2024, és la primera llei al món que regula de manera integral aquesta tecnologia per aconseguir que respecti els drets fonamentals. Tot i que la seva integració encara no és completa (s'ha anat ajornant i s'espera que es faci l'agost del 2027), aquesta llei classifica els sistemes d'IA segons el seu risc (prohibits totalment, d'alt risc, de risc limitat o de risc mínim).

"Si tu tens una aplicació per recomanar llibres, segurament no tindrà cap risc, però si tens una aplicació que dona consells a metges o fa diagnòstics, això seria de risc alt i hauria de passar un procés de validació per assegurar que es compleixen certs requisits de seguretat i uns mínims ètics", explica Caroline König, enginyeria informàtica experta en IA i investigadora de l'Intelligent Data Science and Artificial Intelligence de la UPC.

"Ara mateix, estem en un moment d'impàs, de desplegament de la llei. Encara podem tenir una IA legal que no sigui completament ètica", deixa clar Gibert, que també és degana del Col·legi Oficial d’Enginyeria Informàtica de Catalunya.

Què pot passar si una empresa fa servir una IA no regulada? Per exemple, a l’hora de contractar algú, els algoritmes poden discriminar perquè utilitzen dades esbiaixades. Però, amb tecnologia entrenada, la cosa canvia. Per exemple, a Anglaterra, diverses asseguradores van deixar de vendre serveis a dones divorciades perquè es va demostrar que estaven en estat de vulnerabilitat i no tenien la capacitat econòmica per fer-hi front. Abans, bancs i asseguradores venien targetes de crèdit o assegurances a tots els clients sense importar el seu estat econòmic, amb IA regulada van passar a tenir l’obligació ètica de no fer-ho.

Ara bé, el que també es posa sobre la taula és fins a quin punt la regulació pot estar al dia: la tecnologia avança massa ràpid per tenir una normativa actualitzada, i requereix molts esforços que comporten temps. Caldas ho resumeix molt bé: “Amb la IA generativa, s’estan generant danys que ni tan sols es consideraven. Qui ho analitza? Qui et diu que és d’alt o baix risc? No hi ha temps perquè el regulador o qui fa les lleis faci una normativa sobre això”. "La IA generativa, com ChatGPT, no es considerarà d'alt risc, però haurà de complir requisits de transparència i amb la legislació europea de drets d'autor", assegurava fa un temps el Parlament Europeu. Ara, ja s'ha demostrat que els xatbots són una eina perillosa, però no era així en un principi, no fins que s'ha vist que jugava en contra dels més joves i de les dones, en especial.

Un cas pràctic

"Ara mirem coses que potser fa quatre anys no haguéssim mirat. Al principi, l’objectiu principal era desenvolupar un model el més precís possible, i no prestaves atenció a si era discriminatori. Perquè no era obligatori". Caroline König es dedica a la recerca i treballa en un projecte biomèdic que està considerat d'alt risc per la legislació europea de la IA.

En concret, la investigadora lidera el desenvolupament, per part de la UPC, d’una plataforma predictiva basada en IA de medicina personalitzada anomenada Permepsy. Aquest projecte, coordinat pel Parc Sanitari Sant Joan de Déu, té com a objectiu establir un enfocament personalitzat per al tractament psicològic de la psicosi. El fet que el prototip es consideri d’alt risc (ja que pot tenir un impacte directe en les persones) ha fet que hagin de complir els requisits legals i posar l'ull en què la plataforma no sigui discriminatòria. A més, no es pot compartir lliurement fins que no estigui validada com a segura segons la normativa vigent.

El que falta: un canvi en la nostra relació amb la IA

Ara bé, regular no és l'únic que cal fer. Hi ha una feina més tediosa i complicada, que és canviar la mentalitat social i educar (especialment als més joves) en els usos de la IA. Només així podrem evitar que la tecnologia tingui un vessant masclista. Com altres expertes, Tatiana Caldas coincideix que l’única manera és l’educació i generar cultura de la IA. “Cal entendre que fotos teves poden ser publicades a internet i et poden fer deepfakes d’imatges explícites. Això s'ha d'explicar als adolescents”, assegura. Karina Gibert coincideix: "Hem d'elevar l'estat de consciència de tots els que fan IA, els que la inventen, els que la compren, els que la venen, els que la utilitzen i els que la consumeixen", i afegeix: "Hem de tornar a un sistema educatiu que valori l'impacte dels propis actes sobre algun gènere. A l'escola ningú ho ensenya".

Hi ha alternativa a la IA? La resposta la dona Caldas: segurament no. "La IA no se’n va enlloc. És com qui no sap fer servir un correu electrònic. S’ha de veure com una eina que ha arribat per quedar-se, que ens facilitarà la vida i ens farà més eficients, i s’ha d’aprendre a fer servir de manera responsable", avisa. És una eina molt poderosa, però cal que ens fem nostra la governança de la IA.

Dossier 8-M: la discriminació masclista de l'algoritme 4 articles
stats