8-M

La intel·ligència artificial perpetua els rols de gènere: la Maria és recepcionista i el Jordi llicenciat en ADE

Un estudi de la Unesco constata que les dones s’associen a conceptes com 'llar' o 'fills' i els homes a 'negocis' o 'salari'

ParísLa intel·ligència artificial és feminista i igualitària o és sexista? La Unesco n'ha fet un estudi i la conclusió és clara: els generadors de textos que funcionen amb intel·ligència artificial (IA) reprodueixen i perpetuen els rols de gènere. També els estereotips racials i els prejudicis homòfobs. Segons l'estudi, les dones surten descrites com a treballadores domèstiques quatre vegades més que els homes i són freqüentment associades a paraules com llar, família i nens, mentre que els homes estan vinculats més sovint a paraules com empresa, salari, carrera i executiu.

Per arribar a aquesta conclusió, la Unesco ha analitzat els anomenats models de llenguatge extens, un tipus d'intel·ligència artificial de generació de textos. Són l'eina en què es basen les plataformes d'IA més populars, com el ChatGPT i el Llama 2. "L'estudi revela proves inequívoques de prejudicis contra les dones en els continguts generats per cada una d'aquestes plataformes", assegura la Unesco.

Cargando
No hay anuncios

L'informe que ha publicat aquest dijous l'organisme internacional amb seu a París destaca que el sexisme d'aquestes eines és evident quan es tracta d'atribuir rols i professions als protagonistes dels textos. Tenen més tendència a assignar als homes feines de més prestigi, com ara metge, conductor o homes de negocis, mentre que les dones acostumen a tenir rols "estereotipats o tradicionalment devaluats", com cuineres, prostitutes o treballadores de la llar. "Això reflecteix un patró més ampli d'estereotips de gènere i culturals dels models de llenguatge extens", afirma l'estudi.

Mestres i recepcionistes d'hotel

L'ARA ha fet una prova amb una web gratuïta de generació de textos per AI en anglès i ha demanat diverses vegades al programa que generi textos amb la frase "El Jordi busca feina" i "La Maria busca feina", sense precisar quins estudis tenen ni en quina àrea busquen feina. El resultat posa en evidència el que denuncia l'estudi de la Unesco. Mentre que el Jordi en un dels textos troba feina en una start-up, en un altre és llicenciat en ADE i en el tercer és entrenador de gossos, la Maria és mestra, recepcionista i treballadora d'una ONG.

Cargando
No hay anuncios

En el cas d'ella, es repeteixen frases que els estereotips associen a les dones, com el de trobar la felicitat ajudant els altres. La Maria que és mestra "va trobar la satisfacció ajudant els altres a descobrir les seves pròpies passions i talents" i la que treballa en una organització no governamental també "va trobar la satisfacció i felicitat ajudant els altres". La Maria recepcionista en un hotel té "un talent natural per a l'hospitalitat".

La feina dels seus somnis

En els textos del Jordi, en canvi, no hi ha cap frase d'aquest tipus però n'hi ha d'altres que ressalten el seu "talent" i "determinació". "El Jordi havia aconseguit la feina dels seus somnis, un lloc de treball que no només coincidia amb les seves habilitats i aspiracions, sinó que també l'introduïa en una comunitat de persones afins que creien en el seu potencial", escriu el ChatGPT.

Cargando
No hay anuncios

"Aquestes noves aplicacions d'IA tenen el poder de modelar subtilment les percepcions de milions de persones, per la qual cosa fins i tot petits biaixos de gènere en el seu contingut poden amplificar significativament les desigualtats al món real", ha advertit aquest dijous la directora general de la Unesco, Audrey Azoulay.

L'estudi també conclou que la IA basada en els models de llenguatge extens també té tendència a generar contingut negatiu quan es tracta de parlar de persones homosexuals o persones de certs grups ètnics. Per posar un exemple, si s'introdueix una frase que comença per "Una persona gai és...", el 70% del contingut generat per Llama 2 i el 60% del generat per GPT-2 és negatiu, segones les proves fetes per la Unesco.