L'escàndol de Grok i la IA que hem normalitzat

Els nus de Grok s'han convertit en el símbol d'una deriva que va molt més enllà d'una polèmica en concret. La possibilitat de generar imatges sexualitzades de dones i nenes reals, facilitada per una arquitectura dissenyada per sortejar els límits deliberadament, no és un accident ni un excés puntual: és el resultat coherent d'un tipus d'intel·ligència artificial que fa anys que promovem i celebrem.

Inscriu-te a la newsletter PensemLes opinions que et fan pensar, t’agradin o no
Inscriu-t’hi

És important assenyalar que no ens trobem davant d'un problema d'ús indegut, sinó davant d'una elecció tecnològica. Grok encarna un model d'IA basat en l'escalada, la velocitat i la provocació com a valor. Sistemes entrenats amb volums massius de dades, llançats a l'espai públic amb la promesa implícita que qualsevol dany es gestionarà més endavant, del "Després, si cal, s'ajusta". Aquesta lògica no és neutra. Tampoc no és inevitable.

Cargando
No hay anuncios

La IA no aprèn en abstracte: aprèn de societats travessades per desigualtats profundes. Quan s'alimenta aquests sistemes amb restes marcades pel patriarcat i altres discriminacions estructurals, sense context ni fricció ètica, el que retornen no ens hauria de sorprendre. S'amplifiquen imaginaris de dominació, es normalitza la disponibilitat dels cossos de les dones i la violència simbòlica es tradueix en producció automatitzada, repetible, escalable.

El debat públic s'ha desplaçat ràpidament cap a com limitar, bloquejar o sancionar. Però aquesta reacció, comprensible, deixa intacta la pregunta més incòmoda. Per què aquest tipus d'IA. Per què continuem apostant per models que confonen aprenentatge amb acumulació, intel·ligència amb repetició estadística i progrés amb creixement sense límit. Per què anomenem innovació a tecnologies que necessiten ignorar el consentiment i el respecte als drets humans per funcionar amb fluïdesa.

Cargando
No hay anuncios

El tecnosolucionisme insisteix que sempre hi haurà una solució tècnica posterior. Més restriccions. Més filtres. Més geobloqueig. Però aquesta controvèrsia i conseqüent debat mostren alguna cosa diferent. Una vegada que una tecnologia existeix, s'integra en l'imaginari col·lectiu i es torna accessible per a milions de persones. No desapareix. Migra. S'adapta. Reapareix en altres formats, en altres espais, amb menys visibilitat i menys fricció. El problema no es corregeix. Es desplaça.

A més, no hem d'oblidar que aquest model d'IA no només és socialment agressiu: és materialment insostenible. Requereix infraestructures energètiques intensives, extracció constant de dades i una lògica d'expansió permanent. I el que (gairebé) ningú menciona és que hi ha altres maneres de desenvolupar la IA. Més petites, més situades, més limitades en abast i més curoses amb els drets humans i el clima. No dominen el mercat perquè no encaixen amb una idea d'èxit basada en la hipercompetència i l'impacte immediat. Una idea també estretament relacionada amb el patriarcat i altres sistemes imperants.

Cargando
No hay anuncios

La darrera peripècia d'Elon Musk no ha revelat un error del sistema: ha revelat el sistema. Una IA dissenyada sense memòria, sense límits clars i sense responsabilitat social reprodueix, a gran escala, desigualtats que ja coneixem massa bé. El risc no està en una funció concreta ni en un mode concret. Està en continuar normalitzant una tecnologia que tracta la violència com una externalitat i el dany com un preu assumible del progrés.