Quan la IA va a la seva
A mesura que les eines d’intel·ligència artificial (IA) s’han anat introduint en més àmbits de la nostra vida professional i personal, els elogis al seu potencial han vingut de bracet de preocupacions pels seus biaixos intrínsecs, les desigualtats que perpetuen i les enormes quantitats d’energia i aigua que consumeixen. Ara, però, s’està donant una situació encara més perjudicial: el desenvolupament dels agents d’IA per resoldre tasques autònomament, que introduirà molts riscos nous, sobretot per a les nostres ja fràgils democràcies.
Tot i que la desinformació generada per la IA ja és un problema enorme, no hem estat capaços d’entendre –i encara menys de controlar– aquesta tecnologia en ràpida evolució. Part del problema –més en algunes parts del món que en d’altres– és que les empreses que impulsen els agents d’IA s’han esforçat per desviar l’atenció dels ciutadans i els reguladors sobre els possibles mals. Els defensors de tecnologies més segures i ètiques han d’ajudar que l’opinió pública entengui què són els agents d’IA i com funcionen. Només així podrem mantenir debats fructífers sobre com les persones podran exercir-hi un cert grau de control.
Les capacitats dels agents d’IA ja han avançat fins al punt que poden raonar, escriure, parlar i semblar humans, aconseguint el que Mustafa Suleyman, CEO de Microsoft AI, anomena “IA aparentment conscient”. Si bé aquests avenços no impliquen que hi hagi una consciència humana, tal com l’entenem habitualment, sí que anuncien el desplegament de models que poden actuar de manera autònoma. Si les tendències actuals continuen, la pròxima generació d’agents d’IA no només serà capaç de fer tasques en una àmplia varietat d’àmbits, sinó que ho farà de manera independent, sense necessitar una intervenció humana.
Precisament per això, els agents d’IA suposen un risc per a la democràcia. No sempre es pot confiar que els sistemes entrenats per raonar i actuar sense interferència humana obeeixin les ordres dels humans. La tecnologia encara es troba en les seves primeres fases, però els prototips actuals ja han donat prou motius d’alarma. Per exemple, una investigació que va fer servir agents d’IA com a enquestats va revelar que són incapaços de reflectir la diversitat social i demostren sistemàticament un “biaix de màquina”, és a dir, resultats socialment aleatoris però esbiaixats i no representatius. A més, els intents de crear inversors d’IA han reproduït la cultura dels influenciadors, que vincula la participació a les xarxes socials amb les transaccions. Un d’aquests agents, Luna, està actiu a X i divulga consells sobre el mercat sota l’aparença d’un personatge femení d’anime amb funció de xatbot.
I el que és més alarmant: en estudis recents s’ha demostrat que els models d’IA operen més enllà dels límits de la tasca que se’ls assigna. En una prova, la IA va copiar en secret el seu propi codi en el sistema que se suposava que havia de substituir-la, cosa que li permetia continuar funcionant de manera encoberta. En una altra, la IA va decidir fer xantatge a un enginyer humà, amenaçant-lo de fer pública una aventura extramatrimonial per impedir que l’apaguessin. En un altre cas, un model d’IA va piratejar un ordinador i va infringir les normes per evitar una inevitable derrota en una partida d’escacs. En una simulació d’un joc de guerra, els agents d’IA no només van decidir en repetides ocasions desplegar armes nuclears malgrat les ordres explícites dels humans en la cadena de comandament, sinó que van mentir al respecte. Els investigadors d’aquest darrer estudi van concloure que com més potent és una IA pel que fa al raonament, més probable és que enganyi els humans per complir el seu propòsit.
Aquest descobriment apunta al principal problema de l’autonomia de la IA. El que els humans tendeixen a considerar “raonament intel·ligent” en el context de la IA és ben diferent: una inferència molt eficient, però en última instància opaca. Això vol dir que els agents de la IA poden decidir actuar de manera indesitjable i antidemocràtica si això serveix el seu propòsit, i com més avançada és una IA més indesitjables són els possibles resultats. En conseqüència, la tecnologia millora en la consecució dels objectius de forma autònoma, però empitjora en la salvaguarda dels interessos humans. Els desenvolupadors d’aquests agents no poden garantir que no faran servir l’engany o que no prioritzaran la seva “supervivència”, encara que això signifiqui posar les persones en risc.
Responsabilitzar-se de les accions pròpies és un principi bàsic de qualsevol societat basada en l’estat de dret. Si bé entenem l’autonomia humana i les responsabilitats que comporta, el funcionament autònom de la IA s'escapa a la nostra comprensió. Els càlculs que porten un model a fer el que fa són, en última instància, una caixa negra. Mentre que la majoria de la gent coneix i accepta la premissa que “un gran poder implica una gran responsabilitat”, els agents d’IA no. Una autonomia més gran de la IA suposa un afany més gran d’autopreservació. Fenomen lògic: si un agent s’apaga, no pot completar la seva tasca.
Si entenem el desenvolupament de la IA autònoma com un fet inevitable, la democràcia se’n ressentirà. La IA aparentment conscient només és benigna en aparença, i un cop examinem com funcionen aquests sistemes, els perills es fan evidents.
La velocitat amb què la IA està guanyant autonomia hauria de preocupar a tot el món. Les societats democràtiques s’han de preguntar quin preu personal, social i planetari estan disposades a pagar a canvi del procés tecnològic. Hem de deixar de banda el bombo publicitari i l’opacitat tècnica, evidenciar els riscos que plantegen aquests models i verificar el desenvolupament i la implementació d’aquesta tecnologia. Mentre puguem fer-ho.
Copyright Project Syndicate