Regular la IA

Una peça artística sobre robots, a la London Design Biennale.
27/08/2023
4 min

El descobridor durant la guerra de la màquina de codificació de la Wehrmacht, Enigma, Alan Turing, va dir el 1950: “El que importa no és el mecanisme de la intel·ligència de la màquina, sinó la manifestació d’intel·ligència, l’interior de l’home és insondable, el que importa és el comportament”. El joc de la imitació que va inventar afirmava que, si una màquina operava de manera que no es podia distingir el seu comportament del d’un humà, s’havia de catalogar com a intel·ligent. Va ser la base del que avui coneixem com a intel·ligència artificial (IA).

La base de la computació va ser la precisió en l'input i l'output. El gran avenç ha estat en la inexactitud de les dades i el resultat i la capacitat d’aprendre del procés, que ha permès avançar en àrees on havíem passat anys sense millores: el reconeixement d’objectes i el llenguatge, on l’aproximació, en contraposició a la dada exacta, és essencial per progressar.

Perquè la màquina aprengui, el que importa és tenir la capacitat de sobreposar diverses representacions reals de “la cosa”. És el contrari de la idealització, en termes filosòfics. El que és útil és el concepte relatiu de la realitat de Wittgenstein i no l’absolut de la idea de Sòcrates i Plató.

La IA és imprecisa, com ho és la intel·ligència humana, i no necessita relacions exactes. Trenca el principi del racionalisme portat a la mecanització. No cal una relació predefinida i precisa entre la propietat i l’efecte per definir una relació. La IA pot aproximar el resultat i analitzar les ambigüitats que serien eliminades pels algoritmes clàssics. Aquesta és la seva potència i capacitat.

Diuen Kissinger, Schmidt i Huttenlocher, en un llibre recent sobre la IA, que hi ha tres sistemes d’aprenentatge: 1. Supervisat: Dins d’un camp acotat s'identifiquen característiques d’elements i els seus efectes. Es busquen característiques comunes i es deriven conseqüències de la seva generalització. La dificultat està en la gran quantitat de dades a gestionar. 2. No supervisat: Només conté inputs. És l’utilitzat per aquelles empreses que venen productes i volen guiar els seus clients cap al que, a partir de les seves experiències, que han analitzat, pensen que són les seves preferències. 3. Aprenentatge reforçat: La IA esdevé un agent, no és només un ens passiu identificant relacions. Si actua en entorns simplificats, requereix contrastos freqüents amb la realitat.

A vegades, la IA ha estat capaç de detectar un càncer abans que un metge experimentat per la gran quantitat de dades que és capaç de tractar de manera simultània, però el problema de la IA és la manifesta incapacitat per detectar dades absurdes o impossibles perquè és problemàtic programar els límits dels resultats sense posar en risc la validesa de l’anàlisi.

La dificultat de comunicació entre diferents llengües ha alentit, històricament, la política, la diplomàcia i el comerç. Els traductors automàtics basats en xarxes neuronals han millorat la comunicació en un 60%. Però de la mateixa manera que una carta, una vegada escrita, no pot ser esmenada en funció de l’efecte que produeix en el lector, els traductors automàtics no permeten modular l’èmfasi del que es diu en funció de la recepció que en fa el receptor. És un problema nou que apareix malgrat el fàcil accés a la traducció immediata.

El perill d’un cert autisme pot ser la conseqüència d’un abús de la IA. El GPT-3 pot produir textos preveient paraules i frases a partir de l’experiència de la màquina en textos similars. La IA pot detectar dependències seqüencials en el text i generar-ne de nous que encaixin, però està fora de l’abast de l’operador la guia del procés, tret de la utilització de la prova i l’error.

La IA no és capaç de jutjar la significació dels actes que impulsa o condiciona. Només els humans poden regular-los. De la mateixa manera que el més intangible, però el més determinant d’una empresa, associació o ens polític, és la seva cultura, determinada per una manera de fer repetida amb matisos i canvis al llarg dels anys, és també aquesta la limitació insuperable de la IA incapaç de contribuir-hi, influir-hi, completar-ho o modificar-ho. Està a un altre nivell. La IA és un “boig molt eficaç”, però incapaç de jutjar els resultats dels seus actes, controlats per patrons inaccessibles. La IA no coneix el que desconeix i, per tant, les inferències a partir de bases de dades poden resultar profundament errònies, tret que siguin molt extenses i, per tant, autocorregides.

Si la IA ens ha portat un pas més enllà per ajudar-nos a fer tasques que abans només feien els humans, però si simultàniament ens ha donat mitjans per difuminar la frontera entre el que fa la màquina i el que fa l’home, és evident per on ha d’anar la política legislativa que la reguli i que la UE ha justament començat a plantejar. La IA no té consciència ni ànima, pot ser moralment tòxica i sobretot incontrolable per tercers i també pels seus usuaris. S’ha d’advertir de l’origen dels textos quan es publiquin.

Joaquim Coello és enginyer
stats