Societat 16/04/2021

"Els robots seran capaços de fer grans meravelles i grans bestieses"

L'ARA debat sobre la roboètica i els límitis morals de la intel·ligència artificial al monestir de Pedralbes

Clara López Alcaide
3 min
Daniel Gamper, Jordi Vallverdú i Antoni Bassas en la sessió de Diàlegs de Pedralbes: Com relacionar-nos amb els robots. Què és la bioètica.

BarcelonaLa ciència-ficció ens ha mostrat des de fa dècades escenaris apocalíptics en què una massa de robots en forma d'humanoides orquestra la destrucció de la humanitat. Lluny d'això, les màquines actuals ens ajuden a netejar el pis, a trobar el control d'objectes a l'aeroport o a treballar amb més precisió als quiròfans. En definitiva, ens ajuden i ens assisteixen. L'aparició de robots més complexos, però, ens obliga a fer noves preguntes: ¿fins a quin punt els robots han d'estar guiats per principis morals o ètics, més enllà dels codis amb els quals se'ls ha programat? Com podem fer que prenguin decisions d'acord amb aquests principis? Per respondre aquestes i altres preguntes, dijous al vespre es va celebrar un col·loqui sota el títol Com relacionar-nos amb els robots. Què és la roboètica?, moderat pel periodista Antoni Bassas, dins del cicle Diàlegs de Pedralbes organitzat conjuntament pel monestir de Pedralbes i el diari ARA.

Per a l'acadèmic especialista en filosofia de la ciència i la computació, intel·ligència artificial i robòtica i professor de l'ICREA Jordi Vallverdú, la resposta no és gaire clara i el dilema apareix quan traslladem el comportament humà a les màquines: "Els humans prenem decisions d'acord amb emocions o fins i tot amb el sentiment de justícia". Vallverdú explica que durant el procés de programar màquines partim de la nostra pròpia experiència i "el gran problema a nivell ètic de la robòtica" sorgeix quan s'han d'introduir en un programa d'ordinador "codis que no són coherents". Creu que a l'hora de decidir quins són els valors o els principis que han de guiar el comportament de la intel·ligència artificial cal tenir en compte que "l'acció humana és totalment incoherent", fet que porta a "circumstàncies curioses" quan la traslladem als robots.

De qui és la culpa?

Per il·lustrar les dificultats que es presenten a l'hora de regular el comportament dels robots, Vallverdú es basa, entre d'altres, en el cas de Tay, la primera intel·ligència artificial a tenir un compte de Twitter. Microsoft, el seu creador, es va veure obligat a tancar el perfil perquè en interactuar amb altres tuitaires i imitar els seus comportaments va començar a fer piulades racistes i sexistes. L'acadèmic planteja un altre escenari similar: si un cotxe autònom es troba amb un imprevist, sense la capacitat de reacció per la qual l'han programat, i atropella un vianant, ¿de qui és la culpa? ¿Del programador o de l'usuari? "Quan fem que les màquines aprenguin de nosaltres ens trobem amb aquest tipus de situacions", argumenta Vallverdú.

El professor de filosofia moral i política de la Universitat Autònoma de Barcelona, Daniel Gamper, director del cicle de conferències i que també va participar en la xerrada, va més enllà: "Imaginem que el cotxe té tres opcions: continuar amb la trajectòria i atropellar un grup de gent o bé girar i atropellar una persona gran. Com a creador has de donar un paràmetre davant una situació tràgica que indiqui a l'aparell quina és la més desitjable". Gamper, així doncs, exposa que "ens veiem obligats a prendre una decisió que en realitat les persones no prenem" i aquí és on rau una de les principals diferències entre éssers humans i sistemes més complexos d'intel·ligència artificial del mercat : "Davant una situació com aquesta no triaràs perquè no tens ni el temps ni la sang freda per fer-ho".

L'expert assegura que les possibilitats que ofereix aquesta nova tecnologia, amb independència dels principis morals, són molt àmplies: des de la possibilitat d'incorporar sistemes als cossos d'humans –una tècnica que està en desenvolupament als cyborgs, però que podria avançar en els propers anys–, fins a la capacitat de desenvolupar una consciència o sentir: "Els humans no som tan especials, ni ens comportem d’una manera tan original, som màquines biològiques. No hi ha, doncs, una raó objectiva per pensar que els robots no poden tenir emocions". Per a l'expert, doncs, la clau es troba en decidir com volem que actuïn les màquines i si estem disposat a acceptar les seves conseqüències: "Si els robots aprenen de nosaltres i no ho controlem, seran capaços de fer grans meravelles i grans bestieses".

stats