Salvar la humanitat o frenar la innovació

Els avenços potencials en l’àmbit de la intel·ligència artificial obren un munt de noves possibilitats i també d’interrogants. Com s’ha de regular aquesta tecnologia?

Jeremy Straub / The Conversation
5 min
Salvar la humanitat o frenar la innovació

Hi ha gent que té por que uns robots intel·ligents armats fins a les dents s’apoderin del món, esclavitzin la humanitat o ens exterminin. Diuen, com el multimilionari de la indústria tecnològica Elon Musk i l’eminent físic Stephen Hawking, que cal regular la tecnologia de la intel·ligència artificial per prevenir aquests riscos. Però el fundador de Microsoft, Bill Gates, i el de Facebook, Mark Zuckerberg, no hi estan d’acord i afirmen que aquesta tecnologia encara no ha avançat prou perquè aquestes pors tinguin cap fonament.

Com que em dedico a investigar la intel·ligència artificial en la presa de decisions en robòtica, els drons i els vehicles sense conductor, tinc prou informació per veure els avantatges que comporta. He desenvolupat un software gràcies al qual uns robots que treballen en equip prenen decisions pel seu compte, en el context d’accions col·lectives per explorar i resoldre problemes. Els investigadors com jo ja estem sotmesos a normes, regulacions i lleis destinades a protegir la seguretat pública. Si imposem encara més restriccions, correm el risc de reduir el potencial d’innovació dels sistemes d’intel·ligència artificial.

Com es regula actualment la intel·ligència artificial?

Tot i que l’expressió intel·ligència artificial pot evocar imatges fantasioses de robots amb aspecte humà, la major part de la gent ja ha tingut alguna experiència en aquest sentit. Aquests sistemes ens ajuden a trobar productes semblants quan comprem, ens recomanen pel·lícules i programes televisius i ens ajuden a buscar webs. També corregeixen els textos dels estudiants, ofereixen tutories personalitzades i fins i tot reconeixen objectes mitjançant els escàners dels aeroports.

En tots aquests casos, la intel·ligència artificial facilita les coses als humans. Per exemple, el software que he desenvolupat en un projecte de recerca es podria fer servir, en un experiment científic, per planificar i dur a terme la recerca del terreny concret més adequat per a una planta o un animal. Però, tot i que aquests sistemes intel·ligents ens estalvien aquesta feina, encara són els humans els que decideixen els llocs on s’ha d’anar a buscar i què s’hi ha de buscar.

En àmbits com aquests i molts altres, la intel·ligència artificial, si s’aplica correctament, pot comportar molts més avantatges que no pas inconvenients. Crec, però, que de moment no calen regulacions addicionals. Ja hi ha sistemes legals estatals, regionals i municipals que regulen les responsabilitats civils i penals en cas que accions concretes tinguin efectes perjudicials. Per exemple, els drons han d’obeir les normes de l’administració en matèria d’aviació, i els cotxes sense conductor han d’acatar les normes de trànsit per circular per les vies públiques.

Les lleis actuals també preveuen el que pot passar si un robot fereix o mata una persona, encara que els danys siguin accidentals i que el programador o operador del robot no hi tingui cap responsabilitat penal. Si bé és cert que, a mesura que avanci la tecnologia, els legisladors i reguladors hauran de preveure les futures responsabilitats en què podran incórrer els sistemes d’intel·ligència artificial, la implantació de noves normes restrictives podria prohibir o frenar el desenvolupament d’aplicacions que poden tenir beneficis potencials enormes.

Els riscos potencials de la intel·ligència artificial

És lògic que ens preocupi la possibilitat que es desenvolupin uns sistemes d’intel·ligència artificial tan avançats que s’escapin del control humà. Un dilema típic que se sol plantejar és el del cotxe sense conductor que es veu obligat a triar entre atropellar un nen que ha saltat de sobte a la calçada o girar bruscament cap a la barrera de seguretat, amb els consegüents danys per als ocupants del cotxe i potser fins i tot d’altres vehicles que en aquell moment circulin per la mateixa via.

A Musk i Hawking, entre d’altres, els inquieta la possibilitat que els sistemes d’intel·ligència artificial més avançats -no limitats a tasques com controlar un cotxe sense conductor- arribin a la conclusió que ja no necessiten els humans. Podrien arribar fins i tot a decidir que, vista la gestió del planeta pels humans -conflictes interpersonals, robatoris, frau i guerres freqüents-, el món funcionaria millor sense gent.

L’autor de ciència-ficció Isaac Asimov ja va plantejar-se aquesta possibilitat i va proposar tres lleis per limitar la capacitat de prendre decisions dels robots. 1) Els robots no poden fer mal als humans ni permetre que prenguin mal. 2) Els robots han d’obeir els humans -sempre que això no perjudiqui els humans-. 3) Els robots han de protegir-se ells mateixos, sempre que això no perjudiqui els humans ni impliqui desobeir cap ordre.

El mateix Asimov sabia, però, que amb això no n’hi havia prou. Aquestes tres lleis no reflecteixen la complexitat dels valors humans. El significat de prendre mal n’és un exemple: ¿un robot ha de protegir la humanitat del patiment derivat de la superpoblació o, per contra, ha de protegir la llibertat reproductiva de cadascú?

Els humans ja ens hem plantejat aquests interrogants des de les nostres intel·ligències no artificials. Alguns investigadors han proposat restringir la llibertat humana, fins i tot la reproductiva, per controlar el comportament de les persones, el creixement de la població i els danys ambientals. En general, la societat ha optat per no aplicar aquests mètodes, encara que els seus objectius semblin raonables. Per tant, en comptes de regular el que els sistemes d’intel·ligència artificial poden fer o no, valdria més, al meu entendre, ensenyar-los l’ètica i els valors dels humans, tal com els pares fan amb els seus fills.

Els avantatges actuals i futurs de la intel·ligència artificial

Actualment, en la vida quotidiana ja aprofitem els avantatges de la intel·ligència artificial, però això només és el començament. Els robots podrien ajudar les forces d’ordre públic a reduir les persones armades. Actualment la policia ha de concentrar els esforços a impedir que els agents resultin ferits, però els robots podrien intervenir-hi sense córrer cap risc; el desenllaç hauria sigut diferent en casos com la mort recent d’un universitari armat a Georgia i la d’un estudiant de secundària que no portava armes a Austin.

Els robots intel·ligents també poden ajudar els humans en altres coses. Poden fer tasques repetitives, com ara processar dades de sensors, que a vegades avorreixen els humans i provoquen errors. Poden limitar l’exposició dels humans a situacions i materials perillosos, com per exemple la descontaminació d’un reactor nuclear, i són capaços de treballar en llocs que ens estan vetats. En general, gràcies als robots amb intel·ligència artificial, els humans, alliberats d’altres tasques, tenen més temps per buscar l’anhelada felicitat.

Per aconseguir bona part d’aquests avantatges caldrà més recerca i desenvolupament. Les regulacions que encareixin el desenvolupament d’aquesta recerca o n’impedeixin algunes aplicacions poden endarrerir o, fins i tot, impedir aquests avenços. Això afecta sobretot les petites empreses i els particulars -que són els principals impulsors de les noves tecnologies-, que no estan tan ben preparats com les grans empreses per adaptar-se al compliment de la normativa. De fet, els principals beneficiaris d’aquestes regulacions seran potser les grans corporacions, perquè per a les empreses emergents serà més difícil competir en un entorn regulat.

La necessitat d’innovació

Quan va començar internet, la humanitat ja es va enfrontar a problemes semblants. Però els Estats Units es van oposar enèrgicament a imposar cap regulació per no dificultar-ne el creixement en la fase inicial. El PayPal de Musk i moltes altres empreses que van ajudar a construir l’actual món de la xarxa només estaven subjectes a les lleis habituals dels humans, com ara les destinades a combatre el robatori i el frau.

Els sistemes d’intel·ligència artificial tenen el potencial de modificar l’actuació dels humans en tots els camps. Els científics, enginyers, programadors i empresaris necessiten temps per desenvolupar aquestes tecnologies i transmetre’ns els seus avantatges. Haurien de poder treballar sense patir per la possible prohibició d’alguns tipus d’intel·ligència artificial, ni pels endarreriments i costos associats a noves normatives de caràcter restrictiu.

stats