Tecnologia
Mèdia 06/05/2023

Per què la IA també espanta els seus propis creadors?

Elon Musk, Steve Wozniak i Geoffrey Hinton, un dels pioners de la tecnologia, han obert el debat sobre els perills del seu ús

4 min
La intel·ligència artificial del ChatGPT.

BarcelonaFer-li una pregunta al ChatGPT i que aquest et respongui sembla una acció força innòcua, una diversió més que demostra com la tecnologia ha avançat en els últims anys. Però, lluny de ser un simple divertiment o una curiositat tecnològica més, els experts fa anys que anuncien que els canvis socials que provocarà seran dràstics, per bé o per mal. El que resulta més singular és com, últimament, s'acumulen veus crítiques –o directament apocalíptiques– d'alguns actors que han estat essencials en el desenvolupament d’aquesta tecnologia. Les alertes per part de personalitats rellevants del sector es multipliquen i pinten un panorama en el qual fins i tot es preveu la desaparició de la civilització tal com l’entenem, segons argumentava el filòsof Yuval Noah Harari en un article recent a The Economist. "La intel·ligència artificial ha adquirit unes habilitats notables per manipular i generar llenguatge, sigui amb paraules, sons o imatges. Així doncs, la intel·ligència artificial ha piratejat el sistema operatiu de la nostra civilització", argumenta el filòsof.

Inscriu-te a la newsletter Sèries Totes les estrenes i altres perles
Inscriu-t’hi

Una de les últimes figures rellevants a mostrar les seves reticències ha estat l’informàtic britànic Geoffrey Hinton, que juntament amb dos estudiants de postgrau de la Universitat de Toronto, Ilya Sutskever i Alex Krishevsky, va crear una tecnologia que es considera la base intel·lectual dels sistemes d’intel·ligència artificial. Després d’una dècada treballant a Google, companyia responsable del xatbot Bard, la setmana passada va presentar la seva renúncia per poder expressar obertament de la seva opinió sobre la IA: “És difícil evitar que els dolents l’utilitzin per a coses dolentes”. 

Hinton creu que l’actual cursa entre empreses tecnològiques per liderar la intel·ligència artificial derivarà en un descontrol que pot provocar que aquesta tecnologia acabi sent perjudicial per als humans. En aquest sentit, creu que existeix el risc que la intel·ligència artificial acabi eclipsant la intel·ligència humana. “Algunes persones creien en la idea que aquestes coses realment podrien acabar sent més intel·ligents que els humans. Però la majoria pensaven que això encara estava molt lluny. I jo vaig pensar que estava lluny. Vaig pensar que faltaven entre 30 i 50 anys o fins i tot més. Òbviament, ja no penso així”, ha dit.

Riscos immediats

En els seus comentaris sobre els perills de la intel·ligència artificial, el britànic ha rebut el suport de Gary Marcus, professor emèrit de psicologia i ciències neuronals de la Universitat de Nova York i autor del llibre Rebooting AI. "No estic preocupat, de forma immediata, pel fet que màquines superintel·ligents puguin estar fora de control. A curt termini em preocupa el que jo anomeno risc MAI: intel·ligència artificial mediocre en la qual no es pot confiar (com Bing o GPT-4) però que està molt estesa, tant pel que fa al gran nombre de persones que l'utilitzen com pel que fa a l'accés que té el programari al món", detalla a la seva newsletter The road to the AI we can trust. "Quan els grans models de llenguatge [la base la IA] eren simplement una curiositat de laboratori, només coneguda dins del sector, no suposaven un gran problema. Però ara que són molt coneguts, i són de l'interès de criminals, i cada cop tenen més accés al món extern (inclosos humans), poden fer molt més mal", afegeix el professor, que creu que hi ha riscos que, com la desinformació, són immediats.

Marcus és un dels signants d'una carta pública de finals de març que compta amb el suport, entre d'altres, d'Elon Musk i Steve Wozniak, cofundador d'Apple. En l'escrit, que té més de 27.000 signatures, es demana una moratòria de sis mesos en el desenvolupament de la tecnologia per tal de frenar la cursa entre companyies i establir protocols per evitar efectes negatius. "Els sistemes d'intel·ligència artificial s'haurien de desenvolupar només quan estiguéssim segurs que els seus efectes seran positius i els seus riscos manejables", assenyalen. Cal recordar, però, que la carta és una iniciativa del think tank Future of Life Institute, un ens finançat en part per Musk, que està treballant en un sistema d'intel·ligència artificial capaç de competir amb el ChatGPT d'OpenAI, justament una de les empreses a les quals es demana que se sumi a aquesta moratòria proposada.

Més enllà de la desinformació, hi ha altres qüestions que preocupen als experts, com ara la pèrdua de possibles lloc de treball per la substitució de treballadors per intel·ligència artificial. Els més apocalíptics assenyalen que es podria produir una pèrdua de control sobre aquesta tecnologia. Future of Life Institute alerta que sovint els sistemes de la intel·ligència poden aprendre comportaments no esperats a causa de la gran quantitat de dades que analitzen, i que això podria generar problemes inesperats.

La incertesa sobre quines poden ser les conseqüències de l'ús de la intel·ligència artificial i, sobretot, la falta de regulació sobre la seva aplicació han fet que la Casa Blanca mogués fitxa aquesta setmana anunciant una sèrie de mesures per avaluar els riscos d'aquesta tecnologia. Dijous, la vicepresidenta dels Estats Units, Kamala Harris, es va reunir amb els consellers delegats de Microsoft, Alphabet, Google i OpenAI, quatre de les tecnològiques que estan desenvolupant sistemes d'intel·ligència artificial. Harris, que va demanar més transparència a les companyies, va advertir que aquesta tecnologia "té el potencial d'augmentar dràsticament les amenaces de seguretat i protecció, infringir els drets civils i la privacitat, i erosionar la confiança pública i la fe en la democràcia".

stats