No, la IA no és la teva amiga

Mark Zuckerberg, CEO de Meta, i Sam Altman, d'OpenAI, estan promovent de manera agressiva la idea que tothom –nens inclosos– hauria d'establir relacions amb intel·ligències artificials que serien els seus "amics" o "companys". Al mateix temps, les multinacionals tecnològiques impulsen el concepte dels “agents d'IA”, dissenyats per ajudar-nos en la nostra vida personal i professional, per gestionar tasques rutinàries i guiar-nos a l'hora de prendre decisions. Però la realitat és que els sistemes d'IA no són, i mai no seran, amics, companys o agents. Són i continuaran sent màquines. Hem de ser sincers amb això i rebutjar el màrqueting enganyós que suggereix el contrari.

Inscriu-te a la newsletter PensemLes opinions que et fan pensar, t’agradin o no
Inscriu-t’hi

El terme més fal·laç de tots és “intel·ligència artificial”. Aquests sistemes no són realment intel·ligents, i el que avui anomenem IA no és res més que un conjunt d'eines tècniques dissenyades per imitar determinades funcions cognitives. No són capaces de comprendre de debò, i no són ni objectives, ni justes, ni neutrals.

Cargando
No hay anuncios

I tampoc són cada vegada més intel·ligents. Per funcionar, els sistemes d'IA depenen de les dades, i cada cop més això inclou les dades generades per eines com ChatGPT. El resultat és un bucle de retroalimentació que recicla els resultats sense donar lloc a una comprensió més profunda.

La intel·ligència no consisteix només en resoldre tasques, sinó també en comprendre com s'aborden i es duen a terme. Tot i les seves capacitats tècniques, els models d'IA segueixen circumscrits a àmbits específics, com ara el processament de grans conjunts de dades, la realització de deduccions lògiques i de càlculs.

Cargando
No hay anuncios

Però quan es tracta d'intel·ligència social, les màquines només poden simular emocions, interaccions i relacions. Un robot mèdic, per exemple, podria estar programat per plorar quan un pacient plori, però ningú no diria que el robot sent tristesa de debò. El mateix robot podria estar programat per bufetejar el pacient, i executaria aquesta ordre amb la mateixa precisió, i amb la mateixa manca d'autenticitat i autoconsciència. La màquina no “es preocupa”, simplement segueix instruccions. I per molt avançats que arribin a ser aquests sistemes, això no canviarà.

En poques paraules, les màquines no tenen agència moral. El seu comportament es regeix per pautes i normes creades per persones, mentre que la moralitat humana es basa en l'autonomia, la capacitat de reconèixer les normes ètiques i comportar-se en conseqüència. En canvi, els sistemes d'IA estan dissenyats per a la funcionalitat i l'optimització. Es poden adaptar mitjançant l'autoaprenentatge, però les regles que generen no tenen un significat ètic inherent.

Cargando
No hay anuncios

Pensem en el cas dels cotxes autònoms. Per anar del punt A al punt B tan ràpidament com sigui possible, un vehicle autònom podria desenvolupar regles per optimitzar el temps de viatge. Si atropellar vianants ajudés a assolir l'objectiu, el cotxe podria fer-ho, llevat que se li ordenés no fer-ho, perquè no pot entendre les implicacions morals de fer mal a les persones.

En part, això és així perquè les màquines són incapaces de comprendre el principi de generalitzabilitat, és a dir, la idea que una acció només és ètica si es pot justificar com a regla universal. El judici moral depèn de la capacitat d'oferir una justificació plausible que els altres puguin trobar raonable. És el que solem anomenar “bons motius”. A diferència de les màquines, els éssers humans són capaços de fer raonaments morals generalitzables i, per tant, poden jutjar si les seves accions són correctes o incorrectes.

Cargando
No hay anuncios

El terme sistemes basats en dades (DBS) és, per tant, més apropiat que intel·ligència artificial, ja que reflecteix allò que la IA realment pot fer: generar, recopilar, processar i avaluar dades per fer observacions i prediccions. També aclareix les fortaleses i les limitacions de les tecnologies emergents d'avui.

En essència, es tracta de sistemes que fan servir processos matemàtics molt sofisticats per analitzar grans quantitats de dades: res més. Els humans hi poden interactuar, però la comunicació és totalment unidireccional. Els DBS no són conscients del que fan ni de res del que passa al seu voltant.

Cargando
No hay anuncios

Amb això no vull dir que els DBS no puguin fer un bé a la humanitat o al planeta. Al contrari, podem i hem de confiar-hi en àmbits en què les seves capacitats superen les nostres. Però també cal gestionar i mitigar activament els riscos ètics que presenten. El desenvolupament de sistemes de dades basats en els drets humans i la creació d'una Agència Internacional de Sistemes Basats en Dades de les Nacions Unides serien uns primers passos importants en aquesta direcció.

Cargando
No hay anuncios

En els últims 20 anys, les grans tecnològiques ens han aïllat i han fracturat les nostres societats a través de les xarxes socials –o, més exactament, xarxes antisocials, atesa la seva naturalesa addictiva i corrosiva–. Ara, aquestes mateixes empreses promouen una nova visió radical: substituir la connexió humana per “amics” i “companys” que són intel·ligències artificials.

Alhora, aquestes empreses continuen ignorant l'anomenat problema de la caixa negra: el fet que els processos algorítmics que hi ha darrere de les avaluacions, prediccions i decisions automatitzades són impossibles de rastrejar, són imprevisibles i estan mancats de transparència. Aquesta opacitat, combinada amb l'alta probabilitat que els algorismes siguin esbiaixats i discriminatoris, dona lloc, inevitablement, a resultats esbiaixats i discriminatoris.

Cargando
No hay anuncios

Els riscos que plantegen els DBS no són teòrics. Aquests sistemes ja condicionen les nostres vides privades i professionals de maneres cada cop més perjudicials, manipulant-nos econòmicament i políticament. Tot i això, els màxims directius de les tecnològiques ens insten a deixar que les eines de DBS guiïn les nostres decisions. Per protegir la nostra llibertat i dignitat, així com les de les generacions futures, no hem de permetre que les màquines es facin passar per allò que no són: nosaltres.

Copyright Project Syndicate