ELS RISCOS DEL 'BIG DATA'

Com els algoritmes decideixen el que volem o el que sabem

La presa de decisions d’empreses, governs i xarxes socials cada cop involucra més dades i algoritmes més sofisticats que són capaços de detectar patrons que escapen al cervell humà

7 min
Les xarxes socials fan servir algoritmes que potencien la comunicació només entre la gent que pensa el mateix, cosa que provoca bombolles perilloses.

Quan hi ha alerta d’huracà, pugen les vendes de llanternes a les botigues de la cadena de supermercats Walmart. Però també es venen més Pop-tarts, un tipus de galetes farcides. Quan els analistes de l’empresa ho van descobrir el 2004, cada cop que els meteoròlegs anunciaven tempesta, els encarregats situaven Pop-tarts a la part frontal de les botigues. Les vendes de Pop-tarts van esclatar.

Aquesta correlació misteriosa -per què no cereals, xocolata o altres tipus de galetes?- la van descobrir gràcies a dues coses. La primera: una sèrie històrica de transaccions que registrava els articles comprats per cada client, el cost total de la compra, l’hora del dia, si hi havia competicions esportives i fins i tot el temps que feia. La segona: una anàlisi d’aquesta quantitat ingent d’informació feta per un algoritme que va treure a la llum una relació que havia passat desapercebuda als ulls humans.

Dades i més dades

La informació que donem sense saber-ho la processen màquines

Aquest èxit comercial és només un exemple del que es pot aconseguir amb dades, algoritmes i capacitat de computació. “Sempre hi ha hagut dades, el que passa és que ara n’hi ha més que mai i cada cop n’hi haurà més”, diu Josep Puyol-Gruart, investigador de l’Institut d’Investigació en Intel·ligència Artificial del CSIC. Efectivament, cada cop hi ha més dispositius connectats i s’espera que amb l’anomenat internet de les coses, quan no només els telèfons i els ordinadors estiguin connectats sinó també les neveres o les rentadores, es generaran encara més dades.

De fet, cada dia generem dades sense adonar-nos-en. Quan ens llevem i encenem el llum, donem informació que les companyies elèctriques utilitzen per gestionar la xarxa elèctrica. Quan engeguem l’aigua per dutxar-nos, tres quarts del mateix. Quan comprem amb targeta, quan utilitzem un cercador o interactuem a les xarxes socials, encara generem més informació. Aquestes plataformes recullen una munió de dades: què mirem, a quina hora, quant de temps ho mirem, amb qui ens relacionem, què diem, la velocitat a què llegim, la velocitat a què teclegem, la velocitat de la connexió a internet i un llarg etcètera de dades i més dades que cada cop es poden processar amb algoritmes més potents i sofisticats, que, al seu torn, cada cop tenen menys supervisió humana. Els guia un sol objectiu: predir què farem o què ens agradarà. “Aquests algoritmes són caixes negres i aquest és el gran problema”, explica Gemma San Cornelio, investigadora en cultura digital de la UOC. “Fins i tot els influencers professionals es troben que els algoritmes de posicionament de contingut canvien i han d’estar adaptant-s’hi contínuament”, apunta.

Usar o abusar

Per millorar la mortalitat del covid o per discriminar els ‘riders’

La qüestió, com passa sempre amb qualsevol eina tecnològica, des d’un ganivet fins a l’algoritme d’intel·ligència artificial més complex, és l’ús (o abús) que se’n fa. Com que els algoritmes permeten detectar patrons inadvertits per al cervell humà, es poden utilitzar, per exemple, com ha fet la investigadora Carolina Garcia-Vidal, per reduir de l’11,6% a l’1,4% la mortalitat dels pacients que ingressaven amb covid-19 a l’Hospital Clínic de Barcelona.

Les entitats financeres també en fan servir. A partir de sèries històriques de dades i del perfil dels clients, entre els quals hi ha el codi postal i la nacionalitat, els algoritmes calculen el risc d’un préstec i li assignen un tipus d’interès que creix amb el risc. Això fa que les persones amb menys recursos ho tinguin més difícil per obtenir un crèdit i els costi més diners que els que tenen més recursos, que poden tornar-lo amb més facilitat. I això, que sembla tan raonable des del punt de vista dels interessos de l’entitat financera, contribueix a consolidar i incrementar la desigualtat. Perquè l’algoritme no analitza la persona concreta que demana el préstec, sinó què han fet fins llavors les persones semblants. Aquesta falta de personalització fa que en alguns casos concrets les prediccions de l’algoritme siguin errònies. I l’homogeneïtzació en la presa de decisions, que estalvia criteri humà, promou cercles viciosos com el dels joves als quals no contracten per falta d’experiència o els aturats de llarga durada que no troben feina perquè porten massa temps sense treballar.

Els algoritmes que processen grans quantitats de dades també es fan servir en alguns llocs per seleccionar estudiants universitaris o treballadors, per predir on es produiran més delictes o per fixar les quotes d’assegurances. En la majoria de casos, tal com explica la matemàtica Cathy O’Neil al llibre Armas de destrucción matemática, editat per Capitán Swing, la poca personalització del procés contribueix a incrementar la desigualtat.

Un dels últims exemples que ho ha posat de manifest és la reivindicació dels riders de conèixer els algoritmes que utilitzen les empreses de repartiment, cosa que finalment serà possible aviat gràcies a l’anomenada llei rider que ultima el govern espanyol. Aquests algoritmes puntuen els repartidors, i això determina la seva capacitat de triar horaris i encàrrecs. Però els que poden triar menys moltes vegades no poden treballar, perquè els encàrrecs ja estan assignats i això fa que cada cop tinguin menys puntuació i, per tant, menys oportunitats de triar. Gràcies a la nova llei, els riders podran saber, almenys, amb quins criteris atorga les puntuacions l’algoritme, de manera que podran decidir com treballar per obtenir més punts.

Xarxes algorítmiques

Un negoci basat en manipular les emocions dels usuaris

Però qui ha portat l’ús de dades i els algoritmes a un altre nivell són les xarxes socials i els motors de cerca. Són gratuïtes i transmeten la idea que són un finestral obert al món. El seu model de negoci, genuí del segle XXI, es basa en la captació constant de dades i en una capacitat algorítmica fora de sèrie. Tal com s’ha dit moltes vegades, si un producte digital és gratuït, el producte som nosaltres, els usuaris. En aquest cas, el producte és la nostra atenció creixent, que es ven a anunciants amb la garantia, més alta que mai, que els anuncis ens resultaran rellevants. Per tant, el negoci de les xarxes socials es basa en conèixer els usuaris, en saber què els interessarà i com reaccionaran a certes emocions, per proveir-los continguts que els facin estar cada cop més temps connectats perquè generin més dades i puguin veure més anuncis.

L’exexpert de Google en ètica del disseny Tristan Harris ho anomena tecnologia persuasiva, perquè es tracta d’aplicacions que modifiquen la conducta. No són simples eines que esperen que algú les utilitzi, segons Harris, sinó plataformes que utilitzen la psicologia humana per generar beneficis. L’evolució ens ha modelat durant milions d’anys perquè siguem animals socials i donem importància a les relacions i al que la gent pensa de nosaltres. Un dels mecanismes que el temps i l’atzar han seleccionat per regular aquestes relacions és la generació de dopamina al cervell, que es produeix durant les interaccions positives i alimenta els centres de plaer. Les xarxes socials exploten aquest mecanisme com ningú havia fet mai abans. Si a l’ascensor o en un semàfor vermell no podem evitar mirar el mòbil és perquè està inscrit en la nostra biologia.

La clau de l’èxit d’aquestes plataformes és la capacitat de proporcionar continguts rellevants als usuaris. Aquests continguts i interaccions se seleccionen o es promouen per a cada usuari en cada moment en funció de tota la informació que se n’ha acumulat, inclòs el seu estat d’ànim. I això pot crear una certa addicció i generar malestar i frustració, sobretot en els adolescents, una franja d’edat en la qual algunes xarxes fomenten l’entronització de cànons estètics que sovint es basen en filtres irreals, també seleccionats per algoritmes. “Les xarxes socials són susceptibles de generar aquests problemes, però jo no he visitat mai ningú amb problemes d’addicció”, explica la psicòloga Cristina Martínez. Des del punt de vista psicològic, “les conseqüències de l’ús abusiu de les xarxes socials són molt menors que les de l’addicció als videojocs o als jocs d’atzar”, afirma.

Mons bombolla

Les xarxes només promouen el contacte amb gent semblant

La característica més definitòria de les xarxes socials és la creació de les anomenadesbombolles o càmeres de ressonància. Per mantenir la gent connectada, els algoritmes promouen el contacte amb gent semblant, de manera que la promesa de finestral obert al món és fàcil que quedi en un ull de bou que dona al mateix món de l’usuari. “Si no tens una actitud activa, et quedes amb una visió molt restringida del món”, explica San Cornelio. “O busques informació de manera conscient o la informació t’arriba filtrada pels algoritmes”, constata Puyol-Gruart. “El problema és que no hi ha transparència”, diu Karina Gibert, catedràtica i directora del centre Intelligent Data Science and Artificial Intelligence de la UPC. “No t’expliquen com trien els continguts que et mostren i tampoc et pots alliberar d’aquesta tria”, afegeix.

Aquesta dinàmica afavoreix la polarització, sobretot en aspectes polítics, cosa que actua com un mecanisme de retenció molt eficaç. També actua així la proliferació d’informació falsa, que retroalimenta aquesta polarització i es propaga sis vegades més ràpidament que la verídica. S’ha parlat molt d’una possible intel·ligència artificial que en un futur podria destruir la humanitat. Però potser no s’ha parlat tant de la intel·ligència artificial que utilitzen les xarxes socials i que ja ha provocat canvis reals al món. El 2016 Donald Trump va gastar 44 milions de dòlars en gairebé 6 milions d’anuncis a Facebook, durant una campanya que va contribuir a una polarització mesurable i estudiada de la societat nord-americana (Hillary Clinton en va publicar 66.000). La mateixa xarxa es va utilitzar el 2016 a Birmània per atiar la violència cap als rohingyes, una minoria musulmana que viu a la costa oest del país.

A parer de Gibert, un dels aspectes que fan complexa la situació és que “el que es considera ètic depèn del context cultural”. Un grup d’experts de la Comissió Europea va elaborar fa un any unes recomanacions per utilitzar els algoritmes d’intel·ligència artificial de manera respectuosa amb les dades i la privadesa però que, segons la catedràtica, “estan enfrontades amb el que és ètic en altres països”. A més, afegeix, “el mercat d’aplicacions digitals està deslocalitzat geogràficament, i tot plegat a Europa li genera un conflicte de competitivitat”.

Regular un món algorítmic

Cultura ciutadana i regulació amb exigència de transparència

Les dades no desapareixeran. Tampoc ho faran la capacitat de computació ni els algoritmes. Però els algoritmes no es construeixen només amb dades, sinó també amb decisions humanes sobre quines dades s’utilitzen i com. “Des del vessant tècnic, poca cosa podem fer -diu Puyol-Gruart-, la regulació ha de venir de la política”. A parer de Gibert, una de les claus per millorar la situació actual és “que hi hagi una cultura ciutadana i que cadascú tingui criteris per decidir com es relaciona amb la tecnologia, quines dades cedeix i en quines condicions”.

D’altra banda, “les empreses haurien de ser transparents i explicar amb quins criteris dissenyen els algoritmes i amb quines dades els entrenen, cosa que és perfectament compatible amb el secret industrial”, explica Gibert. Com que la regulació de tota aquesta potència algorítmica és complexa i, per tant, llunyana, l’ús o abús actual d’aquesta tecnologia depèn de cadascú. De manera que si voleu obrir-vos al món i no realimentar la vostra bombolla digital, és millor que no llegiu aquest text si us arriba a través d’alguna xarxa social.

stats