Entrevista
Mèdia15/04/2023

Patricia Ventura: “La intel·ligència artificial no té emocions ni criteri moral”

Doctora en comunicació, intel·ligència artificial i ètica

Patricia Ventura (Barcelona, 1975) es va doctorar a la UAB amb una tesi sobre comunicació, intel·ligència artificial i ètica. El treball d’investigació va ser l’embrió de l’informe que li va encarregar el Consell de la Informació de Catalunya i que ha servit per establir el codi de bones pràctiques que, sobre la irrupció de la IA, han rebut els mitjans de comunicació del país. Uns en fan més cas que d’altres. Patricia Ventura, mare de bessons, treballa com a consultora de comunicació, bàsicament en museus. Humanista de pedra picada, es considera optimista i defensa que tota innovació tecnològica s’ha de liderar culturalment i èticament, en el sentit civilitzat de cuidar l’altre. 

Primer concepte. Què és la intel·ligència artificial?

— És una tecnologia orientada a imitar la intel·ligència humana, suposadament.

Intel·ligència artificial és un oxímoron?

— Sí, del tot. Abans, intel·ligència artificial es deia simulació computeritzada i el concepte intel·ligència artificial neix el 1956, el proposa John McCarthy a la conferència de Dartmouth i es manté pel seu èxit periodístic. Per tant, és buscat i artificial. La intel·ligència és molt més que això.

Per què, els últims mesos, es crea tanta alarma perquè les màquines puguin fer coses que fem les persones?

— Perquè s’estan desenvolupant màquines per assemblar-se molt a les persones, però no hem après a entendre que no són humanes, que no ens estan parlant i que no entenen el que estan dient.

Si les màquines fan el mateix que les persones, a nosaltres què ens fa humans?

— És la gran pregunta d’aquests moments, i defensem que és importantíssim que abans de desenvolupar aquesta mena d’artefactes entenguem molt bé què és el que ens fa humans. I fins ara no ens ho hem preguntat amb prou intensitat.

Cargando
No hay anuncios

I quina és la resposta?

— La filosofia té aquesta resposta i, concretament, la fenomenologia. Necessitem tenir emocions, sentiments. La nostra percepció del món depèn de les emocions i del criteri moral. A partir d’aquests sentiments que percebem de l’entorn, som capaços de reaccionar en conseqüència.

Per tant, la intel·ligència artificial no té emocions?

— No té emocions, ni criteri moral. Són artefactes amorals.

Però ¿no pot arribar a tenir emocions, veient el desenvolupament ràpid de la IA? 

— No hi ha res que indiqui que és possible que una màquina tingui emocions. Ara bé, hi ha interessos econòmics perquè pensem que les màquines poden reproduir les persones. Les màquines no poden tenir emocions, entre altres coses perquè les emocions tenen a veure amb reaccions bioquímiques al nostre cervell. 

Segon concepte. Què és ChatGPT?

— És una eina que simula el llenguatge humà, que identifica estadísticament quina paraula té més probabilitat d’estar al costat d’una altra. I ja està. Ni té emocions, ni té sentiments, ni t’entén, ni et comprèn. 

Cargando
No hay anuncios

Conec un noi universitari que ha encarregat un treball a ChatGPT i em diu: “Me l’ha escrit com si fos meu i el professor mai no sabrà que me l’ha fet un robot”. És així de perfecte?

— Sembla que sí, que pot passar perfectament per un escrit d’una persona. Aquí els professors tenim un repte important sobre com valorar l’aprenentatge. Ara per ara es detecta una mena de patró en com s’expressa ChatGPT. Fa una espècie de resums i al final diu: “En conclusió, no-sé-què no-sé-què”. Ara pot ser una mica previsible i es pot ensumar, però cal preveure que cada cop serà més perfecte i costarà més identificar què està fet per una màquina i què per una persona. 

Si no pots detectar que el treball no l’ha fet l’estudiant, és una revolució en l’ensenyament. Com es pot aturar això? 

— Potser a través de l’oralitat, per exemple. És una manera de provar si la persona que ha treballat sobre un tema l’entén. Si hi has treballat, segur que el pots explicar.

Tercer concepte. Què és un algoritme?

— És la manera amb què la intel·ligència artificial processa les dades per arribar a una determinació. És com una recepta. Els ingredients són les dades, l’algoritme és la recepta i el resultat final és el plat.

L’algoritme és el dimoni?

— No, ni de bon tros. L’algoritme o la intel·ligència artificial és com un martell. El pots fer servir per clavar un clau o per fúmer un cop al cap a algú. L’algoritme no és cap dimoni, depèn de com el fem servir pot ser superútil i, de fet, n'hi ha usos molt positius, però hem d’anar alerta amb com es fa servir.

Cargando
No hay anuncios

Per tant, és un canal de distribució d’informació que constantment ens enllaça amb coses que creuen que poden ser del nostre interès. 

— Aplicat a la comunicació, és exactament això. Filtren la informació i ens la jerarquitzen amb uns criteris determinats.

¿I radicalitzen la civilització? ¿Anem més als extrems de blanc o negre? 

— Depèn de com estigui dissenyat, sí, perquè els algoritmes que dominen la nostra esfera pública estan dissenyats per empreses comercials que volen que passem molt temps a les seves plataformes. Ens ensenyen aquelles coses que més sintonitzen amb com veiem el món i, per tant, refermen el que opinem i entrem en aquesta espiral, en aquest cercle viciós. 

Si entrem en aquest bucle, ¿cada cop estem més informats o menys informats?

— És una molt bona pregunta. Ja fa dècades que algunes persones consideren que des de la irrupció del telègraf ja estem menys informats: ens va començar a arribar informació de tot el món descontextualitzada i en petites peces. Ara hem arribat a un punt en què estem com submergits en un mar d’informació, entretinguts amb aquests algoritmes que ens mostren més. Ens tenen absorbits. Estem en una situació molt semblant a la distopia d’Aldous Huxley a Un món feliç. No en som conscients, però la nostra llibertat individual es veu minvada per aquesta distracció sense ser-ne del tot conscients. 

Tu en dius distracció... però ¿pot ser que estiguem tendint cap a la banalització dels continguts, cap a l’estupidització?

— Sí. Justament aquests algoritmes dissenyats per captar la nostra atenció el que acaben destacant són els temes emocionals i hiperbòlics. Aquesta espiral, des dels àmbits polítics o des de molts altres, fa que qualsevol que vulgui destacar o vulgui notorietat sàpiga que si publica una cosa que no crida l’atenció o no és emocional serà avorrida. Per tant, grans problemes com el medi ambient o les desigualtats, que són més avorrits, no tenen tanta notorietat com altres temes menys importants però més emocionals.

Cargando
No hay anuncios

Però això passa. Els mitjans busquem el clic.

— Està passant perquè el periodisme viu moments molt complicats, de prendre decisions per sobreviure, i llavors es busca això. Però ara arriba un nou context. Hi ha senyals que el model de subscripció comença a prosperar. I, d’altra banda, creix la necessitat d’un periodisme rigorós, acreditat, per confiar-hi davant de tota l’allau de desinformació que ja existeix.

¿Està demostrat neurològicament que aquest link infinit, aquest bucle constant, a part de perniciós, és addictiu? 

— Efectivament. Més enllà dels algoritmes que també generen addicció, les interfícies d’aquestes plataformes estan dissenyades per utilitzar coneixement generat per la psicologia, que et condueix a tenir comportaments compulsius. Com ara fer scroll infinit buscant nova informació, mirar les notificacions per veure qui t’ha dit què i qui t’ha fet like. Tot això té a veure amb experiments fets prèviament que demostren que això fa que hi tornis.

Pel que fa a la producció d’una informació estricta, és a dir, fer un titular i explicar el qui, el què, el com... Fins aquí, que ho faci una màquina, bé?

— Sí.

¿El problema és quan li dius a la màquina que interpreti o opini sobre un tema i faci una columna a favor o en contra?

— Sí, hi ha diferents problemes. Per començar, la tria del tema. Una màquina no pensa “Per què això és important que la gent ho sàpiga”, i això és fonamental en el periodisme. I, òbviament, hi ha un problema d’interpretació, perquè no té criteri moral en la contextualització. 

Cargando
No hay anuncios

Per exemple?

— Tu li pots encarregar una peça el màxim de neutra, com es fa des de fa temps, sobre el resultat electoral en una localitat on ha guanyat tal. Punt. Però si aquí ja entres en la interpretació, esclar, això és un gran problema perquè la IA no pot tenir opinió per definició, perquè no comprèn el món i no té criteri moral. Per tant, també és un oxímoron encarregar un article d’opinió a una cosa que no pot tenir opinió.

Però, en canvi, ChatGPT pot arribar a escriure una columna sobre uns resultats electorals amb l’estil sarcàstic d’Empar Moliner i, fins i tot, utilitzant el lèxic que fa servir l’Empar. 

— Esclar, però ens enganya. Fer servir aquesta tecnologia per fer-la tan semblant a l’ésser humà és enganyar. 

Per tant, no podrem prescindir d’una articulista com Empar Moliner... 

— No. Si volem ser ètics, no. Si volem ser transparents, no. I cal aquesta transparència perquè cal confiança. El periodisme, i qualsevol negoci i organització d’impacte social, es basa en la confiança. 

¿No tens la sensació que els debats d’ara són molt semblants als del segle XIX quan el sensacionalisme de la premsa groga es va fer molt popular perquè la gent volia llegir sang i fetge?

— Absolutament. I això és interessantíssim, perquè el New York Times, al segle XIX, per distingir-se d’aquesta premsa groga de Hearst va aplicar una estratègia orientada a aconseguir la confiança. "Informació rigorosa" era el seu missatge. Des de fa un temps és "The truth", la veritat. Per tant, portar el New York Times sota el braç, llavors, era signe de prestigi, estava orientat a les classes més altes, mitjanes altes i, en canvi, qui llegia la premsa groga aspirava a allò. El New York Times va aconseguir així la seva reputació.

Cargando
No hay anuncios

Avui, per tant, ¿la solució seria: contra la intel·ligència artificial, continguts de qualitat?

— Rigorosos, per descomptat.

Bill Gates, que ha invertit més de 10.000 milions de dòlars en IA, tot d’una escriu un article generant alarma sobre els riscos de la IA. ¿Això és inconsciència, incoherència o és fer trampa?

— Jo crec que és màrqueting. De Bill Gates i tots aquests que han signat la carta, de la qual s’han servit personatges com Elon Musk, per mostrar aquesta suposada preocupació que mai han demostrat. Bill Gates ha fet un escrit molt ben fet, perquè els convé tenir la confiança per seguir invertint i, per tant, mantenir els seus beneficis. Però s’ha de veure quina trajectòria tenen i quins interessos hi ha darrere. Quan hi ha interessos econòmics, hi sol haver un biaix.

Segons Goldman Sachs, un 25% dels nord-americans i dels europeus podrien perdre la feina si es continua desenvolupant la IA. ¿T’ho creus o forma part de la cultura de la por?

— Ens hem de prendre tot això amb molta calma. També OpenAI va publicar un suposat estudi segons el qual el periodisme desapareixeria, però no es té en compte la capacitat d’adaptació. El periodisme s’ha adaptat a totes les tecnologies precedents, i també es pot adaptar a aquesta.

QÜESTIONARI HALSMAN

Intel·ligència artificial és un oxímoron?

Cargando
No hay anuncios

La IA és un experiment sense ètica que se’ls ha descontrolat?

Amb el ChatGPT s’imposa la mediocritat?

Aquesta entrevista te l’hauria fet millor una màquina?