Catherine Pelachaud: “Si la intel·ligència artificial s'utilitza per dominar persones pot ser molt perillosa”

Investigadora en agents virtuals

6 min
Catherine Pelachaud, experta en assistents virtuals que imiten emocions humanes.

Catherine Pelachaud investiga com aconseguir que una màquina reprodueixi les emocions humanes amb l’objectiu de millorar la comunicació entre màquines i persones. Amb aquest propòsit dirigeix un grup de recerca a l’Institut de Systèmes Intelligents et de Robotique (ISIR), un centre de la Universitat de la Sorbona i el CNRS, la principal institució del sistema de recerca francès a escala estatal. El 1999 va desenvolupar el seu primer agent virtual de conversa animat. Es deia Greta i parlava d’una manera creïble, tot i que els gestos i les expressions de vegades no concordaven amb les paraules. La recerca en aquest camp ha millorat moltíssim i ara mateix aquests sistemes són molt més realistes. De tot això n'ha parlat en el 1r Simposi Internacional de Comunicació Multimodal celebrat aquesta setmana al campus del Poblenou de la Universitat Pompeu Fabra.

Què és un agent virtual?

— Té dues característiques principals. La primera és que acostuma a tenir una forma humanoide, és a dir, una cara, i hauria de tenir unes capacitats comunicatives semblants a les humanes, tant verbals com no verbals, perquè quan parlem movem les mans i parts de la cara. A més, en contraposició al que veiem en els videojocs o a les pel·lícules, aquests agents han de ser autònoms i interactius. Això vol dir que no hi ha ningú al darrere que decideixi què han de fer ni quan ho han de fer. Són programes que tenen la capacitat de percebre i interpretar la informació del seu entorn a partir de les expressions facials i del que diuen els seus interlocutors per, aleshores, decidir com reaccionar. Això vol dir que han de tenir una mena de consciència o habilitat social.

Què són capaços de fer aquests agents virtuals?

— D’una banda, el desenvolupament dels gràfics per ordinador ha permès una millora impressionant, de manera que poden ser molt realistes des del punt de vista de la textura i el color de la pell i les expressions facials en temps real. És increïble. I els pots tenir en un ordinador portàtil normal, no cal cap ordinador especialment potent. El que els falta, i que és el nucli del seu funcionament, és tot el que està relacionat amb la comunicació. Entendre el que se’ls diu i saber què han de respondre i com han de respondre per afavorir la interacció. Hem fet progressos, però encara estem treballant en aquests aspectes. El reconeixement de veu funciona força bé en moltes llengües, però la interpretació i el fet d’entendre la intenció dels humans que els parlen en un cert context, amb unes expressions facials i uns gestos determinats, encara ha d’avançar. Mantenir una interacció circumscrita a un àmbit concret encara és un repte.

¿Tecnologies com el famós ChatGPT poden ajudar a desenvolupar aquests sistemes?

— El ChatGPT pot ajudar a mantenir converses lleugeres, però si vols un agent molt específic l’has d’entrenar perquè tingui molt de coneixement en el seu domini d’actuació, de manera que quan parli no s’aparti del tema.

Per a què s’utilitzen aquests agents virtuals?

— Hi ha diverses aplicacions. Moltes en això que s’anomenen jocs seriosos, és a dir, tecnologia de videojocs que s’utilitza per fer formació a empleats d’empreses, o per aprendre a comunicar-se i a gestionar persones amb diverses actituds, amables, agressives o tímides, per exemple, o fins i tot per aprendre a parlar en públic. També tenen aplicació en el que es coneix com a e-health o salut digital. No per substituir els metges, evidentment, sinó per comunicar-se amb els usuaris amb l’objectiu d’aconseguir-ne dades que després els metges poden utilitzar. També poden substituir els fullets informatius que es donen als centres sanitaris. Va molt bé tenir algú amb qui dialogar i a qui puguis fer preguntes. En aquest cas, són assistents que donen informació i ajuden a entendre-la, perquè quan algú t’explica una cosa l’acostumes a entendre millor que quan la llegeixes. També poden ser, per exemple, tutors virtuals en àmbits educatius.

Parlem de sanitat i educació, que, almenys aquí, són àmbits de la gestió pública, però què passaria si empreses privades comencessin a vendre aquesta mena d’assistents capaços de simular emocions? Potser hi hauria gent que hi establiria alguna mena de vincle emocional o afectiu.

— És veritat que podem establir vincles amb moltes coses. La gent està enganxada al mòbil, per exemple. I això d’establir un vincle amb aquests assistents pot ser un problema, però penso que aquest problema el tindria gent molt específica, amb unes característiques psicològiques molt concretes. En qualsevol cas, hi veig un problema ètic i, per tant, hem d'anar molt amb compte. Aquests assistents poden reaccionar a les expressions facials de les persones amb expressions facials que denotin emocions i això es pot utilitzar amb finalitats persuasives per aconseguir que els usuaris facin alguna cosa o pensin alguna cosa. Prevenir això és un problema, com també ho és prevenir les notícies falses a les televisions. Cal estar segurs que la gent sap perfectament que es tracta d’entitats virtuals que quan les apagues desapareixen. També es podria obligar els agents a informar els usuaris que són assistents virtuals. De tota manera, penso que amb tot això no n’hi hauria prou.

Què caldria fer més?

— No ho sé, no tinc la solució.

Fa unes setmanes una sèrie d’investigadors i persones vinculades al món de la tecnologia, entre els quals hi havia Elon Musk i Yuval Noah Harari, van signar una carta per demanar una aturada en la investigació de sistemes com ChatGPT.

— Per començar, aquesta carta anava adreçada a la indústria i jo no crec que la indústria aturi la recerca, perquè hi ha molta competitivitat. D’altra banda, en l’àmbit de la recerca és crucial entendre molt bé l’impacte que poden tenir les eines que estem construint. En aquest àmbit, cada vegada es formen més comitès que analitzen les implicacions ètiques de la tecnologia i, com a científics, cada vegada som més conscients del potencial i els riscos d’aquests sistemes. I penso que aquesta consciència en l’àmbit científic és molt important. Quan construïm models els hem de posar en pràctica i qüestionar-nos a nosaltres mateixos. No ho podem deixar només als sociòlegs. I ara estem en un moment en què estan passant moltes coses, s’està produint un salt enorme. Podria haver passat abans, però les eines que teníem encara no estaven prou preparades.

Si aquests sistemes poden simular emocions o fins i tot alguna cosa semblant a la consciència, a mesura que segueixin evolucionant ¿tindrem manera de saber si això que simulen segueix sent una simulació o ja es tracta d’emocions o d’una consciència real?

— Tal com jo ho veig, les màquines no tenen sentiments ni consciència. Només poden fer simulacions. Si tornem a les aplicacions en salut, quan tens un agent amb una funció mèdica que ha de tractar amb persones i obtenir informació sobre la seva salut, és important que d’alguna manera s’estableixi una relació de confiança entre l’usuari i l’assistent, i això s’aconsegueix fent que l’agent mostri signes d’empatia o de comprensió. Però molt sovint és l’usuari qui interpreta que si l’agent riu vol dir que és amic seu. En realitat no està rient, simplement està movent els llavis d’una certa manera perquè l’han programat així. Per això, des del punt de vista ètic, s’ha de tenir en compte com els usuaris interpreten l’agent i quin impacte els causa. I aquesta és una feina que no s’ha de fer només des del món de l’enginyeria i els models computacionals sinó que cal entendre què està passant a la banda dels usuaris.

Amb l’auge dels sistemes com ChatGPT molta gent ha rescatat la idea de la singularitat tecnològica de Ray Kurzweil, que el 2005 va escriure que podria arribar un moment que les màquines assolissin una intel·ligència general i es poguessin millorar a elles mateixes de manera que escaparien al control de la humanitat.

— Una màquina pot accedir a internet i, d’alguna manera, tenir més coneixements que una persona, però si ens fixem en les habilitats socials com construir una relació a llarg termini, no crec que la nostra tecnologia ho pugui fer ara mateix. Què vol dir superar la intel·ligència humana? En alguns àmbits ja ho fan. Poden parlar qualsevol llengua. Però això no vol dir que siguin més intel·ligents. Hi ha coses com el sentit comú o l’empatia que no són gens fàcils de modelar i que encara ens falta molt per entendre-les. Encara no sabem com preparar els agents perquè reaccionin adequadament quan s’han equivocat, cosa que pot afectar la confiança en ells. Tot això pot millorar, però l’equilibri que hi ha en una interacció humana és molt complex i requereix un aprenentatge molt sofisticat que els humans hem adquirit gràcies al desenvolupament.

Més enllà dels problemes ètics que planteja, ¿la intel·ligència artificial pot ser perillosa per a les persones?

— Té aplicacions que poden ser molt beneficioses. Hi poden haver assistents virtuals en diversos àmbits que donin un bon servei. Però si la intel·ligència artificial s’utilitza per substituir persones i exercir algun tipus de domini sobre altres persones, pot ser molt perillosa. Sempre hi ha hagut aquest tipus de perill, però ara està creixent exponencialment.

stats