CIÈNCIA

Barry O’Sullivan: “Vivim envoltats d’intel·ligència artificial amb tanta naturalitat que no ens n’adonem”

Entrevista al president de l’Associació Europea d’Intel·ligència Artificial

Barcelona ha acollit aquesta setmana la posada en marxa del projecte Intel·ligència Artificial per a la Unió Europea (AI4EU, en anglès), una iniciativa de la Comissió Europea (CE) per posar a disposició dels estats membres una plataforma a la carta de recursos d’intel·ligència artificial (IA), tant per a experts com per a públic general. Fins a 60 centres de recerca punters s’han reunit aquests dies a la Universitat Politècnica de Catalunya (UPC) per participar en les primeres reunions d’aquesta iniciativa. Entre ells hi ha el catedràtic d’informàtica Barry O’Sullivan, president de l’Associació Europea d’Intel·ligència Artificial (EurAI)-una de les més importants del món- i, des del juny passat, vicepresident del Grup d’Experts d’Alt Nivell en Intel·ligència Artificial de la CE.

¿És pot definir el futur de la IA de cara al 2030, com vol l’AI4EU?

És una pretensió ambiciosa, però la tecnologia és a tot arreu i té un impacte enorme en la nostra vida. Encara avui és una gran desconeguda entre el públic general i per això és important desenvolupar una línia estratègica que orienti des d’un punt de vista científic i tècnic, però també ètic.

¿Per això Europa està elaborant unes guies ètiques per a IA?

Sí, el segell de la intel·ligència és ser capaç d’explicar per què prenem una decisió i no una altra. Molts sistemes d’IA no ho poden garantir, com els deep learning systems, que amb el big data han guanyat molt de protagonisme. Són brillants i potents, però incapaços d’explicar l’origen de les seves respostes o de ser transparents. Últimament la gent ja ha començat a qüestionar la fiabilitat i la responsabilitat de la IA i a preguntar-se si cal un reforç legal per si surt alguna cosa malament. El marc, però, no és suficient, èticament parlant. Els autors han de ser responsables de les seves creacions, i la IA ha de tenir sempre la persona al centre.

¿L’apliquem sense adonar-nos-en, la IA?

Absolutament! Tots vivim cada dia envoltats d’IA: els tuits que llegim a Twitter o les pel·lícules que ens recomana Netflix les ha seleccionat una eina d’IA. I Google! Sempre que utilitzem el cercador fem servir la IA, o quan el Roomba neteja sol el terra de casa, ho fa per la IA. És brutal veure com aquests mètodes s’han assumit amb tanta naturalitat, fins al punt que la gent no percep que són IA.

Com ha d’entendre la societat aquests sistemes?

En primer lloc, necessita educació per saber què és i com funciona, però sobretot per preveure les conseqüències d’utilitzar-los. No hi ha risc zero. Posem per cas els sistemes de reconeixement facial: compartim dades tan personals com els nostres trets físics, i aquestes s’emmagatzemen amb el nostre consentiment. A mi personalment m’esgarrifa com l’iPhone pot organitzar la teva galeria de fotos a partir de les cares que reconeix: si etiquetes el teu pare una vegada, s’etiquetarà a la resta d’imatges en què detecti la seva cara.

I això és perillós?

Sovint dic que els sistemes d’IA són intrínsecament insegurs. Poden funcionar bé o malament, però també poden funcionar molt malament. La major part són ensinistrats, i el receptor només aprèn els exemples que es donen. Confiem que s’escullen els millors, però la IA pot operar amb dades esbiaixades de gènere, de raça o de tarannà socioeconòmic, que no són representatives.

Com per exemple?

N’hi ha molts. La IA no té el monopoli de la veritat, i els ordinadors no tenen sempre la raó. Imaginem una ordre directa per a la policia de Barcelona: la majoria dels agents s’han de traslladar a la part de la ciutat que es considera decadent, i només uns quants són enviats a la que es considera benestant. A la decadent es produiran més detencions i les dades que reculli el sistema revelaran que hi ha més criminals. És un biaix social reforçat per les dades. Passa igual amb les llengües: algunes posen gènere a les coses i altres no. Si analitzem els pronoms, veurem que els masculins s’associen a posicions d’autoritat o lideratge, mentre que els femenins a activitats de cura o de suport. Fins i tot els sistemes més excel·lents reprodueixen biaixos, perquè el problema no el té la IA, sinó la societat que ensinistra els sistemes. La IA no té sentit comú i, de fet, no hem de tenir por tant de la intel·ligència dels robots com de la seva estupidesa.

Però pot comportar riscos en la seguretat de les persones?

Estem molt contaminats per la ciència-ficció i pels robots humanoides. Ara bé, la IA sí que pot tenir un impacte negatiu. Com tot a la vida, depèn de com s’apliqui. La IA pot fallar o, fins i tot, pot utilitzar-se per fer el mal, però a priori no és dolenta. Amb això tornem al principi de l’entrevista: les directrius ètiques i un bon marc legal redueixen molt els riscos. La IA vol solucionar els problemes de la gent o millorar la seva vida, no la creem per fer mal als altres de manera deliberada.

¿Creu que s’ha gestat una nova competició internacional per la IA?

No, no ho crec. És evident que hi ha tres actors mundials forts en matèria d’IA: els Estats Units, Europa i la Xina. Amb tot, crec que tenen prioritats diferents. Els Estats Units, per sistema, primer construeixen i després reparen; ho veiem amb les xarxes socials, que sovint proliferen abans que els creadors o la societat pugui entendre-les. La Xina directament vol inserir els sistemes d’IA en la societat per controlar: cada ciutadà tindrà un número que indicarà el seu nivell de bondat el 2020. Jo en això veig grans diferències amb Europa i crec que el punt d’inflexió són les directrius ètiques. Aquí ens regim per una protecció molt estricta dels drets humans i de les dades personals, i crec que la nostra aproximació a la IA és -i lluitarem perquè ho sigui sempre- molt ètica.

Més continguts de