La qualitat de les dades és clau per a una intel·ligència artificial ètica

La gran complexitat d’aquesta tecnologia i el mercat global en què actua fan que la legislació sobre les dades es desenvolupi molt a poc a poc

3 min
Dialeg intel.ligència artificial al Monestir de Pedralbes

BarcelonaEls camins de la tecnologia són inescrutables. Als anys cinquanta els més agosarats imaginaven que a principis del segle XXI els robots humanoides i intel·ligents serien omnipresents o que ens desplaçaríem amb cotxes voladors. Ningú va pensar en una intel·ligència artificial que recopilaria munts de dades i ens oferiria anuncis irresistibles sense parar o que aniríem amunt i avall amb patinets elèctrics.

El que està clar és que els sistemes automàtics que imiten la intel·ligència humana, que es van començar a desenvolupar als mateixos anys cinquanta, governen gran part de la nostra activitat actual. “Des de les màquines que netegen el terra fins als diagnòstics mèdics”, ha especificat l’experta Karina Gibert a la tercera sessió del cicle de diàlegs sobre intel·ligència artificial organitzat per l’ARA i el Museu-Monestir de Pedralbes. Gibert és catedràtica i directora del centre Intelligent Data Science and Artificial Intelligence de la UPC, i en aquesta sessió ha conversat sobre les bases d’aquesta tecnologia amb Daniel Gamper, professor de filosofia moral i política de la Universitat Autònoma de Barcelona.

Segons Gibert, les màquines imiten la intel·ligència humana “de dues maneres: imitant els processos cognitius humans o buscant-ne els mateixos resultats de maneres diferents”. Una de les maneres que tenen els sistemes automàtics d’obtenir els mateixos resultats que el cervell humà és utilitzant grans quantitats de dades. Però com s’obtenen les dades? I de quines dades es tracta? En aquest sentit, Gamper ha fet la pregunta següent: “Ens hem de relacionar amb la intel·ligència artificial amb confiança?” “Aquesta és la pregunta del milió”, respon Gibert. “La cursa en intel·ligència artificial fa el paper que va representar la cursa espacial el segle passat”, diu l’experta. “Tenim una tecnologia que dona resposta a preguntes, que ha trobat aplicacions comercials i que té aplicacions molt interessants, però de la qual també es pot fer un mal ús”, afegeix.

En aquest sentit, la Comissió Europea s’ha posicionat explícitament perquè els sistemes d’intel·ligència artificial que es desenvolupin a Europa estiguin centrats en la persona i el bé comú. “El problema és que el negoci de la intel·ligència artificial és intangible i viatja pel ciberespai; tothom es pot baixar una aplicació feta a la Xina o als Estats Units, que no tenen per què respectar aquestes normes”, diu la catedràtica. El problema, tal com ha matisat, és que Europa intenta mantenir aquesta visió basada en la persona, però té una capacitat d’inversió molt inferior que la Xina i els Estats Units.

Tenir una cultura digital

“Fa uns dies em vaig baixar una aplicació per gestionar les contrasenyes d’altres aplicacions”, ha explicat Gibert. “Però quan vaig acceptar les cookies, l’aplicació em va demanar accés a les imatges captades amb el mòbil”. Per què? “Per fer perfils i generar dades sobre usuaris”, ha assegurat. Per gestionar aquestes situacions, els experts consideren que calen tres tipus d’actuacions diferents: aconseguir que la ciutadania tingui una cultura digital i en intel·ligència artificial, que els futurs dissenyadors de la tecnologia apliquin criteris ètics i que es reguli legalment què es pot fer i què no es pot fer amb aquests sistemes.

Des del punt de vista legal, recentment s’ha aprovat a Espanya l’anomenada llei dels riders, que obliga les empreses a compartir amb els treballadors el criteri amb el qual funciona l’algoritme que gestiona la seva feina. Això és un primer pas fruit de protestes i negociacions, però, segons Gibert, “és molt complicat regular un àmbit tan complex com la intel·ligència artificial, i això fa que el procés sigui molt lent”. Efectivament, ha costat anys que Europa emeti unes recomanacions sobre l’ús de la intel·ligència artificial, les quals de moment no obliguen ningú a res.

Gibert també ha posat l’exemple d’Amazon, que feia servir un aplicatiu per gestionar els milers de currículums que rebia. Aquest sistema s’havia entrenat amb la història de l’empresa perquè aprengués quines persones havien funcionat millor. Quan el van començar a fer servir, els directius de la companyia es van adonar que només seleccionava homes. I això era perquè històricament a Amazon hi havien treballat sobretot homes. “¿Estava malament, aquest sistema?”, s’ha preguntat Gibert. La resposta és que no, que només estava perpetuant unes tendències històriques. Amazon va retirar l’aplicatiu, però aquest cas mostra que les dades són un dels aspectes claus per garantir un ús ètic dels sistemes d’intel·ligència artificial. “Les mostres amb què s’entrenen aquests sistemes han de ser representatives de l’univers corresponent”, conclou Gibert.

stats