JUDICIAL

Condemnats per un algoritme?

La intel·ligència artificial pot ajudar a pronosticar la resolució d’un cas però obre interrogants ètics

¿Us imagineu el dia en què les togues i els malls siguin objectes de museu i la justícia la imparteixin les màquines? La intel·ligència artificial (IA) també s’obre pas en l’àmbit judicial. L’advocat expert en dret digital i responsable de la Comissió de Transformació Digital del Col·legi de l’Advocacia de Barcelona (ICAB), Rodolfo Tesone, assenyala que a Catalunya i l’estat espanyol els grans despatxos ja incorporen aquestes tecnologies. “Serà una tendència imparable”, pronostica. Per la seva banda, Elena Gil, advocada experta en big data d’ECIJA Abogados, explica: “Hi ha tasques que sovint fan advocats júnior, com ara la cerca de jurisprudència, que cada vegada més seran automatitzades”.

De fet, ja comencen a proliferar xatbots per guiar les persones en processos jurídics i també programaris que pronostiquen la resolució d’un cas i que sovint incentiven acords extrajudicials. A més, alguns algoritmes permeten predir quan s’ha d’entrar un cas als jutjats perquè l’agafi un determinat jutge, favorable als interessos del client. Més enllà d’aquests usos, n’hi ha d’altres de més polèmics. Als Estats Units s’utilitza la IA per predir la reincidència, sobretot amb el programa COMPAS, de la companyia Equivant. Si bé els sistemes de machine learning comporten un estalvi de temps i contribueixen a combatre la saturació dels tribunals, també reben crítiques, sobretot per la seva imperfecció, l’opacitat i els biaixos que incorporen.

“Una probabilitat no és un fet. Per molt alta que sigui la probabilitat que el sistema et dona, sempre hi ha un marge d’error”, critica Gil, que lamenta que als EUA aquests algoritmes influeixin a l’hora d’imposar penes. “La línia és tremendament tènue”, afegeix Tesone. Tots dos subratllen el risc que el sistema es perverteixi i la justícia es basi en probabilitats, com a Minority Report, una ficció dirigida per Steven Spielberg que ja subratllava alguns problemes ètics. Per exemple, el fet que qui tingui el poder de dissenyar el sistema de predicció podrà estar per sobre del bé i el mal.

La controvèrsia per l’ús d’aquests mètodes als EUA va esclatar fa uns anys, amb el cas d’Eric Loomis, arrestat per conduir un vehicle involucrat en un tiroteig. El jutge el va condemnar a sis anys de presó, en part perquè l’algoritme de COMPAS el va etiquetar com “un individu d’elevat risc per a la comunitat”, amb una alta probabilitat de reincidència. Loomis va al·legar que els seus drets a un judici just s’havien vulnerat, ja que no va tenir accés a l’algoritme per veure com havia arribat a aquella conclusió. L’advocada d’ECIJA critica que avui aquests models de predicció matemàtica són “caixes negres”, mentre que Tesone adverteix que abans d’adoptar-los s’ha de considerar tant la seva eficàcia com la seva “justificació constitucional”, és a dir, si vulneren drets i principis ètics.

Molts biaixos, poca eficàcia

Investigacions acadèmiques i periodístiques qüestionen aquestes eines. El 2014 una investigació periodística de ProPublica va reflectir que COMPAS atorgava més probabilitat de reincidència a les persones de raça negra. Els fabricants de l’eina van discrepar, però el cert és que després diverses investigacions acadèmiques van arribar a una diagnosi similar. De fet, alguns treballs també van mostrar la seva poca eficàcia, com el dels investigadors Julia Dressel i Hany Farid, que van concloure que COMPAS no era més eficient en les seves prediccions que un grup de persones no enteses en dret.

“Deixar que un model decideixi qüestions rellevants avui dia pot ser encara molt precipitat”, recalca Gil. Per la seva banda, Tesone afirma: “No podem fiar-nos al 100% d’una màquina per molt intel·ligent que sigui”. Amb l’adopció d’aquests algoritmes hi ha el perill d’anar a buscar llana i tornar esquilat, és a dir, que per evitar els prejudicis de jutges es recorri a uns algoritmes que creiem que són objectius i que, en realitat, incorporen els biaixos de les dades que els nodreixen i del seu propi sistema. Per això, tant Gil com Tesone defensen que, si bé la IA pot automatitzar processos i aportar informació valuosa, la decisió última l’han de prendre éssers humans.

Mentre l’ús de la IA per jutjar sembla llunyà al Vell Continent, sí que hi haurà a curt termini altres conseqüències palpables. Per exemple, una reconversió dels perfils dels advocats, que hauran d’aportar valor afegit per competir amb les màquines. Tesone adverteix també d’un auge de l’intrusisme: persones no formades en lleis, gràcies a la IA, poden “plantejar models de negoci relacionats amb la presentació de demandes col·lectives”, com ja està passant. “És perillós, no només per als advocats, sinó també per als afectats”, valora aquest membre de l’ICAB.

Més continguts de