14/02/2020

Coronavirus: dades sense respostes

3 min
Un mirall reflecteix un codi binari.

Des de fa una setmana em llevo i actualitzo la pàgina https://thewuhanvirus.com, on es fa un recompte quasi a temps real dels morts pel coronavirus, dels infectats i dels països per on s'està propagant. Dijous s'hi van sumar 250 morts i 15.000 infectats més després d'un canvi en el sistema de recompte. La web és tan addictiva com una màquina escurabutxaques, vols refrescar-la per veure si alguna cosa ha canviat. La informació que la xarxa fa circular sobre el coronavirus és contradictòria i parteix de l’alarma social; i és que internet, com a mitjà de propagació, comparteix naturalesa epidemiològica amb el virus. Però la xarxa també pot servir per utilitzar les dades massives per al bé comú, per a l’interès general. S’han posat en marxa diferents investigacions dins del marc del que s’anomena ciència de dades (data science) per intentar, d’una banda, oferir suport i informació des d'internet a les zones afectades i, en segon lloc, per predir les zones de més possible risc futur. Hem passat de la intel·ligència col·lectiva, que pivotava al voltant del factor humà, a la intel·ligència artificial, que recol·lecta i analitza les nostres dades col·lectives. Andy Tatem, de la Universitat de Southampton, capitaneja un d’aquests projectes d'investigació, finançat pels Estats Units i la Xina, que va usar dades dels mòbils, dels itineraris dels passatgers i dels casos reportats. Amb aquesta informació van poder deduir, abans no es propagués el virus, les zones de més risc, sobretot tenint en compte la mobilitat durant la celebració de l’Any Nou del 25 de gener al 4 de febrer (l’entrada a l’any de la Rata!), i no es van equivocar: Bangkok, Hong Kong, Taipei, Sydney o Singapur estaven al capdamunt de la llista. A l'Organització Mundial de la Salut (OMS) es pot veure l’alerta que la Xina va enviar el 31 de desembre i que l'OMS va penjar el 5 de gener, on s’informava d’una pneumònia d’origen desconegut a Wuhan. El 12 de gener l'OMS ja parlava de coronavirus i d’un mort.

Aquests processos són l’herència del sistema d'informació geogràfic (mapa de punts) creat per John Snow en la investigació sobre el còlera a Londres el 1854, que en deu dies va matar 500 persones. Gràcies a una cartografia en què creuava dades geoespacials (infectats, ubicació de bombes d’aigua i relació d’on havia tret l’aigua cada infectat), van poder frenar l’epidèmia. Però la intel·ligència artificial destinada a detectar alertes precoces ens genera algunes preguntes. El més fonamental és saber de qui són les dades, qui les gestiona, per a què, de quines dades es tracta i com es pot veure afectada la nostra integritat moral i social amb tot això. La segona qüestió és quin valor real tenen les dades en un context (en aquest cas la Xina) on la llibertat d’expressió segueix penalitzada. És a dir, com lidiar amb la confrontació entre el coneixement obert i la censura declarada. També ens emmiralla amb l’evidència que la tecnologia mòbil ens facilita fer el seguiment d’algú, vigilar-lo, i que aquesta observació cauta, al capdavall, acabi sent una eina de control social. Una qüestió que ens hem de plantejar, també, és com pensar les conseqüències i els límits de la cartografia: si l'entitat sueca Flowminder, dirigida per Andy Tatem, és especialista en l’elaboració de mapes d’alta resolució de la distribució de la població vulnerable, ¿què fa i què fem perquè aquesta informació sigui retornada en forma d’accions polítiques efectives per millorar la vida de les poblacions vulnerables? ¿Què fem amb totes aquestes dades que ens cremen a les mans? ¿Quines són les dades que mai ens arriben (2.300 persones van morir el 2019 per l’Èbola al Congo, per exemple), les dels que queden fora del mapa? ¿Com humanitzem els mapes fent-ne relats més complexos? ¿Com fem que tinguin conseqüències efectives, les respostes que donem? Quan, el 2004, Pierre Lévy parlava sobre el fet que la intel·ligència col·lectiva era una enginyeria del vincle social i una democràcia en temps real, no podia imaginar-se que quinze anys després la intel·ligència col·lectiva d’internet estaria gestionada, principalment, pel capitalisme de plataformes (Google, Facebook, Uber, Amazon, Airbnb...), que ha desembocat en el que Daniel Innerarity anomena “la uberització de la democràcia”, que inclou la privatització de l’espai públic virtual, l’atomització del treball, l’aïllament individual i l’ús de la intel·ligència artificial (algoritmes, machine learning, datificació) per establir nous mecanismes de control social a partir de l’extracció i l'anàlisi de dades permanents. La intel·ligència col·lectiva només era possible des del factor humà, però per a la intel·ligència artificial el factor humà només és un pretext per al càlcul. Les dades ocupen el lloc dels antics àugurs, però ofereixen resultats en lloc de respostes. No hi ha ni compassió ni cinisme en aquest gran quiròfan matemàtic. Tornem a les preguntes.

stats