Mèdia 17/04/2012

El 'big data', a l'espera d'estàndards

i
Albert Cuesta
2 min

El catamarà Spithill que competeix a les regates de la Copa Amèrica porta a bord més de 500 sensors que recullen els paràmetres de navegació i els carreguen 10 vegades per segon en una base de dades que els enginyers de l'equip Oracle Racing fan servir per optimitzar el disseny de la nau. Oracle, la segona empresa de software del món -que ahir va començar als tribunals nord-americans un judici sobre patents contra Google que pot marcar el futur dels mòbils amb sistema Android- fa servir la nàutica com a banc de proves del concepte de big data , el fenomen d'acumulació de nous tipus de dades per part dels organismes i empreses.

Inscriu-te a la newsletter Sèries Totes les estrenes i altres perles
Inscriu-t’hi

A les dades estructurades tradicionals, que es poden representar en files i columnes, s'hi han afegit darrerament nous tipus que multiplicaran per 44 el volum global abans del 2020 i que en compliquen l'anàlisi: des dels sensors (un motor d'aviació genera 10 terabytes en només mitja hora, i cada dia hi ha 25.000 vols comercials) fins als registres d'accés als servidors web, les trucades dels operadors de telefonia o les acumulades en el sistema sanitari: ¿quants pacients que han visitat el metge més de tres vegades tenen més de 120 pulsacions durant més de cinc minuts?

Andrew Sutherland, vicepresident de tecnologia d'Oracle a Europa, m'explicava que el gran repte del big data és la falta de normalització: cada tipus de sensor proporciona les dades en un format diferent i això obliga a crear aplicacions d'anàlisi noves en cada cas. I també hi ha un factor lingüístic: hi ha empreses que fan servir el big data per analitzar què es diu d'elles a les xarxes socials -cada dia circulen per Twitter més de vuit terabytes de piulades-, però de moment només poden analitzar el sentiment favorable o desfavorable que manifesten els que piulen en anglès.

stats