Mèdia 04/07/2020

Facebook i llenguatge de l’odi: una relació d’amor i ídem

La companyia es resisteix a sacrificar tràfic a canvi d'un clima menys polaritzat

àlex Gutiérrez
3 min
Facebook i llenguatge de l’odi: una relació d’amor i ídem

BarcelonaL’èxode d’anunciants que ha patit Facebook els últims dies, argüint que fomenta diferents formes d’odi, suposa l’amenaça més destacada viscuda per aquesta xarxa social contra el seu model de negoci. Mark Zuckerberg ha estat sempre repatani a considerar que tenia responsabilitat sobre els missatges que circulen a Facebook. Ell es limita a posar l’autopista, diu. Però, amb el temps, ha anat adoptant mesures per limitar els efectes perniciosos que pot generar la informació tòxica o la violència simbòlica adreçada a col·lectius vulnerables. I, en tot cas, documents interns de la companyia, revelats recentment, evidencien que mentre la mà dreta limita la circulació de l’odi, la mà esquerra, parada, recull els fruits generats per un tràfic inflacionat per la polarització.

Inscriu-te a la newsletter Sèries Totes les estrenes i altres perles
Inscriu-t’hi

Tot i que les polítiques de Facebook en matèria de continguts són públiques, l’aplicació sempre està subjecta a un elevat grau d’arbitrarietat. L’any 2017 el portal ProPublica va recollir 49 missatges que havien superat el filtre dels revisors de continguts tot i que consideraven que contenien discurs de l’odi i els va sotmetre a consideració dels responsables de Facebook. La companyia va admetre que, en 22 ocasions, el sistema havia fallat i hauria calgut haver eliminat aquell contingut. En 19 casos, en canvi, va defensar que s’havien seguit correctament les normes establertes per la mateixa xarxa. La resta eren dubtosos.

En tot cas, s’evidenciava que el criteri podia ser molt subjectiu i, a més, fàcilment violable. Un clam com "L’únic musulmà bo és el musulmà mort", per exemple, també va superar el filtre, ja que no inclou una crida explícita a exercir violència contra els practicants d’aquesta religió, tot i l’òbvia amenaça implícita. Una altra investigació de la mateixa organització periodística, que va accedir a documentació interna de Facebook, va descobrir que frases com ara "Totes les periodistes d’esports haurien de rebre un bon cop d’estic al cap", per exemple, no violava les regles, ja que no s’adreçava a un col·lectiu dels protegit –les dones– sinó a una subcategoria –les periodistes– i, per tant, quedava fora de la protecció.

En aquell moment, el vicepresident de Facebook, Justin Osofsky, es comprometia a augmentar l’exèrcit de revisors fins als 20.000 efectius, de cara al 2018. Però no s’ha complert l’objectiu: la pàgina oficial de la companyia xifra en 15.000 persones les que es dediquen a la moderació de cometaris. El directiu explicava que esborrava 66.000 continguts marcats com a discurs de l’odi cada setmana. Un dels problemes, de fet, és que la quantitat de missatges a la xarxa és tan ingent que aquests revisors –tot i l’ajuda de filtres i algoritmes– es basen fonamentalment en les alertes que els mateixos usuaris alcen quan topen amb un contingut d’aquesta índole. Però, en grups on hi ha afinitat ideològica, alguns membres poden acabar alimentant la violència sense que transcendeixi en el conjunt de la comunitat.

Zuckerberg esquiva el debat

El Wall Street Journal va revelar, aquest maig, missatges interns de la cúpula de Facebook als seus treballadors que evidenciaven una veritat incòmoda: que davant del dilema entre tràfic monetitzable o contingut responsable preferia sacrificar la responsabilitat en benefici dels diners. "Els nostres algoritmes exploten l’atracció del cervell humà per les oposicions –deia una diapositiva presentada per un dels equips a la cúpula–. Si no revisem això Facebook alimentarà més i més continguts polaritzadors, en un esforç per captar l’atenció dels usuaris i mantenir-los més temps dins la xarxa". Però el diari econòmic assegurava que tots aquests clams interns van ser desencoratjats.

Un altre dels informes interns alertava que el 64% dels membres dels grups de Facebook d’ideologia més extrema hi havien ingressat gràcies al fet que la mateixa xarxa els havia convidat a fer-ho, a través dels suggeriments. "Els nostres sistemes de recomanacions fan més gros el problema", es reconeixia en aquest informe, presentat el 2016. Una enquesta de l’institut Gallup, als Estats Units, determinava que el 60% dels ciutadans creien que els gegants tecnològics tenien un paper polaritzador, mentre que només l’11% els atorgava un poder cohesionador.

La companyia assegurava al Journal que havia canviat des d’aleshores, però, de nou, els fets no semblen acompanyar prou la declaració. Twitter ha prohibit els anuncis polítics i ha marcat alguns missatges de Donald Trump com a continguts amb informació falsa. Stich ha expulsat el perfil oficial del president americà per vídeos que contenien discurs de l’odi. Reddit ha bloquejat el principal fòrum de suport trumpista, pel mateix motiu. Però Facebook –que va mantenir intacte el missatge de Trump marcat per Twitter– segueix sent, entre les principals xarxes socials, la que té una màniga més ampla. I un volum d’usuaris més gran.

stats