06/02/2022

Facebook i les eleccions del 2022

4 min
Facebook i les eleccions del 2022

El món no està preparat per al tsunami electoral que ve. Tampoc Facebook. Amb tantes eleccions a l’horitzó -França, Kènia, Austràlia, el Brasil, les Filipines i els Estats Units celebraran eleccions aquest any- el debat s’hauria de centrar en com s’està preparant Facebook.

Inscriu-te a la newsletter Pensem Les opinions que et fan pensar, t’agradin o no
Inscriu-t’hi

Sé com és preparar-se per a unes eleccions a Facebook. Hi vaig treballar deu anys, i del 2014 a finals del 2019 vaig liderar l’esforç que dedica l’empresa a les eleccions arreu del món. Ha invertit més de 13.000 milions de dòlars per millorar la seva seguretat i protecció als Estats Units des de les eleccions del 2016, quan la plataforma va ser massa lenta a l’hora de reconèixer que els seus productes es podien utilitzar per escampar desinformació.

Els plans electorals responsables no es poden posar en marxa en dies o setmanes. Cal temps no només per organitzar-se internament, sinó també per establir connexions amb les comunitats d’arreu del món que treballen per fer segures les eleccions. Facebook ha de començar a esforçar-s’hi de manera seriosa, concertada i amb un bon finançament.

A algunes de les eleccions que es viuran durant la primera meitat de l’any, Facebook hi arribarà pels pèls. Però Facebook encara és a temps de comprometre’s amb un full de ruta públicament consultable que descrigui com planeja augmentar els seus esforços per lluitar contra la desinformació i els discursos d’odi a tot el món. Algoritmes que troben discursos d’odi i continguts relacionats amb eleccions; etiquetes que ofereixen més context a la gent, com les que es van aplicar als Estats Units al contingut que qüestionava els resultats electorals, i esforços per lliurar a la gent informació acurada sobre on, quan i com votar haurien de formar part de les proteccions bàsiques que Facebook desplega mundialment. A més d’aquestes proteccions tècniques, necessita persones amb coneixements lingüístics i culturals específics de cada país per prendre decisions difícils sobre els discursos i els comportaments que puguin vulnerar les regles de la plataforma.

Estic orgullosa del progrés que ha fet la companyia per oferir més transparència als anuncis polítics i temàtics, desenvolupar aliances amb la societat civil i eliminar les operacions d’influència. Cap d’aquests avenços s’ha produït de manera espontània. Per combatre l’Agència d’Investigació d’Internet, una granja de trols russa que va fer arribar el seu contingut a 126 milions de nord-americans abans i després de les eleccions del 2016, per exemple, Facebook necessitava noves polítiques, noves competències i un equip modernitzat. Gràcies a aquestes innovacions, la companyia va ser capaç d’eliminar 52 xarxes d’influència el 2021.

Facebook no podia fer tot això sol. Les aliances amb organitzacions com l’Atlantic Council, el National Democratic Institute, l’International Republican Institute i molts altres van ser vitals.

Però fins i tot així proveir la infraestructura tècnica per combatre la desinformació és només mitja batalla. Facebook va haver de passar l’examen de nou el 2020 i el 2021 per com va gestionar-ho tot, des del compte de Facebook del president Donald Trump a les falses demandes de frau electoral i l’assalt al Capitoli. Moltes de les converses que vaig tenir aleshores van girar al voltant de trobar l’equilibri entre el dret a la llibertat d’expressió i el mal que el discurs podria causar a algú.

Aquest és un dels dilemes centrals a què s’enfronten empreses com Facebook. Quina és la decisió correcta dels administradors de la companyia quan el president dels Estats Units en funcions viola les normes comunitàries de la plataforma, fins i tot si creuen que la gent hauria de poder sentir el que hagi de dir? ¿Quan està exercint la gent el seu dret a organitzar-se i protestar contra el govern, i no preparant-se per a una insurrecció violenta?

En altres països sorgeixen problemes semblants. L’any passat, el govern rus va pressionar Apple i Google perquè eliminessin una apli creada pels aliats d’Aleksei Navalni, opositor del president Vladímir Putin. Negar-s’hi hauria posat en perill els seus treballadors a Rússia. Obeir anava en contra de la seva normativa sobre llibertat d’expressió. Les empreses van triar protegir els empleats.

Aquestes són la mena de preguntes difícils que sorgeixen impensadament en qualsevol país. La paraula anet, per exemple (la planta), en rus es tradueix com a ukrop, i ha estat utilitzada com a insult contra els ucraïnesos. Alguns ucraïnesos, tanmateix, van recuperar la paraula i van donar aquest nom a un partit polític. Un marc global que no tingui en compte aquesta mena de situacions o que confiï massa en la tecnologia per abordar-les no està preparat per afrontar la realitat del nostre món complex. Facebook ha invertit milers de milions en aquesta mena de projectes. Però la majoria de les seves inversions per classificar la desinformació, per exemple, s’han centrat en els Estats Units.

El 2019 Facebook tenia més de 500 treballadors a temps complet i 30.000 persones treballant en seguretat. Fins i tot amb aquesta quantitat de talent humà només podia cobrir eleccions generals en tres països grans alhora. Almenys tota aquesta gent va ser necessària per als Estats Units el 2020. En dos anys, la gent dels Estats Units, l’Índia, Indonèsia, Ucraïna, Taiwan, Mèxic i la Gran Bretanya aniran a les urnes per votar en unes eleccions generals. Facebook haurà d’estudiar si ha de contractar almenys 1.000 treballadors a temps complet per estar preparat per al pròxim gran cicle electoral. Si la companyia ja fa tard de cara a aquest 2022, té el temps just per estar realment preparada per al 2024.

Aquests problemes no els pot resoldre Facebook pel seu compte. La seva matriu, Meta, és una companyia privada però amb una influència tremenda en la societat i el discurs democràtic. Facebook ha de continuar reconeixent la seva responsabilitat a l’hora de protegir les eleccions arreu del món.

Copyright The New York Times

Traducció Andreu Gomila

stats