Facebook va exposar la identitat de moderadors de continguts a sospitosos de terrorisme

El diari 'The Guardian' ha revelat l'error de seguretat que va afectar més de 1.000 treballadors

El diari 'The Guardian' ha fet públic un error de seguretat a Facebook que va exposar la identitat dels moderadors de continguts de la companyia a usuaris sospitosos de terrorisme. 

L'error de seguretat va afectar més de 1.000 treballadors que havien fet servir el software de moderació de la companyia per revisar i eliminar contingut inapropiat de la plataforma, incloent-hi material pornogràfic, discursos que fomenten l'odi i propaganda terrorista. Un mal funcionament d'aquest programa, que es va descobrir a finals de l'any passat, va fer que els perfils personals dels moderadors de contingut sortissin automàticament com a notificacions en el registre d'activitat dels grups de Facebook els administradors dels quals s'havien eliminat de la plataforma per incomplir les normes del servei. Així, la informació personal dels moderadors va ser visible per als administradors que quedaven al grup. 

Dels 1.000 treballadors afectats, prop de 40 treballaven a la unitat de lluita contra el terrorisme amb seu europea de Facebook a Dublín (Irlanda). D'aquests, Facebook va concloure que sis havien tingut les seves dades personals a la vista de terroristes potencials. 'The Guardian' ha entrevistat un dels afectats, un ciutadà irlandès d'origen iraquià que va fugir d'Irlanda i es va amagar després de descobrir que set persones associades a un grup terrorista sospitós que ell havia prohibit a Facebook havien vist el seu perfil personal. 

Segons el diari, la companyia ha admès l'error de seguretat i ha anunciat que ha fet canvis per detectar millor i evitar aquesta mena de problemes.

Intel·ligència artificial per trobar els 'posts' extremistes

Facebook explica en un 'post' com combat els continguts inapropiats

Justament ahir, la companyia va explicar en un comunicat que utilitza la intel·ligència artificial en la lluita 'online' contra el terrorisme. Ho va fer després de rebre pressions dels governs francès i britànic per publicar els seus mètodes de filtratge de continguts extremistes, que proliferen a les xarxes socials. 

Al text s'explica que la xarxa social, conscient que el món 'online' juga un paper essencial en la radicalització de membres de grups com l'Estat Islàmic o Al-Qaida, prioritza eliminar els continguts que donen suport al terrorisme i que, en casos en què hi ha mostres d'un possible "dany imminent", avisa les autoritats. El comunicat, signat per la directora de Polítiques Globals i el cap de Polítiques d'Antiterrorisme, diu que "la tecnologia, i Facebook, pot ser part de la solució", però reconeix que no és fàcil mantenir la seguretat en una plataforma que utilitzen gairebé "dos mil milions de persones cada mes, publicant i comentant en més de 80 llengües" a tot el món.

Al comunicat informen dels passos que han fet recentment des de tres àmbits: la supervisió per part de moderadors, la col·laboració amb altres plataformes i la intel·ligència artificial (IA). Aquesta última és la que més interès ha despertat. Aquestes són algunes de les passes que fa el sistema d'IA de Facebook per analitzar tots els continguts que es publiquen a Facebook:

1. Anàlisi d'imatges coincidents. Quan algú puja una fotografia o un vídeo, el sistema analitza si es correspon amb alguna imatge o vídeo terrorista existent, de manera que el material que s'hagi retirat per estar relacionat amb el terrorisme no podrà tornar a ser pujat a Facebook.

2. Comprensió del llenguatge. Analitzen el text segons un algoritme que detecta continguts similars, mitjançant els indicis i patrons que marcats per publicacions anteriors, eliminades per estar relacionades amb el terrorisme. A mesura que detecten publicacions sospitoses, el sistema es pot anar millorant.

3. Eliminació de grups terroristes. La tendència que tenen els membres de grups terroristes d'organitzar-se conjuntament facilita que Facebook pugui detectar pàgines, grups, perfils i publicacions que hi donen suport, a través d'un altre algoritme. Un indici per convertir un compte en sospitós és que aquest tingui com a amics diversos comptes eliminats per la seva relació amb el terrorisme.

4. Reincidència. Facebook analitza perfils ja eliminats perquè pugui ser més fàcil trobar nous comptes falsos de les mateixes persones, ja que molts usuaris són reincidents.

Més continguts de