CARTES I MISSATGES
Opinió 09/08/2021

Cartes a la Directora 18/07/2021

3 min

Publiquem aquest escrit per evitar malentesos. Des del projecte europeu de recerca Alreco, coordinat per Oberaxe, la Universitat de Barcelona crea un eina dissenyada per fer una estimació del discurs d’odi, on s’inclou racisme, xenofòbia, antisemitisme, antigitanisme i islamofòbia. Volem recalcar que aquesta eina només ofereix una imatge del discurs d’odi a Twitter que reben les comunitats estudiades. En cap cas realitza una anàlisi sinó una classificació de tuits.

L’estructura del projecte és conceptualment senzilla. Es tracta d’un programa que captura tuits que parlen de les comunitats seleccionades i els classifica segons el col·lectiu i el nivell de discurs d’odi, on distingim 4 categories: neutre, odi ofensiu, odi extrem, upstander. Aquesta última fa referència a tuits posicionats en contra del discurs d’odi. Després es generen automàticament visualitzacions de fàcil accés per a tothom per analitzar aquestes dades.

El disseny de l’eina s’inicia amb una revisió de la literatura científica existent, que assenyala les limitacions de la intel·ligència artificial en l’automatització així com els avantatges de gestionar gran quantitat de dades. La revisió d’eines internacionals sobre monitorització del discurs d’odi es basen majoritàriament en bancs de paraules. Combinant aquests conjunts de paraules amb nous mots en castellà en vam crear un de propi per capturar tuits referits a comunitats específiques però que no indica si hi ha discurs d’odi. Aquest banc de paraules va ser contrastat per un grup de discussió amb membres dels col·lectius analitzats i validat per un consell assessor divers. Un cop capturats els tuits, s’etiqueten utilitzant un algoritme de machine learning, o aprenentatge automàtic.

Un lector no especialitzat en el tema es pot imaginar que aquest algoritme d’aprenentatge automàtic és una caixa negra, en la qual s’introdueix un text i les possibles etiquetes que pot tenir, i que retorna aquestes etiquetes. Mitjançant un procés d’entrenament, aquest algoritme aprèn el significat del text i les etiquetes, i després podrà assignar una etiqueta de forma intel·ligent. Per fer l’entrenament se li oferirà una gran quantitat de tuits etiquetats prèviament per persones, i conformarà així un conjunt de dades o dataset (com a etiquetadors han participat en el projecte: la plataforma Khetane, cibervoluntaris, SOS Racisme, la Fundació Euroàrab d’Alts Estudis, Al Fanar, Ecos do Sur i Oberaxe). Com més dades se li subministrin més precís serà el model (més vegades ens retorna l’etiqueta correcte ). Cada un dels tuits del data set compta amb la coincidència de com a mínim dos dels etiquetadors, en cas contrari han estat descartats. El repte és entrenar l’algoritme amb un dataset equilibrat. Per ajudar els etiquetadors en aquest procés, que va durar més de sis mesos, es va oferir un protocol d’anàlisi validat pel consell assessor. Sembla que el que ha despertat més polèmica mediàtica és la definició d’antisemitisme, que, basada en la conceptualització de l’IHRA i reconeguda per Nacions Unides, considera: “Les manifestacions podrien incloure l’objectiu de l’Estat d’Israel, concebut com una col·lectivitat jueva. Tanmateix, les crítiques a Israel similars a les que es fan contra qualsevol altre país no es poden considerar antisemites”.

Però, en definitiva, i malgrat les limitacions, l’eina no censura tuits sinó que els classifica per obtenir una primera aproximació del discurs d’odi a Twitter. I ens ofereix a la ciutadania un recurs per a la detecció i l’acció davant el discurs d’odi.

MARC AMORÓS LENA DE BOTTON

CREA - UNIVERSITAT DE BARCELONA

stats