Data ultima modifica: 14 Novembre 2021

L’odio online? Non sembra essere appannaggio di utenti dediti all’insulto. Il linguaggio offensivo o addirittura violento scaturisce da ‘insospettabili’ commentatori che in certi contesti perdono il contegno. Non sono odiatori seriali, ‘leoni da tastiera’ abituali, ma reagiscono male quando si trovano in una situazione ostile, scatenando il loro odio contro altri utenti. È quanto emerge da uno studio pubblicato su “Scientific Reports” da ricercatori dell’Università Ca’ Foscari di Venezia, in collaborazione con Agcom e Jozef Stefan Institute di Lubiana, che hanno analizzato 1 milione di commenti a video inerenti Covid-19 pubblicati su Youtube.  Per monitorare la presenza del discorso d’odio (hate speech) su tale mole di contenuti, il team coordinato da Fabiana Zollo, ricercatrice di Ca’ Foscari, ha messo a punto un modello di ‘machine learning’ in grado di etichettare ogni commento e classificarlo come appropriato, inappropriato, offensivo o violento, a seconda della tipologia di linguaggio utilizzata. “L’hate speech – spiega Matteo Cinelli, primo autore dello studio e ricercatore postdoc a Ca’ Foscari – è uno dei fenomeni più problematici del web poiché rappresenta un incitamento alla violenza nei confronti di specifiche categorie sociali ed infatti sia le piattaforme social che i governi sono alla ricerca di soluzioni a tale problema”. La ricerca ha messo in luce come solo il 32% dei commenti classificati come violenti siano stati rimossi dalla piattaforma o dall’autore ad un anno dalla pubblicazione. Dall’altro lato, fornisce dei dati utili a sviluppare delle strategie per comprendere ed arginare il fenomeno. Tra i 345mila autori dei commenti analizzati, lo studio non ha identificato dei veri e propri ‘leoni da tastiera’ dediti unicamente a seminare odio. L’insulto non è quindi una deriva che riguarda una specifica categoria di persone. Molti utenti, in determinati contesti, diventano autori di commenti ‘tossici’. “Sembrerebbe che l’utilizzo di un linguaggio offensivo e violento da parte degli utenti sia scatenato occasionalmente da fattori esterni – commenta Fabiana Zollo -. Lo studio di questi fattori è sicuramente decisivo per individuare le strategie più efficaci per arginare il fenomeno”. La ricerca ha quantificato la mole di commenti d’odio, registrando un’incidenza dell’1% sul milione di commenti analizzati. Tale percentuale è risultata simile sia per i canali ritenuti affidabili, sia per quelli che diffondono disinformazione. Gli utenti che tendono a commentare sotto canali affidabili utilizzano in media un linguaggio più tossico, con offese ed espressioni violente, rispetto a coloro i quali tendono a commentare sotto canali non affidabili. D’altra parte, l’analisi ha anche mostrato come il linguaggio degeneri quando l’utente si trova a commentare in una ‘bolla’ diversa da quella a cui è più familiare, in un ambiente quindi ‘avverso’ alle sue opinioni. Infine, spiega Cinelli, “all’aumentare della lunghezza della conversazione anche la sua tossicità aumenta, risultato, questo, concettualmente in linea con una ben nota legge empirica del web conosciuta come Legge di Godwin”. La ricerca è stata svolta nell’ambito del progetto europeo IMSyPP “Innovative Monitoring Systems and Prevention Policies of Online Hate Speech”, partito a marzo 2020 e della durata di 2 anni. Il progetto si pone come obiettivo principale l’analisi dei meccanismi che governano la formazione e diffusione di hate speech online e la formulazione di proposte data-driven per contrastarne la diffusione. 

[Voti: 0    Media Voto: 0/5]