La lotta di Facebook alla disinformazione non ha ridotto efficacemente le discussioni dei no vax 

15 Set, 2023
30Science.com
Mediaone

Roma – Un recente studio condotto da David A. Broniatowski e il suo team della The George Washington University ha analizzato gli effetti di una politica adottata da Facebook per rimuovere le informazioni sbagliate sulle vaccinazioni dalla sua piattaforma durante la pandemia da Covid-19. I risultati dello studio, pubblicati sulla rivista Science Advance, hanno rivelato che questa politica non ha comportato una diminuzione dell’interazione complessiva con i contenuti contrari alle vaccinazioni. Invece, sembra che l’architettura del sistema della piattaforma di social media sia stata sfruttata dagli autori e dagli utenti di tali contenuti per creare nuovi percorsi attraverso cui visualizzare materiale anti-vaccinazione. Secondo i ricercatori, dopo l’implementazione della politica di rimozione, i contenuti anti-vaccinazione sono diventati “più fuorvianti, più politicamente estremizzati e con più probabilità di apparire nei feed di notizie degli utenti”. Per condurre la loro analisi, Broniatowski e il suo team hanno utilizzato lo strumento di scoperta e monitoraggio dei contenuti chiamato CrowdTangle (di proprietà di Meta, la società madre di Facebook) per scaricare dati pubblici da pagine e gruppi di Facebook. I ricercatori hanno esaminato i contenuti contrari alle vaccinazioni e quelli a favore delle vaccinazioni il 15 novembre 2020, subito prima della rimozione, avvenuta l’18 novembre 2020, della pagina “Stop Mandatory Vaccination”, una delle più grandi pagine anti-vaccinazione sulla piattaforma, e prima dell’annuncio del 3 dicembre 2020 di Facebook riguardo alla rimozione delle affermazioni false sulle vaccinazioni anti-COVID-19 e degli account che pubblicavano tali affermazioni. Successivamente, i ricercatori hanno confrontato i dati provenienti da oltre 200.000 post pubblicati su pagine e gruppi creati tra il 15 novembre 2019 e il 15 novembre 2020 con i post pubblicati sulle stesse pagine e gruppi tra il 16 novembre 2020 e il 28 febbraio 2022. Secondo i ricercatori, diversi elementi dell’architettura del sistema di Facebook potrebbero aver permesso agli utenti di aumentare la loro interazione con i contenuti contrari alle vaccinazioni e alle informazioni sbagliate sulle vaccinazioni. Ad esempio, le pagine e i gruppi potevano coordinarsi tra loro per promuovere contenuti o ripubblicare contenuti rimossi. Inoltre, l’algoritmo del feed di notizie di Facebook, progettato per promuovere i contenuti che generano “interazioni sociali significative” misurate attraverso reazioni come “mi piace” e “arrabbiato”, potrebbe aver aumentato l’esposizione ai contenuti di informazioni sbagliate sulle vaccinazioni. In sintesi, lo studio indica che la lotta contro la diffusione di informazioni errate sulle vaccinazioni su piattaforme di social media come Facebook è una sfida complessa e che l’architettura del sistema di tali piattaforme può avere un impatto significativo sulla diffusione di tali contenuti. La ricerca evidenzia l’importanza di sviluppare strategie efficaci per contrastare la disinformazione e promuovere informazioni accurate in un ambiente digitale sempre più influente.

“Lo studio  – spiega Walter Quattrociocchi, professore di Informatica alla Sapienza Università di Roma – si concentra sull’efficacia delle politiche di rimozione delle notizie false adottate da Facebook durante la pandemia di COVID-19.
Si rileva che, nonostante gli sforzi di Facebook, la disinformazione legata ai vaccini non ha mostrato segni di diminuzione in termini di coinvolgimento da parte degli utenti. Ciò che è più preoccupante è l’osservazione che anche i contenuti favorevoli ai vaccini sono stati rimossi, e i contenuti antivaccino sono diventati più ingannevoli, politicamente polarizzati e più visibili nei feed degli utenti. Questo fenomeno potrebbe essere attribuito all’architettura di Facebook che, fornendo una grande flessibilità agli utenti, permette di diffondere facilmente contenuti falsi attraverso molteplici canali. In altre parole, anche se Facebook tenta di bloccare determinate informazioni, gli utenti motivati e i produttori di contenuti possono trovare diversi modi per aggirare tali restrizioni.
Insomma, nulla di nuovo sotto il sole, le persone tendono a selezionare e condividere informazioni che rafforzano le loro credenze preesistenti”.
“Quando questo comportamento si combina con l’architettura e gli algoritmi delle piattaforme di social media – ha aggiunto Quattrociocchi che è uno dei massimi esperti nel settore –  si crea un ambiente in cui tutte le prospettive e narrazioni possono prosperare. Gli algoritmi sono spesso progettati per massimizzare l’interazione degli utenti, mostrando contenuti che sono più propensi a “piacere” o condividere, piuttosto che contenuti accurati o diversificati. Ha sofferto di questa distorsione anche chi dice di fare informazione scientifica, l’intrattenimento dei propri follower è il nuovo mestiere.
“Infatti – conclude – lo studio sottolinea che nonostante gli sforzi di una piattaforma come Facebook per rimuovere la disinformazione, l’architettura stessa della piattaforma può contraddire o indebolire questi sforzi. Ciò rafforza l’idea che la responsabilità di combattere la disinformazione non dovrebbe ricadere esclusivamente sulle piattaforme, ma richiede una combinazione di interventi, tra cui educazione mediale, legiferazione e iniziative comunitarie”. (30Science.com)

Agenzia di stampa quotidiana specializzata su temi di scienza, ambiente, natura, salute, società, mobilità e tecnologia. Ogni giorno produciamo una rassegna stampa delle principali riviste scientifiche internazionali e quattro notiziari tematici: Scienza, Clima & Natura, Salute, Nuova Mobilità e Ricerca Italiana contatti: redazione@30science.com + 39 3492419582