Roma – La diffusione di notizie false o distorte e la polarizzazione ideologica su Facebook sono aumentate in modo significativo tra il 2017 e il 2020. Lo rivela uno studio condotto dalla Universitat Pompeu Fabra di Barcellona (UPF), pubblicato sulla rivista EPJ Data Science, che ha analizzato oltre 6 milioni di URL di notizie provenienti da 1.231 domini statunitensi condivisi sulla piattaforma in un periodo segnato da eventi come la pandemia di Covid-19 e le elezioni presidenziali del 2020. La ricerca, guidata da Emma Fraxanet del Dipartimento di Ingegneria della UPF e supervisionata da Vicenç Gómez, ha evidenziato un trend crescente sia nella polarizzazione tra utenti conservatori e liberali, sia nella condivisione di contenuti provenienti da fonti di bassa qualità. Secondo i ricercatori, questi fenomeni coincidono con modifiche all’algoritmo di Facebook introdotte nel 2018 e nel 2020, che hanno cambiato il peso attribuito a interazioni come like, commenti e condivisioni nel determinare la visibilità dei post. Nel 2018, il social network aveva ridotto l’importanza dei “like” e aumentato quella di commenti e condivisioni, con l’obiettivo dichiarato di favorire interazioni più significative. Dopo questa modifica, la polarizzazione ideologica è aumentata e gli utenti hanno mostrato maggiore coinvolgimento con contenuti di bassa qualità. Un ulteriore intervento nel 2020 – che ha ridotto il peso delle condivisioni e aumentato quello dei commenti – avrebbe avuto effetti simili, pur accompagnandosi a un calo generale dell’attività sulla piattaforma. Lo studio mostra che gli utenti con orientamenti ideologici più estremi interagiscono di più con i contenuti rispetto ai moderati, generando un “effetto a U” nel livello di engagement. Questo meccanismo spiegherebbe come i contenuti più polarizzanti o partigiani riescano ad acquisire maggiore visibilità, alimentando una spirale di segregazione informativa. Inoltre, le fonti meno affidabili risultano essere le principali responsabili della circolazione di materiale distorto o fuorviante. Oltre all’impatto degli algoritmi, i ricercatori sottolineano che la comportamento degli utenti gioca un ruolo decisivo: le persone tendono a consumare notizie in linea con le proprie convinzioni politiche, riducendo l’esposizione a opinioni diverse. “Dopo i cambiamenti introdotti da Facebook, le differenze tra le diete informative di liberali e conservatori si sono ampliate, rendendo più difficile trovare un terreno comune per il dibattito democratico”, osserva Fraxanet.(30Science.com)
30Science.com
Su facebook polarizzazione e disinformazione in aumento
(22 Ottobre 2025)
30Science.com
Agenzia di stampa quotidiana specializzata su temi di scienza, ambiente, natura, salute, società, mobilità e tecnologia. Ogni giorno produciamo una rassegna stampa delle principali riviste scientifiche internazionali e quattro notiziari tematici: Scienza, Clima & Natura, Salute, Nuova Mobilità e Ricerca Italiana
contatti:
redazione@30science.com
+ 39 3492419582