30Science.com

Su facebook polarizzazione e disinformazione in aumento

(22 Ottobre 2025)

Roma – La diffusione di notizie false o distorte e la polarizzazione ideologica su Facebook sono aumentate in modo significativo tra il 2017 e il 2020. Lo rivela uno studio condotto dalla Universitat Pompeu Fabra di Barcellona (UPF), pubblicato sulla rivista EPJ Data Science, che ha analizzato oltre 6 milioni di URL di notizie provenienti da 1.231 domini statunitensi condivisi sulla piattaforma in un periodo segnato da eventi come la pandemia di Covid-19 e le elezioni presidenziali del 2020. La ricerca, guidata da Emma Fraxanet del Dipartimento di Ingegneria della UPF e supervisionata da Vicenç Gómez, ha evidenziato un trend crescente sia nella polarizzazione tra utenti conservatori e liberali, sia nella condivisione di contenuti provenienti da fonti di bassa qualità. Secondo i ricercatori, questi fenomeni coincidono con modifiche all’algoritmo di Facebook introdotte nel 2018 e nel 2020, che hanno cambiato il peso attribuito a interazioni come like, commenti e condivisioni nel determinare la visibilità dei post. Nel 2018, il social network aveva ridotto l’importanza dei “like” e aumentato quella di commenti e condivisioni, con l’obiettivo dichiarato di favorire interazioni più significative. Dopo questa modifica, la polarizzazione ideologica è aumentata e gli utenti hanno mostrato maggiore coinvolgimento con contenuti di bassa qualità. Un ulteriore intervento nel 2020 – che ha ridotto il peso delle condivisioni e aumentato quello dei commenti – avrebbe avuto effetti simili, pur accompagnandosi a un calo generale dell’attività sulla piattaforma. Lo studio mostra che gli utenti con orientamenti ideologici più estremi interagiscono di più con i contenuti rispetto ai moderati, generando un “effetto a U” nel livello di engagement. Questo meccanismo spiegherebbe come i contenuti più polarizzanti o partigiani riescano ad acquisire maggiore visibilità, alimentando una spirale di segregazione informativa. Inoltre, le fonti meno affidabili risultano essere le principali responsabili della circolazione di materiale distorto o fuorviante. Oltre all’impatto degli algoritmi, i ricercatori sottolineano che la comportamento degli utenti gioca un ruolo decisivo: le persone tendono a consumare notizie in linea con le proprie convinzioni politiche, riducendo l’esposizione a opinioni diverse. “Dopo i cambiamenti introdotti da Facebook, le differenze tra le diete informative di liberali e conservatori si sono ampliate, rendendo più difficile trovare un terreno comune per il dibattito democratico”, osserva Fraxanet.(30Science.com)

30Science.com
Agenzia di stampa quotidiana specializzata su temi di scienza, ambiente, natura, salute, società, mobilità e tecnologia. Ogni giorno produciamo una rassegna stampa delle principali riviste scientifiche internazionali e quattro notiziari tematici: Scienza, Clima & Natura, Salute, Nuova Mobilità e Ricerca Italiana contatti: redazione@30science.com + 39 3492419582