Roma – Ho letto la risposta di Giovanni Zagni, direttore del progetto di fact-checking Facta e di Pagella Politica al mio editoriale sul Corriere della Sera e sono rimasto un po’ perplesso. Ritengo necessario fare alcune precisazioni, sia per chiarezza che per evitare che il dibattito sul fact-checking venga ulteriormente distorto.
Nel mio articolo, non mi sono limitato a citare un mio studio, che comunque è stato uno dei primi a dimostrare l’effetto backfire del fact-checking, tanto da portare alla chiusura della rubrica di debunking del Washington Post. Ho anche fatto riferimento al lavoro di Duncan Watts, pubblicato su Nature nel 2024 . Non è uno studio come gli altri: è una survey scientifica che analizza oltre 200 lavori sulla disinformazione, una sintesi rigorosa e sistematica delle evidenze disponibili. Le survey di questo tipo, fondamentali in scienza, richiedono competenze specifiche e strumenti metodologici avanzati. Non sono esercizi che si possono improvvisare: se condotte senza le basi necessarie, rischiano di diventare meri elenchi di opinioni o, peggio, di veicolare interpretazioni scorrette.
Il modo di argomentare adottato nella risposta di Zagni, basato sul cherry picking di studi per sostenere una tesi precostituita, è un esempio di ciò che il fact-checking dovrebbe evitare. I lavori citati fanno un eccellente lavoro per esplorare specifici aspetti della disinformazione, ma ignorarne i limiti e decontestualizzarli significa rischiare di perpetuare la confusione anziché chiarirla.
Ad esempio, lo studio di Martel e Rand (2024) mostra che le etichette riducono la percezione di credibilità delle notizie false, ma non affronta problemi strutturali come la polarizzazione o la viralità, che sono centrali nella disinformazione. Inoltre, si basa su esperimenti condotti in laboratorio con campioni limitati, che non rappresentano la complessità degli utenti online. Lo stesso vale per lo studio di Lee, Kim e Lee (2022), che si concentra sulle credenze cospirative sul vaccino MMR, mostrando un impatto minimo sulle credenze errate e nullo sui comportamenti pratici, come vaccinarsi.
Analogamente, il lavoro pubblicato su IEEE nel 2023 evidenzia che le etichette funzionano solo se accompagnate da spiegazioni dettagliate, un approccio poco scalabile nell’enorme ecosistema dei social media. Gli studi su Misinformation Review e APA confermano che gli effetti delle etichette sono spesso circoscritti a individui già alfabetizzati scientificamente, escludendo le persone più vulnerabili alla disinformazione.
Questi lavori, pur di grande valore, condividono limiti metodologici comuni: campioni ristretti, ambienti controllati che non replicano le dinamiche reali dei social media, e un focus sugli effetti immediati senza considerare l’impatto sistemico e a lungo termine. È proprio per questo che il fact-checking si rivela uno strumento parziale, incapace di affrontare i problemi strutturali generati da modelli di business basati sull’engagement tossico.
Infine, nel nostro lavoro su Nature del 2024, abbiamo mostrato che le dinamiche di interazione online sono persistenti e radicate nei comportamenti umani, indipendenti dalla piattaforma. Questo significa che, sebbene gli algoritmi possano amplificare certi contenuti, è il comportamento umano il motore principale delle dinamiche che vediamo sui social. Gli interventi superficiali, come le etichette di fact-checking, non possono risolvere questo problema di fondo.
P.S. Il comportamento umano è un driver potentissimo, che nessun algoritmo potrà mai controllare completamente. Noi questi lavori li produciamo e collaboriamo con molti degli autori citati. È importante che ognuno faccia il proprio lavoro: il fact-checking è uno strumento utile, ma non va confuso con la tuttologia. Affrontare temi così complessi richiede competenze specifiche e rigore scientifico, senza i quali si rischia di alimentare confusione invece di combatterla.(30Science.com)