Roma – La ricerca generata dall’intelligenza artificiale è una minaccia, sia in termini di conoscenza della società che di fiducia del pubblico nella scienza. Questa è stata la conclusione a cui sono giunti i ricercatori della Swedish School of Library and Information Science, University of Borås, Svezia, che hanno recentemente identificato oltre un centinaio di presunti articoli generati dall’intelligenza artificiale nel motore di ricerca Google Scholar.
I risultati dello studio sulla scienza spazzatura creata dall’intelligenza artificiale significano che la scienza falsa è stata resa disponibile e può essere diffusa ampiamente e a un costo molto più basso per gli attori malintenzionati. Ciò rappresenta un pericolo sia per la società che per la comunità di ricerca, secondo Jutta Haider e Björn Ekström della Swedish School of Library and Information Science, che sono dietro lo studio insieme a Kristofer Söderström presso la Lund University e Malte Rödl presso la Swedish University of Agricultural Sciences.
Una delle principali preoccupazioni relative alla ricerca generata dall’intelligenza artificiale è l’aumento del rischio di hacking delle prove, ovvero che la ricerca falsa possa essere utilizzata per manipolazioni strategiche.
“Il rischio di ciò che chiamiamo ‘hacking delle prove’ aumenta significativamente quando la ricerca generata dall’intelligenza artificiale viene diffusa nei motori di ricerca. Ciò può avere conseguenze tangibili poiché risultati errati possono diffondersi ulteriormente nella società e forse anche in sempre più domini”, ha affermato Björn Ekström, che ha un dottorato in biblioteconomia e scienze dell’informazione.
I ricercatori dietro lo studio hanno già visto che questi articoli problematici si sono diffusi in altre parti dell’infrastruttura di ricerca sul web, in vari archivi, social media e simili. La diffusione è rapida e Google Scholar rende visibili gli articoli problematici. Anche se gli articoli vengono ritirati, c’è il rischio che abbiano già avuto il tempo di diffondersi e continuino a farlo.
Inoltre, la ricerca generata dall’intelligenza artificiale causa problemi al sistema di revisione paritaria già in difficoltà.
Il fatto che la ricerca generata dall’intelligenza artificiale si stia diffondendo nei database dei motori di ricerca pone maggiori richieste a coloro che prendono parte alla ricerca online.
“Se non possiamo fidarci che la ricerca che leggiamo sia autentica, rischiamo di prendere decisioni basate su informazioni errate. Ma per quanto questa sia una questione di cattiva condotta scientifica, è una questione di alfabetizzazione mediatica e informativa”, ha affermato Jutta Haider, professoressa di biblioteconomia e scienze dell’informazione.
Sottolinea che Google Scholar non è un database accademico. Il motore di ricerca è facile da usare e veloce, ma non dispone di procedure di garanzia della qualità. Questo è già un problema con i normali risultati di Google, ma è ancora più problematico quando si tratta di rendere la scienza accessibile.
“La capacità delle persone di decidere quali riviste ed editori, nella maggior parte dei casi, pubblicano ricerche sottoposte a revisione di qualità è importante per trovare e determinare cosa costituisce una ricerca affidabile ed è di grande importanza per il processo decisionale e la formazione delle opinioni”, ha concluso Jutta Haider.(30Science.com)