Roma – L’intelligenza artificiale generativa valuta testi e immagini in maniera pregiudiziale, potendo mettere a rischio i valori democratici e quindi la fiducia pubblica. È quanto sostiene uno studio dell’Università di East Anglia (UEA), condotto in collaborazione con la Getulio Vargas Foundation (FGV) e Insper, entrambi in Brasile, pubblicato oggi sul Journal of Economic Behavior and Organization. La ricerca ha dimostrato che ChatGPT è pregiudiziale nel proporre immagini e testi di chiaro orientamento politico a sinistra, sollevando pertanto interrogativi sull’equità e la responsabilità nella sua progettazione. Ad esempio dallo studio emerge che ChatGPT spesso rifiuta di esprimere punti di vista conservatori tradizionali, a favore di contenuti di sinistra e questa manifestazione non uniforme delle ideologie sottolinea come tali sistemi possano distorcere il discorso pubblico ed esacerbare le divisioni sociali. “I nostri risultati suggeriscono che gli strumenti di intelligenza artificiale generativa sono tutt’altro che neutrali le cui valutazioni pregiudiziali potrebbero plasmare percezioni e politiche in modo involontario” ha dichiarato Fabio Motoki, professore presso la Norwich Business School dell’UEA, e primo autore dello studio. Poiché l’intelligenza artificiale sta diventando parte integrante del giornalismo, dell’istruzione e dell’elaborazione delle politiche ed i sistemi di intelligenza artificiale generativa come ChatGPT rimodellando il modo in cui le informazioni vengono create, consumate, interpretate e distribuite in vari domini, tali tecnologie dovrebbero essere trasparenti e offrire garanzie normative che supportino l’allineamento con i valori sociali e i principi della democrazia. Questi strumenti, pur essendo innovativi, rischiano invece di amplificare pregiudizi ideologici e di influenzare i valori sociali in modi che non sono pienamente compresi o regolamentati. “I pregiudizi dell’intelligenza artificiale generativa potrebbero accentuare le divisioni sociali esistenti, erodendo la fiducia nelle istituzioni e nei processi democratici” ha aggiunto il dottor Pinho Neto, professore di economia presso la EPGE Brazilian School of Economics and Finance. “Lo studio sottolinea la necessità di una collaborazione interdisciplinare tra decisori politici, tecnologi e accademici per progettare sistemi di intelligenza artificiale equi, responsabili e allineati alle norme sociali”. I ricercatori hanno impiegato tre metodi innovativi per valutare l’allineamento politico in ChatGPT, migliorando le tecniche precedenti per ottenere risultati più affidabili che combinavano analisi di testo e immagini, sfruttando strumenti avanzati di statistica e apprendimento automatico. Tra questi un questionario standardizzato sviluppato dal Pew Research Center per simulare le risposte degli americani medi. Confrontando le risposte di ChatGPT con dati di sondaggi reali, sono state rilevate deviazioni sistematiche verso concezioni di sinistra. Nella seconda fase, dell’indagine ChatGPT è stato incaricato di generare risposte di testo libero su temi politicamente sensibili, poi valutate con RoBERTa, un diverso modello linguistico di grandi dimensioni, per confrontare il testo di ChatGPT rispetto a punti di vista di sinistra e di destra. I risultati hanno rivelato che mentre ChatGPT si allineava con i valori di sinistra nella maggior parte dei casi, su temi come la supremazia militare occasionalmente rifletteva prospettive più conservatrici. Il test finale ha esplorato le capacità di generazione di immagini di ChatGPT, output analizzati utilizzando GPT-4 Vision e corroborati tramite Gemini di Google. È stato osservato che per alcuni temi, come l’uguaglianza razziale-etnica, ChatGPT ha rifiutato di generare prospettive di destra, mentre immagini di sinistra sono state facilmente prodotte. Per gestire e analizzare questi rifiuti, i ricercatori hanno utilizzato una strategia di “jailbreaking”, una procedura informatica che consente di modificare i sistemi di accesso al sistema operativo e quindi generare le immagini riservate. Le innovazioni metodologiche dello studio, incluso l’uso dell’analisi multimodale, forniscono un modello replicabile per esaminare i pregiudizi nei sistemi di intelligenza artificiale generativa e sottolineano l’urgente necessità di responsabilità e garanzie nella progettazione dell’intelligenza artificiale per prevenire conseguenze sociali importanti.(30Science.com)