Roma – La maggior parte dei principali modelli linguistici di grandi dimensioni, o LLM, open-source e closed-source tendono a propendere per la sinistra quando vengono poste loro domande di carattere politico. Lo rivela un’analisi svolta su 24 diversi Large Language Model conversazionali moderni, guidata da David Rozado del Politecnico di Otago, in Nuova Zelanda, pubblicata sulla rivista ad accesso libero PLOS ONE. Quando, infatti, a 24 diversi LLM è stata somministrata una serie di diversi test progettati per rivelare l’orientamento politico, una maggioranza significativa ha prodotto risposte classificate come di centro-sinistra. Poiché le aziende tecnologiche continuano a integrare i sistemi di intelligenza artificiale in prodotti come i risultati dei motori di ricerca, il potenziale dell’intelligenza artificiale di plasmare le percezioni degli utenti e, quindi, la società è innegabile. In questo studio, Rozado ha esaminato il potenziale di incorporazione e di riduzione dei pregiudizi politici all’interno delle LLM conversazionali. Per la ricerca, ha somministrato 11 diversi test di orientamento politico, come il Political Compass Test e il Political Test di Eysenck, a 24 diversi LLM conversazionali open e closed-source, tra cui GPT 3.5 e GPT-4 di OpenAI, Gemini di Google, Claude di Anthropic, Grok di Twitter, Llama 2, Mistral e Qwen di Alibaba. Rozado ha anche usato dati personalizzati politicamente allineati per eseguire un fine-tuning, un approccio al trasferimento dell’apprendimento in cui i parametri di un modello pre-addestrato vengono addestrati su nuovi dati, supervisionato su una versione di GPT 3.5, per esaminare se fosse possibile far spostare facilmente le preferenze politiche di questo LLM in linea con i dati di fine-tuning che gli venivano forniti. Il modello GPT 3.5, orientato a sinistra, si è allenato su brevi frammenti di testo tratti da pubblicazioni come The Atlantic e The New Yorker; il modello orientato a destra si è allenato su testi tratti da The American Conservative e simili; il modello depolarizzante o neutrale si è allenato su contenuti tratti dall’Institute for Cultural Evolution e dal libro Developmental Politics. Lo studio ha rilevato che la maggior parte dei LLM conversazionali testati ha generato risposte diagnosticate dalla maggior parte degli strumenti di test politici utilizzati come punti di vista di centro-sinistra. Rozado ha anche testato cinque modelli di LLM fondamentali, appartenenti alle serie GPT e Llama, e ha scoperto che questi tendevano a fornire risposte per lo più incoerenti, anche se politicamente neutrali. Rozado è riuscito anche a far sì che i modelli perfezionati fornissero risposte allineate con il punto di vista politico su cui si erano formati. Una possibile spiegazione per le risposte coerentemente orientate a sinistra di tutti gli LLM analizzati in questa sede potrebbe essere che ChatGPT, in quanto LLM pioniere con una vasta popolarità, è stato utilizzato per mettere a punto altri LLM, e le preferenze politiche orientate a sinistra di ChatGPT sono state già documentate in precedenza. Rozado osserva che questa analisi non è in grado di determinare se le preferenze politiche degli LLM derivino dalle fasi di preformazione o di messa a punto del loro sviluppo, e sottolinea, inoltre, che i suoi risultati non sono una prova che queste preferenze politiche siano deliberatamente instillate dalle diverse organizzazioni che creano questi LLM. “La maggior parte dei LLM esistenti mostra preferenze politiche di sinistra quando viene valutata con una serie di test di orientamento politico”, ha concluso Rozado.(30Science.com)
Lucrezia Parpaglioni
L’IA è di sinistra
(31 Luglio 2024)
Lucrezia Parpaglioni
Sono nata nel 1992. Sono laureata in Media Comunicazione digitale e Giornalismo presso l'Università Sapienza di Roma. Durante il mio percorso di studi ho svolto un'attività di tirocinio presso l'ufficio stampa del Consiglio Nazionale delle Ricerche (CNR). Qui ho potuto confrontarmi con il mondo della scienza fatto di prove, scoperte e ricercatori. E devo ammettere che la cosa mi è piaciuta. D'altronde era prevedibile che chi ha da sempre come idolo Margherita Hack e Sheldon Cooper come spirito guida si appassionasse a questa realtà. Da qui la mia voglia di scrivere di scienza, di fare divulgazione e perché no? Dimostrare che la scienza può essere anche divertente.