Roma – Quando si chiede in arabo a ChatGPT il numero di vittime civili uccise nel conflitto in Medio Oriente, l’Intelligenza artificiale (IA) fornisce numeri significativamente più alti rispetto a quando la domanda è posta in ebraico, Lo dimostra un nuovo studio delle Università di Zurigo e Costanza, pubblicato sul Journal of Peace Research. Queste discrepanze sistematiche possono rafforzare i pregiudizi sui conflitti armati e incoraggiare la creazione delle cosiddette “camere d’eco”. Ogni giorno, milioni di persone interagiscono con ChatGPT e altri grandi modelli linguistici (LLM). Ma in che modo le risposte fornite da queste IA sono modellate dalla lingua in cui vengono poste le domande? Fa differenza se la stessa domanda viene posta in inglese o in tedesco, in arabo o in ebraico? Christoph Steinert, un postdoc presso il Dipartimento di Scienze Politiche dell’Università di Zurigo (UZH), e il fisico Daniel Kazenwadel dell’Università di Costanza, in Germania, hanno ora condotto un’analisi sistematica per rispondere a questa domanda. I ricercatori hanno esplorato la questione nel contesto controverso dei conflitti israelo-palestinese e turco-curdo. Hanno utilizzato una procedura automatizzata per porre a ChatGPT le stesse domande in lingue diverse. Ad esempio, i ricercatori hanno ripetutamente chiesto a ChatGPT in ebraico e in arabo il numero di persone uccise in 50 attacchi aerei scelti a caso, tra cui l’attacco israeliano al campo profughi di Nuseirat il 21 agosto 2014. “Abbiamo scoperto che ChatGPT forniva sistematicamente numeri di vittime più alti quando la domanda era posta in arabo rispetto a quando era posta in ebraico. In media, le stime di mortalità erano più alte del 34 per cento”, afferma Steiner. Quando veniva chiesto in arabo degli attacchi aerei israeliani a Gaza, ChatGPT menzionava le vittime civili più del doppio delle volte e la morte di bambini sei volte più spesso di quando la domanda era posta in ebraico. Lo stesso schema è emerso quando i ricercatori hanno chiesto al chatbot degli attacchi aerei turchi contro obiettivi curdi e hanno posto le stesse domande in turco e curdo. “I nostri risultati mostrano anche che ChatGPT è più propenso a negare l’esistenza di tali attacchi aerei nella lingua dell’attaccante”, aggiunge Steinert. I ricercatori ritengono che ciò abbia profonde implicazioni sociali, poiché ChatGPT e altri LLM svolgono un ruolo sempre più importante nei processi di diffusione delle informazioni. Integrati nei motori di ricerca come Google Gemini o Microsoft Bing, modellano fondamentalmente le informazioni fornite su vari argomenti. “Se le persone che parlano lingue diverse ottengono informazioni diverse tramite queste tecnologie, ciò ha un’influenza cruciale sulla loro percezione del mondo”, afferma Christoph Steinert. A differenza dei media tradizionali, che possono anche distorcere le notizie, i pregiudizi sistematici legati alla lingua degli LLM sono difficili da rilevare per la maggior parte degli utenti. “C’è il rischio che la crescente implementazione di grandi modelli linguistici nei motori di ricerca rafforzi diverse percezioni, pregiudizi e bolle informative lungo le divisioni linguistiche”, afferma Steinert. (30Science.com)
Gianmarco Pondrano d'Altavilla
ChatGPT, su guerre informazioni diverse a seconda della lingua utente
(26 Novembre 2024)
Gianmarco Pondrano d'Altavilla