Gianmarco Pondrano d'Altavilla

L’IA rinforza le ineguaglianze

(28 Febbraio 2025)

Roma – L’intelligenza artificiale (IA) è strutturalmente fonte di maggiori ineguaglianze e andrebbe ripensata profondamente: è quanto sostiene un team di ricercatori guidati dalla Vrije Universiteit, Belgio, che ha pubblicato i propri risultati su Technological Forecasting and Social Change. “Il nostro studio evidenzia esempi concreti in cui l’intelligenza artificiale ha rafforzato pregiudizi esistenti”, afferma Tuba Bircan, prima autrice della ricerca “Un caso eclatante è lo strumento di assunzione basato sull’intelligenza artificiale di Amazon, che si è scoperto favorire i candidati maschi, rafforzando in ultima analisi le disparità di genere nel mercato del lavoro. Allo stesso modo, i sistemi di rilevamento delle frodi tramite intelligenza artificiale del governo hanno accusato ingiustamente le famiglie, in particolare i migranti, di frode, con gravi conseguenze per le persone colpite. Questi casi dimostrano come l’intelligenza artificiale, anziché eliminare i pregiudizi, possa finire per amplificare la discriminazione se non controllata. Senza trasparenza e responsabilità, l’intelligenza artificiale rischia di diventare uno strumento che consolida le gerarchie sociali esistenti anziché sfidarle”. L’IA viene sviluppata all’interno di un ecosistema più ampio in cui aziende, sviluppatori e decisori politici prendono decisioni critiche sulla sua progettazione e utilizzo. Queste scelte – secondo gli autori dello studio – determinano se l’IA riduce o peggiora le disuguaglianze. Quando addestrati su dati che riflettono pregiudizi sociali, i sistemi di IA replicano la discriminazione in aree ad alto rischio come assunzioni, controllo di polizia e distribuzione del welfare. La ricerca sottolinea che la governance dell’IA deve estendersi oltre le aziende tecnologiche e gli sviluppatori. Dato che l’IA si basa su dati generati dagli utenti, deve esserci maggiore trasparenza e inclusività nel modo in cui viene progettata, distribuita e regolamentata. Altrimenti, l’IA continuerà ad approfondire il divario digitale e ad ampliare le disparità socioeconomiche. Nonostante le sfide, lo studio offre anche speranza. “Piuttosto che accettare i difetti dell’IA come inevitabili – conclude la Brican – il nostro lavoro sostiene politiche e quadri proattivi che garantiscano che l’IA serva la giustizia sociale anziché indebolirla. Incorporando equità e responsabilità nell’IA fin dall’inizio, possiamo sfruttare il suo potenziale per un cambiamento positivo anziché consentirle di rafforzare le disuguaglianze sistemiche”. (30Science.com)

Gianmarco Pondrano d'Altavilla