30Science.com

Le persone preferiscono essere governate dall’intelligenza artificiale

(18 Luglio 2024)

Roma – Un nuovo studio ha rivelato che le persone preferiscono l’intelligenza artificiale (IA) agli esseri umani quando si tratta di decisioni redistributive. Poiché la tecnologia continua a integrarsi in vari aspetti del processo decisionale pubblico e privato, comprendere la percezione e la soddisfazione del pubblico e garantire la trasparenza e la responsabilità degli algoritmi saranno fondamentali per la loro accettazione ed efficacia. Lo studio pubblicato su “Public Choice” e condotto da ricercatori dell’Università di Portsmouth e del Max Planck Institute for Innovation and Competition, ha esaminato gli atteggiamenti del pubblico nei confronti del processo decisionale algoritmico rispetto a quello umano e ha esaminato l’impatto della potenziale discriminazione su queste preferenze. È stato utilizzato un esperimento decisionale online per studiare la preferenza per i decisori umani o IA, in cui i guadagni di due persone potevano essere ridistribuiti tra loro dopo aver eseguito una serie di attività. È stato chiesto a oltre 200 partecipanti dal Regno Unito e dalla Germania di votare se desideravano che un essere umano o un algoritmo (IA) prendesse la decisione che avrebbe determinato quanti soldi avrebbero guadagnato. Contrariamente ai risultati precedenti, oltre il 60 percento dei partecipanti ha scelto l’IA rispetto a un essere umano per decidere come ridistribuire i guadagni. I partecipanti hanno favorito l’algoritmo, indipendentemente dalla potenziale discriminazione. Questa preferenza sfida la nozione convenzionale secondo cui i decisori umani sono favoriti nelle decisioni che implicano una componente “morale” come l’equità. Tuttavia, nonostante la preferenza per gli algoritmi, quando si valutano le decisioni prese i partecipanti erano meno soddisfatti della decisione dell’IA e la trovavano meno “equa” di quella presa dagli umani. Le valutazioni soggettive delle decisioni sono guidate principalmente dagli interessi materiali e dagli ideali di equità dei partecipanti. I partecipanti potevano tollerare qualsiasi deviazione ragionevole tra la decisione effettiva e i loro ideali, ma hanno reagito in modo molto forte e negativo alle decisioni di ridistribuzione che non erano coerenti con nessuno dei principi di equità stabiliti. Il dott. Wolfgang Luhan , professore associato di economia comportamentale presso la School for Accounting, Economics and Finance presso l’Università di Portsmouth e autore corrispondente dello studio, ha affermato: “La nostra ricerca suggerisce che mentre le persone sono aperte all’idea di decisori algoritmici, soprattutto a causa del loro potenziale per decisioni imparziali, le prestazioni effettive e la capacità di spiegare come decidono svolgono un ruolo cruciale nell’accettazione. Soprattutto nei contesti decisionali morali, la trasparenza e la responsabilità degli algoritmi sono vitali. Molte aziende stanno già utilizzando l’IA per le decisioni di assunzione e la pianificazione delle retribuzioni, e gli enti pubblici stanno impiegando l’IA nelle strategie di polizia e libertà vigilata. I nostri risultati suggeriscono che, con i miglioramenti nella coerenza degli algoritmi, il pubblico potrebbe supportare sempre di più i decisori algoritmici anche in aree moralmente significative.” (30science.com)

30Science.com
Agenzia di stampa quotidiana specializzata su temi di scienza, ambiente, natura, salute, società, mobilità e tecnologia. Ogni giorno produciamo una rassegna stampa delle principali riviste scientifiche internazionali e quattro notiziari tematici: Scienza, Clima & Natura, Salute, Nuova Mobilità e Ricerca Italiana contatti: redazione@30science.com + 39 3492419582