Roma – Un nuovo studio ha rivelato che le persone preferiscono l’intelligenza artificiale (IA) agli esseri umani quando si tratta di decisioni redistributive. Poiché la tecnologia continua a integrarsi in vari aspetti del processo decisionale pubblico e privato, comprendere la percezione e la soddisfazione del pubblico e garantire la trasparenza e la responsabilità degli algoritmi saranno fondamentali per la loro accettazione ed efficacia. Lo studio pubblicato su “Public Choice” e condotto da ricercatori dell’Università di Portsmouth e del Max Planck Institute for Innovation and Competition, ha esaminato gli atteggiamenti del pubblico nei confronti del processo decisionale algoritmico rispetto a quello umano e ha esaminato l’impatto della potenziale discriminazione su queste preferenze. È stato utilizzato un esperimento decisionale online per studiare la preferenza per i decisori umani o IA, in cui i guadagni di due persone potevano essere ridistribuiti tra loro dopo aver eseguito una serie di attività. È stato chiesto a oltre 200 partecipanti dal Regno Unito e dalla Germania di votare se desideravano che un essere umano o un algoritmo (IA) prendesse la decisione che avrebbe determinato quanti soldi avrebbero guadagnato. Contrariamente ai risultati precedenti, oltre il 60 percento dei partecipanti ha scelto l’IA rispetto a un essere umano per decidere come ridistribuire i guadagni. I partecipanti hanno favorito l’algoritmo, indipendentemente dalla potenziale discriminazione. Questa preferenza sfida la nozione convenzionale secondo cui i decisori umani sono favoriti nelle decisioni che implicano una componente “morale” come l’equità. Tuttavia, nonostante la preferenza per gli algoritmi, quando si valutano le decisioni prese i partecipanti erano meno soddisfatti della decisione dell’IA e la trovavano meno “equa” di quella presa dagli umani. Le valutazioni soggettive delle decisioni sono guidate principalmente dagli interessi materiali e dagli ideali di equità dei partecipanti. I partecipanti potevano tollerare qualsiasi deviazione ragionevole tra la decisione effettiva e i loro ideali, ma hanno reagito in modo molto forte e negativo alle decisioni di ridistribuzione che non erano coerenti con nessuno dei principi di equità stabiliti. Il dott. Wolfgang Luhan , professore associato di economia comportamentale presso la School for Accounting, Economics and Finance presso l’Università di Portsmouth e autore corrispondente dello studio, ha affermato: “La nostra ricerca suggerisce che mentre le persone sono aperte all’idea di decisori algoritmici, soprattutto a causa del loro potenziale per decisioni imparziali, le prestazioni effettive e la capacità di spiegare come decidono svolgono un ruolo cruciale nell’accettazione. Soprattutto nei contesti decisionali morali, la trasparenza e la responsabilità degli algoritmi sono vitali. Molte aziende stanno già utilizzando l’IA per le decisioni di assunzione e la pianificazione delle retribuzioni, e gli enti pubblici stanno impiegando l’IA nelle strategie di polizia e libertà vigilata. I nostri risultati suggeriscono che, con i miglioramenti nella coerenza degli algoritmi, il pubblico potrebbe supportare sempre di più i decisori algoritmici anche in aree moralmente significative.” (30science.com)
30Science.com
Le persone preferiscono essere governate dall’intelligenza artificiale
(18 Luglio 2024)
30Science.com
Agenzia di stampa quotidiana specializzata su temi di scienza, ambiente, natura, salute, società, mobilità e tecnologia. Ogni giorno produciamo una rassegna stampa delle principali riviste scientifiche internazionali e quattro notiziari tematici: Scienza, Clima & Natura, Salute, Nuova Mobilità e Ricerca Italiana
contatti:
redazione@30science.com
+ 39 3492419582