Roma – Un nuovo studio condotto dai ricercatori dell’Università di Penn State ha scoperto che una maggiore trasparenza nell’uso dei dati potrebbe far aumentare la fiducia nelle AI. In particolare, lo studio ha osservato che quando mostrava agli utenti che i dati visivi utilizzati per addestrare i sistemi di intelligenza artificiale (AI) erano stati etichettati correttamente, aumentava la fiducia degli utenti. I risultati della ricerca potrebbero anche aprire la strada per aiutare gli scienziati a misurare meglio la connessione tra la credibilità delle etichette, la performance dell’AI e la fiducia degli utenti. Nello studio, i ricercatori hanno scoperto che un’etichettatura di immagini di alta qualità ha portato le persone a percepire che i dati di addestramento fossero credibili e a fidarsi di più del sistema AI. Tuttavia, quando il sistema mostrava l’eventualità di essere influenzato da un pregiudizio, alcuni aspetti della fiducia delle persone diminuivano, mentre altri rimanevano a un livello elevato. Perché gli AI apprendano, devono prima essere addestrati utilizzando informazioni spesso etichettate dagli esseri umani. Tuttavia, la maggior parte degli utenti non vede mai come i dati sono etichettati, portando a dubbi sull’accuratezza e sul pregiudizio di quelle etichette. Per trasmettere questa affidabilità, i ricercatori suggeriscono di dare agli utenti un’anteprima dei dati di etichettatura. “Spesso il processo di etichettatura non viene rivelato agli utenti, quindi ci siamo chiesti che cosa succederebbe se divulgassimo informazioni sui dati di addestramento, in particolare sull’accuratezza dell’etichettatura”, ha detto Chris (Cheng) Chen, autore principale dello studio e professore assistente di comunicazione e design presso l’Università di Elon. (30science.com)
Lella Simone
Più trasparenza nei dati aumenta fiducia nella IA
(27 Aprile 2023)
Lella Simone