Gianmarco Pondrano d'Altavilla

Se ce lo suggerisce l’Intelligenza Artificiale accusiamo di più gli altri

(28 Giugno 2024)

Roma – Se l’Intelligenza Artificiale ci dice che qualcuno sta mentendo siamo pronti ad accusarlo, molto più di quanto non faremmo senza il suggerimento dell’IA. È quanto emerge da uno studio pubblicato su “iScience”. Con la loro ricerca gli autori hanno voluto comprendere quale sarebbe l’influenza nelle aule giudiziarie delle Intelligenze Artificiali che sono in grado in un buon numero di casi di scovare dichiarazioni mendaci. Per indagare la questione, il team di ricerca ha chiesto a 986 persone di scrivere una descrizione vera e una falsa di ciò che intendevano fare il prossimo fine settimana. Il team ha quindi addestrato un algoritmo con i dati raccolti per sviluppare un modello di intelligenza artificiale in grado di identificare correttamente le affermazioni vere e false. L’IA riusciva a individuare il vero o il falso nel 66 per cento dei casi, una precisione significativamente superiore a quella che può ottenere una persona media. Successivamente, il team ha reclutato più di 2.000 persone come giudici che avrebbero letto un’affermazione e deciso se fosse vera o falsa. I ricercatori hanno diviso i partecipanti in quattro gruppi: “base”, “forzato”, “bloccato” e “a scelta”. Nel gruppo di base, i partecipanti hanno risposto vero o falso senza l’aiuto dell’intelligenza artificiale. Nel gruppo forzato, i partecipanti hanno sempre ricevuto il parere dell’intelligenza artificiale prima di esprimere il proprio giudizio. Nei gruppi bloccato e a scelta, i partecipanti avevano la possibilità di chiedere un parere generato dall’intelligenza artificiale. Le persone che hanno richiesto il parere dal gruppo bloccato non l’hanno ricevuto, mentre le persone del gruppo a scelta sì. Il gruppo di ricerca ha scoperto che i partecipanti del gruppo base avevano una precisione del 46 per cento nell’identificare le affermazioni vere o false. Ma solo il 19 per cento delle persone del gruppo ha accusato le affermazioni lette di essere false, anche se in realtà sapevano che il 50 per cento delle affermazioni erano false. Ciò conferma che le persone tendono ad astenersi dall’accusare gli altri di mentire. Nel gruppo forzato in cui ai partecipanti è stato fornito un parere dell’intelligenza artificiale, oltre un terzo dei partecipanti ha accusato le dichiarazioni di essere false. Il tasso è significativamente più alto sia rispetto al gruppo base che al gruppo bloccato che non hanno ricevuto previsioni AI. Quando l’intelligenza artificiale prevedeva che un’affermazione fosse vera, solo il 13 per cento dei partecipanti affermava che l’affermazione era falsa. Tuttavia, quando l’intelligenza artificiale dichiarava un’affermazione falsa, oltre il 40 per cento dei partecipanti ha apertamente concordato. Inoltre, tra i partecipanti che hanno richiesto e ricevuto un parere dell’IA, uno schiacciante 84 per cento di loro ha adottato la propria decisione e ha lanciato accuse quando l’IA ha affermato che l’affermazione era falsa. “Ciò dimostra che una volta che le persone avessero a disposizione un simile algoritmo, farebbero affidamento su di esso e forse cambierebbero i loro comportamenti. Se l’algoritmo definisce qualcosa come una bugia, le persone sono disposte a seguirlo. Ciò è abbastanza allarmante e dimostra che dovremmo stare molto attenti con questa tecnologia” hanno concluso i ricercatori. (30science.com)

 

Sullo stesso argomento

Il nostro cervello risponde in modo diverso al linguaggio umano e a quello generato dall’IA

Ehi ChatGPT sai dirmi se questo è un deepfake?

Gianmarco Pondrano d'Altavilla