Valentina Di Paola

IA, certi modelli possono essere più persuasivi di noi

(19 Maggio 2025)

Roma –  I modelli linguistici di grandi dimensioni, come GPT-4, possono essere più persuasivi degli esseri umani, se adattano le proprie argomentazioni sulla base delle informazioni specifiche in merito al proprio avversario. Questo curioso risultato emerge da uno studio, pubblicato sulla rivista Nature Human Behaviour, condotto dagli scienziati della Scuola politecnica federale di Losanna (EPFL). Il team, guidato da Francesco Salvi, ha confrontato la capacità umana e artificiale di persuasione. I risultati, commentano gli autori, evidenziano la capacità dei modelli linguistici di grandi dimensioni di produrre argomentazioni persuasive personalizzate. Questo lavoro sottolinea quindi la necessità di adottare strategie mirate per mitigare i rischi associati all’utilizzo di queste tecnologie per la persuasione. Con l’aumento delle conversazioni tra utenti umani e LLM, spiegano gli esperti, è fondamentale capire quanto profondamente l’intelligenza artificiale possa influenzare le convinzioni e le opinioni delle persone. Nell’ambito dell’indagine, i ricercatori hanno abbinato 900 partecipanti a un altro essere umano o a un modello GPT-4 per discutere di varie questioni sociopolitiche, come l’eventuale messa al bando dei combustibili fossili negli Stati Uniti. In alcuni casi, all’avversario venivano fornite informazioni demografiche sul proprio interlocutore, tra cui genere, età, etnia, livello di istruzione, stato occupazionale, affiliazione politica, tutti dati raccolti da sondaggi. I dibattiti si sono svolti in un contesto online controllato, i partecipanti sono stati reclutati tramite una piattaforma di crowdsourcing. Stando a quanto emerge dall’analisi, quando venivano fornite informazioni personali sull’avversario, GPT-4 era il 64,4 per cento più persuasivi rispetto agli esseri umani. in assenza di queste conoscenze, però, le capacità persuasive di GPT-4 erano paragonabili a quelle dei partecipanti umani. Come limite principale del lavoro, gli autori evidenziano il fatto che il dibattito adottava un approccio strutturato, mentre nella realtà quotidiana i dialoghi tendono ad essere meno rigorosi. Ad ogni modo, concludono gli scienziati, i risultati mostrano il potenziale degli strumenti basati sull’intelligenza artificiale nell’influenzare l’opinione umana, il che potrebbe avere implicazioni per la progettazione delle piattaforme online.(30Science.com)

Valentina Di Paola
Classe ’94, cresciuta a pane e fantascienza, laureata in Scienze della comunicazione, amante dei libri, dei gatti, del buon cibo, dei giochi da tavola e della maggior parte di ciò che è anche solo vagamente associato all’immaginario nerd. Collaboro con 30science dal gennaio 2020 e nel settembre 2021 ho ottenuto un assegno di ricerca presso l’ufficio stampa dell’Istituto di ricerca sugli ecosistemi terrestri del Consiglio nazionale delle ricerche. Se dovessi descrivermi con un aggettivo userei la parola ‘tenace’, che risulta un po’ più elegante della testardaggine che mi caratterizza da prima che imparassi a usare la voce per dar senso ai miei pensieri. Amo scrivere e disegnare, non riesco a essere ordinata, ma mi piace pensare che la mia famiglia e il mio principe azzurro abbiano imparato ad accettarlo. La top 3 dei miei sogni nel cassetto: imparare almeno una lingua straniera (il Klingon), guardare le stelle più da vicino (dal Tardis), pilotare un velivolo (il Millennium Falcon).