Roma – Con le intelligenze artificiali che consentono sempre più esperienze di tipo virtuale, è fondamentale comprendere i rischi e i potenziali danni psicologici derivanti dall’utilizzo di strumenti particolarmente delicati, come “Deadbots” o “Griefbots”, chatbot che simulano i modelli linguistici e i tratti della personalità dei defunti. Questo, in estrema sintesi, è quanto sostengono gli scienziati dell’Università di Cambridge, che hanno pubblicato un articolo sulla rivista Philosophy & Technology per rendere noti i risultati della propria analisi. Il gruppo di ricerca, guidato da Katarzyna Nowaczyk-Basińska, ha ribadito che le intelligenze artificiali potrebbero provocare danni psicologici a chi sta affrontando il lutto e il dolore della perdita. Alcune aziende stanno già offrendo servizi di “presenza post-mortem”, rielaborando i modelli linguistici dei defunti per permettere ai loro cari di intrattenere una conversazione ultraterrena attraverso l’intelligenza artificiale. I ricercatori hanno delineato tre scenari di progettazione per piattaforme che potrebbero emergere come parte dello sviluppo dell’industria “dell’aldilà digitale”. “I rapidi progressi nell’intelligenza artificiale generativa – afferma Nowaczyk-Basińska – permettono a chiunque abbia accesso a internet e possieda un minimo di know-how di base di far rivivere, almeno virtualmente, un caro estinto. Quest’area dell’intelligenza artificiale è un campo minato dal punto di vista etico. È importante dare priorità alla dignità del defunto e garantire che questa non venga lesa, ad esempio, da motivazioni finanziarie. Allo stesso modo, i diritti dei donatori di dati e di chi usufruisce del sistema dovrebbero essere tutelati attraverso regole e leggi ben definite”.
Esistono già piattaforme che offrono di ricreare i morti con l’intelligenza artificiale pagando una piccola cifra, come “Project December”, che ha iniziato a sfruttare i modelli GPT, o l’app “HereAfter”. Nei tre scenari ipotetici presentati nell’articolo, gli autori hanno descritto tre aziende immaginarie, MaNana, Paren’t e Stay, per evidenziare le potenziali criticità di questi servizi. Ad esempio, il chatbot MaNana potrebbe suggerire di ordinare dai servizi di consegna utilizzando la voce e lo stile di un nonno o una nonna perduti. Le aziende potrebbero inserire pubblicità occulte per sponsorizzare prodotti, causando la percezione di una mancanza di rispetto nei confronti del defunto. “Si potrebbero sviluppare forti legami emotivi con le simulazioni – commenta Tomasz Hollanek, altra firma dell’articolo – il lutto è un momento molto particolare nella vita delle persone. Riteniamo indispensabile che vengano stabiliti dei protocolli di progettazione che impediscano che i deadbot vengano utilizzati in modi irrispettosi. Dato che sarebbe impossibile ottenere il consenso dei defunti se in vita non hanno accettato di donare le proprie informazioni al servizio, potrebbe essere importante chiedere agli utenti finali se sanno come i propri cari avrebbero voluto essere ricordati. Questo potrebbe favorire il rispetto della dignità delle persone decedute”. Gli autori precisano poi che sarebbe opportuno fissare dei limiti d’età per l’utilizzo dei deadbot, dato che per i bambini che hanno perso un genitore questo sistema, sebbene magari positivo in una primissima fase, potrebbe creare confusione in merito alla presenza virtuale e impedire il processo di elaborazione del lutto. L’ultimo rischio paventato dagli autori riguarda i contratti a lungo termine. Se un genitore si impegna economicamente per un periodo di diversi anni, ma i destinatari decidono di non usufruirne, gli utenti potrebbero ricevere spam e messaggi come se provenissero dal parente deceduto. In generale, sottolineano gli studiosi, la conversazione con qualcuno che non è più tra noi, nonostante inizialmente possa portare a una sensazione di conforto, potrebbe rappresentare un peso emotivo schiacciante. “I servizi di aldilà digitale – aggiunge Hollanek – dovrebbero considerare i diritti e il consenso di chi fornisce i dati, ma anche di chi dovrà interagire con le simulazioni. Il pericolo è quello di provocare enorme disagio in caso di ‘persecuzioni’ da parte della memoria dei propri cari. Il potenziale effetto psicologico, soprattutto in un momento già difficile, potrebbe essere devastante”. “Dobbiamo iniziare a pensare ora a come mitigare i rischi sociali e psicologici dell’immortalità digitale – concludono gli scienziati – perché la tecnologia è già disponibile, non si tratta di un’eventualità associata a un futuro distante”. (30science.com)