Roma – L’intelligenza artificiale generativa soddisfa ora tutte le condizioni per avere il libero arbitrio, per cui è necessario trasmettere a questi sistemi delle indicazioni morali. Questa, in estrema sintesi, è la tesi di Frank Martela, dell’Università di Aalto, che ha pubblicato un articolo di approfondimento sulla rivista AI and Ethics. L’esperto spiega che l’intelligenza artificiale generativa soddisfa tutte e tre le condizioni filosofiche del libero arbitrio, ovvero la capacità di agire in modo orientato a un obiettivo, di compiere scelte autentiche e di avere il controllo sulle proprie azioni. Basandosi sul concetto di libero arbitrio funzionale, come spiegato nelle teorie dei filosofi Daniel Dennett e Christian List, lo studio ha esaminato due modelli di intelligenza artificiale generativa basati su modelli linguistici di grandi dimensioni: l’agente Voyager di Minecraft e i droni killer immaginari “Spitenik”, dotati delle stesse funzioni cognitive dei moderni velivoli senza pilota. Martela precisa che questi casi di studio sono ampiamente applicabili agli agenti generativi attualmente disponibili che utilizzano LLM. Che si tratti di un robot, di un’auto a guida autonoma o di un drone, la responsabilità morale delle decisioni prese da questi modelli potrebbe ricadere sullo sviluppatore dell’IA o sull’agente stesso. “Stiamo entrando in un territorio inesplorato – afferma Martela – il libero arbitrio è una delle condizioni chiave per la responsabilità morale. Sebbene non sia una condizione sufficiente, rappresenta un passo avanti verso la responsabilità morale dell’IA per le proprie azioni. Ne consegue che le questioni relative al modo in cui definiamo appartenenza e responsabilità di queste tecnologie sono diventate reali e urgenti”. “L’intelligenza artificiale – continua – non ha una bussola morale, a meno che non sia programmata per averne una. Eppure questo orientamento è necessario per consentire a queste tecnologie di compiere le scelte più adatte. Siamo andati oltre l’insegnamento semplicistico della moralità di un bambino. L’IA si sta avvicinando sempre di più all’età adulta e deve sempre più prendere decisioni sui complessi problemi morali del mondo degli adulti”. “Istruendo l’intelligenza artificiale a pensare e comportarsi in un certo modo – conclude Martela – gli sviluppatori le trasmettono anche le proprie convinzioni morali. Dobbiamo garantire che le persone che sviluppano l’IA abbiano una conoscenza sufficiente della filosofia morale per poter insegnare loro a fare le scelte giuste in situazioni difficili”. (30Science.com)

Valentina Di Paola
Scienziato avverte “IA potrebbe avere il libero arbitrio, ora serve una bussola morale”
(13 Maggio 2025)

Valentina Di Paola
Classe ’94, cresciuta a pane e fantascienza, laureata in Scienze della comunicazione, amante dei libri, dei gatti, del buon cibo, dei giochi da tavola e della maggior parte di ciò che è anche solo vagamente associato all’immaginario nerd. Collaboro con 30science dal gennaio 2020 e nel settembre 2021 ho ottenuto un assegno di ricerca presso l’ufficio stampa dell’Istituto di ricerca sugli ecosistemi terrestri del Consiglio nazionale delle ricerche. Se dovessi descrivermi con un aggettivo userei la parola ‘tenace’, che risulta un po’ più elegante della testardaggine che mi caratterizza da prima che imparassi a usare la voce per dar senso ai miei pensieri. Amo scrivere e disegnare, non riesco a essere ordinata, ma mi piace pensare che la mia famiglia e il mio principe azzurro abbiano imparato ad accettarlo. La top 3 dei miei sogni nel cassetto: imparare almeno una lingua straniera (il Klingon), guardare le stelle più da vicino (dal Tardis), pilotare un velivolo (il Millennium Falcon).