Gianmarco Pondrano d'Altavilla

IA, scienziati in soccorso della carente normativa europea

(16 Gennaio 2024)

Roma – Un gruppo di studiosi ha individuato delle importanti mancanze nella normativa europea sull’Intelligenza Artificiale (IA) e mira a mettervi riparo utilizzando gli strumenti che prevede la normativa stessa. Questo è quanto emerge da un recente articolo pubblicato sulla prestigiosa rivista “Nature”. Alla fine dell’anno scorso, la Commissione europea ha annunciato la tanto attesa normativa europea sull’intelligenza artificiale, che “mira ad affrontare i rischi per la salute, la sicurezza e i diritti fondamentali” derivanti dalle applicazioni dell’intelligenza artificiale. La normativa crea nuovi vincoli in tutti i 27 Stati membri dell’Unione Europea. Ci sarà anche un nuovo “Ufficio IA” presso la Commissione Europea. L’Ufficio “applicherà e supervisionerà” le regole, come quelle che si applicheranno a sistemi come ChatGPT. Inoltre, afferma la Commissione, l’Ufficio avrà “un forte legame con la comunità scientifica”. Ciò apre la possibilità ai ricercatori di contribuire a dare forma a quello che promette di essere uno degli insiemi di norme sull’intelligenza artificiale più completi al mondo. I ricercatori per parte loro vogliono cogliere questa opportunità, e rapidamente. Ci sono, a parere di molti di loro, serie lacune nella normativa che devono essere colmate prima che entri in vigore a tutti gli effetti, cosa che dovrebbe avvenire entro circa due anni. Tra coloro che hanno identificato le lacune ci sono ricercatori che studiano l’intersezione tra tecnologia, diritto ed etica. Per fare un esempio, la normativa presuppone che la maggior parte dell’intelligenza artificiale comporti un “rischio basso o nullo”. Ciò implica che molte applicazioni di intelligenza artificiale quotidiane (come i chatbot online che rispondono a domande semplici e i software di riepilogo dei testi) non dovranno essere sottoposte a regolamentazione. Le applicazioni considerate “ad alto rischio” saranno regolamentate e includeranno quelle che utilizzano l’intelligenza artificiale per selezionare i candidati per posti di lavoro o per effettuare valutazioni educative e quelle utilizzate dalle forze dell’ordine. Ma come sottolinea Lilian Edwards, studiosa di diritto presso l’Università di Newcastle, nel Regno Unito, in un rapporto per l’Ada Lovelace Institute di Londra, non esistono criteri rivedibili per supportare le classificazioni di basso e alto rischio dell’atto. Una seconda preoccupazione è che gli sviluppatori di intelligenza artificiale, in molti casi, saranno in grado di autovalutare i prodotti ritenuti ad alto rischio. Secondo la normativa, tali fornitori dovranno spiegare le metodologie e le tecniche utilizzate per ottenere dati di formazione, incluso dove e come tali dati sono stati acquisiti e come siano conformi alle leggi sul copyright. L’autorità di regolamentazione dovrebbe idealmente istituire un sistema di verifica indipendente e di parte terza in grado anche di verificare i dati grezzi quando necessario, anche se controllerà solo un campione rappresentativo. Tutte questioni che destano perplessità. A tal riguardo, Hadrien Pouget, che studia etica dell’IA presso il Carnegie Endowment for International Peace di Washington DC, e il suo collega Johann Laux dell’Università di Oxford, nel Regno Unito, hanno evidenziato la necessità dell’indipendenza normativa, nonché della trasparenza da parte dei fornitori di intelligenza artificiale, in una lettera aperta al futuro Ufficio IA. (30science.com)

Gianmarco Pondrano d'Altavilla