Roma – “Gli standard hanno un ruolo fondamentale per permettere l’innovazione. Spesso, si dice che le norme bloccano l’innovazione tecnologica, ma molti di noi non sono convinti di questo” così Enrico Panai, eticista dell’intelligenza artificiale (IA), coordinatore del gruppo CEN CENELEC (il comitato europeo di normazione elettrotecnica) sui problemi fondamentali e sociali dell’IA, che oggi è intervenuto al convegno dal titolo: “Gli standard dell’AI ACT, il regolamento dell’Unione europea in materia di intelligenza artificiale. Come avere un vantaggio competitivo nella distribuzione dei sistemi di intelligenza artificiale”, tenutosi a Cagliari nella sala convegni della Fondazione di Sardegna, e organizzato da CRS4 – Centro di ricerca, sviluppo e studi superiori in Sardegna, in collaborazione con UNINFO – l’Ente Federato UNI per la normazione delle tecnologie informatiche e loro applicazioni.
Lo sviluppo degli standard, unito al quadro normativo europeo sull’IA rischia – come qualcuno teme – di rendere troppo farraginoso il mercato dell’IA in Europa (a fronte di concorrenti come Cina e USA) o invece può stimolare la nostra competitività?
Gli standard hanno un ruolo fondamentale per permettere l’innovazione. Spesso, si dice che le norme bloccano l’innovazione tecnologica, ma molti di noi non sono convinti di questo. Pensate alla Formula 1. Per permettere la competizione, ci sono regole che tutti devono rispettare. E chi meglio gestisce quelle regole, vince. Le grandi multinazionali dell’informatica non sono nate in Europa, questo è un fatto. Non è stata quindi la regolamentazione a bloccarne lo sviluppo, ma altri fattori economici, geopolitici e a volte militari. L’Europa non è la Cina e non è gli USA. Dobbiamo vincere la sfida con la realtà che esiste. In Europa abbiamo aziende più piccole anche se alcune hanno un impatto a livello internazionale. Quindi la regolamentazione europee e le norme possono essere solo un vantaggio per noi. Come in formula una, chi le conosce meglio potrà vincere nel mercato Europeo e in quello internazionale. Sì, anche in quello internazionale perché il mondo ha la tendenza ad allinearsi a noi. In una parola, gli standard europei permetteranno ai Davide europei di combattere (e a volte anche vincere) contro i Golia multinazionali.
L’armonizzazione degli standard europei come si inquadra nel complesso della normativa europea in ambito di IA?
L’armonizzazione è fondamentale perché garantisce che i sistemi di AI siano conformi ai requisiti essenziali previsti dall’EU AI ACT e che non sia contradditorio con altre leggi o norme. Uno standard armonizzato non è obbligatorio, ma molto importante perché sposta l’onere della prova dall’azienda al controllore. Significa che se una società produce sistemi ad alto rischio (e non solo), la conformità agli standard europei le garantisce una “presunzione di conformità” con la regolamentazione europea, in questo caso l’EU AI ACT. Materialmente, una società invece di investire molte risorse per dimostrare che rispetta la legge, può investire prima meno risorse per conformarsi allo standard.
Quale il ruolo degli standard europei in materia di IA per le PMI?
L’Europa fonda una grande parte della sua economia sulle PMI. Permettere alle piccole aziende di essere conformi agli standard darà un vantaggio competitivo. La conformità può sembrare a volte ostica e complessa. Per questo è necessario creare rete. Da una parte le PMI devono consorziarsi per avere uno spazio nel mercato dell’IA, dall’altro le amministrazioni locali (i comuni, la Regione), le camere di commercio e i laboratori di ricerca devono aiutare a creare un ambiente amichevole conformità e all’etica dell’IA. È sempre lo stesso mantra: bisogna fare sistema.
Quali i principi che guidano questi standard?
I principi sono stati inizialmente definiti da un gruppo di esperti di alto livello, poi integrati nell’AI ACT, infine trasformati in una serie di principi che gli standard devono perseguire. Mitigazione del rischio, trasparenza, robustezza, accuratezza, cybersicurezza, qualità dei dati, qualità del management, tracciamento degli eventi a rischio, controllo umano, ecc. Bisogna però sapere che questi non sono principi assoluti, ma delle “procure”. La commissione europea ha scelto alcuni indicatori per ridurre i rischi. Questi indicatori sono assolutamente necessari, ma non sempre sufficienti per aver sistemi di AI eticamente accettabili. Quindi il consiglio è “allinearsi agli standard subito e poi fare meglio con approcci etici adeguati”. (30Science.com)