Roma – La Cina si sta preparando a definire una legge organica sull’intelligenza artificiale che potrebbe diventare il più ambizioso tentativo al mondo di coniugare libertà di ricerca, sviluppo industriale e sicurezza sociale. È quanto emerge da uno studio pubblicato oggi su Science da un gruppo di giuristi e studiosi cinesi della Tongji University, della Chinese Academy of Social Sciences e della China Academy of Information and Communication Technology. Sebbene in Cina non sia ancora stata pubblicata alcuna bozza ufficiale di tale legge, gli esperti di diritto dell’intelligenza artificiale in Cina hanno redatto due proposte influenti, la cosiddetta “legge modello sull’intelligenza artificiale” e la “legge sull’intelligenza artificiale” (proposta accademica), che sono diventate importanti riferimenti per la comprensione e la ricerca sulla regolamentazione dell’intelligenza artificiale in Cina. I ricercatori hanno esaminato le due proposte ricavandone sei pilastri fondamentali che le orientano. Secondo gli autori, l’approccio regolatorio emergente complessivamente mira a superare la frammentazione generata dalle diverse normative già in vigore – oltre trenta, tra linee guida, misure amministrative e standard tecnici – costruendo “un quadro coerente per uno sviluppo sano e aperto dell’intelligenza artificiale”. Il primo pilastro riguarda la protezione dell’ecosistema open-source. In Cina, la pubblicazione di modelli e dataset su piattaforme aperte come GitHub o HuggingFace non è soggetta ad approvazione preventiva né a registrazione obbligatoria, a differenza di quanto avviene in base all’AI Act europeo che richiede la documentazione di conformità anche per modelli “open”. Il secondo pilastro porta nuova libertà alla ricerca scientifica, che non viene considerata un’attività “di servizio pubblico” e resta quindi esclusa dalle misure di controllo sui modelli generativi. “La Cina riconosce che l’innovazione scientifica aperta è il motore dello sviluppo tecnologico,” si legge nello studio. “Il principio è che la ricerca deve essere protetta, non regolata come un servizio commerciale”. Il terzo pilastro è rappresentato dal ruolo dei tribunali nel definire i confini del diritto d’autore applicato all’AI. Le corti di Pechino, Hangzhou e Guangzhou hanno già prodotto oltre 70 sentenze che, secondo gli autori, stanno creando una giurisprudenza “di frontiera” sul tema delle opere generate da algoritmi. In diversi casi, i giudici hanno riconosciuto tutela a opere create da sistemi generativi quando è dimostrabile un contributo umano significativo, pur rifiutando di estendere automaticamente la protezione a risultati interamente automatizzati. Il quarto e quinto pilastro toccano il nodo più sensibile: la valutazione etica e la responsabilità. Tutti gli enti di ricerca e le aziende che sviluppano sistemi di intelligenza artificiale saranno tenuti a sottoporre i propri progetti a una doppia revisione – interna ed esterna – basata su dieci principi guida. Tra questi: centralità dell’uomo, equità, sicurezza, trasparenza e rispetto della privacy. “Si tratta – spiegano gli autori – di un meccanismo di controllo distribuito, pensato per prevenire derive prima che si trasformino in rischi sociali” . Queste misure si accompagnano a un nuovo sistema di etical review che, per le università e i centri di ricerca, stabilisce procedure simili a quelle già adottate per le sperimentazioni cliniche. Il sesto pilastro introduce un approccio sperimentale (“sandbox regulation”), già in uso per i veicoli autonomi e i sistemi di IA generativa, che consentirà di testare applicazioni ad alto rischio in contesti controllati, con monitoraggio costante e possibilità di sospensione immediata. “Questa architettura multilivello – si legge nello studio – permette di bilanciare in modo dinamico innovazione e sicurezza, mantenendo la flessibilità necessaria a un settore in rapida evoluzione”. Il paper mette a confronto l’approccio cinese con quello occidentale. Mentre l’AI Act europeo è descritto come “top-down”, centrato sulla classificazione dei rischi e su forti obblighi preventivi per i fornitori, la Cina adotta un modello “bottom-up”, che combina sperimentazione locale e regolazione progressiva.
Lo studio si sofferma anche sugli Stati Uniti dove la frammentazione normativa e l’assenza di una legge federale vengono interpretate come una forma di “soft regulation” che lascia ampio spazio al mercato. In questo quadro, la Cina si posiziona come “terza via”, in cui lo Stato guida l’innovazione ma favorisce la cooperazione internazionale e la trasparenza scientifica. Gli autori sottolineano che il Comitato permanente dell’Assemblea nazionale del popolo sta già preparando una “Legge per lo sviluppo sano dell’intelligenza artificiale”, attesa entro il 2026, che unificherà le attuali disposizioni emanate da ministeri e agenzie settoriali. La legge dovrebbe istituire un’autorità di coordinamento interministeriale e un sistema di registrazione semplificato per i modelli generativi di grandi dimensioni. “Questa legge – affermano gli studiosi – potrebbe diventare un punto di riferimento per la governance globale dell’AI, integrando l’approccio aperto con un sistema di responsabilità etica e sociale.” Il paper sottolinea infine che la politica cinese sull’AI non è chiusa né protezionista, ma punta a “costruire fiducia attraverso la cooperazione scientifica”. In questo senso, la Cina intende promuovere scambi accademici e standard tecnici comuni con Europa e Stati Uniti, “evitando la frammentazione geopolitica della conoscenza”. “Il futuro dell’intelligenza artificiale – concludono gli autori – non dipenderà solo da chi avrà i modelli più potenti, ma da chi saprà regolarli in modo più intelligente”.
Quattrociocchi (Sapienza) “piaccia o no Cina coerente su IA”
“Il Policy Forum che Science pubblica domani segna un passaggio di fase nel dibattito globale sulla governance dell’intelligenza artificiale. La Cina sta costruendo un modello regolatorio che, piaccia o meno, rappresenta oggi la sintesi più coerente tra libertà di ricerca, controllo del rischio e visione geopolitica. Mentre l’Europa si avvita nella burocrazia dell’AI Act e gli Stati Uniti restano prigionieri della dialettica tra mercato e sicurezza nazionale, Pechino introduce una struttura normativa fondata su sperimentazione, iterazione e apertura controllata”. Lo ha spiegato Walter Quattrociocchi, direttore del Center of Data Science and Complexity for Society (CDCS) de La Sapienza. “L’idea – spiega – è semplice ma potente: tutelare la ricerca e l’open-source come motore dell’innovazione, riservando vincoli solo alle applicazioni che interagiscono direttamente con gli utenti finali. È un approccio empirico e adattivo, più vicino alla logica dell’ingegneria che a quella del diritto astratto. Il sistema dei sandbox, la velocità dei tribunali tecnologici e l’assenza di vincoli preventivi sui modelli open-source mostrano una volontà di regolare per apprendimento, non per paura. In questo senso, il paper pubblicato su Science descrive la nascita di un paradigma post-occidentale nella governance dell’AI. Gli Stati Uniti difendono l’egemonia delle piattaforme, l’Europa si rifugia in un tecnolegalismo sterile; la Cina prova invece a costruire un ecosistema flessibile in cui apertura e controllo coesistono come parti di un’unica architettura cognitiva”. “Il ritardo europeo – ha ribadito Quattrociocchi – non è solo tecnologico ma politico: il continente che avrebbe dovuto guidare la riflessione etica e istituzionale sull’intelligenza artificiale si è ritrovato senza una comprensione reale dell’oggetto che pretende di normare. È il risultato di una consulenza scientifica inadeguata, incapace di tradurre dati, modelli e sperimentazione in strumenti di policy. Si continua a parlare di rischi astratti e principi morali mentre il mondo definisce, in tempo reale, le infrastrutture cognitive del futuro. Il messaggio implicito del paper è chiaro: la regolazione dell’intelligenza artificiale è ormai terreno di competizione sistemica. Non riguarda solo la sicurezza o l’economia, ma il modo in cui le società decidono di interpretare se stesse attraverso la tecnologia. La Cina propone un modello che unisce apertura, efficienza e visione strategica — un ibrido tra governance e ingegneria che, per ora, nessun altro blocco geopolitico è riuscito nemmeno ad abbozzare”.(30Science.com)