Gianmarco Pondrano d'Altavilla

Nobel Fisica, Inguscio (Lincei), premiati alla base della rivoluzione dell’IA

(8 Ottobre 2024)

Roma – “La tecnologia che è stata alimentata dalle scoperte dei due premiati ha rivoluzionato completamente la programmazione dei computer e le nostre vite, grazie all’ispirazione venuta dal funzionamento anche a volte misterioso del cervello umano” Così Massimo Inguscio, fisico, accademico dei Lincei e già presidente del CNR, ha commentato l’assegnazione del Premio Nobel per la Fisica a John J. Hopfield e Geoffrey E. Hinton per scoperte e invenzioni fondamentali che hanno consentito l’apprendimento automatico con reti neurali artificiali. “Nel nuovo mondo inaugurato grazie ai contributi di Hopfield e Hinton non si esegue più un programma con una sequenza di istruzioni concepite da un programmatore, una serie – se si vuole – di ricette preconfezionate. Nel machine learning la macchina è programmata per imparare da sola, dall’osservazione dei dati, così come il nostro cervello fa dalla nascita” “Il machine learning – prosegue Inguscio – si basa su reti neurali, unità di informazione (neuroni artificiali) collegati tra di loro in reti che inizialmente sono ‘vergini’. Allenate con grandi basi di dati, le connessioni (come le sinapsi) si formano in maniera naturale, come nel nostro cervello, per cui alla fine la rete neurale ‘impara’ a compiere in maniera estremamente efficiente certi compiti”. “Hopfield, nello specifico ha scoperto un tipo di rete, chiamata col suo nome rete di Hopfield, che è un tipo di rete neurale artificiale molto efficiente che simula le capacità del cervello umano di ricordare le cose o di ricostruire le immagini distorte. Per molti anni però non si era capito il modo per ‘allenare’ queste reti. Nel 2006 Hinton contribuisce in modo determinante allo sviluppo di queste strategie di allenamento. Hinton parte dai contributi pionieristici di Hopfield e studia il problema della classificazione. Come associare a certi pattern una certa famiglia di oggetti? cosa rende un gatto un gatto, un cane un cane etc…? Parte da concetti di meccanica statistica, dove emergono proprietà collettive a partire da singoli atomi o molecole. Così l’informazione emerge in maniera collettiva. Utilizza concetti di fisica statistica, ragionando in termini di probabilità. Di nuovo, non c’è un programmatore che dice alla macchina quali sono i tratti distintivi di un gatto o di un cane, è la rete neurale che li impara”. Guardando al futuro, il prossimo passo – in parte già fatto – è quello che porta alla nuova rivoluzione dei computer , quella del quantum machine learning basato sulla meccanica quantistica. “Il Quantum machine learning porta a sviluppi applicativi che saranno frutto di ulteriori sorprese”, conclude Inguscio “ e in questo in Italia stiamo facendo la nostra parte con ENI anche con un nuovissimo calcolatore quantistico che usa memorie che si basano su reticoli di atomi ultrafreddi”. (30Science.com)

Gianmarco Pondrano d'Altavilla