Roma – Un metodo in grado di addestrare le intelligenze artificiali (IA) come Chat-GPT, utilizzando il 30 per cento in meno di energia: è quanto sviluppato da un team di ricerca dell’Università del Michigan (UM) che ha presentato il proprio studio in pre-print su ArXiv. Il nuovo sistema potrebbe far risparmiare abbastanza energia da alimentare 1,1 milioni di case negli Stati Uniti nel 2026, in base alle proiezioni di Wells Fargo sulla domanda di energia AI . “Perché spendere qualcosa quando non ha senso?” ha affermato Mosharaf Chowdhury , professore di informatica e ingegneria presso l’Università della California e autore corrispondente dello studio presentato anche al 30° Simposio sui principi dei sistemi operativi . “Non possiamo continuare a costruire data center sempre più grandi perché non avremo più la potenza per gestirli. Se riusciamo a ridurre l’energia consumata dall’IA, possiamo ridurre l’impronta di carbonio e i requisiti di raffreddamento dell’IA e consentire una maggiore elaborazione per adattarsi ai nostri attuali vincoli energetici”. Lo spreco di energia si crea quando l’addestramento dell’IA è diviso in modo non equo tra le GPU, che sono processori di computer specializzati per grandi applicazioni di dati e grafica. Sebbene apra la porta allo spreco, la suddivisione del lavoro è necessaria per elaborare enormi set di dati. “I modelli di intelligenza artificiale odierni sono così grandi che non possono essere inseriti in un singolo processore di computer”, ha affermato Jae-Won Chung , dottorando in informatica e ingegneria presso l’UM e primo autore dello studio. “Devono essere suddivisi in decine di migliaia di processori per essere addestrati, ma suddividere i modelli in dimensioni perfettamente uguali tra tutti i processori è praticamente impossibile”. I lavori di formazione sono così difficili da suddividere equamente perché alcuni compiti devono essere raggruppati insieme sullo stesso processore, come ogni puntata di una serie di libri verrà raggruppata insieme in uno scaffale organizzato. Poiché gli attuali metodi di training eseguono ogni processore alla massima velocità, i processori con un carico più leggero termineranno i loro calcoli prima degli altri processori. Ciò non velocizza il training, che non è completo finché ogni processore non termina il suo lavoro, ma è uno spreco. Inoltre, problemi come hardware difettoso o ritardi di rete creano spreco di energia rallentando la velocità di elaborazione di un singolo processore. Per risparmiare energia, i ricercatori hanno sviluppato uno strumento software, chiamato Perseus , che identifica un percorso critico, ovvero una serie di sottoattività che richiederanno più tempo per essere completate. Quindi, Perseus rallenta il consumo dei processori che non si trovano sul percorso critico in modo che tutti finiscano i loro lavori più o meno nello stesso momento, eliminando l’uso di energia non necessario. “Ridurre il costo energetico dell’IA può avere implicazioni importanti per un accesso equo all’IA”, ha affermato Chowdhury. “Se un paese non ha abbastanza energia per gestire un grande modello, potrebbe dover utilizzare servizi da molto lontano o essere costretto a gestire modelli più piccoli e meno accurati. Questo divario potrebbe perpetuare ulteriormente la disparità tra diverse comunità”. Il team ha testato con successo Perseus addestrando GPT-3, altri tre grandi modelli linguistici e un modello di visione artificiale (30Science.com)
Gianmarco Pondrano d'Altavilla
Il 30% dell’energia per addestrare IA viene sprecata
(12 Novembre 2024)
Gianmarco Pondrano d'Altavilla