Valentina Di Paola

Dal rumore alle parole, il lavoro del cervello per trasformare il suono

(7 Marzo 2025)

Roma – Il cervello è in grado di trasformare suoni, schemi di linguaggio e parole nel flusso di conversazioni elaborando il linguaggio in sequenze. A spiegare questo curioso meccanismo uno studio, pubblicato sulla rivista Nature Human Behaviour, condotto dagli scienziati della Hebrew University of Jerusalem, del Neuroscience Institute presso la Princeton University e del New York University Langone Comprehensive Epilepsy Center. Il team, guidato da Ariel Goldstein, Adeen Flinker e Orrin Devinsky, ha utilizzato l’elettrocorticografia (ECoG), una tecnologia di imaging avanzata, per analizzare oltre cento ore di attività cerebrale durante discussioni nella vita reale. I ricercatori hanno rivelato i complessi percorsi linguistici associati alla produzione e alla comprensione del linguaggio. Queste intuizioni, commentano gli esperti, approfondiscono la nostra comprensione della connessione umana, e aprono la strada a una serie di progressi trasformativi nella tecnologia vocale e negli strumenti di comunicazione. Nell’ambito dell’indagine, gli scienziati hanno sviluppato un framework computazionale unificato per esplorare le basi neurali delle conversazioni umane. Per l’analisi dei dati, è stato utilizzato il modello di trascrizione Whisper, che suddivide il linguaggio in suoni semplici, schemi e significati. I tre strati sono stati quindi rontati con l’attività cerebrale utilizzando modelli informatici avanzati. I risultati evidenziavano che il framework poteva prevedere l’attività cerebrale con grande accuratezza. Quando è stato applicato a conversazioni che non facevano parte dei dati originali, il modello ha correttamente abbinato diverse parti del cervello a specifiche funzioni linguistiche. Ad esempio, le regioni coinvolte nell’udito e nel parlare si allineavano con schemi di suono e linguaggio, mentre le aree coinvolte nella comprensione di livello superiore si allineavano con i significati delle parole. Prima di parlare, il nostro cervello passa dal pensare alle parole alla formazione dei suoni, mentre dopo aver ascoltato, lavora all’indietro per dare un senso allo stimolo uditivo. “Questo lavoro – conclude Goldstein – ci aiuta a capire come il cervello elabori le conversazioni in contesti di vita reale. La nostra ricerca ha potenziali applicazioni pratiche, dal miglioramento della tecnologia di riconoscimento vocale allo sviluppo di strumenti migliori per le persone con difficoltà comunicative. Questi risultati segnano un passo importante verso la creazione di strumenti avanzati utili a studiare come il cervello gestisce il linguaggio in situazioni del mondo reale”. (30Science.com)

Valentina Di Paola
Classe ’94, cresciuta a pane e fantascienza, laureata in Scienze della comunicazione, amante dei libri, dei gatti, del buon cibo, dei giochi da tavola e della maggior parte di ciò che è anche solo vagamente associato all’immaginario nerd. Collaboro con 30science dal gennaio 2020 e nel settembre 2021 ho ottenuto un assegno di ricerca presso l’ufficio stampa dell’Istituto di ricerca sugli ecosistemi terrestri del Consiglio nazionale delle ricerche. Se dovessi descrivermi con un aggettivo userei la parola ‘tenace’, che risulta un po’ più elegante della testardaggine che mi caratterizza da prima che imparassi a usare la voce per dar senso ai miei pensieri. Amo scrivere e disegnare, non riesco a essere ordinata, ma mi piace pensare che la mia famiglia e il mio principe azzurro abbiano imparato ad accettarlo. La top 3 dei miei sogni nel cassetto: imparare almeno una lingua straniera (il Klingon), guardare le stelle più da vicino (dal Tardis), pilotare un velivolo (il Millennium Falcon).