Home Notizie recenti Le regioni cerebrali specializzate riconoscono i segnali vocali che non coinvolgono la...

Le regioni cerebrali specializzate riconoscono i segnali vocali che non coinvolgono la parola

19
0

Regioni distinte della corteccia uditiva situate nel giro temporale superiore e nel solco temporale superiore sono specializzate nel riconoscimento dei suoni vocali (mostrati in blu scuro) e non rispondono ai segnali acustici non vocali. Credito: Kyle Rupp e Taylor Abel

Parti specifiche del cervello riconoscono segnali complessi nei suoni vocali umani che non coinvolgono la parola, come pianto, tosse o respiro affannoso, hanno scoperto i ricercatori dell’Università di Pittsburgh.

In un articolo pubblicato oggi su Biologia PLOS, gli scienziati hanno dimostrato che due aree della corteccia uditiva sono specializzate per riconoscere i suoni della voce umana che, a differenza del parlato, non hanno un significato linguistico. Piuttosto, ci aiutano a reagire a segnali sonori che consentono alle persone di identificare istantaneamente le caratteristiche della persona che sta parlando, come sesso, età approssimativa, umore e persino altezza, il tutto senza vederle.

“La percezione della voce è simile al modo in cui gli esseri umani riconoscono volti diversi”, ha affermato l’autore senior Taylor Abel, MD, assistente professore di chirurgia neurologica a Pitt. “Le voci che non includono la parola, ad esempio le pianti, la tosse, i gemiti o le esclamazioni di un bambino, ci consentono di ottenere molte informazioni sulla persona che fa quelle vocalizzazioni in assenza di altre informazioni sulla persona”.

Gli esseri umani vivono in un mondo pieno di suoni, dove i rumori dell’ambiente modellano le nostre interazioni quotidiane con ciò che ci circonda e le altre persone. E anche se la parola è uno degli aspetti unici della comunicazione umana che non ha analoghi diretti nel mondo animale, le persone non fanno affidamento sulla sola parola per trasmettere informazioni uditive.

Gli aspetti non vocali della voce svolgono un ruolo vitale nella nostra cassetta degli attrezzi di comunicazione, espandendo la capacità umana di esprimersi in modo accurato e dinamico. Parte di quell’espressione è subconscia e parte di essa può essere intenzionalmente modulata dall’oratore per trasmettere un ampio spettro di emozioni, come felicità, paura o disgusto.

Gli esseri umani nascono con la capacità di riconoscimento vocale – infatti, i bambini possono riconoscere la voce della madre mentre sono ancora nel grembo materno – ma quella capacità è dinamica e continua ad evolversi durante l’adolescenza.

Abel, neurochirurgo pediatrico specializzato in epilessia, ha avuto l’opportunità unica di dare un’occhiata a come il cervello umano risponde alla voce.

Per identificare le regioni del cervello responsabili della generazione di convulsioni in alcune persone con epilessia, i neurochirurghi possono impiantare elettrodi temporanei nel cervello per registrare attentamente i suoi segnali elettrici. Questa pratica consente ai medici di localizzare con precisione il sito del sequestro ed eventualmente rimuovere quella parte del cervello, risparmiando il tessuto sano circostante.

Otto pazienti con epilessia hanno acconsentito a partecipare a uno studio in cui Abel e il suo team hanno utilizzato gli elettrodi impiantati per misurare quali aree della corteccia uditiva hanno risposto quando i suoni della voce – grugniti, guaiti, risate – sono stati presentati ai pazienti.

Utilizzando una combinazione di registrazioni cerebrali dirette e modelli computazionali, i ricercatori sono stati in grado di descrivere con dettagli senza precedenti come la rappresentazione vocale si evolve nel tempo e di decodificare quando un suono vocale è stato riprodotto in base a schemi di attività neurale dalla corteccia uditiva.

I ricercatori hanno scoperto che la maggior parte di tale attività proveniva da due regioni della corteccia uditiva: pieghe della materia grigia del cervello note come giro temporale superiore (STG) e solco temporale superiore (STS). Mentre precedenti studi di imaging cerebrale hanno mostrato che STG e STS sono importanti per l’elaborazione vocale, questo studio dimostra che queste regioni rappresentano la voce come una categoria sonora distinta piuttosto che rappresentare semplicemente gli aspetti fisici o acustici della voce.

Questa nuova conoscenza sull’organizzazione del sistema di riconoscimento vocale cablato nel nostro cervello consentirà ai ricercatori di comprendere meglio i disturbi neurologici come la schizofrenia o l’autismo, in cui la percezione della voce è alterata o assente, e persino di creare migliori dispositivi di assistente vocale, che attualmente sono bravo a riconoscere il parlato ma meno abile a differenziare tra più parlanti.

Kyle Rupp, Ph.D., è l’autore principale del documento; altri autori sono Jasmine Hect, Madison Remick, Avniel Ghuman, Ph.D., e Bharath Chandrasekaran, Ph.D., tutti di Pitt; e Lori Holt, Ph.D., della Carnegie Mellon University.


Articolo precedenteL’economia statunitense si contrae per un secondo trimestre, alimentando i timori di recessione
Articolo successivoGli ingegneri sviluppano adesivi che possono vedere all’interno del corpo