Il cervello separa musica e parole: a ogni suono il suo emisfero.

Un esperimento mostra come linguaggio e musica vengono codificati in due diversi emisferi cerebrali.

Un team di ricerca della McGill University ha scoperto come il cervello separa musica e parole grazie a una specializzazione emisferica
0

L’esperimento ha confermato che il cervello separa musica e parole. I risultati sono stati pubblicati su Science.

Cento canzoni, due aspetti uditivi

Per capire come il cervello separa musica e parole il team di ricerca dell’ Università di McGill ha creato un campionario di cento tracce audio a cappella. Ogni brano riproduceva  una frase cantata da un soprano. Successivamente ogni traccia è stata distorta da un punto di vista temporale (gli aspetti legati al tempo) o spettrale (gli aspetti legati alla frequenza). Il campionario distorto è stato poi fatto ascoltare a quarantanove partecipanti che dovevano distinguere le parole o la melodia di ogni “canzone”. L’esperimento è stato condotto su due gruppi parlanti uno francese e l’altro inglese per favorire riproducibilità e generalità dei risultati.

Meccanismi diversi per stimoli diversi

I partecipanti hanno avuto difficoltà a comprendere le parole dei brani nelle tracce con distorsione temporale, e nessun problema a comprendere la melodia. Al contempo, distorcere le informazioni spettrali ha reso complicata la comprensione della melodia, ma non quella delle parole della traccia.  Il team di ricerca guidato da Philippe Albouy ne evince che melodia e linguaggio dipendono da aspetti acustici diversi. Per comprendere meglio come il cervello separa musica e parole, durante l’esperimento i ricercatori hanno sottoposto i partecipanti a risonanza magnetica funzionale.  I risultati hanno mostrato che la parola viene processata nella corteccia uditiva sinistra e la melodia in quella destra.

Emisferi specializzati

Studi precedenti condotti su animali hanno dimostrato che i neuroni della corteccia uditiva rispondono a suoni rilevanti per l’animale stesso, e quindi a precise modulazioni temporali e spettrali, come le parole e le melodie nel caso degli esseri umani.  Studiando come le due degradazioni acustiche influenzano questa risposta il team di Albouy ha scoperto che la degradazione della dimensione spettrale influenza solamente l’attività della corteccia uditiva sinistra e solo durante la decodificazione della melodia. Viceversa,  la degradazione della dimensione temporale influenza la corteccia uditiva destra e solo durante la percezione del linguaggio. Secondo il team dell’Università di McGill questo studio mostra come musica e parola utilizzino due aspetti estremamente diversi delle dinamiche uditive e che la specializzazione degli emisferi potrebbe essere il modo che il sistema nervoso ha di ottimizzare i due metodi di comunicazione.

Il cervello separa musica e parole: risolvere un dibattito

Nonostante la consapevolezza che i due emisferi rispondono in maniera diversa a musica e linguaggio le basi fisiologiche di questo meccanismo rimanevano un mistero. “Qui mostriamo che questa specializzazione emisferica è legata agli aspetti acustici basilari rilevanti per musica e linguaggio” ha detto Albouy, il cui team ha quindi proposto una possibile svolta sul tema nel dibattito scientifico.

Daniele Tolu

Leave A Reply

Your email address will not be published.

Cliccando su Accetta, acconsenti all'utilizzo dei cookie e di eventuali dati sensibili da parte nostra; secondo le normative vigenti GDPR. More Info

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi