Musica e linguaggio

La musica usa l’altezza del suono per distinguere note e intervalli, il linguaggio usa il timbro per distinguere i diversi fonemi

I singoli individui apprendono le regole locali mediante l’uso quotidiano, formando inconsciamente delle categorie di note separate da sensazioni auditive, nelle quali l’altezza delle note varia in modo continuo.

Musica e linguaggio si basano sulla capacità della mente di creare e mantenere l’esistenza di suoni partendo dal flusso sonoro che raggiunge l’orecchio.

Musica e linguaggio impegnano una buona parte del cervello e coordinano numerosi processi cerebrali

Queste attività cognitive consistono nell’interpretazione di sensazioni acustiche complesse che si sviluppano nel tempo.

Dalle ricerche comparate sulle interconnessioni tra le due aree conoscitive si può apprendere molto. Praticamente tutto il lavoro di ricerca che è stato sinora svolto si basa su quanto prodotto dalle culture occidentali. È giunto il momento di allargare il campo di ricerca al di là di questo limite.

Ad esempio, cosa c’entra la scala diatonica (do-re-mi-fa-sol-la-si-do) con il linguaggio?  Non vi è lingua al mondo, neppure tra quelle basate sul timbro, che costruisca i propri suoni in termini di scale musicali.
Pertanto la struttura della scala diatonica non può certo rivestire carattere universale, visto che in altre culture, come l’araba e l’indiana, si fa uso per le scale utilizzate di frazioni di tono e semitono non previste dalla musica occidentale. Tuttavia un principio universale sembra esservi: l’uso di un piccolo gruppo di note e intervalli all’interno dell’ottava.

Il linguaggio crea le proprie categorie sonore

Emerge un rapporto concettuale con le regole. Forse nella percezione del ritmo possiamo trovare qualche costante all’interno delle diverse culture. Sembra ad esempio che, data una qualunque sequenza di battute alternativamente lunghe e brevi, sia innata la percezione che la conclusione della frase ritmica sia sulla lunga. Se non che una maggioranza di giapponesi adulti sente come finale la breve.

Una spiegazione può essere data sapendo che il giapponese, a differenza di molte lingue europee, pone le (brevi) particelle del discorso dopo le (di solito più lunghe) parole cui sono legate.

La differenza tra le lingue influenza pertanto in modo notevole il mondo ritmico dell’ascoltatore e determina già a livello di base gli schemi della sua percezione di strutture sonore non linguistiche.

Vi sono fenomeni che non sono né lingua né musica, pur partecipando a entrambe

Nell’Africa centrale e occidentale i suonatori di tam-tam, giocando su variazioni di ritmo e di timbro, trasmettono a grande distanza messaggi comprensibili solo a chi è della stessa lingua, formata come è da parole composte da tono quanto da vocali e consonanti.

Alcune popolazioni in Africa, Asia e America Centrale usano il fischio allo stesso scopo, sostituendo al ritmo e al timbro del linguaggio, l’intensità e l’altezza dei suoni emessi. Anche qui, la comprensione del significato sfugge completamente a chi non conosce la lingua; la sensazione sarà di musica, non di comunicazione verbale.

I procedimenti cognitivi che stanno alla base della comunicazione via tam-tam o fischi sono stati ben poco studiati finora. La loro conoscenza potrà però rivelarsi utili per una visione dinamicamente fluida delle sedi biologiche di formazione della musica e del linguaggio, anziché considerare tali sedi separate fin dalla nascita.

Gli studi sinora fatti sulle musiche non occidentali indicano che la musica non risiede in una sola area del cervello

È da tempi antichi che le affinità tra i due settori cognitivi sono state oggetto di speculazione. Recentemente i biologi stanno sostituendo la sperimentazione alla speculazione mentale, provocando un vivo dibattito su argomenti che vanno dalla modularità dei meccanismi linguistici alle origini evolutive della musica.

La nostra è una specie musicale quanto linguistica e ci si augura che gli studi in corso possano illuminarci sulle radici profonde dei meccanismi che ci danno la notevole capacità di trovare un senso nei suoni che ci circondano.

Aniruddh D. Patel – Neuroscience Institute, San Diego, California

Fonte: Nature

http://www.nature.com/neuro/journal/v6/n7/abs/nn1082.html

Leave a Reply