Científicos de la Universidad de California en San Francisco, (EEUU), han identificado un grupo de neuronas en la corteza auditiva primaria capaces de evaluar los cambios en el tono del discurso y su musicalidad, independientemente de quién sea el que habla. Mediante este trabajo de investigación se demuestra que la representación en la entonación en algunas neuronas se basa en la codificación de los tonos relativos altos y bajos.
En todas las lenguas, los cambios de entonación son fundamentales para que la comunicación humana fluya con éxito. Es por tanto que la musicalidad llega a influír en el significado de una palabra en algunos idiomas más musicales. Eso supone que algunas partes del cerebro humano y de otros primates sensibles al tono vocal y a la forma de hablar, se ven alteradas y por tanto, se ha podido constatar la actividad eléctrica de las neuronas en una parte de la corteza auditiva, el giro temporal superior y dónde se han observado indicios del procesamiento del acento, los tonos y la entonación.
Los resultados han demostrado que algunas neuronas del giro temporal superior, pueden distinguir las voces debido a las diferencias en la gama vocal; mientras unas neuronas distinguen cada una de las frases basándose solo en los distintos fonemas que la forman; existe un algoritmo que predice la reacción de las neuronas en función del hablante, la fonética, la entonación y la forma de hablar.
Mientras que las neuronas que responden a la entonación se centrán más en el tono relativo alto y bajo de la voz, es decir, cómo varía la entonación dentro de un discurso; otras neuronas responden al tono absoluto, es decir, la capacidad de distinguir una nota sin la ayuda de otra referencia.
“Para mí este es uno de los aspectos más emocionantes del estudio”, asegura Tang. “Hemos sido capaces de demostrar no solo dónde se codifica la prosodia si no cómo, al explicar la actividad en términos de cambios específicos en el tono vocal. Ahora lo importante es hallar cómo controla el cerebro nuestro tracto vocal para producir esos sonidos intencionales», añade Tang.
El estudio se ha llevado a cabo gracias a un mareo de la actividad eléctrica de los pacientes con epilepsia severa que sostienen que el cerebro es capaz de identificar características importantes que den significado a lo que se está escuchando. También se revela cómo el cerebro es capaz de desmontar la compleja fuente de sonidos del habla que recibe en cuestión de milisegundos.