Los investigadores han teorizado durante mucho tiempo que el surco temporal superior (STS) está involucrado en el procesamiento de los ritmos del habla, pero solo recientemente un equipo de la Universidad de Duke lo ha confirmado. Sus hallazgos muestran que el STS es sensible al momento del habla, un elemento crucial del lenguaje hablado. Esto podría ayudar a mejorar nuestra comprensión de cómo surgen en el cerebro algunas condiciones que afectan el habla, o ayudar a los tutores a diseñar cursos de idiomas extranjeros asistidos por computadora de próxima generación.

Imagen: El lingüista

El tiempo y el cerebro

Los cerebros humanos son particularmente eficientes en la percepción, producción y procesamiento de información rítmica fina en la música y el habla. Sin embargo, la música se procesa de manera diferente al habla, lo que sugiere algunos mecanismos específicos subyacentes. Por ejemplo, cualquier tipo de sonido, ya sea rítmico o no, desencadena actividad en la corteza auditiva de los lóbulos temporales, pero el habla solo enciende el STS.

Cualquier lingüista puede decirle que el tiempo lo hace todo en un idioma. Es decir, implica sincronizar y unir sonidos ultracortos, cortos y largos. Los fonemas son la unidad de habla más corta y básica y duran un promedio de 30 a 60 milisegundos. En comparación, las sílabas tardan más: de 200 a 300 milisegundos, mientras que la mayoría de las palabras completas son aún más largas. Es una cantidad inmensa de información para procesar, al menos olvidemos que los datos relacionados con el habla son distintos de otros sonidos como el del entorno (el canto de los pájaros, el chapoteo del agua) o la música, que comparte una secuencia rítmica.

Los investigadores de Duke tomaron un discurso pronunciado en un idioma extranjero y luego lo cortaron en fragmentos de entre 30 y 960 milisegundos de duración. Usando un algoritmo informático novedoso, los sonidos se volvieron a ensamblar, lo que condujo a nuevos sonidos que los autores llaman edredones de habla. Es básicamente un galimatías, pero todavía suena como algún idioma. Cuanto más cortas eran las piezas de las colchas del discurso resultantes, mayor era la interrupción de la estructura original del discurso.

Luego, los sonidos se reprodujeron a voluntarios a quienes se les controló la actividad cerebral. Los investigadores plantearon la hipótesis de que el STS tendría una mejor respuesta a los edredones de habla formados por segmentos más largos. De hecho, esto fue lo que sucedió: el STS se volvió muy activo durante los quilts de 480 y 960 milisegundos en comparación con los quilts de 30 milisegundos.

Para asegurarse de que en realidad no estaban viendo otra respuesta, los autores también reprodujeron otros sonidos destinados a imitar el habla, pero con algunas diferencias clave. Uno de los sonidos sintéticos que crearon compartía la frecuencia del habla pero carecía de sus ritmos. Otro quitó todo el tono del discurso. Un tercero utilizó sonidos ambientales. Una vez más, cada sonido de control se cortó y acolchó antes de reproducirlo para los participantes. El STS no pareció responder a la manipulación del acolchado cuando se aplicó a estos sonidos de control, como se informó en Nature Neuroscience .

Realmente hicimos todo lo posible para estar seguros de que el efecto que estábamos viendo en STS se debía al procesamiento específico del habla y no a alguna otra explicación, por ejemplo, el tono en el sonido o que era un sonido natural en lugar de una computadora. -sonido generado, dijo el coautor Tobias Overath, profesor asistente de investigación de psicología y neurociencia en Duke.

"