aus derStandard.at, 3. 3. 2025 Nicht nur die Gestik, auch Betonung, Satzmelodie und Rhythmus sagen oft viel mehr aus als die Inhalte selbst. zu Jochen Ebmeiers Realien
Sprache umfasst nicht nur Laute oder Phoneme. Zu einer Lauteinheit gehören immer auch verschiedenste Eigenschaften der Sprache und des Sprechens, genannt Prosodie. Dazu zählen Akzent, Betonung, Intonation, Satzmelodie, Tempo, Rhythmus und Sprechpausen. Und eine alte Weisheit besagt: Der Ton macht die Musik.
Anders gesagt: Ein freundlicher Umgangston hilft mitunter, Inhalte weit besser zu transportieren – ganz unabhängig von dem Gesagten. Umgekehrt lässt schon die Intonation und Stimmhöhe deutlich erkennen, worum es wirklich geht, siehe den jüngsten beispiellosen Eklat im Weißen Haus zwischen Donald Trump und Wolodymyr Selenskyj.
Subtile Stimmveränderungen
Dass es wirklich nicht nur darauf ankommt, was man sagt, sondern auch darauf, wie man es sagt, konnte eine im Fachblatt Nature Communications erschienene Studie nun wissenschaftlich untermauern. Ein interdisziplinäres Team rund um Bharath Chandrasekaran von der Northwestern University in Illinois hat gezeigt, dass eine Gehirnregion namens Gyri temporales transversi (auch bekannt als Heschl'sche Querwindungen) eine weitaus größere Rolle bei der Interpretation von Sprache spielt als bisher angenommen.
Die Heschl'schen Querwindungen sind seit langem als primäres Hörzentrum bekannt: Dort werden Geräusche noch nicht interpretiert, sondern erst einmal bewusst wahrgenommen. Jahrelang glaubte die Fachwelt, dass alle Aspekte von Prosodie hauptsächlich im Gyrus temporalis superior verarbeitet werden, einer Hirnregion, die für die Sprachwahrnehmung zuständig ist.
Nun hat sich herausgestellt, dass subtile Veränderungen der Stimmlage bereits in Gyri temporales transversi verarbeitet werden – und zwar nicht nur als Geräusch, sondern als sinnvolle sprachliche Einheiten. Es zeigte sich, dass das Gehirn die jeweilige Tonhöhe getrennt von jenen Lauten verarbeitet, aus denen die Wörter bestehen.
Architektur der Sprachwahrnehmung
"Die Ergebnisse definieren unser Verständnis der Architektur der Sprachwahrnehmung neu", sagt Chandrasekaran. "Wir haben einige Jahrzehnte damit verbracht, die Nuancen zu erforschen, wie Sprache im Gehirn abstrahiert wird, aber dies ist die erste Studie, die untersucht, wie subtile Variationen in der Tonhöhe, die auch Bedeutung vermitteln, im Gehirn verarbeitet werden."
Für die Durchführung der Studie wurde eine besondere Gruppe von Testpersonen herangezogen. Es handelte sich um elf jugendliche Patienten, die wegen schwerer Epilepsie neurochirurgisch behandelt wurden. Ihnen allen wurden Elektroden tief in jenen Bereich des Gehirns implantiert, der für wichtige Sprachfunktionen entscheidend ist.
Normalerweise stütze sich die Sprachforschung auf nicht-invasive Aufzeichnungen von der Hautoberfläche aus, was nicht sehr präzise sei, heißt es vonseiten der Forschenden. Die Zusammenarbeit von Hirnforschern und Neurochirurgen habe nun ermöglicht, die Mechanismen der Hirnverarbeitung auf eine neue Art und Weise zu erforschen.
Verborgene Bedeutungsebene
Dazu lauschten die Testpersonen aktiv einer Hörbuchaufnahme von Alice im Wunderland, während die Forschenden die Aktivität in mehreren Gehirnregionen in Echtzeit verfolgen konnten. Dabei wurde entdeckt, welche Rolle die Heschl'schen Querwindungen bei der Verarbeitung von Unterschieden in der Stimmlage spielten. Damit würden langjährige Annahmen infrage gestellt, wie und wo das Gehirn die natürliche Sprachmelodie aufnimmt – jene subtilen Tonhöhenänderungen, die dazu beitragen, Bedeutung und Absicht zu vermitteln.
"Auch wenn diese Tonhöhenmuster bei jedem Sprechen variieren, schafft unser Gehirn stabile Repräsentationen, um sie zu verstehen", sagt G. Nike Gnanataja, Kommunikationswissenschafterin an der University of Wisconsin-Madison und Mitautorin der Studie. Die Forschung habe auch gezeigt, dass die verborgene Bedeutungsebene, die von prosodischen Konturen getragen wird – das Ansteigen und Abfallen der Sprachmelodie –, viel früher in der auditorischen Verarbeitung kodiert wird als bisher angenommen.
Die Erkenntnisse könnten die Sprachrehabilitation, KI-gestützte
Sprachassistenten und unser Verständnis dessen, was die menschliche
Kommunikation einzigartig macht, verändern, betonen die Forschenden. Wie
ähnliche Studien gezeigt haben, fehlt nicht-menschlichen Primaten die
Fähigkeit, Unterschiede in der Tonhöhe als eigene Kategorie zu
verarbeiten. Außerdem könnten die Einblicke in die Sprach-verarbeitung
bei der Therapie von Sprachstörungen infolge von Autismus oder einem
Schlaganfall helfen.
Keine Kommentare:
Kommentar veröffentlichen