Laute und Wörter werden im Gehirn getrennt und gleichzeitig verarbeitet
19.08.2021 Nach jahrelanger Forschung haben Neurowissenschaftler einen neuen Weg im menschlichen Gehirn entdeckt, der die Laute der Sprache verarbeitet. Die in der Fachzeitschrift Cell veröffentlichten Ergebnisse deuten darauf hin, dass Hör- und Sprachverarbeitung parallel ablaufen. Dies widerspricht der seit langem vertretenen Theorie, dass das Gehirn akustische Informationen verarbeitet und dann in sprachliche Informationen umwandelt.
Verarbeitung im primären Hörkortex
Sprachlaute werden, sobald sie die Ohren erreichen, von der Cochlea in elektrische Signale umgewandelt und an eine Gehirnregion namens Hörrinde im Schläfenlappen weitergeleitet. Jahrzehntelang gingen Wissenschaftler davon aus, dass die Sprachverarbeitung im auditorischen Kortex einem seriellen Weg folgt, ähnlich wie ein Fließband in einer Fabrik. Man ging davon aus, dass der primäre Hörkortex zunächst die einfachen akustischen Informationen, wie z. B. die Frequenzen von Tönen, verarbeitet. Dann extrahiert eine benachbarte Region, der sogenannte obere temporale Gyrus (STG), die für die Sprache wichtigeren Merkmale wie Konsonanten und Vokale und verwandelt die Laute in sinnvolle Wörter.
Direkte Belege für diese Theorie fehlen jedoch, da sie sehr detaillierte neurophysiologische Aufzeichnungen des gesamten auditorischen Kortex mit extrem hoher räumlicher und zeitlicher Auflösung erfordern. Dies ist eine Herausforderung, da der primäre auditorische Kortex tief in der Falte liegt, die die Frontal- und Temporallappen des menschlichen Gehirns trennt.
Die Studie
Wir gingen also mit der Hoffnung in diese Studie, Belege für die Umwandlung der niedrigen Repräsentation von Lauten in die hohe Repräsentation von Wörtern zu finden, sagt der Neurowissenschaftler und Neurochirurg Edward Chang von der University of California, San Francisco.
Im Laufe von sieben Jahren haben Chang und sein Team neun Teilnehmer untersucht, die sich aus medizinischen Gründen einer Gehirnoperation unterziehen mussten, etwa um einen Tumor zu entfernen oder einen Anfallsherd zu lokalisieren. Bei diesen Eingriffen wurden Arrays kleiner Elektroden über den gesamten auditorischen Kortex gelegt, um neuronale Signale für die Sprach- und Anfallskartierung zu erfassen. Die Teilnehmer erklärten sich außerdem freiwillig bereit, die Aufzeichnungen analysieren zu lassen, um zu klären, wie der auditorische Kortex Sprachlaute verarbeitet.
Als die Forscher den Teilnehmern kurze Phrasen und Sätze vorspielten, erwarteten sie einen Informationsfluss vom primären auditorischen Kortex zum angrenzenden STG, wie es das traditionelle Modell vorschlägt. Wenn das der Fall ist, sollten die beiden Bereiche nacheinander aktiviert werden.
Primärer auditorischer Kortex und oberer temporaler Gyrus
Überraschenderweise stellte das Team fest, dass einige Bereiche im STG genauso schnell reagierten wie der primäre auditorische Kortex, wenn Sätze abgespielt wurden, was darauf hindeutet, dass beide Bereiche gleichzeitig mit der Verarbeitung akustischer Informationen beginnen.
Im Rahmen der klinischen Sprachkartierung stimulierten die Forscher außerdem den primären auditorischen Kortex der Teilnehmer mit kleinen elektrischen Strömen. Wenn die Sprachverarbeitung einem seriellen Pfad folgt, wie es das traditionelle Modell nahelegt, würden die Stimuli wahrscheinlich die Sprachwahrnehmung der Patienten verzerren. Das Gegenteil war der Fall: Obwohl die Teilnehmer durch die Stimuli auditive Lärmhalluzinationen erlebten, waren sie immer noch in der Lage, ihnen zugesprochene Wörter deutlich zu hören und zu wiederholen. Wurde jedoch das STG stimuliert, berichteten die Teilnehmer, dass sie zwar hören konnten, wie jemand sprach, „aber die Worte nicht verstehen konnten“.
Einer der Patienten sagte sogar, dass es sich anhörte, als ob die Silben in den Wörtern vertauscht würden.
Traditionelles Hierarchiemodell der Sprachverarbeitung möglicherweise nicht richtig
Die neuesten Erkenntnisse deuten darauf hin, dass das traditionelle Hierarchiemodell der Sprachverarbeitung zu vereinfacht und wahrscheinlich falsch ist. Die Forscher spekulieren, dass das STG unabhängig von der Verarbeitung im primären Hörkortex funktioniert – und nicht als nächster Schritt der Verarbeitung.
Die Parallelität der Sprachverarbeitung könnte Ärzten neue Ideen für die Behandlung von Krankheiten wie Legasthenie liefern, bei der Kinder Schwierigkeiten haben, Sprachlaute zu identifizieren.
Obwohl dies ein wichtiger Schritt nach vorn ist, verstehen wir dieses parallele auditorische System noch nicht sehr gut. Die Ergebnisse deuten darauf hin, dass die Weiterleitung von Klanginformationen ganz anders verlaufen könnte, als wir es uns je vorgestellt haben. Sie werfen sicherlich mehr Fragen auf, als sie beantworten, sagt Chang.
© psylex.de – Quellenangabe: Cell, Hamilton et al.: „Parallel and distributed encoding of speech across human auditory cortex“ www.cell.com/cell/fulltext/S0092-8674(21)00878-3 , DOI: 10.1016/j.cell.2021.07.019
Ähnliche Artikel / News / Themen
- Timing der Gehirnwellen beeinflusst Worte, die wir hören. Phasenabhängige Wortwahrnehmung entsteht durch regionalspezifische Sensitivität für die Statistik der Sprache
- Hören und das Gehirn