Ein verteiltes Netzwerk für die multimodale, erfahrungsbasierte Darstellung von Konzepten
13.10.2022 Eine im Journal of Neuroscience veröffentlichte Studie von Forschern des Medical College of Wisconsin (MCW) zeigt, in welchen Bereichen des Gehirns die Bedeutungen von Wörtern aus dem Gedächtnis abgerufen und beim Sprachverständnis verarbeitet werden. Frühere Neuroimaging-Studien hatten gezeigt, dass große Teile des Temporal-, Parietal- und Frontallappens an der Verarbeitung von Sprachinhalten beteiligt sind, aber es war unbekannt, welche Regionen Informationen über einzelne Wortbedeutungen kodieren.
„Wir fanden heraus, dass Wortbedeutungsinformationen in mehreren hochrangigen kortikalen Arealen (d. h. in Bereichen, die nicht eng mit primären sensorischen oder motorischen Bereichen verbunden sind) repräsentiert sind, einschließlich der klassischen ‚Sprachareale‘, die als Broca-Areal und Wernicke-Areal bekannt sind“, sagte Dr. Leonardo Fernandino, Assistenzprofessor für Neurologie und biomedizinische Technik an der MCW. „Interessanterweise gehörten jedoch einige Regionen, die bisher nicht als wichtig für die Sprachverarbeitung angesehen wurden, zu denen, die die meisten Informationen über die Wortbedeutung enthielten.“
Darüber hinaus untersuchten sie, ob die neuronalen Repräsentationen der Wortbedeutung in jedem dieser Bereiche Informationen über phänomenologische Erfahrungen enthielten (d. h. im Zusammenhang mit verschiedenen Arten von Wahrnehmungs-, Gefühls- und Handlungserfahrungen), wie mehrere Forscher zuvor vorgeschlagen hatten, oder ob sie in erster Linie Informationen über begriffliche Kategorien (d. h. natürliche Arten) oder über Wort-Kookkurrenzstatistiken enthielten, wie andere Forscher vermutet hatten.
Hirnregionen, in denen Wortbedeutungsinformationen aktiviert wurden
Sie verwendeten die funktionelle MRT zusammen mit einer Technik namens „representational similarity analysis (RSA) searchlight mapping“, um eine hochauflösende Karte der Hirnregionen zu erstellen, in denen Wortbedeutungsinformationen aktiviert wurden, wenn die Teilnehmer einzelne auf dem Bildschirm dargestellte Wörter still lasen (alle paar Sekunden wurde ein anderes Wort präsentiert). Sie untersuchten 64 Teilnehmer in zwei verschiedenen Experimenten. Bei den Wörtern handelte es sich um englische Substantive, darunter Tiere, Lebensmittel/Pflanzen, Werkzeuge, Fahrzeuge, Körperteile, menschliche Eigenschaften, Mengen, soziale Ereignisse, verbale Ereignisse, akustische Ereignisse und negative Ereignisse.
Wie erwartet wurde festgestellt, dass die Wortbedeutung in beiden Gehirnhälften repräsentiert war, wobei die linke Hemisphäre stärker beteiligt war. Bei den meisten Menschen ist die linke Hemisphäre auf die Sprachverarbeitung spezialisiert, während die rechte Hemisphäre für die Verarbeitung visuell-räumlicher Informationen spezialisiert ist.
„Wir fanden außerdem heraus, dass Wortbedeutungsrepräsentationen in all diesen Regionen Erfahrungsinformationen kodieren, d. h. Informationen, die von sensorischen, motorischen und emotionalen Erfahrungen abgeleitet sind, selbst nach Kontrolle für andere Arten von Informationen wie semantische Kategorien und Wortkookkurrenzstatistiken“, so Dr. Fernandino. „Die Studie hat auch gezeigt, dass diese Repräsentationen multimodal sind, d. h. sie kombinieren Informationen aus verschiedenen Erfahrungsmerkmalen und sensorischen Modalitäten.
Die Forscher stellten fest, dass die als „default mode network“ bekannten Hirnareale – die als Knotenpunkte für neuronale Bahnen fungieren, die aus dem visuellen, auditiven, taktilen, motorischen und anderen modalitätsspezifischen Bereichen stammen – zu den wichtigsten Bereichen für die Verarbeitung von Wortbedeutungen gehören, was ihren zuvor veröffentlichten Vorschlag eines hierarchischen Systems von Konvergenzzonen für die Begriffsrepräsentation unterstützt.
© Psylex.de – Quellenangabe: The Journal of Neuroscience (2022). DOI: 10.1523/JNEUROSCI.1243-21.2022