Aufmerksamkeit wirkt sich unterschiedlich auf die Kodierung akustischer und phonetischer Merkmale in einer Umgebung mit mehreren Sprechern aus
19.12.2021 In einem überfüllten Raum, in dem sich viele Menschen unterhalten, wie z. B. bei einer Geburtstagsfeier im Kreise der Familie oder in einem belebten Restaurant, hat unser Gehirn die Fähigkeit, die Aufmerksamkeit auf einen einzigen Sprecher zu richten.
Dieses Szenario und die Art und Weise, wie das Gehirn Reize wie Sprache und Musik verarbeitet, sind Forschungsschwerpunkte von Edmund Lalor am University of Rochester Medical Center.
Verarbeitung der Gesprächsakustik
Kürzlich hat sein Labor einen neuen Hinweis darauf gefunden, wie das Gehirn diese Informationen zu entpacken und bewusst einen Sprecher zu hören vermag, während es einen anderen Sprecher ausblendet oder ignoriert.
Das Gehirn unternimmt einen zusätzlichen Schritt, um die Wörter des Sprechers zu verstehen, dem es zuhört, und macht diesen Schritt nicht bei den anderen im Raum herumschwirrenden Wörten. Die Ergebnisse deuten darauf hin, dass die Akustik sowohl des beachteten als auch des unbeachteten Gesprächs ähnlich verarbeitet wird, sagt Lalor. Aber die Forscher haben festgestellt, dass es einen klaren Unterschied zwischen dem gibt, was als nächstes im Gehirn passiert.
Umwandlung in Phoneme
Für diese im Journal of Neuroscience veröffentlichte Studie hörten die Teilnehmer gleichzeitig zwei Geschichten, sollten aber ihre Aufmerksamkeit nur auf eine richten.
Anhand von EEG-Aufzeichnungen der Gehirnströme stellten die Forscher fest, dass die Geschichte im Fokus (also worauf die Aufmerksamkeit gerichtet wurde) in sprachliche Einheiten umgewandelt wurde, die als Phoneme bezeichnet werden – das sind Klangeinheiten, die ein Wort von einem anderen unterscheiden können.
Bei der anderen Geschichte geschah dies hingegen nicht. Diese Umwandlung ist der erste Schritt zum Verständnis der gehörten Geschichte, so Lalor.
Klänge müssen bestimmten sprachlichen Kategorien wie Phonemen und Silben zugeordnet werden, damit wir letztendlich bestimmen können, welche Wörter gesprochen werden – auch wenn sie unterschiedlich klingen, z. B. wenn sie von Menschen mit unterschiedlichen Akzenten oder unterschiedlichen Stimmlagen gesprochen werden.
Unsere Forschung hat gezeigt, dass wir – fast in Echtzeit – Signale entschlüsseln können, um genau herauszufinden, wem man seine Aufmerksamkeit schenkt, fasst Lalor zusammen.
© Psylex.de – Quellenangabe: The Journal of Neuroscience (2021). DOI: 10.1523/JNEUROSCI.1455-20.2021
Ähnliche Artikel / News / Themen
- Hören und das Gehirn
- Hirn unterscheidet natürliche Stimmen von Deepfake. Macht das Gehirn beim Verarbeiten von natürlichen Stimmen im Vergleich zu ihren Deepfake-Imitationen einen Unterschied?