Wie wir zwischen Musik und sprachähnlichen Geräuschen unterscheiden

Das menschliche Gehör nutzt die Amplitudenmodulation, um Musik von Sprache zu unterscheiden

Wie wir zwischen Musik und sprachähnlichen Geräuschen unterscheiden

29.05.2024 Musik und Sprache gehören zu den häufigsten Arten von Klängen, die wir hören. Aber wie erkennen wir die vermeintlichen Unterschiede zwischen den beiden?

Ein internationales Forscherteam hat diesen Prozess in einer Reihe von Experimenten nachgezeichnet – und dabei Erkenntnisse gewonnen, die ein mögliches Mittel zur Optimierung von Therapieprogrammen darstellen, die Musik zur Wiedererlangung der Sprachfähigkeit bei Aphasie einsetzen.

„Obwohl sich Musik und Sprache in vielerlei Hinsicht unterscheiden, von der Tonhöhe über die Klangfarbe bis hin zur Klangtextur, zeigen unsere Ergebnisse, dass das auditorische System auffallend einfache akustische Parameter verwendet, um Musik und Sprache zu unterscheiden“, erklärt Andrew Chang, Postdoktorand am Fachbereich Psychologie der New York University und Hauptautor der Studie, die in der Fachzeitschrift PLOS Biology erschienen ist. „Insgesamt klingen langsamere und gleichmäßige Soundclips aus reinem Rauschen eher wie Musik, während die schnelleren und unregelmäßigen Clips eher wie Sprache klingen.“

Hertz von Musik und Sprache

Wissenschaftler messen die Geschwindigkeit von Signalen mit präzisen Maßeinheiten: Hertz (Hz). Eine größere Hz-Zahl bedeutet eine größere Anzahl von Ereignissen (oder Zyklen) pro Sekunde als eine niedrigere Zahl.

Zum Beispiel gehen Menschen normalerweise mit 1,5 bis 2 Schritten pro Sekunde, was 1,5-2 Hz entspricht. Der Beat von Stevie Wonders Hit „Superstition“ aus dem Jahr 1972 hat eine Frequenz von etwa 1,6 Hz, während Anna Karinas Hit „Roller Girl“ aus dem Jahr 1967 eine Frequenz von 2 Hz hat. Sprache hingegen ist mit 4-5 Hz in der Regel zwei- bis dreimal so schnell wie diese.

Es ist gut dokumentiert, dass die Lautstärke eines Liedes im Laufe der Zeit – die sogenannte „Amplitudenmodulation“ – relativ konstant bei 1-2 Hz liegt. Im Gegensatz dazu liegt die Amplitudenmodulation von Sprache typischerweise bei 4-5 Hz, d. h. die Lautstärke ändert sich häufig.

Trotz der Allgegenwärtigkeit und Vertrautheit von Musik und Sprache wussten Wissenschaftler bisher nicht genau, wie wir einen Klang mühelos und automatisch als Musik oder Sprache identifizieren.

Die Studie

Um diesen Prozess in ihrer Studie besser zu verstehen, führten Chang und Kollegen eine Reihe von vier Experimenten durch, bei denen mehr als 300 Teilnehmer eine Reihe von Audiosegmenten mit synthetisch erzeugten musik- und sprachähnlichen Geräuschen unterschiedlicher Amplitudenmodulationsgeschwindigkeit und Regelmäßigkeit hörten.

Die Geräuschclips erlaubten nur die Erkennung von Lautstärke und Geschwindigkeit. Die Teilnehmer sollten beurteilen, ob diese mehrdeutigen Geräuschclips, von denen ihnen gesagt wurde, dass es sich um geräuschmaskierte Musik oder Sprache handelte, wie Musik oder Sprache klangen.

Die Beobachtung des Musters, nach dem die Teilnehmer Hunderte von Geräuschclips entweder als Musik oder als Sprache einordneten, zeigte, wie sehr jedes Geschwindigkeits- und/oder Regelmäßigkeitsmerkmal ihre Beurteilung zwischen Musik und Sprache beeinflusste.

Die Wissenschaftler kommen zu dem Schluss, dass dies die auditive Version des „Gesichter in der Wolke sehen“ ist: Wenn es ein bestimmtes Merkmal in der Soundwelle gibt, das mit der Vorstellung der Hörer übereinstimmt, wie Musik oder Sprache sein sollte, kann sogar ein weißer Rauschclip wie Musik oder Sprache klingen.

Die Ergebnisse zeigten, dass unser Hörsystem überraschend einfache und grundlegende akustische Parameter verwendet, um zwischen Musik und Sprache zu unterscheiden: Für die Teilnehmer klangen Clips mit langsameren Frequenzen (<2 Hz) und regelmäßigerer Amplitudenmodulation eher wie Musik, während Clips mit höheren Frequenzen (~4 Hz) und unregelmäßigerer Amplitudenmodulation eher wie Sprache klangen.

Aphase Rehabilitationsprogramme

Das Wissen darüber, wie das menschliche Gehirn zwischen Musik und Sprache unterscheidet, könnte Menschen mit Hör- oder Sprachstörungen wie Aphasie zugute kommen, merken die Autoren an. Die melodische Intonationstherapie ist beispielsweise ein vielversprechender Ansatz, um Menschen mit Aphasie beizubringen, das zu singen, was sie sagen wollen, indem sie ihre intakten „musikalischen Mechanismen“ nutzen, um die beschädigten Sprachmechanismen zu umgehen.

Wenn man also weiß, was Musik und Sprache im Gehirn ähnlich oder unterschiedlich macht, kann man wirksamere Rehabilitationsprogramme entwickeln.

© Psylex.de – Quellenangabe: PLoS Biology (2024). DOI: 10.1371/journal.pbio.3002631

Weitere Infos, News dazu

Was denken Sie darüber? Oder haben Sie Erfahrungen damit gemacht?


Aus Lesbarkeitsgründen bitte Punkt und Komma nicht vergessen. Vermeiden Sie unangemessene Sprache, Werbung, themenfremde Inhalte. Danke.