Am 2. Februar 2025 13:13:16 MEZ schrieb "Ingo Tessmann über PhilWeb"
<philweb(a)lists.philo.at>at>:
Am 01.02.2025 um 20:18 schrieb Claus Zimmermann
über PhilWeb <philweb(a)lists.philo.at>at>:
Die mail vom 28.01.25 um 19:56 ist durch Hin- und Zurückkopieren bis zur
Unverständlichkeit durcheinandergeraten. Wie folgt ergibt es hoffentlich mehr Sinn:
Wenn die Farbe oder der Geschmack die Summen sind - was sind denn dann die Summanden?
Auch bei eine Melodie wären es nicht die Töne. Die kann man alle kennen, ohne eine Ahnung
von der Melodie zu haben.
"Pferd" ist allerdings ein in einem Wort zusammengefasstes Zuschreibungsbündel,
das eine längere Beschreibung ersetzt.Diese Beschreibung oder Zuschreibung ist auch für
jemanden verständlich, der noch nie ein Pferd gesehen hat. Hier liegt das Verstehen nicht
in der Erfahrung. Was bei einer Farbe so leider nicht funktioniert, sonst liesse sich
Farbenblindheit kostengünstig sprachlich therapieren.
Die Frage, was der Erfahrung physisch im kleinsten auf Quantenebene korrespondiert - also
welche Alltagserfahrung welcher Laborerfahrung - ist von der zu unterscheiden, worum es
sich bei der Alltagserfahrung handelt. Zu wissen, was auf Quantenebene geschieht bedeutet
nicht, zu sehen oder zu hören.
Moin Claus,
wir haben hier ja schon wiederholt über Töne und Melodien geschrieben und waren uns wohl
einig geworden, dass Töne notwendig, aber nicht hinreichend für eine Melodie sind. Du
siehst den Zusammenhang ähnlich wie bei Farbe und Geschmack oder der Gesichtserkennung. In
der Musik geht es ja nicht nur um Melodie, sondern auch um Rhythmus, in dem Schlagmuster
vorkommen. Verallgemeinert ginge es um Mustererkennung. Dabei sollen Melodien bei
Ungeübten nach Eckart Altenmüller ("Melodien im Kopf") eher in der rechten und
Rhythmen in der linken Hirnhälfte verarbeitet werden:
„Vergleicht ein musikalischer Laie unterschiedliche Tonhöhen, sind der rechte hintere
Stirnlappen und die rechte obere Schläfenlappenwindung aktiv. Dabei scheint die
Stirnregion eher den Unterschied zwischen den Tonhöhen festzustellen, während im
Schläfengebiet offenbar das auditive Arbeitsgedächtnis sitzt, das Töne zu
Vergleichszwecken speichert. Bei längeren Störreizen zwischen den beiden zu
vergleichenden Tönen werden auch die mittlere und die untere Schläfenlappenwindung
einbezogen. Dort verarbeiten wir dementsprechend komplexe oder länger im Gedächtnis zu
haltende musikalische Strukturen. Der große Unterschied bei Berufsmusikern ist nun, dass
bei ihnen die linke Hemisphäre verstärkt aktiv wird, wenn sie Tonhöhen unterscheiden
oder Akkorde wahrnehmen. Profis verschieben also einen Teil ihrer Gehirnarbeit beim Hören
von Tönen von rechts nach links. Hören wir nicht nur einzelne Töne oder Akkorde,
sondern ganze Melodien, setzen wir wiederum andere Gehirnteile in Gang: Zusätzlich zur
primären und sekundären Hörrinde sind nun auch auditive Assoziationsgebiete in der
oberen Schläfenlappenwindung tätig – wieder vor allem in der rechten Hirnhälfte.
Wenn musikalische Laien einfache rhythmische Beziehungen verarbeiten – so etwa das
Verhältnis der Tonlängen 1:2:4 oder 1:2:3 –, nutzen sie so genannte prämotorische, also
bewegungsvorbereitende Regionen sowie teile des Scheitellappens der linken Hirnhälfte.
Sind die Zeitverhältnisse komplexer (etwa 1:2,5:3,5), müssen prämotorische und
Stirnlappenregionen auf der rechten Seite aktiv werden. In beiden Fällen arbeitet
außerdem noch das Kleinhirn mit – in bester Übereinstimmung mit der verbreiteten
Auffassung seiner Bedeutung als ‚Zeitgeber‘. Wieder zeigte sich bei einer Untersuchung von
Musikstudenten ein anderes Bild: Hier waren beim Unterscheiden von Rhythmen oder Metren
teile des Stirnlappens und des Schläfenlappens auf der rechten Seite am aktivsten. Wenn
es also um rhythmische Beziehungen geht, ist die Situation gerade umgekehrt wie bei
Tonhöhen: Musikalisch untrainierte verarbeiten sie auf der linken Seite, Geübte eher
rechts."
Aber wie weit reichen die Analogien zwischen den Sinnen? Worte ebnen vergleichend ein,
aber was liegt den Sinneserfahrungen jeweils vergleichend zugrunde? Im Neocortex werden
alle Sinne in gleicher Weise verarbeitet, lediglich ihre Herkunft unterscheidet sie
ortsgebunden nach der Modalität. Wann wird aus einer Karikatur ein erkennbares Gesicht,
aus einer Tonfolge eine Melodie, aus einer Photonenfolge eine Farbe? Inwiefern lassen sich
Farbenblindheit und Amusie vergleichen? Erstere entsteht bereits im Auge, letztere erst im
Gehirn.
Vergleichbar ist beides m.E. wie gesagt insofern als eine Erklärung oder Umschreibung
nicht die Erfahrung ersetzen kann. (Worte scheinen überhaupt wie I-Pünktchen auf der
Erfahrung zu sein, da sie sich zwar oft durch andere Worte erklären lassen, diese
Erklärungen aber, wenn man weiterfragt "und was bedeutet das?" irgendwann nur
noch durch eine wortlose Demonstration beantwortet werden können, die dann verstanden wird
oder nicht.)
Dass Melodien und Rhythmen im Gehirn erkannt werden, könnte damit zusammenhängen, dass
dabei Einheiten gebildet werden. Eher eine kognitive als sinnliche Leistung.
Claus
Technischen Reproduktionen bleiben unserem Erleben
äußerlich, aber wie erfolgt der Umschlag vom Äußerlichen ins Innerliche? Im Kinderlabor
geht es u.a. um Brahmsens Klaviertrio in h-dur und den Schwan Saint-Saens;
https://mediandr-a.akamaihd.net/progressive/2023/0321/TV-20230321-1539-5100…
<https://mediandr-a.akamaihd.net/progressive/2023/0321/TV-20230321-1539-5100.1080.mp4>
Veranschaulichen lassen sich Melodien ihren Tonhöhen nach zeichnerisch durch Linien und
elektronisch durch Schallwellenformen. „Ein physiologisch gehörgerechtes Verfahren zur
automatisierten Melodietranskription" hat Thorsten Heinz in seiner Diss. vorgelegt:
https://www.db-thueringen.de/servlets/MCRFileNodeServlet/dbt_derivate_00009…
<https://www.db-thueringen.de/servlets/MCRFileNodeServlet/dbt_derivate_00009090/ilm1-2006000055.pdf>
Ziel der Arbeit war die Entwicklung eines Melodieerkennungssystems via Query by Humming
(QbH). Darauf basierende Apps sind ja unterdessen weit verbreitet.
„Zur Psychologie des Rhythmus – Präzision und Synchronisation bei Schlagzeugern“ hat Timo
Fischinger geforscht:
https://www.timofischinger.de/publikationen/
<https://www.timofischinger.de/publikationen/>
Nach Fischinger gibt es kein separates Zentrum für Rhythmusverarbeitung und erst in einem
Zwei-Wege-Modell ist es möglich, rhythmisches Timing-Verhalten beim Musizieren sinnvoll zu
untersuchen.
IT