Academia.eduAcademia.edu

Musikalische Akustik

Mit einem Minimum an mathematischen Formeln und in leicht verständlicher Sprache bietet das vorliegende Buch auf dem aktuellen Stand der Forschung eine grundlegende Einfüh-rung in die einzelnen Fachgebiete der Musikal ischen Akustik (Instrumenten-, Raum-und Psychoakustik, Auditorische Szenenanalyse, Musikalische Wahrnehmung und Klangsyn-these) sowie in die Geschichte, Perspektiven und Methoden dieses vielschichtigen Bereichs der Musikwissenschaft. Am Beispiel einer Konzertsituation wird der Weg von der Schallerzeugung am Musikinstru-ment bzw. der Singstimme über die Schallausbreitung im Raum bis hin zum Ohr des Zuhörers und der dahinter stattfindenden kognitiven und alltagsrelevanten Schallverarbeitung erläu-tert. Hierbei werden sowohl die aktuellen Messmethoden und akustischen Ana lyseverfahren berücksichtigt als auch die Funktionsweise und Geschichte der elektronischen Musikinstru-mente und der modernen Audiotechnik.

UBWien FB Mu sikwissenschaft 8-18151 /16 Qセ@ Qセ Q Q@ セ Q@ セQ Q @ ijll\ セ Q Q@ MUSIKALISCHE AKUSTIK Zum Buch Mit einem Minimum an mathematischen Formeln und in leicht verständlicher Sprache bietet das vorliegende Buch auf dem aktuellen Stand der Forschung eine grundlegende Einführung in die einzelnen Fachgebiete der Musikal ischen Akustik (Instrumenten-, Raum- und Psychoakustik, Auditorische Szenenanalyse, Musikalische Wahrnehmung und Klangsynthese) sowie in die Geschichte, Perspektiven und Methoden dieses vielschichtigen Bereichs der Musikwissenschaft. Am Beispiel einer Konzertsituation wird der Weg von der Schallerzeugung am Musikinstrument bzw. der Singstimme über die Schallausbreitung im Raum bis hin zum Ohr des Zuhörers und der dahinter stattfindenden kognitiven und alltagsrelevanten Schallverarbeitung erläutert. Hierbei werden sowohl die aktuellen Messmethoden und akustischen Ana lyseverfahren berücksichtigt als auch die Funktionsweise und Geschichte der elektronischen Musikinstrumente und der modernen Audiotechnik. Die Herausgeber Die Herausgeber sind als Professoren für Systematische Musikwissenschaft an den Universitäten Halle-Wittenberg (Wolfgang Auhagen) und Wien (Christoph Reuter) tätig. MUSIKALISCHE AKUSTIK Kompendien Musik - Die Reihe Musikphilosophie Was ist Musik? Instrumentenkunde Musikgeschichte Musiksoziologie Populäre Musik Musikphilologie Systematische Musikwissenschaft Musik und Medien Musik beschreiben Musiktheorie Musikalische Akustik und Wolfgang Auhagen Musik und Gender Musikpädagogik Musikethnologie Musik aufführen ISBN 978-3-89007-736-9 Laaber www.laaber-verlag.de Herausgegeben von Christoph Reuter Kompendien Musik Band 16 Musikalische Akustik Herausgegeben im Auftrag der Gesellschaft für Musikforschung durch Detlef Altenburg Wolfgang Auhagen Gabriele Buschmeier Rebecca Grotjahn Dörte Schmidt Herausgegeben von Christoph Reuter und Wolfgang Auhagen PENDIEN K::.JO-·. MUSIK Laaber INHALTSVERZEICHNIS Einführung Von Wolfga ng Auhagen und Christoph Reuter 1. 9 Hinweise zur Benutzung des Bandes 13 Die Musikalische Akustik 14 1.1 Die Musikalische Akustik - Eine Übersicht Von Christoph Louven 15 1.2 Geschichte der musikbezogenen Akustik Von Roland Eberlein 19 1.3 Grundlagen der Schwingungs- und Wellenlehre Von Michael Steppat Bibliographische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliographie; detaillierte bibliogra phische Daten sind im Internet über <http://dnb.ddb.de/> abrufbar. © 2014 by Laaber-Verlag, Laaber. Alle Rechte vorbehalten Printed in Germany I Imprime en Allemagne ISBN 978- 3-89 007-736-9 Umschl aggestaltung: Susanne Böhm, Regensburg Layo ut: Michael Hagleitner, Wien 35 1.3.1 Grundgrößen von Schwingungen 35 1.3.2 Schallausbreitung 42 1.3.3 Überlagerung von Wellen 46 1.3.4 Gestörte Scha ll ausbreitung 48 1.3.5 Schwingungen von Saiten 51 1.3.6 Schwingungen von Platten und Stäben 55 1.3 .7 Gekoppelte Schwingungssysteme bei Saiteninstrumenten 56 1.4 Untersu chungsmethoden Von Wilfried Kausel 58 1.4.1 M essverfahren der Musikalischen Akustik 58 1.4.2 W ellenfeldanalyse 64 1.4.3 M essungen an Musikinstrumenten 65 1.4.4 M essungen an Musikern 78 1.4.5 Rekonstruktion von Musikinstrumenten 79 www. laaber-verlag. de 5 Inhaltsverzeichnis Inhaltsverzeichnis 1.5 Hörexperimente Von Wolfgang Auhagen 2. 2.4 Der Raum Von Stefan Weinzierl 81 1.5 .1 Gütekriterien 81 1.5.2 Explorative Hörexperimente 82 1.5.3 Hypothesenprüfende Hörexperimente 83 1.5.4 Klassifizierung von Hörexperimenten 84 1.5.5 Auswertung von Hörexperimenten 86 Ausgangssituation: Das Konzert mit »klassischer« Musik 88 Von Gregor Widholm 2.4.2 Musikalische Raumwirkung und Messgrößen 154 2.4.3 Raumakustische Planung und Qualitätsparameter 156 2.5 .1 Grund lagen der Schallwahrnehmung 2.5.2 Tonhöhenwahrnehmung 2.5.3 Lautstärkenwahrnehmung 89 89 2.1.2 Holzblasinstrumente 103 2.1.3 Streichinstrumente 110 2.1.4 Schlaginstrumente (Pauken) 121 2.5 .4 Klangfarbenwahrnehmung 2.6 Auditorische Szenenanalyse Von Michael Oehler 2.6.1 Primitive und schemabasierte Prozesse 2.6.2 Stream Segregation 2.2 Intonation in der abendländischen Musik Von Jobst P. Fricke 126 2.2.1 Der Konzertbesuch 126 2.3 Die Gesangsstimme - Sängerinnen und Sänger 2.7.3 Konsonanz, Harmonie und Tonalität 135 2.3.2 Intonationsgenauigkeit und Vibrato 137 2.7.2 Rhythmus und Tempo 2.3.3 Klangliche Charakteristika 138 2.3.4 Stimmfächer und Dynamik 142 2.3.5 Sprachverständlichkeit 142 2.3.6 Schallabstrahlung 143 2.3. 7 Ak ustik im Chor 145 2.7.4 Fazit 3. 179 189 195 196 198 216 2.7.1 Melodie 2.3.1 Tonerzeugung 171 2.6.4 Continuity Illusion Von Kathrin Schlemmer 133 164 211 2. 7 Akustik und Alltagswissen über Musik 127 161 2.6.3 Cocktailparty-Effekt und räumliche Wahrnehmung 2.2.3 Die Zusammenhänge im Einzelnen mit ausgesuchten experimentellen 130 Ergebnissen Von Harald Jers 6 149 Von Christoph Reuter 2.1.1 Blechblasinstrumente 2.2.2 Die Komplexität des Zusammenspiels sehr unterschiedlicher Faktoren 2.4.1 Scha ll ausbreitung im Raum: Modelle, Einflussgrößen und Messverfahren 2.5 Der Zuhörer 2.1 Die Orchesterinstrumente 148 Das Konzert mit elektroakustischer Musik 3.1 Frühgeschichte der elektrischen Musikinstrumente Von Peter Donhauser 3.1.1 Einführung 3.1.2 Elektro-mechanische Instrumente 218 219 223 227 232 234 235 235 236 7 Inhaltsverzeichnis 3.1.3 Elektro-akustische Instrumente 248 3.1.4 Instrumente mit rein elektrischen Generatoren 252 3.1.5 Sequenzer und Sampler 259 3.1.6 Neu erwachtes Interesse an historischer Analogtechnik 260 3.1. 7 Schlussbemerkung 261 3.2 Analoge und digitale Syntheseverfahren, MIDI und Sampling Von Bernd Enders 262 3.2.1 Elektronische Syntheseformen 262 3.2.2 Sound Sampling und Resynthese 277 3.2.3 MIDI 284 3.2.4 Digitale Musikproduktion 298 3.3. Die Audiotechnik Von Stefan Weinzierl 302 3.3.1 Schallwandler (Mikrofon, Lautsprecher) 303 3.3.2 Audiowiedergabe 310 3.3.3 Audioübertragung, Kodierung, Speicherung 314 Anhang Glossar 321 Literaturverzeichnis 326 Register 347 Die Autorinnen, Autoren und Herausgeber 353 Einführung Von Wolfgang Auhagen; Christoph Reuter »Musik wird oft nicht schön gefunden, weil sie stets mit Geräusch verbunden «.' Dieses bekannte Zitat von Wilhelm Busch macht auf simple Weise deutlich, was häufig bei Betrachtungen über Musik vergessen wird. Für die meisten Menschen ist die klingende Erscheinungsfo rm von Musik die wichtigste, und diese umfasst tatsächlich eine große Vielfalt an Schallereignissen, vo m wohltönenden Klang über charakteristisch e Geräusche, die beim Spielen von Musikinstrume nten unvermeidlich auftreten, bis hin zu störenden Echos und Klangfärbungen in akustisch ungünstigen Aufführungsort en. Musik und Wissenschaft vom Schall haben also viel miteinander zu tun, auch wenn die Akustik ein Untergebiet der Physik ist. So verwundert es auch nicht, dass seit dem 17. Jahrhundert, in dem die Naturwissensch aften an Bedeutung gewannen, große Musiklehren stets Abschnitte zur Physik des Schalls und dessen Wahrnehmung enthielten.' Im 19. Jahrhundert unternahm es Hermann von Helmholtz, die Musik und einige ihrer theoretischen Grundlagen auf ihre akustischen Phänomene zurückzuführen .' In den folgenden Jahrzehnten führten allerdings Ergebnisse von Untersuchunge n diverser Musikkulturen der Welt, die mit Hilfe des Phonographen möglich geworden waren, dazu, dass die physikalischen Grundlagen von Musik gegenüber den sozialen und kulturellen Rahmenbeding ungen in den Hintergrund traten. Zu unterschiedlich waren die Musikaufnahm en, die man sammelte, als dass man der Akustik noch eine große Bedeutung zur Erklärung musikalischer Phänomene beimessen konnte. So verschwanden auch umfangreichere Abschnitte zur Akustik aus Musiklehren. Erst in der jüngeren Zeit hat sich die Musikwissensc haft wieder verstärkt mit akustischen Fragestellungen auseihandergesetzt. Die systemische Betrachtungsweise von Musik und Musikkulturen, der zufolge die Bereiche der Musikproduktion (einschließlich ihrer musiktheoretisc hen Grundlagen) und Musikrezeption miteinander interagieren,' hat sich als sehr gewinnbringen d erwiesen, um beispielsweise die bauliche Entwicklung von Musikinstrume nten 1 2 3 4 8 W. Busch (1872), »Der Maulwurf«. Siehe z.B.: M. Mersenne (1636), Harmo11ie Universelle; A. Kircher (1650), Musurgia U11iversalis; .J. Mattheson (1739), D er vollkommene Capellmeister. H.v. Helmhol tz (1863), Die Lehre von den Tonempfindungen. Siehe hierzu: J.P. Fricke (1998), Systemische Musikwissenschaft . 9 Wolfgang Auhagen; Christoph Reuter II im Verlauf der Geschichte erklären zu können und Regeln zur Instrumentierung von Kompositionen wissenschaftlich untermauern zu können.' Geht man also davon aus, dass sich Musik nicht unabhängig von den Bedingungen ihrer klanglichen Realisierung entwickelte und dass gerade in einer Zeit in der Musik überwiegend über Reproduktionstechnik konsumiert wird, den Zusamzwischen physikalischen Parametern von Schallereignissen und セ・ョィ¦ァ@ ihren Wahrnehmungskorrelaten eine große Bedeutung zukommt, so erscheint es als no_twendig, im Rahmen einer Buchreihe zu musikbezogener Forschung 10 allen ihren unterschiedlichen Richtungen auch einen Band der Akustik zu widmen. Wie bei den anderen Bänden der Kompendien-Reihe, wird auch in diesem auf Verständlichkeit der Darstellung großer Wert gelegt. Daher werden bセョ、⦅@ nicht entsprechend einer Systematisierung T?emen des セ。ョ、・ウ@ die ・ュコャョセ@ die sICh an akustischen bzw. psychoakustischen Parametern orienセ・ィ。ョ、ャエL@ tiert. Vielmehr wird - nach einer Einführung in die Geschichte akustischer Forschung, in grundlegende Konzepte und Methoden sowie in die akustische die Situation eines Konzertbesuchers zum Ausgangspunkt get・イュゥョッャァセ@ nommen. In emem Konzert mit »klassischer « Musik sind Musikinstrumente zu hören, die sich z.T. über Jahrhunderte hinweg entwickelt haben und die für eine bestimmte Art von Musik »optimiert « wurden, sei es, dass ウ_コセ。ァ・ョ@ sie im Zusammenspiel einen farblich differenzierten, aber als homogen empfundenen Gesamtklang produzieren, sei es, dass sie als Einzelinstrumente aus hervortreten können . Die verschiedenen Klangfarben und dem g・ウセュエォャ。ョァ@ A_rt1kulat1onsweisen der einzelnen Musikinstrumente werden zum einen durch die Art_ ihrer Schwingungsanregung individuell geprägt (vor allem auch durch selbst) und zum anderen durch ihre Materialbeschaffenheit. Bei den sーQセャ・イ@ den meisten Instrumenten unseres Symphonieorchesters (d .h. bei den HolzBlechblasinstrumenten) geschieht diese Anregung in periodischen Abュセ、@ standen mehrere hundert bis tausend Mal in der Sekunde, und die dabei entSchwingungen werden, bedingt durch die instrumenteneigenen Reウエ・ィョ、セ@ an die Umgebung abgestrahlt. Im Abschnitt »Die Muウ_セ。ョコ・Qァ」ィヲエL@ werden die Funktionsweisen beschrieben, die die Orchesterセゥォュウエイオ・ョᆱ@ mstrumente zum Klingen bringen und die den Klang der einzelnen Instrumente maßgeblich beeinflussen. Gleiches gilt auch für »Die Singstimme«, die im ebenfalls wie ein (Blas-)lnstrument betrachtet werden kann, aufgrund セイオョ、・@ ihrer komplexen Artikulationsmöglichkeiten jedoch eine Sonderstellung unter 5 Siehe hierzu: Chr. Reuter (2002), Klangfarbe und Instrnmentatio11. 10 Einführung Sing、・セ@ Auch das セャ。ョ_ゥ、・@ den musikalischen Klangerzeugern ・ゥョュセN@ t·mrnen hat sich im Laufe der Zeit so entwickelt, dass die Stimmen mit dem Q verschmelzen können, sich andererseits aber auch - sogar in セ イ」ィ・ウエォャ。ョァ@ olistischer Besetzung - gegenüber einem Orchester behaupten können. SoSingstimme als auch Musikinstrumente werden in der abendländischen セッィャ@ _klare ウ エ@ eindeutigen tッョャセ￶ィ・@ Musik mit dem Ziel eingesetzt, mit ュ￶ァャゥ」セ Melodielinien zu erzeugen. Sowohl dem Musiker als auch dem Horer wird es oft nicht bewusst, wie stark die Schwankungsbreiten bei der Tonerzeugung sein können, ohne dass eine Abweichung von der Stimmung überhaupt auffällt oder als störend empfunden wird. Es ist sogar so, dass ein Klang als weGrenniger natürlich empfunden wird, wenn seine Ton?öhe nicht in セ・キゥウョ@ zen schwankt oder nicht von der vereinbarten Stimmung abweICht. Da dieser Sachverhalt für die Musikproduktion und -wahrnehmung gleichermaßen essentiell ist, jedoch in den meisten Lehrbüchern höchstens nur am _Ran_de セイᆳ wähnt wird, ist der »Intonation in der Praxis abendländischer Musik« m diesem Handbuch ein eigenes Kapitel gewidmet. Der Konzertbesucher wird sich vielleicht fragen, wie es eigentlich möglich ist, dass er auch auf weiter von der Konzertbühne entfernten Sitzplätzen noch ein differenziertes Klangbild hat, aber möglicherweise auf einigen Plätzen das Hörerlebnis deutlich schlechter ausfallt. Der Raum prägt den Klang, die Musikwahrnehmung und auch den Eindruck des Zusammenspiels in einer nicht zu unterschätzenden Art und Weise. Die einzelnen raumakustischen Faktoren und Einflussgrößen, die das symphonische Zusammenspiel erst zu einem richtigen Konzerterlebnis werden lassen, finden im Abschnitt »Der Raum « ihre Erläuterung. Wie oben angedeutet, wird das Hörerlebnis natürlich nicht nur von der Seite der Klangproduktion und Klangübertragung her geprägt. Erwartungshaltungen eines Hörers, Hörgewohnheiten mit Vorlieben und Abneigungen und Wissen über die gehörte Musik spielen ebenso eine Rolle wie die Schallverarbeitung durch das menschliche Gehör. Daher sind einige Abschnitte des Kompendiums der Psychoakustik und der Musikpsychologie gewidmet. So geht es im Abschnitt über den Hörer um Gehörseigenschaften, die die Tonhöhen-, Lautstärke- und Klangfarbenwahrnehmung ermöglichen, jedoch auch stark beeinflussen . Besonders die Verdeckungseigenschaften des Gehörs, die bewirken, dass je nach Tonhöhe und Lautstärke schwächere Klänge von stärkeren ganz oder teilweise verdeckt werden, sind für die Wahrnehmung von zusammenspielenden Instrumenten von essentieller Bedeutung. Es liegt auf der Hand dass sich die Orchesterinstrumente so entwickelt haben, dass sie genau auf die Gehörseigenschaften von Musizierenden und Hörern zugeschnitten sind, so dass sie bei aller Transparenz und ohne nennenswerte Beeinträchti- 11 Einführung Wolfgang Au hagen; Christoph Reuter gung der anderen Klangfarben im Zusammensp iel ihre volle individuelle Klangfülle entfalten und gleichzeitig mit den passenden Instrumente n eine klanglich verschmelzende Verbindung eingehen können. In musikpsychologischer Hinsicht hängt die musikalische Wahrnehmu ng und auch der damit verbundene Genuss besonders vom Alltagswissen des Hörers ab. Unter »Alltagswissen « verstehen die Herausgeber hierbei solches Wissen, das nicht durch die Lektüre entsprechen der wissenschaft licher Arbeiten erworben wurde, sondern beispielsweise durch Medienberic hte oder durch den Versuch, selbst nach Erklärungen für bestimmte Phänomene zu suchen. Der vermutete Zusammenh ang zwischen »Obertönen « und musikalische r Harmonie ist ein Beispiel für ein solches »Alltagswissen «. In dem entsprechend en Abschnitt wird der Frage nachgegangen, inwieweit die Akustik dazu beitragen kann, musikalische Strukturen und musiktheore tische Konzepte zu erklären. Hiermit wird also die oben erwähnte Diskussion über die »natürlichen « und »kulturellen « Grundlagen von Musik aufgegriffen. Eine ähnliche, aber doch in wesentlichen Details andere Situation a ls im Konzertsaal erlebt ein Hörer z.B. bei einem Rock-Konzert. Als Schallsender fungieren hier Verstärker-/ Lautspreche r-Anlagen, und viele Klangerzeuger arbeiten ebenfa lls auf der Basis von elektrischer bzw. elektronisch er Klangerzeugung. Eine den Stücken angemessene Mischung von Klängen muss hier a lso sozusagen im Nachhinein vorgenomm en werden. Somit stell en sich andere Fragen a ls bei »traditionell en « Musikinstru menten, z.B. nach Möglichkeit en der Klangsynthese, der Aufuahme, Speicherung und Wiedergabe von Klängen. Dementspre chend ist dem Konzert mit elektroakust ischer Musik sowie der Schallaufnah me und Wiedergabe ein eigener Abschnitt gewidmet. Am Ende und schon während der Lektüre wird deutlich, dass sowohl die Produktion als auch die Übertragung , die Wahrnehmu ng, die emotionale Verarbeitung, die Aufuahme, Synthese, Speicherung und Wiedergabe von Mu sik von den Erkenntnisse n, Errungensch aften und Paradigmen der musikalischen Akustik durchdrunge n und getragen wird . Erst in einer kombinierte n , sowohl natur- als auch geisteswissenschaftlichen Herangehensweise, wie sie der musikalischen Akustik spätestens seit Hermann von Helmboltz' »Lehre von den Tonempfind ungen« innewohnt, werden auch die grund legenden Fragen der Musik und ihrer Wissenscha ft offenbar, und ihre Antworten rücken in eine greifbare Nähe. 12 Hinweise zur Benutzung des Bandes Das Kompendiu m Musikalisch e Akustik richtet sich _an Leser, die Interesse an akustischen Fragestellun gen in Zusammenh ang mit Mus1kprodu kt1on オセ、@ -rezeption haben, aber ョゥ」セエ@ unbedingt. über ・ョエウャ_イ」セ、@ Grundlagenw issen verfügen. So ist den beiden Abschmtten zur S1tuat1on e1_nes Konzert?esu hers bei Konzerten mit »klassischer « und mit »elektroakus tischer « Musik em c·nführender Abschnitt vorangestellt, in dem Prinzipien der Schallentste hung セョ、@ -ausbreitung , grundlegende Begriffe und Kenngrößen erläutert und 、セ・@ Geschichte akustischer Forschung in Umrissen skizziert werden. Leser, die über entsprechend es Wissen verfügen, können diesen Abschnitt problemlos überspringen , denn das Kompendium ist so aufgebaut, dass die ・セョコャ@ セー・ᆳ zia lkapitel in sich abgeschlossen und ohne l・ォエイセ@ anderer Kapitel verstandlich sind. Lesern ohne akustisches Grund lagenwissen wird empfohlen, zunächst den einführende n Teil durchzuarbe iten und sich erst danach den jeweils interessieren den Spezialkapit eln zuzuwenden . Ein detailliertes Inhaltsverzeichnis hilft beim Auffinden der relevanten Texte. So kann das Kompendium durchaus als Nachschlage werk genutzt werden. Es ist aber zweifelsohne lohnend, den Band komplett zu lesen. Denn die Auswahl der behandelten Themen und deren Anordnung wurden so konzipiert, dass der Leser am Ende des Buches einen Überblick über den aktuellen Stand der Forschung zur musikalischen Akustik hat, gegli edert nach in_haltlich コオセ@ sammengehö rigen thematische n Feldern. Das Kompendium verzichtet dabei weitgehend auf eine mathematisc he Darstellung カセョ@ ーィケウゥォ。ャセ・ョ@ Vo_rgängen im Bereich der Schwingung en und Wellen. D_1es soll 、セュ@ ュエ・イウQセョ@ Nichtspezialisten den Einstieg in die Thematik erleichtern. Em umfangre1c?es Literaturverz eichnis verweist am Ende des Bandes auf weiterführen de Spezia lliteratur, die zur Vertiefung des Wiss ns herangezoge n werden kann. In den einzelnen Kapiteln werden entsprechend e Hinweise gegeben. 13 1. DIE MUSIKALISCHE AKUSTIK 1.1 Die Musikalische Akustik - Eine Übersicht Von Christoph Louven In der allgemeinsten Definition lässt sich die Akustik als die Wissenschaftsdisziplin beschreiben, die sich mit dem Schall in allen seinen Erscheinu ngsformen und Aspekten beschäftigt. Dies reicht von den physikalischen Grundlagen des Schallphänomens, seiner Entstehung durch verschiedene Arten von Schallerzeugern und seiner Ausbreitung in verschiedenen Medien bis hin zur »Auslöschung« des Schalls infolge der Umwandlung in andere Energieformen. Da es sich beim Schall letztlich immer um eine mechanische Bewegung eines gasförmigen, flüssigen oder festen Mediums handelt, wird in der Physik die Akustik in der Regel als spezialisiertes Teilgebiet der physikalischen Mechanik betrachtet. Die musikalische Akustik fasst diese allgemeine Definition gleichzeitig enger und weiter: - enger, weil sie sich ausschließlich mit denjenigen Schallphänomenen beschäftigt, die für das Ohr des Menschen wahrnehmbar und für das Gesamtphänomen »Musik « von Bedeutung sind. Daher spielt z.B. der nicht vom Ohr wahrnehmbare Ultraschall in der musikalischen Akustik ebenso wenig eine Rolle wie etwa die Analyse von Motorengeräuschen, die zwar wahrnehmbar, aber musikalisch irrelevant sind. - weiter, wei l sie auch einige Bereiche umfasst, die zwar unzweifelhaft zur umfassenden Beschäftigung mit den physikalisch-naturwissenschaf tlichen Grundlagen der Musik gehören, aber anderen physikalischen Teilgebieten wie z.B. der Elektrizitätslehre zuzurechnen sind oder sOgar in andere Wissenschaftsdisziplinen wie z.B. die Psychologie übergreifen . Dazu gehören z.B. die Prinzipien magnetischer Schallaufzeichnung oder die Funktionsprinzipien des • gセN@ Das Gesamtgebiet der musikalischen Akustik gliedert sich in zahlreiche Teilbereiche, die sich mit speziellen Aspekten des musikalischen Schalls beschäftigen. Neben der Betrachtung der physikalischen Grundlagen, die den Schall meist ausgehend von seinen Eigenschaften a ls Schwingung, Welle oder Energieform beschreibt, umfasst dies Teilgebiete, die sich gut anhand der einzelnen Stationen veranschaulichen lassen, die der Schall in einer Konzertsituation von der Erzeugung bis zur Wahrnehmung durchläuft: - Der Schall wird durch speziell dafür geeignete Werkzeuge (Musikinstrumente) bzw. durch die menschliche Stimme erzeugt (Akustik der Musikinstrumente und der menschlichen Stimme) [7 2.1, 7 2.3]. Ein besonderes Gebiet stellen dabei die Musikinstrumente bzw. Klangerzeugungsverfahren dar, 15 Christoph Louven die mit elektrischen, elektronischen oder informationstechnischen Mitteln arbeiten [7 3.1, 7 3.2]. - Der Schall breitet sich durch die Luft aus und wird dabei durch die Gegebenheiten des die Schallquelle umgebenden Raums beeinflusst (Raumakustik) [7 2.4]. - Der Schall trifft auf das menschliche Ohr und wird dort zunächst gemäß den Möglichkeiten und Funktionsprinzipien des Gehörs und der nachgelagerten Hörbahn elementar verarbeitet (Psychoakustik) [7 2.5]. - Im Gehirn werden diese elementaren auditiven Informationen schließlich als musikalisch sinnvolle Wahrnehmungen interpretiert (Musikpsychologie) [7 2.6, 7 2.7]. - Der Schall soll ggf. aufgezeichnet werden und trifft zu diesem Zweck auf Mikrofone und angeschlossene Aufzeichnungsmedien (Prinzipien der Schallwandlung und -speicherung) [7 3.3]. Die Akustik der Musikinstrumente und der menschlichen Stimme [7 2.1, 7 2.3) beschäftigt sich mit den Funktionsweisen der Musikinstrumente und den Prinzipien der Klangfarbenentstehung und -wahrnehmung. Herkömmliche »a kustische « Musikinstrumente besitzen stets mindestens einen schwingfähigen Bestandteil (z.B. eine Saite, eine eingeschlossene Luftsäule oder ein Fell; bei der Stimme die Stimmbänder), der durch eine spezielle Vorrichtung mit Energie versorgt und zum Schwingen angeregt wird (z.B. den Klavierhammer, den Geigenbogen, das Rohrblatt-Mundstück, den Paukenschlägel), und dessen Schwingung dann in Verbindung mit den übrigen Bestandteilen des Instrumentes (z.B. Resonanzboden, Schalltrichter etc.) an die umgebende Luft abgegeben wird . Durch die genaue Kenntnis dieser Zusammenhänge ist es möglich, das Zustandekommen der verschiedenen Instrumentenklangfarben zu erklären, daraus Rückschlüsse auf bauliche Optimierungsmöglichkeiten sowie die historische Entwicklung der einzelnen Instrumente und ihre Bedeutung im Gesamtklang des Orchesters zu ziehen. Einen besonderen Bereich bildet die Beschäftigung mit »Elektrophonen «, also Instrumenten, deren Klangerzeugung elektrisch, elektronisch oder mit ' Hilfe von Computertechnik geschieht [7 3.1, 7 3.2). Hierbei geht es, ähnlich wie bei den »akustischen « Instrumenten, zunächst um die Prinzipien der Klangerzeugung, die bei den verschiedenen Elektrophonen höchst unterschiedlich ausfallen können. Insbesondere bei älteren Instrumenten kommen dabei analoge, d.h. die Schallschwingung direkt beeinflussende, Prinzipien zum Einsatz, bei denen der gewünschte Klang z.B. aus verschiedenen Grundschwingungen neu zusammengesetzt wird (additive Synthese) oder Bestandteile einer komplexen Ausgangsschwingung ausgefiltert werden (subtraktive Synthese). Neuere Instrumente beruhen seit dem Siegeszug der Computer- 16 Die Musikalische Akustik- Eine Übersicht technik meist auf digitalen Prinzipien, d.h. sie arbeiten mit einer mathematischen Beschreibung der Schallschwingung. Diese Digitalisierung bietet völlig neue Möglichkeiten der Klangsynthese und -manipulation, aber auch der Koordination und des Zusammenspiels elektronischer Instrumente (MIDI). Gegenstand der Raumakustik ist die Frage, wie der durch Instrumente oder die Stimme erzeugte Schall auf seinem Weg zum Ohr des Hörers durch den umgebenden Raum beeinflusst wird [7 2.4 ]. Grundsätzlich breitet sich der Schall kugelförmig um die Schallquelle aus, bewegt sich zunächst durch die Luft, trifft irgendwann auf eine Begrenzungsfläche (Wände, Decken, Fußböden), wird dort reflektiert und dabei ggf. abgeschwächt (Absorption) und bewegt sich wieder durch die Luft, bis er auf die nächste Begrenzungsfläche oder irgendwann auf das Ohr des Hörers trifft. Auf diesem Weg kann der Schall zudem durch Hindernisse wie Einrichtungsgegenstände (z.B. Möbel, Säulen) oder auch Personen beeinflusst werden. Die aus verschiedenen Richtungen eintreffenden Reflexionen wirken bei der Erzeugung eines Gesamteindrucks mit dem direkt auf das Ohr des Hörers treffenden Schall zusammen und können diesen dabei sowohl positiv als auch negativ beeinflussen. Die geometrische Raumakustik betrachtet di e Gesetzmäßigkeiten der Reflexion und Beugung der Schallwelle an Begrenzungsflächen und Hindernissen. Es erweist sich für den Gesamteindruck als wünschenswert, dass diese Reflexionen baulich so gesteuert werden, dass sich der Schall möglichst gleichmäßig im Raum verteilt. Insbesondere gekrümmte Wand - und Deckenflächen (z.B. Kuppeln) können dabei problematisch sein, da sie eine Konzentration von Reflexionen an bestimmten Stellen im Raum zur Folge haben können. Die statistische Raumakustik betrachtet nicht einzelne Reflexionen, sondern die Gesetzmäßigkeiten der Verteilung der Schallenergie im gesamten Raum und ihrer Abschwächung durch Absorption in Luft und verschiedenen schallschluckenden Materialien. Zentral für die statistische Raumakustik sind der Begriff des »Nachhalls « und die Frage, welche Nachhallzeiten für verschiedene Nutzungszwecke eines Raums optimal sind. Im Teilbereich Schallwandler und -sfJeicher betrachtet die musikalische Akustik alle Aspekte der Schallaufzeichnung [7 3.3). Da nahezu alle Methoden der Schallaufzeichnung mit elektrischen Signalen arbeiten, muss der Schall in aller Regel vor einer Aufzeichnung mit Hilfe verschiedener Arten von mechanisch-elektrischen Wandlern (Mikrofone) von der mechanischen Luftschwingung in eine elektrische Schwingung umgewandelt werden. Die Akustik beschäftigt sich dabei u.a. mit den Funktionsprinzipien der verschiedenen Wandlertypen und ihrer Verwendung in verschiedenen Aufnahmesituationen. Die erzeugte elektrische Schwingung kann dann entweder unmittelbar als Schwingungsverlauf gespeichert werden (analoge Aufzeichnung), z.B. in Form 17 ' Christoph Louven 1 1 der Ausschläge einer Schallplattennadel, oder sie wird zunächst in eine mathematische Beschreibung umgerechnet und dann als Folge von Binärzahlen (0/1) auf einem Datenträger abgelegt (digitale Aufzeichnung). Bei der Wiedergabe schließlich muss der elektrische Schwingungsverlauf rekonstruiert und dann mit Hilfe von elektrisch-mechanischen Wandlern (Lautsprechern) wieder in hörbaren mechanischen Schall übersetzt werden. Gegenstand der Psychoakustik sind alle Vorgänge der elementaren Schallwahrnehmung, sobald der Schall auf das menschliche Ohr trifft [7 2.5]. Dies umfasst zunächst den Aufbau und die Funktionsprinzipien des Ohres selbst, z.B. der Gehörknöchelchen im Mittelohr oder der Haarzellen auf der Basilarmembran im Innenohr. Das Ohr wandelt die mechanischen Luftschwingungen, die das Trommelfell erreichen, mehrfach um und erzeugt schließlich im Innenohr eine Folge von Nervenimpulsen, die über die Nervenverbindungen der sog. Hörbahn bis in den bewusstseinsfähigen Teil des Gehirns (Cortex) weitergeleitet und dabei vielfältig weiter verarbeitet und umgewandelt werden. Durch die Kenntnis der physiologischen Vorgänge in Ohr und Hörbahn lassen sich bereits wichtige Schlussfolgerungen auf Grundprinzipien der menschlichen Hörwahrnehmung ziehen. Daneben spielt aber auch die experimentelle Untersuchung des menschlichen Hörens für die Psychoakustik eine große Rolle. Hierbei werden Versuchspersonen dazu befragt, welchen Höreindruck sie von verschiedenen Schallreizen haben, z.B. ab welcher Stärke sie Töne verschiedener Frequenz gerade noch wahrnehmen können (dies führt zur Kurve der sog. »Hörschwelle«). Auch Erkenntnisse über komplexere Hörphänomene wie z.B. die Verdeckung oder die Kombinationstöne gehören zu den Ergebnissen der empirisch basierten psychoakustischen Forschung. Bei der Beschäftigung mit komplexeren Prinzipien des musikalischen Hörens verbindet sich die musikalische Akustik mit dem Forschungsgebiet der Musikpsychologie [7 2.7]. Dies beginnt schon mit der elementaren Frage, wie die menschliche Hörwahrnehmung eine Vielzahl von gleichzeitig erklingenden, einzelnen Schallquellen isolieren und identifizieren kann, obwohl das Ohr nur die Summe dieser Schallsignale erreicht, also ein u.U. recht krudes GesamtGemisch. Ansätze zur Erklärung dieser erstaunlichen Fähigkeit finden sich bereits Ende des 19. Jahrhunderts in der Gestaltpsychologie und in jüngerer Zeit in der »Auditory Scene Analysis« [7 2.6]. Aber auch die unterschiedlichsten Einzelaspekte der Musikpsychologie greifen immer wieder auf Erkenntnisse der musikalischen Akustik zurück. So spielen für die Klärung der Frage, warum manche Zusammenklänge konsonant und andere dissonant erscheinen, Ergebnisse der elementaren Schwingungs- und Intervalltheorie ebenso eine Rolle wie die der Psychoakustik. Ähnlich gilt dies auch für vielfältige musikpsychologische Aspekte der Wahrnehmung von Melodie, Rhythmus, Harmonie und Tonalität. 18 1.2 Geschichte der musikbezogenen Akustik Von Roland Eberlein Bereits antike Philosophen machten sich Gedanken über die Natur des musikalischen Schalls und seine Wahrnehmung.' Dabei gingen sie von einer uralten Beobachtung aus: Eine gespannte Saite, die durch einen Mittelsteg in zwei unabhängig voneinander schwingende Teile geteilt wird, lässt .beim aョセオーヲ・@ beider Teile zwei Töne erklingen. Diese bilden immer dann em wohlklmgendes musikalisches Intervall, wenn die Längen der beiden Teile in einem einfachen ganzzahligen Verhältnis zueinander stehen: Das Längenverhältnis 1:2 erzeugt eine Oktave, das Verhältnis 2:3 eine Quinte, das v・イィ¦ャセゥウ@ 3:4 eine Quarte. In der Philosophie des Pythagoras' (6. Jh. v.' Chr.) und semer Schul.e wurde diese Beobachtung zu der These verallgememert, dass allen Erscheinungen in der Welt Zahlen und Zahlenverhältnisse zugrundeliege?, welche die Natur und Wirkung dieser Erscheinungen bestimmen. Im speziellen Fall des musikalischen Schalls bedeutet dies, dass die Konsonanz oder Dissonanz eines Intervalls als Folge des Zahlenverhältnisses betrachtet wird, das dem Intervall zugrunde liegt. In den folgenden Jahrhunderten beschäftigten sich etliche griechische und römische Musiktheoretiker mit der Ableitung der kleineren Intervalle des Tonsystems aus den einfachen Zahlenverhältnissen der Konsonanzen Oktave, Quinte und Quarte, so beispielsweise Aristoxenos' 1 2 Zur Frühgeschichte der Akustik siehe: E. Netoliczka (1865), Zur Geschichte der Physik: ueber die ältesten Bestrebungen in der Akustik; H. Schimank (1936), Zur Friihgeschichte der Akustik; F.V. Hunt (1978), Origins irl acoustics: The science of sound from antiquity to the age of Newton; V. Aschoff (1979), Phantasie und Wirklichkeit in der Frühgeschichte der Akustik; P. Költzsch (2010), Akustisches Wissen aus der Antike auf den Transferwegen in das »abendländische« Europa; siehe ferner die umfassenden Darstellungen zur Geschichte der Akustik: E. Mach (1892), Zur Geschichte der Akustik; F. Auerbach (1925), Akustik. Historische Entwicklung und kulturelle Beziehungen; D.C. Miller (1935), Anecdotal history of the science of sound: R.B. Lindsay (1973), Acoustics: historical and philosophical development; S. Dostrovsky, J.F. Bell, C. Truesdell (1980), Physics of music; P. Bailhache (2001), Une histoire de l'acoustique musicale; P. Lienard (2001), Petite histoire de l'acoustique: bruits, sons et musique; S. Donval (2006), Histoire de l'acoustique musicale; P. Költzsch (2010), Von der Antike bis in das 20. Jahrhundert: ein Streifzug durch die Geschichte der Akustik. . R. Westphal (188311893), Aristoxenos von Tarent: Melik und Rhythmik des classischen Hellenentums. 19 Roland Eberlein 1 1 1 . Geschichte der musikbezogenen Akustik (4.Jh. v. Chr.), Euklid' (um 300 v. Chr.), Aristides Quintilianus4 (2. oder 3. Jh. n. Chr.) und Boethius1 (um 500 n. Chr.). Die antiken Theoretiker gelangten außerdem zu ersten Einsichten hinsichtlich der Physik des Schalls. Euklid stellte in dem Traktat Sectio canonis6 ganz richtig fest, dass Schall durch Bewegung entsteht und dass rasche Bewegung hohe Töne, langsame Bewegung tiefe Töne produziert. Aristoteles' (4. Jh. v.Chr.) wusste bereits, dass Töne von Schwingungen irgendwelcher Körper herrühren, dass sich diese Schwingungen durch die Luft zum Ohr fortpflanzen und dass der Schall für diesen Weg vom schwingenden Körper zum Ohr Zeit benötigt. Allerdings war er noch der falschen Ansicht, dass die Schallgeschwindigkeit bei hohen Tönen anders sei als bei tiefen Tönen. Vitruv' (1. Jh. v.Chr.) postulierte völlig zutreffend, dass der Schall sich ähnlich ausbreiten müsse wie Wellenkreise auf einer Wasseroberfläche, jedoch nicht nur auf eine Ebene beschränkt, sondern räumlich, also in Kugelwellen um die Schallquelle herum. Ebenso war die Resonanz bereits in der Antike bekannt: Das Mitschwingen einer Saite, wenn eine andere erklingt, beschreibt bereits Aristides Quintilianus. Nach dem Untergang des weströmischen Reiches trat die wissenschaftliche Betrachtung des Schalls viele Jahrhunderte lang auf der Stelle. Die Gelehrten des Mittelalters führten die durch Boethius übermittelte antike Tradition fort und beschäftigten sich hauptsächlich mit der Saitenteilung auf dem Monochord (Abb. 1) als wissenschaftliche Grundlage der Musiktheorie. Neue Erkenntnisse wurden dem überlieferten Wissen erst gegen 1600 hinzugefügt. 3 4 5 H . Menge (1916), Euclidis opera onmia, ßd. 8, S. 158-183. R.P. Winnington-Ingram (1963), Aristidis Quintiliani de musica lihri tres, Leipzig 1963. Boethius, De institutione musica lihri quinque, in: G. Friedlein (1867), De institutione arith- Abb. 1: Monochord.9 Vincenzo Galilei' 0 (um 1530-1591) zeigte um 1590, dass ein gegebenes Intervall keineswegs immer durch dasselbe Zahlenverhältnis von Saitenlängen, Gewichten oder anderen Parametern erzeugt wird. Vielmehr lässt sich dieses Intervall durch ganz unterschiedliche Zahlenverhältnisse erzeugen, je nachdem, mit welcher Manipulation des schwingenden Körpers man das Intervall erzeugt: Variiert man beispielsweise di'e Spannung einer Monochordsaite, indem man diese über eine Rolle führt und unterschiedlich schwere Gewichte daran hängt, so erhält man das Intervall einer Oktave nicht dadurch, dass man abwechselnd Gewichte mit dem Gewichtsverhältnis 2:1 anhängt, wie einst Aristides Quintilianus meinte, vielmehr müssen die Gewichte im Verhältnis 4:1 zueinander stehen. Diese Beobachtung machte zahlreichen For- metica lihri duo, D.e institutione musica lihri quinque, accedit Geometria quae fertur Boetii, 6 7 8 20 Le1pz1g 1867, Repnnt Frankfurt/Main 1966. H. Menge (1916), Euclidis opera omni.a, Bd. 8, S. 158-183. W.D. Ros.s (1936), Aristotle's physics. A revised text with introduction and commentary. Deutsche Ubersetzung: H. Wagner (1995), Aristoteles, Physilworlesung. C. Fensterbusch (2008), Vitruvii De architectura lihri decem. 9 L. Fogliano (1529), Musica theorica, S. XIIv. 10 Die betreffenden, handschriftlich überlieferten Essays sind abgedruckt und übersetzt in: C.V. Palisca (1989), The Florentine Camerata: documentary studies and translations. 21 Roland Eberlein schern, insbesondere Rene Descartes (1596-1650 ), Marin Mersenne (15881648) und Galileo Galilei (1564-1642) bewusst, dass das Verhältnis der Schwingung sfrequenzen den lntervalleind ruck bestimmen müsse nicht ir' gendwelche Längen- oder Gewichtsverhältnisse. Außerdem wurden Galileo Galilei und Marin Mersenne dadurch veranlasst, erstmals systematisch die Abhängigke it der Tonhöhe von Saitenlänge, -dicke und -Spannung zu untersuchen. Unabhängig von einander beschrieben sie in den Discorsi" (Leiden 1638) bzw. den Harmonicor um libri XII'' (Paris 1648) die tatsächlichen Proportionalität sbeziehunge n zwischen der Tonfrequen z einerseits und der Saitenlänge, -dicke und -spannung andererseits. Allerdings bereitete die Bestimmung der absoluten Schwingung sfrequenz von Tönen große Probleme. Mersenne gelang erstmals eine grobe Bestimmung der Frequenz von Tönen, indem eine extrem lange, sehr langsam schwingen⦅s」 ィZMイゥョァオ・@ er zäl:lte, キゥ・カセャ und dann die Saitenlänge verkürzte, bis ein ausführt, de Saite pro Ze1te111he1t aus dem Verhältnis der Saitenlängen abFrequenz dessen wurde, Ton hörbar anderer Töne konnten anschließend beliebiger Frequenzen Die war. leitbar anhand ihres Intervalls zu diesem Ton bestimmt werden. Auch die Geschwindig keit des Schalls versuchte Mersenne erstmals zu messen, indem er die Verzögerung zwischen dem Aufblitzen eines Schusses und dem Eintreffen des Schalls bestimmte. Für die Akustik von allergrößter Bedeutung wurde Mersennes Entdeckung, dass in einem einzigen Ton oft mehrere Teiltöne wahrgenomm en werden können: Mersenne beschrieb erstmals die fünf tiefsten harmonische n Teiltöne im Ton einer schwingende n Saite, er konnte sich jedoch noch nicht erist, dass _ein und derselbe schwingende Körper mehrere ォャ ⦅セイ・ ョL@ "':'ie es_ セ￶ァャゥ」ィ@ erzeugt. Als n_1_cht weniger paradox empfand er die Tatsache, Tone セャ・Q」ィコエァ@ dass em Blasmstrum ent ohne Anderung seiner Länge durch überblasen eine ganze Reihe von verschiedenen Tönen hervorbringe n kann. . Eine Erklärung für diese Phänomene deutete sich erstmals an, als John Wal11 lis 1677 in den Schriften der Royal Society von den Saitenresona nzWilliam Noble und Thomas Pigot Experi?1enten b_erichtete, die_ seine ⦅s」セャ・イ@ wingungen, indem sie in Resonanzsch m Saite eme brachten Sie : ?urchfuhrten ihrer Nähe einen Ton entsprechend dem Grundton der Saite oder einem ihrer höheren Teiltöne erzeugten. Auf der Saite platzierten sie kleine Papierstreifen und beobachteten , dass diese an bestimmten, offensichtlich stark schwingende n 11 G. Galilei (1638 ), Discorsi e dimostrazioni matematiche. 12 M. Mersenne (1648), Harmonicorum /ibri XII. 13 ]. Wallis (1677), On the trembling of consona11t strings. 22 Geschichte der musikbezoge nen Akustik Stellen abgeworfen wurden, aber an anderen, anscheinend stillstehende n Stellen hängen blieben. Wird die Saite mit ihrem Grundton angeregt, schwingt die Saite in der Mitte am stärksten, wird sie hingegen durch die Oberoktave ihres Grundtons angeregt, bleibt die Saitenmitte in Ruhe. Dies zeigte, dass die verschiedenen Teiltöne einer Saite entstehen, indem die Saite mehrere unabhängige Schwingung en gleichzeitig ausführt, nämlich sowohl langsame s」ィキセョᆳ gungen, bei denen sie in voller Länge schwingt, als auch schnellere Schwmgungen, bei denen sie in mehreren gleichlangen Teilen schwingt'. Wallis vermutete, dass die Luftsäule in überblasend en Blasinstrum enten ganz analog in mehreren Teilen schwingt. Unabhängig von Wallis haben Francis Robartes" 1692 und Joseph Sauveur" (1653-1716) zu Beginn des 18. Jahrhundert s ähnliche Beobachtun gen der Saitenschwin gung gemacht. Auf Sauveur gehen die noch heute gebräuchlich en Begriffe nceud (Schwingung sknoten), ventre (Schwingung sbauch) und son harmonique (harmonisch er Teilton) zurück. Sauveur erkannte auch die Bedeutung der harmonische n Teiltöne für die Klangfarbe: Er verwies in diesem Zusammenh ang auf die jahrhunderte alte Praxis der Orgelspieler , die Klangfarbe eines Grundregist ers durch Hinzufügen von Obertonregi stern, also durch Beifügung weiterer harmonische r Teiltöne, zu verändern. Das Mischen von Orgelregiste rn unterschiedl icher Tonhöhe entspreche dem, was jeder schwingende Körper von Natur aus tut, indem er gleichzeitig als Ganzes, in zwei oder mehreren Teilen schwingt. überdies begriff Sauveur als Erster, dass die Frequenz der Schwebunge n zwischen zwei leicht gegeneinand er verstimmten Tönen genau der Differenz zwischen ihren Frequenzen entspricht [セ@ 1.3]. Diese Erkenntnis ermöglichte es ihm, die absolute Frequenz eines Tones recht genau zu bestimmen: Zu diesem Zweck stimmte er zwei große Orgelpfeifen so ein, dass die eine davon eine reine kleine Terz (Frequenzve rhältnis 30:25), die andere eine reine große Terz (Frequenzve rhältnis 30:24) unter einer dritten Orgelpfeife klang. Das Frequenzver hältnis zwischen den beiden ersten Pfeifen betrug dadurch 25:24. Sauveur zählte dann, wieviele Schwebungs stöße je Sekunde zu hören sind, wenn diese beiden Pfeifen gleichzeitig erklingen. Werden z.B. vier Schwebungsstöße je Sekunde erzeugt, müssen die Schwingung sfrequenzen 25 x 4 = 100 Hz bzw. 24 x 4 Hz= 96 Hz betragen. 14 F. Robartes (1692), A discourse concerning the musical notes of the trumfJet, and the trumpet marine. 15 J. Sauveur (1984), Collectedwritings on musical acoustics. 23 Roland Eberlein Gegen Ende des 17. j。ィイオセ、・エウ@ キオセ、・@ auch die セ[エ@ und Weise, wie sich Schall ausbreitet, genauer erklart. Chnst1aan Huygens (1629-169 5) deutete die Fortpflanz ung einer Welle in einem Medium mit Hilfe der Annahme, dass jedes angestoße ne Teilchen zum Ausgangs punkt einer kugelförmigen Elementarwelle wird. Diese Elementar wellen überlagern sich gegenseitig: Sie addieren sich dort, wo sie in gleicher Phase ankomme n, und löschen sich aus an Orten, an denen sie in gegensätzlicher Phase ankomme n. Wir nennen heute dieses Überlageru ngsprinzip Interferen z. Es hat aus mathemati schen Gründen zur Folge, dass die ursprüngliche Gestalt der Wellenfro nt während des Ausbreitungsvorga nges in einem homogene n Medium erhalten bleiben muss: Die einzelnen Elementar wellen summieren sich zu einer neuen Wellenfro nt, die gerade ist bei ursprüngli ch geraden Wellenfro nten und kugelförmig bei ursprünglich kugelförm igen Fronten. Freilich wurden diese lnterferenz vorgänge erst 1805/06 durch Thomas Young 11 (1773-182 9) in Experimen ten mit Wasserwellen sichtbar gemacht. Das 18. Jahrhunde rt brachte vor allem Fortschrit te hinsichtlich der mathematisch -theoretisc hen Behandlun g von akustische n Erscheinungen. Sie wurden ermöglich t durch die von Isaac Newton (1643- 1727) formuliert en Gesetze der Mechanik und durch die Differentia l- und Integralrechnung, die von Gottfried Wilhelm Leibniz (1646-171 6) und Newton entwickelt worden war und die mathemati sche Behandlun g von komplexen akustische n Erscheinungen erleichterte. Isaac Newton 1" berechnete erstmals die Schallgeschwindigkeit in einem Medium aus dessen Elastizität und Dichte. Seine Berechnungen waren im Prinzip richtig, erbrachten jedoch zu kleine Werte. Pierre-Simon de Laplace (1749-182 7) entdeckte die Ursache dieses Fehlers in den Jahren 1816-22: Der Wert der Elastizität eines Mediums wird dadurch erhöht, dass es sich bei den vom Schall verursacht en Verdichtun gen erwärmt, bei den Verdünnu ngen abkühlt, obwohl die mittlere Temperatu r und Dichte gleich bleibt. Unter Einrechnung dieser Tatsache ergibt sich ein wesentlich genaueres Ergebnis. Newton erkannte ferner, dass die Schallgesc hwindigke it gleich dem Produkt von Wellenlän ge und Frequenz sein muss. Aus diesem Zusamme nhang und aus Sauveurs Messunge n der absoluten Frequenz von Pfeifen ergab sich die Einsicht, dass die Wellenlänge des Tones einer offenen Pfeife doppelt so groß wie ihre Länge ist. 16 C. Huygens (1690), Traite de la lumiere. 17 T. Young (1806), U11tersuchunge11 über Schall und Licht. 18 l. Newton (1687), Philosophiae naturalis principia mathematica, propositions XLVII-L. 24 Geschichte der musikbezogenen Akustik Wesentliche Fortschritt e gab es im 18. Jahrhunde rt a uch hinsichtlich der mathemati schen Berechnung von Saitenschw ingungen und ihrer Frequenze n. Brook Taylor 1' (1685-1 73 1) publizierte 1713 eine korrekte Berechnung der Grundfreq uenz der Saitenschwingung. Er bestätigte damit Marin Mersennes Proportion alitätsgese tz und bestimmte die bislang unbekannt e Proportion alitätskonsta nte auf mathemati schem Wege. Johann Bernoulli' 0 (1667-174 8) berechnete 1727 ebenfalls die Grundschw ingung einer Saite, indem er die Saite als eine Kette von kleinen Bällen betrachtete , die durch masselose Stricke verbunden sind. Sein Sohn Daniel Bernoulli2 1 (1700-178 2) legte 1732/33 und 1734/55 Berechnungen der Frequenzen und Schwingun gsmoden sowohl des Grundtons als auch der Obertöne eines schwingen den Körpers vor. Bernoulli ging in seinen mathemati schen Betrachtun gen zunächst von einem schweren Seil aus, das an einem Ende aufgehäng t ist, stellte aber dann fest, dass sie auch auf musikalische Instrumen te übertragba r sind. Daniel Bernoulli sah als Erster die Ursache der Klangfarb e eines Instru ments in den relativen Stärken der Teiltöne, die es produziert . Bernoulli erkannte auch, dass die Stärke der verschiedenen Teiltöne abhängig ist von der Art und Weise der Schwingungsanregung, weshalb ein und derselbe Körper bei unterschie dlicher Anregung zu unterschie dlichen Klängen fähig ist. Beispielsweise geben dieselben Cembalosa iten unterschiedliche Klänge von sich, je nachdem, ob sie nahe dem Steg oder nahe der Saitenmitt e angezupft werden. Das Nasal-Register des Cembalos nutzt diese Tatsache aus. Von entscheide nder Bedeutung für die Entwicklu ng der Akustik im 19. und 20. Jahrhunde rt wurde Bernoullis Vermutun g, dass möglicherweise jede periodisch e Schwingung als eine Überlageru ng von einfachen, sinusförmi gen Schwingun gen aufgefasst werden kann. Dies zu beweisen, war Bernoulli nicht möglich, da dafür die Mathemat ik des 18. Jahrhunde rts noch nicht ausreichte. Den Beweis lieferte jedoch Jean Baptiste Joseph Fourier (1768-183 0) in einer 1812 preisgekrö nten Arbeit zur 'Wärmeau sbreitung in Festkörper n. Das nach ihm benannte Fourier-Th eorem besagt, dass jede periodische Funktion zerlegbar ist in eine - und nur eine - Reihe von Sinusfunk tionen mit den Frequenzverh ältnissen 1:2:3:4 ... und bestimmte n Phasen- und Amplitudenverhältnissen [7 1.3). 19 B. Taylor (1713), De motu nervi tensi. 20 ]. Bernoulli (1727), Theoremata selecta, pro conservatione virium vivarum demonstranda. 21 D. Bernoulli (1732/33), Theoremata de oscillationibus corporum filo flexibili connexornm et catenae verticaliter suspensae; D. Bernoulli (1734/35), Demonstrationes theorematum suorum de oscillationibus corporum filo flexibili connexorum et catenae verticaliter sus pensae . 25 Geschichte der musikbezogenen Akustik Roland Eberlein Eine weitere wesentliche Einsicht von Bernoulli war, dass die Frequenzen der verschiedenen Teiltöne eines Klanges keineswegs immer in ganzzahligen Verhältnissen zueinander stehen, wie bis dahin angenommen wurde, sondern dass solche Verhältnisse eine Ausnahme darstellen, die sich nur unter besonderen Bedingungen ergibt. Zu dieser Einsicht führten Berechnungen und Beobachtungen der Transversalschwingungen von unterschiedlich an den Enden unterstützten Stäben oder Platten, die Bernoulli" in engem Kontakt mit Leonhard Euler anstellte. Solche Stäbe und Platten erzeugen zumeist Klänge mit stark unharmonischer Teiltonzusammensetzung. Leonhard Euler (1707-1783) schuf in 16 Abhandlungen eine Theorie der fortschreitenden Seilwellen sowie der stehenden Schwingung und publizierte 1759 allgemeine Feldgleichungen für Luftschwingungenn in ein, zwei und drei Dimensionen, auf denen die Akustik von Luftschwingungen bis heute basiert. Weniger erfolgreich war sein 1739 publizierter Versuch" einer naturwissenschaftlichen Theorie der Konsonanz, der zufolge Intervalle mit besonders einfachem Frequenzverhältnis besonders konsonant sind. Experimentelle Untersuchungen des 20. Jahrhunderts erwiesen seine Theorie der musikalischen Wahrnehmung als ebenso unzutreffend wie die auf der Obertonreihe basierende Theorie, die Jean-Philippe Rameau'' (1683-1764) 1726 publiziert hat. Ab 1787 erregten die Experimente von Ernst Florens Friedrich Chladni" (1756-1827) großes Aufsehen: Chladni strich dünne, elastische Platten, die er mit Sand bestreut hatte, an der Kante mit einem Violinbogen an. Dabei wurde der Sand von Stellen mit großer Schwingungsamplitude fortbewegt und sammelte sich an den Stellen, die sich relativ wenig bewegten. Der Sand markierte so die sogenannten Schwingungsknotenlinien (Abb. 2). Je nach dem Umriss der Platte, dem Befestigungso1t und dem Ort des Anstreichens waren die produzierten Töne und die resultierende Anordnung von Knotenlinien, auch Chladnische Klangfigur genannt, verschieden. Doch erst im Laufe des 19. Jahrhunderts wurde eine mathematische Theorie der schwingenden Platten entwickelt, welche die Chladnischen Klangfiguren erklärt. Ferner erkannte Chladni als Ers- ter, dass Stäbe nicht nur transversale Schwingungen wie eine Saite, sondern auch longitudinale Schwingungen ausführen können. Er entwickelte überdies ein Verfahren zur genauen Bestimmung der Schallgeschwindigkeit sowohl in festen Körpern mittels longitudinaler Schwingungen von Stäben als auch in Gasen durch Anblasen von Pfeifen. g;;/,_I c· ·CD· ff> -.· .· l.. ']. . 1 f 4 4 ? 11 j . . • t ' ᆴセ@ . . . ,· , ' . . ·. ® . 6 „. ®0 · i \ . • ' . 1 \ / @@ Abb. 2: Chladnische Klangfiguren: Schwingungsknotenlinien von Platten.27 22 D. Bernoulli (1741/43), De vibrationibus et sono laminarum elasticarum commentationes physico-mathematicae. 23 L. Euler (1759), De la propagation du so11. 24 L. Euler (1739), Tentamen novae theoriae musicae. 25 ]. Ph. Rameau (1726), Nouveau systeme de musique theorique; siehe auch: 0. Darrigol (2007), The acoustic origins of harmonic analysis. 26 E.F.F. Chladni (1787), Entdeclwngen iiber die Theorie des Klanges; E.F.F. Chladni (1802), Die Akustik; siehe auch: D. Ullmann (1996), Chladni und die Entivic!<lung der Akustik von 1750-1860. 26 27 E.F.F. Chladni (1787), Entdeckungen über die Theorie des Klanges, S. 79, Tab. 1. 27 Geschichte der musikbezogenen Akustik Roland Eberlein Ein jahrhundertelanges technisches Problem der Akustiker stellte die Produktion von Tönen mit einer genau bestimmten Frequenz dar. Zu seiner Lösung griff man im 19. Jahrhundert auf das Prinzip der Sirene zurück, das bereits von Robert Hooke" (1681) und Vittorio Stancari (1706) entwickelt 0 worden war. Charles Cagniard de Latour'' (1819), August Seebeck' (1843), Hermann von Helmholtz'' (1863) und Rudolph Koenig" (1867) verbesserten es und machten es tauglich zur Produktion von Tönen mit relativ genau bestimmter Frequenz. Im Prinzip bestanden ihre Sirenen aus einer rotierenden Lochscheibe, die angeblasen wurde und dabei Töne mit einer Frequenz entsprechend der Zahl der Löcher mal die Zahl der Umdrehungen pro Sekunde von sich gab (Abb. 3). Das Konstanthalten der Umdrehungszahl blieb jedoch immer ein gewisses Problem. Zur Messung von Frequenzen entwickelte Johann Heinrich Scheibler" 1834 das Tonometer. Es bestand aus 56 Stimmgabeln, die auf Frequenzen von 220 Hz bis 440 Hz gestimmt waren, wobei jede Stimmgabel von der vorhergehenden um 4 Hz abwich. Die Frequenz eines zu messenden Tones ließ sich durch sorgfältiges Zählen von Schwebungen, die er zusammen mit einem Stimmgabelton erzeugte, recht genau bestimmen. Auf Scheiblers Vorschlag hin hat die Deutsche Naturforscherversammlung in Stuttgart 1834 das a' auf 440 Hz festgelegt. 1843 formulierte Georg Simon Ohm35 (1789-1854) eine These, die später als Ohmsches Gesetz der Akustik bekannt wurde: Sie besagt, dass unser Ohr p eriodische Schwingungsformen im Sinne des Fourier-Theorems in eine Reihe von Sinusschwingungen zerlegt, die als separate Tonhöhen wahrgenommen werden können. Der Grundton eines solchen Frequenzgemisches entspricht der Periodenlänge der Schwingung. Von ganz außergewöhnlicher Bedeutung für die Entwicklung der Akustik waren die Forschungen von Hermann von Helmholtz (1821-1894), die dieser 1863 in Die Lehre von den Tonempfindungen als physiologische Grundlage für die Theorie der Musik publiziert hat. Helmholtz gelang es, mit einfachen, aber zweckmäßigen Apparaten höchst aussagekräftige Experimente durchzuführen und deren Ergebnisse in brillanter Weise theoretisch zu deuten. So benutzte er gläserne oder metallene Hohlkugeln mit einer Spitze zum Ansetzen an das Ohr (Abb. 4), um Sprach- und Instrumentalklänge hinsichtlich ihres Teiltonspektrums zu untersuchen: Die Hohlkugeln resonieren nur bei einer einzigen Frequenz und machen diese Frequenz deutlich heraushörbar, sofern sie im Schall enthalten ist. Abb. 3: Lochsirene: Die um die Achse b rotierende Scheibe A wird durch Rohr c angeblasen:u 28 P. Gouk (1980), The role of acoustics and 111usic theory in the scieutific work of Robe1t Hooke. 29 30 31 32 33 28 c. Cagniard de Latour (1819), Sur la sirene, a llOUVelle 111achine d'acoustique destinee 111esurer !es vibrations de l'air qui constitumt le son. A. Seebeck (1843), Ueber die Sirene. H. v. Helmholtz (1863), Die Lehre von den To11empfind11nge11. S1_ehe: D. Panta lony (2009), Altered sensations: Rudolph Koenig's acoustical workshop in mneteenth-century Paris. H. v. Helmholtz (1863), Die Lehre von den To11e111pfi11dungen, S. 21. 34 J.H. Scheibler (1834), Der physilwlische und musikalische Tonmesser. 35 G.S. Ohm (1843), Über die Definition des Tones, nebst daran geknüpfter Theorie der Sirene und ähnlicher tonbildender Vorrichtungen. 29 Roland Eberlein Abb. 4: Resonatorkugel zum Ansetzen an das Ohr." Die Richtigkeit dieser Resonatorenanalyse überprüfte er mit einem Apparat zur Synthese von Klängen (Abb. 5): Dieser bestand aus acht Stimmgabeln mit den Frequenzen des ersten bis achten harmonischen Teiltons. Die Stimmgabeln wurden elektromagnetisch erregt durch einen Strom, der von einer weiteren Stimmgabel mit der Frequenz des Grundtons periodisch unterbroden__ Stimmgabeln waren Resonatoren aus geschlossenen Zyvセイ@ c_hen キオイセ・N@ lmdern mit klemen Offnungen befestigt. Diese konnten durch Blenden mehr oder weniger verschlossen werden, so dass die Stärke des Mitschwingens der Hohlräume und dadurch die Amplitude der so erzeugten künstlichen Obertöne einstellbar war. 36 H. v. Helmholtz (1863), Die Lehre von den Tonempfindunge n, S. 74. 30 Geschichte der musikbezogenen Akustik Abb. 5: Elektromagnetisch angeregte Stimmgabel mit Resonator." Mit diesem Apparat gelang Helmholtz die Darstellung der Vokale u, o, ö und ä; e und i waren schwieriger nachzubilden, weil in ihnen hohe Teiltöne großer Amplitude enthalten sind. Diese Versuche führten Helmholtz zu einer Theorie der Sprachlaute, der zufolge die Stimmbänder einen sehr obertönigen Klang liefern und bestimmte Obertöne dieses Klangs durch die Resonanzen der Mund- und Nasenhöhlen verstärkt werden. Außerdem demonstrierte Helmholtz mit diesem Versuchsaufbab , dass die Klangfarbe eines komplexen Tons unabhängig von der Phasenlage der Stimmgabelschwingungen zueinander ist. Allerdings wurde dieses Ergebnis durch Untersuchungen des 20. Jahrhunderts dahingehend modifiziert, dass Phasenverschiebungen doch zu gewissen, wenn auch sehr kleinen Klangänderungen führen . Große Bedeutung für die weitere akustische Forschung erlangte Helmholtz' Theorie der Funktionsweise des Gehörs, die sich im 20. Jahrhundert in ihrem Grundgedanken als richtig erwies, allerdings nicht in den Details. Der 37 H. v. Helmholtz (1863) , Die Lehre von den Tonempfindungen, S. 184. 31 Roland Eberlein Grundgedanke dieser Hörtheorie war, dass im Innenohr Resonatoren mit systematisch variierender Eigenfrequenz existieren. Trifft ein Sin uston auf dieses Empfangssystem, spricht jener Resonator, dessen Resonanzfrequenz der Frequenz des Sinustones entspricht, a n und reizt den mit ihm verbundenen Nerv. Die Tonhöhe wird a lso kodiert durch den Ort der Reizung. Diese Ortstheorie des Hörens konnte im 20. Jahrhundert du rch physiologische Untersuchungen weitgehend bestätigt werden. Helmholtz erkannte auch als Erster, dass die Kombinationstöne [-7 2.5 .2], die bereits im 18. Jahrhundert durch Giuseppe Tartini" (1692-1770) und Georg Andreas Sorge" (1703-1778) beschrieben wurden, durch nichtlineare Verzerrung des Schall s im Ohr entstehen. Allerdings blieb Helmholtz' Erklärung bis weit in das 20. Jahrhundert hinein umstritten und wurde erst um 1980 durch physiologische Experimente zweifelsfrei bestätigt. Helmholtz' Klangforschungen hat insbesondere Carl Stumpf (1848-1936) fortgefü hrt. 1910 zeigte er durch Experimente,'° dass für die Klangerkennung nicht nur das Amplitudenverhältnis der Teiltöne wichtig ist, sondern auch die Art und Weise, wie der Ton einsetzt und a ufhört: Ein Instrumentalklang wird oft nicht richtig identifiziert, wenn der natürliche Beginn und das natürliche Ende des Tones unhörbar ist. Stumpf erreichte dies, indem er Musiker und Hörer in verschiedene Räume setzte und die Verbindungstür erst nach Beginn jedes Tones öffnete. Außerdem zeigte er 1926, dass zwei Klänge verschiedener Tonhöhe nicht dann die gleiche Klangfarbe - z.B. die gleiche Vokalfarbe haben, wenn bei ihnen die Tei ltöne gleicher Ordnungszahl ä hnlich stark sind, sondern dann, wenn ih re stärksten Teiltöne ä hnliche Frequenzen aufweisen: Die Klangfarbe wird durch sogenannte Formanten abso luter Frequenz bestimmt. Die stärksten Teiltöne des höheren Tones müssen also eine niedrigere Ordnungszahl haben a ls die des tieferen Tones, um die gleiche Klangfarbe zu erzeugen Mit der Raumakustik beschäftigten sich die Akustiker des 18 . .und 19. J.ahrhun?erts. nur wenig. Erst Wa llace Clement Sabine (1868-1919) ermögli chte mit semen 1898-191 7 erschienenen Publikationen" ein besseres Ver- : ständnis von Problemen der Raumakustik, insbesondere der Nachha llzeit, der Resonanz, Reflexion und Absorption von Scha ll. Dadurch wurde es möglich, 38 39 40 41 G. Tartini (1754), Trattato di musica. G.A. Sorge (1744), Anweisung zur Stimmung. C. Stumpf (1926), Die Sprachlaute, S. 375f. W.C. Sabine (1922), Collected papers 011 acoustics. 32 Geschichte der musikbezogenen Akustik Konzertsä le entsprechend den gewünschten akustischen Eigenschaften zu planen und zu konstruieren." Ab 1920 vollzog sich in der Akustik ein tiefgreifender Methodenwandel: 43 Die rasch fortschreitende Entwick lung auf dem Gebiet der Elektrotechnik ermöglichte gänzlich neue Verfahren der Messung, Aufzeichnung und Wiedergabe, der Ana lyse und Synthese von Scha ll. Alle diese Vorgänge konnten mit den neuen elektrischen Geräten unvergleichlich viel einfacher, schnell er und genauer als mit den alten mechanischen Methoden ausgeführt werden. Dies hatte eine exp losionsartige Vermehrung der akustischen Forschung zur Fo lge. Insbesondere die Psychoakustik erlebte ab ca. 1930 eine stürmische Fortentwick lung, da die Elektrotechnik den Akustikern erstma ls die Möglichkeit gab, Schall e von genau definierter Frequenz, Amplitude und Teiltonanzahl zu produzieren und diese Parameter nach Belieben zu variieren. So untersuchte Eberhard Zwicker44 (1924-1990) unter anderem das Phänomen der Verdeck ung leiser Töne durch lautere Scha lle und leitete a us diesen Experimenten die Frequenzgruppenbreite a b, ein Maß der Frequenzselektivität des Gehörs, und entwickelte ein Modell der Lautheit komplexer Schall e. Stanley Smith Stevens (1906-1973) untersuchte den Zusammenha ng zwischen Amp litude und empfundener Lautheit und konstruierte die Lautheitsskala Sone. Reinier Plomp'' beschäftigte sich unter anderem mit dem Phänomen der sensorischen Dissonanz, einem Teilaspekt der musikalischen Dissonanz, und der Klangwahrnehmung. Jan Frederik Schouten'" wies 1938 erstmals das Residualtonphänomen experimentell nach und lieferte damit einen wichtigen Beitrag zum Verständnis der Wahrnehmung teiltonreicher Klänge. 42 H.S. Sabine (1977), Building 。」ッオウエ セ 」ウ@ in America, 1920-1940; R.S . Shankland (1977), Architectural acoustics in America to 1930; M. Schroeder (1980), Acoustics in human communications: Room acoustics, music, a11d speech. 43 Zur jüngsten Geschic hte der Akustik siehe:]. K. Hill iard (1977), Elektroacoustics to 1940; H.B. Mi ller (1977), Acoustical measurements and instrumentation; B.R. Lindsay (1980), Acoustics and the Acoustical Society of America in historical perspective; W.R. Kundert (1980), Acoustical measuring instruments over the years; C.M. Hutchins (1983), A history of violin research; 1. Jolmston (1994), M easured tones: the interplay of physics and music; R.T. Beyer (1999), Sounds of our times: two hundred years of acoustics; R.F. Estrada I E.A. Starr (2005), 50 years of acoustic signal processing for detection: coping with the digital revolution. 44 E. Zwicker/ R. Feldtkeller (1967), Das Ohr als Nachrichtenempfänger. 45 R. Plomp / J.M. Levelt (1965), Tonal consonance and critical bandwidth. 46 J.F. Schouten (1938), The perception of sub;ective tones; ].F. Schauten (1940), The residue, a new component in sub;ective sound analysis. 33 Roland Eberlein Von der technischen Entwicklung profitierte auch die physiologische Akustik. Stellvertretend für viele andere seien genannt: Georg von Bekesy47 (1899-1972), der grundlegende Beobachtungen hinsichtlich der Funktionsweise des Innenohres machte und für seine Entdeckungen 1961 den Nobelpreis für Medizin erhielt, und Ernest Gien Wever, der 1929 erstmals die elektrische Reaktion des Innenohres auf Schall untersuchte" und damit eine neue Ära der Hörforschung einleitete. In der musikalischen Akustik entstand seit 1930 eine Fülle von Publikationen zur Funktionsweise und den Klangeigenschaften musikalischer Instrumente, u.a. von Erich Schumann (allgemeine Aspekte des Instrumentalklangs) , Werner Lottermoser (Orgel), Jürgen Meyer (Gitarre), Carleen Hutchins (Violine), Arthur Benade (Blasinstrumente), John Backus (Blasinstrumente), Harvey Fletcher (Klavier), Neville H. Fletcher (Orgelpfeifen), Thomas D. Rossing (Schlaginstrumente). Daneben fanden intensive Forschungen zur elektronischen Klangerzeugung und Klangsynthese sowie zur Wahrnehmung von Klängen statt, u.a. von Werner Meyer-Eppler, Max V. Mathews, John R. Pierce und Jean-Claude Risset. Auch die Raumakustik wurde erheblich fortentwickelt, beispielsweise von Vern Oliver Knudsen, Lothar Cremer, Leo L. Beranek und Manfred Schroeder. Sie suchten u.a. nach den physikalischen Parametern, die dazu führen, dass Musiker bestimmte Räume hinsichtlich ihrer Akustik positiv bewerten, andere dagegen negativ. Ab ca. 1970 fand eine zweite technische Revolution in der Akustik statt: der Einzug des Computers in die Labore der Akustiker. Er ermöglichte insbesondere die Analyse von Schall durch Berechnung von Fourier-Transformationen und die Synthese von Schall durch inverse Fourier-Transformat ionen. Dies vereinfachte und beschleunigte die akustische Forschung nochmals und gestattete eine zuvor unerreichbare Genauigkeit. Darüber hinaus ermöglichten die Computer die wirklichkeitsnahe mathematische Simulation von Musikinstrumenten und anderen komplexen akustischen Systemen, was zu detaillierten Einsichten in die Funktionsweise dieser Systeme führte . 11 47 G.v. Bekesy (1929), Zur Theorie des Hörens. 48 E.G. Wever / C.W. Bray (1930), Auditory nerve impulses. 34 1.3 Grundlagen der Schwingungs- und Wellenlehre Von Michael Steppat 1.3.1 Grundgrößen von Schwingungen Mit dem Begriff des Schalls lassen sich zwei Bedeutungen verknüpfen. Subjektiv betrachtet ist er ein Schwingungsvorgan g, welcher als Luftdruckschwankung mit dem Gehör oder über den Tastsinn als Vibration wahrgen?mi:rien wird. Seine Wahrnehmung wird vom Empfänger auf ganz unterschiedliche Weise interpretiert. So können Schallereignisse als Lärm oder aber als wohlklingend empfunden werden. Wie diese Einstufung erfolgt,. ent.scheiden neuronale Prozesse im Gehirn des Zuhörers. Der Schall kann m diesem Zusammenhang als psychologischer Vorgang verstanden werden. Mit der zweiten Bedeutung, im objektiven Sinn, ist der Schall als physikalischer Vorgang zu verstehen, der durch die Schwingung eines Körpers oder eines sich bewegenden Luftvolumens (z.B. in einer Orgelpfeife oder einer angeblasenen Flasche) entsteht. In dieser Betrachtung besteht der Schall aus mechanischen Schwingungen, welche in festen, flüssigen オセ、@ gasförmigen Stoffen ・ョエウィセ@ und sich dort ausbreiten.' Am Anfang der Ubertragungskette »Sender - Medium Empfänger « steht die Schallquelle als Klangkörper. Mit einer Stimmgabel (als einfacher Klangkörper) lässt sich die Entstehung des Schalls sehr gut veranschaulichen. Durch Anschlagen, z.B. an einer Tischkante, werden die beiden Stimmgabelzinken in Schwingung versetzt. Mit der Bewegung wird das in der Bewegungsrichtung angrenzende Luftvolumen im Wechsel zusammengedrückt und auseinandergezogen . Die dabei entstehenden Druckschwankunge n breiten sich als Schallwelle aus. Wird die Stimmgabel in die Nähe des Ohres (Abstand etwa 10 cm) gebracht, ist die Schallwelle als Ton hörbar. Die Schwingungen sind nicht nur hörbar, sonderh werden auch als »Kribbeln« zwischen den Fingern wahrgenommen. Durch Befestigen einer sehr dünnen Bleistiftmine (Abb. 1) am oberen Teil einer Zinke kann der Schwingungsvorgan g aufgezeichnet werden, wenn an der schwingenden Stimmgabel ein Papierblatt oder besser eine berußte Glasplatte (um die Reibung zu minimieren) mit konstanter Geschwindigkeit vorbeigeführt wird. 2 1 2 F. Scheminzky (1943), Die W elt des Schalles, S. 17. J. Backus (1969), Th e acoustical foundati ons of music, S. 31. 35 Michael Steppat 1 l Abb. 1: Schwingungsverlauf einer Stimmgabelzinke.' Die aufgezeichnete Kurve bildet dann den Bewegungsablauf in Abhängigkeit von der Zeit ab und wird mathematisch als Zeitfunktion bezeichnet.4 Kennzeichnend für eine mechanische Schwingung ist, dass es sich um einen periodischen Bewegungsablauf handelt. ' In konstanten Zeitabständen wiederholt sich der Bewegungsablauf immer wieder. Diese werden als Periodendauer (Formelzeichen: T) bezeichnet und in der Einheit Sekunden angegeben. Eine Periode besteht bei der von der Stimmgabel aufgezeichneten harmonischen Schwingung, welche mathematisch einer Sinuskurve entspricht, aus einer positiven und einer entgegengesetzten negativen Auslenkung mit jeweils einem Maximum bei einem Viertel und einem Minimum bei Dreiviertel der Periodendauer. Die Höhe des Maximums und die Tiefe des Minimums, relativ zur Ruhelage gesehen, bezeichnet man als Amplitude. Die Anzahl der Perioden pro Sekunde wird als Frequenz (Formelzeichen: f) bezeichnet und in der Einheit Hertz (Hz) angeben.6 Sie kann direkt als Umkehrwert aus der Periodendauer mit der Gleichung f = 1 /T berechnet werden. Die periodischen Schwingungen, wie sie bei der Stimmgabel und einfachen Schwingungssystemen entstehen, werden in der Akustik als Töne bezeichnet. Die wahrgenommene Tonhöhe hängt primär von der Frequenz ab und die wahrgenommene Lautstärke primär von der Amplitude. 7 Die Frequenz hat aber auch Auswirkungen auf die subjektiv empfundene Lautstärke, da das Gehör seine 3 4 5 6 7 W. Auhagen (1994), Akustische Grundbegriffe, Akustik, S. 367. Agilent Technologies (2000), The fundamentals of signal analysis, S. 20 f. H. Borucki (1980), Einführung in die Akustik, S. 13. J. Meyer (2004), Akustik und musi/wlische Aufführungspraxis, S. 15. W. Auhagen (1994), Akustische Grundbegriffe, S. 368. 36 Grundlagen der Schwingungs- und Wellenlehre höchste Empfindlichkeit bei ca. 3.500 Hz hat und die Empfindli chkeit zu hohen und tiefen Tönen hin abnimmt, d.h. tiefe bzw. hohe Töne müssen bei gleich empfundener Lautstärke eine viel höhere Amplitude haben als ein Ton bei 3.500 Hz. Die Wahrnehmbarkeit von Frequenzen ist beim Menschen durch die untere und obere Hörgrenze beschränkt. Ein gesundes Gehör eines jungen Erwachsenen nimmt Frequenzen in einem Bereich zwischen 16 und 20.000 Hz wahr. ' Bei den mechanischen Schwingungssystemen wird zwischen einfachen Schwingern (Pendel, Masse-Feder-Systeme), eindimensionalen Schwingern (Saiten, Balken, Stäbe) und zweidimensionalen Schwingern (Platten, Glocken, Pauken- und Schlagzeugfellen) unterschieden. Bei einfachen Schwingern hängt die Amplitude nur von der Zeit ab. Der Schwingungsvorgang lässt sich somit als einfache Zeitfunktion beschreiben. Bei eindimensionalen Schwingern wie z.B. auch bei der Stimmgabel oder bei der Saite, ist die Amplitude neben der Zeit auch vom Ort abhängig. Der Schwingungsvorgang kann als Zeitfunktion an einer festgelegten Position (z.B. in der Mitte) beschrieben werden oder aber als Ortsfunktion zu einem bestimmten Zeitpunkt. Bei den zweidimensionalen Schwingern erfolgt die Darstellung der Ortsfunktion in einer dreidimensionalen Darstellung. Neben dem Pendel ist das Masse-Federsystem eines der einfachsten mechanischen Schwingungssysteme (Abb. 2) .' 8 E. Schumann (1925), Akustik, S. 10. 9 J. Askill (1979), Physics of musical sounds, S. 12 ff. 10 I. Veit (1974), Technische Akustik, S. 21 . 37 Michael Steppat Das System erzeugt bei seiner Anregung eine harmonische Schwingung mit einer bestimmten Frequenz, welche von der Steifigkeit der Feder und der Größe der Masse abhängt und als Eigenfrequenz definiert ist." Die Masse ist mit der Feder fest verbunden. Beide Teilsysteme befinden sich im Gleichgewicht, d.h. die Kraft, welche auf die Feder wirkt, entspricht der von der Masse ausgehenden Kraft. Umgekehrt entspricht auch die auf die Masse einwirkende Kraft, der von der Feder ausgehenden Kraft. Wird die Masse ausgelenkt, z.B. wenn sie niedergedrückt oder nach oben gezogen wird, entsteht eine Störung dieses Gleichgewichts. An der Feder entsteht eine Rückstellkraft, zusätzlich wird in ihr die potenzielle Energie der Auslenkung gespeichert. Beide Teilsysteme, Masse und Feder, sind in der Lage, Energie zu speichern. Beim Loslassen entspannt sich die Feder. Durch die Entspannung gibt sie die gespeicherte Energie an die Masse ab, welche durch die Rückstellkraft beschleunigt wird. Nach Erreichen der Nulllinie ist die Energie dann vollständig an die Masse abgegeben. Die Feder befindet sich nun wieder in einem entspannten Zustand. Durch die Beschleunigung befindet sich die Masse nun aber in Bewegung und erreicht ihre maximale Geschwindigkeit beim Durchgang durch die Nulllinie. Hierdurch wird die Feder wieder ausgelenkt. Hinter der Nulllinie beginnt nun die Rückstellkraft der Feder in umgekehrter Richtung auf die Masse zu wirken: Die Feder wird wieder gespannt und bremst die Masse ab, bis ihre Geschwindigkeit am Umkehrpunkt auf null zurückgega ngen ist. Am Umkehrpunkt wiederholt sich der Vorgang nun in umgekehrter Richtung, die gespannte Feder gibt die Energie wieder an die Masse zurück und beschleunigt diese nun in umgekehrter Richtung. Bei einem idealisierten System, ohne Verluste durch Reibung, würde sich dieser Vorgang theoretisch unendlich viele Male wiederholen. In der Praxis treten aber in allen mechanischen Systemen Reibungen auf, welche einen Teil der Bewegungsenergie in Wärme umwandeln und so die Schwingung mit einem exponentiellen Verlauf abklingen lassen. Um die Dämpfung in einem Modell zu veranschaulichen, verwendet man beim Masse-Feder-System ein drittes Teilsystem: den Dämpfer. Die Dämpfungskraft ist proportional zur Geschwindigkeit der Masse. Das System wird so zu einem Masse-Feder-Dämpf er-System erweitert. Das Gleichgewicht der zwischen der Feder und der Masse wirkenden Kräfte lässt sich durch zwei physikalische Gesetzmäßigkeiten beschreiben, das Hooksche Gesetz und das zweite Newtonsche Gesetz. Mit dem Hookschen Gesetz wird die zur Auslenkung einer Feder erforderliche Kraft (Formelzei- 11 Th.D. Rassing I R.F. Moore I P.A. Wheelder (2002), The science of sound, S. 22 ff. 38 Grundlagen der Schwingungs- und Wellenlehre chen: F sl beschrieben . Diese ist zur Auslenkung (Formelzeichen: x) proportional und hängt von der Steifigkeit der Feder (Formelzeichen: k) ab. Als Einheit für die Steifigkeit wird die Kraft in Newton angegeben, welche erforderlich ist, um die Feder um einen Meter zusammenzud.rücken oder. 。オウコセ、・ィ ᆳ nen sie wird daher in der Einheit N/m angegeben. Diese Kraft wird mit der Beziehung: F s = k · x berechnet. Je höher die Steifigkeit, desto höher ist auch die Eigenfrequenz des Systems. Die auf die Masse (Formelzeichen: rn) wirkende Kraft (Formelzeichen: F ml ist proportional zur Beschleunigung (Formelzeichen: a) und wird mit der Beziehung F.m = m · a 「セイ・」ィョエN B@ Da die beiden Teilsysteme miteinander verbunden s111d, besteht die Bedmgung, dass beide Kräfte stets gleich groß sein müssen. 13 Die Masse hat aufgrund ihrer Trägheit den Effekt, dass die Beschleunigung un? die 、。イセオウ@ result.ierende Geschwindigkeit viel langsamer wird, je schwerer die Masse ist. Damit reduziert sich dann auch die Eigenfrequenz. 14 Alle schwingungsfähigen Systeme besitzen eine Elastizität, die abhängig vom jeweiligen Ort mit dem Hookschen Gesetz beschrieben werden kann. Zieht man z.B. mit einer Zugfeder an einer Gitarrensaite an einer bestimmten Stelle so ist die erforderliche Zugkraft zur Auslenkung proportional. Allerdings' wird man feststellen, dass die Federsteife der Saite an den verschiedenen Positionen ganz unterschiedlich ist. Sie ist in der Mitte am geringsten und nimmt zum Steg und zum Sattel zu. Auch die elastische Verformung eines Schlagzeugfells erfolgt nach den gleichen Prinzipien. Am Rand, wo das Fell eingespannt ist, ist zur Auslenkung des Fells eine viel höhere Kraft erforderlich als in der Mitte. Neben der Elastizität haben alle mechanischen Schwingungssysteme eine Massenverteilung, welche dem Trägheitsgesetz オョエ・イャセァN@ Je dicker eine Saite, desto mehr Masse muss bewegt werden , und desto tiefer liegt die Grundfrequenz. Bei Stäben und Platten tritt allerdings mit zunehmender Dicke der umgekehrte Effekt auf. Zwar nimmt die Masse zu, mit zunehmender Dicke steigt aber auch die Steifigkeit viel schneller an, so dass die Grundfrequenz und die Frequenzen der darüber liegenden Teiltöne zunehmen. Verbindet man die Masse eines Masse-Federsystems mit einer Kurbelstange und verbindet dieses am Rand mit einer rotationsfähigen Scheibe, so wird diese durch die Bewegung des Masse-Feder-Systems angetrieben (Abb. 3 ). 12 K. Lüders I R.O . Pohl (2004), Pohls Einführung in die Physik, S. 25. 13 E.J. Skudrzyk (1954), Die Grundlagen der Akustik, S. 19. 14 I. Szab6 (2002), Einführung in die technische Mechanil<. 39 Grundlagen der Schwingungs- und Wellenlehre Michael Steppat 1 Abb. 3: Vertikaler Bewegungsablau f eines Masse-Federsystems gekoppelt mit einer Kurbelwelle.'' Der Verbindungspu nkt an der Scheibe beschreibt eine kreisförmige Bewegung. Ein vollständiger Periodendurchl auf der Masse entspricht einem vollen Umlauf des Punktes. Zieht man vom Mittelpunkt der Scheibe eine Gerade, definiert diese als Zeiger und legt als Nulllinie die Stellung »3 Uhr « fest, so rotiert dieser Zeiger in einem zeitlich veränderlichen Winkelabstand zur Nulllinie. Diesen Winkel (Formelzeichen: <p ) nennt man Phasenwinkel (oder auch Phasenlage oder nur Phase). Pro Umlauf werden 360° mit einer konstanten Winkelgeschwindigkeit zurückgel egt. Der Winkel wird in der Literatur sehr häufig im Bogenmaß angegeben, dabei entspricht ein voller Umlauf dem Wert von 2n. Zeichnet man di e horizontale Bewegung des Verbindungspu nktes auf, so erhält ma n eine Sinuskurve, die mathematisch mit der Beziehung y = A sin ( 2 n · f · t + <p ) ." Das Formelzeichen A ist dabei der Radius der kann werden ausgedrückt Scheibe, das Formelzeichen t die Zeit. In der Literatur wird häufig, statt der Frequenz in Hertz, die Kreisfrequenz: co=2n·f 11 verwendet. Die Sinusschwingun g vereinfacht sich dann zu der Beziehung: y = A sin(cot + <p ) 15 W. Auhagen (1994), Almstische Grundbegriffe, S. 368. 16 K.W. Wagner (1947), Einführung in die Lehre von den Schwingungen und Wellen, S. 4. 17 ]. Barkowsky (2009), Einfüh rung in die musikalische Akustik, S. 22. 40 zusammenfasse nd lässt sich so eine ungedämpfte harmonische Schwingung mit den drei Parametern: Amplitude, Frequenz und Phasenlage beschreiben. " Ungedämpfte Schwingungen können nur in Systemen entstehen, denen zur Schwingungser zeugung ständig Energie zugeführt wird. Dies ist möglich bei 2.1]. den Blasinstrumente n, bei der Orgel und bei den sエイ・ゥ」ィョウオュ{セ@ theoretischen im nur auch kann stem Masse-Feder-Sy Das eben beschriebene Fall wenn keine Reibung vorliegt, nach einer einmaligen Anregung eine unFall vorl.iegende Reiウ」 セ・ョ@ gedämpfte Schwingung ausführen. Die im ーイ。ォエゥ bung führt zwangsläufig zu einer gedämpften Schwmgung: In. emem„MasseFeder-Dämpfer-System lässt sich der Dämpfungsverl auf mit emer Hullkurve beschreiben. Die Hüllkurve ist eine gedachte Linie, die entsteht, wenn man die die Da ウゥセィ@ Spitzenwerte der einzelnen Perioden miteinander Z・イ「ゥョ、セエN@ Schwingungsam plitude mit einem kon stanten Faktor 1e Ze1temhe1t verringert, klingt diese exponentiell ab. Der Kurvenverlauf des Ausschwingvor gangs entspricht somit einer Exponentialfun ktion .m_it negativen Exponenten. Gedä.mpfte Schwingungen treten bei allen Mus1k111strumenten auf, welchen bei der Schwingungser zeugung nicht ständig Energie zugeführt wird oder nicht zugeführt werden kann . Hierzu zählen alle Zupfinstrumen te, das Klavier und Cembalo und die Schlaginstrume nte. Ein mechanisches System kann auch von außen durch Schwingungen anmit .einer geregt werden. Wird als Beispiel ein m。ウ・Mf、イdセューヲsケエ@ mit der System das schwmgt so angeregt, ung Erregerschwing sinusförmigen »erzwungene wird Anregung der Art Diese ung. Erregerschwing der Frequenz Schwingung« genannt. Die Amplitude des angeregten Systems hängt bei der erzwungenen Schwingung vom Unterschied der Erregerfrequen z zur Eigenfre\GN@ quenz ab. Je näher die Erregerfrequenz an die Eigenfrequenz ᄏ ィ・イ。ョセォエ desto größer ist die Amplitude. Diesen Vorgang nennt man Resonanz. Die Eigenfrequenzen eines Systems werden daher auch häufig mit Resonanzfreque nzen gleichgesetzt. Die Amplitude hiingt aber nicht nur von der Erregerfrequenz, sondern auch von der Dämpfung ab. Bei einem ungedämpften System nimmt die Amplitude sehr steil zu, wenn sich die Erregerfrequen z in Richtung Eigenfrequenz bewegt, bei einem gedämpften System eher flach. Die grafische Darstellung, bei welcher die Amplitude in Abhängigkeit von der Erregerfrequenz dargestellt wird und welche den Frequenzgang des mechanischen Sys19 tems darstellt, nennt man Resonanzkurve (Abb. 4). . 18 W. Auhagen (1994), Akustische Grundbegriffe, S. 368-369. 19 A. Benade (1960), Musik und Harmonie, S. 44; N.J. Lass I C.M. Woodford (2007), Hearmg science fundam entals, S. 34. 41 Grundlagen der Schwingungs- und Wellenlehre Michael Steppat A Abb. 4: Resonanzkurven eines mechanischen Systems mit geringer Dämpfung (obere Kurve) und mit hoher Dämpfung (untere Kurve). 20 :I Wird ein System angeregt, so geht dieses nicht sofort in einen stationären Zustand über, sondern benötigt eine gewisse Zeit bis das System eingeschwungen ist." Dieser Zeitabschnitt wird Einschwingvorgang genannt, die benötigte Zeit, bis die Amplitude etwa 70% des Endwertes erreicht hat, nennt man Einschwingzeit. 22 1.3.2 Schallausbreitung Die Ausbreitung des Schalls erfolgt durch Wellen in Form von Druckschwankungen und schwingenden Auslenkungen der Luftmoleküle. Eine Ausbreitung von Wellen lässt sich sehr anschaulich im ruhenden Wasser eines Badesees beobachten, wenn ein Stein hinein geworfen wird. Rund um die Aufschlagstelle bilden sich ringförmige Erhebungen im Wasser, welche sich in radialer Richtung von der Aufschlagstelle entfernen." Durch die ringförmige Ausbreitung vergrößert sich der Umfang der Wellenfront mit zunehmendem Abstand von der Aufschlagstelle. Die zum Abstand zur Aufschlagstelle unabhängige Bewegungsenergie verteilt sich nun auf einen immer größer werdenden Umfang, was zu einer Amplitudenabnahme führt. Die Welle klingt somit ab, je weiter sie sich von der Aufschlagstelle entfernt. In einem Medium, in diesem 20 21 22 23 W. Auhagen (1994), Akustische Grundbegriffe, S. 372. F. Winckel (1960), Phänom ene des musi/wlischen Hörens, S. 30 f. W. Auhagen (1994), Akustische Grundbegriffe, S. 372. W.E. Kock (1971), Schallwellen und Lichtwellen, S.lf. 42 aセZイ・ゥエオョァウ」ィキ、ォ@ B · iel die Wasseroberfläche, breiten sich Wellen stets mit einer spezifischen aus. s」ィ。ャキ・セ@ ゥセ@ 、・セ@ Luft breiten sich bei e.iner Temperatur von 20°C mit ・ゥョセイ@ セ・ウ」ィキュ、NQァエ@ von 344 m/s aus. Die Schallgeschwindigke.it in .der Luft ist. m erster Lm1e von 、・ セ@ t・ューイセエオ@ abR 0 hängig und ändert sich naherungswe1se オセョ@ 0,6 m/s pro C. p1ese. Naherun.g ist gültig für einen Temperaturbereich. zwischen :-20 und +40 c_. dQセ@ セオウ「イ・QM rungsgeschwindigkeit ist je nach m・、Qセュ@ verschieden, z.B. betragt, s1e. m ウNセ。ィャ@ 1 5050 m/s, in einer Ziegelwand und 1m Wasser etwa 1480 m/s. Sie hangt auch von der Wellenart ab. . Um Schall zu erzeugen, muss eine Schallquelle durch ihre Bewegung das umgebende Luftvolumen verdrängen. Zur eイコセオァョ@ einer. sinusförmigen Schallwelle eignet sich z.B. eine Kolbenpumpe. Uber eme rotierende Kurbelwelle wird der Kolben in einem Zylinder angetrieben. Die Auslenkung des Kolbens und die Verdrängung des Luftvolumens sind sinusförmig. Hierdurch wird ein Ton erzeugt, dessen Frequenz zur Drehzahl der Kurbelwelle proportional ist. Die Schallausbreitung erfolgt in Form von sinusförmigen Schwankungen des Luftdrucks. Der Luftdruck ist die auf ei.ne fャ¦」セ・@ カセョ@ einem m 2 einwirkende Kraft und wird in der Akustik häufig m der Emhe1t Pascal gemessen. Ein Druck von einem Pascal ist gleich dem eines von einem Newton pro m 2 . '" In einer zeitlichen mッュセョエ。オヲィ・@ ャ¦ウセエ@ sich der Druckverlauf entlang der Ausbreitungsrichtung mit der oイエウヲオョォQPセL@ welche den sセィ。ャ、イオ」@ in Abhängigkeit vom Abstand zur Schallquelle abbildet, ュ。エィ・セQウ@ als Sinusfunktion darstellen. Die Strecke, die der Schall zurücklegt, bis die Smusschwingung eine Periode durchlaufen hat, ist als Wellenlänge (Formelzeichen: A.) definiert. Sie ist das Produkt der Periodendauer (Formelzeichen: T) und der Ausbreitungsgeschwindigkeit (Formelzeichen: c ) und lässt sich mit folgender Beziehung beschreiben: A. = c · T. Die Wellenlänge hängt somit von der Frequenz ab, da die Periodendauer der Kehrwert der Frequenz ist. Schall:-"ellen in der Luft haben im hörbaren Bheich Wellenlängen von ca. 21 m bei 16 Hz und 1 7 cm bei 20 kHz. Das Prinzip der Kolbenpumpe findet auch im Lautsprecher seine Anwendung. Die schwingende Membran entspricht in ihrer Funktion der des Kolbens . Erfolgt die Schwingungsbewegung bei einer Welle senkrecht zur Ausbreitungsrichtung, wie z.B. bei einer Saite, spricht man von einer Transversalwel- 24 W. Auhagen (1994), Akustische Grundbegriffe, S. 373. 25 F.A. Everest (1987), Fundamen.tals of sound, S. 8. 26 J. Barkowsky (2009), Einführung in die musikalische Akustik, S. 25. 43 Grund lagen der Schwingungs- und Wellenlehre Michael Steppat Je. Die Teilchen werden senkrecht zur Ausbreitungsrichtun g ausgelenkt, bleiben aber in Ausbreitungsrichtun g in Ruhe (Abb. 5). • • • • • •• •• •• •• • •• •• •• •• •• •• • • • • •• •• •• •• • • • • • • • •• • • • • •• • • • • • •• • • • • • •• ••• • • • •• • • • •• ••• • • • • ••• • • • • •• • • • • •• • •• •• •• • • • Abb. 5: Transversale Wellenausbreitung (senkrecht zur Ausbreitungsrichtung). 27 Frequenzen statt. 1 1 Eine ebene Schallausbreitung findet in Rohren und Kanälen und annähernd bei großem Abstand zu einer Punktschallquelle statt. Aus diesem Grund eignen sich Rohre auch gut für akustisch betriebene Kommunikationsanlagen, da in ihnen der Schall über weite Strecken transportiert werden kann. In Lüftungsschächten von Heizungen und Klimaanlagen ist diese Eigenschaft allerdings von Nachteil, da sich der Störschall nahezu ungedämmt ausbreiten kann. Viele Scha llquellen wie Musikinstrumente, Lautsprecherboxen oder Maschinen lassen sich vereinfacht a ls Punktschallquellen betrachten, bei welchen die Schallausbreitung in Form von Kugelwellen erfolgt (Abb. 7). 32 Fallen Schwingungsrichtun g und Ausbreitungsrichtun g zusammen, handelt es sich um eine Längswelle oder Longitudinalwelle. Bei dieser Welle erfolgt die Bewegung nur in Ausbreitungsrichtun g. Senkrecht dazu bleiben die Teil chen in Ruhe (Abb. 6) . • •• •• • ••• • • • •• „ •• • • •• „ •• • • •• .• •• • • •• „„ •. •• •• •• • „ .• •• ••• • •• „ •• •• •• „ •. •• ••• • ••„ •• •• •• • .. „ .. • • •• •••••••• • ••„ •• •• •• •• •• •• •• •• • •• • ••• • ••• • •• •• •• •• •• • • •„ • .„ • •• • .„ • •• .• .„ . • • .„ • • ..„ • •• ••„ • •• •• •• • • • • •• •• •• •• •• •• • • •• •• • •• • „. •• . .„ . •• • .„ • •• ··- . Abb. 6: Longitudinale ebene Wellenausbreitung (in Ausbreitungsrichtung) ." In Gasen und Flüssigkeiten können sich nur longitudinale Wellen ausbreiten. In der Akustik ist hierbei die ebene und kugelförmige Schallausbreitun g von Bedeutung.'9 Bei der ebenen Schallausbreitung breiten sich die Wellenfronten senkrecht zur Ausbreitungsrichtun g aus.' 0 Da sich bei dieser Art der Ausbreitung die Abstrah lfläche nicht verändert, bleibt die Amplitude des Scha lldrucks (theoretisch) unabhängig vom Abstand zur Schallquelle annähernd gleich. Durch die geschwindigkeitsabh ängige Reibung der Moleküle (Dissipation) findet aber bei längeren Strecken eine Dämpfung der höheren 27 28 29 30 1. Veit (1974), Technische Akustik, S. 27. 1. Veit (1974), Technische Akustik, S. 27. 1. Veit (1974), Technische Akustik, S. 27-28. S. Weinzierl (2008), Grundlagen, S. 33. 44 Abb. 7: Kugelförmige Wellenausbreitung. n Bei der Kugelwelle wächst die Abstrah lfläche mit dem Quadrat zum Abstand der Scha llquelle. Da sich die abgestrahlte Schallleistung auf diese immer 31 H. Kuttruff (2004), Akustik, S. 133f. 32 M. Vorländer (2008), Auralization, S. 27. 33 1. Veit (1974), Technische Akustik, S. 27. 45 Michael Steppat Grundlagen der Schwingungs- und Wellenlehre größer werdende Fläche verteilt, nimmt die Schallintensität (Schallleistung je ni2) '' ab. Dies hat zur Folge, dass sich bei der Kugelwelle der von der Schallintensität abhängende Schalldru ck mit jeder Entfernungsverdopp lung halbiert. 1.3.3 Überlagerung von Wellen Mit einem weiteren Experiment am Badesee lässt sich das für Wellen geltende Überlagerungsprinzi p (auch Superpositionsprinz ip genannt) erklären. Wirft man zu dem ins Wasser geworfenen Stein mit etwas Abstand einen zweiten Stein, so lässt sich feststellen, dass von beiden Einwurfstellen eine Wellenausbreitung ausgeht. Bei Ausschlägen von Wellen in positiver Richtung spricht man von Wellenbergen, in negativer Richtung von Wellentälern. Treffen zwei Wellenberge aufeinander, so überlagern sich diese. Die resultierende Amplitude ist die Summe der beiden Amplituden der sich begegnenden Wellen. Bei gleich großen Amplituden werden diese verdoppelt. Trifft ein Wellenberg hingegen auf ein Wellental, so löschen sich beide gegenseitig aus, sofern die Amplituden gleich groß sind. Für die Schallausbreitung in der Luft gelten für die Überlagerung die gleichen Bedingungen wie auf der Wasseroberfläche. Bei kohärenten Schwingungen, d.h . wenn die Schwingungen in einem Zusammenhang stehen, zum Beispiel wenn eine Welle an einer Wand zurückgeworfen wird und sic h hin- und zurücklaufende Wellen überlagern, ist die Phasenlage entscheidend, ob sich die zusammenlaufenden Wellen überlagern oder gegenseitig auslösc hen. Bei gleicher Phasenlage und Amplitude kommt es zu ein er Amplitudenverdopp lung, ist die Phase um 180° verschoben, löschen sich beide Wellen vollständig aus (Abb. 8).'' 34 L.L. Beranek (1996), Acoustics, S. 12. 35 F.A. Everest (1987), Fun.damentals of soun.d, S. 12. 46 Abb. 8: Amplitudenverdopplung und Auslöschung zweier überlagerter kohärenter Wellen bei unterschied licher Phasenlage (links: 0°, rechts: 180°). In der technischen Akustik werden zur Minderung von Störgeräuschen Verfahren eingesetzt, in denen mit Hilfe von gegenphasigen Scha llsignalen (Antischall) die Störgeräusche ausgelöscht werden. Besonders effektiv ist das Verfahren bei ebener Schallausbreitung, z.B. in Lüftungsschächten oder bei Autoschalldämpfern (Reflexionsschalldämpfer). Werden Schwingungen überlagert, deren Frequenzen sich nur geringfügig unterscheiden, so entstehen Schwebungen.'" Beträgt der Frequenzunterschied zum Beispiel ein Hertz, so entsteht durch Überlagerung und Auslöschung eine periodische Lautstärkeschwankung mit einer Schwebungsfrequen z von einem Hertz. Somit ent17 spricht die Schwebungsfrequen z immer der Differenz der beiden Frequenzen. Bis ca. acht Hz werden Schwebungen als Lautstärkeschwanku ngen wahrgenommen , darüber hinaus a ls Rauhigkeit. Beim Stimmen von Musikinstrumenten ist die hörbare Schwebung ein wichtiges Hilfsmittel." Wird1 zum Beispiel ein Klavier gestimmt, wird als erster Sthritt das eingestrichene a (A4) mit der Stimmgabel auf 440 Hz gestimmt. Der Stimmgabelton dient als Vergleichston. Unterscheiden sich die Frequenzen von zu stimmender Saite und Stimmgabel geringfügig, ist eine Schwebung hörbar. Je schneller die Schwebung, desto mehr entfernt man sich von dem Vergleichston. Nähert man sich dem Vergleichston, wird die Schwebung immer langsamer, bis sie schließlich ver36 M. Dickreiter u.a. (2008), Handbuch der Ton.studiotechn.ik, S. 47 f.; H.v. Helmholtz (1863), Die Lehre von den Tonempfindungen, S. 238. 37 J.G. Roed erer (2000), Physilwlische und psychoakustische Grundlagen. der Musik, S. 38. 38 W. Auhagen (1994), Akustische Grundbegriffe, S. 370. 47 Grundlagen der Schwingungs- und Wellenlehre Michael Steppat schwindet. Aufgrund der gleichstufigen Temperatur werden nur die Oktaven a ls reine (schwebungsfreie) Intervalle gestimmt. Um ein Instrument in einer gleichstufigen Temperatur zu stimmen, werden a lle Quinten leicht verstimmt. Den erforderlichen Grad der Verstimmung erkennt der Klavierstimmer an der Schwebungsfrequenz . 1.3.4 Gestörte Schallausbreitung Trifft eine Schallwelle a uf eine Wand (z.B. a us Z iegelstein), w ird sie in ihrer Ausbreitung gestört. Der Grund für die Störung ist der Übergang von einem Medium in ein anderes. In diesem Fall verlässt die Schallwelle das Medium Luft und bewegt sich in dem nun neuen Medium Ziegelstein stark gedämpft in Ausbreitungsrichtung weiter. Ein großer Teil der Scha llwelle wird in umgekehrter Ausbreitungsrichtun g reflektiert. Die Dämpfung entsteht durch den viel höheren Schallwellenwidersta nd der Ziegelwand gegenüber der Luft. Dieser beträgt in der Luft etwa 400 kg/{m 2s), in der Ziegelwand 6,5 · 10 6 kg/(m2s), also rund das 16250-fache. Der Scha llwellenwiderstand gibt das Verhältnis von Scha lldruck zur Schallschnelle (Teilchengeschwindigkeit der schwingenden Moleküle) an. 19 In der Luft wird zum Beispiel bei einem Scha lldruck von einem Pa (was einem Schalldruckpegel von 94 dB entspricht) eine Scha llschnelle von 2,5 mm/s erzeugt. In der Z iegelwand erzeugt der gleiche Schalldruck nur noch eine Schallschnelle von etwa 0,153 µm/s, er müsste a lso um das 16250-fache höher sein, um die gleiche Schallschnelle zu erzeugen. Dies hat zur Folge, dass ein großer Teil der Schallenergie von der Wand als Reflexion zurückgeworfen wird. Die reflektierte Welle breitet sich dann , wenn sie senkrecht a uf die Wand trifft, entgegengesetzt zur ursprünglichen Richtung aus. Das Verhältnis der Schalldrücke von eintreffendem und reflektiertem Schall ist der Reflexionsfaktor (Formelzeichen: r), welcher sich aus dem Verhältnis der Differenz und der Summe der Schallwellenwiderstä nde der beiden Medien Luft und Z iegelstein mit folgender Beziehung berechnen lässt: r = ( Zw - ZL) / ( Zw + Zd . Zw ist der Schallwellenwidersta nd der Wand, ZL der der Luft. Er ist eine Materia lkonstante, welche aus dem Produkt der Dichte und der Schallgeschwindigkeit berechnet wird. Der Wert des Reflexionsfaktors geht gegen 1, je größer die Differenz der beiden Schallwellenwiderstä nde ist. Bei ein em Wert von 1 wird die Schallwelle vollständig reflektiert, bei dem Wert 0 findet keine Reflexion 39 L.L. Beranek (1996), Acoustics, S. 11. 48 statt (dies ist der Fall, wenn beide _Sc?allwellenwiderstän_de den gleichen Wert haben). In dem vorl iegenden Be1sp1el hat der r・セャクQPョウヲ。ォエッイ@ den Wert: 0,999876, somit beträgt der Schalldruck der イ・ヲャセエQョ@ w・ゥャ⦅セ@ 99,9 ッOセ@ d_es S halldrucks der eintreffenden Welle. Um nun bestimmen zu konnen, w1ev1el sセィ。 ャ@ hinter der Wand noch durchkommt, muss eine Energiebilanz erstellt werden. Der Anteil der reflektierten Schallenergie wird mit dem Reflexionsgrad (Formelzeichen: p) berechnet, welcher das Quadrat des Reflexionsfaktors ist und mit folgender Beziehung berechnet wird: p = r 2 • Den von der Wand absorbierten Energieanteil erhält man mit dem Absorptionsgrad (Formelzeichen: a). Dieser wird durch Subtraktion des Reflexionsanteils vom Gesamtanteil (= 1) mit folgender Beziehung berechnet: a = 1 - p. Der absorbierte Anteil hat in dem Beispiel den Wert 2,461·104, d.h. nur ein Vierzigtausendstel der Schallenergie bewegt sich weiter fort, umgerechnet in Dezibel entspricht dies einer Dämpfung von etwa 36 dB. Fällt die Welle nicht senkrecht, sondern in einem bestimmten Winkel auf die Wand, so gilt für die reflektierte Welle, dass der Einfallswinkel gleich dem Reflexionswinkel ist.' 0 Die sich in der Wand weiter a usbreitende Welle erfährt eine Richtungsänderung in einem bestimmten Winkel. Dieser Vorgang wird Brechung genannt. Der Brechungswinkel, d.h. der Winkel zwischen dem Einfallslot (senkrecht zur Wand) kann aus dem Brechungsgesetz berechnet werden. Das Brechungsgesetz besagt, dass das Verhältnis der Schallgeschwindigke it der Luft (Formelzeichen: cL ) zur Schallgeschwindigkeit der Wand (Formelzeichen: cw ) dem Verhältnis der Sinuswerte von Einfa ll swinkel (Formelzeichen: a) und Brechungswinkel (Formelzeichen: ß) entsprechen muss. Es kann mit folgender Beziehung berechnet werden (sin a / si n ß) = (cL I cw ). Der Brechungswinkel lässt sich durch Umstellen der Formel berechnen." Stehen sich wie z.B. in Räumen zwei Wände gegenüber und befindet sich in der Mitte zwischen den Wänden eine challquelle, deren Abstra hlung auf eine Wand gerichtet ist, so läuft die entstehende Schallwelle zunächst zur ersten Wand wird dort reflektiert und läuft dann zur zweiten Wand, wo sie ebenfalls ' wird. In dem Bereich zwischen den beiden Wänden entsteht je eine reflektiert hinla ufende und eine rücklaufende Welle, welche sich überlagern. Ist die Wellenlänge einer Welle gleich dem Abstand der beiden Wände, so löschen sich die beiden Wellen in der Mitte gegenseitig aus. Ein Schwingungsknoten entsteht, 40 H. Borucki (1980), Einführung in die Akustik, S. 79; A.D. Pierce, Basic linear acoustics (2007), s. 61. 41 H. Borucki (1980), Einführung in die Akustik, S. 84. 49 Michael Steppat <1 welcher sich stets in Ruhe befindet. Bei einem Abstand zur Wand, welcher einem Viertel des Gesamtabstandes entspricht, überlagern sich zu beiden Seiten die Wellen. Erreichen hinlaufende und rücklaufende Welle ihr Maximum oder Minimum, verdoppelt sich der resultierende Ausschlag. An diesen feststehenden Punkten hat die resultierende Welle stets ihre maximale Amplitude. Dieses Amplitudenmaximum wird Schwingungsbauch genannt. Bei der hin- und rücklaufenden Welle verschieben sich mit der Ausbreitungsgeschwindigkeit die Maximal- und Minimalauslenkungen entlang der Ausbreitungsrichtung. Dies ist bei der resultierenden Welle nicht der Fall. Schwingungsminima und Schwingungsmaxima verharren an der gleichen Stelle. Die Welle wird daher »stehende Welle « genannt.' 2 Stehende Wellen lassen sich oftmals in kleinen gefließten Räumen, wie z.B. einem Badezimmer sehr gut anregen. Singt man in diesem Raum, so entsteht bei einer bestimmten Tonhöhe der Eindruck, als würde der ganze Raum vibrieren . Stehende Wellen bilden sich nicht nur bei einer Wellenlänge, die genau dem Abstand der beiden gegenüberliegenden Wände entspricht. Auch bei halber Wellenlänge bildet sich eine stehende Welle, welche aber nur einen Schwingungsbauch in der Mitte hat. Entscheidend für die Ausbildung einer stehenden Welle sind die sogenannten Randbedingungen. Den Rand der Welle legen die beiden Wände fest. Da sich die Luftmoleküle an der Wand nicht bewegen können, gilt als Bedingung, dass sich nur stehende Wellen mit einer Wellenlänge ausbilden können, bei denen an den Rändern Schwingungsknoten auftreten. Dies ist der Fall bei allen Wellen, bei denen der Abstand von den Wänden ein ganzzahliges Vielfaches der halben Wellenlänge ist. In Aufführungsstätten und in Tonstudios sind stehende Wellen unerwünscht, da sie Überbetonungen einzelner Frequenzen verursachen und somit den Klang verfärben. Daher werden in diesen Räumen parallel stehende Wände vermieden. Stehende Wellen treten auch in Orgelpfeifen auf. Deren Eigenfrequenzen hängen von der Länge und den Randbedingungen an den beiden Enden ab. An offenen Enden kann die Teilchengeschwindigkeit ein Maximum annehmen, an geschlossenen Enden findet keine Bewegung statt, und somit gilt hier die Bedingung, dass die Geschwindigkeit der Teilchen dort ein Minimum hat. Umgekehrt verhält es sich mit dem Druck, welcher nur an einem geschlossenen Ende maximal werden kann und an offenen Enden sein Minimum hat. Bei der offenen Pfeife sind beide Enden offen. Als Grundschwingung bildet sich eine stehende Welle mit jeweils einem Geschwindigkeitsmaximum (und Druckminimum) an den Enden und einem Schwingungsknoten in der Mitte. 42 H. Borucki (1980), Einführung in die Akustik, S.80. 50 Grundlagen der Schwingungs- und Wellenlehre Die Grundfrequenz (Formelzeichen: f i) hängt von der Ausbreitungsgeschwindigkeit (Formelzeichen: c ) und von der Länge (Formelzeichen: L) der pfeife ab und wird mit folgender Beziehung berechnet f1 = c / 2L. Die pfeifenlänge entspricht somit der halben Wellenlänge. Die Frequenzen der Obertöne sind ganzzahlige Vielfache der Grundfrequenz. Bei der gedeckten Pfeife (Registerbezeichnung: »Gedackt «) ist das obere Ende der Pfeife geschlossen. An diesem Ende treten als Konsequenz bei den stehenden Wellen Geschwindigkeitsminima und Druckmaxima auf. Das Spektrum ist nicht mehr ganzzahlig harmonisch, sondern in ihm sind nur die ungeradzahligen Vielfachen der Grundfrequenz enthalten. Durch das Fehlen der geradzahligen Teiltöne entsteht ein dunklerer »hohler « Klang.' 3 Die Pfeifenlänge entspricht bei der gedeckten Pfeife nur noch einer Viertelwellenlänge, daher erklingt diese Pfeife eine Oktave tiefer als die offene Pfeife. Die Grundfrequenz wird mit der Beziehung: f 1 = c / 4 L berechnet. 44 1.3.5 Schwingungen von Saiten Der Effekt der hin- und zurücklaufenden Welle bei deren Reflexion lässt sich anschaulich mit einem Gummischlauch demonstrieren, welcher an einem Ende befestigt und am anderen Ende frei beweglich ist. Wird das freie Ende des Schlauches mit einer kurzen Bewegung ruckartig etwa 30-40 cm nach unten bewegt, so wandert dieser Impuls an der Unterseite zum befestigten Ende und läuft von dort wieder zurück zum Ursprung. Ist das Ende fest eingespannt, so läuft der Impuls an der Oberseite zurück. Bei einem losen Ende, wo sich der Schlauch noch vertikal bewegen kann und nur in horizontaler Richtung fest ist, läuft der Impuls an der Unterseite zurück.'1 Wird der Schlauch nun an beiden Seiten eingespannt und an einer beliebigen Stelle aus seiner Ruhelage ausgelenkt, beginnt er zu schwingen und stehende Wellen bilden sich aus. Zupft man eine Saite an, so entsteht der 1Ton nach dem gleichen Prinzip. Da Saiten nur eine geringe Eigenelastizität besitzen, müssen sie gespannt werden, um schwingen zu können. Je höher die Spannung, desto höher ist auch die Ausbreitungsgeschwindigkeit der sich auf der Saite bewegenden Wellen. Beim Anzupfen einer Saite haben die entstehenden Transversalwellen (Schwingungsrichtung senkrecht zur Ausbreitungsrichtung) die größte Amplitude. Neben 43 J. Meyer (2004), Akustik und musikalische Aufführungspraxis, S. 34. 44 W.A. v. Bergeijk / J.R. Pierce / E. David jr. (1960), Die Schallwellen und wir, S. 55-58. 45 H . Borucki (1980), Einführung in die Akustik, S. 78. 51 Grundlagen der Schwingungs- und Wellenlehre Michael Steppat der Spannkraft (Formelzeichen: F) hängt die Ausbreitungsgeschwindigkeit (Formelzeichen: c ) auch noch von der Querschnittsfläche (Formelzeichen: A) und von der Dichte (Formelzeichen: p) des Saitenmaterials ab. Sie kann mit folgender Beziehung berechnet werden: c 2 = F / ( pA). Wird die Saite zum Schwingen gebracht, so bilden sich stehende Wellen. Da die Saite auf beiden Seiten fest eingespannt ist, können sich nur stehende Wellen ausbilden, deren Knotenpunkte an den Enden liegen. Auch hier gilt wie im vorangegangenen Beispiel {stehenden Welle zwischen zwei Wänden), dass die Saitenlänge ein ganzzahliges Vielfaches der halben Wellenlänge sein muss. Bei der hohen ESaite einer Gitarre beträgt die Ausbreitungsgeschwindigkeit 435,6 m/s. Die Grundfrequenz (Formelzeichen: f) wird aus dem Verhältnis der Ausbreitungsgeschwindigkeit zur Wellenlänge (Formelzeichen: A.) mit der Beziehung: f = c / A, die zweifache Länge (Formelzeichen: L) wird Wellenlänge die Für berechnet. der Saite nach folgender Beziehung eingesetzt: A, = 2 · L. Somit ergibt sich bei einer Länge von 0,66 m eine Grundfrequenz von 330 Hz. Die Frequenzen der Oberschwingungen sind ganzzahlige Vielfache der Grundfrequenz. Somit besteht der Klang der Saite aus Teiltönen mit den Frequenzen: 330, 660, 990, 1320, ... Hz. Diese Frequenzen werden Eigenfrequenzen genannt, die zugehörige Schwingungsform Eigenform. Der erste Teilton hat die Grundfrequenz von 330 Hz, der zweite Teilton ist mit 660 Hz eine Oktave höher. Führt man ein Koordinatensystem ein und lässt die x-Achse am linken Einspannpunkt der Saite mit x = 0 beginnen, lassen sich die durch die stehenden Welle entstehenden Schwingungsformen mathematisch beschreiben. Zur Vereinfachung werden die Koordinaten der x-Achse mit der Hilfskoordinate 1 beschrieben. Sie gibt den Anteil im Verhältnis zur Gesamtlänge an und steht mit der xKoordinate in der Beziehung 1 = x / L. Die Schwingungsform des ersten Teiltons (Grundfrequenz) besteht aus zwei Schwingungsknoten an der Einspannung bei den Stellen 1 = 0 und 1 = 1 und einem Schwingungsbauch an der Stelle 1 = 1 I 2. Mathematisch entspricht die Kurve einer halben Sinuswelle .. Jede Schwingungsform hat an den Rändern jeweils einen Schwingungsknoten. Der zweite Teilton besitzt neben den beiden Schwingungsknoten am Rand einen in der Mitte und zwei Schwingungsbäuche be.i 1 = 114 und 3/4. Dies entspricht einer vollen Sinusschwelle. Die Mode des dritten Teiltons hat zwei Schwingungsknoten bei 1 = 113 und 2/3 und drei Schwingungsbäuche bei 1 = 116, 316 und 516 (Abb. 9).4r. 46 ]. Askill (1979), Physics of musical sounds, S. 88. 52 Abb. 9: Die ersten vier Schwingungsmoden einer Saite 47 Nimmt man die Schwingung der Saite an einem bestimmten Punkt zum Beispiel mit einem Tonabnehmer ab und stellt die Zeitfunktion mit einem Oszilloskop oder als Audiodatei im Computer dar, so hat die Schwingungsform nun keine Sinusform mehr. Die einzelnen sinusförmigen Teiltöne überlagern sich zu einer Gesamtschwingung. Der französische Mathematiker und Physiker Jean Baptiste Joseph Fourier (1768-1830) zeigte, dass sich beliebige periodische Signale als eine Summe von Sinusschwingungen darstellen lassen.'' Einzelne Sinusschwingungen werden als Ton bezeichnet, zusammengesetzte, aus mehreren Tönen bestehende Schwingungen, bezeichnet man als Klang." Mit der Fourieranalyse lassen sich beliebige Schwingungsformen in ihre Sinusanteile zerlegen und als Spektrum darstellen, dessen Graph (Spektralfunk0 tion) die Amplitude abhängig von der Frequenz darstellt.' In einem harmonischen Spektrum, bei welchem die Frequenzen der Teiltöne ganzzahlige Vielfadie enthaltenen Teiltöne dabei als che der Grundfrequenz sind, ・イ セ 」ィ・ゥョ@ einzelne Linien (Abb. 10). 47 48 49 50 1. Veit (1974), Technische Akustik, S. 41. R.E. Berg I D.G. Stark (2005), The physics o f sound, S. 92-104. E. Schumann, Akustik (1925), S. 15-18. W. Auhagen (1994), Akustische Grundbegriffe, S. 371. 53 Grundlagen der Schwingungs- und Wellenlehre Michael Steppat A den, was einer Schwingungsüberlagerung entspricht. Diese Umkehrung der Fourierana lyse wird Fouriersynthese genannt. Sie findet auch in der Klangsynthese ihre Anwendung, wenn Klänge mit einzelnen Sinusgeneratoren erzeugt werden, welche dann zusammengemischt werden. A /VV\ 1.3.6 Schwingungen von Platten und Stäben 1 f [Hz] (1 = 3/4). Saite gestrichenen einer Spektrum und Abb. 10: Zeitverlauf t[ms] Jeder vierte Teilton fehlt. Die Darstellung einer einzelnen Sinusschwingung erfolgt im Spektrum als Linie, deren Länge die Amplitude angibt. Neben dem Linienspektrum kann die Spektralfunktion auch eine Kurve darstellen. Man spricht dann von einem kontinuierlichen Spektrum, wie z.B. bei einem Rauschsignal. Auch ein sehr kurzer Impuls, wie z.B. ein Funkenknall oder ein Pistolenschuss, hat ein kontinuierliches Spektrum. Die Fourieranalyse wird heute so gut wie nur noch mit Hilfe des Computers durchgeführt. Hierzu muss die zu untersuchende Zeitfunktion diskretisiert werden, indem man ihre Amplitudenwerte in konstanten Zeitabständen misst und die Messwerte in einer Zahlenfolge speichert. Die Messung erfolgt über Ana log-Digitalwandler, welche z.B. mit einer Frequenz von 44.100 Hz das elektrische Signal (z.B. ein Mikrofonsigna l einer aufgenommenen Schwingung) abtasten. Soundkarten von Computern verfügen über solche Wandler. Mit einer geeigneten Audiosoftware lassen sich die Messwerte dann in einer Datei speichern. Bei der Fouriertransformation, der mathematisch durchgeführten Fourierana lyse, wird immer ein bestimmter Zeitabschnitt (Zeitfenster) untersucht, unter der Annahme, dass es sich hierbei um eine periodische Funktion handelt. Ist z.B. ein Abschnitt 1.024 Abtastwerte lang, wird die Zeitfunktion im ersten Schritt mit der Zahlenfolge einer Cosinusfunktion multipliziert, deren Periodendauer exakt 1.024 Abtastwerte beträgt. Die Ergebnisse der Multiplikationen werden dann zusammenaddiert. Dieser Rechengang entspricht einer Korrelationsanalyse und liefert den Energieanteil dieser Frequenz. Bei einer Abtastrate von 44.100 Hz entsprechen 1.024 Abtastwerte 23,2 ms, was umgerechnet eine Frequenz von 43,1 Hz ergibt. Dieser Vorgang wird nun 1.024mal mit Frequenzen, die ganzzahligen Vielfache von 43,1 Hz sind, wiederholt. Auf diese Weise wird die diskrete Spektralfunktion berechnet. Neben der Fourieranalyse existiert auch eine Rücktransformation. Die Amplituden- und Frequenzwerte der Spektrallinien lassen sich in Sinusfunktionen einsetzen, welche dann aufsummiert wer- 54 In Platten und Stäben ist eine Wellenausbreitung von Longitudinalwellen und Transversalwellen in Form von Biegewellen oder Torsionswellen (durch Ver5 drehung) möglich. ' Neben den Biege- und Torsionswellen erlaubt die transversale Richtung auch Oberflächenwellen (bei dickwandigen Strukturen) und Schubwellen, bei welchen sich die Dicke der Platte periodisch ändert. Die Schwingungsformen der einzelnen Moden hängen von der Art der Einspannung ab. Das Ende eines Stabes bzw. der Rand einer Platte kann frei sein, frei drehbar gelagert oder fest eingespannt sein. Bei einem freien Ende sind Moden möglich, bei denen sich genau dort ein Schwingungsbauch befindet. Dies ist der Fall, wenn ein Stab an einem Ende eingespannt ist und am anderen Ende frei. Die Grundschwingung hat dann ihre maximale Auslenkung am freien Ende und einen Schwingungsknoten am eingespannten Ende. Bei der Stimmgabel handelt es sich um einen gebogenen Stab mit zwei freien Enden. Die gleichen Randbedingungen finden sich auch bei den Klangstäben von Glockenspielen. Wird ein Stab frei drehbar gelagert an beiden Seiten eingespannt, so haben die Eigenfrequenzen die gleichen Schwingungsformen wie bei der Saite. Die Frequenzen der Teiltöne stehen in den Verhältnissen 1, 4, 9, 16, 25, etc. zur Grundfrequenz. Wird der Stab an beiden Enden fest eingespannt, so ähnelt der Verlauf der Grundmode einer glockenförmigen Kurve. Für Platten, die zweidimensionale Schwinger darstellen, bilden sich stehende Wellen entlang einer gedachten Schnittlinie nach den gleichen Prinzipien wie bei einem Stab. Statt Schwing ungsknoten bilden sich auf der Platte sogenannte Knotenlinien. Diese können sichtbar gemacht werden, wenn eine Platte mit feinem Sand bestreut wird und in einer Eigenfrequenz über einen Lautsprecher oder einen Schwingungsanreger (Shaker) angeregt wird. Überall, wo die Platte in Bewegung ist, hüpfen die Sandkörnchen in die Luft, dort wo die Platte in Ruhe ist, sammeln sie sich und markieren auf diese Weise die Knotenlinien (Abb. 11) [7 1.2]. 51 M. Bruneau (2006), Fundamentals of acoustics, S. 410- 418. 55 Grundlagen der Schwingungs- und Wellenlehre Michael Steppat ャ セ@ rn H tB () () E8 (()) Abb. 11: Schwingungsmoden einer viereckigen (oben) 52 und einer kreisrunden Platte (unten). Bei viereckigen oder rechteckigen Platten teilen die Knotenlinien die Platte in gleich große Abschnitte auf. 11 Die einzelnen Schwingungsformen (Moden) werden zu ihrer Unterscheidung mit einem Index versehen, der in Klammern die Anzahl der Knotenlinien angibt. Zum Beispiel bedeutet (1,0), dass die Mode in Richtung der x-Achse eine Knotenlinie hat, der Index (0,1) steht für eine Knotenlinie in y-Richtung. Bei kreisrunden Platten bilden sich zirkulare Knotenlinien (Kreise) und radiale Knotenlinien (Durchmesser). 14 Die radialen Knotenlinien teilen die Platte in gleichgroße Abschnitte wie einen Kuchen auf. Diese Möglichkeit, Schwingungen von Platten auf diese Weise sichtbar zu machen, entdeckte der Physiker Ernst Florens Friedrich Chladni (1756-1827) um 1787 bei Experimenten, bei dener er mit einem Violinbogen eine dünne elastische Platte an der Kante anstrich. Die dabei entstehenden Muster werden auch als Chladnische Klangfiguren bezeichnet [-7 1.2]." 1.3. 7 Gekoppelte Schwingungssysteme bei Saiteninstrumenten Da die Schwingung einer Platte sich im Vergleich zur Saite oder dem Stab auf eine große Fläche verteilt, ist die Platte ein guter Schallstrahler. Aus diesem Grund werden Platten in den Resonanzkörpern von Saiteninstrumenten eingesetzt. Decke und Boden einer Violine oder einer Gitarre entsprechen in ihren 52 K. Lüders / R.O. Pohl (2004), Pohls Einführung in die Physil<, S. 193. 53 J. Backus (1977), The acoustical foundations of music, S. 68; H. Kröncke (1973), Mechanische Schwingungen und Schall, S. 48. 54 H .F. Olson (1967), Music, physics and engineering, S. 80ff. 55 R. Eberlein (1994), Geschichte der musil<bezogenen Al<ustil<, S. 380; K. Lüders I R.O. Pohl (2004), Pohls Einführung in die Physil<, S. 193. 56 physikalischen Eigenschaften unter einer vereinfachten Annahme denen einer Platte. Auch der Resonanzboden von Klavieren erfüllt diese Eigenschaften. Der Resonanzboden hat die Aufgabe, die Schwingungen der Saite, deren Schallabstrahlung wegen der geringen Fläche unzureichend ist, an die umgebende Luft abzugeben. Die Verbesserung der Schallabstrahlung wird durch eine Flächentransformation erreicht. Die Saite erzeugt aufgrund ihrer großen Auslenkung einen hohen Schalldruck, welcher sich aber nur auf eine kleine Fläche verteilt. Durch die Kopplung der Saite an die Decke und dem Boden werden die Schwingungen auf eine größere Fläche verteilt, damit erfolgt eine bessere Anpassung an die Schallwellenimpedanz der Luft. Neben den Decken- und Bodenresonanzen schwingt in einem Geigen- oder Gitarrenkorpus auch das eingeschlossene Luftvolumen zwischen Decke und Boden. Durch die (wegen ihrer Form so genannten) F-Löcher oder das Schallloch entsteht eine Luftresonanz, welche dem Prinzip eines HelmholtzResonators entspricht. Ein Helmholtz-Resonator funktioniert ähnlich wie ein Masse-Feder-System. Die eingeschlossene Luft hat eine (träge) Masse und eine durch die Elastizität hervorgerufene Steifigkeir56 [-7 1.2). Ziel des Instrumentenbauers ist es, die Resonanzen (insbesondere die der Decke) so anzupassen, dass sie als wohlklingend empfunden werden. Durch Veränderung der Dicke des Holzes und einer Beleistung (bei der Gitarrendecke) lässt sich die Steifigkeit der Decke verändern und sich so jede Resonanzfrequenz gezielt anpassen. So werden z.B. Geigen als gutklingend bewertet, wenn ausgeprägte Resonanzen im Bereich des Sängerformanten (um 2.800 Hz) liegen." Bei den durch erzwungene Schwingung angeregten Resonanzen spielt auch deren Dämpfung eine Rolle. Ist die Dämpfung zu gering, wird die Resonanz zu ausgeprägt. Dies führt zu einer Überbetonung dieser Frequenz, welche vom Zuhörer meist als »topfiger Klang« beschrieben wird. Mit der Dämpfung verbreitert sich auch der Frequenzgang der Resonanz, welches einen ausgewogeneren Klang zur Folge hat, da ein breiteres Frequenzband gleichmäßiger übertragen wird. Ein Geigenbauer überprüft bei der Fertigung der Decke die Frequenz und die Dämpfung der Eigenmoden durch eine Klopfprobe. Anhand der Tonhöhe lässt sich die Frequenz bestimmen und mit der Ausklingzeit die d¦セーヲオョァN@ Diese Untersuchung erfordert ein sehr geschultes Gehör und sehr viel Ubung, die jahrelange Erfahrung voraussetzt. 56 H .v. Helmholtz (1963), Die Lehre von den Tonempfindungen, S. 73f. 57 W. Stauder (1979), Einführung in die Al<ustil<, S. 62; G. Heike/ H. Dünnwald (2003), Neue re Klanguntersuchungen an Geigen und ihre Beziehung zum Gesang. 57 Untersuchungsmethoden 1.4 Untersuchungsmethoden Von Wilfried Kausel Die Musikalische Akustik ist ein interdisziplinärer Forschungsbereich und beschäftigt sich mit allen Fragen, die mit Erzeugung, Übertragung, objektiver Qualität sowie subjektiver Wahrnehmung von musikalischen Klängen zu tun haben. Die davon betroffenen Fachgebiete sind die Physik (als Akustik der Musikinstrumente, der menschlichen Stimme und des menschlichen Gehörorgans sowie als Raumakustik), aber auch die Psychologie, da sowohl beim Spielen von Musikinstrumenten oder beim Singen, als auch beim subjektiven Interpretieren des Gehörten psychologische Aspekte ganz wesentlich sind. Das Spektrum der benötigten Untersuchungsmethoden reicht daher von rein naturwissenschaftlichen Techniken wie der Messtechnik, der Signalverarbeitung oder der Computersimulation bis zu den empirischen Forschungsmethoden der Sozialwissenschaften. Die Erweiterung des gegenwärtigen Wissensstandes in der Musikalischen Akustik setzt eine solide Basis in Mathematik sowie Vertrautheit mit statistischen Methoden voraus. Von den gewonnenen Erkenntnissen profitieren nicht nur Wissenschaftler, sondern vor allem Instrumentenhersteller, denen neue Werkzeuge für den methodischen Entwurf, die Optimierung oder die treffsichere Diagnose von Mängeln ihrer Musikinstrumente zur Verfügung gestellt werden. Ebenso profitieren Musiker und Musikpädagogen, die neue Einblicke in die Möglichkeiten ihrer Instrumente und Feedback zu ihrer persönlichen Spieltechnik erhalten. 1.4.1 Messverfahren der Musikalischen Akustik Ziel jeder Wissenschaft ist es, Beobachtungen zu objektivieren und nach Möglichkeit einer exakten quantitativen Analyse zu unterziehen. Wo solches sich als schwierig oder unmöglich erweist, kann man mit Hilfe der Statistik versuchen, Zusammenhänge zwischen Beobachtungen und möglichen Einflussgrößen zu finden. Dieses Verfahren lässt sich nicht nur auf stark streuende Messwerte, sondern auch sehr gut auf Erhebungsergebnisse subjektiver Einschätzungen übertragen; es stellt dadurch das wichtigste Werkzeug der empirischen Forschung dar. Von Messverfahren im weiteren Sinn könnte man sprechen, wenn Vorgänge oder Details sichtbar gemacht werden, die der natürlichen Sinneswahrnehmung normalerweise nicht zugänglich sind, sei es, weil die Objekte oder 58 . Schwingungsamplituden zu klein, die Bewegungsvorgänge zu ウセィョ・ャ@ bzw. zu langsam oder das zu beobachtende Medium (z.B. Luft) durchs1cht1g セョ、@ damit unsichtbar ist. Als Visualisierungen könnte man Verfahren bezeichnen, mit denen man verborgene Vorgänge sichtbar machen kann, ohne dass sich irgendwelche Rückschlüsse auf absolute Messgrößen, wie z.B. Strömungsgeschwindigkeiten, ziehen lassen. Messung und Analyse von Klängen Gegenstand der Klanganalyse Auch wenn der Begriff »Klang « vordergründig recht einheitlich verwendet und verstanden wird, muss man sich doch zu allererst der Frage stellen, welcher »Klang« denn da untersucht werden soll. Der subjektive Klangeindruck eines Menschen ist (noch) nicht materiell messbar. Trotzdem hat die Psychoakustik [7 2.5] mit den Instrumenten Hörtest, Befragung und Statistik brauchbare Werkzeuge für die Analyse von subjektiven Klangeindrücken zur Verfügung und wendet diese auch sehr erfolgreich an (z.B. MP3 Audiokomprimierung' [7 3.3.3], Phon-Skala' [7 2.5] usw_.) . . . Die große Schwierigkeit der Klanganalyse ist es nach wie vor, aus emem Schallsignal, das irgendwo im Raum aufgenommen wurde, Klangmerkmale zu isolieren die als solche nicht nur deutlich wahrgenommen werden können:, sondern 'sich auch als relevant erweisen im Hinblick auf eine untersuchte Eigenschaft des Klanges (z.B. Qualität). Nicht einmal scheinbar. so triviale Merkmale wie »Lautstärke« oder »Tonhöhe« entsprechen auf emfache Art und Weise irgendeiner physikalischen Größe des aufgezeichneten Schallsignals. Jede gehörgerechte Interpretation aufgenommener Audiodaten erfordert genau genommen ein exaktes Modell qes menschlichen Ohres und noch ウエイ・セᆳ ger genommen ein Modell der Datenverarbeitung des Gehörten im menschlichen Nervensystem einschließlich der betroffenen Schichten des Gehirns. Solcher Aufwand wird fast nie betrieben, und das verfügbare Wissen über die Weiterverarbeitung der Erregungsmuster des Hörnervs im Gehirn ist noch 1 2 H.G. Musman (2006), Genesis of the MP3 audio coding standard. H. Fletcher / W.A. Munson (1933), Loudness, its definition, measurement, and calculation; D.W. Robinson/ R.S. Dadson (1956), A redetermination of the equal-loudness relations for pure tones . (ISO 226-BS 3383). 59 Untersuchungsmethoden Wilfried Kausel äußerst rudimentär, wodurch Ergebnisse herkömmlicher Klanganalysen meist mit großer Vorsicht zu beurteilen sind. Will man dem subjektiven Höreindruck so nahe wie möglich kommen, dann sollte man den akustischen Einfluss des äußeren Gehörganges mit Kopf und Schulterbereich mitmessen (Kunstkopfaufnahme bzw. Kleinstmikrofone nahe Trommelfell) oder zumindest rechnerisch berücksichtigen (HeadRelated-Transfer-Function).' Ferner sollte ein Analyseverfahren gewählt werden, das dem Resonanzverhalten der Basilarmembran im Innenohr so weit wie möglich entspricht. Das heißt, die üblicherweise verwendete KurzzeitFourier-Transformation' mit gleicher Zeitauflösung für alle Frequenzlinien ist nur für stationäre Klänge ohne Zeitverha lten adäquat. Idealerweise sollten sowohl die Frequenzauflösung als auch die Einschwingzeiten (Zeitauflösung) aller Frequenzbänder den psychoakustisch bekannten Werten entsprechen.' Die Verarbeitung der klang- und lautstärkebezogenen Merkmale sollte in den Frequenzgruppen der Bark-Skala geschehen, und die bekannten Maskierungseffekte sind selbstverständlich zu berücksichtigen.' [-7 2.5] An dieser Stelle wäre noch zu bemerken, dass die stereophonische Aufnahme in den äußeren Gehörgängen alle für das Richtungshören relevanten Informationen aufzuzeichnen in der Lage ist, und zwar nicht nur die für die links-rechts Unterscheidung nötigen Laufzeitunterschiede, sondern auch die Klangunterschiede, aus denen die vorne-hinten und oben-unten Information gewonnen wird.' [-7 2.6.3] Bis jetzt lag der Schwerpunkt der Ausführungen auf der gehörrichtigen Aufnahme und Auswertung des zu analysierenden Schallereignisses. Will man den Klang von Musikinstrumenten analysieren oder vergleichen, dann ist es aber ebenso wichtig, den bisweilen überaus dominanten Einfluss der Umgebung bzw. des Raumes zu berücksichtigen oder besser zu eliminieren. Idealerweise sollten Klangaufnahmen von Musikinstrumenten in einem reflexionsarmen (»schalltoten«) Raum' gemacht werden, da nur dann der Einfluss der Umgebung auf den Klang vernachlässigt werden darf. In jedem anderen Raum kommt es durch Reflexionen (z.B. zwischen parallelen Wänden oder zwischen Boden und Decke) bei vielen verschiedenen Fre- 3 4 5 6 7 8 ]. Blauert (1997), Spatial hearing. J.B. Allen ( 1977), Short term spectral analysis, synthesis, and modification. E. Terhardt (1985), Fourier tra11sformatio11 of time signals. H. Fast! / E. Zwicker (2006), Psychoacoustics: facts and models. G. Zupanc (2004) , Behavioral neurobiology. K.B. Quiring (2007), The new anechoic room at the Institute for Musical Acoustics (IWK). 60 Zonen quenzen zu stehenden Wellen, d.h .' es entstehen für diese セイ・アオョコ@ deutlicher Verstärkung unmittelbar neben Zonen fast völliger Auslöschung. Der Abstand dieser Zonen beträgt eine viertel Wellenlänge der betreffenden Frequenz, also bei z.B. 1.700 Hz (ein gis 3 ) und einer Schallgeschwindigkeit von 340 m/s sind das: 340m s 1 ---=Sem 1700_!_ 4 s Meint man also, den Raumeinfluss für den Vergleich zweier Instrumente einfach nur konstant halten zu können, dann müssen die Positionen von Instrument und Mikrofon beinahe zentimetergenau eingehalten werden, selbst wenn man sich mit einem eingeschränkten Frequenzbereich bis ca. 2.000 Hz zufrieden gibt. Schon an der Grenze des Frequenzbereiches, der üblicherweise für Telefongespräche zur Verfügung steht (3.400 Hz), haben die Zonen maximaler Verstärkung und Auslöschung eine Distanz von nur 2.5 cm. Die einzige Möglichkeit, ohne reflexionsarmen Raum halbwegs brauchbare Vergleichsmessungen durchführen zu können, ist durch Mittelwertbildung vieler Klangspektren, die mit unterschiedlichen Positionen von Mikrofon und Instrument gewonnen wurden. Dabei wird der Einfluss der stehenden Wellen im Aufnahmeraum zumindest teilweise weggemittelt. Physikalische Parameter von Klängen Leider sind die physikalischen Kenngrößen von Schallereignissen nur wenig relevant für die subjektive Wahrnehmung, so dass psychoakustisch relevante Parameter aus physikalischen Messgrößen erst ermittelt werden müssen. Die Schallleistung beispielsweise kann der wahrgenommenen Lautstärke nicht einfach gleichgesetzt werden, denn dlese hängt nicht nur von den im Klang enthaltenen Frequenzen, sondern auch von der Art des Klanges ab. Während eine Zuordnung der physikalischen Schallleistung und der subjektiv wahrgenommenen Lautstärke mit Hilfe von Hörtests zumindest für reine Sinustöne relativ gut gelingt (Phon-Skala, Sone-Skala) [ -7 2.5.3], muss ein solches Unterfangen bei komplexen zusammengesetzten Klängen scheitern. Die Verarbeitung von subjektiven Klangmerkmalen wie u.a . der Lautstärke in den Frequenzgruppen der Bark-Skala [-7 2 .5 .3] führt beispielsweise dazu, dass ein Klang plötzlich als doppelt so laut wahrgenommen wird, nur weil ein hinzugekommener Frequenzanteil eine zusätzliche, benachbarte Frequenzgruppe involviert. Terz- und Quintregister der Orgel machen sich diesen Sachverhalt zu Nutze. 61 Wilfried Kausel Auch die subjektiv wahrgenommene Tonhöhe lässt sich nicht einfach einer Frequenz aus dem Klangspektrum zuordnen. Die meisten intuitiv gefundenen Regeln sind nicht allgemeingültig, der »Grundton« im harmonischen Spektrum darf auch schwächer ausgeprägt sein' oder sogar gänzlich fehlen und wird trotzdem gehört [72.5.2]. Andere physikalische Eigenschaften, die Relevanz für die Klanganalyse besitzen, sind der gleitende quadratische Mittelwert (RMS), der den Energieverlauf des Schallsignales beschreibt und aus dem - in logarithmischer Darstellung - Einschwingzeiten und Ausklingzeiten der Klänge direkt ablesbar sind. Auch bestimmte Vibratoformen (Amplitudenvibrato) lassen sich in dieser Darstellung untersuchen. Zerlegt man die Audiodaten vor der Mittelwertbildung in Frequenzbänder (z.B. die Frequenzgruppen der Bark-Skala), dann kann man sehr viel über die rhythmischen Eigenschaften auch komplexer Klangbeispiele aussagen und das gespielte Tempo eines Musikstückes über der Zeit darstellen. Klangfarbe als Messgröße, Zeitverlauf von Klängen 1 1 Das »Messen« von Klangfarben stellt die bis jetzt größte Herausforderung an die Klanganalyse dar, zumal die Klangfarbe eine vieldimensionale Größe sein dürfte. Im Fall der stationären, zeitlich unveränderlichen Klänge hat sich in der englischsprachigen Literatur der »spectral centroid«, der amplitudengewichtete Mittelwert aller im Spektrum vorkommenden Frequenzen, als Klassifikationsmerkmal sehr gut bewährt, während sich in der deutschsprachigen Literatur die Formantbereiche als charakteristische Klangmerkmale von Musikinstrumenten etabliert haben. 10 In den letzten Jahren hat es sich gezeigt, dass das Formant-Konzept plausiblere Erklärungen zur Verschmelzung und Durchhörbarkeit von Mischklängen bietet als das Konzept des spectral centroids. Liegt der spectral centroid oder auch der Hauptformantbereich bei höheren Frequenzen, dann wird der Klang als hell bis scharf beurteilt, andernfalls als grundtonlastig, dumpf oder obertonarm. Bei Hörtests wurden Klänge mit ähnlichen Formantbereichen auch konsistent als »ähnlich« oder »ver- 9 M. Fruhmann (2006), Ein Modell zur Wahrnehmung der AusgefJYägtheit der Tonhöhe . 10 vergl. Chr. Reuter (1996), Die auditive Diskrimination von Orchesterinstrumenten; Chr. Reuter (2000), Verschmelzung und f1artielle Verdeckung; S.-A. Lembke / S. McAdams (2012), Establishing a spectral theory for perceptual timbre blending based 011 spectral envelope characteristics. 62 Untersuchungsmethoden wandt« beurteilt. Das gleiche gilt für die Anstiegszeit bei nicht-stationären (perkussiven) Klängen." Es ist weiterhin bekannt, dass die Anstiegszeit von einzelnen Teiltönen für die Klangqualität von z.B. Klaviertönen eine wichtige Rolle spielt." Das führt uns zum zeitlichen Verlauf von Klangfarbe, die im Allgemeinen ja keine konstante Größe ist. Dabei reicht die Beurteilung mithilfe von Sonogrammen oder Spektrogrammen bei weitem nicht aus. Die zeitlichen Veränderungen von höheren Teiltönen sind viel zu schnell für jede Fourier-Transformation mit brauchbarer Frequenzauflösung. Um die benötigte Zeitauflösung mit der gleichermaßen benötigten Frequenzauflösung zu verbinden, muss man entweder für jedes Frequenzband eine eigene ShortTime-FFT mit entsprechend gut gewählter Fensterbreite berechnen (Multirate-FFT) oder Filterbänke im Zeitbereich implementieren, die den Resonanzbereichen der Basilarmembran in ihren Eigenschaften entsprechen. Wenn die Grundperiode bekannt ist oder durch eine Autokorrelation ermittelt werden kann, dann kann man die Fourier-Transformation auch über einen Zeitabschnitt von exakt einer (oder besser zwei) Grundperiode(n) durchführen. Jede (zweite) Spektrallinie entspricht dann genau einem Teilton des Klanges. Kleine lntonationsverschiebungen oder kleine Abweichungen von der vollkommenen Harmonizität erhält man durch Auswertung der Verschiebung der Phaseninformationen aller Teiltöne über der Zeit." Nur mit derartigen Techniken ist es möglich, auch der Intonation von Instrumenten z.B. während eines Vibratos folgen zu können oder Inharmonizitäten aufzuzeigen, wie sie für steife umwickelte Metallsaiten, wie z.B. im Klavier, typisch und qualitätsbestimmend sind. Gleichzeitig kann der Zeitverlauf auch höherer Teiltöne ähnlich schnell verfolgt werden, wie das der Basilarmembran mit ihren kurzen frequenzabhängigen Einschwingzeiten möglich ist." 11 S. Lakatos (2000), A common perceptual space for harmonic and f1ercussive timbres. 12]. Bensa / D. Dubais / R. Kronland-Martinet / S. Ystad (2005), Perceptive and cognitive evaluation of a f1iano synthesis model. 13 J.W. Beauchamp (2007), Analysis and synthesis of musical instrument sounds. 14 J.W. Beauchamp / A. Horner (1997), Spectral modelling and timbre hybridisation programs for computer music. 63 Untersuchungsmethoden Wilfried Kausel 1.4 .2 Wellenfeldanalyse Bis jetzt war von Klangaufnahmen an ein oder zwei festen Punkten im Raum die Rede, was den Höreindruck eines Menschen, der sich frei im Schallfeld bewegen kann, nicht wiedergibt. Um ein Schallfeld reproduzieren zu können, in dem ein Zuhörer herumgehen kann oder in dem er zumindest beliebig den Kopf bewegen kann, reichen ein oder zwei Mikrofone nicht aus. Die Wellenfeldsynthese ist mit der holografischen Reproduktion eines Objektes im dreidimensionalen Raum vergleichbar. Auch um dieses kann man herumgehen, um es von allen Seiten zu betrachten. Dem muss die holografische Aufnahme vorangehen, der in der Akustik die Wellenfeldanalyse entspricht. Dabei wird das Wellenfeld an so vielen Punkten gemessen, wie nötig sind, um es später vollständig rekonstruieren zu können [セ@ 2.4 ). Typischerweise verwendet man dazu 32 bis 192 Mikrofone mit Kugelcharakteristik, die meisten in einer horizontalen Ebene angeordnet, da auch die Schallqu ellen (Chor, Orchester, murmelnde Menschenansammlung.„) ebenso wie die Ohren der Zuhörer sich normalerweise in einer Ebene befinden. Für die Rekonstruktion dieses zweidimensionalen Wellenfeldes werden dann 32 bis 192 Lautsprecher verwendet, die idealerweise punktförmige Schallquellen sein sollten, deren kugelsymmetrische Schallfelder fast exakt das ursprüngliche Klangfeld synthetisieren. Ein Zuhörer kann dann in diesem Wellenfeld herumgehen und hat dabei den Eindruck sich zwischen den Musikern des Orchesters oder den Stimmen des Chores zu befinden. Oft ist das synthetisierte Wellenfeld natürlich nicht das Ergebnis einer Analyse, sondern wurde am Computer aus einzelnen isoliert aufgenommenen Audiodateien und einer Vorschrift, wo die Schallquellen sich zu befinden haben und wie sie bewegt werden so ll en, berechnet. Auch die Kombination einer Computersimulation und einem mit einem Mikrofonarray aufgenommenen »akustischen Hologramm « der Umgebung oder des Raumes ist möglich. Diese Technik erlaubt bei relativ geringem Analyseaufwand eine sehr realistische Reproduktion komplexer Scha llfelder und wird derzeit für Kinovorführungen'' angedacht. 15 Z.B. »Linden Lichtspiele « in Ilmenau, Deutschland. 64 1.4.3 Messungen an Musikinstrumenten Schallfelder, Abstrahlverhalten Während es bei der Wellenfeldanalyse eher darum ging, ein räumliches Klangfeld für einen sich bewegenden Z uhörer zu rekonstruieren und erlebbar zu machen, geht es beim Messen des Abstrahlverhaltens von Musikinstrumenten um deren Richtcharakteristik bei unterschiedlichen Frequenzen. Kennt man diese, kann man bei der Wellenfeldsynthese von dem realen Schallfeld der einzelnen iョウエイオュ・{セ@ 2.1) ausgehen und muss diese nicht länger als kugelsymmetrische Punktquellen in die Berechnungen einbringen, wie das derzeit meist geschieht. Abb. 1: Schallfeld eines Hornes im Fortissimo (Wellenausbreitung von unten nach oben) mit sehr abrupten Druckänderungen in Achsennähe (Schockwellen) セ@ Abb. 1 zeigt das Schallfeld eines Blechblasinstruments, das mit großer Lautstärke angeblasen wurde. In Achsennähe kann man beobachten, wie die Zonen maximalen Druckes und die Zonen minimalen Druckes durch nichtlineare Wellenausbreitung im Innern des Instruments so nahe zusammenrücken, dass ein extrem steiler Übergangsbereich entsteht, der als Schockwelle bezeichnet wird 16 und der für den charakteristischen Klang im »Schmetterbereich« verantwortlich ist. 16 B.H. Pandya / G.S. Settles / ].D. Miller (2003), Schlieren imaging of shock waves from a trumpet . 65 Untersuchungsmethoden Wilfried Kausel Das Abstrahlverhalten von Musikinstrumenten' 1 ist darüber hinaus auch von großer Bedeutung für die Tonmeister, die nach geeigneten Positionen für ihre Aufnahmemikrofone suchen. Und die sind nicht immer dort, wo man sie intuitiv erwartet. Immer wieder sieht man, dass bei Holzblasinstrumenten wie Saxophonen und Klarinetten das Mikrofon vor oder sogar in deren Schalltrichter positioniert wird. Dabei herrscht dort nur beim tiefsten Ton, bei dem alle Tonlöcher verschlossen sind, die größte Lautstärke. Bei allen anderen Tönen strahlt das Instrument die meiste Energie in der Nähe des ersten geöffneten Tonloches nach vorne ab. Die technische Schwierigkeit beim Messen der Schallfelder von Musikinstrumenten ist die nötige Raumwinkelauflösung bei höheren Frequenzen, die eine große Anzahl von kalibrierten Messmikrofonen erfordert." Außerdem muss eine solche Aufnahme aus den schon früher erwähnten Gründen in einem reflexionsarmen Messraum unter sog. Freifeldbedingungen ohne reflektierende Hindernisse durchgeführt werden. Soll das Abstrahlverhalten unter normalen Bühnenbedingungen untersucht werden, ist der reflexionsarme Halbraum vorzuziehen. In diesem gibt es einen reflektierenden Bühnenboden, alle anderen Raumrichtungen sind aber beinahe vollständig reflexionsfrei. In einem solchen Raum nimmt man nun das Klangfeld des Instruments an möglichst vielen Positionen auf der Oberfläche einer großen Halbkugel auf, in deren Zentrum sich das zu untersuchende Instrument befindet. Der Radius der Halbkugel sollte im Verhältnis zur Wellenlänge der interessierenden Frequenzen nicht zu klein gewählt werden, da sonst lokale Ausgleichsvorgänge im Fall des »akustischen Kurzschlusses« aufgezeichnet werden, die für das in der Entfernung hörbare Schallfeld (Fernfeld) gar nicht relevant sind. Besitzt man nicht genügend Mikrofonkanäle, um alle nötigen Punkte auf der Oberfläche der Halbkugel gleichzeitig zu messen, kann man die Mikrofone auch entlang eines Viertelkreises von einem Punkt oberhalb des Instruments herunter bis zum Boden anordnen. Nach jedem Aufnahmevorgang wird entweder das Instrument oder der Mikrofonbogen um einen kleinen Winkel weitergedreht und die Messung wiederholt. In diesem Fall sollte das Anregungssignal möglichst konstant gehalten werden, was typischerweise durch mecha nische Schwingungsanregung (»Shaker«) erreicht werden kann. Kleine Unterschiede können rechnerisch beseitigt werden, da das Mikrofon genau oberhalb des Drehpunktes sich relativ zum Instrument nicht bewegt und daher als Referenz verwendet werden kann. 17 J. Meyer (2004) , Akustik u11d musilw lische Aufführung spraxis. 18 R. Bader (2009), Musikalische Akustik, Neurokognition und Musil<psychologie. 66 Die aufgezeichneten Audiodaten werden dann typischerweise in Frequenzbänder (z.B. Terzbänder) zerlegt, deren Energie auf einer Projektion der Halbkugel, z.B. farblich kodiert, eingetragen werden kann. Auch sogenannte Keulendiagramme der Richtcharakteristik haben sich für die Darstellung eingebürgert. Bezogen werden kann die dargestellte Schallenergie z.B. auf die Energie des oberen Referenzmikrofones oder auch auf die das Musikinstrument zum Schwingen anregende Kraft. Sehr aussagekräftig ist z.B. die Übertragungsfunktion von Streichinstrumenten, für die man die abgestrahlte Schallenergie in Beziehung setzt zur Amplitude der oszillierenden Kraft, die auf die gleiche Weise am Steg angreift wie eine gestrichene Saite auf Grund ihrer bewegten Masse. ァオョウヲォエゥッセ@ Schwingungsverhalten der abstrahlenden oder absorbierenden Flächen und Teile Steht kein reflexionsarmer Messraum zur Verfügung, lassen sich Übertraauf den abgestrahlten Schall nicht direkt messen. Glücklicherweise lässt die genaue Kenntnis des Schwingungsverhaltens der abstrahlenden Flächen zumindest eine grobe Abschätzung der Klangeigenschaften des Instruments zu. Mit numerischen Methoden wie der »Boundary Element Method « (BEM) oder der »Finite Element Method « (FEM) ließe sich das Schallfeld eines Instruments im Prinzip sehr genau aus dem bekannten Schwingungsverhalten bei allen Frequenzen ermitteln, allerdings erfordert eine derartige Simulation auch heute noch sehr viel Computerleistung und einen sehr großen Arbeitsspeicher. Aus diesem Grund wird das gemessene Schwingungsverhalten verschiedener gleichartiger Instrumente meistens nur qualitativ verglichen und mit viel Erfahrung näherungsweise interpretiert. Auf diese Weise lassen sich doch gute Hinweise auf die Klangqualität eines Instruments erhalten, und so manche Merkmale 、セ ウ@ abgestrahlten Klanges finden sich ganz deutlich auch im gemessenen Schwingungsverhalten. Insbesondere so bekannte Probleme wie Wolftöne oder »Dead Spots« lassen sich recht gut aus dem gemessenen Schwingungsverhalten diagnostizieren. Die Ermittlung des Schwingungsverhaltens, also der genauen Gestalt der am stärksten vibrierenden Bereiche des Resonanzkörpers (Schwingungsbäuche) und der in Ruhe verbleibenden Zonen (Schwingungsknoten) mit den dabei auftretenden Vibrationsamplituden bei allen Frequenzen heißt Modalanalyse. Schon in früheren Jahrhunderten konnte man die Schwingungsknotenlinien von Geigendecken sichtbar machen, indem man Bärlappsamen auf diese streute, bevor man die Decke mit dem Bogen in Schwingung versetzte. In den Bereichen, die bei den angeregten Frequenzen heftig vibrierten, wurde das 67 Wi lfried Kausel Untersuchungsmethoden leichte Pulver weggeb lasen. Es sammelte sich in den ruhenden Knotenlinien; die entstehenden Bilder wurden nach dem Entdecker" Ch ladnische Klangfiguren genannt [-7 1.2]. Heutzutage stehen bessere Methoden der Modalanalyse zur Verfügung, viele davon beruhen auf der Interferenz kohärenten Lichtes. überlagert man zwei Lichtstrahlen desselben Lasers auf einem lichtempfindlichen Sensor, dann verstärken sich die beiden Strahlen bei gleicher Phase gegenseitig, während sie sich bei Gegenphase auslöschen. Wird einer der beiden Strahlen auf das Messobjekt gerichtet und von diesem reflektiert, bevor es zur Interferenz mit dem statischen Referenzstrahl kommt, dann führen mikroskopische Bewegungen der Oberfläche des Messobjektes zu einer Verlängerung bzw. Verkürzung der Weglänge des Lichtstrahls. Da die Lichtwellenlänge von typischerweise dafür verwendeten Lasern im Bereich zwischen 500 nm (grün) und 790 nm (rot) li egt, reicht eine Verschiebung der Oberfläche um ein Viertel dieser Distanz, um im Interferenzpunkt von maximaler Verstärkung zu maximaler Auslöschung zu gelangen. Verwendet man zur Darstellung der Interferenzen eine Videokamera (Elektronic Speckle Pattern Interferometrie, ESPI), dann kann man eine statische Verformung des Messobjektes in Richtung des Strahls im Bereich einiger weniger Well enlängen des verwendeten kohärenten Lichtes als Muster heller und dunkler Ringe auf dem Objekt sehen, die wie Höhenschichtlinien auf der Landkarte die Bereiche der größten Erhebungen bzw. der tiefsten Täler umrunden. Jede schwarze Linie entspricht dabei einer weiteren Auslenkung um eine halbe Wellenlänge. Um derart interpretierbare Bilder zu erha lten, muss man allerd ings zuerst die durch die Rauigkeit der reflektierenden Oberfläche des Objekts zufä llig verteilten Laufzeitdifferenzen a ller Kamerabildpunkte durch Subtraktion der Grauwerte eines geeigneten Referenzbildes kompensieren. Das beschriebene Verfahren eignet sich nicht nur zur Darstellung kleiner statischer Deformationen einer Oberfläche, sondern auch zur Darstellung von Schwingungszuständen. Dazu benötigt man eine Kamera, die schnell und lichtstark genug ist, die akustischen Schwingungen des Messobjektes in Einzelbilder ohne Bewegungsunschärfe zu zerlegen, die den Bewegungszustand der Oberfläche a ls eine Folge von quasi statischen Deformationen wiedergeben (time resolved ESPI). Auf diese Weise kann man Einschwingvorgänge und andere nicht-periodische Schwingungsmuster studieren. Auch ohne Hochgeschwindigkeitskamera kann man zumindest stationäre Schwingungsmuster sehr gut sichtbar machen. Dazu benutzt man die Tatsache, dass eine Sinusschwingung sich durchschnittlich wesentlich länger in der Nähe ihrer Maximalwerte a ufhä lt, während sie all e anderen Amplitudenwerte sehr schnell überstreicht. Zeichnet man die Interferenzen bei sinusförmiger Anregung des Messobjekts mit einer normalen Videokamera auf, dann erhält man in jedem Bi ldpunkt einen zeitlichen Mittelwert über mehrere Perioden der Schwingungsfrequenz in dem, wie gesagt, die Maxima lwerte der Amplitude dominieren. Wertet man die Bilder wie im statischen Fall aus, kann man jetzt durch Zählen der Interferenzlinien die Schwingungsamplituden - genauso wie vorher die Auslenkungsdistanzen - ab lesen (time-average ESPI' 0 ). 19 E. Chladni (1787), Entdeckungen über die Theorie des Klanges. 20 T.R. Moore (2004), A simple design for an electronic speckle pattern interferometer. 68 Abb. 2: Schwingungszustand eines Gitarrenrückens bei 246 Hz (Electronic Speckle Pattern Interferometry, Zeitmittelungsverfahren), Quelle: Thomas R. Moore. 69 Wilfried Kausel Ein Verfahren, das sehr beliebt ist, wenn genaue numerische Amplitudenwerte benötigt werden oder wenn der Amp li tudenbereich der ESPI Verfahren zu einschränken d wäre, ist die Laser-Doppl er Interferomet rie. Dabei wird der Dopplereffe kt (Frequenzverschiebung) des von einer bewegten Fläche reflektierten Strahls ausgeni.itzt. Die Überlagerun g dieses im Fall einer Vibrationsbe wegung frequenzmod ulierten Strahles mit dem statischen Referenzstrahl ergibt eine Intensitäts-S chwebung variabler Frequenz, die vom Detektor aufgezeichnet und von einer elektronisd1en Auswertesch altung demoduliert werden kann. Da die Schwebungs frequenz für positive wie für negative Geschwindigkeiten sonst gleich wäre, verschiebt man die Frequenz eines der beiden Strahlen und damit die Nulllinie mit Hilfe eines akustisch-op tischen Modulators um z.B. 40 MHz, wodurch ein breiter Bereich von positiven und negativen Geschwindigkeiten entsteht, der ganz exakt quantitativ ausgewertet werden kann. Da die auszuwerten den Signale eine Bandbreite von typischerweise 80 MHz besitzen, kann dieses Verfahren nicht auf ein ganzes Bild, sondern nur auf einen einzelnen Bildpunkt Anwendung finden. Im Laser-Doppl er Scanning Vibrometer wird der Laserstrahl eines Laser-Doppl er Vibrometers Punkt für Punkt i.iber ei ne ganze Fläche geführt, wobei das Objekt während jeder Einzelmessung impulsartig, also bei allen Frequenzen gleichzeitig, zum Schwingen angeregt wird. So erhält man für jeden Messpunkt gleich ein ganzes Frequenzspe ktrum. Nachdem alle Punkte der Fläche gemessen wurden, kann man aus allen derartigen Spektren eine beliebige Frequenz auswählen und mit Hilfe der allen Messpunkte n zugeordneten Betrags- und Phaseninfor mationen ein computerani miertes 3D-Modell erstellen lassen, das qualitativ und quantitativ zeigt, welches Schwingung smuster bei der betrachteten Frequenz zu beobachten wäre. - Untersuchun gsmethoden - Abb. 3: Schwingungsm odus eines Paukenfelles (Scanning Laser Doppler Velocimetry) Hier soll angemerkt werden, dass man vergleichbare Messdaten auch auf mechanische Weise und ga nz ohne Laser erhalten kann .21 Die impulsförmige Anregung des Messobjektes, z.B. einer Geige, unterscheidet sich セ。「 セ ゥ@ kaum von der vorher beschriebene n. Mit einem kleinen H ämmerchen mit emem an der Spitze eingebauten druckempfin dlichen Sensor wird leicht セョ@ die Stegkante geklopft, wobei das Instrument impulsförmi g zum s」セキュァ・ョN@ 。ョァ・セエ@ wird. Der Verlauf der anregenden Kraft dient als Referenzsignal. Em kleiner piezo-elektriscber Beschleunigungssensor, der vorher mit Klebewachs auf einem Punkt der Decke befestigt worden ist, liefert die Impulsantw ort des Systems. Beide Zeitverläufe werden mittels Fourier-Tran sformation [-7 1.3] in den Frequenzber eich transformier t, u? d dann wird das Spektrum s・ョウセイ@ 、 durch das Referenzspe ktrum dividiert. Das Zeitintegral des Ergebmsses wird als mechanische Admittanz bezeichnet und entspricht genau den Spektren, die man auch von der Laser-Doppl er lnterferomet rie erhält, mit der kleinen Einschränkung, dass die Masse des mechani schen Sensors zwar sehr kl ein, aber eben nicht Nu ll ist, und unter bestimmten Umständen die Impulshamm ermessung leicht verfä lschen ka nn. 21 M. Schleske (1992), Moda lana lyse im Geigenbau. 70 71 Wilfried Kausel Untersuchun gsmethoden Das aussagekräft igste Admittanzsp ektrum erhält man bei Streichinstru menten [7 2.1.3], wenn der Sensor an dem Punkt sitzt, an dem das Instrument während der Messung ebenso wie beim Spielen durch die gestrichenen Saiten angeregt wird, nämlich am Steg. Da die Saiten hauptsächlic h parallel zur Decke schwingen und der Steg auf einer Seite durch den Stimmstock unterstützt wird, ist die natürliche Bewegung des Stegs eine Kippschwing ung, die sich auf den Korpus überträgt. Bei der Messung der »Eingangsad mittanz« klopft man nun in Richtung dieser Kippschwing ung an die Stegkante und misst die auftretende Beschleunigung auch an eben jenem Punkt. In einem solchen Spektrum sieht man alle wesentlichen Resonanzen des Korpus, des Griffbretts, des Saitenhalters und sogar, etwas abgeschwäch t, die Resonanz des eingeschlossenen Luftvolumen s als ausgeprägte Spitzen. Abb. 4: Schwingungsmodus eines Kontrabassri.ickens (Wireframe-Darstellung, Scanning Laser Doppler Velocimetry) Schwingungsverhalten des eingeschlossenen Luftvolume ns Eine etwas direktere Messung der Luftresonan zen an der Stelle einer möglichen Schwingung sanregung wird als akustische Eingangsimp edanzmessun g bezeichnet. Eine solche ist wichtig für alle Blasinstrume nte [7 2.1 ], denn Intonation [7 2.2] und Ansprache hängen von Lage und Höhe aller am Punkt der Anregung erregbaren Luftresonan zen ab. Während bei der mechanische n Admittanz die bei jeder Frequenz auftretende Geschwindig keits-Amplit ude in Bezug gesetzt wird zu der Amplitude der dafür nötigen Kraft, wird bei der akustischen Feld- oder Schallkennim pedanz der an einem Ort auftretende Schalldruck in Beziehung gesetzt zu der Geschwindig keitsamplitu de der dort oszillierende n Luft. Bei der Eingangsimp edanzmessun g bestimmt man die akustische Impedanz am Eingang des Resonators," bei Blechblasins trumenten also am Beginn des Mundstücks und bei Holzblasins trumenten an der Stelle des Rohrblattes oder am Labium. Die Eingangs- oder Flussimpeda nz ist ähnlich definiert wie die Schallkennim pedanz, nur tritt dort an die Stelle der oszillierende n Geschwindigkeit in m/s die vom Querschnitt an der Stelle der Anregung abhängige Amplitude der Volumenges chwindigkei t, dem akustischen Fluss in mJ/s . . Eine einfach verständlich e mögliche Realisierung benötigt einen oszillierenden Kolben, dessen Frequenz und Amplitude gut bekannt sind (damit ist auch seine Schnelle und der vor der Kolbenfläch e erzwungene akustische Fluss 1 1 1 Abb. 5: Schwingungsmodus eine Kontrabassri.ickens (Kontur-Darstellung, Scanning Laser Doppler Velocimetry) 72 22 R.L. Pratt / J.M. Bowsher / R.A. Srnith (1977), The measurement of the acoustic impedance of brass instruments. 73 Untersuchungs methoden Wilfried Kausel bekannt) sowie ein Mikrofon zum Messen des sich vor dem Kolben einstellenden Schalldrucks. Der Kolben überträgt seine Bewegung auf die anliegenden Luftmoleküle und indem der gemessene Wert des Schalldrucks durch den bekannten Wert des akustischen Flusses (Schnelle x Kolbenfläche) dividiert wird, erhält man den Wert der akustischen Flussimpedanz bei der angeregten Frequenz. Der Kolben sollte dabei aber genau in der Anregungseben e des Instruments, also z.B. in der Mundstücksebe ne oszillieren, er sollte exakt dieselbe Fläche wie der Eintrittsquersch nitt aufweisen und das Mundstück luftdicht verschließen. Obwohl diese Art der Messung leicht verstanden werden kann ist sie doch schwierig durchzuführen, weshalb man in der Praxis sich andere; 23 Messverfal_1fen bedient. Dabei regt man fast immer mit einem Lautsprecher an und misst den Schallfluss entweder direkt mit einem Schnelle-Mikro fon oder Bändchenmikro fon) oder, wesentlich häufiger, セhゥエコ、イ。ィョ・ュッ@ wobei einige theoretische Annahmen nötig 1?d1rekt als s」ィ。ャ、イオォMセゥヲ・NョコL@ mittels. em oder mehrerer Kalibrierungsm essungen erst smd; deren p。イュ・エセ@ bestimmt werden mussen. Die folgende Abbildung zeigt einen handelsüblichen Impedanzmessk opf, der dieses Prinzip realisiert. der . oder ein セ。クゥュオョZ@ Eingangsimped anz, _Minimum der s」ィ。ャウョ・セI@ Emgangs1mpeder Mm1mum Schalldruckes, des Schallschnelle (Minimum danz) ein. Misst man in den Hohlraum der Geige hinein, dann muss man berücksichtigen, dass man das resonanzfähige Luftvolumen quasi von hinten misst. Es wird ja normalerweise durch die vibrierende Decken- und Bodenplatte (also am geschlossenen »Ende«) in Schwingung versetzt und steht über die f-Löcher schallabstrahle nd mit dem umgebenden Luftraum in Verbindung. Im Resonanzfall »atmet « das Instrument also oszillierend durch seine f-Löcher, was erst die Erzeugung der tiefen Frequenzen möglich macht, also die Abstrahlung von Wellen, die viel länger sind, als der Korpus des Instruments. Im Resonanzfall hat der Schallfluss durch die f-Löcher also ein Maximum. Misst man genau dort die Eingangsimped anz, dann findet man die relevanten Resonanzen demzufolge wie bei der Flöte bei den Minima der Messkurve. Nicht zuletzt sollten hier auch Verfahren zur Visualisierung von schnellen turbulenten Strömungsvorg ängen erwähnt werden, wie sie z.B. beim Anblasen von Flöten aber auch im Mundstück von Blechblasinstru menten auftreten. Während das ältere Schlierenverfah ren auf durch Strömungsdruc k veränderten Brechungseigen schaften der Luft beruht und nur für qualitative Darstellungen geeignet ist, liefert die Particle Image Velocimetrie (PIV)" auch quantitative Ergebnisse. Sie macht schnelle Strömungen, Wirbelbildung und sogar Wellenausbreit ung im Schallfeld sichtbar und exakt messbar. ..· Abb. 6: Impedanzmesskopf »BIAS « „.!11i11fi\ !rrmm l'', 1,!],:]AG セ@ Luftresonanzen , wie sie z.B. im Korpus von Streichinstrume nten oder im Inneren von Blasinstrumente n auftreten, sind im Impedanzspekt rum als ganz Extremwerte zu erkennen. Schallschnelle und Schalldruck sind ¦ァエ・@ a オNウ ァセーイ in Phase. Je nachdem ob die Anregung am bei diesen Frequenzen セオ・イ、ュ@ geschlossenen Ende (wie 1m Fall der meisten Blasinstrumente ) oder am offe?es Rohres (wie im Fall der Flöte) erfolgen soll, stellt sich in der nen セョ、・@ Luftsaule im Resonanzfall ein Maximum des Schalldrucks (Maximum der Z Z@ ! ;: : : セ@ \:: : · : : · Das Bild zeigt eine MomentaufExperiments: PIV eines Abb. 7: Computerauswertung nahme der laminaren und turbulenten Luftbewegung am Labium einer Querflöte. Quelle: A. Bamberger 23 G. Widholm (1993), BIAS - Ein Computersystem zur Beurteilung der Qualität von Blasinstrumenten. 24 M. Raffel/ C. Willert / S. Wereley /]. Kom pe nhans (2007), Particle image velocimetry. 74 1 : . : : : : . . : : Z ャゥェQjセイ。オュ · •: . ::·:':: !:ヲZゥ￶セォエ L@ des .:::: •. : . . <. .. · 75 Wilfried Ka usel mit Hilfe ein.er .hochempfin.dlichen Kamera für Doppelセゥ・ウ@ . Erreicht キゥイセ@ bilder, deren ze1tl1cher Abstand bis m den Bereich weniger Mikrosekunden und darunter reduziert werden kann . Mit einem zu einer dünnen Ebene aufgeweiteten Laserstrahl wird ein Querschnitt durch das interessierende Volumen beleuchtet. Oft wird auch ein gepulster Laser verwendet, der wesentlich leistungsstärker e Laserblitze erzeugen kann und mit dem die Kamera keine ultrak.urzen Verschlusszeiten benötigt, da die Belichtungszeit dann vom Laser und nicht von der Kamera vorgegeben wird. .werden kleinste Partikel z.B. Öltröpfchen mögd.er. aオヲョ。ャセュ・@ . w¦ィイセョ、@ lic.hst gle1chi:naß1g verteilt, die das Laserlicht streuen und so in den aufgezeichneten Bildern sichtbar werden. Die von der schwingenden oder strömenLuft bewegten Partikel werden dann zweimal kurz hintereinander abge、セョ@ bildet. Am Computer werden die Doppelbilder korreliert und die Distanzen zwischen den Belichtungen zurückgelegt gemessen,. die von den p。イセゥォ・ャョ@ worden smd. Der Doppelbildabst and muss zu den darzustellenden Ströpasse°:. Ist er zu kurz, dann ist die Geschwindigke it セオョァウ・」ィキゥ、ォエ@ nicht mehr genau bestimmbar, ist er zu lang, liefert die Bildkorrelation keine eindeutigen Ergebnisse mehr. ohne Doppelbilder ist bekannt, bei der die Bewegungsaオ N セィ@ eine v。イゥセョエ・@ ausgewertet wird und sowohl die Richtungs- a ls auch セ。イエQ・A@ u?scharfe 、セイ@ d.1e Geschwmd1gke1tsmformationen liefert. Mit Hilfe von Endoskopen lässt das PIV Verfahren auch auf sehr kleine und schwer zugängliche Bereiche ウセ」ィ@ (m Blockflöten, Mundstücken, Tonlöchern o.ä.) anwenden. Messungen und Visualisierungen zur Modulierbarkeit der Tonerzeugung damit den Klang beeinflussen, gibt es オセ、@ die die tッョセイコ・オァN@ viele. Manche lassen sICh relativ einfach mit Sensoren messen, wie. z.B. die Hammergeschw indigkeit des Klaviers, der Luftdruck im Mund des Bläsers .eines Geigers oder die auftretenden Biegekräfte ゥセ@ die bッァ・ョウ」ィキゥ、ォセエ@ Trommelschlegel. Schw1enger zu erfassen sind z.B. der Kraftverlauf im Hambzw. die Resonanzfreque nz der Bläserlippen, die merfilz'. die lゥーセョウ。オァ@ den Bogenhaaren und der Geigensaite oder der zwischen Krafte der Dy.nam1k Paukenschlegel und Paukenfell oder Plektron zwischen Kräfte der z・Qエカセャ。オヲ@ und Gitarrensaite. Eingesetzt werden Druckmessgerä te, Kraftsensoren als Pieoder Dehnmessstreifen, Bewegungssensoren als Piezoelemente, コセ・ャュョエ@ CCT Kameras, Spiegel, Lichtquellen, Photodetektore n, LIChtschranken セ、・イ@ Entfernungs-, Neigungs- und Drehwinkelgeb er u.a.m. fセォエッイ・ョL@ 76 Untersuchungs methoden Manche Faktoren lassen sich fast nur visua lisieren, wie z.B. die oszillierende Öffnungsfläche des Lippenspaltes im Mundstück von Blechblasinstru menten" oder das schwingende Rohrblatt einer Oboe oder eines Saxophons beim Spielen. Die dafür benötigten Werkzeuge sind z.B. Hochgeschwind igkeitskameras oder stroboskopisch e Beleuchtung sowie Spezialanfertigu ngen wie transparente Mundstücke. Liest man Publikationen aus der Musikalischen Akustik, ist man immer wieder erstaunt, welche Kreativität Forscher an den Tag legen, um schwer erfassbare Parameter zu messen oder störende Einflüsse während der Messung auszuschalten. So wurden Sänger in geschlossene Fässer gesperrt, um ihren 2 Atmungsvorgan g zu studieren. (, Geigen wurden mit Popcorn gefü llt, um die Hohlraumreson anz zu dämpfen, während die Schallabstrahlu ng der Korpus27 moden studiert wurde. Blechblasinstru mente wurden einbetoniert oder in Sand vergraben, um den Einfluss der Abstrahlung ihrer vibrierenden Wände 2 zu studieren, s und Orgelpfeifen wurden mit doppelten Wänden versehen, in die während der Messung Wasser eingefüllt werden konnte, damit die Wand29 resonanzen unabhängig von der Luftresonanz gestimmt werden konnten. Ein wesentlicher »S törfaktor« für die Reproduzierbar keit von Messungen und Klangaufnahme n ist immer wieder der menschliche Spieler. Daher werden viele Messungen und Klangvergleiche mit einem künstlichen Spieler gemacht, der reproduzierbar anregt und im Gegensatz zum menschlichen Spieler stundenlang spielen kann, ohne Luft holen zu müssen oder ohne einen Bogenstrichwechsel zu benötigen. Dazu werden Streichmaschinen mit Endlosbogen gebaut,3° künstliche druckluftbetrie bene Blechbläserlippen," verstellbare Vokaltrakte32 mit computergesteu erter Zunge und Lippen für Rohrblattinstru 34 mente,33 MIDI-gesteuerte Anschlagmasch inen für Tasteninstrume nte und 36 35 Perkussionsinst rumente, Zupfmaschinen für Gitarren und Harfen usw. 2.5 D.C. Copley I W. ]. Strong (1996), A stroboscopic study of /ip vibrations in a trombone. 26 J. Oha la (1993), The whole body plethysmograph in speech research. 27 S. Zopf (HTBLA Hallsta tt), Gesprächsnotiz. 28 W. Kausel I A. Mayer IG. Nachtmann (2007), Experimentaldemo nstration of the effect of wall vibrations on the radiated sound of the horn and a search for possible explanations. 29 J. Backus I T.C. Hundley (1966), Wall vibrations in flu e organ pipes and their effect on tone. 30 J.E. McLennan (2000), A new bowing machine. 31 C. Vergez IX. Rodet (1998), Experiments with an artificial mouth for trumpet. 32 T. Arai (2008), Gel-type tongue for a physical model of the human vocal tract as an educational tool in acoustics of speech production. 33 A. M aye r (2003 ), Riam (reed instrument artificial mouth). A computer controlled excitation device for reed instruments. 77 Wilfried Kausel 1.4.4 Messung en an Musiker n 1 1 1 Aber auch der Mensch selbst steht als Musiker auf dem Prüfstand der musikalischen Akustik. Das ganze Instrumen tarium der Physiologie wird eingesetzt, um Körperrea ktionen und Muskelko ordination während des Spielens und Singens zu beobachten. Über Hautkonta kte werden elektromyografische (EMG) Signale gemessen, die über die Aktivierung der beteiligten Muskelgruppen Aufschluss geben. So lassen sich z.B. Aktivität und Koordinat ion der Hand- und Fingernerven eines Schlagzeugers beim Trommelwirbel studieren und Fortschritt e durch bestimmte Übetechniken dokumentieren und objektivieren. Mit einer Wärmebildkamera lassen sich Aussagen über den Grad der Durchblut ung von beteiligten Arealen z.B. vor und nach dem Aufwärme n von Bläsern oder Schlagzeugern treffen. 11 Die Anschlagtechnik eines Pianisten ebenso wie Bogenhaltung und verschiedene kinematische Parameter der Bogenführung eines virtuosen Streichers beim Spielen einer schnellen Passage können mit Hochgeschwindigkeitskame ras studiert werden. Setzt man mehrere Videokam eras ein und verwendet man ein photogrammetrisches Verfahren zur Auswertung, können Bewegungstrajektorien im Raum ermittelt und verglichen werden. Mit Hilfe von drei-dimensionalen Motion-C apture Systemen aus der Trickfilmanimation kann man komplexeste Bewegungsstudien durchführ en und Daten für eine Computer modellieru ng der Spieltechnik sammeln." Die Artikulati on ist nicht nur bei Sängern sondern auch bei Bläsern ein Thema, da der Vokaltrak t Einfluss auf die Intonation haben kann und auch eingesetzt wird, um weiche Bindungen zu ermöglichen. Eine Messung der Hohlraum resonanze n des Vokaltrak ts während des Spielens ist möglich.39 Dazu wird über einen dünnen Schlauch z.B. weißes Rauschen als Stimulussignal 34 http://www.youtube.com/watc h?v=LDYQm2wYkpE (letzter Zugriff: 01.03.2013); ß. David (2010), Vergleich der akustischen Richtwirkun g des Konzertflügels Steinway D-274 mit und ohne »Klangspiege l«. 35 A. Mayer I H. Rust (2010), An artificial excitation mechanism for an acoustical comparison of the hammered dulcimer. 36 S. Carral (2010), Plucking the string: The excitation mecha11ism of the guitar. 37 M. ßertsch IT. Maca (2008), Visualisierung des Eiublasvorgangs {Warm up} bei Blechbläsern mittels Infrarot-Thermographie. 38 Z.B. W. Goebl I C. Pa lmer (2008), Tactile feedback and timing accuracy in piano performauce. 39 M . Kob (2002), A method for measuremen t of the vocal tract impedance at the mouth. 78 -. d in en M un Untersuchungsmethoden d geleitet und zugleich eine Impedanzmesssonde40 an diese Stelle ァ セ@ Schließlich sei auch 'k' . . noch auf komplette セオウQ@ mstrumente verw1ese_ n, Qセ@ denen Sensoren ・ゥョァ「。オセ@ wurden,. die ュ￶ァャゥ」ィセエ@ alle aウー・ォセ@ des mus1.kalirags eines Musikers deta1lgetre u aufze1Chne n, um diese zu studieren Vort l sc1en " 1 d egebenenfalls auch wiedergeben zu können (z.B. d er Co mputer fl uge セeャ@ von Bösendorfer)." Einen überblick zu Messverfahren der Performance-Forschung bietet dieses Buchkapitel." 1.4.5 Rekonst ruktion von Musikin strument en Fiir Rekonstru ktion und Nachbau historischer mオウセォゥョエイュ・@ セウ・N@ die Baupläne dieser iョウエイオュ・セ@ イ・ォッョセエオゥ@ セョ、@ weitere Informatio nen uber das Material sowie über die akustische n eQァ・ョセN」ィ。ヲエ@ ァ・セッョ⦅@ キ・イセョL@ ohne dass den erhaltenen Stücken Schaden zugefugt wird. Diese durfen mcht gespielt und am besten auch gar nicht berührt werden. .. . Eine exakte geometrische Vermessung kann heutzutag.e _・イセャオョァウッ@ mit 3D-Scannern durchgeführt werden. z。ィャッウセ@ v・イセ。ィョ@ mit ュ、Qvセオ・ャョ@ Vorund Nachteilen stehen zur Verfü gung. Die meisten benutzen emen Lasertrahl der entweder zur interferometrischen Entfernungsmessung, zur Laufセ・ゥエMeヲイョオァウュL@ zum Triangulie ren von Punkten oder. zum セイコ・オァョ@ von geraden Linien oder regelmäßigen mオウエセイョ@ verwendet キゥイセL@ die photogrammetrisch ausgewertet werden. A.uch ー。セウQカ・@ photogram metnsche _\'erfah ren ohne Laserquelle wie stereoskopische bQャ、カ・イ。「セオョァ@ und Aufzeichnung der Silhouetten des rotierenden Objekts sind gebräuchl1Ch. . . Materialst ärken bis zu fast zehn Millimeter n können ュQセ@ hoher g・ョ。オセァᆳ keit bei allen nichtmagnetisierbaren Materialie n wie Messm? \Blechblasmstrumente), Zinnlegierungen (Orgelpfeifen) oder H?lz. HsエイセQ」ィュウオ・ョI@ durch magnetische Messung ・イュゥエャセ@ werden. Dabei wird eme ォャZュセ@ kセァ・ャ@ aus magnetisierbarem Material von einem starke.n m。ァョ・Nセ@ mit ウエQヲッイュァ・セ@ Spitze gehalten und bei dessen Bewegung über die Oberflache gezogen, wobei J. Smith / J. Wolfe (2008), Experience d saxophonists learn to tune their vocal tracts, S. 726. . . W G bl / I F „ 41 W G bl / G Widmer (2006) Unobtrusive practice tools for piamsts; · oe · upnaga · oe · ' . . . · c R (2008), Do key-bottom so1mds d1stmgu1sh piano tones; . ap hae J / y · G u (2009) , Orchestral accompanim ent for a reproducing piano. . . . . 42 W. Goebl / S. Dixon / G. de Poli I A. Friberg IR. ßresm IG. W1dmer (2008), >Sense<m expiessive music performance . 40 J.-M. Chen / 79 Wilfried Kausel sich das zu messende Material zwischen Kugel und Magnetspit b f" d ze e m et · 1 ·· k · M D er d urc h d 1e atena .star ..e gegebene Abstand zwiscl1 en Ma gne t sp1·t ze un d. . Magnetfeldes, die laufend mittels Hallセ・ウ@ Mess k uge 1 mo d u11ert die sセイォ・@ sensor gemessen und angezeigt wird. Auch die Laufzeit von Ultraschallimpulund zur Wandstärkeermittlung herangezogen werden. ァ・ュセウョ@ sen ォセョ@ selbst lässt sich ebenfalls zers t.. Die Matenalzusammensetzung orungs fre 1· · . d un zwar m1_t emem d.er vielen Verfahren der Röntgenspektroskopie.'' ュ・ウセョL@ · · mneren Mensurverlaufs von BI asmstru des menten . 1 .. Die· 1Rekonstruktion 1asst ste1 h D ·1 f· durcl Weise und Art akustische auf auCl 1 u uen. azu ge t man . d gemessenen Eingangsimpedanz aus, oder man speist über er von ・Qセイ@ ・セエキ@ em reflex1onsfre1 angekoppeltes Rohr einen kurzen Impuls als Stimulus ein aus. Diese Messung ist ähnlich der iセーオャウ。ョエキッイ@ und .wertet den Verlauf 、・セ@ 1 . I Ermittlung der Nachhallze1t m der Raumakustik (-7 2 ·4] · D 1e rnpu santwort . . · d. 1 ··1 b Informationen über alle im lnstru ent 1a t e enso wie 1e eQセァ。ョウュー・、コ@ entstehenden Reflexionen und damit über den exakten Mensurverlauf ュセョエ@ Dieser kann. aus der akustischen Messung entweder durch direkte Rechnun ,; (>Layer Eeelmg Alg.onthmus<) oder durch Optimierung eines ーィケウゥォ。ャ」セョ@ Modells rekonstruiert werden. 1.5 Hörexperimente Von Wolfgang Auhagen Der Bereich der Akustik, der sich mit der Beziehung zwischen physikalischen Parametern von Schallereignissen und Wahrnehmungsqualitäten wie Tonhöhe, Lautstärke, Klangfarbe beschäftigt, ist die Psychoakustik (-7 2.5]. Die Psychoakustik nutzt vorzugsweise das Hörexperiment und die Modellierung von Hörvorgängen als Methoden, um die Relation von Schallparametern und Wahrnehmungsqualitäten zu erforschen. Ein Experiment kann definiert werden als »absichtliche, planmäßige Auslösung eines Vorganges, der objektiv beobachtet werden soll«.' Bei einem Hörexperiment werden dementsprechend den Teilnehmer/innen genau definierte akustische Reize (Stimuli) zur Beurteilung dargeboten. Der oder die physikalischen Parameter, deren Wahrnehmung untersucht werden soll, werden hierbei kontrolliert variiert und stellen die sogenannten unabhängigen Variablen dar. Diese durch die Stimuli ausgelösten Höreindrücke sind die sogenannten abhängigen Variablen. Bei jedem Experiment gibt es aber auch nicht kontrollierte bzw. kontrollierbare Einflussfaktoren wie beispielsweise die psychische Verfasstheit der Probanden oder den Einfluss, den die spezielle Umgebung ausübt, in der ein Experiment stattfindet. Dies sind die sogenannten intervenierenden Variablen. Diese letzte Variablengruppe kann im Extremfall dazu führen, dass die Ergebnisse eines Experimentes völlig unbrauchbar sind, da im Nachhinein nicht mehr zu klären ist, welche Faktoren Einfluss genommen haben. Daher sollten die äußeren Bedingungen eines Hörexperiments und die Auswahl der Teilnehmer/innen ebenfalls soweit wie möglich kontrolliert werden und der Ablauf des Experiments standardisiert sein. 1.5 .1 Gütekriterien Qセ@ セbs」ィイ・ゥョ@ セ・[Qウ。イー@ Um die Ergebnisse verschiedener Durchläufe eines Experiments beispielsweise zur Tonhöhenwahrnehmung miteinander vergleichen zu können, müssen entsprechende Tests bestimmte Gütekriterien erfüllen. 1. >Objektivität<: Das Verfahren muss von der Person des Durchführenden bzw. Auswertenden unabhängig sein. Standardisierte Anweisungen zu den (2004), Wilso11 & Wilson's comprehensive ana lytica l chemistry. (1996), Acousttc pulse reflectomet1y for the measurement of musical wind instru- ·nput · p J 45 W. Kausel (2004), Bore reco11structio11 of tubular ducts from its acousti·c im euance · 1· · curve. 80 1 H. Selg I W. Bauer (1971), Forschungsmethoden der Psychologie, S. 58. 81 Hörexperim ente Wolfgang Auhagen Aufgaben, die die Versuchsteil nehmer/inne n zu lösen haben, sowie standardisierte Auswertung sverfahren tragen wesentlich zur Objektivität bei. 2. >Reliabilität<(Zuverlässigkeit): Bei wiederholter Durchführu ng in zeitlich geringem Abstand sollte das Experiment zu einem identischen oder zumindest sehr ähnlichen Resultat führen. Ein Problem (interveniere nde Variable) können hierbei Trainingseff ekte sein, die dazu führen, dass Hörer bei einem erneuten Durchlauf eines Experiments anders urteilen als beim ersten Durchlauf. Daher wird die Reliabilität zumeist dadurch geprüft, dass aus der bei der Auswertung nach dem Zufalls、・イ⦅yセオ」ィウエゥャョュO@ gセオー・@ pnnz1p zwei gleich große Teilgruppen gebildet werden und diese in ihren Ergebnissen miteinander verglichen werden (>Split-Half-Methode<). (Gültigkeit): Ein Experiment soll die Fragestellung prüfen, für . 3. >v。ャゥセエ¦\@ die es entwickelt wurde. Im Bereich der Psychoakust ik ist die Validität in der Regel kein Problem; hingegen kann es beispielsweise bei Musikalitäts tests eine geringe Validität geben.' 1.5 .2 Explorativ e Hörexperi mente Die Psychoakust ik [-7 2.5] hat einige Fragestellungen aus der Psychophysi k des 19. Jahrhundert s' übernomme n, zum Beispiel Schwellenw ertbestimmu ngen ..für verschiedene Gehörwahrn ehmungen. Bekannt ist die sogenannte Ru[-7 2.5 .1]. Sie wird ermittelt, indem ein Sinuston einen großen ィ・ッイウ」キャセ@ durchläuft und dem Versuchsteil nehmer über Kopfhörer präfイ・セオョコQ」ィ@ sentiert wird. Der Schalldruckp egel des Sinustones ist bei jeder zu testenden zunächst sehr .niedrig und steigt dann an. Die Versuchsper son betäセイ・アオNョコ@ m dem Moment, in dem sie einen Ton wahrnimmt. セイオ」ォョッーヲ@ tigt ・ュセ@ smk.t der Schallpegel wieder ab. Der Verlauf des Schalldruckp egels dセイ。オヲィュ@ .d er Frequenz in einem Diagramm aufgezeichnet. Auf diese als fNセョォエQッ@ キゥイセ@ W:e1se erhalt man 1m ersten Schritt eine individuelle Hörschwelle , die angibt, wie hoch der Schalldruckpegel eines Sinustones bei einer bestimmten Frequenz sein muss, um gerade eben wahrgenomm en zu werden. Untersucht man viele Menschen und bildet über die entsprechend en Messergebnisse einen Mittel:vert, so erhält man eine durchschnitt liche Ruhehörschw elle, die beispielsReferenz zur Erkennung individueller Beeinträchti gungen des Geセャウ@ セQウ・@ hors dienen kann, aber auch Anwendung in der Elektroakus tik bei der schall- 2 R. Slmter-Dyson I C. Gabriel (1982), The psychology of musical ability. 3 Z.B. G.Th. Fechner (1860), Bemente der Psychophysik. 82 druckpegela bhängigen Anpassung des Frequenzspe ktrums an die Gehörfunktion findet. Neben der Ruhehörschw elle gibt es viele weitere Schwellenwe rte, die für die Erforschung des Zusammenh angs zwischen physikalisch en Reizen und Gehörwahrn ehmungen von Bedeutung sind, beispielsweise die sogenannte Mithörschw elle, die angibt, um welchen Betrag der Schalldruckpegel eines Sinustones gegenüber der Ruhehörsch welle angehoben werden muss, damit er bei gleichzeitigem Erklingen eines weiteren Sinustones gerade eben wahrgenommen wird. Erkenntnisse aus entsprechen den Untersuchun gen zur wechselseitigen Beeinflussung mehrerer simultaner Schallreize bilden eine der Grundlagen für Verfahren der Datenreduk tion [-7 3.3.3] bei der Schallspeich erung und -übertragung . Werden Schwellenw ertbestimmu ngen zum ersten Mal durchgeführ t, so gibt es in der Regel keine konkreten Annahmen über den genauen Verlauf der Schwellen, und daher sind entsprechen de Experimente explorativ und dienen nicht der Überprüfung einer zuvor formulierten Hypothese oder Theorie. Solche explorativen Experimente gibt es in vielen anderen Bereichen der Psychoakustik, beispielsweise auch bei der Untersuchun g des räumlichen Hörens' [-7 2.6]. Liegen aber bereits Erkenntnisse zu Gehörwahrn ehmungen vor, so dass in einem Experiment bestimmte theoretische Prognosen überprüft werden sollen, so sind die entsprechen den Experimente hypotheseng eleitet. 1.5.3 Hypothese nprüfende Hörexperi mente Soll eine theoretische Annahme über Gehörwahrn ehmungen geprüft werden, so wird dem entsprechen den Experiment eine zu prüfende Hypothese zugrun de gelegt. Da Experimente grundsätzlic h nur an einer Auswahl (Stichprobe) von Probanden durchgeführ t werden können, also nicht die sogenannte Grundgesam theit beispielsweise cf.ller Menschen einer bestimmten Altersstufe erfassen, können Hypothesen nicht mit völliger Sicherheit verifiziert werden . Aber sie lassen sich mit einer definierten Wahrscheinl ichkeit widerlegen (falsifizieren): Entspricht ein bestimmter Prozentsatz der Ergebnisse nicht der Hypothese, so dass der hypothesenk onforme Anteil auch per Zufall zustande gekommen sein kann, so wird die zugrunde gelegte Hypothese abgelehnt und die Gegenhypot hese (die das Nichtvorhan densein erwarteter Effekte postuliert), üblicherweise >Nullhypothese< genannt, angenomme n. Die Wahrschein - 4]. ]. Blauert (1974), Räumliches Hören . 83 Wolfgang Auhagen lichkeit für das als zufällig gewertete Auftreten eines Effekts legt der Untersuchende fest. In der psychologischen Forschung haben sich Grenzen von 5% 1 % oder 0,1 % der nicht zutreffenden Fälle für das Beibehalten einer Hypo: these etabliert.' 1.5 .4 Klassifizierung von Hörexperimenten Es gibt verschiedene Klassifikationsmöglichkeiten für Hörexperimente, je nachdem, welchen Gesichtspunkt man in den Vordergrund stellt. Eine erste Unterscheidung kann danach vorgenommen werden, ob die Teilnehmer/innen eines Experiments die Zielsetzung der Untersuchung kennen, also wissentlich handeln, oder ihnen in der Experimentanweisung eine Aufgabenstellung vorgetäuscht キゥセ、L@ so .dass sie hinsichtlich des eigentlichen Untersuchungsgegenstandes オイZキQウセ・ョエャ」ィ@ handeln. Während die letztgenannte Vorgehensweise von Vorteil sem kann, wenn es darum geht, beispielsweise die Aufmerksamkeit der Teilnehmer/innen nicht durch eine Anweisung zu fokussieren, ist es in anderen Fällen - wie z.B. der Bestimmung der Ruhehörschwelle - durchaus . erforderlich, dass sich die Teilnehmer/innen auf die Aufgabe konzentrieren also wissentlich handeln. ' Eine zweite Klassifikation von Datenerhebungsmethoden kann danach vorgenommen werden, ob die Untersuchung: a) reizzentriert, b) personenzentriert oder c) reaktionszentriert durchgeführt wird. Im Falle A schreibt man die unterschiedlichen Reaktionen der Versuchspersonen den Unterschieden in den Stimuli zu. Man wertet die Reaktionen der Versuchspersonen gemeinsam aus, kommt so zu einer durchschnittlichen Versuchsperson und untersucht deren Verhalten in Abhängigkeit von der Veränderung des Stimulus. · Im Falle B hingegen schreibt man die Unterschiede in den Reaktionen den individuellen Unterschieden zum Beispiel in der Wahrnehmung der Probanden zu. Dementsprechend werden die Stimuli gemeinsam und die Versuchspersonen getrennt ausgewertet. Im Falle C schließlich sieht man sowohl die Teilnehmer/innen als auch die Stimuli als Quelle der Variation der Urteile an. Untersuchungen, die Typolo- 5 ]. Bortz (2010), Statistik fiir Human- und Sozialwissenschaftler. 84 Hörexperimente gien der Versuchspersonen erstellen wollen, zum Beispiel eine Typologie des Musikgeschmacks [7 2.7], fallen in letztgenannte Gruppe. Eine dritte Klassifikationsmöglichkeit bezieht sich auf die Art der Aufgabenstellung. Alle Verfahren, in denen die Teilnehmer/innen verbal formulierte Urteile über Stimuli abgeben, lassen sich von solchen trennen, in denen die Teilnehmer/innen das Vorhandensein / Fehlen einer Gehörwahrnehmung in Reaktion auf einen Stimulus anzeigen sollen (ggf. unter Zeitdruck als Reaktionszeitmessung) oder auch die Richtung, aus der ein Stimulus wahrgenommen wird, sowie _von Experimenten, in denen physiologische Reaktionen, beispielsweise Pulsfrequenz oder Blutdruck, auf akustische Stimuli gemessen werden. Die Klasse der Urteilsmethoden lässt sich weiter untergliedern in l. Methoden, die vom Hörer ein quantitatives Urteil über die Ausgeprägtheit bestimmter Merkmale des Stimulus fordern. Beispiele für diese Methode finden sich in der Forschung zur Klangfarbenwahrnehmung. Die Versuchsteilnehmer/innen erhalten Antwortbögen mit Listen von Adjektiven und sollen auf einer mehrstufigen Skala (häufig 5- oder 7-stufig) angeben, wie angemessen das jeweilige Adjektiv zur Beschreibung ihres Gehörseindruckes ist (>Rating<).' 2. Methoden, die vom Hörer kategoriale (z.B. gleich / verschieden) oder ordinale Urteile (z.B. größer / kleiner) fordern. Beispiele für diese Methode finden sich in der Forschung zum räumlichen Hören, aber auch zur Tonhöhen- und Lautstärkenwahrnehmung.' In der Klasse der nicht auf verbalen Urteilen basierenden Methoden wird das sogenannte >Herstellungsverfahren< häufig in psychoakustischer Forschung eingesetzt. Hierbei wird ein Standardreiz vorgegeben, und der Proband hat einen Vergleichsreiz so einzuregeln, dass er in der Wahrnehmung dem Standardreiz gleich ist. Auf diese Weise lässt sich z.B. der Einfluss des Schallpegels auf die Tonhöhenwahrnehmung feststellen." 6 Z.B. R.A. Kendall / E.C. Carterette (1993), Verba! attributes of simultaneous wind instrument timbres I; dieselben (1993), Verba/ attributes of simulta neous wind instrument timbres II. 7 Z.B. N. Gosselin / P. Jolicoeur I 1. Peretz (2009), Impaired memory for pitch in congenital amusia. 8 Z.B. E. Zwicker (1982), Psychoakustik, S. 61. 85 Wolfgang Auhagen 1.5 .5 Auswertung von Hörexperimenten Die Auswertung von Hörexperimenten erfolgt in der Regel mit Hilfe standardisierter statistischer Verfahren. Bei explorativen Experimenten geht es primär um eine Beschreibung der Daten anhand bestimmter Kenngrößen, die beispielsweise Auskunft über die zentrale Tendenz von Urteilen (Mittelwerte) oder die Urteilseinhelligkeit der Probanden (Streuungswerte) geben. Die Deskriptive Statistik bietet hierfür eine Reihe etablierter Maße. Bei hypothesenprüfenden Experimenten tritt die Untersuchung der Frage hinzu, ob die Daten mit der zugrundegelegten Hypothese vereinbar sind oder nicht. Die prüfende Statistik stellt Verfahren bereit, die eine Entscheidung über Zufälligkeit bzw. Nicht-Zufälligkeit der anhand von Stichproben gewonnenen Datenverteilung ermöglichen. Hierzu zählen Tests für Mittelwert- und Streuungsvergleiche.9 9 ]. Bortz (2010), Statistik für Human- und Sozialwissenschaftler. 86 2. AUSGANGSSITUATION: DAS KONZERT MIT »KLASSISCHER« MUSIK 2.1 Die Orchesterinstrumente Von Gregor Widholm Musikinstrumente sind mechanische Gebilde und funktionieren ausschließlich nach den bekannten physikalischen Gesetzen. Allerdings wird dies oft vergessen - auch von professionellen Musikerinnen, die durch die tagtägliche intensive Beschäftigung mit ihrem Instrument zu diesem zwangsläufig eine emotionale Beziehung aufbauen. Zusätzlich bilden Instrument und Musikerin einen Regelkreis, innerhalb dessen sie sich gegenseitig beeinflussen. Im Fall von Problemen ist daher auf den ersten Blick nicht immer klar, ob beim Instrument oder der Spieltechnik des Menschen anzusetzen ist. Das Funktionsprinzip ist bei allen Musikinstrumenten dasselbe: der Mensch führt dem Instrument Energie zu und erzeugt damit in einem zentralen Teil des Instrumentes eine stehende Welle[-? 1.3.4] mit bestimmten, von den mechanischen Eigenschaften dieses Teils abhängigen Frequenzen. Bei Saiteninstrumenten ist dieser Teil die Saite, bei Blasinstrumenten ist es die vom Rohr umschlossene Luftsäule. Da Saiten transversal [-71.3.2] schwingen, ist bei diesen Instrumenten noch ein Teil notwendig, der diese Schwingung in Longitudinalschwingen [-? 1.3.2] umsetzt, sodass sie im Medium Lufttransportiert werden können und für uns hörbar sind. Diese Funktion erfüllt der »Korpus « des Instrumentes. Bei Blasinstrumenten entfällt dieser Teil, da von Beginn an bereits das Medium Luft in Schwingung versetzt wird. 2.1.1 Blechblasinstrumente Blechblasinstrumente bestehen in der Regel aus einem Messingrohr, das eine Länge von 1,20 m (C-Trompete) pis zu 5,60 m (B-Tuba) aufweisen kann und über seinen Verlauf einen unterschiedlichen Querschnitt (»Mensur «) besitzt. Das Mundstück zu Beginn dient der Ankopplung der Lippen an das Instrument, danach folgt meist ein mehr oder weniger langer zylindrischer Teil, in dem die Ventile untergebracht sind, und anschließend ein leicht konischer Teil, der nahtlos in den hyperbolisch geformten Schalltrichter übergeht. 89 - Gregor Widholm zylindri sch er Teil koni scher Teil Schalltrichter Abb . 1: Schematische Darstellung eines Blechblasinstrumentes (nicht maßstabsgetreu) Die Tonerzeugung Der schwingende Teil der Lippen wird durch den Mundstückrand begrenzt. Zu Beginn sind die Lippen bereits leicht geöffnet und bilden einen Spalt (z.B. 9 mm x 1,5 mm beim Horn) . Der Spalt ist mit der Zungenspitze luftdicht verschlossen. In der Mundhöhle wird ein Überdruck aufgebaut. Durch abruptes Zurückziehen der Zunge strömt Luft in das Mundstück und erzeugt dort einen Überdruckimpu ls. Im Lippenspalt selbst (= Engstelle) kommt durch das Strömen der Luft die »Bernoulli -Kraft« [-7 2.1.2] zum Tragen und veranlasst die Lippen, beginnend mit der Schleimha ut der inneren Lippe, sich zu schließen. Dadurch gibt es keine Bernoulli-Kraft mehr, der Druck in der Mundhöhle steigt und die Lippen öffnen sich wieder. Luft strömt in das Mundstück -> Bernoulli-Kraft wirkt -> Lippen sch ließen, usw. Abb. 2: Lippenschwingung (Screenshots eines Slow Motion Videos von Dean Ayers und Patrick Mullen). Wie schnell das vor sich geht(= Frequenz, Tonhöhe), hängt von der Spannung der Lippen und ihrer Masse innerha lb des Mundstückrand es ab. Die Lippen öffnen und schließen sich also periodisch wie ein Ventil, zum Beispiel 440 mal pro Sekunde bei einem a 1 und bis zu 1.000 mal pro Sekunde bei einem c3 auf der Trompete. Die Orchesterinstru mente Funktionsprinzip und Naturtöne . lcherart in das Mundstück eingebrachten Überdruckimpu lse pflanzen D ie so dessen ..En de gro·· ß sich in Richtung Schalltrichter fort, werden セョ@ tente1·1 セM reflektiert und laufen mit umgekehrtem Vorzeichen zuruck zui_n Mundstuck. 5-10% der Energie wird in den Raum abgestrahlt und ist als »Klang « N ur ca. · 1 lb · M·t des Instrumentes hörbar. 1 So bildet sich im Instru_ment mner 1a キ・ュァセイ@ 1lisekunden eine stehende Welle [-7 1.3.4_]. All erdmgs nur dann, キセョ@ e_me Pe. d des Öffnen und Schließens der Lippen exakt der »Rundre1seze1t « der no e . h d .d .. k Schallwelle vom Mundstück zum Schalltnc ter-En e un d wie セイ@ コオイセ」@ en_tspricht. Oder wenn eine_ Peri_ode 、セウ@ lゥー・セカョエAウ@ die Hä!_fte, em Dnttel, セュ@ Viertel usw. der Rundre1seze1t betragt. Ist die Penode セ・ウ@ oヲョセウ@ und s」ィ ャゥ セᆳ ßens der Lippen länger oder kürzer a ls die rオョ、イ・ゥウコセエ@ ッ、・セ@ emes ganzza h!ten Teils davon, so heben sich die Originalwelle und die zurucklaufende Welfe teilweise oder gänzlich auf und kein Ton ist spielbar.' .. . Das eben beschriebene Faktum kann auch anders ausgedruckt キ・イ、セZ@ Die Luftsäule im Instrument besitzt aufgrund ihrer Länge und Form bestimmte Resonanzfreque nzen. Damit sich im Instrument eine stabile stehende Welle bildet, muss die Anregungsfrequ enz einer dieser Resonanzfreque nzen entsprechen. Daraus folgt: . • Es sind nur jene Töne spielbar, welche der tiefsten Resonanzfrequ enz oder einem ganzzahligen Vielfachen dieser Frequenz entsprechen_. • Die unterschiedlich en Anregungs-Freq uenzen (= Tonhohen) werden durch unterschiedlich e Lippenspannun g erzeugt. . .. • Der Lippenspalt öffnet und schließt sich periodisch, aber md1v1duell unterschiedlich und nicht gleichförmig. Daher wird. keine sゥョ セ ウキセ ャ ・L@ sonder? eine Schallwelle welche aus vielen Sinuswell en mit unterschiedlich en Amplituden besteht, :rzeugt [-7 1.3]. Darin enthaltene nichtharmonisc he fセ・アオョᆳ zen heben sich mehr oder weniger aul und sind innerhalb kürzester Zeit mcht mehr in der stehenden Welle und damit im abgestrahlten »Klang« des Instrumentes enthalten. • Die stehende Welle beeinflusst auch die Lippenschwing ung. Nach dem Einschwingvor gang treten Synchronisation sprozesse auf, bei denen eine geringfügig falsche Lippenspannun g und daher geringfügig z_u _lange oder kurze Perioden der Lippenöffnung durch die stehende Welle korng1ert werden. 1 A.H. Benade / D.J. Gans (1968), Sound production in wind instruments. 2 Th.D. Rassing/ R.F. Moore/ P.A. Wheelder (2002), The Science of sou11d, S. 65. 90 91 Die Orchesterinstrumente Gregor Widholm • Die Klangfarbe wird maßgeblich (aber nicht ausschließlich) von der Beschaffenheit der Lippen bestimmt. Eine größere Lippenmasse verstärkt den Anteil tieferer Frequenzen im Anregungsspektrum, eine geringe Lippenmasse erzeugt eine mehr rechteckige, sägezahnartige Wellenform und erhöht damit den Anteil und die Amplituden höherer Frequenzen. • Wird z.B. der zweite Naturton gespielt, so besitzt die stehende Welle über die Gesamtlänge des Instrumentes zwei Druckbäuche und zwei Druckknoten, beim fünften Naturton fünf Druckbäuche und fünf Druckknoten usw. Am Mundstückbeginn befindet sich immer ein Druckbauch, am Schall: trichterende immer ein Druckknoten. Druckknoten ! [' Druckbauch Druckbauch Druckbauch ! Druckknoten ! ! ! Druckbauch Druckknoten Druckknoten ! t Abb. 3: Stehende Welle im In strument. Verteilung der Druckbäuche und -knoten beim Spiel des 4. Naturtones. Das Mundstück unterscheidet drei Bauformen: kesselförmige (Trompeten, Posaunen), セ。ョ@ tnchterförmige (Hominstrumente) und eine Mischform dieser beiden Arten bei Tuben. セ@ 1 セ@ 1 L _ _ i_ i 1 ___ ___L Abb. 4: Mundstückformen, v.l.n.r.: Horn , Trompete, Posaune und Tuba' Es gibt eine schier unendliche Zahl von Variationen, die nachfolgend beschriebenen Auswirkungen von Änderungen beziehen sich immer auf die international üblichen Standardmodelle. Die Form des Mundstückrandes sollte ausschließlich auf die individuelle Physiologie der Lippen abgestimmt werden. Der Kessel, die Bohrung und d.er Schaft sind hingegen akustisch ein Teil des Instrumentes und müssen auf dieses abgestimmt sein. Der Kessel beeinflusst die Intonation, die Klangfarbe und die Ansprache. Wird das Kesselvolumen vergrößert, so wird die Grundstimmung des gesamten Instrumentes tiefer und umgekehrt. Ein größeres Kesselvolumen fördert die tieffrequenten Anteile im Anregungsspektrum, bezüglich der Ansprache gewinnt man den Eindruck, das Instrument reagiere langsamer. Ein »flacher « Kessel mit einem geringeren Volumen wird hingegen als »spricht leichter an« empfunden. Eine Vergrößerung der Bohrung hingegen erh.?ht die Grundstimmung des Instrumentes geringfügig und umgekehrt. Anderungen am Mundstückschaft haben nur auf die Intonation im tiefen und hohen Register bleibt davon unberührt. Ein セ mゥエ・ャ。ァ@ des Instrumentes einen Einfluss. dゥ・ stark konischer Schaft erhöht das tiefe Register, die Töne in der hohen Lage werden tiefer. Ein stark bauchiger Schaft hingegen senkt die Tonhöhe der tiefen Töne etwas ab und hebt das hohe Register an.' 3 K. Nödl (1970), Meta/lblasinstrumentenbau, Tafel 4-9. 4 http://iwk.mdw.ac.at/?page_id=86&sprache=l Mundstückforschung, [letzter Zugriff 12.12. 2012]. 92 93 - - - -·- Gregor Widholm Die Mensur Unter Mensur versteht man bei Blechblasinstru menten den Innendurchmes ser der Instrumentenrö hre. Da dieser an verschiedenen Stellen des Instrumentes unterschiedliche Werte besitzt, wird meist der Durchmesser im zylindrischen Mitteltei l des Instrumentes a ls Richtwert angegeben. Die Mensur beeinflusst die Gesamtstimmu ng, die Stimmung jedes einzeln en Tones und geringfügig die Lautstärke und die Ansprache. Schallwellen breiten sich kugelförmig aus. Dies ist innerhalb einer Röhre nicht möglich. Luftteilchen, deren Schwingrichtun g von der Rohrachse abweicht, stoßen an die Innenwand der Instrumentenrö hre, werden dort reflektiert und behindern die Schwingung der anderen Luftteilchen.' Das führt zu einem E?erg.iever!ust und zu einer geringfügigen Verminderung der Schallgeschwmd1gke1t. Diese Effekte treten in einem unmittelbar an die Innenwand angre.nzenden, ォセョウエ。@ 0,2 mm breiten Bereich auf. Das hat Auswirkungen auf die g・ウセュエQオョァ@ und die Lautstärke des Instrumentes. Die Stimmung eng ュ・セウオョイエ@ ャョウセイオュ・エ@ ist durch die geringfügig niedrigere Scha ll geschwmd1gke1t etwas tiefer als die von weit mensurierten Instrumenten. Da der Anteil des Randbereichs an der gesamten Querschnittsflä che bei eng mensunerten Instrumenten höher ist, ist auch der Energieverlust der stehenden Welle größer und damit bei gleicher Anregung der abgegebene Schall etwas geringer: das Instrument klingt leiser. . Der ..höhere eセ・イァゥカャオウエ@ bei eng mensurierten Instrumenten entspricht emer stark.eren dセューヲオョァ@ der stehenden Welle. Da stark gedämpfte Systeme schneller emschwmgen a ls schwach gedämpfte sケウエ・ュ{セ@ 1.3], haben Musikerinnen bei eng mensurierten Instrumenten den Eindruck, dass sie »leichter ansprechen«. Für jeden gespielten Ton gibt es entsprechend seiner Ordnungszahl innerhalb des Instrumentes gleich viele Druckbäuche und Druckknoten (siehe Abb. 3 ). Wenn man nun die Mensur an der Stell e, an der sich für einen bestimmten Ton ein Druckbauch befindet, enger macht, so wird dieser Ton höher. Erweitert man den Durchmesser an dieser Stelle, so wird der gespielte Ton tiefer. Das eröffnet die Möglichkeit, gezielt die Intonation einzelner Töne zu korrigieren.' Da aber z.B. für den 4. und 8. Naturton jede zweite Position der Druckbäuche identisch ist, beeinflusst eine Korrektur des 4. Naturtones auch die Intonation des 8. Naturtones. Zusätzliche Probleme schaffen die Ventile ' 5 N.H. Fletcher I T.D. Rassing (1991), The physics of musical instruments, S. 190ff. 6 R. Smtth (1988), It's all in the bare. 94 Die Orchesterinstru mente die bei deren Betätigung die Position der Druckbäuche und -knoten ab der Mitte des Instrumentes auf der Längsachse verschieben. Für zielgerichtete Intonationskorrek turen werden heutzutage daher spezielle Software Pakete eingesetzt.1 Abb . 5: Normale stehende Welle versus gedämpfte stehende Welle. Vergleich einer Impedanzspitze. Die Ventile Um innerhalb des Spielbereiches a lle Töne erzeugen zu können, wird die Länge des Instrumentes verändert. Bei einer Verlängerung der Instrumentenrö hre um ca. 6% sinkt die Gesamtstimmu ng um einen Halbton. Erfahrungsgem äß reichen im · Normalfa ll drei untersc,1iedliche Längen aus: ein Halbton tiefer, ein Ganzton tiefer und eineinhalb Töne tiefer. Bei Tuben und Posaunen kommt noch ein »Quartventil« (fünf Halbtöne tiefer) dazu. Durch die Kombination der einzelnen Verlängerungen erschließt sich das gesamte chromatische Tonmaterial. Die Verlängerung der Instrumente wurde seit dem 18. Jahrhundert durch so genannte »Setzstücke« bewerkstelligt, welche zwischen das Mundstück und den Instrumentenkorpus gesteckt wurden. Seit Mitte des 19. Jahrhudnerts gibt es 7 http://artim.at/?page_id=9&sprache=1 »Optimierer « [letzter Zugriff 12.12. 2012] 95 Die Orchesterinstrumente Gregor Widholm brauchbare Formen von Ventilen, die im zylindrischen Teil der Instrumente positioniert, ein Rohrstück bestimmter Länge hinzu schalten. Heute sind zwei Arten von Ventilen gebräuchlich (Abb. 6), das Drehventil und das Pumpenventil. Das »Wiener Ventil« oder »Doppelpumpenventil« wird aus Gewichtsgründen nur mehr bei Wiener Hörnern eingesetzt (Abb. 7). -B A I ,n /„- . . . , I 1 1 1 1 °\ / \ / セM \ 1 A -- - - セ GMBLN⦅@ ... „ - - B - - ,/ A - --- ' ...... B '' ' 1 t Abb. 7: Ventilarten. Wiener Doppelpumpenventil nach Leopold Uhlmann. Rechts im gedrückten Zustand. ---- - ·-· ·r-··, ·- - ----- _____i --- ---ij,: ⦅Z] ,,,., a「セNZ@ ] -- J M]セ -· _)„. ---· M セ@ B A -- }j@ セ __ -------- -------------+- B Blechbläser teilen die Erfahrung, dass die Art des verwendeten Ventils einen Einfluss auf die Mikrostruktur einer Bindung hat. So wissen Hornisten zum Beispiel, dass man im Gegensatz zu Drehventilen, mit dem Doppelpumpenventil des Wiener Horns weichere Bindungen erreichen kann,' bei welchen die Töne glissandoartig ineinander übergehen. セ@ Ventilarten. Oben: Drehventil, unten Pumpen oder Perinetventil. Rechts jeweils im gedrückten Zustand in dem ein Rohrstück zwecks Verlängerung dazu geschaltet wird. 8 G. Widholm (2012), Wiener Klangstil - Fakten und Hintergrundinformation am Beispiel der Wiener Philharmoniker, S. 15-27. 96 97 Die Orchesterins trumente Gregor Widholm Für deutsche und österreichisc he Trompeter ist es ein Faktum, dass im Gegensatz zu den Pumpenvent ilen bei ihrem Instrument mit Drehventilen weichere Bindungen bewerkstelli gt werden können.' 0 Untersuchun gen' haben gezeigt, dass nicht die Art des Ventils, sondern der Ort, an dem es innerhalb der Instrumente nröhre positioniert ist, darüber entscheidet, ob eine Bindung »weich« oder »a brupt « ausfällt. Befindet sich das Ventil für den gespielten Ton gerade an einem Druckbauch , so wird die Bindung »abrupt « ausfallen, befindet sich das Ventil hingegen an einem Druckknote n, so sorgt es für eine »weiche« Bindung. Wiener Horn i.... Q) N Doppelhorn i ·........ Q) N Abb. 8: Wasserfallspektrum einer Oktavbindung (klingend b - b') mit dem Wiener Doppelpump enventil (oben) und einem Drehventil (unten). Frequenz: von links nach rechts_, Amplitude m. dB: von unten nach oben, Zeit in ms: von vorne nach hinten. Deutlich ist beim .Wiener Horn das für eine »weiche « Bindung typische glissandoart1g.e Inemanderfheßen der b.e1den Töne erkennbar. Beim Doppelhorn mit Drehventilen smd die beiden Töne durch ein 10 - 15 ms dauerndes Geräuschband klar getrennt. 98 Der Schalltrichter Der Schalltrichte r dient aus akustischer Sicht zur Ankopplung des Instrumentes an den Raum. Er übt einen Einfluss auf die Lautstärke und die Klangfarbe aus: Ein Instrument mit großem Schalltrichte r wird bei gleicher Anregung einerseits einen höheren Schallpegel abgeben (mehr durchlassen = abstrahlen) als eines mit einem kleineren Schalltrichte r, andererseits wird es aber auch mehr Energiezufu hr benötigen, da ja durch die erhöhte Abstrahlung der Schallwellen in den Raum weniger Energie im Instrument selbst verbleibt, um das System der stehenden Wellen aufrecht zu erhalten. Instrumente mit einem größeren Schalltrichte r-Durchmess er sind anstrengend er zu spielen. Die akustischen Vorgänge am Ende des Schalltrichte rs sind hochkomple x und können hier nur stark vereinfacht und beispielhaft wiedergegeb en werden. Die Tatsache, ob und in welchem Ausmaß eine Schallwelle am Ende eines Rohres reflektiert wird, hängt überwiegend vom Verhältnis des Rohrdurchmesser s zur Wellenlänge A. ab. Ist A. im Verhältnis zum Schalltrichte rdurchmesser groß, dann wird die Schallwelle größtenteils reflektiert, ist /, gleich oder kleiner als der Schalltrichte rdurchmesse r, so wird die Schallwelle größtenteils durchgelasse n. Der Schalltrichte r behandelt daher jeden einzelnen Teilton des stehenden Wellensystems, was seine Abstrahlung betrifft, unterschiedlich. 9 St. Campidell (1995), Die Mikrostrulztur von Ventilbindungen bei Trompeten. 10 G. Widholm (1997), The influence of valve mechanisms on the microstructure of slurs played with brass wind instrumerrts, S. 407-412. 99 Die Orchesterinstrumente Gregor Widholm Die Wandstärke Die Wandstärke übt einen erheblichen Einfluss auf die erzielbare Lautstärke die Ansprache" und indirekt auf die Klangfarbe aus." Wie durch leichte Be-' rührung der Instrumentenröhre feststellbar ist, vibriert die Instrumentenwand 1.3.4] im Ingeringfügig an jenen Stellen an denen die stehende Welle {セ@ strument Druckbäuche aufweist .. Die Größenordnung bewegt sich im Mikrometer-Bereich. Die Instrumentenwand »schwingt mit « und entzieht dadurch der stehenden Welle etwas Energie. 13 Folgerichtig wird auch weniger abgestrahlt und die erzielte Lautstärke ist geringer als sie sein könnte. Gleichzeitig bedeutet der Energieentzug auch eine stärkere Dämpfung (siehe Kapitel Mensur), der Einschwingvorgang erfolgt geringfügig schneller und Musikerlnnen haben den Eindruck »das Instrument spricht leichter an«. Den Effekt der »leichten Ansprache« kann man alternativ auch durch die Wahl eines flachen Mundstückkessels erreichen. Eine stärkere Dämpfung vergrößert auch den Ziehbereich. Darunter versteht man, wie weit die Lippenspannung und damit die Frequenz von der vom Instrument vorgegebenen Frequenz abweichen darf, sodass noch ausreichend Energie über das Lippenventil zugeführt werden kann, um ein stabiles, stehendes Wellensystem aufrecht zu erhalten. Für die Spielpraxis bedeutet dies, dass man bei einer stärker »gedämpften« stehenden Welle die Intonation [セ@ 2.2] einzelner Töne leichter korrigieren kann. 11 W. Kausel IV. Chatziioannou /Th. Moore (2011), More on the structural mechanics of brass wind instrument bells, S. 527-532. 12 W. Kausel I D. Zietlow /Th. Moore (2010), Influence of wall vibrations on the sound of brass wind instruments, S. 3161-3174. 13 V. Chatziioannou / W. Kausel / Th. Moore (2012), The effect of wall vibrations 011 the air column inside trumpet bells, S. 2243-2248. 100 Abb. 9: Ziehbereich. Übliche Impedanzspitze der stehenden Welle (schwarz) und lmpedanzspitze einer stark bedämpften stehenden Welle (grau ). fl =vom Instrument angebotene Tonhöhe, f2 = etwas höher gesp ielter Ton. Klar ist daraus erkennbar, dass der Energieverlust durch die phasenverschoben zurücklaufende s」ィ。セャキ・@ .bei d.er stark bedämpften stehenden Welle wesentlich geringer und daher der Z1ehbere1ch großer ist. Die Oberfläche Durch die vielen Bearbeitungsvorgänge kann die Oberfläche der Innenseite des Rohres unterschiedlich ausfallen. Ist die Oberfläche rau, treten hohe Reidumpfere kャ。セァᆳ bungsverluste auf, die eine geringere Lautstärke, eine ・エセ。ウ@ farbe (die hochfrequenten Anteile im Klangspektrum mit genngen Amplituden fallen unter die Hörschwelle) und eine schnellere Ansprache zur Folge haben. , . Aufgrund der Verunreinigung der Atemluft und 、・セ@ kッョ、・ウ。エQPセヲォ@ an der kälteren Instrumenteninnenwand setzt sKh bei allen Blechblasmstrumenten innerhalb der ersten 20-30 cm nach dem Mundstück ein elastischer, feuchter »Film« fest der eine allfällige Rauigkeit der Oberfläche vermindert. Unabhängig davon kann dieser Film die wirksame Mensur カ・イゥョァセ@ und damit die Instrumenteneigenschaften verändern, falls das Instrument mcht regelmäßig gereinigt wird. . . . Eine perfekt glatte Innenoberfläche ist allerdmgs mcht ideal. dセウ@ iョウエセオ ᆳ ment wirkt steif und lntonationskorrekturen sind nahezu unmöglich. Eme gewisse Dämpfung der stehenden Welle durch eine geringfü.gig raue Innenüberfläche ist für eine als gut empfunden Ansprache notwendig. 101 Die Orchesterinstrumente Gregor Widholm Das Material Im Blechblasinstrumentenbau werden im Allgemeinen drei Legierungen verwendet: Messing (70% Kupfer, 30% Zink), Goldmessing (85% Kupfer, 15% Zink), Neusilber (50% Kupfer, 20% Nickel, 30% Z ink). Musiker/innen neigen dazu, der Legierung eine große Bedeutung beizumessen. Tatsächlich ist der Einfluss der Legierung auf den Klang und die Ansprache jedoch sehr gering." Messungen an Posaunen zeigten, dass Unterschiede im Klang nur bei staccato-Tönen im fortissimo zwischen 3 und 5 kHz sowie bei 10 kHz auftreten und weniger als 3 dB betragen. Dieser Unterschied ist fa llweise für die Musikerinnen selbst wahrnehmbar, aber nicht für das Publikum." Einen Einfluss auf Klang und Ansprache wird auch der Lackierung zugesprochen. Dies ist falsch und ein Mythos. Wird der Lack fachgerecht aufgetragen und eingebrannt, führt das zu keiner Änderung der Eigenschaften. Allerdings treten im Zuge der Bearbeitung ein ige temporäre Effekte auf, die Musikerinnen zu der oben angeführten Einschätzung verleiten. Manche Instrumentenbauer reinigen das Instrument vor der Lackierung mit Ultraschall. Die gründliche Entfernung a ller Verunreinigungen der Innenwand ändert die Ansprache- und Klangeigenschaften (glatte Innen-Oberfläche, das Instrument wirkt steif). Es dauert ein bis zwei Wochen, bis der übliche Film an der Innenwand wieder aufgebaut ist und sich das Instrument für die Musikerinnen durch die gewohnte Dämpfung wieder so anfühlt wie vorher. Wird das Instrument vor der Lackierung nicht gereinigt, so trocknet der ursprünglich feuchte und elastische, an der Innenwand liegende Verunreinigungsfilm im Zuge des Einbrennprozesses plötzlich aus, bekommt Risse, blättert teilweise ab und erzeugt so eine extrem raue Oberfläche. Die stehende Welle wird dadurch extrem stark bedämpft, das Instrument ist daher leiser a ls üblich und die Klangfarbe wirkt durch die geringen Amplituden der höheren Klanganteile etwas »stumpf«. Nach ca. einer Woche wird durch die feuchte Atemluft der Film wieder glatt und elastisch . Das Instrument reagiert wieder so wie vor der Lackierung. Seit einigen Jahren wird mit a lternativen Materialien, vorwiegend auf Carbonfaser basierenden Materialien, experimentiert. Einerseits, um gezielt und reproduzierbar bestimmte Eigenschaften eines Instrumentes zu erhalten und andererseits aus ökonomischen Gründen. Seit 2011 werden z.B. in der 14 K. Wogram (1976), Einfluss von Material und Oberflächen auf den Klang von Blechblasinstrume nten. 15 K. Wagra m (1989), Akustische Auswahlkriterien bei Blechblasinstrumenten, S. 119-136. 102 Schweiz erfolgreich im Klassik-Bereich Trompeten mit Schallstücken aus Carbonfaser produziert und verkauft. 16 2.1.2 Holzblasinstrumente Bei Holzblasinstrumenten wird ebenfa lls die von der Instrumentenwand umschlossene Luftsäule in Schwingung versetzt. Zentrales Element der Tonerzeugung ist entweder ein elastisches »Rohrblatt« (Oboe, Englischhorn, Klarinette, Saxophon, Fagott) oder der auf eine Kante gerichteter Luftstrahl (alle Flöteninstrumente). Der Zungenton (am Beispiel der Klarinette) Die Mundstückbahn, an der das Rohrblatt anliegt, ist gegen Ende des Mundstücks etwas gekrümmt, so dass das Blatt die Öffnung nicht vollständig verschließt, sondern einen 0, 7-1,2 mm breiten Spalt offen lässt. Klarinetten Saxophone Oboen Fagotte Abb. 10: Zungenton bei Rohrblattinstrumenten 16 H. Vereecke I W. Kausel (2012), Carbon fiber reinforced polymer, an alternative to brass? S. 41-43. 103 Die Orchesterinstrumente Gregor Widholm Wird nun über diesen Spalt Luft in das Mundstück geblasen, so entsteht in dem Spalt zwischen dem Rohrblatt und dem Mundstück durch die erhöhte Strömungsgeschwin digkeit ein Unterdruck (Bernoulli-Kraft), und das elastische, an seiner Spitze sehr セ N ゥNョ・@ Blatt wird in Richtung Mundstückbahn gezogen und verschließt die Offnung. Es kann keine Luft mehr in das Mund stück strömen, daher wirkt auch keine Bernoulli-Kraft mehr, das Rohrblatt kehrt in seine ursprüngliche Ruhelage zurück und gibt damit den Spalt wieder frei. Luft strömt ein, die Bernoulli-Kraft zieht das Blatt wieder in Richtung Mundstückbahn, der Spalt wird verschlossen, usw. Wie die Lippen bei Blechblasinstrument en, so wirkt das Blatt bei Holzblasinstrumenten wie ein Ventil, das sich periodisch schließt und öffnet und solcherart Überdruckimpulse in das Instrument einbringt. Allerdings ist das Rohrblatt aufgrund seiner geringeren Masse in seiner Schwingung viel stärker von der schwingenden Luftsäule im Instrument abhängig als z.B. die menschlichen Lippen. Durch den Druck der Lippen auf das Rohrblatt wird dessen Resonanz, die für Klarinettenblätter bei ca. 2.500-3.000 Hz liegt, stark gedämpft und belanglos . In セ_ュ「 N ゥョ。エッ@ mit unterschiedlichen Ansatzpunkten der Lippen kann die Ste1f1gke1t des Rohrblattes verändert werden. Dadurch werden unterschiedliche Anregungsfrequenze n erreicht. Auch hier muss die Anregungsfrequenz mit einer der Resonanzfrequenzen der Luftsäule übereinstimmen um einen Ton spielen zu können. Gleiches gilt für die »Doppelrohrblätter<: bei Oboen und Fagotten. In diesen Fällen ist anstelle der unbeweglichen Mundsti.ickbahn eben ein zweites gegenüberliegendes Rohrblatt vorhanden. Ziehbereich: Als Ziehbereich bezeichnet man jenen Frequenzbereich, innerhalb dessen der gespielte Ton vom Musiker erhöht oder vertieft werden kann. Er wird in Cent [-7 2.2.1] angegeben. Bei der Verwendung eines leichten Blattes ist der Ziehbereich und damit die Möglichkeit der lntonationskorrektur durch den Menschen größer. Klangfarbe: Auf »leichte« (also dünn geschabte) Rohrblätter wirkt die Bernoulli-Kraft stärker als auf schwere Blätter, gleichzeitig ist die Rückstellkraft des leichten Rohrblattes geringer. Nachdem die Dauer einer Periode des Öffnens und Schließens für beide Blattarten gleich lang sein muss (es wird ja derselbe Ton gespielt), das Öffnen und Schließen beim leichten Rohrblatt durch die geringere Steifigkeit aber schneller vor sich geht, muss es notgedrungen länger offen und länger geschlossen bleiben. Die Kurvenform der Bewegung eines leichten Blattes ist daher einer »Rechteck-Kurve« sehr ähnlich. Rechteckkurven enthalten aber (genauso wie Sägezahnkurven) viele Teiltöne, daher der hellere Klang gegenüber dem schweren Blatt. Der Kantenton Aus einem Spalt wird der Luftstrom auf einen asymmetrisch zur Mitte des Luftstrahls angeordneten Keil (Kante) geblasen. Einfluss des Rohrblattes auf die Stimmung, den Ziehbereich und die Klangfarbe 17 Musikerlnnen unterscheiden zwischen »leichten« und »schweren « Blättern. Leichte Blätter sind generell, insbesonders aber an der Blattspitze dünner (»stärker geschabt«) und besitzen weniger Masse sowie an der Blattspitze eine geringere Steifigkeit als schwere Blätter. Stimmung: Die Gesamtstimmung des Instrumentes hängt von der Masse und Steifigkeit des Rohrblattes ab. Mit einem »schweren Blatt« steigt die die Gesamtstimmung einer B-Klarinette um bis zu 25 Cent. td Spalt ljセ@ t ILuft Abb. 11 : Schematische Darstellung des Kantentones 17 J. Meyer (1966), Alrnstik der Holzblasinstrumente in Einzeldarstellungen. 104 105 Die Orchesterinstrumente Gregor Widholm Da_durch ・ョセウエィ@ an ・ゥョセ@ Seite des Keils eine größere Ansammlung von Luftteilchen (=Uberdruck). Die nachfolgenden Luftteilchen nehmen den W セ・ウ@ geringeren wゥ、セイウエ。⦅・@ auf die andere Seite des Keiles und カ・イオウ。」ィZセ@ 1n der fッャァセ@ dort emen Uberdruckimpuls, danach strömen sie wiederum zur 。ョ、・セ@ Seite, usw. So werden an beiden Seiten des Keiles (bzw. außerhalb und mnerhalb des Flötenrohres) abwechselnd und periodisch überdruckimpulse erzeugt." Abb. 12: Airjet Simulation mittels Lattice Boltzmann Methode (Helmut Kühnelt, Wien). Lmks: Luftstrom geht nach außen, rechts: Luftstrom bewegt sich nach innen. Die Tonhöhe hängt von der Strömungsgeschwindigkeit sowie vom Abstand セ・ウ@ Spaltes von der Kante ab. Mit höherer Luftgeschwindigkeit steigt auch__ d1e Frequenz des_T?nes. Das erklärt die steigende Tonhöhe bei Blockflöten fur forte- und fort1ss1mo-Töne. Der Effekt kann durch stärkeres Abdecken 、セウ@ d。オュセョャッ」ィウ@ _und/oder anderer beteiligter Tonlöcher kompensiert werden (siehe セ。ーQエ・ャ@ »D_1e Tonlöcher«). Die Form des Strahls und des Winkels, mit セ・ュ@ dieser auf die Kante trifft, beeinflussen die Klangfarbe und die Intonation." Die bei modernen Böhmflöten auf das Mundloch aufgesetzte Mundplatte verbessert das Strömungsverhalten des Luftstrahls und damit die Ansprache und Klangfarbe.' 0 Die Funktionsweise Unabhängig von der __Art der Tonerzeugung gilt für alle Holzblasinstrumente , dass die erzeugten Uberdruckimpulse sich im Inneren des Instrumentes in Richtung Ende des Instrumentes fortpflanzen und beim ersten offenen Tonloch größtenteils reflektiert werden. Dadurch bildet sich bei passender Anregungsfrequenz eine stehende Welle. Im Gegensatz zu den Blechblasinstrumenten wird die Chromatik nicht durch Verlängern des Rohres, sondern durch das Verkürzen mit Hilfe von Tonlöchern erzielt. Bei Blechblasinstrumenten wird der gewünschte Ton aus einer Menge von bis zu 16 Resonanzfrequenzen (=lmpedanzspitzen) ausgewählt, bei Holzblasinstrumente n werden nur die ersten drei Resonanzen benutzt. Am Beispiel der Blockflöte lässt sich dies gut aufzeigen: Wird eine Tonleiter vom tiefsten bis zum höchsten Ton gespielt, so wird mit der ersten Resonanz und der vollständig geschlossenen Tonlochreihe begonnen. Danach wird das jeweils unterste Tonloch geöffnet, um das Instrument sukzessive zu verkürzen. Sind alle Tonlöcher geöffnet, so wird wieder mit dem geschlossenen Instrument begonnen und die Strömungsgeschwindigkeit erhöht, so dass die zweite Resonanzspitze angeregt und die gleiche Prozedur des »Tonloch Öffnens« weitergeführt wird. Bei Rohrblattinstrumen ten wird der Lippendruck auf das Rohrblatt verändert und die Strömungsgeschwindigkeit der Luft erhöht, so dass das Rohrblatt mit der doppelten Frequenz (= zweite Resonanz) schwingt, usw. Dieser Vorgang wird überblasen genannt. Darüber hinaus wird der hörbare Klang des Instrumentes primär von den offenen Tonlöchern und nicht vom Schalltrichter abgestrahlt. Generell besitzt die Mensur bei Holzblasinstrumente n den gleichen Einfluss wie bei Blechblasinstrumenten, er kommt aber durch den wesentlich stärkeren Einfluss der Tonlochparameter und des Rohrblattes bzw. der Mundloch- oder Keilbeschaffenheit セ・ゥ@ Flöteninstrumenten fast nicht zum Tragen. Die Tonlöcher 18 D. Hall (2002), Musical Acoustics, S. 240. 19 J. Meyer (2004), Akustik und musikalische Auffiihrungspraxis. 20 l. Bark I .J. セ・ケイ@ (1989), Zum Einfluss der Form des Mundloches auf die Tonerzeugung bei den Querfloten, S. 358-368. 106 Bohrte man z.B. in der Mitte eines Rohres ein Tonloch, das den gleichen Durchmesser besitzt wie das Rohr selbst, dann wäre das Rohr an dieser Stelle zu Ende. Es wäre halb so lang, und alle erzeugbaren Töne besäßen daher die doppelte Frequenz (=eine Oktave höher). Dies ist in der Praxis nicht sinnvoll 107 Die Orchesterinstrumente Gregor Widholm und auch nicht möglich." Der Tonlochdurchmesser beträgt zwischen 20% (Oboen) und 54% (Querflöten) des Innendurchmessers. Daher tritt beim Tonloch kein völliger Druckausgleich ein, die stehende Welle endet erst einige Millimeter bis Zentimeter später. Demzufolge gilt: je kleiner der Tonlochdurchmesser, desto größer die wirksame Länge des Instrumentes und desto tiefer der erzeugte Ton. Vergrößert man den Tonlochdurchmesser, so . wird der gespielte Ton höher. Ein größeres Tonloch strahlt auch mehr Energie ab, die Lautstärke steigt, und die Klangfarbe ist etwas heller. Ein schräg gebohrtes Tonloch und eine größere Wandstärke (tritt teilweise bei Oboen und Fagotten auf) haben denselben Effekt wie ein geringerer Tonlochdurchmesser. Sie vertiefen den gespielten Ton. Oboen, Saxophone und Fagotte besitzen so genannte Oktav- oder Üherblaslöcher. Sie erleichtern das Spiel im mittleren Register (zweite Resonanz) und im hohen Register (dritte Resonanz). Um die gewünschte Anregungsfrequenz zu erreichen, müssen die Lippen auf ein Zehntel Millimeter genau an der richtigen Stelle des Rohrblattes und mit dem richtigen Druck ansetzen. Gelingt das nicht, so kippt das Schwingverhalten des Rohrblattes aufgrund des Synchronisationseffektes der stehenden Welle im Instrument in die nächst höhere oder tiefere Resonanzfrequenz. Um das zu vermeiden, befinden sich an der Stelle des Instrumentes, an der für das mittlere bzw. hohe Register Druckbäuche liegen, Tonlöcher mit geringem Durchmesser. MOhm !\ · · • · • · · · . . . . . . . . . . . . : : J \ i\ ' ' .. . ·.. . . . . ........ 300 | M ᄋ ᄋ Mセ ..:.. . ) 250 . L 200 . 50 O 0 セ ᄋ@ . :J j M .. セ セ ・ョ@ ・ゥ@ gedruckter Oktavklappe .. . . ... .. . . . . . V" 1 AY; .·1\..l \ ー jセ|@ . VI : \JJ1 V 200 rセウッョ。エーゥ O|セL@ \; .セLBGイMN ᄋセ@ , :_.-.__„ セ@ „ Dadurch wird die stehende Welle for diese Register stark geschwächt und das Kippen in unerwünschte Frequenzen infolge des Synchronisationseffektes verhindert. Bei Klarinetten und Querflöten werden bereits bestehende Tonlöcher als Überblaslöcher benutzt. Die Klappen Sind die Tonlöcher so positioniert, dass sie nur schwer mit den Fingern erreichbar sind, oder ist der Durchmesser so groß, dass sie mit Fingern nicht verschlossen werden können (z.B. beim Saxophon), werden als mechanisches Hilfsmittel Klappen benutzt. Das Material der Klappen und der innen liegenden Dichtungen (»Polster«) beeinflussen die Klangfarbe. Ebenso wird die Tonhöhe beeinflusst: sie hängt vom Abstand des Klappendeckels zum Tonloch im geöffneten Zustand ab. Je näher der Deckel bei der Tonlochöffnung ist, desto tiefer wird die Tonhöhe. Ist der Tonlochdurchmesser nur geringfügig zu groß, um mit der Fingerkuppe vollständig abgedeckt werden zu können, benutzt man so genannte Ringklappen (Querflöte, Klarinette). Das Material Bei Holzblasinstrumenten besitzt das Material auf das Spielverhalten und den Klang einen zu vernachlässigenden Einfluss. Bei Oboen, Klarinetten und Fagotten ist die Wandstärke des Holzkorpus so groß, dass es zu keinem nennenswerten Mitschwingen der Instrumentenwand kommt. Bei Querflöten und Saxophonen neigt die dünne Wand zum Mitschwingen ähnlich den Blechblasinstrumenten. Dies wird aber durch den massiven Aufbau des Klappengestänges weitgehend verhindert. Die Art und Weise der Klappenmechanik sowie deren Gewicht, Material und Befestigungspunkte am Korpus üben einen wesentlich größeren Einfluss auf die Ansprache und teilweise den Klang aus. . .. '"- - • .Hz 400 600 800 1000 1200 1400 1600 1800 2000 2200 2400 2600 2800 3000 3200 3400 3600 3800 4000 Abb. 13: Wiener Oboe: Impedanzkurve für das d' mit und ohne gedrückter Oktavklappe. 21 A.H. Benade (1988), Holzblasinstrumente. 108 109 Die Orchesterinstrumente Gregor Widholm 2.1.3 Streichins trumente Streichinstru mente sind komplexer aufgebaut als Blasinstrume nte. den Boden übertragen. Der solchermaße n zum Schwingen angeregte gesa mte Korpus überträgt die Schwingungen auf die ihn umgebende Luft, deren Schwingungen als der Klang des Instrumentes wahrgenomm en werden. Daraus ergibt sich, dass die Tonhöhe allein von der Saite bestimmt wird, der Klang und die Spielbarkeit des Instrumentes aber von der Form und Beschaffenheit der Decke, des Bodens, der Zargen, des Steges, des Stimmstocks, des Saitenhalters, ja sogar von eventuell vorhandenen Feinstimmern, dem Griffbrett und seiner Position, dem Hals und seiner Beschaffenheit, dem Stachel beim Cello und selbstverständlich von der Beschaffenheit der Saite selbst abhängt. Die Saitenschwingung Wenn die Saite an einer Stelle angezupft wird, d.h. an dieser Stelle von der Ruhelage in eine andere Position gebracht wird, so bewegt sich diese »Störung« der Ruhelage in beide Richtungen innerhalb der Saite mit einer bestimmten Geschwindig keit weiter und wird an den Enden der Saite (an denen sie fix eingespannt ist) reflektiert. Die originale und die reflektierte Bewegung (=Welle) überlagern sich, und es kommt zu einer stehenden Welle." Die Ausbreitung sgeschwindi gkeit V von Transversalw ellen in einer Saite ist durch das Newtonsche Gesetz gegeben: Die Anzahl der Teile des Instrumentes , welche einen Einfluss auf die Klangfarbe und die Spielbarkeit besitzen, ist im Vergleich zu Blasinstrum enten dass im Instrument Transversalw ellen [7 wesentlich höher. Die tセエウ。」ィ・L@ 1.3.2] erzeugt werden, die dann durch den Korpus erst in für uns hörbare Schallwellen [ セ@ 1.3.2] umgewandelt werden, erhöht die Anzahl der klanggestaltenden Teile zusätzlich. Die Funktionsw eise Mit dem Bogen. oder. dem Finger (pizzicato) wird die Saite zum Schwingen anger.egt. Da die Saite an beiden Enden fix eingespannt ist, werden die dort reflektiert, und es bildet sich eine stehende Welle [7 s」ィキQセァオョ・@ 1.3.4] mnerhalb der Saite." Die Schwingungsenergie der stehenden Welle wird auf den Steg und von dort direkt auf die Decke und über den Stimmstock auf 22 C.M. Hutchins (1988), Violinen, S. 66-67. 23 T.D. Rassing (2010), The science of string instruments, S. 11 und 197ff. 110 -VT/ d V= in m/sec T =die Spannung, d =Masse pro Längeneinhe it in kg/m Wird T (Spannung) erhöht, so wird die Geschwindig keit höher; die Folge ist ein höherer Ton. Wird d (Masse) erhöht, so erkennt man aus der Formel, dass der Betrag für die Geschwindigkeit kleiner wird, die Folge ist ein tieferer Ton. Welche Schwingung sformen ゥョ セ@ einer an beiden Endpunkten fixierten Saite möglich sind, gibt die folgende Formel an: f n= n = ᄋセ tO、@ ョORQ 1, 2, in Hz 3, 4, 5, . . . l = Länge der Saite Daraus ergibt sich: Die Tonhöhe hängt primär von der Länge l der Saite ab. Sie wird aber auch von der Masse d und der Spannung T beeinflusst. Für 24 W. Güth (1980), Zur Frage der »Ansprache« von Streichinstrumenten, S. 260. 111 Gregor Widholm eine Saite mit einer bestimmten Länge, Masse und Spannung sind viele Schwingungsformen möglich, deren Frequenzen f n jedoch ein ganzzahlig Vielfaches der tiefstmöglichen Frequenz sein müssen. Das typische Kennzeichen eines musikalischen Klanges findet man daher schon in den Schwingungsformen der Saite. -- - - - - - - - - - - - - - - - - - - - Die Orchesterinstrumente Auslenkung, usw. Die Saite wird zu einer Art Sägezahnschwingung mit einer längeren Haftphase und einer kurzen Gleitphase angeregt." Schw1ngungsperlode Gleitphase Die Tonerzeugung + Haftphase Die Bogenhaare - Schwanzhaare von speziell für diesen Zweck gezüchteten P_ferden - werden mit Kolophonium, einer Naturharzmischung mit sehr niedrigem Schmelzpunkt, eingerieben. Abb. 16: Bewegung (Auslenkung von der Ruhelage) der Saite an der Stelle des Kontakts mit dem Bogen über die Zeit. Haft- und Gleitphase bilden zusammen eine Periode der Grundschwingung einer Saite. Abb. 15: Bogenhaar ohne (links) und mit Kolophonium-(rechts) in 200facher und 800facher Vergrößerung. Rasterelektronen-Mikroskopie von Heide Halbritter. Ähnliches gilt auch für das Anzupfen einer Saite, das »Pizzicato « bei Streichinstrumenten, das bei Harfen und Gitarren der üblichen Anregungsart entspricht, nur ist in diesem Fall die Sägezahnform nicht so stark ausgeprägt, der Klang ist weniger teiltonreich. Drei Parameter können bei der Anregung mit dem Bogen verändert werden und beeinflussen massiv die Klangqualität. Die Bogengeschwindigkeit beeinflusst ausschließlich die Lautstärke: Eine höhere Bogengeschwindigkeit bewirkt eine größere Amplitude der Saitenschwingung und dadurch eine größere Lautstärke. Die Kontaktstelle verändert die Klangfarbe und die Lautstärke: Wird die Saite bei gleich bleibender BogengescHwindigkeit näher beim Steg angeregt, so steigt die Lautstärke. _Streicht man mit dem Bogen die Saite, so wird das Kolophonium durch die Reibungswärme zähflüssig. Die Saite bleibt an den Haaren haften und wird so セ・ゥエ@ mitgenommen, bis die Rückstellkraft der elastischen Saite größer ist als 、セ・@ hセ⦅ヲエォイ。N@ Sie schnellt dann in die ursprüngliche Ruhelage zurück. Dort ist die Ruckstellkraft wieder +/- Null und die Haftkraft sorgt für die nächste 25 H. Kuttruff (2004), Akustik - eine Einführung, S. 210. 112 113 Die Orchesterins trumente Gregor Widholm kッョエ。ォウ・ャG|lM MNセウ]。 ゥエ]・@ 1/2 Steg Bow Kontaktstelle Saite • 1/3 Bow Abb. 17: Einfluss der Kontaktstelle auf die Lautstärke. Wird die Kontaktstelle bei gleicher Bogengeschwindigkeit näher zum Steg verlegt (in der Abbildung unten), so ergibt sich aus der Tatsache, dass die Saite aufgrund der Haftkraft ähnlich gleich weit ausgelenkt wird, eine moderat größere Schwingweite(= Amplitude). Gleichzeitig wird der Klang teiltonreiche r. Dies deshalb, weil an der Kontaktstelle Saite-Bogen durch die Bogenbeweg ung ein Schwingung sbauch erzwungen wird. Alle Teilschwing ungen, die an dieser Stelle einen Schwingungsknoten hätten, kommen in der Saitenschwi ngung nicht vor. 1/5 Bridge BoW 1/10 l Bridge Bow セ@ Abb. 18: Einfluss der Kontaktstelle auf die Klangfarbe bzw. die Anzahl d_er im Klang enthaltenen Teiltöne. Bogenposition bei 112 , 113, 115 und lHO der Sa1tenlange und d_1e dazugehörigen Klangspektren. Bei 1/2 fehlt jeder zweite Teilton, bei 1/3 1eder 3. Teilton, bei 1110 nur mehr jeder 10. Teilton usw . Der Bogendruck als dritter Parameter kann nicht völlig frei gewählt werden er hängt von der gewählten Bogengeschw indigkeit und der KontaktsteU e ab セョ、@ dient der Energiezufu hr zur Aufrechterh altung der stehenden Welle m der Saite. 114 115 Die Orchesterinstrumente Gregor Widholm t sul ponti • cello Abb. 20: Schwingri chtungen des Steges bei Streichins trumenten: a) Stegfüße um 180° phasenver schoben, b) senkrecht zur Decke, c) Torsionss chwingun g des Stegkopfes. Kontaktstelle den minimal erforderlichen und maximal zulässigen BoAbb. 19: D.ie Abbildung コセゥァエ@ gendruck m Abhang1gke1t von der Kontaktstelle nach]. Meyer und ].C. Schelleng.'" da an video Stellen des Instrume ntes Energieverluste Dies ゥセエ@ ョッエセ・、ゥァL@ auftreten . z.B .. mnerhalb der Saite selbst durch Reibung zwischen dem Kern und der Umspmn ung. Der wesentlichste Energiev erlust tritt jedoch durch die Abstrahl ung des Korpus auf. Der Steg am Stegkopf auf, wodurch die transversale SaitenDie s.a iten lieg.eo in k・イ「セョ@ wird. Der Steg schwingt primär in セ「・イエ。ァョ@ diese? auf d1.rekt ng schwm?u N ・ョ@ RIChtung, wobei die Stegfüße um 180° phasenve rschoben auf die der ァ ャ ・Q」セ drucken. Decke 26 J.C. Schelleng in: J. Meyer (2004), Akustik und musikalisch e Aufführung spraxis, S. 76. 116 Zusätzlich existieren auch Schwingbewegungen senkrech t zur Decke sowie Torsions schwingu ngen des Stegkopfes. Der Steg überträg t solcherar t das gesamte Schwing ungsspek trum der Saite auf die Decke." Wie jeder Körper besitzt der Steg aufgrund seiner Masse und Form Resonanzbereiche. Diese liegen beim Violinsteg bei ca. 3 kHz und 6 kHz sowie schwäche r bei 9 kHz (Cellosteg: ca. 1 kHz, 1,5 kHz und 2,1 kHz). In diesen Frequenzbereichen wird die Saitenschwingung bis zu 20 dB verstärkt auf die Decke übertrage n. Die von der Stegreso nanz verursach te Verstärk ung der Teiltöne im Klangspe ktrum von Violinen im Bereich von 3 kHz ist wesentlich für die »Brillanz« des typischen Geigenklanges. Wird die Masse des Stegs nur um wenige Gramm erhöht (z.B. durch das Aufstecken eines Dämpfer s auf den Stegkopf), so verschiebt sich der primäre Resonanz bereich auf ca. 1,5-2 kHz, das Instrume nt klingt näselnd, und durch die nun schwache n Teiltöne im Bereich um 3 kHz entsteht der Eindrucb geringer er Lautstärk e. Da sich nahe dem rechten Stegfuß (an der Diskantseite) der Stimmsto ck befindet, ist die Bewegungsfreiheit dieses Stegfußes stark eingesch ränkt. Die tieferen Frequenz en (bis ca . 900 Hz) mit ihren großen Amplitud en werden daher primär über den linken Stegfuß auf die Decke übertrage n, die hohen Frequenz anteile mit den geringeren Amplitud en über den rechten Stegfuß. Mys27 Siehe auch W. Güth I F. Danckwerth (1997), Die Streichinstrumente - Physik, Musik, 171ff. S. Geige, der Physik , (1981) Cremer L. tik, S. 99ff.; 117 Die Orchesteri nstrumente Gregor Widholm _ _ _ _ _ __ Die Korpusm oden Die Decke (aus Fichtenho lz und gegen den Rand hin dünner werdend) B d (?.eide meist aus Ahorn) besitzen äußerst komplexe Form;n, セゥ@ und z。セァ・ョ@ _ zum Teil gewolbt, manuell aus vollem Material heraus gearbeitet und an @ セ werden hinaus Darüber dick. dlich terschiedlichen Stellen unterschie Q セ@ von den klimatisch en Bedingung en キ¦ィイ・ョ Schwingun gseigensch aften セッ」ィ@ . beeinflusst Lagerung nden anschließe der des Wuchses und . Als »Moden « werden charakteri stische Schwingun gsformen von einzelnen Teilen oder des gesamten Korpus bei bestimmte n Frequenze n bezeichnet." A sich Knotenlini en (dieser Teil schwingt nicht), an 。ョセ@ manchen Stellen 「ゥセ、・ョ@ gsbäuche mit einer maximale n Bewegung. Zwischen Schwmgun Stellen 、セイ・ョ@ der Korpus nach Anregung des Steges ウ」ィキゥNセァエ@ diesen r・ウッョ。コヲイアオセ@ zwar ebenfalls, aber deutlich schwacher ausgepräg t. Die Abbildung 21 zeigt mittels Laser-Hol ografie gemessene typische Moden von Decke und Boden einer Violine (hel1=Schwingungskn otenlinien , dunkel = Schwingun gsbäuche) , Abbildung 22 zeigt das Resultat dieser Schwingun gsmoden: die »Admittan zkurve « einer Stradivari- Violine (Ex Benvenuti 1727). Diese gibt an, wie viel Schall bei jeder Frequenz an die Umgebung abgegeben wird . ' iI' ... ··L i I· · - - ; 11 80 1• 7 JOA 349 '"' Abb: 21: Korpusmoden einer Violine nach C. Hutchins. Oben: Decke, unten: Boden. Die Zahlen geben die Frequenz in Hertz an, bei der die jeweilige Mode auftritt. 29 „ „ ' -4.. ,... - ... • 1 „ Abb. 22: Admittanzkurve der Stradivari Ex-Benvenuti 1727. Solche Kurven geben an, wie viel Schall das Instrument bei jeder Frequenz abstrahlt. Ein »akustischer Fingerabdruck« , der alle klanglichen Eigenschaften dieser Violine beinhaltet. Einzelne charakteri stische Spitzen der Admittanz kurve treten in unterschiedlicher Ausprägun g bei allen Violinen auf und können bestimmte n Teilen des Korpus zugewiesen werden. Mechanisc he Änderung en an diesen Teilen haben eine Verschieb ung der Spitze auf der Frequenza chse und/oder eine Änderung der Amplitude zur Folge. Die Saite liefert sozusagen das teiltonreic he Rohmater ial an Schwingungsformen, der Steg verstärkt bestimmte Frequenzb ereiche und der Korpus agiert als »aktiver « Filter. Das heißt, er verstärkt oder verminder t aufgrund seiner Schwingun gseigensch aften verschiedene Frequenza nteile im Gesamtspe ktrum セ ョ@ in das Medium Luft, in dem sie als und überträgt die pャ。エ・ョウ」ィキゥァオ vom Menschen als Klang des Instrumen Longitudin alschwing ungen {セQNSR}@ tes wahrgeno mmen werden. Der Korpus ist daher der wichtigste klangbestimmende Teil eines Streichinst rumentes. Der Stimmsto ck 28 E. Jansson IN: Mol in I H. Saldner (1994), On eigenmodes of the violin - Electronic holograp11y a11d ad1111tta11ce measurements, S. 1100-1105. 29 S.M. Hutchins I K.A. Stetson I P.A. Taylor (1971), Clarification of »{ree plate tap tones« by 110/ograph1c mterferometry, S. 15. 118 Der Stimmstoc k ist ein simpler, zylinderfö rmiger Stab aus Fichtenhol z, der in der Nähe des rechten Stegfußes zwischen Decke und Boden geklemmt wird. Er hat drei Funktione n: Einerseits verhindert er, dass die Decke aufgrund des über den Steg ausgeübte n Drucks der Saiten (zwischen 24 kp und 80 kp, je nach Beschaffenheit der Saiten) einbricht, anderersei ts überträgt er die höhe- 119 Die Orchesterinstrument e Gregor Widholm ren Frequenzanteile der Stegschwingung direkt auf den Boden, und darüber hinaus beeinflusst er durch seine Position massiv das abgestrahlte Klangbild des Instrumentes. Wird er näher als üblich zum Stegfuß gesetzt, dann überwiegen die hohen Teiltöne im Frequenzspektrum, wird er vom Stegfuß weiter entfernt gesetzt, dann gewinnen die Deckenmoden einen überproportionalen Einfluss: Frequenzanteile des Klangspektrums, welche den Deckenmoden entsprechen, werden extrem stark abgestrahlt, alle anderen relativ schwach. Die Abstrahlung hoher Frequenzen nimmt セ「N@ Das Instrument klingt unausgeglichen, manche gespielte Töne klingen unmotiviert laut, andere wiederum fallen durch eine seltsame Klangqualität auf oder sind einfach zu leise. Der Bassbalken Der Bassbalken (ein Stab aus Fichtenholz) ist fest mit der Decke verleimt und bewirkt dadurch eine Versteifung und Asymmetrie in der Längsrichtung. Bei Frequenzen unter 900 Hz sorgt er dafür, dass die gesamte linke Decke meist phasenverschoben zur rechten Seite schwingt. Bei höheren Frequenzen nimmt diese Wirkung ab. In der Nähe des Bassbalkens bilden sich eher Knotenlinien. Die F-Löcher und die Hohlraumresonan z Die F-Löcher vermindern im Bereich der Stegfüße die Steifigkeit der Decke in Querrichtung und erhöhen damit ihre Beweglichkeit. Gleichzeitig wirken sie als zusätzliche Schallquelle bei bestimmten Frequenzen. Der vom Korpus gebildete Hohlraum besitzt aufgrund seines Luftvolumens Resonanzstell en. Die erste Resonanzfrequenz ( »Helmholtz-Resonan z «) liegt für Violinen je nach Bauart zwischen 250-280 Hz und verstärkt dadurch den Klang der G-Saite. Je nach Bauart schwingen bei diesen Frequenzen entweder Decke und Boden um 180° phasenverschoben, oder die Decke schwingt aufgrund des Bassba lkens um ihre Lä ngsachse. Dadurch wird das Luftvolumen periodisch verringert und vergrößert, die F-Löcher wirken bei solchen Frequenzen als zusätzliche, den Klang beeinflussende Schallquelle. Die Form der F-Löcher ist historisch gewachsen und primär von ästhetischen Überlegungen geprägt.' 0 30 W. Güth I F. Danckwer th (1997), Die Streichinstrumente - Physik, Musik, Mystik, S. 91-91. 120 . Der Lack Der Lack, meist in mehreren dünnen Schichten auf?etragen, bewirkt ァセオョ、M ätzlich eine starke Dämpfung des Korpus. Unlackterte Instrumente klmgen セ・ウョエャゥ」ィ@ lauter, viele meinen auch »besser«. Darüber hinaus erhöht die Lackierung die Masse insgesamt, bewirkt eine Erhöhung des ォイゥウエ。ャセョ⦅・@ セエ・ゥャウ@ in den obersten Fasern des Holzes und damit eine größere Ste16gke1t und vermindert den Einfluss der Luftfeuchtigkeit. Kurzfristig (in den ersten 2-3 Jahren) verursacht die Lackierung_ oft ョゥセィエ@ kalkulierbare klangliche Veränderungen, langfristig hilft eine Lackierung Jedoch, die Eigenschaften des Instrumentes möglic_h st コセ@ ッョウエ。 halten. Vor dem Lackieren wird auf den rohen Korpus meist eme Grun?1erung aufgebracht die aus individuell zusammengestellten Komponenten (Oie, Pottasche, etc.) 「セウエ・ィ N@ Lack und Grundierungen werden traditionell_ von _den iョウエイセ ᆳ mentenbauern selbst zusammengestellt und bieten dadurch em weites Feld fur Spekulationen, Fantasien und Mythen. wゥウ・ョ 」 ィ。ヲエャゥ」セ・@ uョエ・イセオ」ィァ@ an Instrumenten Stradivaris und Amatis31 ergaben, dass keme Geheimrezepte angewandt wurden, vielmehr wurde ausgiebig experimentiert und es wurden meist Stoffe verwendet, die gera de zur Verfügung standen. 2.1.4 Schlaginstrumente (Pauken) Im klassischen Orchester existiert eine große Vielfalt an akustisch sehr unterschiedlichen Schlaginstrumenten. Sie reicht von den Pauken und Trommeln über verschiedene Arten von Stabspielen (Xylophon, Marimbaphon, etc.), Becken, Röhrenglocken, Pfeifen und Gongs bis hin zu eヲ・ォエァイセQZ@ wie Windmaschinen Peitschen etc. Eine Behandlung ihrer sehr unterschiedlichen Funkエゥッョウキ・ ウ・ セ@ und 。ォオセエゥウ」ィ・ョ@ Eigenschaften würde diesen Artikel bei weitem sprengen." Daher wird hier nur auf d\e Akustik der Pauke als "."ichtigste Vertreterin der Schlaginstrumente im kla ssischen Orchester näher eingegangen. 31 C. Barlow I J. Woodhouse (1997), Microscopy of wood finishes, S. 913-919. . 32 Weiterführende Literatur zur Akustik der Schlaginstrumente und zur Instru mentenakustik allgemein z. B.: T. Tarnoczy (1991), Einfiihru11g in die musikalische Akustik; D. HaH (1997) Musikalische Akustik; Th.D. Rossing I R.F. Moore I P.A. Wheeler (2002), The_ science of sound; J. Meyer (2004), Akustik und musikalische A14führungspraxis; Th:D. Rossmg (2007), Springer handbook of acoustics; Th.D. Rossing (2008), Science of percusswn mstruments. 121 Gregor Widholm Die Orchesterinstrumente Das Paukenfell Radiale Moden klingen langsam セ「L@ besitzen also eine lange Ausklingzeit d ihre Frequenz entspricht meist annähernd einem ganzzahligen Verhältnis セ@ einer (in den tatsächlichen Fellschwingungen nicht immer enthaltenen) tiefsten Frequenz. Sie sind für den harmonischen Anteil des Paukenklanges verantwortlich. Z irkuläre Moden klingen sehr schnell ab, denn sie werden im g・ァョウ。セコ@ u den radialen Moden durch das vom Kessel umschlossene Luftvolumen m fhrer Bewegung eingebremst. Die Frequenzen, bei denen sie auftreten, haben keinerlei Ähnlichkeit mit ganzzahligen Frequenzverhältniss en, sie prägen den perkussiven, geräuschhaften Antei l des p。オォセョャァ・N@ . Untersuchungen haben gezeigt, dass bei syntheti schen Fellen der Anteil und die Amplituden der zirkulären Moden größer als bei Naturfellen sind." Grund dafür ist die unterschiedliche Fellstruktur: während synthetische Felle eine gleichmäßige Stärke, Dichte und Struktur aufweisen, 「・ウゥエコセ@ Naturfelle im Bereich des Rückgrats eine im Vergleich zu den Bauchbereichen unterschiedliche Zellstruktur, welche wie eine Versteifung wirkt und quer (radial!) im gespannten Paukenfell verläuft. Das zentrale Element einer Pauke ist das Paukenfell. Es entspricht einerseits den Saiten eines Streichinstrumentes oder der schwingenden Luftsäule in einem Blasinstrument, erfüllt gleichzeitig aber auch die Aufgabe der Schallabstrahlung wie z.B. der Korpus der Saiteninstrumente. überwiegend finden synthetische Felle aus verschiedenen Kunststoffen Verwendung, fallweise verwenden Spitzenorchester für Werke der Wiener Klassik und Romantik auch Naturfelle (Kalbsfell). Nur in Wien verwenden die Orchester ausschließlich Ziegenfelle (Wiener Pauke). Grund für den Siegeszug der synthetischen Felle ist die extreme Abhängigkeit der akustischen Eigenschaften der Naturfelle von Luftfeuchtigkeit und Temperatur. Anmerkung eines philharmonischen Paukers der Wiener Staatsoper: »Wenige Sekunden nach dem Öffnen des Bühnenvorhanges muss ich schon zum ersten Mal die Pauken nach stimmen«. Schwingungsmode n Paukenfelle schwingen wie Saiten transversal. Im Gegensatz zu einer Saite die nur eine Länge besitzt und daher als »eindimensional « angesehen werden kann, ist ein Paukenfell mit seiner Fläche ein zweidimensiona ler Körper, info lgedessen existieren auch zwei unterschiedliche Schwingungsformen die sich über ihre Knotenlinien definieren: radia le und zirkuläre Schwingungen33 (Abb. 23 und 24 )[-7 1.2]. Beide Schwingungsformen treten in unterschiedlicher Kombination gleichzeitig auf, haben aber sehr unterschiedliche Wirkung auf den Paukenklang: 01 02 03 11 12 21 Abb 23: 3D-Darstellung der Paukenfellmoden nach Dan Russell, PennState University, USA 33 Th.D. Rossing (2008), Science of percussion instruments, S. 6. 122 Klangstruktur Die Abbildung 25 zeigt den gleichen Ton auf einer Pauke mit Naturfell (links) und Kunststoff-Fell (rechts) gespielt. Deutlich ist daraus erkennbar, dass die Moden 11, 21, 31 und 41, welche für den »tonalen« Charakter des Paukenklanges verantwortlich sind, bei der Pauke mit dem Naturfell wesentlich deutlicher ausgeprägt sind, während beim Kunststoff-Fell die radia len Moden etwas schwächer ausfallen und sich dazwischen noch zusätzlich starke zirkuläre Moden schieben. Generell zeigt sich bei allen Paukenklängen, dass die mッセ・ョ@ 21, 31und41 セオイ@ Mode 11 in ・セキ。@ ein Frequenzverhältnis von 1:1,5, 1:2 und 1:2,5 aufweisen. Dies entspncht einem musikalischen Klang dessen Grundton zur Mode 11 das Frequenzverhältnis von 1:0,5 besäße. Wenn man einem Paukenklang eine Tonhöhe zuordnen kann dann ist dies meist eine »virtuelle« Tonhöhe31 [-7 2.5.2]. In manchen Fällen liegt die Mode 01 nahe einer solchen Grundfrequenz. Die Abbi ldung 25 zeigt die exakten Frequenzverhältnisse und realen Frequenzen für die gespielten Töne D, A und d. 34 H. Fleischer (2005), Vibroakustische Untersuchungen an Paukenfe/len. 35 Th.D. Ross ing (2008), Science of percussion instruments, S. 10. 123 -- Gregor Widholm Die Orchesterinstru mente .diese Komponenten unter uュウエ¦ョ、・セN@ einen signifikanten und oftmals unerwünschten Einfluss auf den Klang ausuben. 14lf.1::· Abb. 25: Wasserfallspektren einer Wiener Pa uke mit Z iegenfe ll (links) und einer international ge bräuchlichen Pedalpauke mit Kunststofffell (rechts). Neben diesen gru ndsätzlichen Gegebenheiten wird der Klang wesentlich von der Anschlagstelle beeinflusst." Mit der Wahl der Anschlagstelle entscheiden Musikerlnnen welche Moden bevorzugt angeregt beziehungsweise ausgeblendet werden. Alle Moden welche am Anschlagsort eine Knotenlinie besitzen, sind im Klang der Pauke nicht enthalten. Darüber hinaus kann der Klang durch di e Verwendung unterschiedlich er Schlägelarten verändert werden. Es sind zahlreiche Schlägelkopfma terialien von extrem weich bis extrem hart erhä ltlich. Der Kessel Der Pa ukenkessel - selbst von Paukistlnnen oftmal s irrtümlich als Klangabstrahler a ngesehen - besitzt zwar Reso nanzfreq uenzen, er trägt aber nichts aktiv zum Klang der Pauke bei. Seine Schwin gungen sind parasitäre Schwingungen und entziehen im Falle eines Z usammentreffen s mit den Frequenzen von Fellmoden, di esen eine beachtliche Menge an Energie. Darüber hina us dämpft da s vom Kessel umschlossene Luftvolumen ma ssiv die zirkulären Moden. Kesselform, -material und-volumen tragen zwar nichts zum Klang der Pauken bei, verändern diesen aber indirekt über den Weg einer frequenzselektiven Dämpfung der Fellschwingungen. Ähnliche Wirkung geht auch von anderen mechanischen Teil en einer Pauke, wie zum Beispiel den oft massiven Sicherheitsringe n, der Spannvorrichtu ng oder dem Gestänge aus. Abhängig von der Konstruktion, dem Design und den verwendeten Materialien können 36 Th.D. Ross ing (1988), Die Pauke, S. 134. 124 125 Intonation in der abendländis chen Musik 2.2 Intonation in der abendländischen Musik Von Jobst P. Fricke 2.2.1 Der Konzertbe such Drei Dinge sind es, die der Besucher eines Konzerts oder irgendeiner musikalischen Veranstaltun g mitbringt: Hörerfahrun gen, die Fähigkeit des ZurechthöEr"."artungen sind es vermutlich, die ihn bewegen, und eイキ。エオョ_・NQゥセ@ イセョウ@ hmzugehen. An seme Fah1gke1ten zurechtzuhö ren und an den Normenkon sens zwischen Musikern und Hörern denkt er wohl eher weniger. Und er ahnt Normenkon sens etwas mit den Signaleigenschaften dass 、ゥ・ウセ@ wohl Mセ。オュL@ der Tone zu tun hat, die er hören wird. Dennoch sind Normenkon sens, Sign.ale1genschafren und Zurechthöre n Voraussetzu ngen dafür, den Besuch zu emem Genuss werden zu lassen. In der Brahms-Sym phonie Nr. 1, 2. Satz, hört der Besucher einen tief alterierte.n Sextvorhalt vor der Quinte. Die vier Pulte der ersten Geigen produzieemen !on, dessen Frequenzbre ite' eine Standardabw eichung von 17 Cent, イ・セ@ beim zweiten Ton 15 Cent hat.' Die Tonhöhe der Sext als Vorhaltton schwankt also (mit statistischer Unregelmäßigkeit) innerhalb einer Gesamtstreuung von et.wa 102 Cent und innerhalb der Standardbw eichung ± cr um ?ie Größe des Halbtonschr ittes Sext-Quinte , der Im Mittel 「セNエイ¦ァ@ 34 c・ョセZ@ sehr gefuhlvoll ausgefuhrt w1rd, 73 Cent. Dieser Wert ist viel zu klein für einen Halbton, der temperiert 100 Cent betragen sollte. Aber die Intonation dieser musikalischen Wendung steht gar nicht zur Diskussion. Wer denkt schon an solche Details, wenn man nicht durch eine drastische Fehlintonati on darauf aufmerksam gemacht wird. bei der die Passage in Moll ausgeführt wird, ist die .Bei der セゥ・、イィッャオョァL@ der Schritt in die Quinte ist daher größer, nämlich 84 kleme Sext nicht so エゥセヲ[@ zur unter ihr liegenden Cent. Man_ hat.den Ein.druck: dass das セオ。イエゥョ・カャ@ Mittel ziemlich genau im nämlich ist Quarte Mollterz dies nicht zulasst. Diese des Moll zu betonen Charakter den um 500 Cent groß. Da aber diese Terz, auch die im Abstand fällt Cent, 282 nämlich wird, selbst sehr tief intoniert tief aus, aber nicht zu etwas Sext kleine liegende .Quarte über ihr イ・ゥョセ@ ・ゥョセ@ Stelle in Moll tritt anderen einer An Dur-Terz. der über so tief, wie 1m Fall 1 J.P. Fricke (1988), Klangbreite und Tonempfindung , S. 70 und 76. 2 Cent-Maß C: siehe Glossar. 126 eine dorische Sext auf, die in die Quinte weitergefüh rt wird. Sie ist übermäßig groß - aber schön in diesem Zusammenh ang. In Dur könnte sie diese Ausmaße nicht haben, weil das Quartinterva ll zur Dur-Terz sie stabilisiert. Obwohl die Ausführung der Töne in den Geigen selbst Standardwe rte von± 16 und± 18 Cent »Klangbreite« haben, ist dieser Unterschied in den Mittelwerten der intonierten Töne deutlich zu erkennen. Im Falle von harmonische n Umdeutungen neigen die lntonationen zu noch viel drastischeren Abweichung en. Wenn die kleine Sext als übermäßige Quinte umgedeutet wird, die sich in die Terz des nachfolgend en Akkordes auflöst, treten Unterschiede von mehr als 3 40 Cent auf. Die Werte richten sich im Einzelnen nach der instrumental en Ausführung, stehen also in Abhängigke it davon, ob sie von Geigen im Ensemble oder von einem Solo-Instrum ent intoniert werden. Alle hier genannten Beispiele sind von Fachleuten als optimal intoniert bzw. »rein« eingestuft worden. Und auch unser Konzertbesu cher war voll befriedigt über die »Reinheit« der Darbietung. Es gibt zwischen Musikern und Hörern (innerhalb einer Kultur) offenbar ein stillschweigendes Einverständn is über das, was als »rein « zu gelten hat. Der Konsens, soweit er sich auf die Tonhöhen der musikalische n Bausteine bezieht, setzt sich aus mehreren Komponente n zusammen, die auf Naturvorgaben und deren kulturbeding ter Überformun g zurückzufüh ren sind. Es soll nun versucht werden, das komplizierte Zusammensp iel der Faktoren beim Intonieren zu durchleuchte n. Dabei werden so unterschiedliche Dinge wie Normenkon sens und Signaleigenschaften des akustischen Materials eine Rolle spielen. 2.2.2 Die Komplexi tät des Zusammen spiels sehr unterschiedlicher Faktorep. Prägung und Normenkon sens Der Besucher eines Konzerts oder irgendeiner musikalische n Veranstaltun g ist eingebunden in die kulturelle Tradition seines Lebensraumes. Er ist vorgeprägt wie die Musiker, die in dieser Kultur ihre Ausbildung erhalten haben. Der Hörer bringt also Voraussetzu ngen mit und hat auf dieser Grundlage Erwartungen. Diese Erwartungen sind sicher vorrangig auf das musikalische 3 J. P. Fricke (2012), Intonation und musikalisches Hären, S. 144. 127 Jobst P. Fricke - - - - - - - - - - - - - - - - - - - - - - Produkt und den Rahmen des Events gerichtet . .Er denkt dabei wohl weniger an die Beschaffenheit der Bausteine, der Töne, obwohl auch sie Teil der kultu rellen Prägung sind, am wenigsten wohl an die Positionen der Tonstufen und daran, wie genau die Töne auf den Tonstufen platziert sind. Tolerierte, akzeptierte und erwünschte Ungenauigkeit der Tonproduktion Es gibt eine Hörtoleranz bezüglich der Tonhöhe der Töne, die dem Hörer gar nicht bewusst ist und in eklatantem Widerspruch zu weit verbreiteten Vorstellungen über die Genauigkeit des Intonierens und auch zu den meisten Theorien des Hörens steht. Der Grund dafür ist darin zu suchen, dass seit 400 Jahren Theorien entwickelt wurden, ohne die Tatsachen genau zu kennen. Vereinzelt kam allerdings schon der Verdacht auf, dass es mit der Genauigkeit der Zahlenverhältn isse nicht ganz stimmen könne. Solche Äußerungen find et man z.B. bei Mengoli (1670)', Eximeno (1774)5 und Kiesewetter (1846, 184 7, 1848) .6 Die ersten überraschenden Messungen in den zwanziger Jahren des letzten Jahrhunderts 1 wurden in ihrer Tragweite kaum erkannt. Die Existenz der Hörtoleranz betrifft die Tatsache an sich, dass es ein »Zurechthören« gibt, das man nicht merkt, insbesondere aber die Größenordnung , in der es stattfindet. Dieser bei Musikern wie Hörern gleichermaßen festzustellende neurologische Prozess 8 wird - wenn bewusst gemacht - von beiden als erschreckend empfunden. Die Tatsache aber, dass er in der Spielpraxis und der Hörkultur in gleicher Weise vorkommt, verweist auf den Rückkopplungs effekt zwischen Produktion und Rezeption. Die so beschriebene Hörtoleranz ist nicht zu verwechseln mit derjenigen, die auf physiologisch vorgegebenen Grenzen beruht. Eine solche Grenze der Wahrnehmbark eit, die nicht unterschritten werden kann und für alle NormalHörenden Allgemeingültig keit besitzt, ist die »Tonhöhenunte rschiedsSchwelle« für die »eben merklichen Unterschiede « (difference limen DL), die für f > 500 Hz in der Größenordnung von 3%o entsprechend 5 Cent liegt. Sie -- Intonation in der abendländische n Musik ·. · eringem Umfang von der Art der Töne, d.h. den Signaleigenscha fist nur 10 · · 11 Alb ert W eII ek .. g ·g ten a bh ang1 . In der Musik spielt sie praktisch kerne Ro„ e. ' d „I d her den Begriff der »eben unverkennbaren Tonhohen-Unte rsc h 1e e« f u ute a · d k„ D · • d. 1·n der Musik unter gewissen Umständen to 1enert wer en onnen. a em ie · „ h 'f 'h E f ' · genauere Definition oder Durchfuhrungs vorsc n t zu 1 rer r asa b er eme . . . · f d' sung nicht gegeben wurde, blieb es bei dem H111we1s, mit dem au 1e Unterscheidung aufmerksam gemacht wurde. Das Ineinandergreif en verschiedener Faktoren .beim Inton.ieren jedes einzelnen Tones: Intonation in der Praxis abendländische r Musik . Normenkonsens. Das zusammenspiel der Faktoren für sein Zustandekomme n ethnische Besonderheiten セ@ / l Hörwahrnehmung ./ persönliche / Horgewohnhe1ten instationärer Charakter durch Mik romodulationen Signalqualität* des akustischen Ereignisses'-..... J· Periodizität Residuum ............. grundlegende "· h ft h￶イ・QYセョウ 」@ a en Konsonanzwahrnehmung grundsätzliche Sig naleigenschaften - Periodizität und Harmonlzität / ・QPオエッョセH@ •Die Sig nalqualität ist gegeben durch den Klangerzeuger (das Instrument ) und die Spieleigenschaften. 4 P. Mengoli (1670), Speculationi di musica. 5 A. Eximeno (1774), Dell' origine e delle regale della musica. 6 R.G. Kiesewetter (1846), Einleitung und Zusatzartikel, S. 1-16 und 64-68; derselbe (1847), Die sogenannte vollkommen gleichschwebende Temperatur; derselbe (1848), Über die Octave des Pythagoras. 7 0 . Abraham (1923), Tonometrische Untersuchungen an einem deutschen Volkslied; E.M. v. Hornbostel (1927), Musilwlische Tonsysteme. 8 J.P. Fricke (2011 ), A statistical the01y of musical consonance proved in praxis. 128 Das komplexe Zusammenwirken grundlegender und aktueller Faktoren beim Intonieren. 9 A. Wellek (1970), Typologie der Musikbegabung im deutschen Volke, S. 222. 129 Intonation in der abendländische n Musik Jobst P. Pricke 2.2.3 Die Zusammenh änge im Einzelnen mit ausgesuchten experimentel len Ergebnissen. Die lineare (melodische) Komponente Jeder Ton ist von der Tonhöhe des vorangegangenen Tones abhängig und bestimmt die Tonhöhe des nachfolgenden Tones mit. Ein vergrößerter Intervallschritt kann (zum Ausgleich) ein verkleinertes Intervall zur Folge haben, wenn das Zielintervall harmonisch gefestigt ist. Das wäre dann ein Kompensationseffekt. Er kann aber auch zu einer Wiederholung der Vergrößerung führen (wenn der Zielton dies zulässt), um die Schrittgröße beizubehalten. Ein solcher Vorgang wurde von Otto Abraham »Perseveration« genannt.' 0 Irgendwann muss allerdings der Ausgleich erfolgen, etwa dann, wenn ein Ton erreicht wird, der eine starke harmonische Bindung hat, spätestens bei der Oktave." Melodische Spannungselemente wie expressives Drängen und ebenso der auf ein Ziel gerichtete Strebecharakte r führen zu einem Dehnen und Strecken der Intervalle. Bei einem angesprungenen Leitton hat das ein Schrumpfen der Intervallbreite des nachfolgenden Leittonschrittes zur Folge. Die Töne verhalten sich wie Kugeln auf einem Relief. Es zeigt eine Hügellandschaft mit Senken, in die die Kugeln コオイ」セ@ rollen, wenn keine Hウ・ゥエ⦅ャセィョI@ Kräfte auf sie einwirken. Die Senken bilden eme Art Raster. Ihre Pos1t10nen ·nd durch eine ganze Reihe von Faktoren festgelegt. Zu diesen gehören die セ。エオイ「・、ゥョァL@ die in den Konsonanztheorien in Regeln gefasst セゥョ、L@ und die kulturbedingten, die in spezifischen ethnischen Ausprägungen die Naturvorgaben überformen. . . . .. . Die emotional begründeten Kräfte schieben und ziehen die Tone aus diesen Positionen heraus. Dies gelingt ihnen um so eher, je weniger die Periodizität eine Rolle spielt. wlä„ige セ@ okzeptiecte セ@ ausgeprägte Periodizität Intonationsabw eichungen \ セ@ Intonationstoleranz Die harmonische Komponente Das harmonische Zusammenwirk en zieht die Intonation in Positionen zurück, die auf verschiedene Weise naturwissenschaftlich erklärbar sind. Es gibt nachweislich Naturvorgaben , die evolutionär zu begründen sind; sie wurden im Lauf der Geschichte der Musiktheorie allerdings ganz unterschiedlich interpretiert: mit Saiten-Längenverhältnissen, die das Gedankengebäude der Proportionenle hre bereicherten, mit Obertönen, mit Periodizität von Schwingungen, mit Resonanz von Tönen und schließlich mit Periodizität in den Impulsmustern der neuronalen Erregung. 12 (Diese Beziehung wurde in der oben gezeigten Grafik durch den unteren Pfeil hervorgehoben). In folgendem Bild sei dieser Vorgang veranschaulicht: 10 0. Abraham (1923), Tonometrische Untersuchungen an einem deutschen Volkslied, S. 18. 11 J.P. Fricke (1988), Klangbreite und Tonempfindung, S. 77. 12 .J.P. Fricke (2011), A statistical the01y of musical co11sona11ce proved in praxis, S. 103; J.P. Fricke (2012), The recog11ition of co11sona11ce is not impaired by intonation deviations, S. 386. 130 ' instationärer Charakter des Tonmaterials . Abb. 1: Die Abhängigkeit der Intonationstoleranz von der Periodizität des Signals (zur Veranschaulichu ng einer positiven Korrelation). Die Periodizität ist eine Kraft, die die Töne in die harmonischen pッウゥエセ・ョ@ zurück zwingt. Diese Tendenz zu harmonischer Reinheit ist vor alle_m wirksam wenn man mit dem Harmonium lntonationsversuche macht. Bei den geイゥョァセエ・@ Verstimmungen aus den harmonischen Positionen der Töne treten Schwebungen aufdringlich hervor, sie stören vor セャ・ュ@ bei lang ausgehaltenen Akkorden. Nur ist zu bedenken, dass solche seit Helmholtz unternomm_ene Versuche in jeder Hinsicht praxisfremd sind. Nicht nur, weil das Harmomum mit seinen scharf klingenden obertonreichen Tönen aus der Mode gekommen 131 Jobst P. Pricke ist und die meisten Klangfarben heute weniger obertonreich sind, sondern auch, weil die Töne meist nicht so lange ausgehalten werden, weil sie stets in Durch- und Übergängen befindlich sind und zudem noch Mikromodulationen und Schwankungserscheinungen unterliegen, die als Geräuschbeimischungen empfunden werden. Mit solchen Tönen des normalen Musik- und Konzertbetriebes dürfen Abweichungen von bis zu 32 Cent selbst bei konsonanten Intervallen auftreten, ohne dass sie in irgendeiner Weise als störend empfunden werden. Bei nicht-konsonanten Intervallen ist die Spanne der Abweichungen noch größer (bis zu 45 C). 13 Leittonschritte können beispielsweise außerordentlich eng genommen werden. In den Messungen von Shackford" rangieren sie zwischen 47 und 114 Cent (bei einem Mittelwert 88 C). Nathan Milstein hat einmal im Violinkonzert von Glasunow in der Kadenz des Andante (4 Takte nach Studierziffer 12) den Leitton mit ca. 30 Cent ausgeführt". Derberechnete harmonische Halbton hat demgegenüber die Größe 112 Cent und der pythagoreische 90 Cent. Bei der Angabe solcher Werte für die Spannweite der tolerierten Abweichungen ist aber ganz wesentlich, die musikalische Funktion der Töne im Blick zu behalten. Ohne im Einzelnen nach musikalischharmonischen Gesichtspunkten zu differenzieren, sind wichtige und weniger wichtige Töne zu unterscheiden. Zu letzteren gehören chromatische Durchgänge, Ausweichungen und Durchgangstöne in Läufen. Wichtige Töne hingegen sind beispielsweise die von Schlussakkorden und die in der traditionellen Musik fast überall auf der Welt vorhandenen Töne des Quint-/Quartgerüsts, die die anderen Tonstufen stützen. . 2.3 Die Gesangsstimme - Sängerinnen und Sänger Von Harald Jers Die menschliche Stimme ist das am weitesten verbreitete Instrument und steht jedem von Geburt an zur Verfügung. Sie ist 「セゥ@ jedem m・セウ」@ ・エキセウ@ unterschiedlich gebaut und ändert während des Smgens kontmmer!ICh die Form, um verschiedene Klänge und Geräusche zu erzeugen, was sie 、・オエャゥセィ@ von 。セᆳ deren Instrumenten unterscheidet. Neben den originären Funktionen wie Sprechen, Atmen und Essen kann der ganze aー。セエ@ auch zum sゥョセ・@ b enutzt werden wobei der Anteil der stimmhaften Lautem der Sprache bei 60 0Yo und im g・ウセョァ@ bei ca. 90% liegt. Damit haben wir es im Gesang 「・イキゥァセョ、@ mit einem zeitlich variierenden akustischen Signal zu tun. Die zugrunde liegende Anatomie können der folgenden Abbildung entnommen werden. M n。ウ・ョイ 」 ィ 」 ョ M Muoduch en - -- MBGセ nZゥN セ 」ョャQ。オーエィ ￶ ィャ ・@ ᆳ - 1 Luftröhre Zwerchfell 13 Gesangsintonationen, a ufge nommen mit ei ner ve rfeinerte n Messtechnik, bei der jede(r) Sänger(in) ein eigenes Mikrofon trug, da s die Signale per Telemetrie an eine zentrale Regis triereinheit se ndete, liefert im Einzelnen andere Zahlenwerte, aber ein grundsätzlich vergleichbares Bild; H. Jers / S. Terns tröm (2005), Intonation analysis of a multi-channel choir recordi11g. 14 C.R. Shackford (1962), Some aspects of perception, II; derselbe (1962), Some aspects of perception, rrr. 15 J .P. Fricke (1993), Die Bedeutung der Mikrointervalle im Wandel der Zeiten und Kulturen, S. 236; derselbe (2012), Intonation und musikalisches Hören, S. 20. 132 Abb. 1: Anatomie des Stimmapparates' 1 W. Seidner /].Wender (1997), Die Sängerstimme, S. 48 . 133 Harald Jers ------- Schematisch betrachtet erfolgt die Stimmerzeugung in drei Bereichen: Die Lungen sorgen für die Luftzufuhr, der über der Luftröhre liegende Kehlkopf ist für die eigentliche Tonerzeugung zuständig und der darüber liegende Vokaltrakt ist ein Resonator, der eine effektivere Energieausnutz ung und Klangverfärbung hervorruft. Wie Blasinstrument e verfügt die menschliche Stimme über ein Luftreservoir in der Lunge und einen zugehörigen Steuerungsmec hanismus der umgebenden Muskulatur und des Zwerchfells. Mit diesem System kann ein Überdruck erzeugt und aufrechterhalte n werden. Beim normalen Atmen wird bei jedem Luftzug etwa ein halber Liter ein- bzw. ausgeatmet, beim Singen geht dies an die Grenze des zur Verfügung stehenden Lungenvolumens von ca. 5 Liter.' Die Luftröhre fungiert als Auslasskanal und der Kehlkopf mit den Stimmbändern als Verengung, an der der Luftstrom periodisch unterbrochen wird und die eigentliche Lauterzeugung erfolgt, der sogenannte Primärschall. Der Kehlkopf ist außerdem die Schaltstelle von Speise- und Luftröhre und kann vom Kehldeckel (Epiglottis) verschlossen werden, um das Eindringen von Speisen zu verhindern. Der Vokaltrakt und die Mundöffnung beeinflussen in Wechselwirkun g mit den Stimmlippen maßgeblich die Klangproduktion in Bezug auf Lautstärke und Klangfarbe. Neben den Vokalklängen werden im Vokaltrakt mit Hilfe der Mundwerkzeug e auch Konsonanten wie beispielsweise Reibe- oder Plosivlaute erzeugt. Außerhalb der Mundlippen beeinflusst die Geometrie des ganzen Körpers und dessen akustische Eigenschaften die Schallabstrahlu ng, die für jede Frequenz eine sehr unterschiedliche Ausprägung bat. Dies bat sowohl Konsequenzen für die Position eines einzelnen Sängers im Proben- bzw. Konzertraum, als auch im Chorgesang in Bezug auf die Anordnung der Sänger im Chor' bzw. der gesamten Chorformation.' 2.3.1 Tonerzeugun g 2 3 4 ]. Sundberg (1997), Die Wissenschaft von der Singstimme, S. 51. H. Jers (2005), Directivity of singers, S. 2008. J.F. Daugherty (1996), Spacing, formation a11d choral sound: preferences and perce ptions of auditors a11d choristers. 134 Die Gesangsstimme - Sängerinnen und Sänger Fal,c hc Stimmlippen Sch ildkn orpel (Echte) Sti mm lippen Falsche Stimml ij)pen Schildknorpel (I•:cht:c) St immlippen Gi eßhecken- oder St C'llknnrpcl Abb. 2: Kehlkopf, oben: Frontalschnitt, unten: Aufsicht' Die eigentliche Tonerzeugung der ュ・ョウ」セャゥィ@ Stimme セョエウ・ィ@ im Kehlkopf an den Stimmlippen durch periodisches Offnen „und s」ィャエ・セョ@ des Luftwe!?es. Der von unten an den Stimmlippen anliegende Uberdruck fuhrt zu deren Offnung. Diese plötzliche Öffnung und der entstehende lオヲエウセッュ@ セオヲ・ョN@ aufgrund des Bernoulli-Effektes einen Unterdruck herv.or, 、・セN@ dte sエQュャセー・ョ@ wieder verschließen und den Vorgang von vorne begmnen lasst. Durch diesen zyklischen Prozess werden periodische Schwingungen und damit Druckschwankungen der Schallwellen erzeugt, deren Frequenz und aューャゥセ、・@ durch die Form und Anspannung der verschiedenen Kehlkopfmuske ln varuert und beeinflusst werden. Auch das Ausmaß der Schwingung variiert von der Vollschwingun g des kompletten Muskelkörpers der Stimmlippen bis zur Randschwingun g der äußeren Randkanten. 5 D. Hall (1997), Musikalische Alwstik, S. 299. 135 Die Gesangsstimme - Sängerinnen und Sänger Harald Jers 2.3.2 Intonation sgenauigk eit und Vibrato セ@ f?.\! wNセ@ _LNセ@ セPZ@ Abb. 3: Schwingungsphasen der Stimmlippen beim Öffnen und Schließen' Im Folgenden sind typische Tonumfänge ein iger Stimmgrupp en mit den entsprechen den Frequenzen aufgelistet. Stimmgrupp e Bass Bariton Tenor Alt Mezzosopra n Sopran Typischer Tonumfang Töne Frequenzen F-b 88-238 Hz A-d 1 110-297 Hz d - fis 1 148-184 Hz as - c2 211- 528 Hz c' - f2 264- 704 Hz d' -a l 297 - 880 Hz Tabelle 1: Durchschnittliche Tonumfänge verschiedener Stimmgruppe n kann man generell doppelt so hohe Frequenzzah len im Bei fイセオ・ョウエゥュ@ feststellen, da sie eine Oktave höher klingen. Männern den zu yergle1ch ergibt sich bei der Gesangsstimme ein betrachtet en Stimmgrupp Uber alle Frequenzum fang der Grundtöne von ca. 100 Hz bei tiefen Männerstim men, bis ca. 1.000 Hz bei hohen Frauenstimmen. Bei der Sprache ist dieser Frequenzbereich wesentlich kleiner: ca. 140-400 Hz bei Frauen und ca. 70-200 Hz bei Männern. Da die menschliche Stimme keine feste Mechanik zur Erzeugung absoluter Töne besitzt und auf die Tonübernah me durch andere Instrumente oder Stimmen angewiesen ist, ist das Stimmsystem im Gesang nicht festgelegt, sondern einigermaße n frei. Nur im Falle von Absoluthöre rn (7 2.7] ist eine absolute Referenz aufgrund eines ausgeprägte n Langzeitgedächtnisses von Tonhöhen gegeben. Ansonsten intoniert der Sänger relativ zu anderen Referenztönen. Die zahlreichen Vorteile der flexiblen Tonhöhenge staltung können aber auch Probleme in Bezug auf die Konstanz der Tonhöhe hervorrufen. Zum einen ist diese Intonation stark kontextbezo gen: zum Beispiel beeinflussen der intervallische Melodieverl auf und die Funktion innerhalb einer Skala, die Harmonien und deren Fortschreitu ngen oder konsonante bzw. dissonante Akkordzusa tztöne von Begleitstimmen oder Instrumente n die Intonation des Sängers maßgeblich [7 2.2]. Des weiteren spielt die psychoakust ische Wahrnehmung der Tonhöhe eine große Rolle, da diese von der tatsächlichen Tonhöhe leicht differieren kann (7 2.5.2]. Es sei auch erwähnt, dass der kulturelle Hintergrund und das zugehörige Tonsystem zu unterschiedl ichen Tonvorstellungen und Intonationsm ustern führen können. Etwas genauere Aussagen können zu geringfügigen Veränderung en der Frequenz eines gehaltenen Tones getroffen werden, die sich auf westlichen klassischen Gesang beziehen und Vibrato genannt werden. Diese periodisch wiederkehre nde, geringfügige Veränderung der Frequenz eines gehaltenen Tones wird im Gesang oft als musikalisches Mittel eingesetzt. Dieses Vibrato ist auch bei Instrumenten möglich und üblich; dort stellt es oft eine Imitation des Sängervibra tos dar. Die Vibratofrequ enz, d.h. die Modulations frequenz des eigentlichen Tones, und die Vibratostärk e (Größe der Tonschwank ung) können von Sänger zu Sänger sehr unterschiedlich ausfallen und entstehen bei andere dieses sehr bewusst steumanchen Sängern eher unbewusst, キセャQヲ・ョ、@ ern und einsetzen können. Die durchschnitt liche Vibratofrequ enz liegt bei Sängern bei 5-7 Hz, wobei die Frequenz und Amplitude meist vom Anfang .eines gehaltenen Tones zum Ende hin deutlich zunimmt. Der dabei entstehende Bereich der Tonschwank ung liegt durchschnitt lich bei +/-40 bis +/-80 Cent (100 Cent entspricht einem Halbton)[7 2.2]. In Extremfällen kann dieser auch deutlich höher sein und mehrere Halbtöne, also mehrere hundert Cent, betragen. 6 W. Seidner I]. Wender (1997), Die Sängerstimme, S. 84. 136 137 Die Gesangsstimme - Sängerinnen und Sänger Harald Jers 2.3.3 Klangliche Charakterist ika formanten Diejenigen Frequenzbereiche, die eine deutliche Erhöhung der spektralen Hüllkurve aufweisen, werden Formanten genannt. Es gibt mehrere Formanten, die man von tiefen zu hohen Frequenzen durchnummeriert. Die beiden ersten Formanten, d.h. Bereiche mit hervorgehobenen Partialtönen im tieferen Frequenzbereich, sind für die Ausbildung und Hörwahrnehm ung der Vokale charakteristisch und heißen deshalb Vokalformanten. Für jeden Vokal sind Kombinationen der beiden Vokalformante n spezifisch und im folgenden Diagramm dargestellt: Abb. 4: Vokaltrakt im Querschnitt. Schematische Darstellung7 Der Klang der menschlichen Stimme wird nun maßgeblich durch die über dem Kehlkopf liegende Form des Vokaltraktes und dessen Veränderung geprägt. Der Vokaltrakt ist ein Klangraum und besteht aus Rachenhöhle und Mundöffnung. Seine Form kann durch unterschiedliche der 。ョウ」ィャゥ・ヲセ、@ Stellungen von Zunge, Zähnen, Lippen, Gaumensegel und Unterkiefer die N・ ョ@ .Eigenschaften dieses Systems verändern. Wird nun vom Kehlkopf 。 N ォオウエゥセ」ィ etn Pnmars1gnal erzeugt und gelangt dieses in den Vokaltrakt, breitet sich dort eine Welle aus, wird reflektiert und überlagert sich mit sich selbst. Nach einer sehr kurzen Zeit kommt es zum stationären Zustand einer stehenden 1.3.4], und es entsteht ein bestimmtes Schwingungsmuster, was als w・ャ{セ@ Einschwingen des Vokaltraktes angesehen werden kann. Dieser stationäre Zustand kann mit einer einhüllenden Funktion beschrieben werden, welche dem Primärschall überlagert wird und dadurch dessen Frequenzen verstärkt oder abschwächt. Somit bestimmt die Stellung von Zunge, Lippen, Gaumen und Unterkiefer den resultierenden Klang der Stimme, das Spektrum. Die oben genannten Vokalformanten lassen sich besonders gut an tiefen Tönen zeigen, was sowohl für die Sprache als auch für den Gesang gilt. Aber bereits für höhere Töne der Sopranstimme liegt die Grundfrequenz oberhalb der in Abbildung 5 gezeigten ersten Vokalformante n, was zu einer Verschlechterung der Vokal- und damit Sprachverständlichkeit führt. Beispielsweise sind oberhalb von f (ca. 700 Hz) die Vokale u, e und i schlecht verständlich. Dennoch können insbesondere Soprane die Verständlichkeit erhöhen, indem sie den ersten Formanten an den Grundton anpassen. Dieses erzielen die Sängerinnen, 7 ]. Sundberg (1997), Die Wissenschaft von der Singstimme, S. 16. 8 D. Hall (1997), Musikalische Akustik, S. 309. 138 500 200 1000 1500 Frequenz des ersten ForrnanUiereichs (Hz) Abb. 5: Vokalfonnanten bei Sprache und Gesang' Mundöffnung und Formantanpassung ! 139 Die Gesangsstimme - Sängerinnen und Sänger Harald Jers indem sie den Mund weiter öffnen und damit den Vokaltrakt verlängern. Diese Anpassung des ersten Formanten bezeichnet man als Formanttuning . Eine Erhöhung des ersten Formanten über das h2 hinaus ist aber durch Öffnen des Mundes nicht möglich. Deswegen werden die Vokale bei sehr hohen Tönen nicht mehr unterscheidbar, wei l nunmehr die Grundfrequenz immer oberhalb des ersten Formanten liegt und somit der Klangeindruck dieses Formanten verschwindet. gerformanten 、セウ@ Spektrum eines Orchesters im Allgemeinen schwächere Obertöne aufweist. 30 Relativer 20 Schall.pegel (dB) 10 1000 2000 3000 4000 Frequenz (Hz) Abb. 7: Frequenzabhängiger Schallpegelvergleich (a) Orchester allein, (b) Tenor'" i f'FuNDAMENTAL Konsonanten 1 freouncy セ@ Abb. 6: Mundöffnung bei Sopranen zur Formantanpassung' Sänger(ormant Neben den beiden ersten Vokalformante n gibt es auch noch 3-4 höher liegende Formanten, die durch Gesangsunterri cht und Training in der Sängerausbildung so überlagert und gebündelt werden können, dass diese eine deutliche Erhöhung im Bereich von 2.000 bis 4.000 Hz (je nach Stimmlage und Länge des Vokaltraktes) im Spektrum hervorrufen, den sogenannten Sängerformant. Diese Verstärkung des hohen Frequenzbereic hs wird bei Sängern im Gesangsunterri cht oft mit Stimmsitz oder Metallklang und der daraus resu ltierenden Tragfähigkeit bezeichnet. Sie gibt dem Sänger die Möglichkeit, über ein Orchester hinweg hörbar zu sein, da in diesem Frequenzbereic h des Sän- 9]. Sundberg (1977), The acoustics of the singing voice. 140 Im Gegensatz zu den Vokalen (und deren v・イ「ゥョ、オァウャ。セエI@ werden ウエゥセュᆳ lose Konsonanten ohne Beteiligung der Stimmlippen gebildet und hauptsachlich durch Reibung und Brechung von Luftströmen an den Artikulationswerkzeugen erzeugt. Sie besitzen deshalb ein unperiodisches, tonloses_sー・セᆳ trum, welches meist spektrale Komponenten im höheren Frequenzbereic h bis ca. 12.000 Hz aufweist. Bei stimmhaften Konsonantem und Klingern entstehen Mischformen von periodischen und unperiodischen Wellenformen, .b.zw. harmonischen オ⦅セ、@ unharmonischen Spektren, in denen sich die jeweiligen Komponenten uberlagern. In einer gesungenen Melodie treten somit ne?en 、・セ@ C?run_dtonverlauf und den zugehörigen Obertonveränd erungen auch m Abhang1gke1t vom Tex_t zahlreiche spektrale Veränderungen auf, die in einem Verlauf über der Zeit abgebildet werden können. 10 D. Hall (1997), Musikalische Akustik, S. 314. 141 Die Gesangsstimme - Sängerinnen und Sänger Harald Jers 2.3.4 Stimmfächer und Dynamik 2.3.6 Schallabstrahlung Der Dynamikbereic h bei Sängern wird durch die Summe der Schallpegel der einzelnen Teiltöne bestimmt. Hier ist ein deutlicher Anstieg von tiefen zu hohen Stimmfächern und Frequenzen zu erkennen. Die auf Schalll eistungspegel umgerechneten Werte der folgenden Grafik veranschauliche n eine Übersicht der verschiedenen Stimmfächer. Jede Schallquell e besitzt eine mehr oder weniger stark gerichtete Abstrahlung in Abhängigkeit von der Frequenz. Dieses Abstrahlverhalt en ist bei Sprechern oder Sängern im Alltag in Form von unterschiedlichen Klangfarben wahrzu nehmen, je nachdem aus welchen Richtungen man diese Personen hört. Diese so genannte Richtcharakteri stik besitzt für jede Frequenz eine unterschiedlich e Ausprägung und ist ausschließlich abhängig von der Geometrie und den akustischen Eigenschaften des menschlichen Körpers. Beugungs- und Reflexionsprozesse an Schultern, Kopf und Oberkörper beeinflussen aufgrund der unterschiedlichen Dimensionen auch verschiedene Frequenzen unterschiedl ich stark. Zum Beispiel werden von größeren Körperpartien wie Oberkörper und Schultern die langen Wellenlängen beeinflusst, d.h. tiefe Frequenzen, während beispielsweise Nase, Mund und Ohren nur die hohen Frequenzen beeinflussen. Da die Gesangsstimme sowohl tiefe Frequenzen, vorwiegend im Bereich der Grundtöne und tiefen Teiltöne, a ls auch hohe Frequenzen, hohe Teiltöne und Geräuschlaute von Konsonanten erzeugt, ist das Abstrahlverhal ten äußerst komplex. Somit besitzt jede von der Stimme produzierte Frequenz eines Tons oder Geräuschs auch eine eigene Richtcharakteri stik mit einer bestimmen Lautstärke. Bei einer Summe von vielen Teiltönen mit den entsprechenden Richtcharakteri stiken ergibt sich ein Gesamtabstrahl verhalten, welches für jeden Vokal oder Konsonanten unterschied lich ist. He lden- Bariton Baß tenor ä> セ@ セ@ セ@ dramat. sopran Alt ' KoloraturSopran 1 dB g' 100 iJl 60 c c c· c" c"' Tonskala Abb. 8: Dynamikumfang bei So losängern" 2.3.5 Sprachverständlichkeit Die Verständlichke it von Sprache ist ein wesentlicher Aspekt in der Vokalmusik. Und um Worte identifizieren zu können, müssten deren Voka le und Konsonanten verständ lich sein. Bei Konsonanten ist im Normalfall eine gute Verständlichkeit gegeben, was an der Breitbandigkeit der Laute liegt. Bei Vokalen kann dies insbesondere zu höheren Tönen hin schlechter werden. Gerade in hohen Extremlagen von Sopranen sind Vokale kaum mehr zu unterscheiden. Dies ist damit zu erklären, dass nur wenige Partialtöne an den Stellen im Frequenzbereich vorhanden sind, die eigentlich zur Ausbildung eines Vokalformanten notwendig wären. In diesem Zusammenhang sei auch erwähnt, dass sich die Verständlichke it von Voka len und damit auch die Sprachverständ lichkeit bei Sopranen durch ein Vibrato erhöhen kann. Befindet sich nämlich ein Partialton in der Nähe eines Formanten und überstreicht dessen Maximum aufgrund des Vibratos mehrfach, so wird der Verlauf des Formanten über einen breiteren Frequenzbereich deutl ich und lässt damit den Vokalformanten k larer wahrnehmen. Frequenzbereic h [Hz] Hauptabstrahlu ng 80-500 Nahezu kugelförmig 500-2.000 Hauptsächlich fronta l nach unten gerichtet; für höhere Frequenzen stärkere Abstrahlung nach oben rechts änd links; reduzierte Abstrahlung nach hinten, jedoch ein loka les Maximum genau auf der Rückseite aufgrund von konstruktiver Interferenz 2.000-5.000 Neben der Abstrahlung nach vorne oben gibt es einen großen Schallanteil rechts und links, stark nachlassend nach hinten Tabelle 2: Hauptabstrah lung bei Sängern 11 ]. Meyer (2004), Akustik und musikalische Aufführungspraxis, S. 103. 142 143 Die Gesangsstimme - Sängeri nnen und Sänger Harald Jers ____ ____ ____ Eine optische Darstell ung dieser dreidim ensiona len Abstrah lung wird m· und Seitenan sicht 。ョァセ@ in. aオヲセゥ」ィエ@ zwei Graf.iken der a「ウエイ。ィャ」ォセゥ@ requenz der jeweils _ Mittenf die en bezeichn n zangabe Frequen deutet. Die セ・@ mittelte n Werte innerh.alb eines Oktavba ndes. Die grauen Flächen zeigen bezeichHaup.tabstrahlungsgeb1ete der Gesangsstimme: dunkelg raue Flächen von nur 0 bis -3 dB, hellgraue Flächen von O bis -10 nen eme p・ァャ。「セィュ@ Bereiche besitzen höhere Pegelab nahmen , gehören dB ..uョァ・ォセコQ」ィエ@ damit also nicht zu den Hauptab strahlun gsrichtu ngen. 90' 120· 90" 60' 120· 60' 2.3. 7 Akustik im Chor einer Im Gegensa tz zu Solosängern singen in einem Chor mehrere Sänger in Stimmg ruppe den gleichen Notente xt. Da die Sänger aber nicht genau gleich resingen, sondern leichte Differenzen in verschiedenen Aspekte n entstehe n, eindie dem sultiert daraus ein sogenan nter Chor- oder Ensemble-Effekt, bei Oft zelnen Stimme n der Stimmg ruppe nicht mehr identifiziert werden können . und rke Lautstä n größere ist dies auch verbund en mit der Wahrne hmung einer verwird als »dichterer Klang « bezeichnet. Ursache für diesen Effekt, der innerhungen Abweic le minima gleichba r im Streichorchester entsteht , sind m halb der Stimmg ruppe in Bezug auf Tonhöh e, zeitliche Präzision, Spektru die schon ren erschwe hungen Abweic oder Vibrato . Allein diese individuellen es genaue Festlegung des Verhalt ens einer ganzen Stimmg ruppe. Somit ist einer kt szeitpun Anfang einem oder rbe schwierig, von einer Tonhöh e, Klangfa Stimmg ruppe zu sprechen. Der arithme tische Mittelw ert der einzelnen Aspek. te gibt nur bedingt wieder, was beim Zuhöre r als Gesamt eindruc k entsteht hrt, aufgefü en Tendenz e generell einige dennoch aber Im Folgend en werden die einige der chorischen Effekte näher charakterisieren: o• Intonat ion im Chor ·150' -30' •a -3.„-6d8 -60' -90' D -6 ... -10 dB Abb. 9: Hauptab strahlung sbereich e von Sängern (Mittelung in Oktavbä ndern) Be.i Solosän gern kann dies insbeso ndere für die Position auf der Bühne oder 1m Konzertsaal deutliche Konsequenzen haben. In einer näheren Umgerenbung von ca. 5-10 Metern Abstand zum Sänger können deshalb reflektie ergie Schallen der erung Fokussi eine ächen Bodenfl Decke.?- oder de w。ョ、セNG@ bezum Zuh?re r erhoben . Ebenso können absorbie rende Materia lien in den führen, ergie Schallen der e Abnahm en deutlich e.iner zu sagten rQ」ィエオョセ⦅・@ n w?durc h der Sanger leiser und klangär mer im Publiku m wahrge nomme wird. Acappella Chormu sik kann nicht durchge hend auf einen einzigen globalen Referen zpunkt bezogen sein. Es ist vielmehr davon auszuge hen, dass lokale muReferen zpunkte durch eine Kombin ation von vertikal en und horizon talen chhauptsä werden n Faktore e Vertikal werden. geformt n sikalischen Faktore befinden anzemp Konson che sensoris das und eihe Teiltonr die lich durch Anziestimmt, währen d horizon tale Faktore n durch tonale Spannu ngs- und hungsze ntren einzelner Töne beeinflusst werden, z.B. aufgrun d eines bestimm zReferen lokalen ten Tonverl aufs. Die Gewich tung u9d Bedeutung dieser punkte mag sich von Stück zu Stück oder auch innerha lb eines Stückes deuteilich unterscheiden. Daraus ergibt sich, dass zu verschiedenen Zeitpun kten benutzt me onssyste nes Chorwe rkes vermutl ich sehr verschiedene lntonati werden, was zahlreiche Forschu ngsunte rsuchun gen belegen. " recording, S. 4-5; 12 H. Jers / S. Ternströrn (2005), Intonation analysis of a multi-channel choir quartet si11gi11g bass tenor, alto, soprano, capella a in drift n Intonatio (2007), D.M. Howard of musiinf/uence the of study empirical An ), (2011 Devaney iuith key modulation, S. 309; J. cal context on intonation practices in solo singers and SATB ensembles. 144 145 Harald Jers Die Abweichungen der Tonhöhen innerhalb einer Stimmgruppe können zu verschiedenen Zeitpunkten während eines Tones unterschiedlich sein. Beispielsweise sind Tonanfänge und Tonübergänge mit deutlich größeren Ungenauigkeiten behaftet als liegende Töne. Ebenfalls spielen die Geschwindigkeit und der Textgebrauch eine große Rolle. Die Größenordnung für die Abweichungen der Tonhöhe eines liegenden Tones, welcher von Chorleitern als einheitlich und homogen beurteilt wird, beträgt ca. 10-15 Cent innerhalb einer Stimmgruppe. In diesen Wert wurde noch nicht das Vibrato einbezogen, welches diesen Wert deutlich erhöhen würde, insbesondere wenn zu unterschiedlichen Zeiten sehr hohe Vibratoamplituden vorliegen. Sowohl die Vibratofrequenz als auch die -amplituden sind jedoch stark abhängig von der Herkunft des Chores und dessen ästhetischem Hintergrund sowie dessen Traditionen. Oftmals liegen diese Werte aber unter dene1,1 von Solosängern, da der Vibratogebrauch im Chorgesang in vielen Fällen stark eingeschränkt wird. Auch die Klangfarbe unterscheidet sich bei Sängern im Chor von derjenigen bei einem solistischen Einsatz. Hier nimmt der Anteil der höherfrequenten Obertöne in der Chorsituation gegenüber der solistischen Vortragsweise meist deutlich ab. Insbesondere der Bereich des sogenannten Sängerformanten ist oft stark davon betroffen. Diese Abschwächung hat eine Reduzierung der sängerspezifischen Stimmcharakteristik zur Folge und somit im Chorgesang meist eine höhere Homogenität des Ensembles zum Ziel. Auch die zeitliche Präzision ist von verschiedenen Parametern wie Tempo, Tonübergängen oder Text abhängig. In statistischen Untersuchungen konnte als Anhaltspunkt eine durchschnittliche Zeitdifferenz von ca. 200 ms zwischen dem frühesten und dem spätesten erklingenden Ton festgestellt werden. Die Gesangsstimme - Sängerinnen und Sänger frequenzabhängig und bestimmt damit die Energieverteilung im Raum. Grob gesehen unterscheidet man das Nahfeld um die Sänger herum von dem Fernfeld in größerem Abstand, je nachdem wie hoch der Direktschallanteil des Sängers ist, d.h. der Anteil, der auf direktem Weg zum Mitsänger bzw. zum Publikum gelangt." In einem Raum mit viel Nachhall und häufigen Reflexionen an den Wandbegrenzungen ist das Nahfeld um jeden Sänger herum recht klein, d.h. die Sänger befinden sich schon bei kleinen Abständen von ihren Mitsängern im Fernfeld. Dies bedeutet, dass die Sänger unabhängig von ihrer Position auf der Bühne einen ähnlichen Höreindruck vom Gesamtchor haben werden und die Aufstellung weniger Einfluss auf die Hörbarkeit haben wird. Ebenso wird sich im Publikum die Formation nur unmaßgeblich ändern. Jeder Chor hat sicherlich diesen Eindruck schon einmal gehabt, dass es in einer »halligen« Kirche sehr schwierig ist, andere Sänger aufgrund des Gesangs zu lokalisieren. In einem »trockenen« Raum mit wenig Nachhall ist das Nahfeld deutlich größer und die Aufstellung und Formation in einem Chor bzw. auch die Abstände der Sänger untereinander können einen Einfluss auf die Hörbarkeit der Chorsänger haben. Diese bessere Hörbarkeit der Chorsänger untereinander hat damit auch ein besseres Gesamtergebnis für den Zuhörer zur Folge. Chor und Raum Ein weiterer wichtiger Aspekt ist der Zusammenhang von Raum und Chor. Hier ist insbesondere die Hörbarkeit der Sänger innerhalb eines Chores auf der Bühne von der Klangwahrnehmung der Zuhörer im Publikumsbereich zu unterscheiden, die beide von der Raumakustik abhängen [7 2.4]. Diese wird wesentlich durch die geometrischen und akustischen Eigenschaften des akustischen Systems von Wänden, Decke, Boden oder größeren Gegenständen eines Proben- oder Konzertraumes bestimmt. Die oben beschriebene Richtcharakteristik von Sängern und die unterschiedliche Position der Chorsänger auf einer Bühne haben somit einen wichtigen Einfluss sowohl auf die Hörbarkeit der Mitsänger als auch den Gesamtklang beim Zuhörer im Publikum. Jeder Sänger ist eine Schallquelle, deren Schall in dem akustischen System reflektiert oder auch an Gegenständen gebeugt werden kann. Dieses Verhalten ist stark 146 13 S. Ternström / H. Jers /]. Nix (2012), Group and ensemble vocal music, S. 580- 593. 147 2.4 Der Raum Von Stefan Weinzierl Der Aufführungsraum bildet nicht nur einen visuellen und akustischen Rahmen zur gespielten Musik. Seine akustischen Eigenschaften wirken sich auch auf die Wahrnehmung der Aufführung und der musikalischen Inhalte selbst aus. Einige dieser Wirkungen sind der Alltagserfahrung unmittelbar zugänglich. So wirken Konzerträume zum einen als Klangverstärker. Eine Solovioline, die im Freien, etwa bei Open Air Konzerten, ohne elektroakustische Verstärkung in 30 m Entfernung kaum noch wahrnehmbar wäre, ist in der Berliner Philharmonie auch auf den hintersten Plätzen, die etwa 30 m von der Bühne entfernt sind, noch klar und deutlich hörbar. Der Raum mildert auch die Richtwirkung von musikalischen Schallquellen. So ist ein Sänger, der im Freien nur aus frontaler Perspektive gut zu verstehen wäre, im Konzertsaal auch von der Seite oder von hinten noch wahrnehmbar, da der fehlende Direktschall in dieser Richtung von den Schallreflexionen an Wänden, Boden und Decke kompensiert wird und auch Hörerplätze seitlich oder sogar hinter der Bühne ausreichend mit Schall versorgt werden. Weiterhin verleiht die Raumakustik dem Klang eine gewisse Tragfähigkeit und Größe, indem jedes Klangereignis mit einem Nachhall versehen wird, der unmittelbar in die musikalische Struktur hineinwirkt, etwa wenn nacheinander gespielte Töne beim Hörer klanglich ineinandergreifen. Und schließlich beeinflusst die Raumakustik auch die Klangfarbe von Musik, indem bestimmte Frequenzbereiche betont werden und insbesondere der Verlust hochfrequenter Klanganteile im Raum den Klang weicher und runder erscheinen lässt. Musiker müssen diesen Effekt vorwegnehmen, indem sie dem Klang (etwa einer Violine) eine gewisse Schärfe verleihen, die erst in ausreichender Entfernung zu einer ausgewogenen aber noch ausreichend durchsetzungsstarken Wirkung führt. Die Akustik des Aufführungsraums wirkt sich somit auf die räumliche, zeitliche, dynamische und klangfarbliche Dimension von Musik aus. Dies gilt sowohl für die Perspektive des Publikums als auch für die der ausführenden Musiker. Auch letztere reagieren bei ihrer Aufführung auf das akustische Feedback aus dem Raum. Insofern steht der Akustiker bei der Planung von Konzerträumen vor der doppelten Aufgabe, sowohl für das Publikum eine attraktive wie für die musikalischen Akteure eine inspirierende und dem Zusammenspiel förderliche Umgebung zu schaffen. 2.4.1 Schallausbreitung im Raum: Modelle, Einflussgrößen und Messverfahren Um zu verstehen, wie sich ein räumliches Schallfeld ausbildet und von den Eigenschaften des Raums beeinflusst wird'. benötigt man ein physikali_sches Modell für die zeitliche und örtliche Verteilung des Schallfelds. Da eme exakte Lösung der Wellengleichung aufgrund der geometrischen kッューャセクゥエ¦@ realer Räume und aufgrund der fehlenden Kenntnis der dafür erforderlIChen Materialeigenschaften nicht möglich ist, greift man in der Praxis auf Modellvorstellungen zurück, die bestimmte Vereinfachungen gegenüber der akustischen Realität aufweisen und dennoch wesentliche Eigenschaften des Schallfelds erklären. Ein solches Modell bietet die sogenannte geometrische Akustik, in der die Ausbreitung einer Schallwelle zwischen Sender und Empfänger durch Schallstrahlen dargestellt wird, die eine Schallwelle mit definierter Ausbreitungsrichtung repräsentieren. Treffen diese Schallstrahlen auf eine Wandfläche, werden sie, wie Lichtstrahlen an einem Spiegel, nach dem Gesetz Einfallswinkel = Ausfallswinkel reflektiert (Abb. 1 ). Direktschall 1 Frühe Reflexionen Nachhall 100ms Zeit Abb. 1: Spiegelnd reflektierte Schallstrahlen als Modell der Schallausbreitung in Rä umen (links). Das resultierende Reflektogramm gibt die zeitliche Abfolge und die Energie der am Hörerort eintreffenden Schallstrahlen an (rechts). Die Energie dieser Schallstrahlen, die anfangs durch die Schallleistung der Quelle gegeben ist, sinkt mit der Entfernung vom Ausgangspunkt der s」ィ。セᆳ lausbreitung. Außerdem wird bei jeder Schallreflexion ein bestimmter Anteil der Schallenergie durch das Wandmaterial absorbiert. Für die Abstandsverluste gilt, dass - außer im Nahbereich sehr ausgedehnter Schallquellen - der Schalldruck p umgekehrt proportional zur Entfernung r von der Quelle abnimmt, d.h. p - 148 1 (1.1) r 149 Der Raum Stefan Weinzierl Dies entspricht einer Abnahme des Schalldruckpegels um 6 dB pro Entfernungsverdopplung [7 1.3 .2]. Die Absorptionsverluste können durch den materialabhängigen Absorptionsgrad a beschrieben werden, der das Verhältnis von absorbierter zu einfallender Schallenergie bezeichnet. Er wird üblicherweise tabellarisch angegeben, als Maß für die frequenzabhängigen Absorptionseigenschaften von Wandflächen, von Absorptionsmaterialen zur Dämpfung des Nachhalls oder auch für Bestuhlungsflächen mit und ohne Publikum (Tabelle 1). Frequenz [Hz] Beschreibung 125 250 500 1.000 2.000 4.000 Holzparkett auf Beton Dünner Teppich auf Beton 0.04 0.04 0.07 0.06 0.02 0.04 0.08 0.20 0.18 0.06 0.04 0.03 Glas Mittlere Absorption von Konzertsälen (ohneBestuhlung/Publikum) 0.14 0.12 0.10 0.09 Publikum auf Bestuhlung mäßig gepolsterter 0.68 0.75 0.82 0.85 0.06 0.35 0.02 0.07 0.40 0.02 0.08 0.07 0.86 0.86 Tabelle 1: Absorptionsgrade von verschiedenen Materialien und für Konzerträume typischen Begrenzungsflächen, angegeben als Mittelwert über oktavbreite Frequenzbänder.' Mit der Kenntnis der Raumgeometrie, d.h. der Größe und Orientierung aller Raumbegrenzungsflächen (in der Raumakustik als Primärstruktur bezeichnet) lässt sich durch dieses Modell die zeitliche Struktur eines am Hörerplatz auftretenden Schallfelds voraussagen; mit Berücksichtigung der Dämpfung aufgrund von Entfernung und Absorption lässt sich außerdem die Stärke jeder einzelnen Schallreflexion innerhalb dieses Reflexionsmusters berechnen. Dies sind auch die Grundkomponenten aller Programme zur Computersimulation raumakustischer Umgebungen, wie sie heute zur Planung neuer Konzertsäle eingesetzt werden. Der aufwändigste Teil dieser Berechnung ist dabei die Identifizierung der für eine bestimmte räumliche Anordnung von Schallquelle und Hörer im Raum relevanten Schallstrahlen. Ergebnis einer solchen Modellbetrachtung ist das Reflektogramm eines Raums, das für eine bestimmte Position von Schallquelle und Hörerort die zeitliche Abfolge und die Energie der beim Hörer eintreffenden Schallstrahlen angibt. Einige Qualitäten von musikalischen Aufführungsräumen, auch problematische Eigenschaften, lassen sich aus diesem Reflektogramm unmittelbar herauslesen. Man unterscheidet hierbei einen Bereich früher Reflexionen, die eine Art akustische Signatur bilden, welcher der Hörer Informationen über Größe und Geometrie des Raums entnehmen kann. In Abhängigkeit vom Raumvolumen ist allerdings bereits 50-100 ms nach Eintreffen des Direktschalls eine so hohe Reflexionsdichte erreicht, dass der Hörer keine Einzelreflexionen mehr identifizieren kann,' sondern nur noch eine Hüllkurve für die Abnahme der Schallenergie wahrnimmt, deren Steigung durch die sog. Nachhallzeit charakterisiert wird; sie bezeichnet den Zeitraum innerhalb des akustischen Ausklingvorgangs, in dem der Schalldruck um 60 dB abnimmt. Aus den Modellannahmen der geometrischen Akustik lässt sich ableiten, wie die Nachhallzeit T mit dem Volumen V und dem Absorptionsvermögen des Raums, gegeben durch Größe Si und Absorptionsgrad O' i seiner Oberflächen, zusammenhängt. Näherungsweise gilt V i Diese bereits um 1900 von dem amerikanischen Physiker Wallace Clement Sabine (1868- 1919) empirisch gefundene Formel markiert im historischen Rückblick den Beginn einer systematischen und wissenschaftlich fundierten raumakustischen Planung.3 Frühe Reflexionen fusionieren ー セ イコ・ーエゥカ@ mit dem Direktschall und erhöhen die Deutlichkeit und Durchsetzungskraft von Klangereignissen, während späte Reflexionen die Deutlichkeit verringern und als Teil eines diffusen, räumlichen Klanganteils wahrgenommen werden. Die Grenze zwischen diesen Anteilen hängt von der Impulshaftigkeit des dargebotenen Klangmaterials ab; sie 2 1 L.L. Beranek (2003), Concert halls and opera houses: Music, acoustics, and architecture. 150 (1 .2) 3 A. Lindau/ S. Weinzierl (2012) , Perceptual evaluation of model- and signal-based predictors of the mixing time. W .C. Sabine (1922), Collected papers on acoustics. 151 Stefan Weinzierl wird für Sprache bei 50 ms, für Musik bei 80 ms angesetzt, jeweils vom Eintreffen des Direktschalls an gerechnet. Bei der messtechnischen Untersuch ung von Räumen wird eine sogenannte Impulsantwort erzeugt, die sich unmittelbar in eine dem Reflektogramm (Abb. 1) entsprechende, energetische Darstell ung überführen lässt. Hierfür kann der Raum von der Bühne aus mit einem Knall aus einer Schreckschusspistole oder einem p latzenden Luftballon angeregt werden, das resultierende Schallfeld wird am Hörerplatz mit einem Messmikrofon aufgenommen. Signa ltechnisch überlegene und besser reproduzierbare Ergebnisse erhä lt man, indem man speziell optimierte Anregungssignale (Sinus-Sweeps, stationäres Rauschen) über einen omnidirektional abstrah lenden Lautsprecher abspielt und durch digita le Signalverarbeitung in eine Impulsantwort umwandelt.' Aus dieser Impu lsantwort lassen sich fast a lle derzeit verwendeten raumakustischen Parameter berechnen. Zusätzlich lässt sich durch Faltung eines nachha ll freien Quellsignals, z.B. im reflexionsarmen Raum aufgenommener Sprache oder Musik, mit den gemessenen Raumimpulsantworten der Übertragungsweg im Raum simulieren und über Lautsprecher oder Kopfhörer hörbar machen. Dieser rechenaufwändige Signalprozess wird in der Tonstudiotechnik als Nachhallgenerator eingesetzt, mit dem man Musikproduktionen etwa mit dem Nachha ll des Wiener Musikvereinssaa ls »veredeln« kann. In der raumakustischen Planung lässt sich auf diese Weise in einen zunächst nur im Computermodell existierenden Konzertsaal auf Grundlage des im Modell erzeugten Reflektogramms (Abb. 1) »hineinhören« (Auralisation).' Bei einem Vergleich von im Computermodell erzeugten und im rea len Saal gemessenen Impu lsantworten treten allerdings auch die Defizite zutage, welche mit dem vereinfachten Modell der strahlenförmigen Schallausbreitung verbunden sind. So lässt sich - jedenfalls mit den derzeit verfügbaren Algorithmen - weder die Schallstreuung an strukturierten Wandoberflächen noch die Beugung der Schallwelle um Objekte im Ausbreitungsweg präzise modellieren. Beide Effekte sind durch die Wellennatur des Schalls bedingt. Für eine Berechnung von raumakustischen Parametern, die nur auf den zeitlichen Verlauf der Schallenergie oder die Energieverhältnisse in definierten Zeitabschnitten Bezug nehmen, sind diese Ungenauigkeiten allerdings hinnehmbar. Die raumakustische Computersimulation ist daher heute ein wertvolles Werkzeug für die Planung von Räumen ebenso wie für die Konfiguration von Beschallungsanlagen in diesen Räumen. 4 S. Müller (2008), Messtechnik. 5 M. Vorländer (2008), Auralizatio11. 152 0 · 10 ·20 cli "O ·"' Qi .30 Ol Cl) n. 0 100 200 300 400 500 600 700 800 900 1000 1100 Zeit in ms Abb. 2: Messaufbau zur Bestimmung von Raumimpulsantworten mit einem omnidirektionalen Lautsprecher auf der Bühne und einem Messmikrofon im Zuscha.uerraum (Teatro Scientifico, Mantua, oben). Im Reflektogramm am Hörerort (quadnerte Impulsantwort, unten) lässt sich die Abnahme des Schalldrucks durch eine Gerade approximieren und daraus die Nachhallzeit (für einen Abfall um 60 dB) ab lesen. 153 Stefan Weinzierl - - - - - - - - - - - - - - - - - - - - - - - - 2.4.2 Musikalische Raumwirkung und Messgrößen Seit den 1970er Jahren wurde in einer Reihe von Studien die Wirkung raumakustischer Umgebungen auf den Klangeindruck musikalischer Aufführungen systematisch untersucht. Hierbei wurden zum Teil Kunstkopfaufnahmen von Aufführungen der gleichen Werke in verschiedenen Konzertsälen von Versuchspersonen bewertet,r. zum Teil wurden synthetisch erzeugte Schallfelder im Hinblick auf bestimmte Eigenschaften variiert,1 und schließlich wurden Konzertpublika im Anschluss an Aufführungen in verschiedenen Räumen befragt .' Ermittelt wurden dadurch zum einen perzeptive Dimensionen der Raumwirkung, zum anderen physikalische Prädiktoren, d.h. Messgrößen, die gut mit diesen Wahrnehmungs-Qualitäten korrelieren und eine Vorhersage des subjektiven Klangeindrucks ermöglichen. Fünf Aspekte haben sich dabei als maßgeblich erwiesen. Dies ist zum einen die Stärke und Intensität des Klangerlebnisses und, damit einhergehend, ein Gefühl von Intimität und Nähe zur Quelle des Klanggeschehens. Ein guter messtechnischer Prädiktor hierfür ist das sog. Stärkemaß G. Es setzt die Schallintensität an einem Hörerplatz, gemessen als Integral über die gesamte Länge der Impulsantwort, in Bezug zur Intensität, welche die gleiche Schallquelle in nachhallfreier Umgebung in 10 m Entfernung produziert. Das Stärkemaß gibt also an, um wieviel dB eine Schallquelle durch die Summe aller Schallreflexionen am Hörerplatz verstärkt wird. Ein zweiter Aspekt ist die Halligkeit des Raums, d.h. die Dauer, nach der Schallereignisse im Raum verklingen. Sie lässt sich gut durch die Nachhallzeit T vorhersagen. Da der Schalldruckpegel linear über die Zeit abfällt und eine Abnahme über 60 dB bei Anwesenheit von Störgeräuschen schwer zu bestimmen ist, wird in der Praxis die Steigung des geglätteten Schalldruckpegels in der Impulsantwort bestimmt und auf eine Abnahme um 60 dB umgerechnet (Abb. 2). Mit der Halligkeit eng verbunden ist auch die Klarheit und Deutlichkeit im Sinne der Unterscheidbarkeit aufeinanderfolgender Klangereignisse. Hierfür wird häufig das sog. Klarheitsmaß C8 0 bestimmt, welches den Anteil der innerhalb der ersten 80 ms nach dem Direktschall eintreffen- 6 P. Lehmann/ H . Wilkens (1980), Zusammenhang subjektiver Beurteilungen von. Konzertsälen mit raumakustischen Kriterien. 7 M. Barron / A.H. Marshall (1981), Spatial impression due to early lateral reflectio11s in concert halls. 8 A.G. Sotiropoulou / R.J. Hawkes / D.B. Fleming (1995), Concert hall acoustic evaluations by ordi11a1y concert-goers. 154 -- Der Raum den Energie zur Gesamtenergie im Nachhall bestimmt. Die Werte sind jedoch jeweils eng mit der n。N」ィセャコ・ゥエ@ des Raums korreliert. . . . Ein dritter Aspekt ist die Klangfarbe des Raumklangs. Hier wird meist das Verhältnis der Nachhallzeiten bei tiefen Frequenzen (Oktavbänder bei 125 Hz 250 Hz) zu den Nachhallzeiten bei mittleren Frequenzen (Oktavbänder bei' 500 Hz, 1.000 Hz) bestimmt und als Bassverhältnis BR (>bass ratio<) bezeichnet. Eine längere Nachhallzeit transportiert mehr Schallenergie zum Hörerplatz, mit dem frequenzabhängigen Verlauf der Nachhallzeit ändert sich somit auch die klangfarbliche Balance im diffusen Schallfeld. Ein vierter Aspekt wird als Räumlichkeit beschrieben und besteht seinerseits aus zwei Dimensionen. Er beschreibt zum einen den Eindruck, dass Musikinstrumente auf der Bühne durch die Summe vor allem seitlicher, früher Schallreflexionen eine gewisse Größe und Ausdehnung erfahren und als Schallquellen weniger punktförmig erscheinen (>Apparent Source Width<). Zum anderen beschreibt er das Gefühl des Hörers, vom Schallfeld des Raums allseitig umhüllt zu sein (>Listener Envelopment<). Während zur Vorhersage der ersteren, auf die Schallquelle bezogenen Wahrnehmungsqualität, der Anteil seitlicher Schallreflexionen an der gesamten Schallenergie innerhalb der ersten 80 ms nach Eintreffen des Direktschalls verwendet wird (>Early Lateral Energy Fraction<, J LF), wird als Vorhersage für den Grad der Umhüllung die Energie der später als 80 ms nach dem Direktschall eintreffenden, seitlichen Schallanteile LJ gemessen. Gerade für den Aspekt der »Räumlichkeit« gibt es jedoch eine Reihe von Messgrößen, deren Zusammenhang mit dem Klangeindruck - im Vergleich mit den Parametern für Stärke, Nachhall und Klangfarbe - statistisch nur mittelmäßig gut belegt ist. Hier besteht auch in der Raumakustik noch Forschungsbedarf. Abb. 3 zeigt die Ergebnisse einer raumakustischen Messung im Teatro Scientifico in Mantua (Abb. 2). Nach DIN EN ISO 3382 werden Raumimpulsantworten für verschiedene Posifionen von Schallquelle auf der Bühne und Empfänger im Zuschauerraum gemessen. Hierbei zeigt sich zunächst die auch für jeden erfahrenen Konzertbesucher plausible Tatsache, dass die akustischen Verhältnisse von Hörerplatz zu Hörerplatz erheblich variieren können. Die Parameter können schließlich entweder in Terz- oder Oktavbändern gemittelt und frequenzabhängig angegeben werden, oder über einen beschränkten Frequenzbereich gemittelt und als Einzahlwert angeführt werden. 155 - Stefan Weinzierl 1.6 .s"' セ@ 1.4 12 (ij L: .c セ@ z 1 0.8 0.6 125 250 500 1000 2000 Frequenz in Hz 4000 8000 Parameter Gm RTm BR Csom Werte 12 dB 1,5 s 1,1 -3.0 dB Abb. 3: In Oktavbändern gemessene, frequenzabhängige Nachhallzeit (oben) und Werte für vier raumakustische Parameter (unten). Gm, RTm und C80 m sind als Mittelwerte für die Oktavbänder bei 500 Hz und 1 kHz berechnet. Der Raum Akustikers an einer ausreichenden Klangfülle häufig mit dem ökonomischen Interesse des Bauherrn und Betreibers an einer hohen セャ。エコォーゥ¦N@ Bei jüngeren Bauten ist das Raumvolumen manchma.l durch eme A?kopplung zusätzlicher Raumvolumina über verschließbare oヲセオョァ・@ vanab.el gestaltet. So kann es im Konzerthaus in Luzern durch das Offnen zusätzlteher Nachhallkammern von 18.000 auf 24.300 m 3 vergrößert werden. Dadurch erreicht man für Kammermusik ein höheres Stärkemaß und für großbesetzte Orchesterwerke eine etwas längere Nachhallzeit. In einem zweiten Schritt geht es um die Einstellung einer günstigen Nachhallzeit. Hierbei wird für Sprache eine kürzere Nachhallzeit angestrebt als für Musik. Darüber hinaus hängt der angestrebte Wert auch vom Raumvolumen ab, da größere Räume bei gleicher Nachhallzeit als trockener empfunden werden. Einen Anhaltspunkt für Werte, die sich in Hörversuchen als günstig erwiesen haben, bietet DIN 18041, welche Empfehlungen für eine Vielzahl von Nutzungsarten von Klassenzimmern über Konferenzräume bis hin zu Proberäumen und Chorsälen gibt. Die in Abb. 4 ablesbaren Werte werden auch für Theater, Opernhäuser oder Konzertsäle heute als sinnvoll erachtet; so liegen die Nachhallzeiten für symphonische Konzertsäle meist zwischen 1,8 und 2,2 s, für Opernhäuser um 1,5 s und für Sprechtheater um 1,0 s. 2.2 Musik 18 1.6 2.4.3 Raumakustische Planung und Qualitätsparameter Bei der akustischen Planung von Konzertsälen geht es zunächst um das zulässige Raumvolumen. Da sich die von einer Schallquelle erzeugte Schallleistung im Verlauf der Schallausbreitung über das vorhandene Raumvolumen verteilt, nimmt mit zunehmendem Volumen die mittlere Schallintensität am Hörerplatz ab, entsprechend sinkt das Stärkemaß im Raum. So zeichnen sich die akustisch hochgelobten Konzertsäle des späten 19. Jahrhunderts (Wiener Musikvereinssaal, V= 15.000 m-', Concertgebouw Amsterdam, V= 18.780 m3, Tonhallesaal Zürich, V= 11.400 mJ) durch hohe Stärkemaße von 5-8 dB aus, während in manchen jüngeren Sälen (Philharmonie am Gasteig, V= 29.700 m3 ) mit Stärkemaßen von etwa 2 dB eine ausreichende Klangfülle nur schwer zu erreichen ist. Bedenkt man, dass eine Verdopplung des Raumvolumens zu einem Absinken des Stärkemaßes im diffusen Schallfeld um 6 dB und eine Verdopplung der Orchesterstärke nur zu einem Anstieg des Schalldruckpegels um 3 dB führt, so ist leicht zu erkennen, dass dieser Verlust auch durch die Besetzung kaum auszugleichen ist. In diesem Punkt kollidiert das Interesse des 156 "'c セ@ 1- セ@ セ@ -5 z"' Sprache 1.4 Unterricht 1.2 0.8 0.6 0.4 0.2 100 1000 10000 100000 Raumvolumen in m3 Abb. 4: Sollwert der Nachhallzeit in Abhängigkeit vom Raumvolumen für unterschiedliche Nutzungsarten (Musik, Sprache, Unterrichtsräume) nach DIN 18041. Geht man davon aus, dass die Absorption im besetzten Raum näherungsweise proportional zur Anzahl der Zuschauer ist, so ergibt sich unmittelbar aus der Sabine-Formel (1.2), dass eine bestimmte, als günstig erachtete Nachhallzeit durch Einhaltung einer sogen'a nnten Volumenkennzahl N in m' pro 157 Stefan Weinzierl - - - - - - · - - - - - - - - - - -- - - - - - - - - Der Raum Publikumsplatz erreicht werden kann. Daraus resultieren für Musiktheater Werte von N = 5-8; für Konzertsäle sind Werte von 7-12 m3/Platz angesetzt. Im Hinblick auf den frequenzabhängigen Verlauf der Nachhallzeit (Abb. 3 oben) wird für Sprache eine Abnahme zu tiefen Frequenzen im Sinne einer ho hen Sprachverständ lichkeit a ls günstig angesehen, während für musikali sche Aufführungsräume meist ein linearer Verlauf oder ein leichter Anstieg zu tiefen Frequenzen bevorzugt wird. Der Nachhall zeit-Frequenzgang lässt sich auch in bereits existierenden Räumen durch das Einbringen von Absorptionsmaterialien verändern, wie sie von za hlreichen Herstellern angeboten werden, etwa um tiefe Frequenzen im Hinblick a uf eine bessere Sprachverständlichkeit zu unterdrücken oder um insgesamt einen ausgeg lichenen Verlauf herzustellen. Beim Neuba u von musikalischen Aufführungsräumen haben sich zwei architektonische Raumtypen etabli ert: Ein als »Schuhschachtel« bezeichneter Rechteckraum mit der Bühne an der Stirnseite in Längsrichtung und einer umlaufenden Z uschau erga lerie. Als Vorbild gilt der erste, 1781 eingewei hte Konzertsaa l im Leipziger Gewand haus, an dem sich in ihren Proportionen viele Konzertsä le des 19. Jahrhunderts orientierten, auch wenn das Volumen von 1.800 m 3 a llmä hlich auf die heute üblichen Werte von 20.000 bis 25.000 m3 erhöht wurde.' Ein zweiter Typus wurde mit der 1963 eröffneten Berliner Philharmonie etabliert, mit einer als »Weinberg « bezeichneten, terrassenförmigen, nach hinten ansteigenden Anlage des Auditoriums um eine ein stückweit ins Zentrum gesetzte Bühne. Abb. Sa und b: Zwei Prototypen für die Architektur von Konzertsälen: Die »Schuhschachtel « (Wiener Musikvereinssaal, eröffnet 1870, oben) und der »Weinberg« (Phi lharmonie Berlin, eröffnet 1963, unten)' 0 • 9 S. Weinzierl et al. (2010), Die Akustik der Konzertsäle im Leipziger Gewandhaus. 158 10 Fotografie: Gese llschaft der Musikfreunde in Wien (oben), Stiftung Berliner Philharmoniker I Lauterbac h (unten) 159 Stefan Weinzierl Während die Klangfülle (Stärkemaß) und der Nachhall besonders von Raumvolumen und Materialbeschaffenheit abhängen, unterscheiden sich die beiden Raumtypen vor allem in der Struktur der für eine gute Hörsamkeit wichtigen, frühen Schallreflexionen. Bei Räumen vom Schuhschachtel-Typus garantieren die großen parallelen Seitenwände sowie die umlaufende Galerie meist bereits eine ausreichende Versorgung mit frühen Reflexionen. Dagegen werden bei Räumen vom Weinberg-Typus, die sich durch eine gute Direktschallversorgung und geringere Entfernung zwischen Z uschauerra um und Bühne auszeichnen, häufig sog. Schallsegel über der Bühne benötigt (Abb. 5 unten), um sowohl für die vorderen Reihen im Parkett wie für die Musiker auf der Bühne die Deutlichkeit und Lautstärke zu erhöhen, als auch die Kommunikation innerhalb des Orchesters zu erleichtern. 2.5 Der Zuhörer Von Christoph Reuter Der von den Musikinstrumenten [-7 2.1] innerhalb einer Konzertsituation abgestrahlte Schall gelangt angereichert mit Rauminformationen wie Nachhall und frühe Reflexionen [-7 2.4] zum Gehör des Z uhörers und erfährt schon dort einige klangliche Veränderungen, während er über das Außenohr und das Mittelohr ans Innenohr weitergeleitet wird: Abb. 1: Anatomie des Außen-, Mittel- und Innenohrs (oben) , Funktionsweise des Mittel- und Innenohrs (unten)' 1 Nach W. Ellermeier / ]. Hellbrück (2008), Hören - Psychoakustik - Audiologie, S. 42. 160 161 Christoph Reuter Schon am Außenohr wird der Schall durch die Ausformungen in der Ohrmuschel je nach Frequenz und Richtung mehr oder weniger in einzelnen Frequenzbereichen angehoben oder abgesenkt an den Gehörgang weitergegeben, wodurch die vorne-hinten-oben-Lokalisatio n von Schallquellen begünstigt wird.' Der daran sich anschließende, ca. 27 mm lange Gehörgang wirkt, da er am Ende mit dem Trommelfell abgeschlossen wird, wie eine einseitig geschlossene Röhre [-7 1.3.4), deren Resonanzfrequenz bei rechnerisch ca. 3.150 Hz liegt (wenn man von einer Schallgeschwindigkeit bei 340 m/s ausgeht) und die dazu führt, dass das menschliche Gehör zwischen 2.000 und 4.000 Hz besonders schallempfindlich ist. 3 Über die mit dem Trommelfell verbundene Gehörknöchelchenkette (Hammer, Amboss, Steigbügel) wird die Trommelfellschwingung in der Paukenhöhle des Mittelohrs an das ovale Fenster des mit Lymphflüssigkeit gefüllten Innenohrs übertragen. Es findet über die Gehörknöchelchenkette also eine Impedanzanpassung, d.h. eine Anpassung des Schallwellenwiderstands von Luft- zu Wasserschall statt. Ausschlaggebend für diese Impedanzanpassung ist das Flächenverhältnis zwischen Trommelfell 2 2 (ca. 55 mm ) und Steigbügel am ovalen Fenster (ca. 3,2 mm ) von 1:17 und die Steigerung des auf das ovale Fenster wirkenden Drucks durch die Hebelwirkung der Gehörknöchelchen in einem Verhältnis von 1:1,3. Durch diese beiden Faktoren vergrößert sich die Auslenkung des ovalen Fensters am Innenohr um einen Faktor von 1:22 im Vergleich zur Auslenkung des Trommelfells.' Beim Innenohr (Cochlea) handelt es sich um eine 32 mm lange schneckenförmig gewundene und mit Lymphflüssigkeit gefüllte Röhre, deren Querschnitt sich in drei übereinander liegende Abteilungen aufteilt: die Scala vestibuli (gefüllt mit natriumreicher Perilymphe), die an der Schneckenspitze (Helicotrema) in die Scala tympani übergeht, und dazwischen die Scala media (gefüllt mit kaliumreicher Endolymphe, in der ein Ruhepotential von ca. +80 m V 5 herrscht). Die Scala media ist durch die Reissnersche Membran von der Scala vestibuli getrennt sowie durch die Basilarmembran von der Scala tympani. Bewegt sich der Steigbügel (und damit die Membran des ovalen Fensters am Eingang zum Innenohr) sehr langsam, so findet eine gegenläufige Verschiebung der Endolymphe in Scala vestibuli und Scala timpani im Takt der Bewegung statt. Bei einer schnelleren Steigbügelbewegung werden auch die Trenn- 2 F.A. Everest (2001), The master handbook of acoustics, S. 65. 3 P.A. Fuchs (2010), The Oxford handbook of auditory science, S. 2; J. Hellbri.ick / W. Ellermeier (2004), Hören, S. 98. 4 S.A. Gelfand (2004), Hearing , S. 90; derselbe (2009), Essentials of audiology, S. 50. 5 S.A. Gelfand (2004), Hearing, S. 55 und S. 140; derselbe (2009), Essentials of audiology, S. 53. 162 Der Zuhörer embrane (Reissnersche- und Basilarmembran) mit in Schwingung versetzt :nd eine Wanderwelle bzw. Schlauchwelle wird auf der Basilarmembran induziert. Da die Basilarmembran in ihrem Verlauf vom Schneckenanfang bis zur Schneckenspitze immer elastischer und dabei immer breiter wird und Schwingung der Wanderwelle der 。ョNセゥ・ァ、@ gleichzeitig je nach . fイセ⦅ァオ・コ@ nicht genügend Zeit fur eme vollstand1ge Wanderung durch das Innenohr bleibt, bildet die Wanderwelle je nach Frequenz an einem unterschiedlichen Ort auf der Basilarmembran ihr Amplitudenmaximum aus. Je höher dabei die anliegende Frequenz ist, desto näher am ovalen Fenster lässt sich das Amplitudenmaximum beobachten (bzw. je tiefer die Frequenz desto näher an der Schneckenspitze). 6 An jenem von der jeweilig anliegenden Frequenz bestimmten Ort schwingt die Basilarmembran besonders stark und mit ihr das auf ihr sitzende, mit einer Tektorialmembran abgedeckte Cortische Organ. Auf diesem sitzen entlang der Basilarmembran näher an der Schneckenachse ca. 3.000 innere Haarzellen (Ruhepotential: ca. -40 m V) in einer Reihe und näher an der Schneckenrundung ca. 12.000 äußere Haarzellen (Ruhepotential: ca. -70 mV) in drei Reihen nebeneinander, deren Stereozilien (Haarfortsätze) 7 mit der Tektorialmembran verbunden sind. Im Takt der anliegenden Schwingung öffnen sich durch die dadurch hervorgerufenen Knick- bzw. Scherbewegungen der Stereozilien die Ionenkanäle der schwach negativ geladenen Haarzellen, wodurch diese kurzfristig und mit einer Erholungs- bzw. Refraktärzeit von ca. 1 ms depolarisiert werden. ' Die inneren Haarzellen feuern hierbei im Takt der Depolarisation und schicken dadurch die jeweils anliegende Schwingungsinformation als neuronale Impulse auf die einzelnen Stationen der Hörbahn, wobei die oben beschriebene Frequenz-Ort-Codierung bzw. Tonotopie durch alle Schaltstellen bis zum Auditory Cortex erhalten bleibt (die Tonhöhenwahrnehmung an sich findet jedoch wahrscheinlich durch eine gemeinsame Auswertung der tonotopischen Ordnung und der in den Nervenfeuerraten übermittelten Schwingungsperiode sta'tt, s.u.). Die äußeren Haarzellen hingegen ändern vor allem durch das Protein Prestin entlang der Spannungsschwankung kurzfristig ihre Länge im Takt der Schwingung und wirken da- 6 R.L. Wegei/ C.E. Lane (1924), The auditory masking of one pure tone by another, S. 279; G.v. Bekesy (1943), Über die Resonanzl<urve und die Abklingzeit der verschiedenen Stellen der Schnecl<entrennwand, S. 67. 7 G. Reiss / W . Walkowiak / H. -P. Zenner / P.K. Plinkert / E. Lehnhardt (1989), Das statoakustische Organ, S. 50. 8 S.A. Gelfand (2004), Hearing, S. 134-135; W. Yost (2007), Fundamentals of hearing, S. 109. 163 Der Zuhörer Christoph Reuter mit je nach anliegendem Schall verstärkend oder dämpfend auf die Basilarmembranbewegung ein.' Schon bei diesen hier nur grob umrissenen Vorgängen während der Hörwahrnehmung wird deutlich, mit wie kleinen Auslenkungen (im Nanometerbereich) das Gehör auf engstem Raum und mit extremen Geschwindigkeiten arbeitet. So ist es umso verwunderlicher, mit welcher Genauigkeit und Schärfe unser Gehör - bei allen physiologisch gegebenen Nichtlinearitäten und Verzögerungen in der Übertragungskette - zu arbeiten in der Lage ist. hört) und Schmerzschwelle befindet (oberhalb derer unser Hörvermögen stark schmerzhaft und meist nachhaltig bis irreversibel beeinträchtig wird). 11.0 NM dB · 120 MNセ QNP@ ··--....- - - lhreshold of poin- - -. -.. -.. .„,.. _ ....... 100 200 dS 120 100 Ci :> 2.5 .1 Grundlagen der Schallwahrnehmung Der Zusammenhang zwischen einem objektiven akustischen Reiz (wie z.B. dem Klang einer Geige) und seiner subjektiven auditiven Empfindung ist komplexer, als man es sich normalerweise vorstellt. Im Allgemeinen geht man davon aus, dass unsere Tonhöhenempfindung vor allem von der Schwinァセョウヲ・アオコ@ einer Schallquelle abhängig ist (also z.B. der Häufigkeit, in der die Ge1gensa1te pro Sekunde schwingt: je häufiger desto höher). Die Lautstärkeempfindung wiederum scheint vor allem von der Schwingungsamplitude der Schallquelle abhängig zu sein (also im Falle der Geige z.B. von der Stärke, in der .der セッァ・ョ@ die Saite auslenkt). Auf die Klangfarbenempfindung wiederum wirkt steh besonders die Schwingungsform aus (also wie die eher sägeコ。セイョヲ￶Nゥァ・@ Bewegung der Geigensaite durch den klangprägenden Einfluss Ubertragung via Steg, Korpus und Raum zu einer geigentypischen bei 、セイ@ s」ィキュセオョァNウォイカ・@ geformt wird). Analoges gilt zwischen Reiz und Empfindu?g fur die Raumwahrnehmung (in Abhängigkeit von Umgebung sowie sーゥ・ャイセ@ セョ、@ Hörerposition) und die Dauernempfindung (in Abhängigkeit von der zeitlichen Ausdehnung). Die Empfindung von Tonhöhe, Lautstärke, Klangfarbe, Richtung, Entfernung, Dauer etc. geschieht jedoch nicht unabhängig voneinander. 10 All diese Parameter beeinflussen sich bei der Wahrnehュセョァ@ vielmehr gegenseitig aufgrund der gehörseigenen Nichtlinearität, Trägheit und anderen physiologisch bedingten Eigenschaften. . Um die Leistung des Gehörs in einer Konzertsituation (und auch sonst) einschätzen zu können, eignet sich besonders gut ein Bild unseres Hörbereichs, welcher sich zwischen Hörschwelle (unterhalb derer man nichts mehr 9 A.H. Marshall I W.J. Cavanaugh I M.A. Ruggero / J. Santos-Sacchi (1997), Cochlear mechanics and biophysics, S. 1366; W. Yost (2007), Fundamentals of hearing, S. 111. 10 J.P. Fncke I Chr. Louven (2008), Psychoakustische Grundlagen des Musikhörens. 164 セ@ 20 10-2 2 セ@ (!> § VP 60 セ@ (!> lll c(!> a. -g 1.0 1.0 ]; ;::) 0 l 80 o; 2 80 l/l w Pa 20 threshold in quiet 20 -g 6 l/l 0 0 A.--· - - ._____,__ _ ,,_ _ _ . _ .....___._____..____, 0.02 0.05 O.l 0.2 0.5 1 2 kHz S 10 20 frequer'lcy Abb. 2: Bereich der menschlichen Hörwahrnehmung 11 Es wird deutlich, dass wir Frequenzen von 20 bis 20.000 Hz wahrnehmen können. Es zeigt sich auch, dass wir mit unserem Gehör in der Lage sind, außerordentlich hohe Schalldruckunterschiede wahrzunehmen: Der Pegelbereich zwischen 140 dB (""200 Pascal) und 0 dB (""0,00002 Pascal) entspricht klanglich ungefähr dem Unterschied zwischen einem Düsentriebwerk und einer summenden Mücke aus einigen Metern Entfernung. 1' Um diese enorm großen Frequenz- und Pegelspannen in den unterschiedlichsten Klangfarben und Dauern adäquat verarbeiten zu können, hat das Gehör verschiedene Strategien ausgebildet: annäherungsweise logarithmische Verarbeitung, die spektrale und zeitliche Integration von klanglichen Informationen sowie (u.a.) die Verdeckung {セ@ 2.5.3] und die Residualtonbildung {セ@ 2.5.2]. 11 H . Fast! / E. Zwicker (2006), Psychoacoustics, S. 17. 12 P.G. Zimbardo / R.J. Gerrig (2004), Psychologie, S. 135. 165 Der Zuhörer Christoph Reuter Annäherungsweise logarithmische Verarbeitung Die annäherungsweise logarithmische Verarbeitung scheint ein allgemeines Prinzip der menschlichen Wahrnehmung zu sein und zeigt sich z.B. in der Tonhöhenempfindung: Der Abstand zwischen 220 Hz (a) und 440 Hz (a') wird vom abend ländischen Hörer ebenso als Oktave empfunden wie der Abstand zwischen 440 Hz (a ' ) und 880 Hz (a 2 ), obwohl zwischen a und a 1 eine Differenz von 220 Hz liegt und zwischen a 1 und a 2 eine Differenz von 440 Hz. Mit anderen Worten : je höher oder intensiver ein schon vorhandener Reiz ist, desto mehr muss hinzugefügt werden, um die gleiche Empfindungsqua lität (in diesem Falle die Oktave) zu erhalten. Dieser menschlich-universe lle - je nach Perspektive - logarithmische oder exponentiell e Zusammenhang zwischen Reiz und Empfindung wurde erstmalig von Heinrich Weber (1851) und Gustav Theodor Fechner (1860) ausführlich untersucht. " Webers Verdienst ist hierbei der Nachweis, dass eine eben merkliche Änderung eines Reizes (LH) immer in einem konstanten Verhältnis (c) zu seinem Ausgangsreiz (I) steht (L\.I/I = c). Für die ebenmerkliche Änderung einer Tonhöhe ist dies z.B. ein Verhältnis von c = 0,4% . Für eine gerade noch wahrnehmbare Lautstärkenänderung beträgt das Verhält4 nis c = 1 %.' Nachdem Fechner sehr viele von diesen eben merklichen Empfindungsänderungsschritten hintereinander aufaddierte, zeigte sich bei größeren Änderungsschritten ein loga rithmisches Verhältnis zwischen Reiz und Empfindung, welches er in seine psychophysische Fundamentalformel zusammenfasste: E = k · log S + C Es zeigt sich in dieser Formel, dass sich die Empfindung (E) stets logarithmi sch zum Stimulus (S) verhält (begleitet von zwei empfindungsabhängigen Konstanten k und C) . Da Fechner bei seinen Berechnungen einfach von der Reizverarbeitung im Bereich der jeweiligen Empfindungsschwelle auf ein gesa mtes Wahrnehmungskontinuum schloss und dabei auch außer Acht ließ, dass es sowohl bei sehr kleinen als auch bei se hr großen Reizintensitäten zu Abweichungen von 13 G.Th. Fechner (1851), Eleme11te der Psychophysik; P.R. Cook (2001 ), Music, cognition, and com/JUterized sound, S. 149; J. Hellbrück / W. Ellermeier (2004), Hären, S. 39-40 und 215216; W.A. Yost (2007), Fundam entals of hearing, S. 150. 14 W.D. Keidel (1975), Physiologie des Gehörs, S. 310; Chr. v. Campenhause n (1981), Die Sinne des Menschen, S. 26-27. 166 · Berechnungen kommen kann, konnte Stanley Smith Stevens 1957 mit seinen . . ··1t1ge . p oH'Ife von unterschiedlichen Skalierungsmet 110 d en eme a II gememgu ・セコヲオョォエゥッ@ (E = sn) aufstellen, die die Empfindungsrealität besser abbildet セdゥ・@ Empfindungsstärke セeI@ ergibt sich ィゥ・イ「セ@ セオウ@ der Stärke des Sti.mulus' (S) und einem für den Smneskanal charaktenst1scher Exponent (n), m dem die restlichen Faktoren zusammengefasst sind).' 5 Spektrale Integration (Frequenzgruppenbreiten) D. Integration auf spektraler Ebene geschieht in den sogenannten FrequenzイQセー・ョ「ゥエ@ (auch Kopplungsbreiten oder critical bandwidths), die H arvey セャ・エ」ィイ@ (1940) in den 30er Jahren ermittelte.' 6 Eine Frequenzgruppenbreite beschreibt die Breite eines Frequenzbereichs, innerhalb dessen das Gehör Schallenergieanteile gemeinsam auswertet. Unterhalb カッセ@ 500. Hz _。「セョ@ die Frequenzgruppenbreiten eine Größe von 90-10? セコL@ .daruber s1.nd sie mit 1720% der anliegenden Schwingung etwa terzbre1t. Die Integrat10n der Schallenergieanteile wird besonders dann deutlich, wenn man z.B. von セキ・ゥ@ !önen gleicher Frequenz (z.B. 1.000 Hz) un? gleiche.r Lautstärke den emen immer weiter vom anderen verschiebt: Ab emer bestimmten Grenze (ca. 1.200 Hz bzw. Terzbreite) erscheint der Gesamtklang auf einma l doppelt so laut, da nun die Amplituden der beiden Frequenz nicht mehr in einer einzigen sondern . ausgewertet wer den. 18 in zwei unterschiedlichen Frequenzgruppen breiten Die Ausbi ldung dieser Frequenzgruppen hängt besonders damit セウ。ュᆳ men da ss sich Teile der Basilarmembran in ihrer Schwingung gegense1t1g be・ゥョヲャセウN@ Innerhalb einer Frequenzgruppenbreite zeigt sich diese Beeinflussung z.B. in der Form von Schwebungen: Frequenzen.' die in einem a「セエ。ョ、@ von weniger als 20 Hz beieinander liegen, werden nicht mehr als zwei verschiedene Tonhöhen wahrgenommen, sondern als eine einzige Tonhöhe, deren Amplitude und Frequenz sicH in der Differenz der ・イォャゥセァョ、@ Freq.uenzen ändert.' 9 Dieses Phänomen wird von Musikern häufig beim Stimmen ihres Instruments verwendet: Sobald keine Schwebungen zwischen der eigenen 15 S.S . Stevens (1957), On the psychophysical law. 16 H . Fletcher (1 940), Auditory patterns. 17 E. Zwicker/ R. Feldtkeller (1967), Das Ohr als Nachrichtenempfänger, S. 72-73; H. Fast! I E. Zwicker (2006), Psychoacoustics, S. 64. . . 18 E. Zwicker/ G. Flottorp / S.S. Stevens (1957), Critical band width m loudness summatwn, S. 19 J.4;,· Roederer (2000), Physikalische und psychoakustische Grundlagen der Musik, S. 34-40. 167 Christoph Reuter Tonhöhe und der Vergleichstonhöhe mehr hörbar sind, die Differenz zwischen beiden Frequenzen a lso 0 beträgt, ist das Instrument genau eingestimmt. Wird die Differenz zwischen beiden Frequenzen größer als 20 Hz, so nehmen bis zum Erreichen der Frequenzgruppengrenze (ab Terzgröße) die Rauhigkeiten zwischen den beiden Frequenzen hörbar zu. Darüber sind zusammenk lingende Frequenzen wieder vollkommen klar und unbeeinflusst voneinander wahrnehmbar. So erk lin gt oberhalb von 500 Hz eine große oder kleine Sekunde (= innerhalb einer Frequenzgruppenbreite) immer entschieden rauher a ls eine Quinte oder Septime (=außerhalb einer Frequenzgruppenbreite). In Anlehnung an Heinrich Barkhausen [-7 2.5.3] wird die Breite einer solchen Frequenzgruppe mit der Einheit Bark bezeichnet. 20 Eberhard Zwicker konnte 1961 zeigen, dass der menschliche Hörbereich mit 24 solcher nebeneinanderliegenden Frequenzgruppenbreiten gut beschrieben werden kann und dass die Bark-Skala der für die Tonhöhenwahrnehm un g ermittelten Mel-Skala entspricht (1 Bark ::::'. 100 Mel). 21Diese Darstellung führte häufig zu der Fehlinterpretation, dass es sich zum einen bei den Frequenzgruppenbreiten um feste, statische Eigenschaften des Gehörs handle, sowie zum anderen, dass die Frequenzgruppenbreite bei der Tonhöhenempfindung eine entscheidende Rolle spiele. Das Gegenteil ist jedoch der Fall: Die Frequenzgruppenbreite ist ein entscheidender Parameter bei der Verdeckung, der Lautheits- und der Klangfarbenwahrne hmung. Das Gehör verhä lt sich wie ein adaptives, sich an die jeweiligen Schallvorgänge stets erneut anpassendes Filter. Das heißt, die Frequenzgruppenbreiten sind stets dynamisch und in ihrer Frequenzlage stets abhängig von der jeweiligen klanglichen Umgebung. Zeitliche Integration In zeitlicher Hinsicht kann man bei der Gehörswahrnehmung drei Zeitbereiche unterscheiden, in denen eine integrierende Schallverarbeitung stattfindet (sogenannte Integrationszeiten): 22 Erste Integrationszeit (ca. 10 ms): In dieser ersten Zeitspanne (je nach Messung 2-10 ms) werden die Frequenzgruppenbreiten ausgebi ldet bzw. umorientiert. Dies führt zum einen dazu, dass Einschwingvorgänge mit Dauern 20 E. Zwicker (1961), Subdivision of the audible frequency range into critical bands, S. 248. 21 H. Fast! I E. Zwicker (2006), Psychoacoustics, S. 162-163. 22 Chr. Reuter (1995), Der Einschwingvorgang nichtperkussiver Musil<instrumente, S. 31-35; ].P. Fricke I Chr. Louven (2008), Psychoakustische Grundlagen des Musikhörens, S. 433ff. 168 Der Zuhörer unter 10 ms vorwiegend breitbandig d.h. als Knack wahrgenommen werden. 23 zum anderen benötigt man oberhalb von ca. 1.000 Hz eine Dauer von ca. 10 ms, um eine Tonhöhe zu erkennen (unterhalb von 1.000 Hz benötigt man 2-3 Perioden). 2' Dieser Zeitdauer begegnet man nicht nur bei der Vorverdeckung wieder [-7 2.5.3] sondern auch beim »Gap Detection Threshold«, wenn es darum geht ein e möglichst kleine zeitliche Lücke in einem Rauschen zu erkennen. 25 zweite Integrationszeit (ca. 50 ms): Diese zweite Zeitspanne (auch Verwischungsschwell e26 oder »Perception Time Smear« )27 beschreibt vor a llem den wahrnehmungsmäßigen Übergang von periodischen Einzelimpulsen zur kontinuierlichen Tonhöhenempfindung. Diese Verwischungsschwelle wird überschritten, soba ld eine Klangquelle schneller a ls 20 mal in der Sekunde periodisch schwingt(> 20 Hz) bzw. die Schwingung in einem periodischen Abstand von weniger als 50 ms erfolgt (20 Hz = 2011.000 ms = 50 ms). Das Erreichen dieser Schwelle scheint je nach Messung und Wellenform unterschied lich zu sein (zwischen 10 und 90 ms). 2' Als Daumenregel lässt sich hier formulieren: Je impulshafter, schma ler und spitzer die Wellenform ist, desto kürzer können die Abstände zwischen den einzelnen Perioden sein, d.h. desto höher kann die Grenzfrequenz sein, ab der man eine Tonhöhe wahrnimmt. Die gehöreigene Verwischungsschwelle zeigt sich nicht nur in der Tonhöhenwahrnehmung, sondern auch in einer Reihe von anderen akustischen Phänomenen: Verzögert einsetzende Musikinstrumente werden z.B. noch als synchron beginnend wa hrgenommen, solange sich die Verzögerung im Rahmen der zweiten Integrationszeit hä lt.29 Einschwingzeiten werden unterhalb von 50 ms a ls »kurz « bewertet, darüber a ls »lang«. 10 Reflexionen werden erst oberhalb von 50-100 ms als Echo wahrgenommen, darunter können sie auditiv nicht vom Direkt11 scha ll getrennt werden und wirken klangverstärkend a uf die Wahrnehmung 23 H. Scholl (1961), Trägheitserscheinungen beim Gehör, S. 62. 24 H. Schole (1934), Experimentelle Untersuchungen an höchsten und an kürzesten Tönen, S. 43. 25 S.A. Gelfand (2009), Essentials of audiology, S. 91. 26 E. Petzold (1927), Eleme11tare r。オュォウエゥャセL@ S. 8. 27 M. Joos (1948), Acoustic phonetics, S. 67. 28 Chr. Reuter (1995), Der Einschwingvorgang nichtperkussiver Musikinstrum ente, S. 33f. 29 Chr. Reuter (1995), Der Einschwingvorgang nichtperlrnssiver Musikinstrumente, S. 136142. 30 D.A. Luce IM. Clark (1965), Durations of attack transients of nonpercussive orchestral Instruments, S. 197; F. Bluttner (1982), Obje/aive und subjel<tive Untersuchungen zum. Einschwingen von Pianoklängen, S. 1142. 31 W. Fasold I E. Veres (2003), Schallschutz und Raumakustil< in der Praxis, S. 53. 169 Der Zuhörer Christoph Reuter 2.5.2 Tonhöhenwahrnehmung [7 2.4]. Bei Verzögerungen von 10-30 ms zwischen Direktschall und Reflexion ist der zuerst einfallende Schall für die Richtungswahrnehmung verantwortlich" [7 2.6.3]. Dritte Integrationszeit (ca. 250 ms): Innerhalb der dritten Integrationszeit (die je nach Stimulus und Messung 100-300 ms betragen kann) wird Schallenergie zusammengefasst verarbeitet: Innerhalb dieser sogenannten »Tempora! Summation Time« ist es so, dass Töne bei gleichem Schallpegel umso leiser empfunden werden, je kürzer sie sind.Jl Oberhalb der Tempora! Summation Time ist der Lautstärkeeindruck zeitunabhängig und wird vor allem von der Amplitude und der Frequenz einer Schwingung bestimmt [7 2.5.3]. Wie bei der Verwischungsschwelle zeigt sich auch die dritte Integrationszeit in einer Reihe von Wahrnehmungsphänomenen: Es ist nicht nur die Zeitgrenze, oberhalb der eine optimale Unterscheidungsfähigkeit für die Tonhöhenwahrnehmung erreicht ist" oder oberhalb der ein Klang trotz seiner vielen Mikroschwankungen als periodisch und mit fester harmonischer Teiltonstruktur wahrgenommen wird. 15 Es ist auch die Zeitgrenze, innerhalb der sowohl das für uns angenehmste Vibrato liegt (6-8 Hz= 166-125 ms) '' als auch die Modulationsfrequenz, auf die unser Gehör am empfindlichsten reagiert (4 Hz = 250 ms) .11 Wie die erste Integrationszeit der Vorverdeckungsdauer entspricht, so entspricht die dritte Integrationszeit der Nachverdeckungsdauer" [7 2.5.3]. Es ist auffallend, dass die Einschwingvorgänge der abendländischen Musikinstrumente in einem Bereich zwischen der ersten und dritten Integrationszeit liegen: 39 Die Struktur des Einschwingvorgangs wird für die Klangfarbenerkennung relevant, sobald dieser länger als 10 ms ist. Ab einer Dauer von 250 ms sind die Einschwingvorgänge der meisten Musikinstrumente beendet und unterscheiden sich aufgrund dieser kurzen Dauer deutlich vom nachfolgenden (quasi)stationären Klanganteil. Bei der Beschreibung des abendländischen Tonra ums folgen heutige Musiker meist zwei impliziten Anna hmen, die 1913 u nd 1926 Geza Revesz in seiner 0 zweikomponententheorie der Tonhöhe schriftlich niedergelegt hat' und die bereits bei Wilh elm Opelts »Tonsäule « 1834 ihren Ursprung gefu nden hatte:" Die auf das abendländische Tonsystem fixierten Tonhöhen lassen sich durc h die zwei Ähnlichkeitsmerkma le »Tonq ualität « und »Tonhöhe « beschreiben: Die Tonqua lität (a uch Chro ma oder Tonigkeit) beschreibt die zykl isch auftretende Ähnl ichkeit zwischen zwei Tönen im Oktavabstand (a lso z.B. zwischen c1 un d c2 ). Diese Oktavä hnlichkeit (a ufgrun d einer maxima len Ähnlichkeit in der Teiltonstruktur) spiegelt sich in der Übereinstimmung der Tonbezeichnungen bei verschi edener O ktavlage wi der. Die Tonhöhe (oder a uch Helligkeit) hingegen beschreibt ein linear mit der Freq uenz eines Tons aufsteigendes Tonmerkmal. Die Ähnlichkeit zwischen zwei Tönen beru ht hier auf einer kurzen Distanz entlang einer Lin ie im Ton1 raum (also z.B. c und d' ). Diese zyklische (Oktavähnli cbkeit) und lineare Ähnlichkeit (durch Nähe) lässt sich am besten in Form ei nes zylindrischen Gebil des darstellen, in dem sich die zyklische Komponente im Zylinderboden befi ndet, wä hrend die li neare Komponente schra ubenförmig entl ang des Umfangs nach oben verläuft. 1964 gelang es Roger Shepard, die Tonq ualität von der Tonhöhe zu trennen, indem er mit Klängen arbeitete, deren Teiltonstruktur n ur a us Oktaven bestand und die bei m linearen Fortschreiten unter einer gleichbleibende n breiten Bandpassfilterkurve verschoben wurden, so dass sich dadurch die Tonhö he zwar änderte, die Tonqualität bzw. die Oktav lage nicht mehr einde utig bestimmbar war.4 2 32 L. Cremer (1948), Die wissenschaftlichen Grundlagen der Raumakustik, S. 395-398; W. Fasold I E. Veres (2003), Schallschutz und Raumakustik in der Praxis, S. 56. 33 H . Fast! I E. Zwicker (2006), Psychoacoustics, S. 228-230; W. Yost (2007), Fundamentals of hearing, S. 149. 34 H. Fast!/ E. Zwicker (2006), Psychoacoustics, S. 187. 35 J.P. Fricke (1962), Die Innenstimmung der Naturtonreihe und der Klänge, S. 174. 36 J. Meyer (1968), Vibrato, S. 544-546. 37 E. Zwicker IR. Feldtkeller (1967), Das Ohr als Nachrichtenempfänger, S. 167 und 169. 38 U. Steudel (1933), Über die Empfindung und Messung der Lautstärke, S. 116; L. Cremer (1948), Die wissenschaftlichen Grundlagen der Raumakustik, S. 383. 39 Chr. Reuter (1995), Der Einschwingvorgang nichtperkussiver Musikinstrumente; J.P. Fricke / Chr. Louven (2008), Psychoakustische Grundlagen des Musikhörens, S. 433. 40 G. Revesz (1913), Zur Grundlegung der Tonpsychologie, S. 55; derselbe (1926), Zur Geschichte der Zweikomponenten/ehre in der Tonpsychologie. 41 W. Opelt (1834), Ueber die Natur der Musil<. 42 R.N. Shepard (1964), Circularity in judgments of relative pitch. 170 171 Der Zuhörer Christoph Reuter Allgemein geht man meist davon aus, dass eine enge Beziehung zwischen Frequenz und Tonhöhenempfindung bzw. zwischen Frequenzverhältnissen und Intervallen besteht. Eine Oktave wird z.B. stets mit einer Verdopplung bzw. Halbierung der Frequenz gleichgesetzt. Lässt man jedoch unvoreingenommene Hörer beurteilen oder selbst einstellen, ab wann für sie eine Tonhöhe doppelt oder halb so hoch klingt, so stellt sich heraus, dass dies nur annäherungsweise für einen kleinen Ausschnitt unseres hörbaren Bereichs, d.h. bis ca. 5.000 Hz H セ@ dis5) gi lt. Darüber werden Tonhöhen und auch Intervalle nicht ュセNィイ@ entsprechend ihrer Frequenzen bzw. Frequenzverhältnisse erkannt." Ahnliches gilt auch für Frequenzen unterhalb von 50 Hz.4 4 Und selbst in dem Bereich, in dem uns die Tonhöhen- und Intervalleinschätzung einigermaßen stabil gelingt (also zwischen 50 und 5.000 Hz), verhält es sich so, dass die meisten Hörer eine in ihrer Tonhöhe etwas weiter gespreizte Oktave für reiner halten als die tatsächlich reine Oktave.45 Wie bei der Ermittlung der Kurven gleicher Lautheit [7 2.5.3] definierten Stanley Smith Stevens et al. 1937 zur Ermittlung der Tonhöhenempfindung, d.h. der Tonigkeit einen Referenzton (1.000 Hz bei 40 dB) als 1.000 Mel. 46 Ausgebend hiervon ließen Stevens und seine Mitarbeiter ihre Versuchspersonen die verschiedensten Tonverhältnisse einschätzen. Eberhard Zwicker übernahm 1961 die Stevenschen Überlegungen, nahm dabei aber die Tonhöhe c (131Hz=131 Mel) als Referenzton zum Ausgangspunkt seiner Verhältnismessungen .4 1 Dies erlaubte ihm, den Verlauf der Mel-Skala mit dem der Bark-Skala in Beziehung zu setzen (1 Bark ;:::; 100 Mel, s.o.). halb von 800 Hz bis zu 7% höher empfunden•• (dies entspricht einer Verschiebung von jeweils bis zu einem Halbton im Vergleich zum unbelasteten Ohr). Bei Klängen mit einem klaren Zeit-Periodenmuster (d.h. bei musikalischen Klängen) wirkt sich die Verschiebung nicht so stark aus, da die Grundtonhöhenempfindung durch die Obertöne zusätzlich stabilisiert wird. Sowohl bei starken Pegeländerungen als auch bei einer Drosselung durch andere Klänge lässt sich der Effekt einer Tonhöhenverschiebung von bis zu einem Halbton beobachten: Hierbei wird die Tonhöhe unterhalb von 5.000 Hz mit steigender Intensität/Drosselung als geringfügig tiefer empfunden und oberhalb von 5.000 Hz als geringfügig höher .4 9 Über die kleinsten wahrnehmbaren Tonhöhenunterschiede gibt es je nach Literatur verschiedene Angaben, was damit zusammenhängt, dass je nach Frequenz und Schallpegel die Frequenzauflösung des Gehörs unterschiedlich ausfällt, weswegen auch »Netze von ebenmerklichen Frequenz- und Schallpegelunterschieden«'° oder Basilarmembranskalen 11 mit Vorsicht zu betrachten sind. Bei einem Pegel von 70 dB konnten Eberhard Zwicker und Richard Feldtkeller z.B. unterhalb von 500 Hz eine ebenmerkliche Frequenzunterscheidungsfähigkeit von M=1,8 Hz beobachten. Oberhalb von 500 Hz beträgt die Frequenzunterscheidungsfähigkeit M= 0,35% der jeweils tieferen Frequenz, um einen Unterschied wahrzunehmen." In engem Zusammenhang mit der menschlichen Tonhöhenwahrnehmung steht die Wahrnehmung von Kombinations- und Residualtönen: Kombinationstöne Die Tonhöhenwahrnehmung kann sowohl durch die Dauer der Darbietung als auch durch die gewä hlte Lautstärke und/oder bei Drosselung durch andere Geräusche [7 2.5.3] beeinträchtigt werden: Während einer Dauerbelastung werden Sinustöne unterhalb von 800 Hz bis zu 6% tiefer und ober- Guiseppe Tartini entdeckte 1714 beim Spielen von Doppelgriffen auf der Geige ein Phänomen ( »terzo suono« ), das Georg Andreas Sorge auch 1745 in seinem Vorgemach der musicalischen Composition bei der Beobachtung von 43 W. Wille (1959), Das Verhalten musilwlischer Intervalle in mittleren und hohen Tonlagen; F. Attneave I R.K. Olson (1971), Pitch as a medium; R. Eberlein (1988), Theorien und Experimente zur Wahrnehmung musikalischer Klänge, S. 87. 44 G. v. Bekesy (1936), Über die Hörschwelle und Fühlgrenze langsamer sinusformiger Luftdruckschwankungen, S. 558; 0. Ranke / F.H. Lullies (1953), Physiologie der Stimme und Sprache, S. 140. 45 E. Terhardt (1998), Akustische Kommunilwtion, S. 220-222. 46 S.S. Stevens/]. Volkmann / E.B. Newrnan (1937), A scale for the measurement of the psychological magnitudePitch, S. 185. 47 E. Zwicker (1961), Subdivision of the audible frequ ency range into critical bands, S. 248. 48 G. v. Bekesy (1932), Zur Theorie des Hörens. 49 S.S. Stevens/ D. Hallowell (1938), H earing, S. 152; E. Terhardt (1998), Akustische Kommunikation, S. 329-335; S.A. Gelfand (2004), Hearing; S. 377; H. Fast! / E. Zwicker (2006), Psychoacoustics, S. 114. 50 Z.B. S.S. Stevens/ D. Hallowell (1938), Hearing, S. 153; F. Winckel (1960), Phänomene des musikalischen Hörens, S. 104. 51 E. Zwicker/ R. Feldtkeller (1967), Das Ohr als Nachrichtenempfänger, S. 92; H. Fast! I E. Zwicker (2006), Psychoacoustics, S. 162. 52 E. Zwicker/ R. Feldtkeller (1967), Das Ohr als Nachrichtenempfänger, S. 68. 172 173 Der Zuhörer Christoph Reuter zwei zusammenspielenden Orgelpfeifen beschrieb:' ' in beiden Fällen ist noch ein tiefer dritter Ton wahrzunehmen. Beide Beobachtungen stellten sich als Differenztöne heraus, d.h. als Töne, die zusätzlich entstehen, da durch die nichtlinearen Übertragungseigenschaften eines Systems (z.B. die Übertragung über Steg und Korpus bei der Geige) die ursprüngliche Schwingungskurve entsprechend verzerrt wird. Während es sich bei den von Tartini und Sorge beschriebenen Phänomenen um objektive, d.h. in der Scha llana lyse erkenn- und messbare Differenztöne handelt, werden bei der Hörwahrnehmung durch die nichtlinearen Übertragungseigenschaften des Mittel- und Innenohrs ebenfa ll s neben subjektiven Ohrobertönen ( »aura l harmonics«) auch subjektive Differenz- und Summationstöne, also Kombinationstöne erzeugt: " Differenztöne ergeben sich hierbei aus der Differenz zwischen einem höheren und einem tieferen Ton (bzw. dessen Vielfachen), während Summationstöne aus der Summe von jeweils zwei beteiligten Tönen (bzw. deren Vielfachen) entstehen. Ein Differenzton ist dabei (oberhalb von ca. 65 dB der Primärtöne) umso besser wahrnehmbar, je tiefer er unter den beiden ihn erzeugenden Tönen liegt, während Summationstöne so gut wie nie wahrnehmbar sind, da sie meist schon von den ursprünglich im Gesamtklang vorliegenden Teiltönen verdeckt werden" [-7 2.5.3] . Je nach Literatur begegnet man verschiedenen Schreibweisen zur Beschreibung von Differenz- und Summationstönen: Entweder werden sie (meist in angelsächsischer Literatur) a ls f 0r = f H-f L beschrieben'" (die Frequenz des Differenztons (f 0 r ) ist das Ergebnis aus der Differenz zwischen der Frequenz eines höheren (f H) und der Frequenz eines tieferen Tons f L; analog dazu für den Summationston: f sr = f H+f L; in der deutschsprachigen Literatur ent57 sprechend f 0r = f h-f t und f sr = f h+f t ), oder es wird (besonders in deutschsprachiger Literatur) die kürzere Schreibweise Dht bzw. S ht verwen- . det." Letztere Schreibweise ist meist unmissverständlicher, da in ihr gleich auch die Vielfachen des Primärtons angegeben werden. Während sich die Hörbarkeit der Summations- und Differenztöne relativ zu den Pegeln der Ausgangstöne verhält, bildet der sogenannte kubische Dif9 ferenzton (f corr f Kor oder D21) hierzu eine Ausnahme:' Im Gegensatz zu den anderen Kombinationstönen ist seine Hörbarkeit in erster Linie vom Frequenzabstand der Ausgangstöne abhängig: Man kann ihn unabhängig vom Pegel der Ausgangstöne wahrnehmen, solange der Frequenzabstand vom höheren (h) zum tieferen Ausgangston (t) kleiner als 30% der Frequenz von t 53 G. Tartini (1754), Trattato di musica, S. 58ff.; G.A. Sorge (1745), Vorgemach der musicalischen Composition, S. 13. 54 Z.B. S.S. Stevens / D. Hallowell (1938), Hearing, S. 184-207; E. Zwicker / R. Feldtkeller (1967), Das Ohr als Nachrichtenempfänger, S. 218-225; J.G. Roederer (2000), Physikalische und psychoakustische Grundlagen der Musik, S. 45-49; H. Fast! / E. Zwicker (2006), Psychoacoustics, S. 277-286. 55 E. Zwicker/ R. Feldtkeller (1967), Das Ohr als Nachrichtenempfänger, S. 219; E. Terhardt (1998), Akustische Kommunikation, S. 231. 56 Z.B. H. Fast!/ E. Zwicker (2006), Psychoacoustics; W. Yost (2007), Fundamentals of hearing; S.A. Gelfand (2009), Essentials of audiology. 57 Z.B. J.G. Roederer (2000), Physikalische und psychoalwstische Grundlagen der Musik. 58 H . Husmann (1953), Vom Wesen der Konsonanz; J.P. Fricke (1960), Über subjektive Differenztöne höchster hörbarer Töne und des angrenzenden Ultraschalls im musikalischen Hä ren; J.P. Fricke /Chr. Louven (2008), Psychoakustische Grundlagen des Musikhörens. 59 E. Terhardt (1998), Akustische Kommunikation, S. 349; H. Fast! / E. Zwicker (2006), Psychoacoustics, S. 282ff. 60 S.A. Gelfand (2004), Hearing, S. 370-371. 61 U.a. H . v. Helmholtz (1863), Die Lehre von den Tonempfindungen; H. Riemann (1875), Die objektive Existenz der Untertöne in der Schallwelle; H. Riemann (1891), Katechismus der Akustik; P. Hindemith (1938), Unterweisung im Tonsatz etc. 62 W. Voigt (1985), Dissonanz und Klangfarbe, S. 68 . 63 J.F. Schauten (1940), The perception of pitch, S. 290. 174 ist. 60 Obwohl Kombinationstöne (und besonders Differenztöne) in der Geschichte der abendländischen Musiktheorie häufig zur Begründung von Har1 monielehren und Mollskalen herangezogen wurden,6 haben sie für die Musikpraxis so gut wie keine Bedeutung, da ihr (meist nur im Labor oder an starren Einzeltönen beobachtbares) Auftreten durch Schwankungserscheinungen wie Ausgleichsvorgänge, Vibrato, Klanggestaltung, Raumnachhall, chorischer Effekt in Orchestermusik usw. stark geschwächt, wenn nicht gar verhindert wird, wenn sie nicht sowieso schon aufgrund ihrer zu schwachen Ausprägung von anderen Instrumenten bzw. Umgebungsgeräuschen verdeckt 62 werden. Residualtöne Beim Residualton' ' (auch Residuum, virtuelle Tonhöhe, oder engl. residue, virtual pitch, missing fundamental, periodicity pitch) handelt es sich um eine Tonhöhenempfindung, die der Frequenz eines Grundtons eines periodischen Klangs entspricht, auch wenn die Grundfrequenz selbst nicht im Klang enthalten ist. Jan Frederik Schonten wies dieses Phänomen, welches aus der Ge- 175 - -- - Christoph Reuter samtperiode aller am Klang beteiligten Teilfrequenzen resultiert, 1938 im Aufgriff der Lochsirenen-Experimente August Seebecks (1840-1844) mit Hilfe einer Lichttonsirene nach."' Das Wesen des Residualtons brachte Seebeck schon ein knappes Jahrhundert vor Schouten auf den Punkt: Unser Ohr empfindet den Eindruck einer periodischen Bewegung als Ton; alle Glieder, welche an dieser Periode Theil nehmen, können[ ... ] zur Stärke des [Grund]Tones beitragen." Das menschliche Gehör (und auch das von Säugetieren) ist also mit anderen Worten in der Lage, auch bei der Anwesenheit von nur wenigen Teiltönen den passenden Grundton dazu automatisch zu ergänzen. Diese Fähigkeit ist nicht nur grundlegend für die Stimmendifferenzierung bei zusammenspielenden Musikinstrumenten (wenn wegen der jeweiligen gegense1t1gen Verdeckung/Drosselung der zusammen erklingenden Stimmen jeweils nur wenige, meist in den typischen Formantbereichen liegenden Teiltöne pro Instrument wahrnehmbar sind), 66 sondern zeigt sich bei nahezu allen Gelegenheiten, in denen die Grundtöne eines Klangs nicht mehr oder nur durch andere Klänge verdeckt abgestrahlt werden (z.B. Telefon, PC-Lautsprecher, Verkehrs- oder Gesprächssituationen, Glockenschlagtöne etc.). Da wir im alltäglichen Leben und auch in der Konzertsituation ständig mehreren Schallquellen ausgesetzt sind, die sich teilweise gegenseitig verdecken, kann man davon ausgehen, dass eine Vielzahl der Tonhöhen, die wir wahrnehmen, Residualtonhöhen sind."1 Als Ursache für die Residualtonwahrnehmung zog man besonders ab den frühen 1970er Jahren die Erklärungen der »Pattern-Recognition-Models« 68 heran und ging davon aus, dass die Residualtonbildung anhand eines Mustererkennungsprozesses geschieht: Hierbei wurde für jeden der ersten sechs bzw. acht" oder 15 70 am Klang beteiligten Teiltöne eine virtuelle Untertonreihe auf- 64 65 66 67 68 J.F. Schouten (1938), The perception of subjective tones, S, 1091. A. Seebeck (1844), Über die Definition des Tones, S. 360-361. Chr. Reuter (1996), Die auditive Diskrimination von Orchesterinstrumenten, S. 298. J.F. Schouten (1940), The perception of pitch, S. 290. Nach E. Terhardt (1972), Zur Tonhöhenwahrnehmung von Klängen; E. Terhardt (1976), Ein psychoakustisch begründetes Konzept der musikalischen Konsonanz; J. Goldstein (1973), An optimum processor theory for the central formation of the pitch of complex tones . 69 E. Terhardt (1972), Zur Tonhöhenwahrnehmung von Klängen; E. Terhardt (1976), Ein psychoakustisch begründetes Konzept der musikalischen Konsonanz. 70 ]. Goldstein (1973), An optimum processor theory for the central formation of the pitch of complex tones; J. Goldstein/ A. Gerson / P. Srülovicz / M. Furst (1978), Verification of the optimal probabilistic basis of aural processing in pitch of complex tones. 176 - - M M M Mセ@ Der Zuhörer gestellt und derjenige virtuelle Unterton als Residuum ermittelt, der in all diesen Untertonreihen am häufigsten vorkommt. Ein besonderes Gewicht wurde dabei den Teiltönen eingeräumt, die zwischen 500 und 1.500 Hz (»optimaler Frequenzbereich«) 71 bzw. zwischen 500 und 2.000 Hz lagen (»dominanter Frequenzbereich«) 72 , da dieser Bereich auch für die Sprachverständlichkeit von besonderer Bedeutung ist, weswegen lange Zeit davon ausgegangen wurde, dass die Residualtonempfindung als Mustererkennungsphänomen aus der Sprachwahrnehmung entstanden ist. Die aktuellen Erkenntnisse der Neurobiologie71 sowie die Beobachtung, dass die Residualtonwahrnehmung eine allgemein unter Säugetieren verbreitete Fähigkeit ist, legen den Schluss nahe, dass es sich hier um die Wahrnehmung der Gesamtperiode einer Schwingung handelt (die selbst bei fehlendem Grundton erhalten bleibt), wie Schouten es schon 1940 in seinem grundlegenden Beitrag zu diesem Thema beschrieben hat. 74 Selbst die Residualtonwahrnehmung bei nicht völlig harmonischen Teiltönen (lange Zeit ein Phänomen, das für die »Pattern-Recognition-Models« sprach) wird durch aktuelle Beobachtungen der neuronalen Verarbeitung quasiperiodischer Signale mit Hilfe des Schoutenschen Modells der Periodicity 71 Pitch erklärbar. Eine Residualtonwahrnehmung kann in einem Bereich zwischen 50 und 800 Hz 76 bzw. 1.400 Hz 77 liegen, während die Teiltöne, die zur Erzeugung eines Residuums beitragen, zwischen 200 und 5.000 Hz liegen können. 78 Die Eigenschaften der residualtonbildenden Teiltöne werden dabei auf das Residuum übertragen: Dies gilt sowohl für Schwankungen in der Frequenz und Amplitude, nach denen sich das Vibrato und Tremolo des virtuellen Grundtons richtet, als auch für leichte Tonhöhenverschiebungen der virtuellen 71 E. Terhardt (1972), Zur Tonhöhenwahrnehmung von Klängen, S. 183. 72E. Terhardt (1998), Akustische Kommunikation, S. 349 und S. 355. 73 C.E. Schreiner/ G. Langner (1988), Periodicity coding in the Inferior Colliculus of the cat; H . Schulze/ H. Scheich/ G. Langner (1999), Periodicity coding in the auditory cortex. .74 J.F. Schnuten (1940), The perception of pitch, S. 290. 75 J.P. Fricke (2009), Neuronale Koinzidenz mit Unschärfe, S. 107; J.P. Fricke (2011), A statistical theory of musical consonance proved in praxis, S. 100. 76 R.J . Ritsma (1962), Existence region of tonal residue, S. 1226. 77 R. Plomp (1967), Pitch of camp/ex tones, S. 1532; nach E. Terhardt (1998), Akustische Kommunikation, S. 313 auch noch weit darüber hinaus. 78 R.J . Ritsma (1962), Existence region of tonal residue, S. 1224ff„ auch hier kann die Grenze noch weiter oben liegen: H.-P. Hesse (1974), Zur Tonhöhenwahrnehmung, S. 236-237. 177 Der Zuhörer Christoph Reuter 79 Grundtonhöhe bei starken Pegeländerungen oder bei Drosselung. Werden die Teiltöne, die das Residuum bilden, verdeckt, so verschwindet auch das Residuum, während eine Verdeckung in dem Frequenzbereich, in dem sich das Residuum befindet, der Residualtonwahrneh mung nichts an haben kann." 0 Lange Zeit (und manchmal auch heute noch) wurde der Residualton für gibt es ei ne Reihe von Unterscheidungs、。「セゥ@ ァ・ィ。ャエセョLB@ ein.en. dゥヲセイ・ョコエッ@ Phänomenen: Während der Residualbeiden diesen moghchke1ten zwJSchen Teiler der an seiner Entstehung gemeinsamer größter als ton N ョZゥ。エィ・ュセウ」@ kann (auch » Quotiententon « )," werden angesehen Teilfrequenzen 「・エセNィァ@ betragt die Frequenz des Differenztons eben die Differenz a us zwei am Gesamtklang beteiligten Teilfrequenzen. So benötigt der Differenzton für seine Entstehung nur zwei Teiltöne, während man für die Erzeugung eines Residualtons mindestens drei benötigt, die auch noch möglichst eng beieinander liege? sollten (im Idealfall in gleichen oder benachbarten Frequenzgruppen): Die Hz, 500 Hz und 600 Hz ergibt ein e eindeutige Mischung der !eiltöne セP@ N ァ@ bei 100 Hz, während dies, wenn die Frequenzgruppengョセ、エッ・ュヲゥオ breiten zu weit a useinander liegen, wie z.B. bei der Teiltonmisch ung 400 Hz, 1.700 Hz und 3.600 Hz, nicht der Fall ist, obwohl a uch hier der größte gemeinsame Teiler bei 100 H z li egt. Nach Guido F. Smoorenb urg" sollen a uch schon zwei oder nach Tamo Houtgast„ sogar schon ein Teilton für die Bildung ei nes Residualtons a usreichend sein, jedoch gelingt dies bei zwei Teiltönen nur unter bestimmten Konstellationen (wenn z.B. der kubische Differenzton die Rolle des dritten fehlenden Teiltons übernimmt) und die mit drei trainierten Versuchspersonen gewonnenen Ergebnisse Houtgasts für die Ausbildung von Residuen bei der Anwesenheit von nur einem Teilton (in verrauschter Umgebung) lassen sich mit Sicherheit nicht auf die allgemeine Hörwahrnehmung übertragen. 79 K. Wa ll iser (1969), Zusammenhänge zwischen dem Schallreiz und der Periodenton.höhe, S. 326; derse lbe (1969), Zur Unterschiedsschwelle der Periodentonhöhe, S. 333; E. Terhardt (1972), Zur Tonhöhenwahrnehmung von Klängen, S. 184. 80 W. Meyer-Eppler I H . .sendhoff / R. Rupprath (1959), Residua/ton und Formantton, S. 72; R.J. R1tsma (1962), Ex1stence reg1011 of tonal residue, S. 1224; J.C.R. Licklider in J.F. Schouten (1970), The residue revisited, S. 46 und 53; H. -P. Hesse (1974), Zur Tonhöhemvahrnehmung, S. 238. 81 schon bei H. Riemann (1875), Die objektive Existenz der Untertöne in der Schallwelle, S. 6f. oder H. Fletcher (1929), A space-time pattem theory of hearing, S. 313-316. 82 W. M eyer-Epp ler I H. Sendhoff / R. Rupprath (1959), Residualton und Formantton, S. 73. 83 G.F. Smoorenburg (1970), Pitch perception of two-frequency stimuli. 84 T. Houtgast (1976), Subharmonie pitches of a pure tone at low s/n ratio. 178 2.5.3 Lautstärkenwahr nehmung Hört man ein Cello im PPP im tiefen Register spielen (ca. 32 dB) und 85 daraufhin ein volles Orchester im (ff (ca. 100-135 dB), so kommt man nicht umhin, neben dem Klangfarbenuntersch ied (s.u.) auch einen starken Lautstärkeunterschied festzustellen. Wie bei der Tonhöhenempfindu ng arbeitet das menschliche Gehör auch bei der Lautstärkenempfind ung annähernd logarithmisch, wodurch es einerseits in der Lage ist, sehr große Luftdruckschwankun gen bis 200 µbar (20 Pa, 115.000 des atmosphärischen Drucks) zu verarbeiten und andererseits auch noch bei 0,0002 µbar (0,00002 Pa) minimale Unter87 schiede von bis zu 1 % richtig zu erkennen. Die Spanne zwischen den maximal und minimal wahrnehmbaren Schalldrücken (PmaxfPmin ) lässt sich also mit ei6 nem Verhältnis von 200/0 ,0002 = 10 beschreiben. Dies entspricht der Spanne zwischen den maximal und minimal wahrnehmbaren Schallintensitäten 16 12 2 (lmax/Imin jeweils in W/m ), die sich mit einem Verhältnis von 10-4/10- =10 12 6 darstellen lassen."' Um in der Spanne von 10 bzw. 10 sowohl kleine als auch große Untersch iede gut darstellen zu können, bedient man sich des Logarithmus' und bezeichnet seit den 1920er Jahren diese Rechenvorschrift zur Ermittlung des Schallpegels in Erinnerung an Alexander Graham Bell (einer der Erfinder des Telefons) mit Bel: 86 L (in Bel) beschreibt Hiermit lassen sich Schallpegel auf einer 12stufigen Ska la beschreiben. In der Praxis hat sich jedoch gezeigt, dass man für die Beschreibung von Scha llpegeln eine feiner aufgelöste Ska la benötigt, weswegen man a uch die Zehntel- 85 W . Gieseler / L. Lombardi I R. -D. Weyer (1985), Instrumentation in der Musik des 20. Jahrhunderts, S. 87. in der Praxis, S. 24. ウエゥャセ@ 86 W. Fasold I E. Veres (2003), Schallschutz und r。オュォ 87 Folgendes nach: S.S. Stevens / D. Hallowell (1938), Hearing, S. 29-31; E. Zwicker IR. Feldtkeller (1967), Das Ohr als Nachrichtenempfänger, S. 1-2; H. Hoffmann I A. Lüpke (1975), 0 Dezibel + 0 Dezibel = 3 Dezibel, S. 26ff; J.G. Roederer (2000), Physikalische und psychoakustische Grundlagen der Musik, S. 105-108; W. Yost (2007), Fundamentals of hearing, S. 25-27. 88 Das Verhältnis zwischen dem Pege l an der Hör- und an der Schmerzschwelle entspricht gewichtsrnäßig dem Verhältnis zw ischen einer Maus und fünf Elefanten. (P. Da llos (2006), Overview: Cochlear neurobiology, S. 4). 179 Der Zuhörer Christoph Reuter schritte in diesem Wertebereich berücksichtigte und dieses Vorgehen mit dem Zusatz »Dezi- « vor dem »Bel« symbolisierte: L (in Dezibel) beschreibt: Mit dem Scha llpegel als Maß lassen sich die gemessenen Scha lldrücke oder -intensitäten gehörrichtiger darstellen, indem ein gemessener Scha lldruck (Pgeml zu einem Bezugsschalldruck (p 0 = 0,0002 µbar) in Beziehung gesetzt und mit dem 20fachen Logarithmus multipliziert wird: Lcts = 20 • l og (PgemlPo ) セ@ 10 · l o g (I gem/ I o) Als Daumenregel lässt sich aufstellen, dass eine Verdopplung der Schallintensität einer Pegelzunahme um +3 dB entspricht, wenn also zum Cell o im PPP mit 32 dB noch ein zweites Cello (ebenfalls im PPP und mit 32 dB) im Unisono hin zugefügt wird, so erhöht sich der Gesamtpegel der beiden chorisch zusammenspiel enden Instrumente auf 35 dB." Ein Pegelunterschied von 0 einem dB ist (bei leisen Tönen) gerade noch wahrnehmbar, ' während ein Pegelunterschied von 10 dB subjektiv einer Lautstärkeverd opplung entspricht (s.u.)." Ruft man sich noch einmal das Bild der Hörschwelle (s.o.) ins Gedächtnis zurück, so wird schn ell deutlich, dass der Schallpegel im menschlichen Gehör je nach Freq uenz sehr unterschiedlich verarbeitet wird: Unterhalb von ca. 500 Hz und oberhalb von ca. 5.000 Hz wird das Gehör immer weniger empfindlich für Schallpegel, während es in der Senke zwischen 2.000 und 5.000 Hz besonders scha llempfindlich ist. Mit anderen Worten : Die Wahrnehmung von Schallpegeln ist im hohen Maße frequenzabhängig. Um dieser frequenzabhängigen Scha llempfindlichkeit des Gehörs einigermaßen gerecht zu werden, wurden für die Messtechnik sogenannte bewertete Schallpegel eingeführt, in denen die Pegelanteile verschiedener Frequenzbereiche unterschiedlich stark in die 92 Messung einbezogen werden: 89 H. Hoffmann I A. Lüpke (1975), 0 D ezibel+ 0 D ezibel = 3 Dezibel, S. 26ff. 90 J.P. Fricke I Chr. Louven (2008), Psychoakustische Grundlagen des Musikhörens, S. 421. 91 P.R. Cook (2001), Music, cog11ition, an.d computerized sou.nd, S. 77. 92 W. Fasold I E. Veres (2003), Schallschutz und Raumakustik in der Praxis, S. 50. 180 dBA: für die Messung leiser Schalle: die Pegelanteile zwischen 1.000 und 4.000 Hz werden geringfügig stärker bewertet, während die Pegel unterhalb von 1.000 und oberha lb von 4.000 Hz immer weniger stark bewertet werden. dß 8 : für die Messung von mittellauten Schallen: die Pegelanteile unterha lb von 500 und oberhalb von 4.000 Hz werden immer weniger stark bewertet. dBc: für die Messung von lauten Schallen: die Pegelanteile unterhalb von 63 und oberhalb von 8.000 Hz werden immer weniger stark bewertet. Diese bewerteten Schallpegel wurden auf der Grundlage der Kurven gleicher Lautstärke definiert (auch Isophonen oder Phonkurven), die Harvey Flet93 cher und Wilden A. Munson 1933 ermittelten: Fletcher und Munson legten hierfür einen Bezugston bei 1.000 Hz fest, bei dem der Schallpegel (in dB) der Lautstärke (LNin Phon) entspricht. Von dort aus ermittelten sie mit Hilfe von Versuchspersonen, welche Frequenzen bei welchem Schallpegel subjektiv gleich laut zum Bezugston erklingen. Es zeigte sich, dass besonders bei den tieferen Frequenzen die Schallpegel meist deutlich erhöht werden mussten, um subjektiv die gleic he Lautstärke zu erha lten, und dass die Kurven gleicher Lautstärke in ihrer Form mehr oder weniger der Hörschwelle entsprachen. 93 H. Fletcher / W.A. Munson (1933 ), Loudness, its definition , measurement, and calculation, S. 82. 181 Der Zuhörer Christoph Reuter 95 dB . vens 1936 die Verhältnislautheit (Loudness, N in sone) vor: Wie zur Ermittlung der l。オエウ¦イォセ@ galt auch hier キゥ・、セイ@ ・ゥセ@ fイ・アオョセ@ von :.000 Hz als Bezugston, für den bet 40 dB galt, dass er m semer Lautstarke nicht nur 40 Phon entspricht, sondern auch in seiner Lautheit einem (1) sone. Ausgehend von diesem Bezugston wurde nun mit Hilfe von Versuchspersonen ermittelt, ab wann etwas doppelt oder halb so laut ist etc. Es zeigte sich, dass die dadurch ermittelten Kurven gleicher Lautheit den Kurven gleicher Lautstärke (s.o.) in ihrem Verlauf sehr ähnelten und dass oberhalb von 40 dB ein Zuwachs von jeweils 10 dB einer Verdopplung des subjektiven Lautheitseindrucks ent6 sprach (also 40dB セ@ 1 sone, 50 dB セ@ 2 sone, 60 dB セ@ 4 sone etc.).9 97 Sowohl Stevens als auch Eberhard Zwicker'" schlugen gehörorientierte Lautheitsberechnungsverfahren für komplexe Schalle vor, wobei sich Verfahren, die auf dem Zwickerschen Terzpegeldiagramm aufbauen,9 9 als besonders gehörgerecht erwiesen haben, da in diesen sowohl die Frequenzgruppenbreiten (s.o.) als auch die Verdeckungseigenschaften des Gehörs berücksichtigt werden (s.u.). pbar 140 2000 120 200 100 20 80 2,0 60 0.2 40 qo2 20 a002 0 0,0002 Abb. 3: Kurven gleicher Lautstärke94 Besonders bei den tiefen Frequenzen zeigen sich die Kurven gleicher Lautstärke stark zusammengedrängt, d.h. dass hier schon bei sehr kleinen Schallpegelzuwächsen (in dB) der Anstieg der wahrgenommenen Lautstärke (in Phon) sehr groß wird. Dies hat für die Musikwahrnehmung einige Konsequenzen: Wird z.B. die Intensität eines Schalls, der sich aus tiefen und hohen spektralen Anteilen zusammensetzt (wie z.B. Orchestermusik), um 10 dB erhöht, so steigt die Lautstärke der tiefen Töne (bei ca. 100 Hz) um 20 Phon, die der spektralen Komponenten über 500 Hz aber nur um 10 Phon usw., d.h. mit zunehmender Lautstärke erscheint der Gesamtklang gleichzeitig auch subjektiv grundtöniger. Es wird schon an dieser Stelle deutlich, dass die Lautstärkewahrnehmung aufgrun.d ihrer Frequenz- und Pegelabhängigkeit sehr viel komplexer ist, als allgemem angenommen, zumal natürliche Schalle ja selten nur aus einzelnen Sinustönen bestehen, wie sie zur Ermittlung der Kurven gleicher Lautstärke eingesetzt wurden. Für eine gehörsadäquate Messung von natürlichen Klängen und Geräuschen sowie für die Ermittlung von gehörrichtigen Lautstärkeverhältnissen zwischen zwei verschiedenen Klängen schlug Stanley Smith Ste- 94 W.D. Keidel (1975), Physiologie des Gehörs, S. 375. 182 95 S.S. Stevens (1936), A scale for the measurement of a psychological magnitude: Loudness, S. 405-41 6. 96 E. Zwicker/ R. Feldtkeller (1967), Das Ohr als Nachrichtenempfänger, S. 129. 97 Z.B. S.S Stevens (1956), Calculation of the loudness of camp/ex noise, S. 807-832.; derselbe (1961), Procedure for calculating loudness: Mark VI, S. 1577-1585. 98 U.a. E. Zwicker/ G. Flottorp / S.S. Stevens (1957), Critical band width in loudness summation; E. Zwicker/ R. Feldtkeller (1967), Das Ohr als Nachrichtenempfänger. 99 E. Zwicker/ R. Feldtkeller (1967), Das Ohr als Nachrichtenempfänger, S. 184ff. 183 Der Zuhörer Christoph Reuter 100 セ[エM]Zャ」@ 、bセ t 80 L ⦅NZ セQGM」 BKMZ M NL セMエ ZMKセ M]K セM r---.j._-_._2() ャ@ --4----l--IO ZMp^BG]K セ MQ@ Mセャ 5 0 --- --1-- -........20 50 100 200 Hz 500 Abb. 4: Kurven gleicher Lautheit' 00 . tematisch mit Hilfe von Sinustönen und legten damit einen Grundstein für eine jahrzehntelang anhaltende Erforschung über den Zusammenhang zwischen der Innenohrmechanik und den Verdeckungseigenschaften des menschlichen Gehörs. '02 Die Verdeckung ist eine der grundlegendsten und wirksamsten Strategien der Informationsreduktion des menschlichen Hörapparats: In Anwesenheit von starken Schalten werden schwächere Schalle nur noch teilweise oder gar nicht mehr ausgewertet;' 0' ein im PPP spielendes Cello (s.o.) läuft Gefahr nicht mehr gehört zu werden, sobald das gesamte Orchester im fff dazu einsetzt (dass sich die abendländischen Musikinstrumente dennoch im Zusammenspiel meist nicht vollständig verdecken, sondern in den meisten Fällen gut differenzierbar nebeneinander hörbar bleiben, hängt mit dem - meist formantbedingten - Prinzip der partiellen Verdeckung und Verschmelzung zusammen (s.u.) [-7 2.5.4]). Durch einen Maskierer (d.h. einen lauten verdeckenden Schall) wird die Ruhehörschwelle zur Mithörschwelle (oder auch Verdeckungsschwelle) angehoben, und auch die Kurven gleicher Lautstärke werden entlang dieser neuen Mithörschwelle verbogen . Reize, die mehr als -4 dB unterhalb dieser Verdeckungsschwelle liegen, können nicht mehr wahrgenommen werden. '0' Mit Hilfe von solchen gehörorientierten Lautheitsberechnungsverfahre n ist es möglich, die subjektive Lautheit der Klänge von zwei Musikinstrumenten unabhängig von ihrem spektralen Gehalt und den gespielten Tonhöhen miteinander gehörorientiert zu vergleichen. Verdeckung Mit der Lautstärkewahrnehmung eng zusammenhängend ist das Phänomen der gegenseitigen Verdeckung von Klängen (auch Maskierung, engl. Masking): Carl Stumpf diskutierte schon 1890 im zweiten Band seiner Tonpsychologie'0' ausführlich die verschiedensten Möglichkeiten der Wahrnehmung, wenn ein leiserer Ton mit einem lauteren Ton zusammenerklingt: Je nach Lautstärke- und Tonhöhenunterschied wird der schwächere Ton vollständig verdeckt (also unhörbar), in seiner Lautstärke geschwächt (also gedrosselt) oder er erklingt völlig unbeeinflusst neben dem stärkeren Ton. R.L. Wege! und C.E. Lane untersuchten das Phänomen der Verdeckung 1924 sys- 100 E. Zwicker/ R. Feldtkeller (1967), Das Ohr als Nachrichtenempfänger, S. 129. 101 C. Stumpf (1890), Tonspsychologie, S. 219-229. 184 102 R.L. Wegei/ C.E. Lane (1924), The auditory masking of one pure tone by another and its probable relation to the dynamics of the inner ear. 103 E. Zwicker/ R. Feldtkeller (1967), Das Ohr als Nachrichtenempfänger, S. 55-66; H. Fast! I E. Zwicker (2006), Psychoacoustics, S. 61-82; W. Yost (2007), Fundamentals of hearing, S. 159-172. 104 J.P. Fricke (1978), Kompression zur Herstellung natürlicher dynamischer Verhältnisse, S. 104. 185 Der Zuhörer Christoph Reuter Dass die gegenseitige Verdeckung bzw. Drosselung stark von der Tonhöder Lautstärke und der spektralen Zusammensetzung des Maskierers (d.h. セ セ@ lauteren Schalls) abhängig .ist,. hatte Stumpf ebenfalls schon. erkannt: „Ma n müsste annehmen, dass die tiefen Töne den hohen mehr abziehen, als mgekehrt«. '0' Auch diese Stumpfsche Beobachtung, dass tiefe Töne hohe Töue mehr verdecken als umgekehrt, konnte in der zweiten Hälfte des 20. Jahrセオョ、・イエウ@ bestätigt werden: Betrachtet man den Verlauf der Mithörschwelle bei verschiedenen Tonhöhen und Schallpegeln, so erkennt man ab einem Maskierer von 60 dB, dass die Flanke der Mithörschwelle zu den höheren Frequenzen hin mit 30-60 dB/Okt. flacher ist '0" als die viel steilere Flanke zu den tieferen Frequenzen hin (bis zu 90 dB/Okt. 109 bzw. 200 dB/Okt.)." 0 I 100 200 Hz 500 2 5 ,_ lOkHz 20 Abb. 5: Kurven gleicher Lautstärke in der Hörfläche für das ebene Schallfeld bei Schmalbandstörrausch en von 60 dB' 0' Direkt oberhalb der Verdeckungsschwelle wird der Ton stark gedrosselt, d.h. durch die Anwesenheit eines weiteren Tons leiser empfunden als er es in einer ruhigeren Umgebung eigentlich wäre. Dieser Drosselungsbereich ist aufgrun d der am Maskierer zusammengestaucht en Kurven gleicher Lautstärke erstaunlich klein: lässt man einen schwächeren Ton neben einem stärkeren immer lauter werden, so gleicht sich die Lautstärke oberhalb der Verdeckung dermaßen schnell den Werten der unreduzierten Lautstärke an, dass der Aufholeffekt 20 Phon pro zwei dB erreicht. Innerhalb einer geringen dB-Spanne werden an dieser Stelle also enorme Phon-Bereiche durchlaufen, damit das Gehör oberhalb der Verdeckungskurve wieder normal arbeitet. Lässt man den vormals schwächeren Ton nun noch weiter ansteigen, so ist irgendwann der Umkehrpunkt erreicht, über dem der vormals schwächere Ton nun beginnt den ehemals stärkeren Ton in seiner Lautstärke zu drosseln und schließlich zu verdecken. '0" Die Strecke dieser beiderseitigen Beeinflussung ist relativ kurz: Je nach Stärke und spektraler Struktur der beteiligten Signale beträgt der Aufholbereich zwischen dem Erreichen der Mithörschwelle und der vollständigen Verdeckung des ehemals stärkeren Signals nur 15-25 dB (bei Geräuschen ist dieser Bereich nur ca. 6 dB groß). 105 Ebenda. 106 E. Zwicker / R. Feldtkeller (1967), Das Ohr als Nachrichtenempfänger, S. 150; J. Meyer (2004), Akustik und musikalische Aufführungspraxis, S. 21. 186 QP セ 、b セ セ セMN セ M MK KM t 801----1------t LT MイN MN ML セ L@ Mエᆳ \\.-----+----+ 60 - - Mセ Mゥ 20, ' セM 0,05 _ イ@ 0,1 ⦅エMQlGjセ@ 0,2 0,5 5kHz 10 20 fTAbb. 6.: Abhängigkeit der Verdeckungsflanken von der Tonhöhe"' 2 107 Alfred Mayer (1876, S. 329) in C. Stumpf (1890), Tonspsychologie, S. 229. 108 J.P. Fricke (1989), Der Klang der Musikinstrumente nach den Gesetzen des Gehörs, S. 281; J.P. Fricke (1993), Die Wechselwirhung von Mensch und Instrument im Zusammenspiel von Physik und Psychologie, S. 186. 109 E. Zwicker/ R. Feldtkeller (1967), Das Ohr als Nachrichtenempfänger, S. 61; E. Zwicker (1982), Psychoahustih, S. 40; J.P. Fricke (1989), Der Klang der Musikinstrumente nach den Gesetzen des Gehörs, S. 281; derselbe (1993), Die Wechselwirkung von Mensch und Instrument im Zusammenspiel von Physik und Psychologie, S. 186; H. Fast! / E. Zwicker (2006), Psychoacoustics, S. 59-60. 110 H. Fast!/ E. Zwicker (2006), Psychoacoustics, S. 64. 111 E. Zwicker/ R. Feldtkeller (1967), Das Ohr als Nachrichtenempfänger, S. 60. 187 Der Zuhörer Christoph Reuter Diese ungleiche Flankensteilhei t zu den höheren Frequenzen hin führt nicht nur dazu, dass in Anwesenheit von stärkeren tieferen Frequenzen schwächere höhere Frequenzen nur noch gedrosselt oder gar nicht mehr wahrgenommen werden, sondern auch, dass bei leisen Pegeln ein schwächerer höherer Ton noch neben einem stärkeren tieferen Ton gehört werden kann , während er beim gleichen Pegelunterschied bei lauten Pegeln unter die zu den höheren Frequenzen weit auslaufende Verdeckungssch welle des tieferen stärkeren Tons fä llt. 112 Mit anderen Worten : Inwieweit sich zwei zusammenspielende Musikinstrume nte gegenseitig klanglich verdecken oder drosseln, ist nicht nur abhängig vom jeweiligen Lautstärkeunter schied, sondern auch vom Tonhöhenunter schied und vom Ausgangspegel der beiden Instrumente. Hinzu kommt, dass sich je nach gespielter Dynamik auch die Klangfarbe eines Instruments stark verändert (s.u.). Nicht nur in spektraler, sondern auch in zeitlicher Hinsicht ist das Verhalten des Gehörs bei einem schwächeren Signal in Anwesenheit eines stärkeren sehr bemerkenswert , wenn man die Vorverdeckung und die Nachverdeckun g betrachtet: Bei der Vorverdeckung (auch Vorwärtsmaski erung, jedoch engl. Backward Masking)" 3 begegnet man dem Umstand, dass die Ruhehörschwel le schon kurz vor dem Einsetzen des verdeckenden Schalls zur Verdeckungshö rschwelle angehoben wird, so dass ein einige ms früher einsetzender schwächerer Schall unhörbar bleibt. Bei spektra l ähnlichen Schallereignissen handelt es sich hierbei um 10-20 ms, während dies bei spektral sehr unterschiedlich en Scha llereignissen nur wenige ms sind."' Da man sich hier innerhalb der ersten Integrationszeit des Gehörs befindet (s.o.) [-7 2.5.1 ], hat man es hier weniger mit einer prophetischen Gabe des Hörapparats zu tun, sondern eher mit einer gemeinsamen Reizverarbeitun g in diesem Zeitbereich, innerhalb dessen kurz hintereinander einsetzende Scha lle so verarbeitet werden, a ls würden sie gleichzeitig erklingen. Wird in Anwesenheit eines leiseren Scha lls der lautere plötzlich ausgeschaltet (d.h. bei einem abrupten Ende der Verdeckung), dann bleibt die Verdeckungssch welle in Abhängigkeit von der vorangegangen en Dauer des nun beendeten Schalls noch 2-5 ms auf dem gleichen Pegel, ehe sie bei der Nachverdeckun g (engl. Forward Masking) in einer der dritten Integra - 112 A. Stickel (2003), Faszination Gehör, S. 36. 113 E. Zwicker IR. Feldtkeller (1967), Das Ohr als Nachrichtenempfänger, S. 208-210; E. Zwicker (1982), Psychoalcustik, S. 94 und 98; H. Fast! I E. Zwicker (2006), Psychoacoustics, S. 82; W. Yost (2007), Fundamentals of hearing, S. 166. 114 E. Zwicker IR. Feldtkeller (1967), Das Ohr als Nachrichtenempfänger, S. 209-210. 188 . . ·t tsprechenden Dauer von 200-300 ms wieder zur Ruhehörschwel le tionsze1 e11 1 absinkt. 1.1 2 .s .4 Klangfarben wahrnehmun g mJ Hört man ein Cello einen tセョ@ im spie.len und gleich 、。イセオヲ@ 。セヲ@ ァャ・ゥ」 ィ セイ@ Tonhöhe, in gleicher Dynamik und 1m gleichen Schallpegel, 111 ァ ャ ・jc セ ・イ@ Art1k 1 t'on 1 und in gleicher Dauer ein Fagott, so kann man trotz a ll dieser Geu セ@ amkeiten einen klanglichen Unterschied zwischen diesen beiden Instrumems . . „ nten festste llen, wie er frühestens seit Gottfned We b er 1 82 2 i" un d spatesZセウ@ seit Hermann von Helmholtz gemeinhin a ls Klangfarbe beschrieben wird: Unter Klangfarbe verstehen wir diejenige EigenthümlicMwit, wodurch sich der Klang einer Violim einer Flöte, oder Clarinette, oder menschlichen Stimme unterscheidet, wenn alle diene von de 117 selbe Note in derselben Tonhöhe hervorbringen. Schlägt man knapp 100 Jahre später in der Acoustic セ・イュゥョッャNァケ@ der ュセイᆳa can Standards Association nach, so findet man dort die sehr ahnliche Def1111tion: 12.9 Timbre. Timbre is that attribute of auditory sensation in terms of which a listener can. judge that two sounds similarly presented and having the same loudness and pitch are dissimilar.m Diese Definition stellt die Teiltonzusamm ensetzung eines Klangs a ls Grundlage für unsere Klangfarbenem pfindung in den Vordergrund. Sie b.irgt dabei einige Schwierigkeiten , da sie zum einen nur sagt, was Klangfarbe mcht ist (etwas, was nicht Tonhöhe oder Lautstärke ist), und zum anderen besagt sie implizit, dass Klänge ohne Tonhö he keine Klangfarbe 「セウゥエコ・ョN G@ Wä.hrend Helmholtz zwar schon auf die typischen, den Klang begleitenden Gerausche sowie auf Einschwing- und Ausklingvorgän ge einging, diese aber für die Klangfarbenwa hrnehmung als nicht so wesentlich erachtete, 120 war es Carl Stumpf, der die Klangfarbe nicht nur 'im engeren (Helmholtzsche n) Sinne betrachtete (also in der Teiltonzusamm ensetzung), sondern auch 1m weiteren Q 115 E. Zwicker/ R. Feldtkel ler (1967), Das Ohr als Nachrichtenempfänger, S. 204-207; E. Zwicker (1982), Psychoakustik, S. 94 und 97; H. Fast! I E. Zwicker (2006), Psychoacoustics, S. 79 und 83-84. 116 Nach P. Jost (2001), Zum Begriff der »Klangfarbe«, S. 181. . 117 H. v. Helmholtz (1863 ), Die Lehre von den Tonempfindungen, S. 20. 118 American Standards Association (1960), American Standards Association terminology, S. 45. 119 vergl. a uch A.S. ßregman (1990), Auditory scene analysis, S. 92. 120 H. v. Helmboltz (1863), Die Lehre von den Tonempfindungen, S. 102, 114-117 und 118. 189 Der Zuhörer Christoph Reuter 1 1 1 111 Sinne (also Klangbeginn und -ende, Erzeugungsgeräusch e etc.)."' Darüber bewusst, dass die Klangfarbenerzeugu ng sehr キッセャ@ hinaus war sich sエオュセヲ@ und -wahrnehmung emes Mus1kmstruments besonders von der gewählten Tonhöhe und Lautstärke abhängig ist, weswegen er - und auch seine Schüler wie z.B. Wolfgang Köhler (1909), Carl Erich Schumann (1929) und deren Schüler wie z.B. Hans Peter Reinecke (1953), Jobst Pricke (ab 1965) u.a. - bei der Untersuchung der Klänge von Musikinstrumenten stets mehrere verschiedene Tonhöhen wählten (Quint- oder Oktavabstände oder gleich vollständige Ton leitern in verschiedenen Dynamikstufen) . Helmholtz' Lehre von den Tonempfindungen wurde in der 3. Auflage 1885 von Alexander J. Ellis ins Englische übersetzt, Stumpfs Tonpsychologie (1883 und 1890) und Die Sprachlaute (1826) jedoch nicht (ebenso wen ig wie die Werke seiner Schüler und Nachfolger). So entgingen der englischsprachigen Klangfarbenforschu ng, die nach dem Zweiten Weltkrieg bis heute das Wissenschaftsgesche hen in diesem Bereich maßgeblich bestimmt, entscheidende Details zur Klangfarbenwahrneh mung, welche erst dann besonders auffa llen, wenn man die Klangfarbe ein es Musikinstruments auf verschiedenen Tonhöhen- und Dynamikstufen betrachtet: Die Klangfarbenwa hrnehmung von Musikinstrumenten wird besonders durch feste Formantbereiche bestimmt,'" deren Entstehungsweise und Verhalten bei Dynamik- und Tonhöhenwechseln weitestgehend geklärt istw und deren klangliche Wirkung in völliger Übereinstimmung mit den Gesetzmäßigkeiten der Auditory Scene Analysis [ セ@ 2.6) und den lnstrumentationsreg eln der letzten Jahrhunderte beschrieben werden kann (s.u.) . "' Es wird an dieser Stelle schon deutlich, dass sich die englischsprachige Klangfarbenforschun g in einigen grund legenden Details von der deutschspra125 weswegen man diese beiden Forschungsrichtunge n chi?en オョエ・イウ」セゥ、L@ gleichermaßen 1m BIICk behalten und sie kritisch vergleichend betrachten soll te. Es war Carl Stumpf, der 1890 seitenweise die »Mannigfaltigkeit der Beg- セイォ・ョエゥウ@ und .damit ・セョN@ . riffe« zur Klangfarbenbeschre ibung 。 オセャゥ ウエセ・ Satz elz1t1erten v1 dem m 1951 LICklider Robnett wegnahm, die Joseph Carl vorammenfasste: »[„.] it can hardly be possible to say more about timbre 127 that it is a >multidimensional < dimension. « So wurde frühestens seit コセョ@ und spätestens seit Licklider versucht, die verschiedenen Dimensionen セエオューヲ@ der Klangfarbe und ihrer Wahrnehmung in den Griff zu bekommen. Schon 29 bei Carl Stumpf'" und spätestens durch Albert Wellek' und Gerhard Albersheim'10 wurde mit dem Begriff der »Helligkeit « eine grundlegende Dimension der Klangfarbe beschrieben. Diese zeigte sich auch, a ls Gottfried von Bismarck (ab 1971) mit Hilfe von 35 verschiedenen Teiltonzusammenset zungen auf einer Grundfrequenz von 200 Hz l111d einem Polaritätsprofil von 30 AdN ョァ@ die kャ。ョァヲイ「・キィセュオ jektiv-Gegensatzpaa ren die Dimensionen. ヲセ@ 11 1 herausfinden wollte. Von den 30 Ad1ekt1v-Gegensatzpaaren zeigten sICh zwei besonders geeignet für die Klangfarbenbeschrei bung: Schärfe (stumpf - scharf): Je höher das spektra le Energiemaximum im Spektrum des Klangs angesiedelt ist, a ls desto schärfer wird セイ@ w.ahrgenommen. Die Schärfe entspricht der Stumpfschen/Wellek schen Helligkeit. Kompaktheit (kompakt - diffus): Je weniger der Klang zu einem Geräusch hin tendiert, d.h. je harmonischer, einfacher sein Teiltonaufbau ist, a ls desto kompakter wird er empfunden. Die Schärfe (sharpness) etablierte sich sowohl a ls eine der psychoakustischen Größen zur Beschreibung des sensorischen Wohlklangs (Richtwert: 1 acum bei einem Schma lbandrauschen um 1 kHz und 60 dB und einer Bandbreite von 160 Hz) rn a ls auch a ls Klangfarbendimensi on in den seit ca. 1975 existierenden >Timbre Spaces<: Bei diesen von John Grey rn eingeführten, über Ähnlichkeitsentschei dungen via multidimensionaler Ska lierung ermittelten dreidimensiona len Darstellungen von Klängen ergeben sich meist drei Dimensionen der Klangfarbe: Schärfe (»sharpness«, »brightness « oder »spectral 121 C. Stumpf (1826), Die Sprachlaute, S. 390. 122 C. Stumpf (1826), Die Sprachlaute, S. 382 (»Nebenformanten«); E. Schumann (1929), Physik der Klangfarben. 123 E. Schumann (1929), Physik der Klangfarben; J.P. Fricke (1975), Formantbildende Im/mlsfolgen bei Blasinstrumenten; W . Voigt (1975), Untersuchungen zur Formantbildung; W. Auhagen (1987), Dreiecksimpulsfolgen als Modell der Anregungsfunktion von Blasinstrumenten. 124 Ch r. Reuter (2000), Verschmelzung und partielle Verdeckung, S. 176-177; derse lbe (2002), Klangfarbe und Instrumentation. 125 Zu den Folgen auch Chr. Reuter (2003), Wie und warum in der Geschichte der Klangfarbenforschung meistenteils am Klang vorbeigeforscht wurde. 126 C. Stumpf (1890), Tonspsychologie, S. 530. 127 J.C.R. Licklid er (1951), Basic correlates of the auditory stimulus, S. 1019. 128 C. Stumpf (1890), Tonspsychologie, S. 530. 129 A. Well ek (1934), Die Aufspaltung der »Tonhöhe« in der Hornb ostelschen Gehörpsychologie, S. 490-492. 130 G. Albers heim (1939), Zur Psychologie der To n- und Klangeigenschaften. 131 G. v. Bismarck (1972), Extral<tion und Messung von Merkmalen der Klangfarbenwahrnehmung stationärer Schalle. 132 H. Fast!/ E. Zwicker (2006), Psychoacoustics, S. 239. 133 J.M. Grey (1975), An exploration of musical timbre; Derselbe (1977), Multidimensional perceptual scaling of musical timbres. 190 QRV@ 191 Christoph Reuter centroid«), Klangbeginn/Einschwingzeit (»attack time «, »rise time« oder »attack quality «) und Fluktuationen im Klang (»spectral flux «). Da diese timbre spaces viele Möglichkeiten zum Klangfarbenvergleich mit im 3D-Raum schwebenden Instrumentennamen anschaulich und intuitiv in einem Bild zusammenfassen, werden sie häufig in Lehrbüchern und Artikeln zum Thema Klangfarbe abgebildet. Der Aussagewert dieser Klangräume ist jedoch gering, wenn man zum einen bedenkt, wie sie zustande kommen und wenn man zum anderen diese Räume miteinander vergleicht: Es werden nur Klänge auf einer einzigen Tonhöhe miteinander verglichen (jeweils ein Klang pro Instrument), die Klänge sind entweder stark datenreduziert und extrem kurz oder völlig synthetisch, Artikulation und Spieldynamik werden so gut wie nie in die Uberlegungen einbezogen. u• Ein Vergleich dieser Klangräume' 3' ist entsprechend ernüchternd und zeigt, dass eine Schwalbe noch keinen Sommer macht geschweige denn ein einziger Ton ein ganzes Musikinstrument. ' Wenn man hingegen den Klang eines Instruments in allen erreichbaren Tonhöhen und Dynamikstufen analysiert, entdeckt man besonders in den Spektren von Blasinstrumenten stabile, tonhöhenunabhängige Frequenzbereiche, in denen die Teiltonamplituden besonders stark sind und die deswegen den Instrumentenklang klanglich prägen: diese festen spektralen Maxima, von denen meist mehrere einen Instrumentenklang charakteristisch färben, werden als Formanten, Formantstrecken oder Formantbereiche bezeichnet. 11(, Der Begriff ga lt ursprünglich einem vom Grundton unabhängigen und aufgrund seiner besonderen Stärke die Klangfarbe eines Vokals bestimmenden Teilton. ' 17 Carl Stumpf konnte zeigen, dass es sich bei Formanten um grundtonunabhängige, klangprägende Teiltonbereiche handelt, deren Wirksamkeit er nicht nur für die Sprachlaute, sondern auch bei Musikinstrumenten nachweisen konnte. '" Carl Er_ich Schumann konnte in seiner »Physik der Klangfarben« (1929) 111cht nur die klangprägenden Formantbereiche der einzelnen Musikinstrumente herausfinden (Formantstreckengesetz), sondern er konnte auch zeigen, 134 VgL zu m »timbre space« auch Chr. Reuter (1995), Der Einschwingvorgang nichtperkussiver Musikmstrumente, S. 177ff.; derselbe (2003 ), Wie und warum in der Geschichte der Klangfarbenforschung meistenteils am Klang vorbeigeforscht wurde. 135 .z.B. lM. Grey (1975), An Exploration of musical timbre, S. 62; C. Krumhansl (1989), Why is .mus1cal timbre so hard to understand? S. 47; S. McAdams (1999), Perspectives on the contribution of t1mbre to musical structure, S. 89. 136 ].P. Fricke (1994), Ein Plädoyer für die Formanten, S. 66-77; ]. Meyer (2008), Musikalische Akustik, S. 128. 137 L. H ermann (1894), Phonophotographische Untersuchungen, S. 267. 138 C. Stumpf (1826), Die Sprachlaute, S. 382 (»Nebenformanten«). 192 Der Zuhörer dass sich bei stärkerer Tongebung das Formantzentrum (also das Amplitudenmaximum innerhalb eines Formantbereichs) zu höheren Teiltönen hin verlagert und das ウー・セエイ。ャmクゥュオ@ im eクエイ・ュヲセhNH。ャウッ@ i1?" (ff) sogar auch von einer tieferen auf eme hohere Formantstrecke hmuberspnngen kann (Formantenverschiebungs- und Sprunggesetz).' 19 Mit anderen Worten: Die Wahrnehmung der musikalischen Dynamik ist weniger eine Frage des Schallpegelunterschieds, sondern eher eine Frage der Klangfarbe: im f klingt ein Klang einfach heller als im p. Dies gilt sowohl für Musikinstrumente, bei denen die Formantstru ktur besonders ausgeprägt und dadurch besonders klangprägend ist (wie bei den meisten Blasinstrumenten), als auch für Instrumente, deren Spektren so gut wie keine festen Formantstrukturen aufweisen (wie z.B. die Schlag- oder Streichinstrumente). '' 0 Das Formantkonzept bietet eine Reihe an Erklärungsmöglichkeiten für die Klangfarbenwahrnehmung, die mit den Empfehlungen der Instrumentationslehren und mit den Ergebnissen der Auditory Scene Analysis [ セ@ 2.6] übereinstimmen: "' Ein klanglich wahrnehmbarer Wechsel ins hohe Register findet dann statt, wenn der Grundton eines Instruments den ersten Formantbereich erreicht. Ab hier wird das Instrument meist weniger gut erkannt, und es verliert seine klangliche Charakteristik. Klangfarben mit übereinstimmenden Formantbereichen (wie z.B. Horn und Fagott) klingen ähnlich, verschmelzen gut im simultanen Zusammenspiel und bilden beim alternierenden Wechsel im sukzessiven Zusammenspiel den Eindruck einer einzigen zusammenhängenden Melodie. Klangfarben mit stark verschiedenen Formantbereichen (wie z.B. Horn und Oboe) klingen unähnlich, verdecken sich nur partiell im simultanen Zusammenspiel, d.h. sie sind gut aus dem Gesamtklang heraushörbar und bilden beim alternierenden Wechsel im sukzessiven Zusammenspiel den Eindruck von zwei ineinander verschränkten Melodien. Neben den Formanten gibt es 'nur wenige andere eindeutige spektrale Erkennungsmerkmale, die zur Erkennung eines Instruments beitragen (z.B. überwiegend ungeradzahlige Teiltöne bei gedackten Orgelpfeifen oder Klarinettenklängen im tiefen Register, die Anwesenheit von unharmonischen Teiltönen bei Glockenklängen oder der eher geräuschhafte Charakter von Schlaginstrumenten). Jedoch gibt es im Zeitbereich eine Reihe an instrumententypi- 139 C. Schumann (1929), Physik der Klangfarben, S. 15-18, 98 und 100. 140 H.-P. Reinecke (1953), Ober den dopp elten Sinn des Lautheitsbegriffs. 141 Chr. Reuter (2002), Klangfarbe und Instrumentation, S. 21; derselbe (2004), Von der Physik der Klangfarben zur Psychologie der Klangfarben, S. 114-118. 193 Christoph Reuter ウセ ィ ・ョ@ mセイォュ。ャ・L@ die ebenfa lls zur Klangfarbenerk ennung beitragen, wie z.B. (besonders, wenn sie durch typische Vorläuferimpul se bei Blechblas111strumenten, Anstrichgeräusc he bei Streichin strumenten Anschlagsgeräusch e bei Klavieren bzw. Schlaginstrume nten oder vッイャ¦オヲ・セ￶ョ@ geprägt sind), 142 Überga ngsvorgä nge (wie z.B. bei_Flöten ッ 、 ・セN@ oイァ・ャセヲゥョ@ 143 gleitende Ton hoh en bei Posau ne oder Violine), typi sche Vibrati oder Tremoli ,"' typi sche Spielgeräusche (z.B. Pedal- oder Klappengeräusc he) sowie klischeehafte Spielfiguren (wie z.B. Fa nfarenmotiv ik bei Blechblasinstru menten ' Doppelschlagfi gur bei der Klarinette, Oboenkantilene etc.).' 45 eイセウ」ィキゥョァカッ⦅。・@ 142 Chr. .Reuter (1995), Der Einschwingvorgang nichtperkussiver Musikinstrumente. 143 H . Rosmg (1966), Objektiver Klang und subjektiver Klangeindruc/:i. der Musi/:i.instrumente. 144 J. Meyer (2004), A/:i.ust1/:i. und musi/:i.alische Aufführungspraxis , S. 29 1. 145 Chr. Reuter (1996), Die auditive D is/:i.rimination von Orchesterinstrumen ten, S. 169ff. 194 2. 6 Auditorisch e Szenenanalyse Von Michael Oehler Bereits 1863 beschreibt Herma nn von H elmholtz ein Wahrnehmung sphänomen, dem wir in verschiedenen Varianten tagtäglich begegnen. Er schildert die Vorgänge in einem Tanzsaal, wo sich die Klänge von Musikinstrume nten, die Stimmen sich unterha ltender Menschen sowie die unterschiedlich sten Gerä usche mischen, a lso »ein Durch einander der verschiedenarti gsten Bewegungen, welches man sich kaum verwickelt genug vorstellen kann «, und dennoch »ist das Ohr im Stande alle die einzelnen Bestandtheile eines so verwirrten Ganzen von einander zu sondern «.' Die Fähigkeit (und zugleich das Problem) des Wahrnehmungs apparats von Menschen und Tieren, Klänge und Geräusche zu trennen und separat zu verarbeiten, wird als >Auditorische Szenenanalyse< (englisch: >Auditory Scene Analysis<, Abk. >ASA< ) bezeichnet. Der Terminus ist angelehnt an die >visuelle Szenenana lyse<, die zwischen 1960 und 70 besonders durch Forschung am Massachusetts In stitute of Technology bekannt wurde. 2 Obwohl der Begriff der ASA als solcher erst um 1984 von Albert S. Bregman 3 geprägt wurde und in den folgenden Ja hren eine rasante Verbreitung' erfuhr, ga b es schon lange vorher verschiedenste Ansätze, welche die der auditorischen Szenenanalyse zugrunde liegenden Mechanismen zu ergründen und erklären versuchten. So fragte sich z.B. Colin E. Cherry 1953, wie eine Maschine beschaffen sein müsste, die es analog dem menschlichen a uditori sc hen System schafft, a us einer Stimmen-Mixtu r mit mehreren gleichzeitig sprechenden Personen einem 5 spezifischen Sprecher zu fol gen. Ja hrzehnte später beschäftigt sich nun der Bereich der Computational Auditory Scene Analysis (CASA) u. a. dam it, die von Cherry aufgeworfenen Frage zu beantworten. Zentraler Ansatz der CASA • ist es, das Problem der auditiven Szerienanalyse mit Hil fe computergestüt zter Modelle zu lösen, die sich a n der menschlichen Wahrnehmung orientieren." 1 H. v. Helmholtz (1863), Die Lehre von den Tonempfindungen, S. 42. 2 A. Gu zman (1969), Decomposition of a visual scene into three-dimensional bodies; P.H. Winston (1975), The psychology of computer vision . 3 A.S. Bregman (2008a), Auditory scene analysis. 4 A.S. Bregrnan (1990), Auditory scene analysis. 5 C.E. Cherry (1953), Some experiments on the recognition of speech, S. 976. 6 D.F. Rosen thal I H.G. Okuno (1998), Com/JUtational auditory scene analysis; D. Wang (1996), Primitive auditory segregation; D. Wang I G.J. Brown (2006), Computational auditory scene analysis. 195 Auditorisc he Szenenanalyse Michael Oehler Dies steht im Kontrast zu einer Vielzahl an ingenieurstechnischen Ansätzen die ebenfalls die einzelnen Klangquellen einer auditiven Szene zu trennen カ・イセ@ 7 suchen, jedoch dabei deutlich ergebnisor ientierter vorgehen. So kann man sich leicht vorstellen, dass mit Hilfe einer Vielzahl spezifisch angeordne ter (>aku_stische Kamera<oder >Mikrofonarray< genannt), Schallquellen セゥォイッヲョ・@ mit unterschiedlichen räumlichen Positionen aufgrund der Laufzeitunterschiede der Signale sehr viel einfacher geortet werden können als mit nur zwei 8 Mikrofone n bzw. zwei Ohren. Ein solcher Ansatz orientiert sich jedoch nicht an der menschlichen Wahrnehm ung und kann daher auch nicht der CASA zugeordne t werden. Zur Beschreibung der Phänomen e der ASA wurden häufig Gestaltfak toren und auf die Musikwah rnehmung der Ge9staltpsychologie ィ・イ。ョセコッァ@ セオウ@ der Gleichartigkeit, der Nähe, Faktoren die z.B. ubertrage? . Darunter. fallen der Prägnanz oder Übernheit, Geschlosse der , Schicksals en des gememsam folgenden Abschnitten den in der Viele erbarkeit. Transponi und tät summativi der Gestaltprinzipien Hilfe mit sich lassen ASA der @ セ ・ Z Q ッ ョ ¦ ィ p besproc.henen Klänge mit gleicher laute gleich Zwei erklären. (teilweise) bzw. 「・ウ」ィセQョ@ Klangfarb e usw. werden z.B. aufgrund des Faktors der Gleichartigtセョィ_・L@ als zusammen gehörend wahrgenom men als zwei Klänge mit sehr keit viel セィ・@ Lautstärke und gleicher Tonhöhe, Klangfarb e etc. Allerdings オョエ・イウ」ィQ、ャゥセ@ sollte man beim Transfer der Gestaltprinzipien auf die auditorisch e Wahrnehmung immer berücksichtigen, dass erstere hauptsächl ich im Bereich der Sehwahrn ehmung entwickelt wurden und auf dynamisch e Prozesse wie sie in 0 stattfinden , nur begrenzt angewend et werden können. ' Eine Mögセ・イ@ mNオウゥセ@ erung Differenzi nde grundlege lichke1.t diesem Pr?blem zu begegnen, ist eine en. Mechanism w1rkenden ASA der bei der 2.6.1 Primitive und schemab asierte Prozesse Gruppieru ng des an den Ohren eintreffenden akustischen komp osition und f' d ·· k d d De . 1 leisten. Gruppieru ng bedeutet as mit er De ompos1t10n statt 111 ender Teile des Signals, die von den v・イ。「ゥエセョァウーッコ_@ セァ。オZュ・ョヲ@ セキQM ィセ・イN@ オセNエ・イウ」ィ@ als zusammen gehörend erkannt .wurden. bイ・ァュ。セ@ pnm1t1ven die Wahrend . < Prozessen 1erten schemabas • • sc hen >Prl.mitiven bzw • werden, sondern. ausschheßdieses Konzepts mcht erlernt innerhalb esse b Proz die schema asierten Prozesse wemgstens zum 1.IC h angeboren sind, könnend 12 . Teil als erlernt betrachtet wer en. Zur Kategorie der primitiven Prozesse zählt z.B. die Gruppieru ng der kustischen Informatio nen aufgrund von Ähnlichkeiten. Analog zu den von Grupp!erungsin der visuellen Modalität 「・ウ」ィイゥョセ@ セ ・ウ エ。ャーウケ」ィッァ・ョ@ zwei Instruprinzipien, " lassen sich beispielsweise in der .a uditiven mッ、。ィエセ@ mente in einem Orchester besser unterscheiden, wenn Melod1e, Klangfarbe etc. unähnlich sind." Schemabasierte Prozesse sind zwar u.U. ebenfalls angeboren , können jedoch im Laufe der Zeit modifiziert oder über Lernprozesse sogar gänzlich neu kreiert werden. Ein einfaches Beispiel für einen solchen schemabas ierten Prozess ist die Fähigkeit des Menschen , in einem Raum mit mehreren gleichzeitig stattfindenden Gespräche n selektiv einzelnen Gespräche n zu folgen. Dabei sind u.a. der erlernte Wortschat z und die internalisi erten syntaktisc hen Strukturen von Bedeutung. Jedoch lässt sich bereits anhand des letzten Beispiels erkennen, dass häufig nicht trennschar f zwischen involvierten primitiven und ウ」ィ・ュ。「ゥセイエョ@ Prozessen unterschieden werden kann . Denn außer den erlernten semant1schsyntaktischen Strukturen sind vermutlich auch angeboren e primitive Prozesse für die Gruppieru ng des Sprachsignals verantwor tlich, wie z.B. die Gruppierung aufgrund des Sprachmel odieverlau fs" oder aufgrund der räumlichen Information.' " Idealerweise ergänzen sich primitive und schemabas ierte Prozesse 17 bei der Analyse einer auditorisc hen Szene. Zu unterscheiden sind in diesem Kontext zunächst zwei Arten der Informationsverarbe itung bzw. zwei sich ergänzende (neuronale) Prozesse, welche die 7 D. Wang IG.]. Brown (2006), Comfiutational auditory scene analysis, S. 10. 8 H . Krim IM. V1berg (1996), Two decades of array signal processing research. 9 A.S. füegman (1990), Auditory scene analysis, S. 196-202; derselbe(2008a), Audito1y scene analys1s, S. 866; W.J. Dowling (1986), Music cognition, S. 154-155; Chr. v. Ehrenfels (1890), Ueber Gestaltqualitäten, S. 1890; M. Wertheimer (1923), Untersuchungen zur Lehre von der Gestalt, S. 308-337. 10 Chr. Reuter (1996), Die auditive Diskrimination von Orchesterinstrumenten, S. 39. 196 A.S. Bregman (1990), Auditory scene analysis, S. 38. A.S. Bregman (2008b), Auditory scene analysis, S. 4. B. Julesz / 1.J. Hirsh (1972), Visual and auditory perception. C.J. Darwin / R.P. Carlyon (1981), Auditory grouping; Chr. Reuter (1996), Die auditive Diskrimination von Orchesterinstrumenten. 15 J.P.L. Brokx / S.G. Nooteboom (1982), Intonation and the perceptual separation of simultaneous voices; C.]. Darwin/ R.P. Carlyon (1981), Auditory grouping. 16 M.L. Hawley / R.Y. Litovsky / H.S. Colburn (1999), Intelligibility and localization of speech signals. 17 A.S. ßregman (1990), Auditory scene analysis, S. 40. 11 12 13 14 197 Auditorische Szenenanalyse Michael Oehler 2.6.2 Stream Segregation Unabhängig von der Art der involvierten mentalen Prozesse muss unser auditorisches System im Rahmen der ASA zwei grundlegende Probleme lösen: Es muss einerseits in einem komplexen akustischen Signal unterschiedlich e Quellen, z.B. die unterschiedlich en Instrumente eines Orchesters, gruppieren (>Stream Segregation<), und es muss andererseits den separierten Quellen über einen bestimmten Zeitabschnitt kontinuierlich folgen. Dabei werden akustische Ereignisse in verschiedene perzeptuelle Einheiten, sogenannte >auditorische Streams<, gruppiert. In anderen Worten: Ein auditorischer Stream ist die perzeptuelle Interpretation eines komplexen akustischen Signals, die durch die ASA produziert wird." Verschiedene auditorische Streams können zur gleichen Zeit auftreten, was zusätzlich zur Segregationslei stung die Problematik der Aufmerksamke itsfokussierung aufwirft." Ist es überhaupt möglich, mehreren auditorischen Streams gleichzeitig zu folgen (geteilte Aufmerksamke it), oder kann immer nur ein Stream zur gleichen Zeit beachtet werden (selektive Aufmerksamke it)? Falls letzteres zuträfe, wäre es trotzdem denkbar, dass im auditorischen System auf einer vorbewussten Ebene mehrere Streams gleichzeitig verarbeitet werden. Die überwiegende Mehrzahl der Studien kommt jedoch zum Ergebnis, dass nur einem einzigen auditorischen Objekt zur gleichen Zeit gefolgt werden kann.' 0 Ein Überblick über unterschiedliche Theorien in diesem Bereich findet sich bei Neumann,'' Spence und Santangelo,'' Wood und Cowan'' oder Yost." Jeder Stream kann, ähnlich einem visuellen Objekt, verschiedene Eigenschaften in sich vereinen. Zum Beispiel hat ein Stream zu einem Zeitpunkt eine bestimmte Tonhöhe, Lautstärke sowie eine spezifische spektrale Struktur und kommt aus einer bestimmten Richtung.'' Für jeden dieser Parameter lassen sich Regeln bzw. Heuristiken hinsichtlich deren Einfluss' auf die Organisation der Streams ableiten. Um dies besser nachvollziehen zu können, bietet es sich an, zunächst zwei Kategorien der Gruppierung von auditorischen 18 S. McAdams / A.S. Bregman (1985), Hearing musical streams. 19 G. ten Hoopen (1996), Auditive Aufmerkamlwit. 20 B.G. Shinn-Cunningham (2008), Object-based auditory and visual attention. 21 0. Neumann (1996), Theorie11 der Aufmerksamkeit. 22 C. Spence /V. Santangelo (2010), Auditory attention. 23 N.L. Wood / N. Cowan (1995), The cocktail party phenomenon revisited. 24 W. Yost (1997), The cocktail party effect: 40 years later. 25 A.S. Bregman (2008a), Auditory scene analysis, S. 861. 198 · unterscheiden: Die sequenzielle Gruppierung und die simultane Streams zu · · 1 · ng Während die sequenzielle Gruppierung eme tempora e IntegraGrupp1eru · . .. · · · · h. h 1·· f · 1. · fso vorrangig uber die D1mens10n Zeit gesc 1e t, ver au t d.1e s1mu uon ist, a . D. · tane Gruppierung als spektrale Integration über die Frequenz- 1mens1on. Sequenzielle Gruppierung Die sequenzielle Gruppierung kann durch eine Vie.lzahl v.on Faktoren 「・ゥセM erden. Ob aus einem an den Ohren des Horers e111treffenden akust1fl uss t W h"angt sehen Signal ein oder mehrere auditorische Streams ge b"ld 1 et wer d セョL@ von der zeitlichen Struktur, dem Frequenzabstan d, dem Melod1everlauf, セ Zᄋ l。オエウ¦イォ・L@ der Klangfarbe, der Asynchronizitä t der Einsätze, der Lokah. sowie von Aufmerksamke itsprozessen ab. Welchen Faktoren welche satton .. . . h. dl . h Bedeutung zukommt, ist je nach Signal und Hors1tuat1on untersc te 1c . Zeitliche Struktur und Frequenzabstand Frühe Untersuchunge n zur ウ・アオョ L [ゥ・ャセ@ iョエセァイ。ゥッN@ finden ウゥ・セ@ 「セゥ@ Miller (1947),' 6 Miller und Heise (1950) sowie 「セQ@ Dowlmg. (1968). -'."f1ller.. und Heise beschreiben das Phänomen der Gruppierung コキ・セイ@ セオォコ・ウQカ@ ーイセウ・ョᆳ tierter Töne in Abhängigkeit des Frequenzabstan ds. Mit emer Modulat10n.sfrequenz von 5 Hz wechselten sich ein in _・セ@ Frequenz konstan.ter ({,) und e111 in der Frequenz variabler Ton ((J ab. Wie m Abb. 1 schematisch 、セNイァ・ウエャ@ ist, ergeben sich ab einem bestimmten fイ・アオョコ。「ウエセ、@ セ・イ@ 「セQ、・ョ@ セッョ@ zwei Melodien bzw. zwei auditorische Streams. Nähern steh die beiden Tone 111 、セイ@ Frequenz aneinander an, wird aus den beiden セ・ャッ、ゥNョ@ plötzlich nur ョセ」ィ@ em auditorischer Stream. Die Grenze (!:::.{), an der steh die Wahrnehmung andert, bezeichnen Miller und Heise als Trillerschwelle. ' 9 Sieht man einmal davon ab, dass auch die Modulationsfre quenz Einfluss auf die Trillerschwelle hat (was Miller und Heise jedoch bereits erwähnen), so findet man die tイNゥャ・ウセィZv@ mit einer Modulationsfre quenz fmoct=5 Hz relativ lageunabhäng1g bei e111em Verhältnis von t:.f /f 1 = 0,15, was einem Intervall von etwas weniger als einer kleinen Terz entspricht. Lediglich in den höheren Frequenzen nimmt das Verhältnis ab und die Varianz der Perzepte der Versuchsperson en zu. 26 G.A. Miller (1947), The masking of speech. 27 G.A. Miller / G.A. Hcise (1950), The tri// threshold. 28 W.J. Dowling (1968), Rhythmic fission and perceptual organization. 29 G.A. Miller / G.A. Heise (1950), The trill threshold, S. 637. 199 Auditorisc he Szenenanalyse Michael Oehler . ,= Zwei audilorische Streams = „ Ein auditorischer Stream N :c ..: EZl ... d r Abstand größer werden die beiden Töne in zwei auditorisch e · d er Sc hwe II enverstant · 1st eregiert. Zwischen '100 und ungefähr 200 ms ist Strearns seg b d bl auf der TCB besonders ウエ。セォ@ vom Intervalla ウエセョ@ a .. 1ang1g. 1n Abb„. 2 er\ deutlich dass dieser von knapp drei auf uber 14 Halbtone ankennt man , steigt. · _m N c: QJ 14 :J セ@ u.. 12 10 QJ 2 3 4 5 6 7 8 Zeit in Sekunden Abb. 1: Schematische Darstellung der Trillerschwelle nach Miller und Heise' 0 mit einer Modulation sfrequenz von f moct=5 Hz. lセッョ@ P.A.S. van Noorden ' ' bezog in seinen Untersuch ungen 1975 die Mo、オャ。エQッョウヲ N イセアオ・ョコL@ also 、セウ@ t・セーッ@ der Melodie(e n), mit ein. Abhängig von der Repet1t1onsrate der beiden m der Frequenz unterschie dlichen Töne ändert sich L'l f z.T. signifikant. In Abb. 2 erkennt man drei Bereiche, die sich auf Basis der beiden Parameエセイ@ fイセアオ・ョコM bzw .. Intervallab stand und Modulatio nsrate ergeben. So werden die beiden sukzessive präsentiert en Töne mit einem Intervallab stand von ca. ・ゥョセ@ Halbton oder kleiner grundsätzl ich in einen Stream integriert (Region 2). Die Schwelle, unterhalb der alle Töne in einen Stream gruppiert werden nannte van Noorden >fission boundary< (FB). Sie bleibt bezüglich des iョエ・イセ@ vallabstan ds relativ konstant, solange der zeitliche Abstand der beiden Töne un.te.r 500 ms liegt. Über 500 ms kann der lntervallab stand mit steigendem ze1tl1chen Abstand zunehmen d größer werden, ohne dass sich der Stream in zwei Melodien aufteilt. J?en zweiten Bereich (Region 1), in dem grundsätzl ich eine Segregation in zwei Streams stattfindet , bezeichnete van Noorden als >tempora l coherence boundary< (TCB). Bis zu einem zeitlichen Abstand von ca . 100 ms bleibt die Schwelle bezüglich des lntervallab stands mit knapp 3 Halbtönen relativ kon- 30 G.A. Miller I G.A. Heise (1950), Th e trill threshold. 31 L.P.A.S. v. Noorden (1975), T empora/ coherence in th e perception of tone sequences. 200 :§ Region 1: Segregation in zwei c: 0 /temporal coherence boundary (TCB) セ@ 8 ..: 6 セ@ 4 Region 3: -- Ambl'valeni ·-„--- - Streams :c セ@ 2 0 100 200 300 400 500 600 700 800 Zeil Tonwiederholung in ms Abb. 2: Einfluss der Intervallgrö ße und des Tempos auf die Segrega,t,ion und Integration von auditorisch en Streams nach van Noorden. Im dritten Bereich (Region 3), also zwischen TCB und FB, ist das auditorische Perzept mehrdeuti g. Die beeinflussenden Faktore? für. die ウNエ・オ N セイョァ@ der Wahrnehm ung in Richtung Segregatio n oder Integration smd v1elfalttg. Von besonderer Bedeutung sind in diesein Zusamme nhang einerseits Aufmerksamkeitsprozesse, also das bewusste Verfolgen des einen. oder. des 。ョセ・イ@ Streams anderersei ts Priming-Effekte, z.B. durch Präsentati on emer bestimmten m・ャセ、ゥ@ vor dem eigentlichen Stimulus. Besonders interessan t ist jedoch nicht die recht große dritte Region an sich, sondern vielmehr der jeweilige Grenzbereich, an dem offensichtlich eine Beeinflussung der Wahrnehm ung kaum noch möglich ist. Während an der TCB das 。オ、ゥエッイセ」ィ・@ sケウエセュ@ ve.rmutlich durch automatisc he, primitive Prozesse gezwunge n w!fd, das Signal m 32 L.P.A.S. v. Noorden (1975), }emporal coherence in the perception of tone sequences, S. 15. 201 Auditorisc he Szenenanalyse Michael Oehler zwei Streams zu segregieren, ist die FB die Grenze, an der es aufmerksa mkeitsbasierte (schemagesteuerte) Prozesse nicht mehr schaffen, einen integrierten Stream aufzutrenn en.'' Ein Überblick über Studien, die in Bezug auf die zeitliche Struktur sowie den Frequenza bstand eine Vielzahl verschiedener Stimuli-Kons tellationen testen, findet sich bei Bregman 34 sowie Bregman et al. 15 l a )Stimulus = = = = = = 33 A.S. Bregman (1990), Auditory scene analysis, S. 60. 34 A.S. Bregman (1990), Auditory scene analysis; derselbe (2008b), Auditory scene analysis. 35 A.S. Bregman I P.A. Abad I P.A.C. Crum I J. O'Reilly (2000), Effects of time intervals and tone durations on auditory stream segregation. 36 C. Stumpf (1890), Tonpsychblogie, S. 545. 37 Chr. Reuter (1996), Die auditive Diskrimination von Orchesterinstrumenten. 38 L.P.A.S. v. Noorden (1975), Tempora! coherence in the percef1tion of tone sequences. 39 A.S. Bregman I S. Pinker (1978), Auditory streaming a11d the building of timbre. 40 S. McAdams I A.S. Bregman (1985), Hearing musical streams. 41 A.S. Bregman (1990), Auditory scene analysis. 42 D.L. Wessel (1985), Timbre space as a musical control structure. 43 J.O. Smith I S. Hausfeld I R.P. Power I A. Gorta (1982), Ambiguous musical figures and auditory streaming. 44 Chr. Reuter (1996), Die auditive Diskrimination von Orchesterinstrumenten. 202 b )Stream 1 c )Stream 2 = = Klang(arbenunte rschiede Ein weiterer wichtiger Gruppieru ngsfaktor ist die Klangfarbe . Schon Cari 1 Stumpf fragte 1890: »Wie ist es möglich, in einer Klangmisc hung zwei oder mehrere Klangfarb en auseinand erzuhalten ?«. 16 Sogar bei simultan gespielten Tönen mehrerer Instrumen te mit gleichem Grundfreq uenzverlau f ist es z.T. möglich, mehrere auditorisc he Streams zu segregieren. Die unterschiedliche spektrale Zusammen setzung der Klänge ist neben anderen Faktoren wie z.B. Modulatio n, Schallpegel oder Lokalisati on ein wichtiger Grund, weshalb Instrumente in einer solchen Situation unterschieden werden können. 37 Es sind in diesem Kontext sogar recht komplexe Konstellat ionen möglich, bei denen sich nur Teile der Frequenzs pektren gruppieren . Vor allem bei Sprachlaut en, die ja häufig mehrere klar strukturier te spektrale Maxima und Minima aufweisen, ist eine Vielzahl von Gruppieru ngsmöglic hkeiten denkbar. Experimente mit einfachen Stimuli, meist Sinustöne in Kombinat ion mit aus wenigen Teiltönen bestehende n komplexen Klängen sowie Rauschen oder Impulse finden sich z.B. bei van Noorden,' ' Bregman und Pinker,' 9 McAdams und Bregman'0 oder Bregman." Natürliche oder synthetisch e Instrumen tenklänge kommen hingegen z.B. bei Wessel" oder Smith et al." vor. Für einen ausführlichen Überblick sowie eine Kritik der einzelnen Studien siehe Reuter." = = = = = = = = = = = = = = Zeil Abb 3. Streaming aufgrund von Klangfarbe nunterschieden . nach Bregman und Pinker" sowie Vicario.4" Ein Beispiel für die Gruppieru ng aufgrund der kャ。ョァヲイセ・@ ist in .Abb. 3 nach Bregman und Pinker 47 sowie Vicario 48 dargestellt . In. (a) ist der Nォィョァセ・@ Stimulus abgebildet , ein Sinuston, der abwechselnd. mit emem. aus vier .Teilt.onen bestehenden komplexen Klang dargeboten ':ird .. Der sュオウエセョ@ .. hegt iedoch in der Frequenz nicht in unmittelba rer Nahe. ・ュセイ@ 、・セ@ Teiltone. Der mittlere und untere Teil der Abbildung (b und c) zeigt die beiden als p・イセーエ@ entstehenden Streams. Man erkennt, dass der Sinuston und der komp exe Klang als getrennte auditorisc he Objekte wahrgeno mmen werden, セ「キッィャ@ .?er Sinuston inmitten des Frequenzb ereichs des komplexen Klanges hegt. h。エセ・@ der Sinuston die gleiche Frequenz wie ein Teilton des komplexen Klanges, キセᆳ re auch denkbar, dass dieser mit dem entspreche nden Teilton des Klanges m einen Stream integriert wird.4 9 45 A.S . Bregman; s. Pinker (1978), Auditory streaming and the building of timbre. 46 G. Vicario (1982), Same observations in the audztory f1e/d . . . . 47 A.S. ßregman / S. Pinker (1978), Auditory streanung and the buzldmg of tzmbre. 48 G. Vicario (1982), Same observations in the aud1.tory fr eld. 49 A.S. Bregman (1990), Auditory scene analysis, S. 95. 203 Auditorische Szenenanalyse Michael Oehler Pegelunterschiede Grund legende Untersuchun gen zur Pegelabhäng igkeit der a uditorischen Streambildung finden sich z.B. bei Dowling' 0 oder van Noorden" sowie in Studien zur Verdeckung und Drosselung bei Zwicker und Feldtkeller" oder Fricke" [7 2.5.3]. Betrachtet man eine einfache Tonrepetitio n, bei welcher die Töne abwechselnd zwei unterschiedliche Schallpegel aufweisen, so erhält man in Abhängigke it des Pegelunterschieds entweder einen oder zwei Streams a ls resultierendes Perzept. In Abb. 4 sind verschiedene Varianten dieses Phänomens für Tonfolgen mit einheitlich 1.000 Hz und 40 ms Dauer pro Ton dargestellt. Ton B hat in allen Beispielen einen konstanten Pegel von 35 dB. Bleibt nun Ton A unterhalb der Hörschwelle bzw. wird dieser aufgrund der zeitlichen Verdeckung nicht wahrgenomm en, hört man lediglich Ton B (Zeile 1). Ist Ton A mehr als 5 dB leiser als Ton B, dann bilden sich zwei auditorische Streams, ein Stream mit Ton A und ein Stream mit B (Zeile 2). Ist Ton A weniger als 5 dB leiser bzw. lauter als Ton B, so bilden A und Beine kohärente Melodie, es entsteht also nur ein Stream (Zei le 3 ). Besitzt Ton A einen Pegel zwischen 40 und 53 dB, so ist es vom Tempo abhängig, welches Perzept entsteht. Bei einer Repetitionsr ate von weniger als 13 Tönen pro Sekunde entstehen wie im vorangegang enen Beispiel zwei Streams (Zeile 4 ), im Bereich über 13 Tönen pro Sekunde hängt die Wahrnehmu ng dagegen von der Aufmerksamkeitsfok ussierung ab (Zeile 5). Es wird entweder ein Stream mit Ton A gehört oder, bei Fokussierun g auf Ton B, es kommt zum sogenannten >roll effect<." Dabei scheint Ton B doppelt so schnell zu pulsieren wie Ton A. Dieser teilt sich in zwei Komponente n auf: eine zu Ton B integrierte abgeschwächte Variante von Ton B sowie eine Komponente mit Ton A. Liegt Ton A bei einer Wiederholun gsrate von 13 Tönen pro Sekunde zwischen 53 und 65 dB, dann tritt der sogenannte >continuity effect< auf. Dabei wird B als kontinuierlicher Ton wahrgenomm en, über dem die Ton A pulsiert (Zeile 6). Im letzten Beispiel in Zeile 7 ist Ton A lauter als 65 dB. Dadurch ergibt sich die Wahrnehmu ng eines einzelnen Streams mit Ton A, Ton B fä llt unter die Nachverdeck ungsschwell e und ist damit nicht hörbar. 50 W.J. Dowling (1968), Rhythmic fission and perceptual organization. 51 L.P.A.S. v. Noorden (1976), Minimum differences of level and fr equency for perceptual fission of tone sequences ABAB. 52 E. Zwicker IR. Feldtkeller (1967), Das Ohr als Nachrichtenem pfänger. 53 ].P. Fricke (1978), Kompression zur Herstellung natürlicher dynamischer Verhältnisse. 54 A.S. ßregman (1990), Auditory scene analysis, S. 380. 204 B: 35 dB A: < 6dB Man hört nur B a ャ セ⦅ゥN@ B: 35 dB A: 6-30 dB Man hört zwei Streams セ@ B: 35 dB A: 30-40 dB Man hört einen Stream Q-0- EJ-0 B: 35 dB A: 40-53 dB Bis 13 Töne/Sek: Man hört zwei Streams 8-@ -8-0 セ@ B: 35 dB A: 40-53 dB über 13 Töne/Sek: Man hört zwei Streams oder roll effect tritt auf B: 35 dB A: 53-65 dB Über 13 Töne/Sek: Kontinuierlicher Ton ( conlinuity effecl) B: 35 dB A: > 65 dB Man hört nur A セ@ - A - B - A B ·---- .........,..- A '--=- --0- 10 A -----=.; Abb. 4: Streaming aufgrund von Pegelunterschieden 51 nach van Noorden, McAdams und Bregman bzw. Reuter. · Man erkennt am Beispiel der Studie van Noordens" zum Streaming セオヲᆳ grund von Pegelunterschieden deutlich,. das_s häufig mehrere セ。イュ・エ@ gle1ch·t· die konkrete Ausbildung von aud1tonsche n Streams beemflussen. Neben ze1 1g · d T .. ß bl h dem Pegelunterschied ist vor allem die Repetitionsr ate er. ッセ・@ ma ge IC. am entstehenden Perzept beteiligt. Auch Klangfarbe, セォ。ャウエゥッョL@ M?dulat1onen etc. sind mögliche Einflussfakt oren, die gegenseitig die Integration und Segregation von Klängen beeinflussen ! 55 s. McAdams / A.S. ßregman (1985), Hearing musical streams, .s. 570; Chr. r・オエセ@ HセY[I・@ auditive Diskrimination von Orchestermstru menten, S. 49, L.P.A.S . v. Nooid ( ' Minimum differences of /evel and frequency for perceptual fission of tone sequences ABAB. l 56 L.P.A.S. v. Noorden (1976), Minimum differences of Level and frequen cy for perceptua fissi on of tone sequences ABAB. 205 Auditorische Szenenanaly se Michael Oehler Weitere GrupfJieru ngsfaktoren Die Gruppierung aufgrund von Lokalisation sunterschied en ist ein weiterer wichtiger Faktor, der zur sequenziellen Segregation/ Integration beiträgt. Treffen die Signale zweier oder mehrerer Klangquellen aus unterschiedl ichen Richtungen an unseren Ohren ein, so nutzt unser auditorische s System diese Information, um die Klänge zu gruppieren. Erste Untersuchun gen, die Streaming im Zusammenh ang mit Lokalisation behandeln, stammen von Norman' 7 und van Noorden. " Ein bis heute häufig genutztes Forschungsp aradigma ist die dichotische vs. diotische Präsentation akustischer Stimuli 19 (s.u.) [セ@ 2.6.3). So nutzten beispielsweise auch Dowling' 0 und Deutsch" dichotisch präsentierte Stimuli, um Streamingef fekte zu untersuchen. Vielfach zitiert wurde diesbezüglich die >Skalenillusion< von Deutsch, bei welcher abwechselnd auf dem linken und rechten Ohr dargebotene Töne einer auf- und absteigenden Tonleiter eine Konkurrenzs ituation zwischen frequenzbed ingter und lokalisations bedingter Gruppierung erzeugen." Die Lokalisation als Gruppierung sfaktor soll an dieser Stelle jedoch nur kurz angesproche n werden, da ein ausführlicher Abschnitt zur Lokalisation und räumlichen Wahrnehmu ng in Kapitel 2.6.3 folgt. Mikromodu lationen, wie z.B. Vibrato und Tremolo, tragen in bestimmten Fällen ebenfalls zur Gruppierung bei. Studien von Chowning" und McAdams" zeigen deutlich, dass Mikromodu lationen sowohl bei der Stream Segregation als auch bei der Integration von Streams eine wichtige Rolle spielen. Werden beispielsweise drei teiltonreiche Klänge mit einer Grundfreque nz von 400, 500 und 600 Hz ohne Modulation gemeinsam gespielt, dann lassen sich diese nur schlecht voneinander trennen. Moduliert man einen der drei Klänge mit einer Modulations frequenz unterhalb der Verwischungsschwelle [ セ@ 2.5.1), so lässt sich dieser deutlich besser aus dem restlichen Klanggemisch separieren. Werden alle drei Klänge mit unterschiedli chen Frequenzen moduliert (bei Chowning 4,5, 5,0 und 5,5 Hz), können sogar sämtliche Klänge segregiert · komplexeren Klängen sind Mikromodu lationen von entd n. Aue h b e1 . . . h wer . e ender Bedeutung für die Trennungsle istung des audttonsc en Systems. scheid . h B in einem Orchesterkla ng die Instrumente besonders gut vom sie z. . d 1 . S0 lassen . Kl körper trennen deren produzierte Klänge M'k t romo u at10nen thchen ang ' · d 1 · h res Kl" ohne oder mit synchroner Modulation (un g etc er Kl ang farthalten. ange . S . . en „ k sw ) werden dagegen in einen gemeinsame n tream mtegnert. be, Lautstar e u · · lle Gruppierun g in der kompositor ischen Praxis Sequenzie • Allegro エイ &r-rtr イjヲウゥ]MZQエitmfnュᄋ。セ ' " セMヲZエᄋイ ]キM ・Bfrゥヲitセ@ 206 ヲュef・エイセNM „. ,._'!:,_,. 1 ' y ptt セ@ r F( セ@ . =--=ft= セ@ ᄋ@ M ョーZセrQヲゥ@ t!fc%@d-g70 57 D.A. Norman (1966), Rhythmic fission: Observatio11s on atte11tion, temporal judgments and the critica/ band. 58 L.P.A.S. v. Noorden (1975), Tempora/ coherence in the perception of tone sequences. 59 M. Oehler (2010), Dichotisch / Binaural. 60 W.J. Dowling (1978), Dichotic recognition of musical ca11011s. 61 D. Deutsch (1975), Two-channel listening to musical scales. 62 D. Deutsch (1975), Two-channel listening to musical scales, S. 4. 63 J.M. Chowning (1980), Computer synthesis of the singing voice. 64 S. McAdams (1984), Spectral fusi on, spectral parsing, and the formation of auditory images. . E de dieses Abschnitts nicht unerwähnt bleiben, dass dte bisher Es so II „ am „ hl' hn im Rahmen von Laborexperi menten be h an d e1ten Ph anomene hauptsac te. llen Gruppierung auch in der Musikpraxis zu finden sind. So der sequenzte . . . h d' A 1 .b · der Literatur zahlreiche Be1sp1ele, m denen durc te usgesta tung gt t es tn . . . M 1 d' h or einer Melodie beim Hörer bewusst eine Segregat10_n セョ@ コセ・ォエ@ . ebo tenk eSrv 1 z B in der verborgenen Zwe1st1mm1g e1t aroc er o ogeru f en wer den Soll ( . . . . „ k ) Bekannte Beispiele finden steh z.B. m den Werken J.S. B_ac h s, A . V1セエZゥ@ セョ、@ G. Ph. Telemanns. I_n Abb. 5 セゥョ_@ in einem Ausschnttt 。オセ@ Tele4 die verschiedene n moghchen Streams durch gestnchelte Nr te s manns ona · . . . Linien dargestellt. Sowohl in diesem Notenb_e1sp1el als auch Qセ@ den zu:or b_eschriebenen Studien existieren maximal zwei Streams zur gletehen Zeit. Dies · · doch lediglich einer anschauliche n Darstellungs form geschuldet, das tst 1e . d h „ r h gleichzeitige Auftreten von drei oder mehr Streams ist urc aus mog tc . ゥャAZ[M」Nᄋセ@ ! 1 f Y t'f-tt-Nu 1 j hUn--pt Jjq8++t f:jxM#f fW セ キュ@ ・ウK セ@ Abb. 5: Streaming (gestrichelte Linien) in G. Ph. Telemanns sッョセ エ・@ aus Der getreue Musikmeister nach Rahne. Q Nr. 4 m C: Allegro 65 T. Rahne (2008), Beeinflussung von auditorischer Objel<tbildung durch visuelle Stimulation., S. 9. 207 Auditorisc he Szenena nalyse Michael Oehler Simultane Gruppier ung In den vorangega ngenen Abschnitte n wurden die vielfältigen Varianten de sequenziellen Gruppieru ng beschriebe n. Das auditorisc he System mu ss ェ・、 ッ」 セ@ auch mit gleichzeitig erklingend en Klangkom ponenten umgehen und diese entweder einem oder mehreren a uditorischen Streams zuordnen. D er wichtigste Faktor für N 、ゥNセ@ simulta ne Gruppieru ng ist Harmoniz ität. Ein Klang, der a us mehreren Teiltonen zusammen gesetzt ist, wird vor allem dann als Einheit wahrgenom men, wenn diese im ganzzahligen Verhältnis zueinande r stehen oder in a nderen Worten, wenn die Teiltöne ganzzahlig e Vielfache 、 ・イQg イオョ、 セ@ frequenz sind. Unser a uditorisches System ist also in der Lage, die einzelnen Teiltöne zu einem zusammengehörende n Klang zu integrieren. Dies funktioョGNセイエ@ sogar, wenn mehrere エ・ゥャNッョイ」ィセ@ Klänge para llel auftreten. Allerdings hangt ? er Erfolg der Segrega t10n m diesem Fall davon ab, welche weiteren Grupp1eru ngsfaktore n vorhanden sind. So lassen sich zwei teiltonreic he Klänge, die in der Tonhöhe deutlich a useinander liegen, wesentlich einfacher trennen als zwei Klänge mit der gleichen Grundfreq uenz. Wäre jedoch der eine Klang la uter als der andere, dann ließen sich die beiden u.U . trotz gleicher Grundfreq uenz ァ オセ@ trennen. Angenomm en die Grundfreq uenz von Klang A bliebe konstant bei 200 H z und würde Klang B gleichzeitig in ein em Glissando von 100 Hz bis 400 Hz den Bereich von Klang A durchkre uzen, dann wäre N。 オヲァイセ、@ des オセ ァ ャ ・ゥ」 ィ・ョ@ Verla ufs der Teiltöne sowohl eine Trennung der beiden Klange an steh, als a uch eine Integra tion der jeweiligen Teiltöne zu einem Klang gegeben. Die Gestaltpsy chologen würden dies als das >Prinzip des ァ・ュ ュ ウ。 セ ・ ョ@ Schicksa ls< bezeichnen . An di esem einfa chen Beispiel erkennt ュセョ@ bereits, dass seq uenzielle und sim ultane Gruppieru ng interagiere n. Die beiden Prozesse können sowohl verstärken d wirken als auch in Konkurren z zueinande r treten. '' Die Konkurren z der a uditorisch en Prozesse bzw. die Ambiguitä t der Z uordnung von Tönen zu einem Stream haben Bregman und Pinker 67 1978 in einem Experimen t demonstriert. 66 A.S. Bregman (2005), Auditory scene analysis and the role of phenomenology in experimental psychology, S. 39. 67 A.S. Bregman I S. Pinker (1978), Auditory streaming and th e building of timbre. 208 --B Zeil Abb . 6: Stimuli für das ABC-Exper iment nach Bregman ." Wie in Abb. 6 dargestellt, wurden abwechsel nd ein einzel ner Sinuston (A) d zwei in der Frequenz tiefere Sinustöne (B und C) dargeboten . Je nach セ・アオョコ。「ウエ、@ und zeitlicher aウケョ」ィイッゥコエセ@ der Komponen ten Hセオイ」ィ@ die Pfeile dargestellt) werden die Töne in unterschiedliche Strea ms gruppiert. Synchrone Einsatzzeiten und regelmäßige Muster im Frequenzb ereich smd ha uptsächlich für die Z uordnung von Komponen ten zu einem Stream カ・イ。ョエキッセᆳ lich.'9 Die Ergebnisse der Studie lassen sich größtentei ls 、オセ」ィ@ ー ウケ」 セッ。ォオ ウ エi ᆳ sche Phänomen e, wie. z.B. Ohrintegra tionszeiten bzw. die Verw1schungsschwe\1 e [ セ@ 2.5 .1 ] erklären. 70 Es ist zudem zu beachten, da ss セゥ ・@ r・ ウ オャセ。エ ・@ n.ur bedingt auf orchestrale Verhältnis se übertragba r sind, da steh z.B .. 1m Einschwingvo rgang vieler Instrumen te Teiltöne befinden, die verzögert einsetzen, der Klang jedoch trotzdem als Ganzes gehört wird." Erklärungen Physiologische Erklä rungsansä tze zur von van Noorden" 1975 erstmals ausführlich beschriebe nen fission bo undary (FB) werden bis heute kontrover s di skuti ert. Auffa\lend ist der bezüglich der Modulatio nsrate über weite Stre- 68 69 70 Tl 72 A.S. ßregman (1990), Auditory scene analysis, S. 27. A.S. Bregman (2008a), Auditory scene analysis, S. 867. . Chr. Reuter (1996), Die auditive Diskrimination von Orchestermstruinenten, S. 15-17. Chr. Reuter (1996), Die auditive Diskrimination von Orchesterinstrumenten, S. 57. L.P.A.S . v. Noorden (1975), Temp oral coherence in the perception of tone sequences. 209 Auditoris che Szenenanalyse Michael Oehler cken konstant e Intervall abstand von etwas weniger als einer kleinen Ter Dies lässt vermuten , dass die Frequenz gruppenb reite des Ohres, die über UPセ@ Hz un.gefähr den Umfan.g einer kleinen Terz hat [7 2.5.1], etwas mit der Integratt?n 「セキN@ s・ァイセエQPョ@ der m・ャッ、ゥウエイ￶ュセ@ コセ@ tun haben könnte. 73 Bregセ。ョ@ gmg セQ・ウュ@ Neイォャ。オセァウョエコ@ nach, セ。ィ@ ihn 1edoch aufgrund seiner Stud1energebrnsse widerleg t. Die an verschiedenen Stellen geäußert e Kritik der Methode der Studie (u.a. Priming der Versuchs personen ) wirft jedoch ;.n auf:. ob. die Erklärun g .auf Grundlag e der Frequenz gruppenb reiten sachlich ganzlich vernachlä ssigt werden kann. 75 . Wie im kセーゥエ・ャ@ über die ウゥセQュャエ。ョ・@ Gruppier ung bereits angespro chen, gibt es noch セ・ゥエイ@ psychoakust1sche Ansätze, die bestimm te Phänome ne der asセ@ zu ・イォセ。ョ@ セ・イュ￶ァNョ@ So lassen sich neben den Frequenz gruppenb reiエセョ@ auch die oィセョエ・ァイ。QPNウコゥL@ die セ・イキゥウ」ィオョァャH@ und die parエセ・ャ@ vセイ、・」ォョァ@ zur セイォャ。オョァ@ heranzieh en [7 2.5]. Ein Uberblic k dazu W Zusamm enfassen d lässt sich sagen, fmdet ウQセ ィ@ bei セ・エイN@ dass die von P Bregman .als primitive Prozesse bezeichneten Mechani smen der Informat io.nsverarbe1tung von zentraler Bedeutun g bei der Dekomp osition der am Ohr emtreffen den akustisch en Signale sind. In zahlreichen Studien konnte außerdem gezeigt werden dass auch aオヲュN・イォウ。セゥエッョァ@ eine :ivichtige Rolle bei der gイオーセゥ・ョァ@ von 。ォオウエゥ」ィ・セ@ S1gnalen ..zu sp.1elen scheint. Daher müssen über die psychoak ustischen Erklarun gsansatze hmaus auch höhere kognitive Prozesse berücksic htigt キ・イ、セN@ s.ussman et al." untersuch ten in ihrer Studie, ob selektive Aufmerk samkeit eme Vorausse tzung für das Entstehe n von auditoris chen Streams ist. fNセ。ァ@ エ。セ@ 73 A.S .. Bregman (1978), Auditory streamin.g: Competitio n amon.g alternative organizatio ns, S. 396, W.M. Hartmann ·' D. Johnson (1991), Stream segregation. and peripheral channeling ; Chr. Reuter (1996), D.1e.aud1t1ve D1slmmmat10n von. Orchesterinstrumenten., S. 36; L.P.A.S. v. Noorden (1976), Mnumum differen.ces of Level and frequency for perceptual fission of tone sequences ABAB . 74 A.S. Bregman (1978), The formation of auditory streams; derselbe (2008b) Auditory scene analysts. ' 75 J.P: Fricke. (1995), Üb.er Fremdheit und Aneignung in der Musik, S. 366; Chr. Reuter (1996), Die az:d1twe D1skn111mat1on von Orchesterinstrumenten, S. 37. 76 E. Zwicker IR. Feldtkeller (1967), Das Ohr als Nachrichte nempfänge r. 77 Chr. Reuter (1996), Die auditive Diskrimina tion von Orchesterinstrumenten, S. 15-17. 78 J.P. Fncke (1986), Zur Amvendun g digitaler Klangfarb enfilter bei Aufnahme d Wiedergabe, S. 131. un 79 Chr. Reuter (1996), Die auditive Diskrimination von Orchesterinstrumenten . 80 A.S. Bregman (1990), Auditory scene analysis. 81 E. Sussman (2005), Integration and segregation in auditory scene analysis. 210 . . ·gniskorr elierter Potential e (EKP) bzw. der sog. >Mismatc h NegatiM1 s ere 1 · セ@ le k troenzep 1 1 ·r tte , 1(.MMN), einer Kompon ente der EKP, konnten 1m rn ovt Y (EEG) auf vorbewu sster Ebene bis zu 3 parallel existieren de Streams grarnl m ·esen werden. Sobald die Aufmerk samkeit selektiv auf einen der nac 1gewi ichtet wurde · b ar. waren die anderen im EEG nie h t me h r nac h weis Strearns utschalk ger . (MEG) zet· et al." 'konnten mittels Magneto enzephal ografte Auc 11 dGss präattent ive auditoris · · che Streams au f kort1·k a 1er Eb ene ex1st1eren . gBen, ·r a bei Säuglingen im Alter von zwei bis fünf Tagen ist im EEG die Ausere1 s „ bildung mehrerer audito.rischer sエイ・。ュセ@ zu b eo b ac 11ten. " D'tes .unterstu tzt d'1e H othese, dass über die psychoak usttschen Prozesse der periphere n VerarbJfung von Schallsignalen hinaus bestimmt e Mechani smen der ASA angeboren sind. 2.6.3 Cocktailparty-Effekt und räumliche Wahrne hmung Einige Aspekte der Gruppier ung akustisch er Stimuli lassen sich ョゥ」ャセエ@ vol.lständig über angebore ne primitive Prozesse erklären. Dazu geh?rt em Phänome n, das Colin Cherry 1953 als Cocktailp arty-Prob lem 「・コエ」セョZ@ »how do we recognize what one person is saying when others are speakmg at the same time (the >Cocktail party problem<)?«. 84 Der Cocktailp arty-Effe kt (CPE) ist also die Fähigkei t, der Stimme einer bestimmt en Person コセ@ ヲッャセョ@ und das von ihr Gesagte zu verstehen , während andere Personen gle1chze1ttg sprechen. In zahlreichen späteren Arbeiten wird cィセイケ@ als. aオウァ。ョ N ァウセオョエ@ der Forschun g zum CPE zitiert und nicht selten kann 111 der Literatur m ahnhcher Form seine Definitio n des Cocktailp arty-Prob lems gefunden werden. Als verantwo rtlich für den CPE, sozusage n als Lösung des Cocktail partyProblems, werden u.a. räumlich e Wahrneh mung, Kontexte ffekte, bestimmt e akustische Eigenschaften des Signals sowie das Vermöge n zur selektiven Aufmerksam keit erachtet. Cherry präsehtie rte den Versuchs personen in seiner ersten Studie über Kopfhöre r zwei gleichzeitig gesproch ene Nachrich ten, einmal dichotisch und einmal diotisch. In der dichotisc hen Situation , in der jede Nachrich t an ein Ohr geleitet wurde, konnten die beiden Nachrich ten deutlich besser voneinan der getrennt werden als in der diotischen Bedingung, in der 82 A. Gutschalk / C. Micheyl / A.J. Oxenham (2008), Neural correlates of auditory perceptual awareness under in.formational masking. . . 83 I. Winkler / E. Kushnerenko / J. Horvath / R. Ceponien · IV. Fellman I M. Huot1lame n I R. Näätänen / E. Sussman (2003), Neuhorn infants can organize the auditory world. 84 C.E. Cherry (1953), Some experiment s on the recognition of speech, S. 975-976. 211 Auditorische Szenenanalyse Michael Oehler beide Nachrichten gemischt beide Ohren erreichten. Es ist nicht weiter verwunderlich, dass der CPE in der Folge häufig unter dem Aspekt der räumlichen Wahrnehmung untersucht wurde. Faktoren räumlicher Wahrnehmun g Um Klänge in der azimutalen Ebene lokalisieren zu können, nutzt das auditorische System bestimmte akustische Eigenschaften des an beide Ohren gelangenden Signals. Ein seitlich eintreffendes Signal erreicht das eine Ohr früher als da s andere, wa s als interauraler Zeitunterschied (ITD von >lnteraural Time Difference<) bezeichnet wird. Ein weiterer Faktor, der in dieser Situation zur beiträgt, ist der Pegelunterschie d der an den jeweiligen Ohren セッォ。ャゥウエョ@ Signale. Analog zur ITD wird der interaurale Pegelunterschie d ・Qセエイヲョ、@ mit ILD abgekürzt (>lnteraural Level Difference<) . Während die ITD für einen gegebenen Einfallswinkel des Signals freq uenzunabhäng ig ist, ändert sich der ILD sowie der intera urale Phasenuntersch ied (>lnteraural Phase Difference< bzw. IPD) als Funktion der Stimulusfrequenz."' Viele Studien zeigen, dass interaurale Pegelunterschie de eher für die Lokalisation von hohen Frequenzen verantwortlich sind, interaurale Zeitunterschied e für die Lokalisation von tiefen Frequenzen bzw. tieffrequent amplitudenmod ulierten hohen Frequenzen.'" Deutlich komplexer wird es, betrachtet man das Richtungshören in der Medianebene. Bei der Unterscheidung vorne vs. hinten sowie oben vs. unten treten häufiger Ambiguitäten auf, als bei der Unterscheidung von links und rechts. ITD , ILD und IPD können nur bedingt zur Lokalisation herangezogen werden. Blauert stellte 1974 in diesem Zusammenhan g fest, dass bei breitbandigen Schallen die Information aus bestimmten Frequenzbände rn für die verantwortlich ist." Er bezeichnet die Frequenzbände r lッォ。ャゥウエョ・セァ@ als >nchtungsbest11nmende Bänder< (später setzte sich der Begriff >Blauertsche Bänder< durch). Aufgrund der komplexen Filterfunktion unseres Kopfes, des Außenohrs und z.T. auch des Rumpfes entstehen je nach Einfallsrichtung des Schalls lntensitätsunter schiede zwischen den einzelnen Frequenzbände rn die ' unser auditorisches System zur Schallortung nutzt." 85 W. Yost (2007), Fundamentals of hearing, S. 173-174. 86 S.S. Stevens I E.B. Newman (1936), Tin localization of actual sources of sound; W. Yost (2007), Fundamentals of hearing, S. 176. 87 ]. Blauert (1974), Räumliches Hören, S. 90. 88 ]. Blauert (1974), Räumliches Hören, S. 90-95. 212 Da man im Regelfall auch in Räumen mit starken Reflexionen eine SchallITD, ILD, IPD und BlauertModel.] mus.s 、セウ@ quelle gut lokalisieren セ。ョL@ um da s >Gesetz der ersten Lokalisat10n dte fur Indikatoren als schen Bändern 0 89 Wellenfront< (bzw. den >Haas-Effekt<' oder >precedence effect? ') erweitert werden: Die an den Ohren als erstes ankommenden Schallwellen dominieren bei der Lokalisation der Klangquelle. Damit wird die Richtungsinfor mation später eintreffender Schallwellen, also die der möglicherweise aus ganz ande9 rer Richtung stammenden Reflexionen , unterdrückt. ' Da die Wellenfront, die unmittelbar von der Schallquelle stammt, meist zuerst am Ohr eintrifft, kann deren Position unabhängig von den folgenden Reflexionen vom auditorischen System zuverlässig bestimmt werden. m!t Binaurale Verdeckung Die Parameter ITD, ILD und IPD sind nicht nur für die Lokalisation von Schallquellen verantwortlich, sondern tragen auch dazu bei, ein mit Störschall verdecktes Nutzsignal besser wahrnehmen zu können. Grundsätzlich gilt auch hier, dass die Verbesserung gegenüber einem diotischen Signal sowohl von der Beschaffenheit der Stimuli als auch von deren intera uraler Konfiguration abhängt. So gibt es zahlreiche Experimente, die die Wahrnehmung von Nutzund Störschall für diotische und dichotische Situationen vergleichen. Es wird für beide Situationen ermittelt, welcher Pegel notwendig ist, um den Nutzschall zu detektieren bzw. zu erkennen. Die daraus resultierende Differenz der Signalpegel der diotischen und dichotischen Situation wird >Masking-Level Difference< (MLD) oder >Binaural Masking-Level Difference< (BMLD) genannt, die Senkung der Verdeckungssc hwelle als >Binaural Unmasking< oder 3 >Binaural Release From Masking< bezeichnet.9 Während in den meisten MLD-Studien gemessen wird, welches SignalRa usch-Verhä ltnis in der diotischen ../s. dichotischen Situation notwendig ist, um das Nutzsignal gerade wahrzunehmen , geht es beim CPE viel eher darum, da s Nutzsignal zu erkennen und zu verstehen." Yost fasst 1997 in einer Meta- 89 L. Cremer (1948), Die wissenschaftlichen Grundlagen der Raumakustik, Bd. 1. 90 H . Haas (1951), Ober den Einfluss eines Einfachechos auf die Hörsamkeit von Sprache. 91 W. Wallach / E.B. Newman / M.R. Rosenzweig (1949), The precedence effect in sound localization. 92 ]. Blauert (1974), Räumliches Hören, S. 177-178. 93 N.L. Durlach / H.S. Colburn (1978), Binaural phenomena, S. 428-429. 94 D.M. Green/ W. Yost (1975), Binaural analysis, S. 468. 213 Michael Oehler 95 analyse entsprechende Ergebnisse von Carhart et al. (1967), Henning (1973) sowie Townsend und Goldstein (1973) zusammen. Dabei handelt es sich um 6 Studien zur Frequenz- und Intensitätsdiskr imination ,9 um einen Versuch zur 97 8 Lautheitsschätz ung sowie um einen Versuch zur Spracherkennung,9 bei dem ssten. mu werden Wörter aus einem geschlossenen Textkorpus identifiziert In allen Studien verringert sich der Vorteil binauralen Hörens bei Zunahme des Pegelabstands zwischen Nutz- und Störschall. Je einfacher der Nutzschall also vor dem Hintergrund des Störschalls aufgrund eines großen SignalRausch-Abstan des zu erkennen ist, desto kleiner wird der Vorteil einer räumlichen Trennung von Nutz- und Störschall. In Situationen, in denen der Nutzschall nicht einfach zu erkennen ist, bringt die räumliche Trennung jedoch einen merklichen Vorteil. Weitere den Cocktailparty -Effekt beeinflussende Faktoren Die räumliche Wahrnehmung ist a lso ein wichtiger Faktor, der vom auditorischen System für die Signaltrennung verwendet wird. Es existieren darüber hinau s verschiedene weitere Faktoren, die für die Lösung des CocktailpartyProblems von Bedeutung sind. Dazu gehören neben Streaming-Mec hanismen auch Verdeckungserscheinungen sowie Prozesse der auditiven Aufmerksamkeit. Die zuvor beschriebenen primitiven Prozesse der ASA können größtenteils a.uch auf den CPE angewendet werden. So lassen sich z.B. vermischte Sprachsignale sogar besonders gut aufgrund unterschiedlicher Grundfrequenz verläu99 fe segregieren (z.B. eine weibliche und eine männliche Stimme). Auch das · H.armonizitätsprinzip ist relevant, da die Formanten der pa rtialtonreichen stimmhaften Laute verschiedener Stimmen oft in ähnlichen Frequenzregion en zu finden sind. Unser auditorisches System nutzt in diesem Fall den Umstand dass sich die zu einem Klang gehörenden Partialtöne im zeitlichen Verlauf 95 W. Yost (1997), The cocktail party effect: 40 years later. 96 G.ß. Henning (1973 ), Effect of interaural phase on frequency and amplitude discrimination. 97 T.H . Townsend I D.P .. Goldstein (1972), Suprathreshold binaural zmmasking. 98 R. Carhart I T.W. T1llman I K.R. Johnson (1967), Release of masking for speech through mteraural time delay. 99 D.E. ßroadbent I P. Ladefoged (1957), On the fusion of sound reaching different sense organs. 214 Auditorische Szenenanalyse gleich verhalten, unter gestaltpsycholo gischer Betrachtungswe ise also ein ge00 meinsames Schicksal haben. ' Gerade im Bereich der Stimmentrennu ng sind jedoch auch schemabasierte 0 Prozesse von Bedeutung. ' ' So gibt es z.B. Schemata für bestimmte Laute oder Worte, aber auch für spezifische grammatische Strukturen. Ein Schema kann überdies nicht nur durch spezielle sensorische Reize, sondern ebenso durch andere Schemata aktiviert werden. Kurz nach der auditiven Präsentation des Wortes »Apfel «, wird man unmittelbar im Anschluss z.B. eher darauf vorbereitet sein das Wort »O bst « als das Wort »Zentralheizun g « zu hören. Erlernte syntaktische und semantische Schemata sind also für die Stimmentrennu ng ebenso relevant wie die vielfältigen primitiven Prozesse. Für die Sprachdiskrimi nierung und Sprachverständ lichkeit in einer Cocktailparty-Situat ion spielen darüber hinaus Verdeckungsers cheinungen im spektralen und zeitlichen Bereich, insbesondere die partielle Verdeckung, eine Rolle' 02 [ セ@ 2.5.3]. Liegen in den gleichzeitig erklingenden Sprachsignalen unterschiedliche spektrale Maxima und Minima vor, dann bleibt die Verdeckung nur partiell, Sprachlaute und Worte können trotz Verdeckung unterschieden werde. Ohne diese Art der Vorverarbeitun g der akustischen Signale auf peripherer Ebene, könnten höhere schemabasierte Prozesse z.T. nicht funktionieren. Aufgrund der Bedeutung schemabasierte r Prozesse bei der Stimmentrennung sind jedoch offensichtlich auch Mechanismen der a uditiven Aufmerksamkeit in die Lösung des Cocktailparty-P roblems involviert. Kontexteffekte spielen eine Rolle, wenn es darum geht, in einer Cocktailparty-S ituation eine Stimme zu selegieren und dieser über einen gewissen Zeitraum hinweg zu folgen. Es wurden zur Erklärung verschiedene Modelle vorgeschlagen, die bis03 heute zu einem großen Teil auf unterschi edlichen Filtertheorien beruhen.' 100 J.P.L. ßrokx I S.G. Nooteboom (1982), Intonation and the perceptual separation of simultaneous voices. 101 A.S. ßregman (1990), Auditory scene analysis; J.F. Cu lling I Q. Sumrnerfield (1995), Perceptual separation of concurrent speech sounds; C.J. Darwin (1995), Perceptual grouping of speech components; C.]. Darwin I R.W. Hukin (1999), Auditory objects of attention. 102 H. Fastl I E. Zwicker (2006), Psychoacoustics, S. 61-1 10; J.P. Fricke (1978), Kompression zur Herstellung natürlicher dynamischer Verhältnisse, S. 102; J.P. Fricke (1986), Zur Anwendung digitaler Klangfarbenfilter bei Aufnahme und Wiedergabe; Chr. Reuter (1996), Die auditive Diskrimination von Orchesterinstrumenten, S. 28-33; C. Stumpf (1890), Tonpsychologie, S. 220; E. Zwicker IR. Feldtkeller (1967), Das Ohr als Nachrichtenempfänger, S. 64. 103 D.E. ßroadbent (1 958), Perception and communication; ].A. Deutsch I D. Deutsch (1963), Attention: Same theoretical considerations; C. Spence I C. Santangelo (2010), Auditory 215 Michael Oehler Eine der Hauptfragen war, ob die Filterung eher früh oder eher spät im Prozess der auditorische n Information sverarbeitun g stattfindet. Neuere Forschungsergebnisse lassen vermuten, dass der selektive Prozess sowohl früh als 0 auch spät stattfinden kann.' ' Attentive und präattentive Prozesse scheinen auf 0 eine sehr komplexe Weise miteinander zu interagieren. ' ' Doch erst durch die psychoakust ischer Phänomene (z.B. Verdeckung , b・エイセ」ィオョァ@ ァ・ュセゥョウ。⦅@ Ohnntegrat10nsze1ten und Frequenzgru ppenbreiten [7 2.5]) und Prozessen der auditiven Aufmerksam keit lässt sich der CPE umfassend beschreiben. 2.6.4 Continuity Illusion Ein Pro?Iem, das bei Betrachtung des CPE deutlich wird, ist, aus der alltäglichen Mixtur von Nutz- und Störschall die relevanten Signale herauszufilte rn und daraus ei? sinnvolles Ganzes zu bilden. Denn sowohl die Klänge einzelner 1m Orchester als auch die Stimmen in einer Cocktailpart yiセウエイオ_Q・ョ@ S1tuat10n werden regelmäßig für einen bestimmten Zeitraum vollständig verdeckt. Trotzdem schafft es unser auditorische s System, daraus zusammenhä ngende sinnvolle Einheiten zu extrahieren. Es muss also so etwas wie einen Rekonstruktion smechanism us geben, der diese Aufgabe übernimmt. Erste Studien zu diesem Thema finden sich Anfang der 1950er Jahre bei 106 Miller ..und Licklider. Diese modifizierten verschiedene Sprachbeispiele so, Lucken entstanden, aufgrund welcher die Beispiele nicht mehr verständセ。ウ@ lich waren. Füllte man die Lücken mit Rauschen, wurde die Sprache wieder als durchgehend er auditorische r Stream wahrgenomm en und das Gesprochene verstanden. Der gleiche Effekt trat auf, verwendete man anstatt Sprache unterbroche ne Töne, deren Lücken mit Rauschen gefüllt wurden. In Anlehnung an den visuellen Effekt, der entsteht, wenn man sich an einem Lattenzaun vorbeibewegt, bezeichneten Miller und Licklider das Phänomen als >pi10 cket fence effect<. ' Weitere Untersuchun gen dazu finden sich z.B. bei Vicaio• B . b rmg I08 D • un d regman, McAdams und Bregman 11 0 Warren et annen no, ' d a 1., "'Tougas un Bregman"' oder Warren.'" attention; A.M. Treisman I G. Geffen (1967), Selective attention: Perception or response; N.L. Wood IN. Cowan (1995), The cocktail party phenomenon revisited. 104 N. Lav.ie (2005), Distracted and confused; C. Spence / C. Santangelo (2010), Auditory attention. 105 ].B. Fntz IM. Elhilah I S.V. David/ S.A. Shamma (2007), Auditory attention. ・イ@ I ].C.R. L1ckltder (1950), The intelligibility of interrupted speech. 106 G.A. mセャ I ].C.R. L1ckltder (1950), The intelligibility of interrupted speech, S. 173. 107 G.A .. mエセャ・イ@ 108 G. Vtcano (1960), L'effetto tunnel acustico. 216 Auditorische Szenenanalyse Der picket fence effect, der ab Anfang der 1970er Jahre meist als >continuity illusion < bezeichnet wurde, ist also im Prinzip die perzeptuelle Kompensation der Verdeckung des akustischen Signals."' Abhängil? von der Art der Rekonstruktion , die das auditorische System zu leisten hat, sind unterschiedliche Mechanismen involviert. Die in Studien bei einfachen Stimuli und kurzen Lücken beobachtete Kontinuität der Wahrnehmu ng ist größtenteils durch spektrale und zeitliche Verdeckung serscheinung en zu erklären."' Werden jedoch durch einen ga nze melodische Verläufe .oder lä?gere sーイ。セィウ・オョコ@ Maskierer hindurch rekonstruier t, so smd vermutlich mcht nur psychoakust1sche, sondern vor allem auch höhere Prozesse neuronaler Verarbeitun g involviert."' Besonders deutlich wird dies bei der >phonemischen Restauration <, '" d.h. der Rekonstrukt ion von einem oder mehreren Phonemen, die durch Störschall verdeckt werden. Beide Arten von Prozessen konnten im Zusammenhang mit der continuity illusion zudem in neurowissenschaftlichen Studien nachgewiesen werden.' " Zusammenfa ssend lässt sich festhalten, dass Streamingprozesse innerhalb der ASA dazu da sind, das akustische Signal zu ordnen und sinnvolle zusamdazu mengehören de Einheiten zu erkennen, die continuity illusion hingegen 11 9 halten. aufrechtzuer Störungen bei auch beiträgt, diese Ordnung 109 G.L. Dannen bring/ A.S. Bregman (1976), E ffect of silence between tones on auditory stream segregation. 1105. McAdams / A.S. Bregman (1985), Hearing musical streams. 111 R.M. Warren / ].M. Wrightson / ]. Puretz (1988), Illusory continuity of tonal and infratonal periodic sounds. 112 Y. Tougas / A.S. Bregman (1990), Auditory streaming and the continuity illusion. 11 3 R.M. Warren (2008), Auditory perception. 114 A.S. Bregman (1990), Auditory scene analysis, S. 346. ll5R.M. Warren (2008), Auditory perception, S. 150-173. 116A.S. Bregman (1990), Auditory scene analysis, S. 376. 11 7 R.M. Warren (1970), Perceptual restoration of m issing speech sounds. 118F.T. Husain / T.P. Lozito / A. Ulloa / B. Horwitz (2005), Investigating the neural basis of the auditory continuity illusion. 119Y. Tougas / A.S. Bregman (1990), Auditory streaming and the continuity illusion, S. 125. 217 Akustik und Alltagswissen über Musik 2. 7 Akustik und Alltagswissen über Musik Von Kathrin Schlemmer Im Konzertsaal, im heimischen Wohnzimme r oder auch im Auto sind' Musikumgeben, die sie hörend begreifen oder auch einfach hörende _von kャ¦セァョ@ nur an sich vorbe1z1ehen lassen: Jede gehörte Musik hinterlässt beim Hörenden Spur_en: Durch ständiges Hören wird auch beim musikalische n Laien ein aufgebaut. Worin besteht nun dieses Alltagswisse n mセウゥォ@ ゥNセ・イ@ セャエ。ァウキQ⦅・ョ@ es das Hören von Musik? Wenn Alltagswissen Wie 「・セョヲャオウエ@ mオウセォ_@ セ「・イ@ Horerfahrun g aufgebaut wird, bedeutet das ja auch, dass 、オイセィ@ mエセウQォ@ セ「・イ@ aktuell erklingende Musik anders wahrnimmt, je nachJeder Horende ・Qセ@ dem, welche Musik er vorher schon einmal gehört hat. Diese Tatsache wird top-down Prozess umschrieben: Denkprozess e im Gehirn durch den bセァイゥヲ@ des Langzeitged ächtnisses beeinflussen die aktuelle @ ・ エ ャ 。 ィ セ A (»top«) sowie Wechselwirk ung von Gedächtnis und aktueller Indie Uber ng. Wahrnehmu es eine reichhaltige Forschungst radition in der gibt ヲッイュ。エゥョセカ・「オァN@ auch 1n der Musikpsych ologie. Das Gegenstück zum topPsychologie オセ、@ down Prozess _ist der bottom-up Prozess, damit ist eine primär auf den Merkbasierende Information sverarbeitun g gemeint. (z.B. mオウゥセ⦅I@ des r・Qセウ@ セャ・ョ⦅@ konnen solche Prozesse interessant sein, weil es die セォオウエQヲッイ」ィョァ@ fエセイ@ mittlerweile Computerpr ogramme gibt, die eindeutig definierte akustische Parameter al_s Input verwenden.' Es stellt sich die Frage, mit welchem Output rechnen _kann, ob _a lso in letzter Konsequenz ein Computerpr oman 、。「セQ@ die menschliche Musikwahrn ehmung simulieren kann. Oder auch: ァイセュ@ Information en müsste man ein solches Programm ausstatten Mit ⦅キ・セ」ィョ@ em Computer Musik in ähnlicher Weise »hören« kann wie ein reale; 、。 N セュエ@ Horer? das Hören musikalischer Aufführunge n. sich ヲセイ@ . Ä?nliche Fragen ウエ・ャセョ@ Musikhören de nicht nur die gespielten beurteilen ms Bei emem Konzerterleb deren Interpretatio n durch die Auffi.ihauch sondern Werke, bzw. ァ・ウオセョ@ einer gehörten Interpretatio n heutzuBewertung die \1if 1e 「セ、・オエウ。ュ@ イ・ョ、セN@ t_age 1s_t, lasst sich z.B. an der Tatsache ablesen, dass sich viele Musikkritik en und Bewertung der Interpretatio nsaspekte ・ァ セ、@ auf die b・ウ」ィセゥ「オョァ@ オ ⦅ 「・イキQ emer Auffuhrung konzentnere n. Auch für die Analyse musikalische r Auffüh- 1 Im Überblick: P. Toiviainen (2008), Musikalische Wahrnehmung und Kognition im Computermodell. 218 rungen gibt es Computerpr ogramme, die akustische Parameter als Input verwenden, so dass sich wieder die Frage anschließt, wie gut sich mit solchen Parametern eine reale Aufführung beschreiben lässt. Umgekehrt kann man nach den Möglichkeit en der Simulation fragen: Kann ein Computer, der mit akustischen Parametern wie z.B. Lautstärke arbeitet, eine glaubwürdig e Interpretation einer Klaviersona te von Beethoven anbieten? Könnte er darüber hinaus das Werk auch mit erkennbarem emotionalen Ausdruck »sp ielen«, vorausgesetzt er wurde mit den hierfür als relevant erachteten Parametern ausgerüstet? Nicht alle diese Fragen lassen sich heute schon zufrieden stellend beantworten. In diesem Kapitel soll auf der Grundlage des aktuellen Forschungsstandes nach Antworten gesucht und dabei der Bedeutung akustischer Phä nomene für das Erleben von Musik nachgegange n werden. Es wird danach gefragt, welches Alltagswissen über Musik für das Musikerlebe n bedeutsam ist, wie dieses Alltagswissen entsteht und wie man es empirisch nachweisen kann. Außerdem wird untersucht, wie viel Alltagswissen man mit Parametern der Akustik erklären kann und wo die Grenzen der Akustik für das Verständnis des menschlichen Musikerlebe ns liegen. 2.7.1 Melodie Weitet man den Blickwinkel des Interesses vom einzelnen Ton auf den musikalischen Parameter der Melodie aus, so bedeutet dies gleichzeitig, dass man auf der Seite des Hörers Gedächtnisp rozesse betrachten muss, die überhaupt erst zur Wahrnehmu ng einer Melodie führen. Prozesse des kurz- und langfristigen Gedächtniss es interagieren in komplexer Weise mit psychoakust ischen Prinzipien der Tonhöhen- und Rhythmusan alyse. Zunächst ist zu fragen, wie ein Hörer eine Melodie erkennt, wenn sie entweder mit Begleitung erklingt oder Bestandteil eines polyphonen Satzes ist . Forschungen zur Auditiven Szenenandlyse [セ@ 2.6] beschäftigen sich mit dieser Frage der Strukturieru ng des wahrgenomm enen Schalls, einem Prozess des menschlichen Echogedächtnisses. Dowling' konnte zeigen, dass eine Trennung zweier Stimmen ohne Text, ohne Klangfarben unterschiede und im gleichen Frequenzber eich nur dann möglich ist, wenn sich der Hörer bewusst auf eine der Stimmen konzentriert , deren Melodie ihm vorab bekannt sein muss. Dieser Befund unterstreich t die Bedeutung des Langzeitgedächtnisses für die aktuelle Musikwahrn ehmung: 2 W .J. Dowling (1973), The perception of interleaved melodies. 219 Katrin Schlemmer Melodien, die in der individuellen Hörbiografie eines Menschen durch mehrfaches Hören oder andere Umstände eine besondere Rolle spielen, werden langfristig gespeichert. Beim Musikhören findet neben anderen Prozessen ein Vergleich gehörter Melodien mit gespeicherten Melodien statt. In »schwierigen« Fällen wie z.B. den bei Dowling genutzten Musikbeispielen kann das gespeicherte Wissen ausschlaggeben d dafür sein, ob eine Melodie als solche erkannt wird oder nicht. In komplexen Hörumgebunge n, und dazu zählt mehrstimmige Musik, ist die Erkennung einer Melodie demnach kein automatisierter Prozess, sondern durch Erfahrungen gesteuert. Als nächstes ist zu fragen, wie der Hörer eine wahrgenommen e Melodie strukturiert, also hörend nachvollzieht. Hierbei ist die Unterscheidung zwischen bewusstem, auch benennbarem Wissen und implizitem, nicht benennbarem Wissen von Bedeutung. Durch mehrfaches Hören von Musik einer musika lischen Stilrichtung erwirbt auch der musikalische Laie implizites Wissen über .diesen Musiksti.l. Dieses Wissen ist in Form von Schemata organisiert, die sich durch Verallgemeinerung vieler d.as smd abstrak.te wQウ・セエイオォョL@ einzelner Erlebnisse ausbilden und helfen, neue Erlebnisse einzuordnen. Durch schematisches Wissen kann der Hörer beispielsweise unübliche harmonische Wendungen oder innovative Melodien erkennen, auch wenn er diese nicht konkret benennen kann. Im Unterschied dazu entwickeln musikalische Experdie Beschäftigung mit Musiktheorie auch ein explizites Wissen z.B. 、セイ」@ セN・ョ@ uber musikalische Strukturen, mit dessen Hilfe sie z.B. eine musikalische Fo.rm benennen können. Die Lernprozesse, die zum Erwerb von implizitem W issen führen, beginnen bereits im frühen Kindesalter. So haben Krumhansl und Jusczyk' gezeigt, dass Säuglinge bereits im Alter von vier bis sechs Mona von Musik (Menuette von W.A. Mozart) ャ@ auf die pィイ。ウ・ョセエオォ@ ten セ・ョウゥ「 reag ieren. Als Parameter, die für die Phrasierung bedeutsam waren konnten .T.onhöhen sowie zunehmende Tondauern vor pィイセウゥ・オョァᆳ sie 。「ヲAャ・ョ、セ@ grenzen identif!Zleren. Krumhansl und Jusczyk ziehen die interessante ParalleParameter auch für die Segmentierung gehörter Sprache bele, dass 、ゥ・セャ「ョ@ seien und sch lagen vor, dass es sich in einem globa leren Sinne um 、・オエウセュ@ akustische Marker zur Segmentierung von Schall handeln könnte. Be.deutung .akustischer Parameter für die Strukturierung von Musik . dゥセ@ zeigt sich m den mittlerweile vorliegenden Erfo lgen beim Versuch, die Strukturierung mithilfe solcher Parameter zu modellieren.4 Nach Paulus Mü ll er westliund Klapuri funktioniert die Analyse der musikalischen Struktur カッセ@ 3 C. Krumhansl I P.W. Jusczyk (1990), Infants' perception of phrase structure in music. 4 ]. Paulus IM. Mü ller I A. Klapuri (2010), Audio-based music structure analysis. 220 Akustik und Alltagswissen über Musik eher Popmusik (auf die sie sich beschranken) mithilfe von drei Mechanismen erfo lgreich: der Erkennung von Wiederholunge n akustischer Muster, der Erkennung von Kontrasten sowie der Erkennung von Passagen mit homogener akustischer Struktur. Die akustischen Parameter, die sich für die Strukturerkennung bewährt haben, sind die Klangfarbe, das Tonklassenprof il, die Lautstärke und die metrische bzw. rhythmische Akzentstruktur , jedoch berücksichtigen die wenigsten Modellierungen mehrere Merkmale. Hierin unterscheiden sie sich von der menschlichen Informationsve rarbeitung, was ein Grund dafür sein könnte, dass zum jetzigen Zeitpunkt musikalische Strukturerkennung nicht zufriedenstellend modellierbar ist. Eine Parallele zwischen der automatisierten und der mensch lichen Strukturerkenn ung besteht insofern, als beide nur mit »vertrauten« Musikstilen funktionieren. Ebenso wenig wie ein westlicher Hörer auf Anhieb die Musik eines anderen Kulturkreises hörend strukturieren kann, ist ein Computerprog ramm mit den beschriebenen akustischen Parametern zu einer Strukturierung in der Lage. Hierin zeigt sich die Bedeutung des durch Hörerfahrung erworbenen schematischen Wissens. Schließlich stellt sich die Frage, welche Melodien vom Hörer als schön bewertet werden. Für die Beantwortung dieser Frage sind Forschungen aus dem Bereich der experimentellen Ästhetik wie auch aus der Emotionspsych ologie aufschlussreich. Berlyne5 schlug in einer in der experimentellen Ästhetik viel beachteten Theorie vor, dass die Präferenz für ein Musikstück mit dessen Erregungspoten zial zusammenhänge. Demnach wird Musik mit einem mittleren Erregungspoten zial am stärksten bevorzugt. Das Erregungspotenzial ergibt sich nach Berlyne aus psychophysisch en Variablen (z.B. Tempo, Lautstärke), ökologischen Variablen (z.B. der subjektiven Bedeutung eines Musikstücks) sowie kollativen Variablen. Letztere hält Berlyne für besonders wichtig und meint damit den Informationsge halt der Musik. In dem Maße, in dem ein Musikstück für den Hörer unvorhersehba r und der Musikstil unbekannt ist, steigt seine Komplexität und damit das Erregungspotenzial. Empirische Untersuchunge n können Berlynes Theorie zumindest teilweise stützen, beispielsweise fand Kellaris,' dass bei sozialen Zusammenkünf ten diejenigen Bands den längsten Applaus erhielten, die im mittleren Tempobereich musizierten. In einer eigentlich in der Kreativitätsfors chung angesiedelten Untersuchung fand Simonton' einen Zusammenhang zwischen der melodischen Ori- 5 D.E. Ber lyne (1971), Aesthetics and psychobiology; vgl. im Überblick A.C. North I D.J. H argreaves (2008), The social and applied psychology of music, S. 76-84. 6 ].]. Kellaris ( 1992), Consumer esthetics outside the /ab. 7 D.K. Simonton (1980), Thematic fame, melodic originality, and musical Zeitgeist. 221 Akustik und Alltagswissen über Musik Katrin Schlemmer ginalität (die man als Maß für Komplexität verstehen kann) und der Popularität von Kompositionen. Er hatte mit insgesamt 15.618 musikalischen Themen von 479 klassischen Komponisten eine große Datenbasis aus dem Bereich der klassischen Musik. Neben der objektiv anhand von ᅵ「・イァ。ョウキィセ」ゥᆳ lichkeiten zwischen benachbarten Tönen berechenbaren Komplexität spielt aber auch die subjektiv wahrgenommene Komplexität von Musik eine Rolle, denn sie bezieht die Hörerfahrung des Beurteilenden mit ein. Damit kann man erklären, dass dasselbe Musikstück an Komplexität verliert, wenn es sehr oft gehört wurde.' Die subjektiv wahrgenommene Komplexität ist - neben anderen personenbezogenen Einflussfaktoren auf Musikpräferenzen - eine mögliche Begründung für die Tatsache, dass dieselbe Melodie bei verschiedenen Hörern ganz unterschiedliche Gefallensurteile hervorrufen kann. In der musikbezogenen Emotionsforschung wurde der Frage, welche Melodien Hörer als schön empfinden, z.B. dadurch nachgegangen, dass körperliche Reaktionen beim Musikhören gemessen werden . Dabei fanden Grewe und andere,' dass das Auftreten von »Chill «-Reaktionen (Gänsehaut) beim Musikhören nicht durch einfache Reiz-Reaktions-Muster erklärbar ist. Obwohl bestimmte akustische Ereignisse (plötzlicher Lautstärkeanstieg) sowie musika lische Ereignisse (Beginn eines Abschnitts, Beginn eines Solo- oder Choreinsatzes) häufig mit Gänsehaut verbunden sind, ist das Erleben von Gänsehaut auch von der musikalischen Erfahrung und der Persönlichkeit des Hörers abhängig und damit nicht alleine durch die gehörte Musik erklärbar. Mit anderer Methodik kam Sloboda' 0 zu einer ähnlichen Schlussfolgerung. Bei der Analyse von in einer Umfrage genannten Musikausschnitten, die häufig emotionale Reaktionen (z.B. Gänsehaut oder Tränen) hervorrufen, fand er deutliche Zusammenhänge mit musikalischen Strukturmerkmalen (z.B. unerwartete harmonische Wendungen, melodische Sequenzierung). Diese Strukturmerkmale lösen jedoch nur dann das Gefühl besonders schöne Musik zu hören aus, wenn sie im impliziten Wissen des Hörers verankert sind. Damit betonen sowohl die Erkenntnisse der experimentellen Ästhetik als auch die musikpsycho logischen Befunde die aktive Rolle des Musikhörers beim emotionalen Erleben von Musik. Die beschriebenen Befunde zeigen, dass die menschliche Melodiewahrnehmung sich teilweise durch Bottom-up-Prozesse erklären lässt. Hierbei spie- 8 Vgl. A.C. North I D.J. Hargreaves (2008), The social and applied psychology of music, S. 81ff. 9 0. Grewe I F. Nagel / R. Kopiez / E. Altenmüller (2007), Listening to music as a re-creative process. 10 J. Sloboda (1991), Music structure and emotional response. 222 . Jen akustische Parameter eine wichtige Rolle, u.a. die fイ・アセョコ@ für die Melodieerkennung, Frequenz, Lautstärke und Tondauer für dte Strukturanalyse, sowie Tempo und Lautstärke für die Bewertung von Melodien. Mit den beschriebenen Bottom-up-Prozesse n kann man die Komplexität der menschlichen Melodiewahrnehmu ng jedoch nicht angemessen beschreiben. Vielmehr sind es die durch Denkvorgänge und Gedächtnisprozesse gesteuerten Topdown-Prozesse, die einen Bezug zur eigenen Hörbiografie herstellen und dadurch ein wirk liches Musikerleben erst ermöglichen. 2.7.2 Rhythmus und Tempo Während dem mu sikalischen Rhythmus im Hinblick auf die Notenwerte in einer Partitur etwas Regelhaftes und Logisches innewohnt, bedeutet dies nicht, dass man die menschliche Rhythmuswahrnehm ung leicht erklären _kann oder dass sie gar deckungsgleich mit dem physikalisch vorhandenen Reizmaterial sei. Dass dies nicht der Fall ist, lässt sich z.B. anhand des als >subjektive Rhythmisierung< bekannten Phänomens veranschaulichen, einer Wahrnehmung eigentlich gleichabständiger Klickgeräusche als Gruppen von jeweils zwei oder drei Klicks. In interdisziplinären Forschungsansätzen wird versucht, die menschliche Rhythmuswahrnehm ung sowie die Wirkung des Rhythmus auf den Menschen zu ergründen. Eine grundlegende Frage bezieht sich auf die Präzision der menschlichen Pulserkennung. Greift man die gleichabständigen Klickgeräusche als Reizmaterial wieder auf, so lässt sich eine hohe Genauigkeit bei der Erkennung kleiner Verschiebungen von Impulsen nachweisen, die allerdings auch tempoabhängig ist. Wie kann man diese Genauigkeit, die sich umgekehrt auch beim Mitklopfen zu gleichabständigen Impulsen zeigt, theoretisch erklären? Nach Auffassung von Auhagen" eignen sich hierfür sowohl das Modell einer inneren Uhr mit variablen Basiseinheiten; wie z.B. von Povel und Essens" vorgeschlagen, als auch Oszillatorenmodelle. Das Modell von Langner1 3 beispielsweise geht von 4.080 Oszillatoren aus, deren jeweilige Aktivitätsniveaus durch die Regelmäßigkeiten des Reizmaterials bestimmt werden. Während Oszillatorenmodelle im Computer gut modellierbar sind, steht ein Nachweis, dass 11 W. Auhagen (2008), Rhythmus und Timing, S. 442ff. 12 D.J. Povel / P. Essens (1985), Perception of temporal patterns. 13 J. Langner (2002), Musika lischer Rhythmus und Oszillation. 223 Katrin Schlemmer die modellierten Prozesse den Verarbeitungsprozessen im menschlichen Gehirn ähneln, aber noch aus.' 4 Beim Hören von durch menschliche Interpreten dargebotener Musik sind Pulserkennung und Rhythmuswahr nehmung wesentlich komplizierter als im bisher beschriebenen Fall, weil die Tondauern von diesen nicht mathematisch exakt realisiert werden (können). Dass trotzdem rhythmische Strukturen erkannt werden können, ist nach Auhagen ein Indiz für die kategoriale Wahrnehmung von Rhythmen: »Dementsprechend gibt es Klassen von zeitlichen Mustern, die jeweils als ein und derselbe Rhythmus wahrgenommen werden «.11 Hier kommt wieder das implizite Wissen über Musik ins Spiel, denn Hörer verfügen offenbar über eine trainingsabhängige Anzahl solcher zeitlicher Muster im Langzeitgedächtnis, mit deren Hilfe sie gehörte Musik rhythmisch analysieren können. Implizites Wissen über stilspezifische musikalische 6 Phänomene sind nach Grosche, Müller und Sapp' auch der Grund für Probleme, die ausdrucksvolle klassische Instrumentalmu sik den meisten Methoden Pulserkennung bereitet. Als Beispiel für stilspezifische muz.ur セオエッュ。ゥウ」ィ・ョ@ sikalische Phänomene romantischer Klaviermusik nennen sie Schläge ohne Notenereignis (Pausen), Verzierungen sowie den leicht asynchronen Stimmenbei Akkorden. _Dagegen funktioniert die automatische Pulserkennung ・ゥセウ。エコ@ bei moderner Popmusik aufgrund des meist stark betonten Pulses und des stabilen Tempos deutlich besser. Dieser Unterschied verdeutlicht die bislang nur menschlichen Musikhörern zugeschriebene Eigenschaft, in einem aktiven Wahrnehmungs prozess fehlende Informationen durch Vorwissen zu ergänzen. Wenn musikalischer Rhythmus kategorial wahrgenommen wird, stellt sich Frage, ob bestimmten Rhythmuskateg orien auch eine besondere Wirkung 、ゥセ@ beim Hörer zukommt. Dazu gibt es neben einer musiktheoretischen und -ästhetischen Diskussion" auch einige empirische Ergebnisse. So fand beisp!elsweise Gundlach," dass Rhythmen, die als gleichmäßig beurteilt wurden, bnllant, lebhaft oder freudig wirkten, während unregelmäßigere Rhythmen eher delikat, empfindsam, würdevoll und düster (bei einfachen Proportionen) oder gar grotesk und unruhig (bei ungleichen Proportionen) wirkten. MotteHaber" fand ähnliche Faktoren und darüber hinaus noch diejenigen der Trauer 14 W. Auhagen (2008), Rlrythmus und Timing, S. 444. 15 W . Auhagen (2008), Rhythmus und Timing, S. 442. 16 P. Grosche IM. Müller I C.S. Sapp (2010), What makes beat tracking difficult? 17 Vgl. H. de Ja Motte- Haber (1996), Handbuch der Musikpsychologie, S. 30f. · 18 R.H. Gundlach (1935), Factors determi11ing the characterization of musical phrases. 19 H. de Ja Motte-Haber (1968), Ein Beitrag zur Klassifikation musikalischer Rhythmen. 224 Akustik und Alltagswissen über Musik . und der ausgeglichenen Ruhe. Außerdem stellte sie eine Abhängigkeit des wahrgenommen en Charakters der Rhythmen vom Tempo, in dem sie dargeboten wurden, fest. In einer Metastudie konnten Gabrielsson und Lindström'° nachweisen, dass unter einer Vielzahl musikalischer Faktoren - betrachtet wurden neben dem Tempo die Faktoren Tongeschlecht, Lautstärke, Tonhöhe, Intervalle, Melodieführung, Harmonik, Tonalität, Rhythmus, Klangfarbe, Artikulation und musikalische Form - das Tempo den größten Einfluss auf die emotionale Wirkung eines Musikstücks hat. Bei der Interpretation der genannten Befunde ist zu bedenken, dass die Ausdrucksqualitäten von Rhythmen bei Personen des westlichen Kulturkreises nachgewiesen wurden und nicht ohne entsprechende Überprüfung als universell gültig angesehen werden können. Es ist denkbar, dass sowohl innermusikalische als auch außermusikalische Faktoren zur Ausbildung solcher Assoziationen führen. Auch hier dürfte es vom impliziten Wissen des Hörers über einen Musikstil abhängen, wie ein bestimmter Rhythmus beurteilt wird. Im Zusammenhan g mit der Annahme einer kategorialen Rhythmuswahr nehmung wurde bereits erwähnt, dass die Tondauern bei musikalischen Aufführungen nicht genau mit den notierten Tondauern übereinstimmen. Vielmehr existieren charakteristische Abweichungen zwischen gesungenen/gespielten und notierten Tondauern, die in der Forschung zum Timing genauer untersucht werden. Ein gut untersuchtes Beispiel ist der Wiener Walzer, bei dem die zweite Zählzeit etwas vorgezogen wird. Durch systematische TempoVariationen wird neben der Erzeugung von musikalischem Ausdruck auch die Struktur gespielter Kompositionen verdeutlicht." Charakteristisch ist beispielsweise die Verdeutlichung von Phrasengrenzen durch eine Verlangsamung. Während die Forschung einerseits einen systematischen Zusammenhang solcher Ritardandi mit dem gespielten Grundtempo nachweisen konnte," ist gleichzeitig zu bedenken, dass Interpretationsprozesse komplex sind, weil Tempo-Veränderungen gleichzeillig auf mehreren zeitlichen Ebenen (z.B. Taktebene, Phrasenebene) stattfinden können." Diese Vielschichtigkeit der Interpretation durch Timing lässt sich nach Kopiei' mithilfe von Oszil11 logrammen auf der Basis von Langners Oszillationstheorie darstellen, und es 20 A. GabrieJsson / E. Lindström (2001), The inf7uence of musical structure on emotional expression. 21 A. GabrieJsson (1999), The performance of music. 22 Vgl. W. Auhagen (2008), Rhythmus und Timing, S. 450. 23 R. Kopiez (2008), Reproduktion und lllterpretation, S. 329. 24 R. Kopi ez (2008), Reproduktion und Interpretation, S. 330. 25 J. Langner (2002), Musikalischer Rhythmus und Oszillation. 225 Akustik und Alltagswissen über Musik Katrin Schlemmer lassen sich die Kennwerte »Anregungsstärke « und »Änderungsstärke« von Rhythmen berechnen. Die Anregungsstärke bezieht sich dabei auf das Moment des Regelmäßigen, während die Änderungsstärke das Moment der Veränderung oder Interessantheit kennzeichnet. Mithilfe dieser Kennwerte können Rhythmus-Interpretationen bewertet oder verglichen werden. Die Vielschichtigkeit rhythmischer Interpretation, die z.B. bei der Verdeutlichung von Phrasengrenzen davon abhängig ist, dass der Interpret aufgrund seines stilspezifischen Wissens über Musik die Phrasen erkannt hat, ist ein Grund dafür, dass eine künstliche Interpretation musikalischer Kompositionen durch Interpretationsprogramme bislang nicht überzeugend gelingt. Ein weiterer Grund liegt darin, dass musikalischer Ausdruck neben dem Timing noch durch eine Vielzahl anderer Variablen mit bedingt ist.'6 Neben der Wirkung einzelner Variablen müssen schließlich auch deren Wechselwirkungen erkannt worden sein, bevor die Synthese durch computergestützte Verfahren gelingen kann. Sowohl mit einfachsten Klickgeräuschen als auch mit komplexen Musikwerken lässt sich ein Phänomen immer wieder beobachten: die Präferenz von Hörern für ein bestimmtes Tempo. Während es sich bei Tempovorlieben bei vertrauter Musik um eine Frage des musikalischen Gedächtnisses handelt, stellt sich bei der Bevorzugung bestimmter Klicktempi die Frage, warum es Tempi gibt, die besonders anregend für die menschliche Wahrnehmung wirken. Fraisse" spricht vom »spontanen« Tempo und wies in Versuchen eine Bevorzugung von Tempi um etwa 120 Schläge pro Minute nach. Eine Erklärung bietet die Annahme interner Oszillatoren mit maximaler Resonanz bei der Periodendauer von 500 ms (dies entspricht 120 Schlägen pro Minute), deren physiologische Basis jedoch noch genauer erklärt werden muss. Bei komplexer Musik scheint neben solchen angenommenen Oszillatoren auch die Struktur der Musik wichtig zu sein für das als optimal empfundene Tempo der Aufführung. So verweist Auhagen" auf die Binnendifferenzierung der rhythmischen Struktur (die sich aus der maximalen und der minimalen melodischen Informationsdichte ergibt) und konnte außerdem zeigen, dass bei mehrfacher Auswahl eines optimalen Tempos für dasselbe Stück »die Versuchspersonen mit jedem erneuten Hören eine präzisere Vorstellung vom optimal erscheinenden Tempo aufbauten «.29 Vermutlich ist die Vertrautheit mit einem Musikstück bedeutsam für die Tempopräferenz. Für diese Vermutung 1 26 R. Bresin (2001-2002), Totuards a computationa l model of expression in music performance. 27 P. Fraisse (1982), Rhythm a11d tempo. 28 W. Auhagen (1993), Musikalische Satzstruktur und Temf1oempfinden. 29 W. Auhagen (2005), Rhythmus- und Tempoempfinden, S. 245. 226 spricht neben Auhagens Ergebn.is d.ie Beobachtung vieler Mu.sikhörer, da.ss sie sensibel auf ungewohnte Tempi bei sehr vertrauten Kompositionen reagieren. Sie wird außerdem bestätigt durch einen Befund von Levitin und Cook,' 0 die bei einer Melodie-Produktionsaufgabe nachweisen konnten, dass die von den Versuchsteilnehmern gesungenen Tempi bei sehr vertrauten Melodien (sogenannten Evergreens) überwiegend nur um den gerade noch wahrnehmbaren Unterschied von 8% vom Originaltempo abweichen. Das Originaltempo wurde hier als das Tempo der einschlägigen Aufnahme definiert. Als Erklärung für eine so genaue Tempovorstellung kann das Langzeitgedächtnis für Musik herangezogen werden, in dem sehr vertraute Musik detailgetreu hinsichtlich Tempo und weiterer Merkmale gespeichert wird. Zieht man wiederum Oszillatorenmodelle als Erklärungsmöglichkeit heran, so wäre eine genaue Tempovorstellung durch das Abspeichern des Aktivitätsmusters einer Reihe von Oszillatoren erklärbar." 2.7.3 Konsonanz, Harmonie und Tonalität Ein großer Teil der Musik, die wir im westlichen Kulturkreis hören, ist mehrstimmig. Die Zusammenklänge werden vom Hörer intuitiv als angenehm oder unangenehm bewertet, wie auch Folgen von Klängen als passend oder unpassend für einen Musikstil bewertet werden. Musikpsychologische Forschungsansätze, die sich mit einzelnen Zusammenklängen beschäftigen, tun dies oft unter dem Stichwort Konsonanz/Dissonanz. Die Einteilung von Mehrklängen in Konsonanzen und Dissonanzen kann einerseits aus historischer Perspektive (Entwicklung der Satztechnik) betrachtet werden, andererseits stellt sich die Frage, welche wahmehmungspsychologische Grundlage es für eine solche Einteilung gibt. Ebeling zieht zur Beantwortung dieser Frage elementare psychoakustische Empfindungsgrößen heran, die den Eindruck von Wohlklang oder Missklang beeinflussen: »Hohe Rauigkeit, Schärfe und Lautheit eines Schalls verringern seinen sensorischen Wohlklang, seine Klanghaftigkeit erhöht den sensorischen Wohlklang« .11 Während er den Einfluss von Lautheit und Schärfe auf das Konsonanzempfinden eher gering einschätzt, sei der Einfluss der Rauigkeit erheblich." Rauigkeit entsteht durch Fluktuationen des Schallsignals, wenn zwei Sinustöne mit sehr ähnlichen, aber nicht identischen Frequen- 30 D.J. Levitin / P.R. Cook (1996), Memory for musical tempo. 31 W. Auhagen (2005), Rhythmus- und Tempoempfinden, S. 246. 32 M. Ebeling (2008), Konsonanz und Dissonanz, S. 501. 33 Ebenda. 227 Katrin Schlemmer zen (Frequenzabstände zwischen 20 und 300 Hz) gleichzeitig erklingen:" Während man lange Zeit in den sogenannten Störtheorien die Konsonanzwahrnehmung mit der Rauigkeit von Zusammenklängen in Verbindung 5 brachte - eine Idee, die auf Hermann von Helmholtz3 zurückgeht - schlägt Ebeling eine positive Erklärung der Konsonanzempfindu ng anhand der 16 Klanghaftigkeit vor. Diese sei abhängig vom Anteil periodischer Anteile in einem Mehrklang, der mithilfe einer Autokorrelationsana lyse bestimmt werden kann. Durch den Vorschlag eines Integrations-Zeitfensters sind in Ebelings Modell auch Klänge konsonant, die minimal verstimmt sind, z.B. gleichstufig temperierte Quinten. Interessant an Ebelings Ansatz ist, dass seine Berechnung des Konsonanzgrads von Zweiklängen mit der Beurteilung solcher Klänge durch menschliche Versuchsteilnehmer übereinstimmt, die Carl Stumpf bereits im 19. Jahrhundert gemessen hat." Zudem gibt es aus neurowissenschaftlichen Studien Hinweise auf eine anatomische Grundlage derbeschriebenen Prozesse.·" Während die Konsonanzempfindu ng bei Zweiklängen durch Ebelings mathematischen Ansatz gut modellierbar und damit letztlich auf die akustischen Eigenschaften des Signals zurückführbar ist, stellt sich die Frage, wie musikalische Zusammenklänge außerhalb des Labors bewertet werden und ob letztlich die Qualität von Musik mit ihrem Konsonanzgrad zusammenhängt. Die Berechnung des Konsonanzgrades von Zusammenklängen mit mehr als zwei Tönen wird mit zunehmender Anzahl an Tönen (Drei- oder Vierklänge) und spielenden Instrumenten mathematisch sehr komplex. Vor allem ist aber zu beachten, dass sich sowohl die Anzahl als auch die Behandlung dissonanter Klänge in Musikwerken durch eine historische Entwicklung auszeichnet, so dass man musikalische Stilrichtungen unter anderem daran erkennen kann. Beispielsweise wurden in der Satzlehre des 17. bis 19. Jahrhunderts Forderungen an die Einführung und Auflösung von Konsonanzen gestellt, die im Impressionismus oder auch im Jazz nicht mehr galten. Zum impliziten Wissen von Musikhörern gehört das Wissen über den stilspezifischen Konsonanzgrad vertrauter Musik, das dazu führt, dass der Hörer eines Jazz-Konzerts andere Zusammenklänge erwartet als der Hörer einer Messe aus dem 16. Jahrhun- 34 Vgl. hierzu im Überblick: M. Ebeling (2008), Konsonanz und Dissonanz, S. 502f. 35 H. v. Helmholtz (1963), Die Lehre von den Tonempfindungen. 36 Bereits bei J.P. Fricke findet man die Idee, einen Unschärfe-Parameter in die Autokorrelationsana lyse zu integrieren, vgl. J.P. Fricke (2005), Psychoakustik des Musikhörens, S. 135. 37 C. Stumpf (1890), Tonspsychologie. 38 G. langner (2007), Die zeitliche Verarbeitung periodischer Signale im Hörsystem. 228 Akustik und Alltagswissen über Musik dert. Damit ergibt sich, dass der Konsonanzgrad kein Qualitätskriterium von Musik sein kann, sondern nur einer von vielen Einflussfaktoren auf den kom· plexen Wahrnehmungsproz ess von Musik. Neben der vertikalen Dimension von mehrstimmiger Musik, den simultan erklingenden Tönen, ist die horizontale Dimension von Interesse, also die Aufeinanderfolge von Klängen im Verlauf eines Musikwerks. Die musiktheoretische Beschreibung solcher Klangfolgen erfolgt durch die Harmonielehre, während sich die musikpsychologische Forschung mit der Wahrnehmung von Harmonie und Tonalität sowie mit der Frage befasst, ob es für die historisch gewachsenen Regeln eine wahmehmungspsych ologische Grundlage gibt. Eine psychoakustische Herangehensweise an die Harmoniewahrnehm ung erfo lgte durch Pamcutt," der nach einer sensorischen Basis für die diatonische Harmonik des westlichen Kulturkreises suchte. Mithilfe der Obertonreihe bestimmt Parncutts mathematisches Modell als Eigenschaften von Klängen (die er »musical tone simultaneities« nennt) die »tonalness « (Grad, in dem der Klang die Wahrnehmung einer einzigen Tonhöhe hervorruft), die »multiplicity« (Anzahl wahrnehmbarer Töne in einem Klang) und die »sa lience « (Grad, in dem ein Ton aus einem Klang heraushörbar ist). Klänge, die aufeinander folgen, können durch »pitch commonalities« (gemeinsame Tonhöhen) und »p itch distance « (Ähnlichkeit der Komponenten beider Klänge) charakterisiert werden. Darüber hinaus können Akkordfolgen anhand der Konsonanzen einzelner Akkorde bzw. von benachbarten Akkorden, anhand der Melodik und anhand der Tonalität hinsichtlich eines übergreifenden Konsonanzgrades bewertet werden. Mit seinem Modell gelingt es Pamcutt beispielsweise, die Mehrdeutigkeit des Tristan-Akkordes psychoakustisch zu begründen. Jedoch ist es ein lokales Modell, das mit Klängen oder kurzen Klangfolgen, nicht aber mit ganzen Sätzen oder gar ga nzen Werken arbeitet. Trotzdem schlägt Parncutt vor, dass sich sein Modell auch für die Kompositionspraxis eigne, indem man z.B. aus dem grundsätzlich riesigen Repertoire komponierbarer Klänge und Klangfolgen jene auswählt, die auf psychoakustischer Ebene gut zueinander passen, indem sie letztlich auf der Obertonreihe basieren. Die dadurch entstehenden Kompositionsregeln würden allerdings primär die Arbeit des Komponierens erleichtern und seien nach Parncutt keine Garantie für ästhetisch wertvolle Kompositionen.4° 39 R. Parncutt (1989), Harmony: A psychoacoustical approach. 40 R. Parncutt (1989), Harmony: A psychoacoustical approach, S. 166. 229 Katrin Schlemmer Die Wahrnehmung eines tonalen Zentrums beim Hören von Musikstücken versucht Leman" mit seinem Modell kognitiver Schemata zu erklären. Er geht von der Tatsache aus, dass Musikhörer aufgrund ihrer Hörerfahrung Schemata für musikalische Strukturen aufbauen. Sein Modell versucht, Schemata für die Wahrnehmung von tonalen Zentren mithilfe von neuronalen Netzwerken der künstlichen Intelligenz zu modellieren. Solche Netzwerke werden mit mu sikalischem Material trainiert, bis sich die Gewichtungen der künstlichen Neuronen an die Eigenschaften des Materials angepasst haben. Leman konnte zeigen, dass ein mit künstlichen Shepard-Tönen [7 2.5.2] trainiertes Modell »lernt«, bestimmte Töne stärker miteinander zu vernetzen als andere. Das anatomische Korrelat dieses Prozesses bei menschlichen Hörern könnte das »Einstimmen « bestimmter Neuronenverbände auf Töne oder Akkorde sein. Leman kann mit seinen Ergebnissen also zeigen, dass die Wahrnehmung von Tonalität durch das häufige Hören von Musik einer bestimmten Tonalität erlernt wird - was letztlich auch bedeutet, dass durch das Hören von Musik einer anderen Kultur ganz andere Schemata entstehen und sich damit auch die Musikwahrnehmung unterscheidet. Den Lernprozess, der bei den beschriebenen Prozessen eine Rolle spielt, nennt man >statistisches Lernen<. Statistisch bedeutet hier, dass der Hörer unbewusst die Auftretenshäufigkeiten von Akkordkombinationen oder -folgen in bestimmten Musikstilen registriert. Aus diesen Auftretenshäufigkeiten kann die Wahrscheinlichkeit für das Auftreten einer aktuell gehörten Harmoniefolge »berechnet« werden, und der Hörer merkt auf, wenn ein sehr ungewöhnlicher (weil wenig wahrscheinlicher) Akkord auftritt. All diese Prozesse sind unbewusst und treten auch bei musikalischen Laien auf, sie sind also nicht an die explizite Kenntnis z.B. einer klassischen Kadenz-Harmonisierung gebunden. Aufschlussreich sind in diesem Zusammenhang die Experimente von Koelsch und seiner Arbeitsgruppe," die beim Auftreten ungewöhnlicher neapolitanischer Sextakkorde sowohl bei Musikern als auch bei Nichtmusikern eine bestimmte Komponente im EEG (genannt »early right anterior negativity« oder ERAN) nachweisen konnte. Koelsch verweist auf Ähnlichkeiten zu Syntaxverletzungen in der Sprache. Aus seinen Studien kann man schließen, dass implizites Wissen über die musikalische Grammatik z.B. von westlicher Popmusik ähnlich verbreitet ist wie das implizite Wissen über die Grammatik der eigenen Muttersprache. Dabei sind Lernprozesse nicht auf tonales Reiz11 41 M. Lema.n (1995) , Music and schema theory. 42 Vgl. im Uberblick: S. Koelsch I W.A. Sie be! (2005), T owards a neural basis of music perce ption. 230 -- Akustik und Alltagswissen über Musik material beschränkt, beispielsweise konnte Louven auch in einem freitonalen Kontext nachweisen, dass vom Hörer Erwartungen über den passenden weiteren Verlauf eines Stücks gebildet werden.'' Louven folgert, dass für das Lernen harmonischer Regelmäßigkeiten die Regelmäßigkeit entscheidender ist als die harmonischen Strukturen selbst." Versuche mit Kindern und Babys zeigen, dass jüngere Kinder indifferenter gegenüber dissonanten Klängen oder 。エセュ・ョ@ Melodien sind als Kind_er im Grundschulalter und unterstützen damit die Annahme, dass musikalisches Wissen durch Akkulturation, die Gewöhnung an die Kultur in der sie aufwachsen, entsteht. Neuere Untersuchungen konnten jedoch teilweise schon bei sehr jungen Kindern eine Kenntnis der in ihrer Musikkultur gängigen harmoruschen Abläufe nachweisen. Dies wird heute allerdings nicht mehr mit einer angeblichen Natürlichkeit des dur-moll-tonalen Systems erklärt, sondern mit Prägungsprozessen, die bereits bei der Entwicklung im Mutterleib beginnen. • .1 Der Vorteil des erworbenen impliziten harmonischen Wissens besteht für den Hörer darin, dass es ihm eine Orientierung beim Musikhören bietet, sofern er Musik hört, deren Stil ihm bis zu einem gewissen Grad vertraut ist. Fehlt diese Orientierung, kann der Hörer keine Erwartungen ausbilden über die Fortsetzung gehörter, ihm nicht vertrauter, Musik. Nach Huron," der eine wichtige Funktion der Musik darin sieht, dass sie mit den Erwartungen der Hörer spielt, fehle damit eine wichtige Grundlage für das Vergnügen am Musikhören. Zusammenfassend lässt sich zur menschlichen Harmoniewahrnehmung sagen, dass man alleine aufgrund der akustischen Strukturen nicht auf die musikalische Relevanz von Klängen schließen kann. Diese ist vielmehr historisch und kulturell bedingt und wird vom Hörer in diesen Zusammenhängen hörend gelernt. 43 Cbr. Louven (1998), Die Konstruktion. v on Musik. 44 Chr. Louven (2005), Reiz- und wissensgeleitete harmonische Informationsverarbeitung, hier wird auch die in diesem Zusammenha ng wichtige Forschung zur Klangsyntax von R. Ebe rlein beschrieben, vgl. R. Eberlein (1994), Entstehung der tonalen Klangsynta x . 45 Vgl. M. Spitzer (2002), Musik im Kopf, S. 156-168. 46 D. Huron (2006), Sweet a11ticipation. 231 Katrin Schlemmer 2.7.4 Fazit Die beschriebenen Theorien und Befunde zur Wahrnehmung von Melodie, Rhythmus, Tempo und Harmonie in der Musik machen deutlich, dass die akustische Struktur einen gewissen Erklärungswert für die menschliche Musikwahrnehmu ng besitzt. Im Wahrnehmungs prozess werden jedoch, wie Motte-Haber bereits 1972 betonte, Akzentuierungen und Kombinationen geschaffen, »die nur mittelbare Beziehungen zu physikalischen Größen aufweisen «. 47 Während akustische Analysen beispielsweise hilfreich sind, um die Grenzen der menschlichen Hörfähigkeit zu untersuchen, sind die Grenzen zu weit, um damit zu erklären, warum sich Musik in der westlichen Kultur so entwickelt hat, wie sie es tat. Nur in der Erweiterung durch psychologische Theorien, die z.B. die Rolle der Erwartung thematisieren, kommen wir Erklärungen für die Prominenz bestimmter Klänge oder Klangfolgen in unserer Musikkultur näher. Folglich kann ein Projekt für die künftige Forschung, eine Theorie der menschlichen Musikwahrneh mung, kaum alleine von einer Wissenschaftsdisziplin bewältigt werden, sondern nur im Rahmen interdisziplinärer Forschungsansätze. 47 H . de la Motte-Haber (1972), Musil<psychologie, S. 51. 232 3. DAS KONZ ERT MIT ELEK TROA KUST ISCHE R MUSI K 3.1 Frühgeschichte der elektrischen Musi kinst rume nte Von Peter Donha user 3 .1.1 Einfü hrung derartige Kaum eine Musiki nstrum enteng ruppe hat in nur 120 Jahren eine n und ualitäte Klangq Vielfalt an verschiedenen Klangerzeugungsmethoden, Ihre ente. Instrum chen Instrum entenfo rmen hervorgebracht wie die elektris Tonund nk Rundfu von Ideengeschichte ist zudem eng mit der Entwicklung entatio n film zu sehen. Noch ist die organologische Beschreibung, die Repräs g: risierun Katego die für gilt s Gleiche in der Literat ur und in Musee n im Fluss. von die wobei e, System edene Für wissenschaftliche Zwecke gibt es verschi ntlichte Erich Moritz von Hornbo stel und Curt Sachs 1914 erstmals veröffe andecher mehrfa trotz rt, orientie ng Einteilung, die sich an der Klangerzeugu ' Dräger einz Hans-H von 1948 Die ist. ch rer Ansätze immer noch in Gebrau laufend enzeit Zwisch der in wurde < ophone hinzugefügte Gruppe der >Elektr betracherweitert und differenziert, darf also ebenfalls als im Fluss befindlich Diese anten. ngsvari rzeugu Klange neue immer en tet werden, zudem entsteh Diffeweitere eine auf wird Ferner . benutzt nicht hier Systematik wird daher isch« renzierung zwischen »elektronisch« (mit aktiven Bauteilen) und »elektr nur zität Elektri (ohne aktive Bauteile) verzichtet. Instrum ente, bei denen die rde Delabo J.B. von Bewegungsvorgänge auslöst wie das »clavessin electrique « elektrimit Orgel die (1761), Hipps elektromechanisches Klavier2 (1867) oder hätte,' scher Traktu r, die Sachs 1940 noch zu den Elektro phonen gezählt die est zumind muss es t; kommen für unsere Überlegungen nicht in Betrach verlung Darstel e folgend Klangabstrahlung rein elektrischer Natur sein. Die steht sich als exemplarisch. 1 H.H. Dräger (1948), Prinzip einer Systemat ik, S. 43ff. 2 M. Hipp (1867), Das elektrische Clavier. der übrigen Systematik zugrun 3 C. Sachs (1940), The history, S. 447ff. Sachs verließ dabei da s heit betreffend die technisicher Un der wegen sichtlich gung, deliegend e Prinzip der Tonerzeu schen Gegebenheiten der neuen Instrume ntenga ttung. 235 Peter Donhauser Frühgeschichte der elektrischen Musikinstrumente 3.1.2 Elektro-mechanische Instrumente Die Klangerzeugung erfolgt durch mechanische Komponenten (jedoch keine Oszillatoren wie Saiten etc.), der weitere Signalweg ist ausschließlich elektrischer Natur. Das Dynamophon und die elektromagnetische Klangerzeugung Dynamophon und Telharmonium Das älteste elektrische Instrument ist wohl das vom amerikanischen Patentanwalt Thaddeus Cahill 1897 konzipierte >Dynamophon<. 4 Der Name weist auf die Tonerzeugung hin: mittels Generatoren (wie sie aus der Elektrizitätserzeugung bekannt waren) wurde durch Erhöhung der Polzahlen tonfrequenter Wechselstrom erzeugt. Nachdem verschiedene Frequenzgemische über Schalter zusammengesetzt werden konnten, sprach Cahill erstmals von »synthesizing «. 5 Sein erstes Instrument wurde 1906 in Holyoke/Massachusetts fertig, das dritte bestand in New York bis 1918. Der alternative Name >Telharmonium<weist darauf hin, dass seine Klänge über Telefonleitungen verbreitet wurden. Nicht zuletzt der riesigen Ausmaße (die Anlage wog 200 Tonnen) und der damit verbundenen Kosten wegen musste das Projekt eingestellt werden. Das erstgebaute, übrig gebliebene Instrument wurde 1958 verschrottet! Die Idee der elektromagnetisch über gezähnte Ankerscheiben erzeugten Tonspannungen fand sich in weiteren Instrumenten wieder. Abb. 1: Generatoren des Dynamophons im Keller von Cahill 's Labor in Holyoke. 4 Patente US 580.035, 1.107. 261 , 1.213.803, 1.21 3. 804 und 1.295.691. 5 Patent US 580.035, S. 2. 6 Siehe R. Weidenaar (1995), Magie music, S. 255. 236 7 7 Electrical W orld (28.3.1910 ), S. 1060. 237 Frühgeschichte der elektrischen Musikinstrumente Peter Donhauser 'YJ;1 / セOャ・コL@ セoヲ」uョ@ -thanks to musicr' T h\E ANO acNセ 11.>nllell キ セ@ ャイ 'i :am not .a in L@ オ イセ@ l.un111<.">11d 1l111t1tf"I' fl.1A' /1 kt ibi) out , profossjooal m·J(":Hl1St. 1 ーャ \G ケ セ 」ャ@ thc pliino il liule before we ftOl our Ham111011d, b ot thc lmple meloJici: in my rcren:oire w\md so foll, so ウ 。エゥセヲケ ゥョ ゥ[@ on thc org:m. "We would n't bcwithout our H:n11111ood for a.nyt hinA-il't on r n:::la.Katie>n- our ィッセ ィ セ@ -wc' re llvlng a.9;1in -Ülariks 10 nlll"'d Abb. 2: Der Spieltisch des Telharmoniums" Ynu too c ;ir1 ・Bセイゥ」 ョ 」 @ the jo)ll fo unJ In this ncw weorld of ュオ 」MッイqZゥ|ヲ@セ n)usic. Kip:h t in you.r own home y ou n havc a 11.immond and 」ョセ ヲュ ャGA@ no me>re th:u1 a Mnt:'d pfa. 11o. t{ you !ike rn usic a.nJ C0111 pla)' i11e pi1u.' ? C"l!'O ェ オ セ エ@ ::a litt11!', l he ッ Gョ」MカN イ セ ィ ゥー@ of a Harnmond c:;rn \•lt Ürß1'tl occupying les1 s p;ice Laurens Harnmond und die Hammondorgel An o rgon of co11cert ronge o t the price of a Eines der wohl erfolgreichsten elektronischen Instrumente beruht auf einem dem Dynamophon sehr ähnlichen Prinzip: Gezähnte Stahlscheiben rotieren vor Magnetspulen und induzieren einen tonfrequenten Strom. Laurens Harnmond erhielt für dieses Prinzip 1934 ein Patent9 und präsentierte das nach ihm benannte Instrument 1935 in New York, eigentlich als Konkurrenz zur Pfeifenorgel. Aufgrund der außerordentlichen Größen- und Gewichtsreduktion im Vergleich zum Dynamophon (es ist so groß wie ein Orgelspieltisch) setzte es sich bald durch. Dazu trugen auch die besondere mechanische Qualität (viele Instrumente sind nach 50 Jahren noch spielbar) und ein heute wesentlicher Zusatz bei, das Lesley-Tonkabinett, eine Lautsprecherbox mit rotierendem Horn, welches aufgrund des Dopplereffekts ein Vibrato erzeugt. In Verbindung mit dem Harnmond Modell B3 wurde diese Kombination zum Standard. 8 World's work (June 1906) . 9 Patent US 1.956.350 238 fin e p iano 'Jht Jf11m111;,mJ ィョセ@ m• p1{1'f mir rrtdi 'Jh 4r,K(f ;I/ ({I U"'/f セO Ns@ i A " fi!llf•/{1()1 Jl{Hllft 1 100 ャエセ@ Cd'/ GBセ ^エ@ tbt {l rqnH r.is1ly • ..(lt 1(Hil ls 11.-..· n_s,ii:v 10 1'1\1,ll/ it i1 111 cv1111rd 11 hl1t11 <>nlm.orr "I' イャエ、ゥ セ@ Q11tlrl. you ;mJ your fa mily out or thf' 、セ ・Nセゥhエ ャィ ウ@ n( an on l1n;uy ョ ᆱ@ a nd law 1ch yuu intO II lll'.'W 'lolnrld Thc \1:ad111g m11s(c dt:alcr in your conununity lt probably a 1-\a rn ow'lnJ Org"n spccialisr. Besid('!ll "':llinfol H a11 1111 o11 J O t'll<l •U, he sells a llne of high gr11Jc µ1:-inos ;md o thtt 1nu!l'ical i11S-h'\1111crrts. l tc Q セ@ a 1>•crchant o( the ィゥ ァ ィ ・セエ@ ty pt' a nd J. n .autlmrh.y 0 11 ョ キ セ ゥ 」NGQ@ ョQ ・イ、Q。 Qセ|ゥ セ・@ am! liie µrO\tt!r us:e of II. Spend :11 h,,J( liour with hu11 aud kt hitn tel! )' OU how ::a Haimnond O rg:i n in \ 'OlU h•"otnt' can bring yo u joy ;m J c ontto1111nt"nl. '//.t J f1u11 u11•ml 0 r;l<IH, ャNoIセ@ ';N , ll'f•lt'11 .Är1' 4 C l! i.1Ult1 TH.E HAMMOND ORGAN 8 1250 Abb. 3: Werbebroschüre für die Hammondorgel'" 10 Privatbes itz. 239 Frühgeschichte der elektrischen Musikinstrumen te Peter Donhauser Stelzhammers Magneton Kaum beachtet, entstand einige Jahre vor Harnmond ein Instrument mit nahezu identischen Eigenschaften. Wieder rotieren gezähnte Stahlscheiben vor Magnetspulen, das Patent" stammt vom Linzer Ingenieur Wilhelm Lenk. Die Wiener Klavierbaufirm a Rudolf Stelzhammer entsch loss sich wahrscheinlich der schlechten Wirtschaftslage wegen zu einem Experiment mit einem elektrischen Instrument, dem >Magneton<. Aufgrund mangelnder Erfahrung dauerte die Entwicklung lange. Nach einer Erstpräsentatio n 1930 erfolgten bis 1934 immer neue Ansätze zur Vermarktung, es blieb aber bei einem Musterexemplar, das sich heute im Technischen Museum Wien befindet. セゥャZウエイ・ヲョ@ auf demselben Prinzip: Mittels eines rasch bewegten Mediums Hs」ィ・ゥセL@ etc.) mit ィ・セャョ@ un_d 、オョォャセ@ S_tellen wird ein Lichtstrahl helligkeitsmoduliert, was in emem ャエ」ィ・ューヲ、セGNョ@ Sensor . エッョヲイ・セオ@ Stromschwankungen hervorruft. Der Vorteil _ァ・セョオ「イ@ dem ュ。ァセ・エQウ」ィョ@ v・イヲセィᆳ ren liegt darin, dass die Schwärzungen 1m Film oder auf s」ィ・ゥ「セ@ die Schall_mformationen sehr viel genauer wiedergeben können als z。ィョイセ・@ _und sich daher für den Filmton eignen. Dies war dann letztendlich die w1cht1gste Anwendung des elektrooptische n Prinzips. h Das Superpiano Der Architekt Emerich Spielmann entwickelte ab 1927 in Wien ein 。オセ@ lゥ」ィエセ@ tonbasis beruhendes Instrument, das >Superpia_no<.1" Zwölf Sätze カッセN@ Je zwei Scheiben mit unterschiedlich en Mustern und sieben Spuren wurden uber abestufte Riemenscheibe n zentral angetrieben und lieferten mittels Glühlampen セョ、@ Selenzellen die Töne für sieben Oktaven. Erich Wolfgang セッョ⦅Qァャ、@ ーセ¦ᆳ sentierte das Instrument 1929. Die weitere Entwicklung verlief Jedoch im Sande, Spielmann musste 1939 nach Amerika ・ュゥァイセョN@ Ein Exemplar des Instruments befindet sich im Technischen Museum Wien. Abb. 4: Die Zahnscheibe11 12 (links) des Magnetons u (rechts) Das elektrooptische Grundprinzip, das Superpiano und weitere Ideen Wie beim elektromagneti schen Prinzip geht auch die Tonerzeugung mit Licht auf das 19. Jahrhundert zurück. Die erste Idee zur optischen Aufzeichnung von Schall stammt von Arthur French St. George (London) aus dem Jahr 1883. 14 Eine zweite Wurzel ist die 1888 von Ernest Mercadier für Telegrafiezwecke zum Patent'-' angemeldete Lichtsirene. Zahlreiche weitere Patente, die auch beim Tonfilm (Lichtton) zur Anwendung kamen, beruhen im Wesentli- 11 Patent AT 128.615 vom 29. 3.1 930. 12 Foto: Peter Donhauser. 13 Foto: Technisches Museum Wien. 14 Deutsches Patent DE 27.231 vom 4.9.1883. 15 Patent GB 10.363 . 240 16 Patente AT 109.233, 125.906 und 127.963. 17 Foto: Peter Donha user. 241 Frühgeschichte der elektrischen Musikinstrumente Peter Donhauser Das Optigan Gezeichnete Töne Eine späte Neuauflage eines Lichttoninstruments war das 1971 in den Handel gekommene >Optigan<" einer Tochterfirma des Spielzeugherstellers Matell in Californien. 57 konzentrische Tonspuren, darunter 21 Rhythmusspuren, wurden mit einer Fotozelle abgetastet. Das als Unterhaltungsgerät für den Heimgebrauch konzipierte Instrument wurde bis 1976 verkauft. Eine logische Konsequenz der Erkenntnis, rea le Töne mit optischen Mitteln zu speichern und wiedergeben zu können, waren Experimente mit künstlich erzeugten Kurven und Mustern, um diese mit den bekannten optischen Reproduktionsgeräten zum Klingen zu bringen. Zahlreiche Personen arbeiteten gleichzeitig daran, so Rudolf Pfenninger in München und Oskar Fischinger in Berlin, jeweils um 1930. Der Film »Tönende Handschrift, das Wunder des gezeichneten Tones « (1932) zeigt rfenningers Arbeitsweise, Fischinger befass21 te sich zudem mit synästhetischen Formen und Ornamenten im Film. Edwin Weites Lichttonorgel Die Idee eines Lichttoninstruments inspirierte auch Edwin Weite, Spross der bekannten Orgel- und Automatenbauerdyn astie aus Freiburg. Auch er benutzte (wie Stelzhammer) ein bereits existierendes, fremdes Patent." Ziel war definitiv, einen Orgelersatz zu bauen. Daher wurden die Spuren der Lichttonscheiben mit Schallmustern »echter« Orgelregister, aber auch mit synthetisch konstruierten Kurven bedruckt. Im Gegensatz zu dem Spielmannschen Instrument war das 1936 präsentierte Musterexemplar technisch hochentwickelt. Es gelang trotzdem keine Serienfertigung (Weite wurde aus politischen Gründen im NS Deutschland boykottiert), das einzige Exemplar wurde bei einem Bombenangriff zerstört. Lichtton in Russland Viele der russischen Experimente sind bis dato im Westen nicht bekannt geworden. Die einschlägigen Berichte erschienen, wenn überhaupt, nur in russischer Sprache. Sie stehen aber hinter denen der »westlichen « Welt keineswegs zurück. Bemerkenswert ist, dass sich die Zielausrichtung der Konstruktionen teilweise von den bisher erwähnten Instrumenten unterscheiden. Boris Yankovsky entwarf gemalte Klänge wie Rudolf Pfenninger, Arseny Avraamov produzierte 1930 den ersten handgezeichneten Soundtrack für einen Film und Nikolai Voinov konstruierte das Nivotone (es liest handgeschnittene Klangmuster auf Papierstreifen). Das wichtigste Instrument ist jedoch das 1930 von Evgeny Sholpo gebaute Variophon: rotierende Kartonscheiben mit Klangmustern bewegen sich zwischen einer Lichtquelle und einer Fotozelle. Es entspricht somit im Wesentlichen dem Superpiano Spielmanns. Sholpo hatte allerdings kein Musikinstrument für Interpreten im Sinn, son22 dern beschäftigte sich mit Klängen für den Film. Abb. 6: Edwin Weite vor dem ersten Probemodul' 0 18 Patente US 3.64. 7927 und 3.657.459. 19 Patent von Richard Michel, DE 443.535. 20 Archiv des Augustinermuseums Freiburg Nr. 2010-423-01. 242 21 Siehe dazu: Th.Y. Lev in (2008), Töne aus dem Nichts, S. 313ff. 22 Siehe dazu: A. Smirnov / B. Yankovsky (2010), Lehen im Klangspektrum, S. 97ff. 243 Peter Donhauser Frühgeschichte der elektrischen Musikinstrumente 1932 präsentierte Lev Termen, der Erfinder des zu Weltruhm gelangten >Ätherophons<, in New York die erste Rhythmusmaschine, das Rhythmikon, gebaut aufgrund einer Anregung des Komponisten Henry Cowell. Zwei Lochscheiben für Tonhöhe und Rhythmus wurden mittels 17 Glühlampen, über Tasten geschaltet, zur Produktion komplexer polyrhythmischer Impulsfolgen benutzt. Es existiert derzeit nur ein Nachbau Lev Termens aus dem Jahr 21 1963. Abb. 7: Pfenninger in seinem Labor mit einigen Tonstreifen 23 Abb. 9: Rhythmikon aus dem Jahr 1963 26 1931 begann B.P. Skvortsov in Moskau mit der Entwicklung eines optischen Tonbandgerätes, dem >Sprechenden Papier< (foBOp51LUa51 6yMara). Es handelt sich dabei um ein Gerät, das auf Papierstreifen gedruckte Schwingungsmuster optisch abtastet und wiedergibt. Es war in einen Radioempfänger eingebaut. 23 Th.Y. Levin, Tones from out of nowhere, S. 32. 244 24 Sammlung Andrej Smirn ov. 25 Siehe dazu: !MA (2008), Zauberhafte Klangmaschinen, S. 188f. 26 !MA Institut für Medienarchäologie. 245 Frühgeschichte der elektrischen Musikinstrumente Peter Donhauser Abb. 10: Das >Sprechende Papier/ 7 Ein bemerkenswertes Gerät ist ein optischer Synthesizer, der ANS. Die Idee stammt von Jevgenij Murzin aus 1938, wurde aber erst 1958 realisiert (der Name sollte an Alexander Nikolayevich Scriabin erinnern). Fünf rotierende Glasscheiben mit je 144 aufgedruckten Spuren mit Sinuskurven erzeugen 722 Töne in zehn Oktaven. Über Spiegel werden die von Lichtstrahlen abgetasteten Spuren auf Photozellen geleitet. Im Lichtweg befindet sich eine Glasscheibe, die mit einer nichttrocknenden, schwarzen Schicht versehen ist. In diese lassen sich Muster einritzen, die den Lichtweg freigeben. Bewegt sich der Sensor über die Fläche, erzeugen die Lichtstrahlen, die durch die geritzten Muster durchtreten, entsprechende Klangmuster.' 8 27 Foto: Peter Donha user. 28 St. Kreichy (1995), The ANS, S. 59ff. 246 Abb. 11: Der ANS Synthesizer' 9 29 Foto: Stanislav Kreichy. 247 Frühgeschichte der elektrischen Musikinstrumente Peter Donhauser 3.1.3 Elektro-akustisch e Instrumente Aufgrund mangelnder elektronischer Bauteile bzw. wenig stabiler Oszillatoren wurden in den 1920er und frühen 1930er Jahren noch bewährte mechanische Oszillatoren, vorzugsweise Saiten, verwendet. Das elektrisch manipulierte Klavier Der »elektrophonische « Klavierapparat Richard Eisenmann, Jurist aus Berlin, erhielt am 20. August 1886 ein Patent' 0 auf eine ungewöhnliche »elektrophonische« Zusatzapparatur für Klaviere »Um den Ton in der ursprünglichen Stärke zu erhalten, ja ihn sogar anschwellen zu lassen, wird die Bewegung der Saiten durch Elektromagnete mit intermittierendem Strom unterhalten «." Beabsichtigt war, den abnehmenden Amplituden der Klaviersaiten entgegenzuwirken. Aufgrund technischer Unzulänglichkeiten verlief die Entwicklung aber im Sande, die Idee lebte jedoch fort. Der Neo-Bechstein-Flügel 1931 wurde nach einigen Versuchen mit Tonrückkopplung an den Klavierresonanzboden mittels Lautsprechern durch Oskar Vierling" der erste in Deutschland in Serie gebaute elektromechanische Flügel, der Neo-Bechstein,n öffentlich vorgestellt. Das Instrument wurde auf Anregung des Nobelpreisträgers Walther Nernst von dessen Assistenten an der Humboldt-Universit ät Berlin gemeinsam mit der Klavierbaufirma Bechstein und Siemens entwickelt und in einer Serie von 150 Stück gebaut. Der Resonanzboden wurde weggelassen, die Saitenschwingung durch »Telefonmagnete« abgenommen, an der Seitenwand des Instruments ein Radioapparat eingebaut und in der Lautsprechertruhe ein Grammophon eingesetzt. Die Lautstärke der gesamten Anlage konnte mittels des linken Pedals gesteuert werden. 30 Patent DE 38.814 . 31 Ebenda 32 Patent DE 613.493. 33 P. Donhauser (2007/2008), Der elektrische Beethoven. 248 Abb.12: Abnahmemagnete des Neo Bechstein Fli.igels 34 Ein nur in sechs Exemplaren gebautes Konkurrenzinstrume nt zum n・セ セ@ Bechstein wurde 1932 von der Firma Förster vorgestellt: das >Elektrochord<. Wieder handelte es sich um einen modifizierten Flügel, die tッョセ「。ィュ・@ erfolgte jedoch elektrostatisch mittels セャ・ォエイッョ@ oberhalb. der Saiten. セャウ@ Erfinder zeichnet Oskar Vierling, der die Entwicklung m semer D1ssertat10n ofM f fen legte. ' . . f 1· h · · Die Entwicklung elektrifizierter Klaviere setzte Qセ@ den USA. ast. g e1c コセQエァ@ wie in Deutschland ein. Eine treibende Persönlichkeit war b・セゥ。ュ@ セᄋ@ .M1essner. Er kannte Vierling persönlich und reichte gemeinsam mit ihm e101ge Patente ein:" 34 35 36 37 Foto: Peter Donha user. P. Donhauser (2007), Klang maschine11, S. 102ff. O. Vierling (1936), Das elektroakustische Klavier, S. 4ff. B.F. Miessner (1936), The electronic piano. 249 Frühgeschichte der elektrischen Musikinstrumente Peter Donhauser Aug. 10, 1937. 2,089.171 G. O. SEAUC H AMP ILBCTR l Cal. ST1U NOtD lf'JSJ0"-1. l NSTR\P.lBH't r ll ed JU11• 2 . 193-4 3 ShMle-Sbee\ l Abb. 13: Die Anlage der Elektroden im Elektrochord 3' Weitere Instrumente mit Tonabnehmern Der Beginn einer außerordentlichen Erfolgsgeschichte, der Elektrogitarre, liegt im Jahr 1931. George Beauchamp schloss sich Paul Barth und Adolph Ri ckenbacker an, um eine Elektrogitarre zu bauen, für die er 1937 ein Patent39 erhielt, die >frying pan<. Dieselbe Idee (nämlich die Abnahme von Saitenschwingungen durch Magnetspulen) hatte der Ungar Frank6 40 und Nernst bereits 1930 als Patent41 angemeldet. Parallelentwicklungen wie diese sind übrigens in der fraglichen Zeit bei vielen anderen Entwicklungen zu beobachten. 38 Foto: Peter Donhauser. 39 Patent US 2.089.171 . 40 Patent HU 101 .601, 1929. 41 Patent AT 123 .216. 250 Abb. 14: Beauchamps Design aus dem Patent US 2.089.171." In Wien experimentierte Robert Pollak-Rudin an einem Saiteninstrument セゥエ@ Tonabnehmern ähnlich dem Neo Bf!chstein, jedoch ohne Hammermechamk mit elektromagnetischer Saitenanregung mittels eines kurzen Stromst?ßes. Dieses >Variocord< 43 wurde 1937 vorgestellt, sein Erfinder musste aber Osterreich verlassen, das Instrument ging verloren. Oskar Vierling und b・セェ。ュゥョ@ Miessner »elektrifizierten « zahlreiche Streich- und Zupfinstrumente, mdem die Resonanzflächen weggelassen und die Stege auf Kohlemikrofone gesetzt wurden. 42 Patent US 2. 089 .171. 43 P. Donhause r (2010), Ö sterreichische Pio niere. 251 Frühgeschichte der elektrischen Musikinstrumente Peter Donhauser sator zur Frequenzsteuerung) ab 1921 mittels Frequenzdifferenzen auch Vierteltöne zu erzeugen. Er nannte die Anordnung >Sphärophon< und führte sie 1927 in Frankfurt bei einer großen Musikausstellung vor. Bis 1936 stellte er immer wieder neue Versionen her (vor allem mit mehreren Klaviaturen, genannt >Partiturophon<), scheiterte jedoch an technischen Problemen und an seiner eigenen schwierigen Persönlichkeit. Abb. 15: Miessners elektrifizierte Instrumente44 3.1.4 Instrumente mit rein elektrischen Generatoren Nachdem Lee de Forest bereits 1915 ein Patent für eine Oszillatorschaltung erhielt,4' entstanden in den folgenden 20 Jahren zahlreiche Ansätze für rein elektronische Instrumente. Das erste (bis heute verwendete) Gerät ist das von Lev Termen 1919 öffentlich präsentierte >Ätherophon< (später meist als >Theremin< bezeichnet). Die Töne werden aus zwei hochfrequenten Schwingungen als Differenz in einer Mischstufe erzeugt, wobei der eine Generator durch Annäherung der Hand an eine Antenne verstimmt und damit die hörbare Frequenz beeinflusst werden kann. Diese außergewöhnliche Spielweise machte das Instrument sehr schnell bekannt. Beim Aufenthalt Termens in den USA ab 1928 wurde von RCA eine Serie von Instrumenten gebaut. Termen wurde bald zum Vorbild für andere Konstruktionen. Jörg Mager'" in Deutschland versuchte auf ähnliche Weise (allerdings mit einem Drehkonden- 44 Akademie der Künste Berlin, Nachlass Meyer-Eppler Nr. 279. 45 Patent US 1.543.990. 46 Siehe dazu : P. Donhauser (2007), Klangmaschinen, S. 23ff. 252 Abb. 16: Jörg Mager vor dem ersten Sphärophon 47 47 DIE MUSIK, Jg. XX/1 Oktober 1927. 253 Frühgeschichte der elektrischen Musikinstrumente Peter Donhauser Maurice Martenot baute 1928"' ebenfalls ein auf dem Differenztonprinzip beruhendes Instrument, das er >Ündes musicales< nannte und das später >Ündes Martenot< genannt wurde. Die Tonhöheneinstellung erfolgte zu Beginn mit einem Schnurzug, später über eine Klaviatur. Das Instrument erweckte bald das Interesse bekannter Komponisten wie Andre Jolivet und Olivier Messiaen. In Deutschland entstand um 1930 eine kleine, aber aktive Szene rund um immer neue elektrische Instrumente. Bruno Helberger und Peter Lertes bauten ein >Hellertion< genanntes Gerät mit einem Röhrenoszillator, der mit einem Bandmanual (ein mit Widerstandsdraht bewickeltes Gummiband) gesteuert wurde. Bis zu fünf solcher Bänder sollten mehrstimmiges Spiel ermöglichen. Dieses Bandmanual entspricht dem heutigen ribbon controller. Abb. 17: Martenot mit dem ersten Instrument 49 1 Abb. 18: Helberger und Lertes vor dem Hellertion " 48]. Laurendeau ( 1990), Maurice Martenot. 49 Radio für Alle (1929), S. 460. 254 50 Umschau (1931) Heft 1, S. 15. 255 Frühgeschichte der elektrischen Musikinstr umente Peter Donhause r Friedrich Trautwein baute ab 1929 an der Berliner Musikhoch schule ein vorerst einfaches Instrumen t (das >Trautoniu m <) mit einem Glimmlam penoszillator und einer ähnlichen Spieleinrichtung wie Helberger mit einem Widerstandsdrah t über einer Metallschi ene. Neuartig daran war, dass mittels eines Resonanzk reises vokalähnli che Klänge erzeugt werden konnten. Paul Hindemith zeigte lebhaftes Interesse daran und förderte die Entwicklu ng in den ersten Jahren. Sein Schüler Oskar Sala entwickelt e das Instrumen t zu einem zweimanu aligen Konzertin strument (das >Mixturtra utonium<) mit Filterschaltungen und der Zuschaltm öglichkeit von subharmo nischen Teilfreque nzen. Instrumen t Sala arbeitete und komponie rte bis zu seinem Tod 2002 an 5dem 1 Filme. und erzeugte damit Töne und Geräusche für zahlreiche . Diese fünf Instrumen te besaßen stufenlose Tonhöhen einstellung und konnten nicht polyphon gespielt werden. Dies ist erst bei Einbau eines Generator s je Taste möglich. Ein Beispiel dafür bietet Oskar Vierling; er verwendete ebenfalls Gli?1mlam penoszilla toren wie Trautwein , um eine große, dreimanua lige elektromsche Orgel zu bauen. Das Instrumen t (die >Großtono rgel<), das mit 53 Unterstütz ung der NS Organisati on »Kraft durch Freude « entstand, wurde 1936 au.f der Berliner Funkausst ellung öffentlich vorgestellt, ging aber in den Kriegswirren verloren. In der Firma Vierlings wurden dann nach Kriegsende bis in die 1980er Jahre noch elektronisc he Orgeln hergestellt. Abb. 20: Arbeiten an der >Großtonor gel<« Abb. 19: Das Mixturtrau tonium 52 51 Zum H ellertion und dem Trautonium siehe P. Donhauser (2007), Kla ngmaschinen. 52 Foto: Deutsches Museum Bonn. 256 53 0. Vierling (1938), Eine neue elektrische Orgel. 54 Privatbesitz. 257 Peter Donhauser In Frankreich entstand bereits Jahre davor eine elektronische Orgel auf Basis von Röhrengeneratoren.' 5 Der Ingenieur Arrnand-Joseph Givelet und Edouard-Eloi Coupleux (Spross aus der Instrurnentenbauerdynastie Coupleux) entwickelten ein polyphon spielbares Instrument, das 1930 vorgestellt wurde. Givelet hatte zuvor ein einfaches >elavier a larnpe< mit zwei Oktaven Umfang gebaut' 6 und 1929 ein Patenr17 für eine >Orgue electrique< mit einem Zahnradgenerator wie Laurens Harnmond erhalten. Eine weitere Parallele zu anderen, gleichartigen Anordnungen finden sich in einem französischen Patent" Givelets über ein elektronisches Streichinstrument: auch hier wird eine dem Trautonium gleiche Anordnung eines Widerstandsdrahtes zur Tonhöheneinstellung verwendet. Frühgeschichte der elektrischen Musikinstrumente In Russland bauten Aleksandr Ivanov and Andrej Rirnsky-Korsakov (Enkel von Nikolai Rirnsky-Korsakov) ab 1932 ebenfalls ein Instrument mit Glimmlampengeneratoren: das >Erniriton<. Ursprünglich mit Glissando-Effekt ' wurden spätere Modelle mit einer Tastatur ausgestattet." 0 3.1.5 Sequenzer und Sampler Beide Begriffe ordnet man üblicherweise der Generation mikroelektronisch gesteuerter Instrumente zu. Nun stammen die Ideen jedoch aus der Frühzeit der elektrischen Instrumente. So sprach Spielmann davon, »Kreislers Geige oder Carusos Stimme« auf dem Superpiano wiederzugeben, sogar bei verschiedenen Stimmlagen (Kreisler am Kontrabass oder Caruso als Bass). Dies entspricht eindeutig der Funktion des Sarnplers. Darüber hinaus plante Spielmann die Steuerung seines Instruments über ein gelochtes Papierband, vergleichbar mit dem Reproduktionsklavier. Dies entspricht der Aufgabe eines Sequenzers mit einfachen Mitteln: Zentrale Aufgabe ist ja die Übermittlung einer »Partitur« an ein Musikinstrument. Gleiches finden wir auch in einem Patent6 1 von Coupleux. Auch der ANS Synthesizer enthält die Funktion des Sequenzers, indem durch die Bewegung der Fotozellen-Leiste die Toninformation in einen definierten zeitlichen Ablauf gebracht wird. Abb. 21: Orgel von Givelet und Coupleux im Pariser Rundfunksender" 55 0. Carpentier (2004), Les instruments des Coupleux et Givelet. 56 Patent FR 605.373 vom 25.5.1926. 57 Patent FR 669.433. 58 Patent FR 708.106. 59 Privatbesitz. 258 60 V. Koshelev (2010), The Emiriton. 61 Patent US 1.957.392 . 259 Frühgeschichte der elektrischen Musikinstrumente Peter Donhauser May 1, 1934. E, e. COUPLE UX 1,957,392 ET AL AU?OlitAT[CAt.l,Y OffJI A1'1!1\l llUSTCJ,,l, i ll!i.T!IUMIDll' OF Tll& SL!CTP.ICOSCtL l.A1'10N TYrl ヲャ ャ セ@ Apr il 24 , 19JO セ@ S?ietts -SM t t l sehe elektrische Instrumente als lnspirationsquelle zu nützen. Eine bedeutende Stellung in dieser Hinsicht nimmt die Ausstellung »Zauberhafte Klangmaschinen« im Jahr 2008/09 im österreichischen Ort Hainburg ein, wo die wichtigsten Entwicklungen der vergangenen 100 Jahre einander gegenüber gestellt und mit zeitgenössischen Positionen konfrontiert wurden.(,' 3.1. 7 Schlussbemerkung LE.CC'>°1=;<\J.A..l'J;,,.,td .i;.. O NQエセ セᄋ NGW NエM\T M A1Lcr.;uy$ Abb. 22: Die Steuerung des >Synthetiseur polyphonique< 2 aus dem Patent von Coupleux.6 3.1.6 Neu erwachtes Interesse an historischer Analogtechnik Seit einiger Zeit ist ein neu erwachtes Interesse an älterer Analogtechnik zu bemerken. Das Theremin und der Neo Bechstein tauchen immer wieder in aktuellen Musikproduktionen auf. Es gibt zudem einige Versuche, das Trautonium in neu konstruierter Form wieder zu beleben. Bei Aufführungen der Werke Jolivets oder Messiaens wird das Ondes Martenot immer wieder verwendet. Musiker mit medienarchäologischen(, 3 Interessen versuchen, histori- 62 Patent US 1.957.392 63 Zivilisatorische Veränderungen hängen mit der Veränderung der Kommunikationsmedien zusammen. Dabei müssen die neuen Medien dafür Sorge tragen, alte Datenbestände (das überkommene Wissen) zu erhalten. Siegfried Zielinskis prägte hierfür den Begriff der »Medienar- 260 Bleibt schlussendlich die Frage nach der Notwendigkeit neuer Instrumente. Ein Aspekt ist Busonis ästhetischer Ansatz," ein anderer die Suche nach anderen Tonsystemen, weiters die Experimentierfreude hauptsächlich von Technikern, die sich andere Aufgaben stellen als Musiker. Ein gerüttelt Maß an naivem Fortschrittsglauben lässt sich ebenfalls festmachen, besonders deutlich ausgedrückt in einem Artikel von Miessner. Er macht sich zu Beginn über die bestehenden Instrumente, die am Ende ihrer Entwicklung seien, lustig: Da kratzen Leute mit Rossschwänzen auf Eingeweiden von Katzen, hämmern auf Kuhhäute, blasen in Blech- oder Holzrohre, wo doch die Elektrizität alles übrige revolutioniert habe. Diesem setzt er seine elektronischen Klavierkonstruktionen entgegen.(,6 Diese Instrumente hatten wohl begonnen, neue Wege aufzuzeigen, eine neue Musikgattung wie die elektronische Musik67 nach Ende des Zweiten Weltkrieges hatten sie nicht zuwege gebracht, sie waren nach wie vor Instrumente in der Hand von Musikern. Mit den elektronischen Studios, der Tonbandtechnik und vor allem durch Hinzunahme von Geräuschen zum Tonrepertoire änderte sich die Situation: Durch Überwindung menschlicher und materieller Grenzen macht die elektronische Technik den Menschen im Reproduktionsprozess abkömmlich. chäologie«. Sie wurde maßgeblich entwickelt von Wolfgang Ernst, seinerzeit Mitarbeiter für »Theorie und Archäologie der Medien im Kunstkontext « an der Kunsthochschule für Medien in Köln. 64 Siehe dazu: D. Gethmann (2010), Klangmaschinen und IMA (2008), Z auberhafte Klangmaschinen. 65 F. Busoni (1916), Entwurf einer neuen Ästhetik der Tonl<unst, insbes. die Bemerkung über die Entwicklungsgrenzen der Musik und die in ihren Fähigkeiten »festgeketteten« Instrumente, S. 34. 66 B.F. Miessner (19 36), The electronic piano. 67 Siehe dazu: E. Ungeheuer (1992), Wie die elel<tronische Musil< erfunden wurde. 261 Analoge und digitale Syntheseverfahren, MIDI und Sampling 3.2 Analoge und digitale Syntheseverfahren, MIDI und Sampling Von Bernd Enders 3.2.1 Elektronische Syntheseformen Unter Synthese wird üblicherweise das (künstliche) Verbinden verschiedener Elemente zu einer neuen Gestalt verstanden und im Zusammenhang mit Audio und Musik entsprechend das Zusammensetzen von Klangelementen zu einem neuen Klanggebilde oder - etwas enger gefasst - das Erzeugen von neuen Klängen mit »künstlichen« Mitteln, was im Großen u.nd Ganzen ィ・ゥセエZ@ Klangerzeugung oder auch Klangveränderung mit den Mitteln der Elektnk oder Elektronik im Unterschied zur herkömmlichen Klangerzeugung mit »natürlichen«, d.h. mechanisch funktionierenden, Instrumenten. Mit dem analogen Modulsynthesizer, den Robert Moog (1934-2005) Mitte der 1960er Jahre konstruierte, 1 konnten erstmals verschiedene Formen der Klangsynthese durch gezielte Kombination verschiedener Module mit unterschiedlichen Funktionen recht variabel zur musikalischen Klanggestaltung eingesetzt werden. Mit Hilfe fortschrittlicher Transistortechnik konnte Moog die großen, röhrenbestückten Apparaturen eines elektronischen Studios (d.s. Oszillatoren, Filter, Verstärker, Effektgeräte, Steuereinrichtungen u.a.m.) auf die einigermaßen handliche Größe eines (größeren)' Koffergeräts verringern. Die fast völlig beliebige Kombination der einzelnen Module mit Hilfe von Steckkabeln und das geniale Prinzip der Spannungssteuerung' von Modulfunktionen erlaubten eine flexible und immens variationsreiche Klangprogrammierung.4 1 Einen Vorläufer des spannungsgesteuerten Modulsynthesizers baute R. Moog Ende der 1950er . . . Jahre für den österreichischen Komponisten Max Brand (1896-1980). 2 Für heutige Verhältnisse waren die ersten Modulsynthesizer immer noch recht riesig, z.B. ist der Studiosynthesizer Synthi 100 von EMS mit Unterbau immer noch deutlich größer a ls ein Klavier. 3 Die Idee der Spann ungssteuerung rea li sierte der Kanadier Hugh LeCaine (1914-1977) schon Ende der 1940er Jahre mit seinem elektronischen Sackbut, das a ls ein Vorläufer des Modulsynthesizers betrachtet werden kann; M. Becker (1990), Synthesizer von gestern. 4 F. Anwander (2000), Synthesizer; D. Crombie (1986), The new complete synthesizer; B. Enders (1985), Klangwelt des Musiksynthesizers; U.G. Hoenig (2002), Worksh op synthesizer; B. Graham (1980), Music and the synthesizer; M. Becker (1990), Synthesizer von gestern; E.R. 262 Synthesizer haben ihren Namen der Möglichkeit zu verdanken, unterschiedlichste Klangstrukturen durch verschiedene Synthesetechniken zu erzeugen, dazu gehören anfangs vor allem die Additive, die Subtraktive und die FM-Synthese, später brachte die Digitalisierung der elektronischen Instrumente weitere Syntheseformen hervor, die sich analog, wenn überhaupt, nur mit sehr großem Aufwand umsetzen lassen. Mehrere Techniken der Synthesemodellierung von elektronischen Klängen können unterschieden werden: 1. Spektrale Modelle, die den Schwingungsverlauf bzw. die Klangcharakteristik so nachbilden (sollen), wie sie am Gehör ankommt (z.B. additive Klangsynthese); 2. Physikalische Modelle, die versuchen, die Entstehung eines Schwingungsvorgangs an der Klangquelle, am Instrument, zu simulieren (Physical Modelling); 3. Klangspeicherungs- und Resynthese-Modelle, die Originalklänge digital speichern, ana lysieren und neu zusammensetzen (z.B. Granularsynthese); 4. abstrakte Modelle, die (letztlich beliebige) mathematische Formeln (z.B. aus Fraktalgeometrie) zur Klangerzeugung nutzen, indem das Rechenresultat, i.a. eine Zahlenkette, durch entsprechend schnelles und wiederholtes Auslesen des digitalen Speichers in den Audiobereich beschleunigt wird und auf diese Weise die Schwingungsform bestimmt. Die additive Klangsynthese Die additive Klangsynthese setzt die Erkenntnisse des Fourierschen Theorems [7 1.2] um, d.h. musikalische Klänge (= periodische Schwingungen) werden erzeugt, deren Frequenzen in eiセ エュァ・ョ@ durch die Addition von sゥョオウ」ィキ nem ganzzahligen Verhältnis zueinander stehen (>Harmonische<). Wird die additive Klangsynthese mit einem ana logen Synthesizer rea lisiert, werden für alle gewünschten Teiltöne (auch Partialtöne) eines Klangs entsprechend viele Sinusgeneratoren benötigt, die gemäß der Teiltonreihe im Verhältnis 1:2:3:4 usw. zum Grundton gestimmt sein müssen. Miranda (2002), Computersounddesign; A. Ruscbkowsk i (1998), Elektronische Klänge und musikalische Entdeckungen. 263 Bernd Enders Da sich die Frequenzen der Oszillatoren eines Analogsynthesizers über eine angelegte Keyboard-Spannung (monophon) steuern lassen, werden alle · Frequenzen beim melodischen Spiel auf der (monophonen) Tastatur entsprechend transponiert. Die eingestellten Frequenzverhältnisse der Teiltöne verändern sich nicht, und die additiv erzeugte Klangfarbe bleibt für alle gespielten Töne gleich. Manche Synthesizer erlauben eine Synchronisation der beteiligten Oszillatoren, so dass alle Teiltöne wie bei einem mechanischen Klangerzeuger auch phasenstarr zueinander schwingen. Die Lebendigkeit des synthetischen Klangs wird dadurch allerdings nicht unbedingt erhöht. überhaupt fällt bei genauerer Betrachtung mechanisch erzeugter Instrumentaltöne auf, dass die einzelnen Teiltöne je nach Lautstärke und Artikulation des gespielten Tons unterschiedlich schnell und stark ein- und ausschwingen und auch in relativ stationären Phasen eines Tonverlaufs (z.B. beim Legato-Spiel auf einer Geige) ihre Amplitude leicht ändern. Jeder Teilton hat quasi einen charakteristischen Lautstärkenverlauf (>Hüllkurve<), der den typischen Klang eines Instrumentaltons mitbestimmt. Um diese Variabilität des dynamischen Klangverhaltens aller Teiltöne bzw. der klangfarblichen Charakteristik eines Instrumentaltons einigermaßen zu erreichen, müssten Sinusoszillatoren an hüllkurvengesteuerte Verstärker angeschlossen werden, so dass pro Teilton mindestens ein >VC0< ,5 ein >VCA<" und ein >ADSR-Generator/ (für eine einzige Synthesizerstimme!) benötigt würden. Für eine Stimme mit 10 Teiltönen wären folglich 30 Module mühsam mit Verbindungskabeln (>Patchcords<) zu kombinieren. (Natürlich können auch obertonhaltige Schwingungen wie Sägezahn- und Rechteckschwingungen additiv gemischt werden, um besonders teiltonreiche Schwingungsformen zu erhalten; die Lebendigkeit eines Klangs wird dadurch allerdings nicht gesteigert.) 5 Oszillatoren eines Analogsynthesizers sind normalerweise spannungssteuerbar, hiervon leitet sich die übliche Bezeichnung VCO (= >Voltage Controlled Oscillator<) ab. 6VCA = >Voltage Controlled Amplifier/Attenuator < 7 ADSR-Generator = Hüllkurvengenerator erzeugt einen Spannungsverlauf mit vier programmierbaren Parametern : >Attack Time<, >Decay Time<, >Sustain Level<, >Release Time< zur Gestaltung eines charakteristischen Lautstärkeverlaufs. 264 Analoge und digitale Syntheseverfahren, MIDI und Sampling セ@ 8 8 Xセ セBGャZi セmゥク・イ@ '"" W"·" ) ./' - O@ 8 8 0 - Au<Jiosigm1f }@ セca@ -Ou1 ·1· ゥGZNセ G カ ッQ ゥ・@ fADsRl 1-=:..:.J ' 1__ Pikh Con!Jol Vo1tas es Ke board r11111:m11mm111111m1rnf Abb. 1: Einfache additive Synthese mit 5 VCOs und klangfarbendynamischer Hüllkurve Da auch große Studiosynthesizer der analogen Ära nur selten über mehr als 10 VCOs verfügten und eher weniger VCAs und ADSR-Generatoren vorhanden waren, ist leicht nachvollziehbar, dass die Additive Klangsynthese meist nur auf wenige Oszillatoren beschränkt blieb und eine klangtreue Nachbildung von traditionellen Instrumentaltönen auf diese Weise kaum realisiert werden konnte. Dies war allerdings anfangs auch nicht das erklärte Ziel der Konstrukteure elektronischer Instrumente, vielmehr sollten völlig neue Klangwelten erschlossen werden, mit einer eigenen Klangfarbenästhetik und innovativen Klangstrukturen.' Mit dem Aufkommen digitaler Synthesizer bzw. computertechnischer Schaltungen Ende der 1970er Jahre (Fairlight CMI, 1979; Synclavier, 1980; Yamaha DX 7, 1985) konnte die additive Klangsynthese bequemer und zudem polyphon spielbar realisiert werden,' auch wenn zunächst die Prozes- 8 Kurioserweise wurde der erste Analogsynthesizer von Robert Moog durch elektronische Arrangements bekannter Stücke von J.S . Bach bekannt, die von Walter (später Wendy) Carlos ('-1939) realisierte LP »Switched-On Bach« ist bis heute eine der meistverkauften Platten im »Klassik «-Segment. 9 Analoge VCOs wurden allmählich durch digital gesteuerte Oszillatoren (>Digital Controlled Oscillator<, >DCO<) abgelöst, zunächst handelte es sich um analog aufgebaute Oszillatoren, die lediglich digital gesteuert wurden, im Laufe der weiteren Entwicklung wurden diese durch vollständig digital funktionierende Oszillatoren ersetzt. Digitale Audio-Signale müssen über einen DIA-Wandler in analoge Schwingungen umgewandelt oder direkt von digitalen Filtern, 265 Bernd Enders sorleistung für eine Berechnung komplexerer Klänge mit vielen Teiltönen in Echtzeit (>Real Time<) nicht ausreichte und die Klangqualität der damals noch üblichen 8-Bit-Schaltungen hörbar unzureichend blieb. 10 Jedem Instrumentalton liegen Bewegungsvorgänge zugrunde, die aus nicht-periodischen (geräuschhaften) und periodischen Bewegungsanteilen bestehen, wie z.B. die eines Punktes auf einer Saite. Die periodischen Vorgänge, die man durch Sinusfunktionen beschreiben kann, nennt man >harmonische Schwingungen<. Die einfachste Schwingung, die möglich ist, ist die Sinusschwingung, deren Funktion sich aus der Kreisfunktion ableiten lässt [-7 1.3.1 ]. Die Kreisbewegung ist eine zeitlich periodische Bewegung. Kreisfunktionen sind daher periodische Funktionen, da sich nach einer bestimmten Zeit T die Funktionswerte wiederholen. Mit Kreisfunktionen können Instrumentaltöne beschrieben oder mit einem Algorithmus per Computerprogramm eine Schwingung mit erwünschten Klangeigenschaften berechnet und erzeugt werden. 11 Nach einer computerbasierten Berechnung des erwünschten Schwingungsverlaufs wird eine Folge von Punktwerten ausgegeben, die von einem Digital/Analog-Wandler in einen analogen Spannungsverlauf umgewandelt werden muss, damit die so erzeugte elektrische Schwingung mit einem Lautsprecher wieder hörbar wird. Die Präzision und Klangqualität der erzeugten Schwingung hängt dabei von der zeitlichen und dynamischen Auflösung des Systems ab, dabei gilt, dass eine feinere Auflösung natürlich eine aufwendigere Berechnung mit einem höheren Datenaufkommen erfordert. Weitere Kriterien einer charakteristischen Instrumentalklangfarbe sind Rauschanteile, Formanten und spezielle, z.T. kurzzeitige chaotische Vorgänge beim Aufbau einer Schwingung, die sich aufgrund ihrer Komplexität einer elektronischen Nachbildung entziehen oder zumindest einen hohen techni schen Aufwand, ggf. eine Kombination mit anderen Synthesetechniken, und Verstärkern und Effekt-Prozessoren weiter verarbeitet werden. Digitale Hardware-Bausteine wurden in den 1990er Jahren jedoch mehr und mehr von Software-Lösungen für handelsübliche Computer verdrängt und digitale Oszillatoren entsprechend als algorithmisch funktionierende Programm-Module realisiert. 10 Für die heutige Zeit zeigen die Klänge allerdings einen nostalgischen Effekt, so dass aktuelle Synthesizer die alten Sounds oftmals als speziellen Klangeffekt wieder aufleben la ssen. 11 Detaillierte Beschreibungen der mathematischen und physikalischen Gegebenheiten finden sich bei : Ph. Ackermann (1991), Computer und Musik; M . Neukorn (2005), Signale, Systeme und Klangsynthese; P.R. Cook (2002), Realsound synthesis for interactive applications; E.R. Miranda (2002) , Computersounddesign. 266 Analoge und digitale Syntheseverfahren, MIDI und Sampling eine vorausgehende Klangforschung erfordern, um einem Originalklang möglichst nahe zu kommen. Die subtraktive Klangsynthese Die vermutlich bekannteste und vielleicht auch am häufigsten genutzte Synthesetechnik dürfte die subtraktive Klangsynthese sein, mit der vor allem die ersten analogen Synthesizer und diverse elektronische Orgeln, aber auch schon Vorgängerinstrumente des Synthesizers wie z.B. das Mixturtrautonium von Friedrich Trautwein (1888 -1956) und Oskar Sala (19102002) oder die Electronic Sackbut von Hugh LeCaine (1914-1977) arbeiteten [-7 3.1 ]. Die subtraktive Klangsynthese beruht auf der Filterung von teiltonreichen Klängen. Sie erzielt also gewissermaßen eine »Synthese« durch Unterdrückung von Frequenzbereichen. Oder einfacher ausgedrückt: Filter regeln die Klangfarbe eines zugeführten Audiosignals. Analoge VCOs erzeugen neben der Sinusschwingung typischerweise auch obertonarme Dreieckschwingungen und obertonreiche Rechteckschwingungen' 2 - beide jeweils nur mit Teiltönen in ungeraden Verhältnissen ( 1:3:5:7„. usw.) sowie besonders obertonreiche Sägezahnschwingungen (mit allen Teiltönen im ganzzahligen Frequenzverhältnis, also 1:2:3:4„. usw.). Besonders Rechteck- und Sägezahnschwingungen - sowie Rauschsignale - dienen als Ausgangsmaterial für die Filter, die meist als >Tiefpass-< (>Low Pass<, >LP<), >Hochpass-< (>High Pass<, >HP<) und >Bandpassfilter< (>Band Pass<, >BP<) ausgelegt sind. Größere Modulsysteme enthalten darüber hinaus noch ein >Sperrfilter< (>Notch Filter<, >N<, auch >Bandsperre< genannt). Wie die einzelnen Benennungen verraten, lässt ein Tiefpassfilter tiefe Frequenzen passieren, unterdrückt also hohe Frequenzen, beim Hochpassfilter ist es umgekehrt, usw. Immer kann die Etkfrequenz (>Cut-Off-Frequency<) geregelt werden. Bei Bandpass- und Kerbfilter lässt sich die Mittenfrequenz - hier manchmal auch die Bandbreite - einstellen. Häufig kann auch die >Resonanz< 12 Die Schwingungsform der Rechteckschwingung weist - dem Namen optisch auf dem Oszilloskop entsprechend - ein exaktes Verhältnis von 50:50 zwischen Ober- und Unterkante auf. Damit handelt es sich um einen Sonderfall der Pulsschwingung. Verschiedene VCOs können auch regelbare Pulsschwingungen erzeugen, die auch geradzahlige Teiltöne enthalten. Die Pulsbreite ist dann i.a . steuerbar (>Pulse Width Modulation <, >PWM<), so dass bei der Steuerung durch einen tieffrequenten Oszillator z.B. phasing-ähnliche Klangeffekte möglich werden. 267 ---- - - - - - - -- - - - - - -..... Analoge und digitale Syntheseverfahren, MIDI und Sampling Bernd Enders (auch >Güte<, >Q-Faktor<, >Resonance<, >Emphasis<) des Filters (im Bereich der >Eck-< resp. der >Mittenfrequenz<) verändert werden. Analoge Filter schneiden den zu unterdrückenden Frequenzbereich nicht abrupt ab, sondern mit einem weichen Übergang. Die >Flankensteilheit< in dB gibt an, wie stark die Dämpfung im Bereich einer Oktave ist. Filter mit einer Flankensteilheit von 24 dB (vor allem bei Tiefpassfiltern) werden klanglich bevorzugt, vielfach sind aber auch 12 dB- oder 18 dB-Filter im Einsatz. ' Amplitude + lO + 10 Eckfrequenz (ca. 1,5 kHz) Amplitude Mittenfrequenz Cca. 1,5 kHz) 1 . 10 . 10 . 20 • 20 • 30 . 30 O Hz 500 Hz 1 kHz 2 kHz 4 kHz 8 kHz Frequenz Bandpassfilter (band pass filter) O Hz 500 Hz 1 kHz 2 kHz 4 kHz 8 kHz Freq uenz Abb. 2: Grafische Darstellung der Wirkung eines Tiefpassfilters (links) und eines Bandpassfilters (rechts) Die Filter in analogen Synthesizern sind in der Mehrzahl spannungssteuerbar (>Voltage Controlled Filter< = >VCF<), d.h., die Funktionen sind manuell oder über Steuerspannungen regelbar, z.B. mit einem Joystick zur manuellen Beeinflussung des Klangs beim Spiel. Wie beim VCA ist aber die Steuerung durch einen Hüllkurvengenerator (>ADSR< ) besonders effektiv, so dass - für viele Hörer höchst ungewohnte - klangfarbendynamische Klangverläufe (z.B. Analog Drum) erzeugt werden. Ein perkussiver Einsatz von musikalisch effektvollen 24 dB-Filtern mit hohem Resonanzfaktor, etwa zur Erzielung von zischelnden Schlagzeugeffekten, heulenden Pfeiftönen oder blubbernden Bässen,u die von ihren akustischen Pendants nicht erzeugt werden können, waren vor allem in den auf Elektronik setzenden Popmusikstilen der 1970-80er Jahre äußerst beliebt 14 (»typisch Synthesizer«). Es gibt erkennbar eine intensive 13 Ein Song der deutschen Elektronikgruppe Kraftwerk veranschaulicht klangvoll diese Sounds im Text: »Boing Boom Tschak« (1986). 14 Besonders bekannt für elektronische Klangwirkungen wurden Gruppen wie Pink Floyd, Kraftwerk, Tangerine Drea m in Deutschland oder Depeche Mode, The Human League in England oder die als Ein-Personen-Orchester auftretende Synthesisten wie der Franzose JeanMichel Jarre oder der Grieche Vangelis u.v.a .m. 268 und nachhaltige Wechselwirkung zwischen den neuen Musiktechnologien und den musikalischen Strukturen der Popularmusikformen in der 2. Hälfte des 20. Jahrhunderts, denn nicht nur die neuartigen Klangfarben (Synth Sounds) und Klangeffekte kennzeichnen die popmusikalische Entwicklung, sondern ebenso bedeutsam, vielleicht noch grundlegender wirken sich die endlos repetierten Loops der (zu Anfang nur) achtschrittigen Step-Sequenzer, die Präzision der Rhythmusautomaten und die Multiplay-Technik übereinandergeschichteter Stimmen auf die stilistischen Merkmale (und Hörgewohnheiten) II aus. Aber auch langsame >Sweeps< und repetierende, kreisende und glissandierende Filtereffekte, wie sie onomatopoetisch durch Begriffe wie >WahWah< beschrieben werden, sind kennzeichnend für eine mit Filtern realisierte subtraktive Klangsynthese in den ersten Jahren der Synthesizerentwicklung. Je nach Schaltung können Filter unterschiedliche Klangcharakteristiken zeigen. Z.B. hat das 4-Pol-Kaskadenfilter der ersten Moog-Synthesizer wegen seines speziellen Klangs einen legendären Ruf und gilt als »klassisches« Moog-Filter, dessen Nachbau oder Simulation bis heute immer wieder angestrebt wird. Die besonderen Klangeigenschaften analoger Synthesizer hängen wesentlich von den konkret realisierten Filterschaltungen ab. Mit der gezielten (Bandpass-) Filterung von Klängen können bestimmte Resonanzeigenschaften wie z.B. die Formanten von Instrumenten oder der Stimmvokale mit einiger Näherung nachgeahmt werden. · Einen Spezialfall der Klangfilterung bietet der 1939 von Homer Dudley (1896-1987) patentierte, eigentlich für militärische Codierungszwecke konstruierte >Vocoder< (Kurzform von Voice enCoder), ein im Wesentlichen aus mehreren Bandpassfiltern, Hüllkurvenverfolgern und VCAs aufgebautes Gerät mit mindestens zwei Audio-Eingängen, das typischerweise die Artikulation eines analysierten Sprachsignals auf die Klänge oder Geräusche eines beliebigen Audiosignals, z.B. eines Musikinstruments, überträgt - mit dem immer wieder überraschenden Effekt eines sprechenden oder singenden Instru mentalklangs oder Geräuschs (z.B. Roboterstimmen in verschiedenen Produktionen der Gruppe Kraftwerk). Das Sprachsignal wird im Analyseteil eines Vocoders mit Bandpassfiltern in mehrere (z.B. 12) Frequenzbereiche zerlegt; 15 Vgl. u. a. W. Sandner (1977), Sound & Equipment; W. Schiffner (1991), Einflüsse der Technik auf die Entwicldung von Rock/Pop-Musii<; ß. Enders (1995), Der Einfluß moderner Musiktechnologien auf die Produktion von Popularmusik; H. Wandler (2012), Technologie und Sound in der Pop- und Rockmusik - Entwicklung der Musikelei<tronik und Auswirl<ungen auf Klangbild und Klangideal. 269 Bernd Enders nachgeschaltete >Hüllkurvenverfolger (>Envelope Follower<) erzeugen aus der gemessenen Dynamik in den einzelnen Kanälen entsprechende Steuerspannungen, die zur Steuerung von VCAs dienen, die wiederum im Syntheseteil den Bandpassfiltern nachgeschaltet sind, die - analog zum Analyseteil - das Audiosignal als Trägersignal in mehrere Frequenzbereiche aufgeteilt haben. Für effektvolle Vocoderklänge müssen Sprach- und Trägersignal in etwa die gleichen Frequenzbereiche abdecken und das Trägersignal sollte kontinuierlich klingen (z.B. Orgel).'(, Die FM-, PM- und AM-Synthese Obwohl die subtraktive Klangsynthese in den Anfangszeiten analoger Synthesizer sich in der Praxis als die vorherrschende Methode der Klangformung durchsetzte und die Additive Klangsynthese zumindest ansatzweise eingesetzt wurde, standen auch andere Synthesetechniken prinzipiell zur Verfügung. Dazu gehören vor allem nichtlineare Synthesetechniken, die auf der Modulation (= zeitlichen Veränderung) eines Schwingungsparameters beruhen, wenn z.B. ein Oszillator die Amplitude eines Verstärkers (>Amplitudenmodulation<, >AM-Synthese<) oder die Frequenz (>Frequenzmodulation<, >FM-Synthese<) oder die Schwingungsphase (>Phasenmodulation<, >PM-Synthese<) eines anderen Oszillators moduliert. Abgesehen von einer einfachen gegenseitigen Frequenzsteuerung zweier analoger Synthesizeroszillatoren (auch als >Cross Modulation< bekannt) wurden diese Synthesetechniken erst mit der Digitalisierung der Synthesizertechnologie einem größeren Anwenderkreis zugänglich. (Lediglich die Ringmodulation (s.u.) als Sonderfall der Amplitudenmodulation spielte in der experimentellen Elektronischen Musik der 1950-60er Jahre eine gewisse Rolle). Gründe hierfür liegen in der schwer vorhersehbaren Komplexität der erzielten Klangstrukturen, zumal sich einmal gefundene Sounds nicht abspeichern ließen, sowie in der Schwierigkeit, stabile Frequenzverhältnisse einzustellen, so dass ein musikalisches Spiel mit den Klängen möglich wurde. Zwar gelang es mit speziell konstruierten Chips in den 1980er Jahren auch analoge Synthesizer mit frequenzstabilen Modulen zu bauen, aber zu dieser Zeit verdrängten digitale Systeme die analogen Vorgänger bereits fast vollständig. ' 7 16 Vgl. dazu: >Vocoder<, in B. Enders (1997), Lexikon Musikelektronik . 17 Z.B. verfügt der mit Curtis-!Cs aufgebaute Modulsynthesizer Soundlab, der 1985 von der EOrgelbaufirma Dr. Böhm unter konzeptioneller Mitwirkung des Verfassers dieser Zeilen hergestellt wurde, über die Möglichkeit, stimmstabile Klänge mittels AM-, FM- und PM- 270 Analoge und digitale Syntheseverfahren, MIDI und Sampling Die Klangsynthese mittels einer Frequenzmodulation (FM-Synthese) beruht auf der Modulation der Frequenz einer Audioschwingung (>Trägerfrequenz<, >Carrier Frequency<) mit einer Frequenz, die ebenfalls im Audiobereich (>20 Hz) liegt. Wird eine Schwingung mit einer Frequenz im Subaudiobereich moduliert, z.B. mit 7 Hz, resultiert daraus ein Vibrato oder je nach Amplitude der Modulationsfrequenz (hier auch >Frequenzhub< genannt) etwa ein periodisches Glissando wie eine Sirene. Liegt die Modulationsfrequenz (>Modulation Frequency<) jedoch im Audiobereich, werden neue, recht komplexe Klangstrukturen hörbar, deren Teiltonspektren von Frequenz und Amplitude der Modulationsschwingung abhängen. Während z.B. auf additivem Wege mit zwei Sinusoszillatoren lediglich ein Oberton zum Grundton hinzukommt (>lineare Synthese<), werden mit der (>nichtlinearen<) FM-Synthese je nach Frequenzverhältnis und Modulationstiefe der beiden Sinusschwingungen bereits zahlreiche harmonische und nichtharmonische Teiltöne generiert. Im Spektrum einer frequenzmodulierten Sinusschwingung kommen oberhalb und unterhalb zur Trägerfrequenz sogenannte >Seitenbänder< hinzu, die das Teiltonspektrum des erzeugten Klangs ausmachen - und zwar im Abstand der Modulatorfrequenz sowie ihrer ganzzahligen Vielfachen (n). Wenn beispielsweise die Trägerschwingung eine Frequenz f c von 1.000 Hz aufweist und die Modulatorfrequenz fm 200 Hz beträgt, dann werden bei einer Amplitude der Modulationsfrequenz (> 0 !) als erste Seitenfrequenzen 1.000 + 200 = l.200 Hz oberhalb und 1.000 - 200 = 800 Hz unterhalb der Trägerfrequenz erzeugt, als weitere Frequenzen 1.400 Hz und 600 Hz usw. jeweils mit den Vielfachen der Modulatorfrequenz fm von 200 Hz. Damit ergibt sich für den resultierenden Klang (200, 400, 600, 800, l.000, 1.200, 1.400, 1.600, 1.800 Hz) ein Grundton von 200 Hz (der also nicht identisch mit der Trägerfrequenz 1.000 Hz ist). Je nach Relation der beiden Frequenzen ist es möglich, dass ein Residualton [-7 2.5 .2] als Grundton gehört wird, also eine Frequenz, die im Spektrum der FM-Synthese als eigenständige Schwingungskomponente nicht vorhanden ist. (Wäre die Amplitude des Modulators gleich Null, gäbe es keine Modulation und es wäre nur eine Sinusschwingung von 1.000 Hz zu hören.). Synthese zu erzeugen. Aktuelle Analogmodelle basieren ebenfalls auf Chip-Technologie, z.T. in Kombination mit digitalen Schaltelementen. 271 Analoge und digitale Syntheseverfahren, MIDI und Sampling Bernd Enders Stehen Träger- und Modulatorfrequenz im exakten Verhältnis ganzer Zahlen zueinander, also z.B. 213, 512 usw. , ergeben sich harmonische Spektren, andernfalls erhält man unharmonische Teiltonstrukturen, die sich z.B. für Mischklänge (Schlagzeug, Glocken, Gong) nutzbringend verwenden lassen. A T T I Abb. 3: Seitenbänder einer FM-Synthese Das Schwingungsergebnis einer Frequenzmodulation kann in einer Funktionsgleichung wie folgt dargestellt werden: e(t) = A • sin [ 2rr + f c t+ I · sin (2rr · fmt)] Hierbei ist e die Elongation, also der momentane Punkt des Schwingungsvorgangs, A steht für die Amplitude bzw. Hüllkurve des gesamten Ausgangssignals, fc ist die Trägerfrequenz. Der Modulationsindex I ergibt sich als Quotient aus der Amplitude d der Modulationsfrequenz (oder Frequenzhub) und der Modulationsfrequenz f m: I = d/fm Da sich die Klangergebnisse der FM-Synthese nur schwer vorhersagen lassen, vor allem bei der Modulation mit mehreren beteiligten Oszillatoren oder bei Verwendung komplexerer Schwingungsformen als Träger und/oder Modulator, ist es verständlich, dass sich erst mit dem Aufkommen digitaler Instrumente eine größere Verbreitung ergab, denn nun ließen sich einmal gefundene, musikalisch geeignete Klangstrukturen im digitalen Set abspeichern und leicht wieder aufrufen. 272 Im Jahre 1967 wurde die FM-Klangsynthese von John M. Chowning" (''"1934) von der Stanford Universität beschrieben. 19 Die Patente ließ sich die Firma Yamaha 1974 lizensieren und baute in den Folgejahren verschiedene FM-Synthesizer. Der 1983 vorgestellte, digital mit fortschrittlicher ChipTechnologie aufgebaute, als FM-Synthesizer bekannte DX 7 entwickelte sich dann rasch zu einem Verkaufsschlager (er gilt als einer der meistverkauften Synthesizer überhaupt), da er zahlreiche gut klingende und fertig programmierte, über Speicher rasch abrufbare, brillante Instrumentalsounds (>Factory Sounds<) enthielt, 16stimmig polyphon gespielt werden konnte und zudem mit dem neu entwickelten MIDI-System (s.u.) kompatibel war. überdies war der DX 7 als Keyboard mit klavierähnlicher Anschlagsdynamik relativ leicht transportabel und vergleichsweise günstig im Preis. Die zu dieser Zeit aktuellen Analogsynthesizer, die überwiegend nur über wenige Stimmen verfügten und deren Klangprogramme nicht oder nur bedingt abgespeichert werden konnten, galten daraufhin schnell als veraltet (erleben aber seit den 1990er Jahren aufgrund der charakteristischen »fetten« Sounds analoger Schaltungen eine überraschende Renaissance). Die Nachfolger des DX 7 zeichneten sich durch erweiterte Speichermöglichkeiten und aufgrund der Verwendung von 16 Bit-Wandlern {statt 12 Bit) rauschärmere Klänge aus. Vor allem die Authentizität perkussiver Klänge {wie E-Piano, Clavinet, Cembalo), die nuancenreiche Anschlagsdynamik und Klangfarben mit nicht ausschließlich harmonischen Teiltonspektren (Glocken, Metallophone) wurden allgemein geschätzt. Auf die Programmierung der als zu kompliziert betrachteten FM-Synthese wurde eher verzichtet, so dass in den Folgejahren meistens die mitgelieferten oder hinzugekauften Klangprogramme (>Presets<, >Factory Sounds<) zu hören waren. Erst mit der Entwicklung allgemein verfügbarer Musikprogramme für handelsübliche Computer wurde die eigene Klangprogrammierung wiederbelebt. Auch 、ゥセ@ ersten Horne Computer wie der Commodore C64 oder der MIDI-kompatible Atari ST brachten Soundchips mit, die mit der FM-Synthese arbeiteten, allerdings mit großen Einschränkungen und minderer Klangqualität als die der YamahaInstrumente. 18 J.M. Chowning (1973), The synthesis of complex audio spectra by means of frequency modulation . Fiir die Nachrichtentechnik wurde das Verfahren schon um 1922 entdeckt, u.a . basiert der UKW-Rundfunk auf der FM-Technik. Auch der bekannte Synthesizerkonstrukteur Donald Buchla ('"1937) experimentierte um 1968 mit diesem Verfahren; M. Becker (1990), Synthesizer von gestern . 19 Vgl. T. Tolonen /V . Välimäki / M . Karjalainen (1998), A new sound synthesis structure for modeling the coupling of guitar strings, S. 205-208. 273 -------Bernd Enders Auch bei der (nichtlinearen) Klangsynthese mittels einer Amplitudenmodulation (AM-Modulation) ergeben sich neue Schwingungsformen mit Seitenbändern. Wird die Amplitude eines Klangs periodisch verändert, hört man bei langsamen Frequenzen der Modulationsfrequenz (z.B. 7 Hz) eine entsprechende Lautstärkenschwankung, ein Tremolo. Wird die Modulationsfrequenz jedoch in den Audiobereich erhöht, resultiert eine Schwingungsform, deren Teilschwingungen sich durch Addition und Subtraktion von Trägerfrequenz (z.B. 200 Hz) und Modulationsfrequenz (z.B. 50 Hz) errechnen lassen (also 200 + 50 = 250 Hz und 200 - 50 = 150 Hz). Auch die Trägerfrequenz (= 200 Hz) ist zu hören, sofern es sich bei der Modulationsfrequenz um eine unipolare Schwingung handelt (mit einem Offset, also nicht symmetrisch um den Nullpunkt schwingend). Wird hingegen eine bipolare Modulationsfrequenz verwendet, werden ebenfalls die beschriebenen Seitenbänder erzeugt, jedoch ist die Trägerfrequenz im resultierenden Signal nicht mehr vorhanden. Diese Syntheseform ist als >Ringmodulation<' 0 bekannt, sie ist ein Sonderfall der Amplitudenmodulation. Digitale Syntheseformen Während die bisher beschriebenen Synthesemethoden mit analoger und digi taler Elektronik realisiert werden können, digital z.T . mit· erweiterten Möglichkeiten, erschließt die Digitaltechnik neuartige Syntheseformen, die voraussichtlich eine große Bedeutung für die weitere Entwicklung der Audio- und Musiktechnologie haben werden und mit analoger Technik kaum realisierbar sind. Ein Beispiel hierfür gibt die >Waveshaping-Synthese< (auch >Wellenformsynthese<), die prinzipiell auch auf analoger Basis möglich ist, aber erst mit digitaler Technik praktikabel umgesetzt werden kann. Hier entstehen aus einem Eingangssignal über nichtlineare Verzerrungen neue Schwingungsformen mit komplexeren Klangspektren durch hinzutretende Obertöne. Verschiedene Verzerrungseffekte wie z.B. die Übersteuerung eines Gitarrenverstärkers können auf diese Weise überzeugend simuliert werden. Für die Verzerrung des Eingangssignals werden häufig mathematische Funktionen eingesetzt, die als >Chebyshev-Polynome< (auch >Tschebyschow-P.<) bekannt sind. Wird z.B. eine 20 Mit einer Schaltung, die vier Halbleiter- oder Röhrendioden in einem Ring anordnet - daher der Name - lassen sich zwei Wechselspannungen recht einfach multiplizieren. Ringmodulatoren wurden schon in den 1950er Jahren in der experimentellen Elektronischen Musik verwendet, z.B. um Instrumentenklänge im Live-Konzert nichtharmonisch zu verzerren. 274 Analoge und digitale Syntheseverfahren, MIDI und Sampling Cosinusschwingung mit der 3. Chebyshev-Polynom-Funktion ( 4 ( x 3) - 3x ) transformiert, .wird eine Cosinusschwingung mit der dreifachen Frequenz (Oktave + Qumte) erzeugt. Durch geeignete Kombinationen der verschiedenen Funktionen lassen sich sehr unterschiedliche, z. T. aber schwer vorhersehbare Teiltonspektren erzielen." Die >Granularsynthese< (>Granular Synthesis<) wurde Ende der 1940er Jahre vom ungarischen Physiker Dennis Gabor entdeckt. Er stellte fest, dass sich beliebige Klangfarben aus einer Kette (>Sequenz<) von sehr kurzen Klangpartikeln, sogenannten >Grains< (lat. granulum, engl. grain für »Korn, Körnchen«) herstellen lassen, die typischerweise zwischen 10 und 100 ms lang sind." Diese Klangpartikel können einfache Sinusschwingungen oder auch komplexere Schwingungsformen enthalten und mit verschiedenen Amplituden, Dauern der Grains und Dauern der Sequenz wiedergegeben werden. Ähnlich wie die Einzelbilder eines Films bei der Wiedergabe zu einem Kontinuum verschmelzen, nimmt der Hörer die einzelnen Schwingungsquanten als einen kontinuierlichen Klangverlauf wahr, wenn ihre Länge 50 ms nicht überschreitet. Sind sie länger, dann werden sie als eigenständige Klangabschnitte gehört. Im Unterschied zur additiven Synthese, die Teilschwingungen im Frequenzbereich addiert, entsteht bei der Granularsynthese die Schwingungsform durch Addition der Klangpartikel im Zeitbereich. Werden die einzelnen Grains gleich mehrfach ausgelesen, sind Effekte wie Time Stretching oder Pitch Shifting möglich, d.h., die Tondauer kann verändert werden, ohne dass sich die Tonhöhe mitändert, und umgekehrt. Obwohl die Grains heutzutage normalerweise digital gespeichert bzw. ausgelesen werden, ist eine Realisation mit analoger Technik durchaus möglich. Schon Karlheinz Stockhausen und Iannis Xenakis (1922-2001) experimentierten mit auf Magnetband gespeicherten, seriell angeordneten Klangfragmenten, die mit hoher Bandgeschwindigkeit abgespielt wurden. relativ neue, nur digital mögliche SyntheseSehr vielversprechend ist セゥョ・@ technik, die als >Physical Modelling< (auch: >Physical Modeling<) oder >Physikalische Modellierung<bekannt ist. Im Gegensatz zu den bisher beschriebenen Syntheseformen wird ein erwünschtes Klangspektrum nicht über die Manipulation von Schwingungsformen erreicht, sondern über ein Rechenmodell der Erzeugung eines Schwingungsvorgangs am Ort der Entstehung, indem mechanische Schwingungsprozesse untersucht und das Zusammenwirken von Erreger A 21 Der französische Komponist Jean-Claude Risset (''1938) experimentierte bereits 1969 musikalisch mit der Waveshaping-Synthese. 22 D. Gabor (1946), Theory of communication, S. 429-457. 275 Bernd Enders und Resonatoren, also der akustisch relevanten Bestandteile eines lnstruc ments, digital simuliert wird. Z.B. muss das Streichen oder Zupfen einer Saite, das Anschlagen einer Trommelmembran oder das Vibrieren eines Rohrblattes mathematisch erfasst und/oder die damit gekoppelten Resonanzvorgänge (z.B. Geigenkörper, Luftsäule, Reflexionen) analysiert und mit Hilfe von verschiedenen Schwingungsmodellen algorithmisch nachgebildet werden. Bevorzugt handelt es sich dabei um >Feder-Masse-Modelle<, die das Schwingen von einzelnen Massenpunkten in Federn oder Pendeln mathematisch beschreiben, oder um >Wellenleitermodelle<, die auf der (echtzeitfähigen) Berechnung der (eindimensionalen) Wellenausbreitung und Reflexionen bei Saiten und Luftsäulen beruhen. 23 Schwingungen von mehrdimensionalen Systemen wie Saiten, Stäbe und Platten können durch gekoppelte Masse-Feder-Systeme modelliert werden. 24 Dabei repräsentiert jeder Massenpunkt die durchschnittliche Masse einer Längen-, Flächen- oder Volumeneinheit. Für jeden Massenpunkt lässt sich eine Bewegungsgleichung erstellen. Das Gesamtsystem lässt sich in einem Gleichungssystem zusammenfassen. Die Berechnung erfolgt mit computergestützten Methoden, wie z.B. der Finiten Elemente Methode. 25 Nicht nur die Schwingung lässt sich damit modellieren, sondern auch die Schallausbreitung in einem umgebenden Medium, wie z.B. der Luft. Das Klangresultat der Physikalischen Modellierung ist umso realistischer, je genauer die akustischen Kenntnisse sind bzw. je mehr über die jeweilige Klangerzeugungstechnik des simulierten Instruments bekannt ist. Die zur optimalen Nachbildung notwendigen Algorithmen sind allerdings überwiegend sehr komplex und beanspruchen auch beim aktuellen Stand der Computertechnik eine hohe Rechenleistung, weshalb nur wenige Modelle in Echtzeit funktionieren.26 Letzteres wäre aber gerade von besonderem Vorteil, weil eine Physical-Modelling-Synthese eine sehr differenzierte Beeinflussung der verschiedenen Parameter eines Klangerzeugungsvorgangs zulässt, oder anders ausgedrückt: Mit geeigneten Spieleinrichtungen (>Interfaces<) - wie z.B. einem 23 J.O. Srnith III (1992), Physical modeling using digital waveguides. Eine weiterführende Erläuterung der mathematischen Grundlagen aller hier beschriebenen Syntheseforrnen findet sich u.a. bei M. Neukorn (2005), Signale, Systeme und Klangsynthese; C. Roads (2000), Tin computer music tutorial. 24 D. Hall (1997), Musikalische Akustik, S. 178. 25 N.H. Fletcher / Th.D. Rassing (1991), The fJh31sics of musical instruments, S. 122-123. 26 Yarnaha hat 1993 mit dem ein/zweistimmigen Vl-1 erstmals ein kommerzielles PhysicalModeling-Instrument auf der Basis eines Blasinstrumentenmodells hergestellt, idea lerweise mit einem Blaswandler zu spielen. Mit dem extrem seltenen und noch aufwendigeren VP-1 wurden Streicherklänge simuliert. 276 Analoge und digitale Syntheseverfahren, MIDI und Sampling Blaswandler - lassen sich auch subtile Modulationen erreichen und für eine musikalisch optimal gelungene Artikulation der Klänge nutzen. Natürlich können die Schwingungsparameter eines Modells auch extrem verändert werden, um neuartige Instrumente zu konstruieren oder bekannte Instrumente zu variieren, gegebenenfalls in einer Weise, die mechanisch nicht erreichbar wäre, wie z.B. eine Gitarre mit baumlangen Saiten. Schon 1983 wurde von Kevin Karplus (''" 1954) und Alex Strang ein relativ einfaches und bis heute öfter verwendetes Physical-Modelling-Verfabren beschrieben, das im wesentlichen aus einer Verzögerungsschleife mit einem integrierten Tiefpassfilter besteht, in die (z.B.) ein Rauschimpuls eingespeist wird (>Karplus-Strong-Algorithmus<). Bei jedem Durchlauf der Verzögerungsleitung (>Delay Line<) mit einer Verzögerungszeit, die der Periodendauer des zu erzeugenden Tons entspricht, werden Teiltöne des Ausgangssignals immer stärker gedämpft, so dass der Ton rasch dunkler wird und ausklingt. Daher eignet sich diese Synthese vor allem für die Nachahmung von gezupften Saitenklängen oder Trommelschlägen." 3.2.2 Sound Sampling und Resynthese Synthetische Klänge können sehr neuartig klingen, sie können bekannte Instrumente recht gut imitieren, aber eine authentische Nachbildung mit allen Feinheiten des Ein- und Ausschwingverhaltens, der z.T. sehr subtilen und sich verändernden Geräuschanteile und der inneren (feinmodulatorischen) Bewegung auch in einer quasi-stationären Phase eines musizierten Klangs (z.B. einer gestrichenen Geigensaite) sind auch mit digitalen Technologien nur sehr schwer zu reproduzieren. Daher liegt der Gedanke nahe, einfach die Origina.1klänge von Instrumenten aufzunehmen, zu speichern und beim musikalischen Spiel abzurufen. Als ein erster Versuch könnte die t von Edwin Weite (1876-1958) in den 1930er-Jahren entwickelte Lichttonorgel gewertet werden [-7 3.1.2]. In den 1950er Jahren konstruierte Harry Chamberlin das ab 1964/65 erhältliche Tasteninstrument >Mellotron<, das pro Taste auf Tonbändern (jeweils drei) gespeicherte Originaltöne (z.B. Flöte, Streicher, Chöre) in der entsprechenden Tonhöhe und maximal 8 s Dauer zum Klingen brachte. Der aufgrund der 27 K. Karplus / A. Strang (1983), Digital synthesis of plucked-string and drum timbres; vgl. auch: T. Tolonen /V. Välimäki / M. Karjalainen (1998), A new sound synthesis structure for modeling the coupling of guitar strings, S. 205-208. 277 Bernd Enders Analoge und digitale Syntheseverfahren, MIDI und Sampling komplizierten und störanfälligen Mechanik leicht leiernde Klang ist auf vielen . Platten der 1960er und 70er Jahre zu hören, z.B. der Beatles (»Strawberry fields«), der Moody Blues (»Nights in white satin«), Pink Floyd, Led Zeppelin u.v.a. Auch das von den Vertretern der musique concrete - vor allem von Pierre Schaeffer (1910-1995) - in Paris in den 1950er Jahre entwickelte Phonogene basierte auf chromatisch »gestimmten« Tonbändern, die mit einer Klaviatur gespielt werden konnten. Das digitale Sound-Sampling-Zeitalter begann mit dem ersten komplett digitalen Synthesizer, dem Fairlight Musikcomputer CMI, der Ende der 1970er Jahre von den Australiern Peter Vogel und Kirn Ryrie auf der Basis einer 8Bit-Technologie entwickelt und insbesondere in den 1980er Jahren von innovativen Künstlern wie Peter Gabriel und Stevie Wonder eingesetzt wurde. Populär wurden gespeicherte Orchesterklänge mit Kate Bushs Album »Never for ever« (1980, mit dem Hit »Babooshka«). Die erste ausschließlich mit dem Fairlight produzierte Langspielplatte war »Erdenklang - Computerakustische Klangsinfonie« der österreichischen Musiker Hubert Bognermayr und Harald Zuschrader. Das Werk wurde 1981 auf der Ars Electronica 1982 uraufgeführt; ein Stück, das sehr stark auf Sound Samples basiert, die häufig transponiert erklingen und insgesamt dadurch recht künstlich wirken. Auch der Franzose Jean Michel Jarre ( »Magnetic fields«, 1981) oder die Experimentalgruppe Art of Noise (»lnto battle «,1983) setzten früh auf die gesampelten Sounds eines Fairlight CMI. Abb. 4: Fairlight Musikcomputer CMI mit digitaler Klangsynthese (Wavedrawing mit Lightpen), Sound Sampling (8-bit) und Sequenzer (mit rudimentärer Notendarstellung) Konkurrenz entstand dem Fairlight sofort durch das >Synclavier<, das ab Mitte der 1970er Jahre von der Firma >New England Digital<entwickelt wurde, zunächst ebenfalls als 8-Bit-System mit Additiver und FM-Synthese (>Synclavier I<, 1979), später auch mit der Möglichkeit, Samples abzuspielen (>Synclavier II<). 1982 kam der schon deutlich erschwinglichere >Emulator< von Emu Systems dazu, 1985 der >Mirage< von Ensoniq, und in der Folgezeit wurden die Systeme immer handlicher und leistungsfähiger, so dass beispielsweise schon 1988 der Akai >SlOOO< als Einbaugerät für 19"-Racks mit 16-BitAuflösung, CD-Qualität, erweiterbarem Speicher und polyphonem Spiel mit 16 Stimmen daherkam und die musikalische Verwendung von Sound Samples wesentlich den Klang der Popmusik ab Ende der 1980er Jahre prägte. Der 1980 erstmals von Roger Linn konstruierte >Linn LM-1 Drum Computer< gilt als erste programmierbare Rhythmusmaschine, die digitalisierte Klänge eines originalen akustischen Schlagzeugs verwendete. 278 279 Analoge und digitale Syntheseverfahren, MIDI und Sampling Bernd Enders Mit dem Aufkommen immer preiswerterer und leistungsfähigerer Computer mit schnelleren Prozessoren, größeren Arbeitsspeichern und hochwertigen Soundkarten wurde seit Mitte der 1990er Jahre mehr und mehr auf spezielle Hardware verzichtet und die Entwicklung der Sound Sampler in den Softwarebereich verlagert. Als umfangreiche Programm-Pakete sind heute Sampling-Bibliotheken wie z.B. die erfolgreiche >Vienna Symphonie Library< in der Lage komplette Orchesterstimmen abzubilden, z.T. mit spieltechnischen Raffinessen (z.B. verschiedene Bogenstriche beim Geigenspiel), so dass die klangliche und musikalische Qualität dem Original erstaunlich nahekommt und dem weniger geübten Ohr nicht mehr auffällt. In den Studios vieler Pop- und Filmmusikproduktionen wird inzwischen fast völlig auf die Einbindung von Instrumentalisten und original gespielten Instrumenten verzichtet. Prinzipiell basiert die Technik eines Sound Samplers [-7 3.3.3] auf der digitalen Speicherung von letztlich beliebigen Klängen, also z.B. den einzelnen Tönen eines Musikinstruments, die zum musikalischen Spiel - etwa mit einem Keyboard - in der passenden Frequenz aus dem Speicher ausgelesen werden. 1 Wird beispielsweise die Taste a gedrückt, ertönt z.B. ein Trompetenton mit 440 Hz, auf den ersten Blick ein klanglich perfektes Verfahren. Jedoch gibt ein Sound Sampler den Originalklang in einer »fixierten« Aufnahme wieder, vergleichbar mit einem immer identisch ablaufenden Filmausschnitt eines eigentlich sich ständig verändernden Vorgangs. Soll der Klang z.B. länger erklingen als die Originalaufnahme, muss ein bestimmter Teil wiederholt werden (>Loop<), wobei ein quasistationärer, also möglichst gleichförmiger Abschnitt am geeignetsten ist. Um dabei ein Knacken an den Übergängen zu vermeiden, müssen Nullpunkte im Schwingungsverlauf gefunden werden, entweder automatisch (>Auto Loop<) oder durch manuelle Setzung. Verschiedene Edit-Werkzeuge erlauben ein praz1ses Beschneiden (Trimffruncate) von Samples. Funktionen wie Cut/Copy/Paste erweitern die Möglichkeiten der Bearbeitung, eine grafische Darstellung des Schwingungsverlaufs optimiert die Zugriffsmöglichkeiten. Verschiedene Loop-Typen stehen eventuell zur Verfügung (Forward/Backward oder Reverse/Alternate Loop). Vielfach lässt sich auch einstellen, ob ein Loop beim Tastendruck erklingen soll (Sustain Loop) oder erst nach dem Loslassen der Taste (Release Loop), gegebenenfalls mit verschiedenen Klanganteilen, etwa mit einem abschließenden Geräusch (z.B. Rückfallklick eine Cembalo-Springers). Allerdings funktionieren geloopte Sounds nur einigermaßen akzeptabel bei Klängen mit relativ gleichbleibenden Schwingungsverläufen (Orgel, Posaune o.ä.), denn für Instrumente mit dynamisch sich stetig verändernden Klangstrukturen (z.B. Klavier, Gitarre) muss zwangsläufig ein komplettes Sample vorliegen. Ein anderes Problem entsteht beim Transponieren eines Samples, wenn ein a1 -Sample auch für den Ton as 1 oder b 1 erklingen soll, also um einen Halbtonschritt nach unten bzw. oben verschoben werden muss. Dabei erklingen die Töne der Auslesegeschwindigkeit entsprechend nicht nur länger (oder kürzer), was ggf. durch eine Zeitkorrektur (>Time Correction<) ausgeglichen werden kann, sondern ihre Oberton- und Formantcharakteristik wird komplett mit nach unten (oder nach oben) im Frequenzbereich verschoben, so dass ein transponiertes Sample sehr schnell unnatürlich klingt." Zwar könnte die Spei- Abb. 5: Kontakt-Player mit mehreren »geladenen« Sample-Instrumenten (Native Instruments) 28 Je nach Klangfarbe sind Transpositionen bis zu einer großen Terz auf- oder abwärts manchmal noch akzeptabel. Eine Transposition der Stimme über ein größeres Intervall na ch oben (z.B. Oktave) ergibt den sogenannten >Mickey-Mouse-Effekt<. 280 281 Bernd Enders cherung je eines eigenen Samples pro Instrumentalton dieses Problem lösen, . jedoch fallen dann je nach erwünschter Klangqualität (z.B. 96 kHz Sample Rate und 24-Bit-Quantisierun g), Länge und Aufnahmeart der Originalaufnahme (z.B. in Stereo) doch sehr große Datenmengen an, die etwa beim mehrstimmigen Spiel auch moderne und hochwertige Rechner mit schnellen Festplatten ins Stocken bringen können. Schliefüich muss berücksichtigt werden, dass Instrumentalklänge in verschiedenen Lautstärkegraden klangfarblich unterschiedlich klingen, normalerweise wird ein Klang mit zunehmender Lautstärke nicht nur einfach lauter, sondern auch brillanter, heller, schneidender, d.h. die Teiltonstruktur ändert sich, höhere Teiltöne kommen hinzu oder treten stärker hervor. Außerdem hängt die Klangfarbe eines Instruments von der konkreten Spielweise ab, von der Artikulation, bei der Geige z.B. vom Bogenstrich, bei der Flöte gibt es unterschiedliche Anblasgeräusche usw. Es ist daher praktisch kaum möglich, für jede Lautstärke und jede Artikulationsform eigene Originalsamples zu speichern und passend abzurufen. Damit zur Erzielung möglichst authentischer Klänge nicht zu große Datenmengen anfallen, werden verschiedene Verfahren angewendet, um weiche Übergänge zwischen den gesampleten Tönen und verschiedenen Dynamikstufen zu erreichen. Üblicherweise werden die Samples bestimmten Tonbereichen zugeordnet (>Mapping<), in denen ein Sample trotz Transposition noch natürlich klingt, und die Übergänge zu den benachbarten Samples werden durch eine Überblendungsfunkt ion fließender gestaltet (>Crossfade<). Eine ähnliche Technik wird für feinere klangfarbendynamis che Abstufungen genutzt, verschiedene Samples mit unterschiedlichen Lautstärken werden übereinandergelegt (>Layer<) und je nach verlangter Dynamik (z.B. anschlagsdynamisch) umgeschaltet (>Velocity Switching<). Auch hier können weichere Übergänge vorgesehen werden (>Velocity Crossfading<). Für spezielle Effekte können natürlich auch völlig verschiedene Instrumente anschlagsdynamisch umgeschaltet oder kombiniert werden. Grundsätzlich werden Sound Samples auch noch weiteren Klangformungsverfahren unterworfen, programmierbare Hüllkurven, Klangfilter und zahlreiche Effekte wie Hall, Echo, Distortion, Phaser/Flanger/Chorus, Tonsystemwahl und instrumentalspezifische Einstellungen (z.B. Öffnungswinkel eines Flügeldeckels) sind je nach Qualität und Leistungsumfang einer SampleLibrary zusätzlich regelbar. Weitere wichtige Aspekte der klanglichen Gestaltung von Sample-Libraries sind die Bedingungen bei der Aufnahme selbst, z.B. die Aufstellung der Mikrofone, der Räumlichkeitsanteil, die Wahl zwischen Solo- oder Gruppenaufnahmen u.a.m. Diese Aspekte lassen sich im Sampler hinterher nicht mehr beeinflussen. 282 Analoge und digitale Syntheseverfahren, MIDI und Sampling Gleichwohl ist das Sampling-Prinzip zur Zeit die erfolgreichste Methode, die Klangfarbencharakte ristik akustischer Instrumente möglichst naturgetreu nachzubilden. Sogar die typischen Sounds meist älterer elektroakustischer Instrumente (z.B. Harnmond-Orgel, Fender Rhodes) oder Synthesizer (>Vintage Synthesizer<) werden gesampelt, obwohl die Synthesetechniken dieser Instru mente heutzutage auf digitalem Wege relativ einfach simuliert werden könnten." Da die Herstellung von musikali sch genutzten Sound Samples z.T. recht aufwendig ist und eine digitale Kopie dem Original absolut gleicht, werden zunehmend auch juristische Aspekte diskutiert. Das Urheberrecht wird vor allem dann verletzt, wenn das Sample eine musikalisch erkennbare Struktur enthält. Die >Granularsynthese< liegt auch häufig der sogenannten >Resynthese< zugrunde, bei der ein digitalisierter Klang (Sound Sample, s.u.) in einzelne Grains zerlegt und einer Fourier-Analyse [-7 l.2] unterzogen wird (>zeitbezogene Resynthese<, auch >Time Domain Synthesis<). Beim Zusammensetzen der einzelnen Elemente können die verschiedenen Schwingungsparame ter sehr 30 flexibel und weitreichend manipuliert werden. U.a. sind nahtlose Übergänge von einer Schwingungsform in eine andere möglich (>Morphing<). Manche Synthesizer-Programme lassen auch da s variable Auslesen von Grains aus einem Sound Sample mit verschieden großen Zeitfenstern zu, so dass ausserordentlich neuartige klangliche und musikalische Wirkungen erzielt werden. Verwandt mit diesem Verfahren ist die etwas einfachere >WavetableSynthese<, deren Funktionsweise durch einfaches Abspielen von digitalen Klangsegmenten gekennzeichnet ist, um originale Instrumentalklänge zu erzeugen. Die einzelnen Klangstücke werden als digitale Daten in Tabellen gespeichert und ausgelesen, ggf. mit unterschiedlichen Geschwindigkeiten, um verschiedene Tonhöhen zu erzeugen. Verschiedene Formen der Loop-Bildung, Hüllkurven und Modulationstechnik en können mit diesem Verfahren kombiniert werden. Im Vergleich zur Speicherung kompletter Sound Samples kostet die Wavetable-Synthese weniger Speicherplatz und Rechenkapazität und ist flexibler einsetzbar. 29 Weiterführende Literatur: P. Gorges (1991), Das großer Sampler Praxisbuch; R. Großmann (2002), Sampling; K. Ploch (1988), Sampling. Theorie und Praxis für Einsteiger und Profis; M. Russ (1998): Sound sampli11g and syuthesis; P.R . Cook (2002), Realsound synthesis for interactive apfJlications; E.R. Miranda (2002), Com putersoun ddesign. 30 Gelegentlich wird der Begriff >Resynthese< auch für die additive Klangsynthese verwendet (>Harmonische Resynth ese<). 283 Bernd Enders Die Instrumentenhersteller kombinieren verschiedene Techniken und stellen sie als eigenständige Syntheseentwickungen mit jeweils neuen b・ョオセ@ gen vor, so dass eine Vielzahl von Syntheseverfahren bekannt ist, die aber meist auf den hier angeführten mathematisch-physikalischen Prinzipien aufsetzen. 3.2.3 MIDI Entwicklungsgeschichte >MIDI<, ein Akronym aus >Musical Instrument Digital Interface <, bezeichnet eine digitale Schnittstelle für Musikinstrumente zur seriellen Übertragung von musikalischen Informationen bzw. zur musikspezifischen Ste uerung von Musikinstrumenten und Audiogeräten in Echtzeit. Das sog. MIDI-Protokoll, das die Spezifikationen für die erforderl ichen Hard- und Software-Komponenten 31 beschreibt, wurde von führenden lnstrumentenherstellern in den Jahren 1981-83 entwickelt und in einer eher selten anzutreffenden Einmütigkeit zu einem gemeinsamen musiktechnischen Standard erhoben. Mit der Standardisierung dieser Schnittstelle begann eine bis heute andauernde Erfolgsgeschichte einer (musik)technischen Norm, die (ähnlich wie das ein Jahrzehnt später standardisierte Audioformat mp3) über die Musiktechnologie weit hinaus bis in die all gemeine Informationstechnologie eine unerwartet große und dauerhafte Verbreitung fand, 12 so dass mittlerweile auch handelsübliche Personal Computer und verbreitete Betriebssysteme prinzipiell MIDI-Daten verarbeiten können. Die MIDI-Technologie hat wesentlich zur Digitalisierung der Produktion von Musik im Live-Konzert wie im Tonstudio in den 1980er und 1990er Jahren beigetragen - vor all em in den populären 31 Dave Smith und Chet Wood (Sequentia l Ci rcuits) erprobten mit Tom Oberheim (Oberheim) und Ikutaroo Kake has hi (Ro la nd) die Möglichkeit einer einfachen digita len Übertragung von Spielin formationen und stellten erste Ergebnisse 1981 auf einem Kongress der AES (A ud io Engineering Society) vor. Nach Ver handlun gen mit anderen Herste llern (Yamaha, Korg, Kawai) kam es sch ließlich 1983 wr Gründun g der IMA (>Internationa l MIDI Association<), die da s erste Dokument (MIDI Deta iled Specifications Version 1.0) mit den vereinbarten Spezifikationen veröffentl ichte, so da ss ein eindeutiger technischer Rahmen für MIDI-kompatible In stru mente und Geräte gegeben war. Zu den Gründungsm itgliedern der !MA gehörten auch die Firmen Moog, Big Briar, Octave Plateau, Passport Design, Lexikon, Bontempi und SIEL. 32 Neuere Standards wr Übertragung von mu siktechnischen Informationen wie Open Sound Control (OSC) oder music Loca l Area Network (mLAN) konnten sich bisher trotz erweiterter und sc hne llerer Übertragungstechnik nicht durchsetzen. 284 Analoge und digitale Syntheseverfahren, MIDI und Sampli ng M usiksti len. MIDI hat die Musikwelt revolutioniert und völlig neue Dimensionen für den kreativen, aber auch stereotypen Umgang mit Musik ersch losJ.1 sen. Ursprünglich sollte das MIDI-System lediglich die Kombination von Synthesizer-Instrumenten erleichtern. Vorbereitet wurde diese Entwicklung ( u.a.) durch polyphone Synthesizer mit digitaltechnisch funktionierenden Klaviaturen. Die analogen Modulsynthesizer der ersten Stunde - wie etwa der berühmte Moog-Synthesizer - verfügten über Tastaturen, die beim Spiel lediglich eine einzige Steuerspannung für die angeschlossenen VCOs sowie eine Gate- oder Trigger-Spannung zum synchronen Starten von Hüllkurvengeneratoren abgeben konnten. Daher war zum tiefen Bedauern der damals am Synthesizer besonders interessierten Pianisten und Organisten nur ein monophones Spiel möglich, auch dann, wenn der Synthesizer über mehrere Oszillatoren und Hüllkurvengeneratoren verfügte. Erst mit digital funktionierenden Keyboards, die in den 1970er Jahren aufkamen, ließ sich eine polyphone Spielweise realisieren, zunächst nur mit wenigen Stimmen (4 oder 6), später mit 16, 32 und 64. 34 Auch wenn die Klangerzeugung der Synthesizer zunächst noch analog ausgelegt war, wurde das Tastenspi.el auf einem polyphonen Keyboard demnach digital übertragen, so dass die Uberlegung nahelag, die entsprechende Cod ierung der digitalen Daten zu standardisieren, um den Keyboardern mit der Vorliebe für mehrere Synthesizer die unbequeme Übereinanderschichtung der Instrumente mit je eigenen Tastaturen zu einer »Keyboard-Burg « zu ersparen. 33 Literaturhinweise: Ph. Ackermann (1991), Computer und Musik; M. Boom (1987), Music through MIDI; C hr. Braut (1993), Das MIDI Buch; B. Enders (1997), Lexikon Musik elel<tronik; B. Enders I W. Klemme (1988), Das M IDI- und Sound-Buch zum Atari ST; M. Oehler (2008), Die digitale Impulsformung; S. Phi li pp (1 986), MIDI-Kompendium 2. Offizie lle Homepage der MIDI Manufacturers Association (MMA): http://www.midi.org/index.p hp (letzter Zugriff 13.07.2013) 34 E ine Ausnahme bildeten (analoge) Synthesizer, die - wie der 48stimmige Korg PS 3300 - für jede Taste jeweils eine komplette Synthesizerstimme aus Oszillatoren, Filter, Verstärker, Hüllkurvengeneratoren u.a.m. vorsahen, ein technisch a llerd ings sehr aufwendiges und anfälliges (dem Prin zip der Pfeifenorgel ähne lndes) System, das sich aber nicht durchsetzte. 285 Analoge und digitale Syntheseverfahren, MIDI und Sampling Bernd Enders top-Synthesizer, der dem extrem erfolgreichen, schon weitgehend digital funktionierenden DX 7 klangtechnisch vollständig entsprach.'' Folglich genügt damit zur Ansteuerung der verschiedenen Synthesizer oder Expander eine einzige MIDI-kompatible Klaviatur, die als Masterkeyboard fungiert. Abb. 7: Roland MIDI-Synthesizer Jupiter 636 MIDI-Synthesizer, die als Masterkeyboard eingesetzt werden, ermöglichen eine schaltbare Trennung (>local off<- Mode) von Tastatur (>Controller<) und Klangmodul (>Generator<), so dass die MIDI-Daten auf einen beliebigen Empfänger (>Slave<) oder über MIDI-modifizierende Geräte umgeleitet werden können (>Master-Slave<-Prinzip). Noch konsequenter sind Masterkeyboards aufgebaut, die als reine MIDI-Controller völlig ohne eigenen Klangteil daherkommen, aber über besondere spieltechnische Qualitäten und Funktionen verfügen (Modulationsräder, gewichtete Tasten, großer Tastenumfang, gute Anschlagsdynamik, Aftertouch, programmierbare MIDI-Datenverarbeitung u.a.m.). 37 Abb. 6: Herbie Hancocks Synthesizer Equipment Die ersten MIDI-Synthesizer bauten 1983 die Firmen Sequential Circuits (Prophet 600), Roland (Jupiter 6) und Yamaha (DX 7). Konsequenterweise gab es dann auch bald die ersten Synthesizer als sog. Expander ohne eingebaute Tastatur, so z.B. der TX 7 von Yamaha, ein (nicht rackfähiger) Desk- 286 35 Es fehlen allerdings die direkten Edit-Funktionen, die entweder mit einem DX 7, dem speziellen Programmiergerät PR 7 oder einem anzuschließenden Computer ausgeführt werden müssen. 36 M. Becker (1995): Synthesizer von gestern, Vol. 2, S. 116. 37 Im Zusammenspiel mit Computern werden heute aber auch sehr kleine, handliche Masterkeyboards - oft zur Verwendung mit aktuellen USB- oder Firewire-Schnittstellen - angeboten, die weniger zum virtuosen Spiel als vielmehr zur Eingabe von weniger anspruchsvollen musikalischen Elementen (einzelne Motive, Rhythmen, Akkordfolgen, Patterns) dienen, die dann mit geeigneter Sequenzer-Software zum eigentlichen MIDI-Arrangement komplettiert werden. 287 ........ 1 Bernd Enders Relativ schnell griff die MIDI-Technik auch auf andere Instrumente über, so dass im Laufe der weiteren Entwicklungen MIDl-fizierte E-Orgeln und EPianos erhältlich waren, schließlich auch Instrumente, die nicht per Klaviatur zu spielen sind, wie E-Gitarre (z.B. Guitar Controller »SynthAxe« ), DrumSets (Drum-to-MIDI) und Blasinstrumenten nachempfundene Blas-Controller (Wind/Breath MIDI Controller). Auf diese Weise erschlossen sich über die MIDI-Steuerung von Synthesizern gänzlich neue Klangwelten für Musiker, die mit den speziell entwickelten MIDI-Controllern ihre gewohnte Spieltechnik weitgehend beibehalten konnten. Umri.istsätze für akustische Pianos, Akkordeons oder Pfeifenorgeln kamen hinzu, so dass auch herkömmliche akustische Instrumente auf MIDI-Daten ansprachen. Immer wieder wurde auch versucht, aus den komplexen Klangsignalen eines Instruments den Grundton zu analysieren, um diesen in eine MIDI-Information zu konvertieren (z.B. Guitar-toMIDI), was mittlerweile einigermaßen zufriedenstellend in Echtzeit gelingt. Verschiedene Erweiterungen der MIDI-Spezifikationen erlaubten später sogar die Steuerung von audiotechnischen Apparaten wie Mixer oder Tonbandgerät oder synchronisierten die Lichttechnik eines Konzerts mit der Musik." Vor allem in den Kreisen experimentell interessierter Musiker werden auf der Grundlage von MIDI-Daten innovative, sich vom herkömmlichen Instrumentalspiel lösende Interface-Konzepte erprobt, da es im Umfeld musikelektronischer Gerätschaften im Grunde beliebig ist, wie ein digitales Interface zur musikalischen Steuerung einer klangerzeugenden Apparatur (»Generator«) letztlich konkret beschaffen ist. Analoge und digitale Syntheseverfahren, MIDI und Sampling Klangsteuerung Abb. 8: Allgemeines Funktionsprinzip von akustischen, elektroakustischen und elektronischen Instrumenten Betrachtet man die Funktionalität eines beliebigen Musikinstruments, dann besteht es grundsätzlich aus klangerzeugenden Bausteinen (z.B. Saiten, Oszillatoren, Membranen usw.), aus klangverändernden Bausteinen (Resonanzkörper, Filter, Dämpfer, Hörner u.a.m.) und aus klangsteuernden Bausteinen (Tastatur, Joystick, Pedal, Griffklappen, Zug usw.). Hinzu kommt bei elektronischen Instrumenten noch die Möglichkeit der Klangspeicherung (analog beim Mellotron, digital beim Sound Sampler). MIO! Ou t Verstärker + Box 38 Sogar die Klingeltöne der mobilen Telefone basierten anfangs auf MIDI-Noten, um Melodien abzuspielen. 288 1 Abb. 9: Einfache MIDI-Anwendung: Master-Keyboard steuert Slave-Instrument, dessen Sound wiedergegeben wird. 289 Analoge und digitale Syntheseverfahren, MIDI und Sampling Bernd Enders Kaum hatte sich der MIDI-Standard etabliert, zeigte sich - nicht zuletzt zur Überraschung der damit vornehmlich befassten Musikindustrie - dass die vergleichsweise simple Steuerung eines Soundgenerators mit einer MIDIT astatur nicht die zukunftsträchtigste Anwendung sein würde, sondern die Kombination mit einem Computersystem, das die digitalen Daten empfangen, speichern, modifizieren und wieder an MIDI-kompatible Klangbausteine ausgeben kann. Die ersten (mikroprozessor-basierten) MIDI-Sequenzer als Hardware-Geräte speicherten die eingespielten MIDI-Daten, ließen in einem gewissen Umfange Änderungen der gespeicherten MIDI-Noten zu und steuerten anzuschließende MIDI-Instrumente an, so dass musikalische Prozesse vollständig automatisch ablaufen konnten, etwa als Begleitcombo für einen Alleinunterhalter auf der Bühne. MIDI-Sequenzer, Begleitautomaten und Rhythmusmaschinen ergaben gewissermaßen eine Vorahnung von den weit umfangreicheren Möglichkeiten der bald darauf folgenden Computereinbindung. Anfang 1981 wurden die ersten Homecomputer mit 8-Bit-Prozessoren und maximal 64-KByte hergestellt und eroberten sich sogleich einen Massenmarkt. Für den 1982 vorgestellten Commodore 64, wohl der meistverkaufte Kleincomputer überhaupt, wurden erste MIDI-Karten zum Anschluss von MIDI-Instrumenten konstruiert (Jellinghaus, C-Lab) und die Firma Steinberg Research programmierte 1985 dafür das erste MIDI-Sequenzerprogramm (>Pro 16<), das bereits das Einspielen (Record) von MIDI-Daten auf 16 Spuren ermöglichte, die Manipulation der gespeicherten MIDI-Noten unterstützte (Verändern, Löschen, Ausschneiden, Kopieren, Verschieben, Quantisieren, Transponieren) und das fertiggestellte Arrangement über anzuschließende MIDI-Instrumente abspielen konnte (Play). Für den Mitte bis Ende der 80er Jahre in Musikerkreisen sehr beliebten Atari ST (damals schon mit Mausbedienung, grafischem Display, 1 MB Arbeitsspeicher und - ein exklusives Novum - mit direkt eingebauten MIDIBuchsen) wurde dann das Sequenzerprogramm >TwentyFour< mit 24 MIDISpuren (sie!) mit besserer Bedienung und weiteren Bearbeitungsmöglichkeiten vermarktet. Auch andere Computersysteme wie der Macintosh von Apple oder der Amiga von Commodore boten die digitaltechnische Grundlage für immer komfortablere MIDI-Software, so dass z.B. die Darstellung der MIDIDaten in traditioneller Notenschrift bzw. der Druck von Partituren integriert, die Klangbänke von erfolgreichen Soundmodulen editiert werden konnten und mit immer schnelleren Prozessoren und größerem Arbeitsspeicher schließlich auch die Verarbeitung von Audiodaten gelang. 1-- II Computer Verstärker + Box Masterkeyboa rd Gセ@ '' ''' '' ''' '' ''' '' ''' '' Abb. 10: Typische Kombination von MIDI-Keyboard und Computer in einem einfachen Homestudio Beharrte die Musikindustrie aus markttechnischen Gründen zunächst noch auf der Herstellung neuer Synthesizer als Hardware-Gerät, wenn musiktechnologische Neuerungen eingeführt werden sollten, so ermöglichte die sich rasend schnell entwickelnde Computerindustrie immer mehr Funktionen und Anwendungen, so dass sich die Konstruktion neuer Instrumente mehr und mehr in den Software-Bereich verlagerte. Schließlich kam es zur Einbindung virtueller Instrumente als sog. >Pluglns<, das sind Software-basierte Klangmoc dule oder Effektgeräte unterschiedlichster Art, die in ein SequenzerHauptprogramm (Host) gewissermaßen »eingesteckt « werden, um die Funktionalität zu erweitern, die aber oft aucb für sich alleine funktionieren (>StandAlone-Application<) und z.B. den Computer mit angeschlossener Tastatur in eine E-Orgel traditionsreicher Herkunft umwandeln." Die Technik MIDI ist ein tastenbasiertes Steuerungssystem, denn es werden nach dem Anschlag von Tasten auf einem Keyboard lediglich die Tastennummern (>Notes<) 39 A. Collins (2003), Professional guide to audio plug-ins and virtual instruments. 290 291 Analoge und digitale Syntheseverfahren, MIDI und Sampling Bernd Enders für die zu erzeugenden Töne sowie die Schnelligkeit des Anschlags einer Taste (>Velocity<) für die Dynamik des Tons übertragen. Ob ein angesteuertes Instrument wirklich ein c' spielt und mit welcher Klangfarbe oder Lautstärke die gesendete Noteninformation tatsächlich zu hören ist, hängt damit ganz von den Einstellungen des empfangenden Instruments ab.4° Es gilt hier unbedingt festzuhalten, dass MIDI nur Spieldaten enthält und nicht zur Übertragung von Audioschwingungen dient. Mit anderen Worten: MIDI enthält letztlich digital codierte Noten, d.h. Spielanweisungen, die zur Herstellung von musikalischen Klängen dienen sollen. MIDI-Daten ähneln daher den Informationen über Musik, wie sie in den Stiftwalzen, Lochplatten oder Notenrollen der mechanischen Musikautomaten früherer Jahrhunderte gespeichert waren und erst beim Abspielen über die angesteuerten Instrumente (quasi live) die Töne erze ugten,' 1 während Audiogeräte wie Grammophon, Schallplatte, Tonbandgerät oder der Lichtton beim Film (auf mechanischem, elektromagnetischem oder optischem Wege) die real erklingenden Schwingungen von Klängen speichern. Hier gibt es häufig Missverständnisse, vielleicht auch wegen der unglücklich gewählten fünfpoligen DIN-Stecker und -buchsen (»Diodenbuchse«) für die MIDI-Buchsen und -Stecker, die bei älteren Audiogeräten häufig zur Übertragung von Audiosignalen eingebaut und nicht zuletzt aufgrund mangelnder Haltbarkeit und Kontaktsicherheit später nicht mehr verwendet wurden. MIDI-Hardware Hardware-seitig setzt die MIDI-Norm drei MIDI-Anschlüsse mit unterschiedlichen Funktionen voraus: MIDI-IN (= Eingang für den Empfang von MIDIDaten), MIDI-OUT (= Ausgang zum Senden von) und MIDI-THRU (= Durchgang zum Durchschleifen der unveränderten MIDI-Daten). lnformationstechnologisch betrachtet handelt es bei MIDI um eine digitale (binär codierte) Schnittstelle zum seriellen, unidirektionalen, asynchronen Da- 40 Das MIDI-System ist für Synthesizer mit gleic hsc hwebend -temperierter Stimmung entworfen, so dass zur klanglichen Realisation von anders aufgebauten Tonsystemen (z.B. von historischen Stimmungen) trickreiche Methoden zur gewünsc hten Intonation einer Note gefun den werden müssen, etwa mit Hilfe des spez iell eingesetzten Pitch-Bending-Be fehl s. Bei computerbasierten MIDI-Anwendungen können auch spezialisierte Programme zw ischengeschaltet werden; so erlaubt das »H ermode-Tuning« eine möglichst reine Intonation von Akkorden un abhängig von den gespielten Tonarten (http://www. hermode.com, letzter Z ugriff 13.07.2013). 41 Vgl. hierzu: B. Enders /Chr. Reuter (2002), Verschicken musikalischer Daten - Von MIDI zum Internet, S. 282-285. 292 tentransport mit einer Übertragungsgeschwindigkeit von 31.250 Baud (= Bits pro Sekunde).' 2 . Die MIDI-Daten werden für jede Verbindung im Binärcode (als Folge der beiden Spannungszustände 5 Volt und 0 Volt in einer 5 mA-Stromschleife entsprechend den Werten 0 und 1) nacheinander in eine Richtung ァ・ウョ、セ@ (vom Master zum Slave), ohne dass eine synchrone Abstimmung bzw. Datenkontrolle zwischen Sender und Empfänger stattfindet, d.h. das empfangende Instrument oder Gerät (der Slave) wartet ohne zeitliche Begrenzung einfach auf eintreffende Daten. Geht aus irgendwelchen Gründen (z.B. Kabelproblem) eine MIDI-Information verloren, gibt es keine Prüf- oder Korrekturroutinen. Wird beim Tastendruck eine Note beim Empfänger eingeschaltet, erklingt dort der entsprechende Ton, solange wie kein Ausschaltbefehl eintrifft. Sollte der Ausschaltbefehl fehlerhaft ausbleiben, kann es zu den berüchtigten »Notenhängern « kommen (der Ton ist dann ständig zu hören, wenn das Instrument, z.B. eine E-Orgel, einen Dauerton erzeugt). Alle Daten der gespielten Töne, auch von gleichzeitig gespielten Tönen, werden nacheinander gesendet, normalerweise so schnell, dass keine musikalisch störenden Verzögerungen hörbar werden. Sollen mehrere MIDI-Geräte angesteuert werden, ist ein einfaches Aneinanderreihen möglich (»Daisy Chain« mit der Gefahr von Verzögerungen) oder - besser - ein sternförmiges Ansteuern der Komponenten mit einem geeigneten Instrument oder dazwischengeschalteten MIDI-Verteiler (MIDIThru-Box oder MIDl-Patch-Bay) mit mehreren MIDI-Output-Buchsen. MIDI-Eingänge sind zweckdienlich mit optoelektrischen Übertragern ausgestattet (»galvanische Trennung «), so dass innerhalb einer Audio- oder PAAnlage keine Brummschleifen in Kombination mit der MIDI-Verkabelung (mit max. 15 m Kabellänge) auftreten können.' 3 Um Ende der 80er Jahre ebenfalls für MIDI entdeckten MS-DOS-PCs MIDI-kompatibel zu gestalten, wurden! spezielle Steckkarten konstruiert oder die Gameports der PCs mit Adaptern umgerüstet. Aktuelle Verbindungen 42 Die MIDI-Übertragungstechnik wurde in Anlehnung an die dama ls bekannte Computersc hnittstelle RS 323 entwickelt, allerdings mit einer höheren, für heutige Verhältnisse dennoch sehr ger ingen Übertragungsrate. Jedes Bit braucht mindestens 320 Mikrosekunden Übertragungszeit. = >U niversal Asynchronous Receiver Transmitter<, der die seriell eintreffenden Daten für den parallel arbeitenden Mikroprozessor eines MIDI-Geräts umwandelt) wird a nsc haulich beschrieben von Chr. Braut (1993), Das MIDI Buch, S. 35-42; technische Details finden sich in S. Philip (1986), MIDI-Kompendium 2, S. 43 Die Funktionsweise des Interface-Chips (UART 55-63. 293 Bernd Enders werden - ohne die herkömmlichen DIN-Steckverbindungen - über die verbreiteten Schnittstellen USB" oder FireWire hergestellt. Da diese Schnittstellen eine ungleich schnellere Datenübertragung erlauben, ist es problemlos möglich, MIDI-Daten in beide Richtungen über ein Kabel zu schicken und mehrere virtuelle MIDI-Anschlüsse mit jeweils 16 Kanälen zu realisieren, so dass hier kaum noch eine Begrenzung der real oder virtuell angeschlossenen Soundmodule oder Instrumente besteht.4 1 Bei Live-Konzerten werden MIDI-Daten auch drahtlos übertragen (>Wireless MIDI<), und in professionellen Studios sind auch NetzwerkEinbindungen, z.T. mit proprietären Übertragungsprotokollen, in Gebrauch. MIDI-Software (Die MIDI-»SfJrache«) Die MIDI-Befehle (auch: >MIDI-Nachrichten<, engl. >MIDI Messages<) sind vergleichsweise simpel aufgebaut. Die meisten Befehle basieren auf der Übertragung von 8 Bits in einer Gruppe, die Datenbyte genannt wird und 256 Zustände(= 2s) repräsentieren kann. Jedes Byte wird von einem Start- (logisch 0) und einem Stop-Bit (logisch 1) eingeschlossen, so dass insgesamt 10 Bits pro Befehl übertragen werden (auch >MIDI-Byte< genannt). Davon dienen aber nur acht Bits der eigentlichen Datenübertragung. Ein MIDI-Byte sieht also prinzipiell so aus: Analoge und digitale Syntheseverfahren, MIDI und Sampling Dabei wird gleichzeitig noch angegeben, dass diese Information für einen von 16 MIDI-Kanälen bestimmt ist, denn ungeachtet der seriellen Übertragungstechnik ist es möglich, über logische Zuweisungen die Daten an verschiedene Adressen (z.B. unterschiedliche MIDI-Instrumente) zu senden so dass bestimmte MIDI-Noten eben nur von bestimmten Instrumenten ges;ielt werden. Lässt man die Angabe der obligaten Start- und Stopbits der Einfachheit halber weg, ergibt sich für das Anschlagen einer Keyboard-Taste folgendes Bild der zugrundeliegenden Datenstruktur einer MIDI-Note: Für das Auslösen eines Tons werden 3 Bytes gesendet: Zunächst das Statusbyte, das dem Empfängergerät signalisiert: Es wird jetzt eine Tastennummer bzw. MIDI-Note auf einem bestimmten MIDI-Kanal (im Beispiel Kanal 6) gesendet, im 1. Datenbyte wird dann die eigentliche Notennummer angegeben, im 2. Datenbyte folgt der Velocity-Wert (= Anschlagsdynamik, im Beispiel ist es der Wert 121). Statusbyte j 1001 01101 V \J Note-On- Kanal-Nr. 7 Befehl (dez. 6) 1. Datenbyte 2. Datenbyte 10011 11001 セ@ Notennummer (dez. 60 = cl) 10111 1001 I セ@ Velocity (dez 121 =ff) Das jeweils 1. Bit gibt den Datentyp an. 1/nnnnnnnn/0, wobei n 1 oder 0 sein kann. 1 Wird z.B. die Taste c auf einem MIDI-Keyboard mit großer Lautstärke (d.h. konkret mit großer Geschwindigkeit) angeschlagen, werden Daten gesendet, die die aktive Tastennummer (ein Wert zwischen 0 und 127, im Beispiel: dezimal 60) und die Anschlagsgeschwindigkeit (ein Wert zwischen 0 und 127, z.B. 121 für Fortissimo' 6 ) an den Empfänger abschicken." 44 Das sich unterscheidend e USB-MIDI-Protokoll wird beschrieben unter http://www.usb.org/d eve lopers/devclass_docs/midi 10.pdf, letzter Zugriff 13 .07.2013 (in Kap. 4, S. 16ff.); K.M. Slavik (2008), Anschlusstec hnik, Interfaces, Vernetzung. 45 Dazu wird das MIDI-Übertragungsprotokoll m das USBoder FirewireKommunikationsprotokoll eingebettet ( » Tunneling " ), K.M. Slavik (2008), Anschlusstechnik, Interfaces, Vernetzung. 46 Es werden letztlich nur relative Werte übertragen, die endgültige Lautstärke des ausgelösten Tons hängt von den entsprechenden Einstellungen am Instrument bzw. der Audioanlage ab. 294 Abb. 11: Drei 8-Bit-Worte mit den Werten dezimal 144/6, 60, 121 (jeweils ohne Berücksichtigung des ersten Bits) Bei Statusbytes ist das erste Bit immer 1 (>Most Significant Bit< = MSB .O; binär 1), die 3 folgenden Bits geben den Typus des Statusbytes an (hier wird eine Taste gedrückt bzw. eine nッエ・ョゥセイュ。@ geschickt= NOTE_ ON), die 2 Hälfte" des Status-Byte codiert binär den Kanal für die Übertragung des nun folgenden Datenbytes. Bei Datenbytes ist das erste Bit zur Kennzeichnung immer gleich 0, so dass noch 7 Datenbits (= 128 Werte von 0- 127, d.s. mehr 47 Formel zum Berechnen der MIDI-Notennummer, wenn die Frequenz gegeben ist: n = (12 · log2 (f / 440)) + 69. 48 Zum Zweck der Übersichtlichkeit werden Bytes auch in 4-Bit-Gruppen (•Nibble<) unterteilt, d.h . in diesem Fall gibt das erste Nibble über den Befehlstyp Aufschluss, das 2. Nibble dient zur Anga be der Kanalnummer, auf dem gesendet werden soll. Gerne wird auch eine hexadezimale - auf dem 16stelligen Zahlensystem beruhende - Darstellung der MIDI-Daten verwendet. 295 Bernd Enders als 10 Oktaven) zur Darstellung der Tastennummer übrig bleiben. (Im Beispiel ist es die Tastennummer dezimal 60 für das eingestrichene c'). Das 2. Datenbyte ist ganz ähnlich aufgebaut, es gibt den dynamischen Wert an, im Beispiel dezimal 121. Solange nun keine weitere MIDI-Nachricht eintrifft, spielt das empfangende Instrument diesen Ton (im Fall eines Orgeltons bliebe dieser also konstant zu hören). Ein weiteres, ziemlich ähnlich aufgebautes Datenpaket wird gesendet, wenn die betreffende Taste (also hier cl) wieder los gelassen wird. Das Statusbyte enthält nun die Information, dass die Note beendet wird (NOTE_OFF, Taste frei gegeben), es folgt die Notennummer, und im 2. Datenbyte wird sogar ein Wert für die »Loslassgeschwindigkeit« (>Release Velocity<) gesendet, die jedoch meistens nicht berücksichtigt wird. In einer allgemeinen Darstellung wird der NOTE_ON-Befehl (ohne Start/Stop-Bits) folglich codiert als 1001 kkkk / Onnn nnnn / Ovvv vvvv wobei k für die binäre Codierung der Kanalnummer, n für die Notennummer und v für den Velocity-Wert (>Anschlagsdynamik<) steht. Der NOTE_ OFF-Befehl lautet entsprechend: Statusbyte: 1000 0111, 1. Datenbyte: 0011 1100, 2. Datenbyte: 01111001 oder in dezimaler Schreibweise: 128/6, 60, 121 (der NOTE_OFF-Befehl wird also durch die Zahl dez. 128 im Statusbyte gekennzeichnet). Wird der NOTE_OFF-Befehl empfangen, wird der codierte Ton beendet.4 9 Die NOTE_ON- und NOTE_OFF-Befehle gehören zu den kanalbezogenen MIDI-Nachrichten (>Channel Voice Messages<), weil sie immer für einen bestimmten Kanal bestimmt sind (im einfachsten Fall ist es der Kanal Nr. 1). Nach einem ähnlichen Muster werden weitere MIDI-Befehle gesendet, die z.B. die Werte eines Pedals übertragen (>Sustain Pedal<, nur zweiwertig angelegt) oder die Werte eines Modulationsrads (oder Blaswandlers) zur Tonhöhenheu- 49 Im Running Status ist auch der Verzicht au f den NOTE_ OFF-Befehl möglich, es werden dann nur Datenbytes für den NOTE_ON-Befehl gesendet und zum Beenden eines Tons wird einfach der Velocity-Wert auf 0 gesetzt. Der Wert 0 bewirkt die Meldung »kein Tastenanschlag«, entspricht also dem Ausschalten des Tons. 296 Analoge und digitale Syntheseverfahren, MIDI und Sampling gung (>Pitch Bending<) mit kontinuierlich gesendeten Daten bei hoher Auflösung (und großem Datenaufkommen) oder das Nachdrücken einer bereits angeschlagenen Taste (>Polyphonie Key-Pressure<, >polyphoner Aftertouch<) zur Steuerung von Effekten (falls das Masterkeyboard dies ermöglicht) oder andere Controller-Daten (>Contra! Change<) oder der Wechsel eines Klangprogramms (>Program Change<). Kanalbezogen sind auch die sog. >Channel Mode Messages<, die verschiedene Funktionen des Empfängerinstruments steuern: Dazu gehören ein >Reset All< Controller (Zurücksetzen aller Controller auf den Anfangswert = Default), der schon erwähnte Local_ON/OFF-Befehl sowie ein Befehl zum Abschalten aller Noten (>All Notes Off<), der sehr nützlich bei den erwähnten Notenhängern ist. Außerdem werden hier verschiedene Betriebsarten (>Omni Mode<, >Mono Mode<, >Poly Mode<) geschaltet, die bestimmen, wie ein Instrument auf eintreffende Notendaten reagieren soll. Im (veralteten) OmniMode werden kanalspezifische Daten ignoriert, alle Daten werden ausgeführt, im Poly-Mode werden nur die Daten des zugeordneten Kanals (polyphon) gespielt, im Mono-Mode kann pro Kanal nur eine Instrumentalstimme erklingen (monophon, vor allem bei MIDI-Gitarren verwendet), im heute üblichen (ursprünglich nicht definierten) >Multi -Mode< können mehrere Kanäle unabhängig voneinander polyphon spielen, so dass ein Gerät gleich mehrere polyphon klingende Instrumente wiedergeben kann. Eine weitere Gruppe von MIDI-Befehlen wendet sich an das gesamte System, sie sind also nicht kanalbezogen. Es handelt sich um die sogenannten Systemnachrichten (>System Messages<), die vor allem zur Synchronisation mehrerer MIDI-Komponenten dienen oder gerätespezifische Daten verschiedener Hersteller enthalten. Dazu gehören die >System Common Messages< (MIDI Time Code = MTC zur zeitlich exakten Synchronisation von Geräten, z.B. einer Tonbandmaschine; Song Position Pointer zum Starten einer Sequenz; Song Select zur Auswahl eines im Sequenzer gespeicherten Songs und Tune Request zur Korrektur von Verstimmungen in analogen Synthesizern) und die >System Realtime Messages< (Timing Clock, Start-/Stop-/ContinueBefehle zum Steuern von Sequenzer oder Drumcomputer, Active Sensing zum optionalen Senden eines Bytes im Zeitintervall von 300 msec zur Anzeige einer funktionstüchtigen Datenverbindung, und System Reset zum Zurücksetzen aller MIDI-Geräte in den Anfangszustand = Default-Werte). Ein Sonderfall im MIDI-Protokoll ist durch die >Systemexklusiven Nachrichten< (>System Exclusive Messages<, >SysEx<) gegeben; sie wurden integriert, um den Herstellern von MIDI-Geräten zu ermöglichen, hersteller- und/oder gerätespezifische Daten zu übermitteln, die nicht dem MIDI-Standard entsprechen (müssen). 297 Bernd Enders Erweiterungen Besondere Bedeutung erlangte im Zusammenspiel mit der immer ausgereifteren MIDI-Software der 1990 entstandene >Standard MIDI File< (>SMF<) (Specification [RP-001]), ein Datenprotokoll, das die Speicherung eines MIDIArrangements regelt, so dass u.a. ein verlustfreier Transfer auf ein anderes Computersystem möglich wird.' 0 Die Formate SMF 0 und SMF 1 gilt es hier funktional zu unterscheiden:" Im Format 0 sind einfach alle MIDI-Kanäle in einer Spur zusammengefasst, im Format 1 ist jedem Kanal eine eigene Spur zugewiesen, ggf. mit eigener Benennung, so dass die verschiedenen Stimmen und ihre Instrumentalklänge eines Arrangements getrennt vorliegen. Format 0 lässt sich normalerweise mit einem MIDI-Sequenzer in Format 1 konvertieren. In der Erweiterung >General MIDI< (>GM<) wurden 1991 von der MMA (>MIDI Manufacturers Association<) und dem JMSC (>Japan MIDI Standards Committee<) die Instrumentenbelegung für 128 Klangprogramme festgelegt, um sicher zu stellen, dass bei der Übertragung eines MIDI-Arrangements z.B. auf dem ersten Programmplatz immer ein Piano zu hören ist, auch wenn die genaue Klangfarbe des Instruments weiterhin von den verwendeten Soundcards oder Sound Libraries abhängt. Außerdem wird u.a. vorgeschrieben, dass ein GM-kompatibles Klangmodul mindestens 24 Instrumente gleichzeitig wiedergeben kann. 3.2.4 Digitale Musikproduktion Entwicklungsgeschichte Gegen Ende der 70er Jahre begann die Digitalisierung der Musikelektronik. Zunächst wurden digitale Keyboards für ansonsten analoge Synthesizer konstruiert, um polyphones Spielen zu ermöglichen. Nach und nach wurden weitere Elemente der elektronischen Klangsynthese digital, z.B. die Abspeicherung von Moduleinstellungen oder komplette Klangprogramme, dann die digitale Speicherung von aufgenommenen Klängen (Sound Sampling), digitale 50 Der Name einer Standard-MIDI-Datei wird i.a. durch die Namenserweiterung .mid gekennzeichnet, das Datei-Suffix .kar ist eine a lternative Endung für MIDI-Dateien, die für KaraokeAnwendungen auch Liedtexte (a ls Meta Events) enthalten, und .syx wird an MIDI-SysExDateinamen angehängt, K.M. Slavik (2008), Anschlusstechnik, Interfaces, Vernetzung. 51 Der Vollständigkeit halber sei noch das Format 2 erwähnt, das Patternstrukturen verwa lten kann, aber in der MIDI-Praxis bisher keine Verwendung findet. 298 Analoge und digitale Syntheseverfahren, MIDI und Sampling Klangeffekte (Hall, Echo usw.), schließlich die Klangerzeugung selbst (digitale Klangsynthese). Dabei liegt häufig die Modulstruktur des analogen Synthesizers als logisches Konzept der digitalen Klangsynthese zugrunde. In den 1990er Jahren überschlug sich die Entwicklung handelsüblicher Computer, die mit Hilfe von integrierten Soundcards zunehmend auch Klänge speichern, modifizieren, steuern und neu errechnen konnten, so dass sich die Konstruktion neuer Soundmodule immer mehr in Richtung SoftwareImplementation verschob und Sound Sampler, "Synthesizer und Effektgeräte schließlich vorrangig als selbständig laufende Programme (Stand-Alone) oder als Zusatzmodule (Pluglns) für geeignete Studiosoftware hergestellt wurden und auf die Anschaffung neuer, teurer Hardware bei verbesserten technischen Lösungen (Updates) nunmehr verzichtet werden konnte. Die kontinuierlich gesteigerte Rechenleistung der Prozessoren, die größeren und immer preiswerteren Arbeitsspeicher und Festplatten erlauben eine schnelle Verfügbarkeit von sehr umfangreichen Klangdateien, so dass praktisch alle Bearbeitungsschritte, die früher nur mit aufwendigen Studioeinrichtungen bewerkstelligt werden konnten, heutzutage komplett und rein digital in einem Computersystem ablaufen können" . Vor allem in den Anfangszeiten wurden MIDI-Sequenzer und Audiorecorder herkömmlichen Mehrspur-Tonbandgeräten nachempfunden, so dass entsprechende Programme eine größere Anzahl an Spuren (>Tracks<) für die Aufnahme und Wiedergabe bereithielten und über Bedienungselemente wie bei analogen Bandmaschinen verfügten (obwohl es sich zumindest bei den MIDIDaten keineswegs um Audiosignale, sondern eigentlich um Noteninformationen handelt). Erst in jüngerer Zeit sind auch davon abweichende Bedienungskonzepte und Funktionen entwickelt worden, wie z.B. das eher patternorientierte >Live< von Ableton, das sich eher wie ein Musikinstrument verhält und quasi ein spontanes Live-Spiel mit Patterns, Loops und Sequenzen erlaubt. 1 Im Laufe der 1990er Jahre wurden die in den 1980er Jahre noch unabhängig voneinander entwickelten MIDI-Sequenzer bzw. Harddisc-RecordingProgramme zur Echtzeit-Verarbeitung von Musik auf Software-Basis miteinander kombiniert und multifunktional zu kompletten Studioumgebungen erweitert, die heute meist als virtuelles Studio (VST = >Virtual Studio Technology<) oder Digital Audioworkstation (DAW) bezeichnet werden. In diesen Sys- 52 Natürlich ist die Einbindung von externen ana logen Studiogeräten (z.B. bewährten Halleffektprozessoren) oder eine Vernetzung mehrerer Computer mit speziellen Aufgaben (z.B. zur Verwaltung von großen Sample-Bibliotheken) problemlos möglich. 299 Bernd Enders Analoge und digitale Syntheseverfahren, MIDI und Sampling temen (Cubase/Nuendo, Logic, Samplitude, ProTools, Ableton Live, Cakewalk Sonar, Reaper u.a. ) wird die Verarbeitung von MIDI-Daten, Audioaufnahmen, Effektberechnungen, Klangmodulen, Mischpultfunktionen u.a.m. zusammengefasst, und auch die verschiedenen Phasen einer Produktion von der Aufnahme bis hin zur endgültigen Abmischung (stereophon oder mehrkanalig) oder einer speziellen Nachbearbeitung (Post-Production) können komplett mit Computerhard- und -software bewältigt werden. 1 1 Virtuelle Instrumente Um MIDI-Informationen in Klang umzuwandeln, werden MIDI-kompatible Klangerzeuger benötigt, deren Klangmodule entweder in den Soundcards der MIDI-Instrumente oder Multimedia-Computer integriert sind oder die als virtuelle Instrumente, deren Klangeigenschaften, Bedienungsoberflächen und sonstige Charakteristika ausschließlich auf einer Software-Lösung beruhen, zusätzlich geladen und in das virtuelle Studio integriert werden. Interessanterweise gibt es zahlreiche Versuche, mit digitalen Pluglns (»legendäre«) analoge Instrumente und Soundprozessoren möglichst authentisch nachzubilden, um deren vermeintlich verloren gegangene Klangcharakteristika (»warmer« Röhrensound, »satter« Tiefbass o.ä.) im digitalen Equipment neu zur Verfügung zu stellen. Z.B. werden zahlreiche Synthesizer der ersten Stunde als virtuelle Synthesizer oder ältere Gitarrencombos oder Bandechogeräte als sorgfältig entwickelte Plugins zur Einbindung in gängige Audio/MIDIProgramme (Host) angeboten. Renommierte Firmen widmen sich akribisch der möglichst genauen Nachbildung erfolgreicher Effektgeräte aus früheren Studiozeiten. Sogar die ehemals eher abfällig beurteilten Federhallgeräte oder fiepende 8Bit-Drummachines erleben eine digitale Renaissance. Dabei scheint die Exaktheit der optischen Detailtreue des Erscheinungsbildes eines Gerätes inklusive seiner Bedienungselemente fast eine ebenso wichtige Rolle zu spielen wie die Authentizität der akustischen Eigenschaften, um die »Aura« der analogen Vorbilder einzufangen. 53 Spezielle Stand-Alone-Systeme haben den Vorteil, da ss Hard-und Software aus einer Hand stammen und gut aufeinander abgestimmt sind, sogenannte hast-ba sierte Systeme laufen dagegen auf jedem handelsüblichen Rechner (eventuell mit speziellen Hardware-Erwe iterungen) und sind dadurch meist preisgünstiger, fl ex ibler, leichter aktualisierbar, jedoch auch fehleranfälliger. 300 Abb. 12: Die B4 - eine virtuelle Version der Hammond-Orgel (Native Instruments) Aber ebenso erlaubt die computerbasierte Verarbeitung musikalischer Informationen neuartige Synthesealgorithmen, die auf analog-elektronischem Wege nie möglich gewesen wären. Komplexe, modular aufgebaute Synthesizerprogramme wie der Reaktor von Native Instruments (ähnlich: SynthEdit, Tassman, KarmaFX u.a.) unterstützen nicht nur die Programmierung herkömmlicher oder absolut innovativer Synthesizer, sondern darüber hinaus die Realisierung kompletter Studioeinrichtungen mit einem letztlich beliebig großen Funktionsumfang. Musikspezifische Programmiersprachen wie Csound, MAX/Msp, SuperCollider oder PureData erfordern zwar einige Einarbeitung, zeichnen sich jedoch durch eine fast unbegrenzte Flexibilität aus, die nicht nur unterschiedlichste Klangsyntheseformen' beinhaltet, sondern auch frei wählbare Kompositionsalgorithmen, automatische Klangprozesse und neuartige Interaktionsformen in der Live-Performance mit den verschiedensten Eingabeund Steuergeräten (z.B. Interfaces mit Gesture Controlling) ermöglicht. Auf der Basis moderner Synthese- und Composer-Software eröffnet experimentelle Computermusik mit künstlerischem Interesse zukunftsträchtige Klangwelten und ungewöhnliche Musikstrukturen, und die Musikinformatik verhilft der Musikwissenschaft mit analytischer Datenverarbeitung zu neuen Erkenntnissen. 301 Die Audiotechnik 3.3 Die Audiotechnik Von Stefan Weinzierl Obwohl Musikhören heute zum ganz überwiegenden Teil medial vermittelt ゥセエLG@ nimmt die Musikwissenschaft nach wie vor überwiegend die klassische, live-akustische Aufführung von Musik in den Blick. Auch hier bewirkt zwar der Aufführungsraum eine Transformation im Hinblick auf die räumlichen zeitlichen, dynamischen und klangfarblichen Eigenschaften der ァ・ウーゥャエセ@ Musik [7 2.4] und könnte somit als Medium in einem musikalischen Kommunikationsprozess verstanden werden. Mit einem ungleich größeren Gestaltungsspielraum ist allerdings zu rechnen, sobald man elektroakustische Übertragungen in Betracht zieht, bei denen auch in der Live-S ituation mit einem Schlag das ganze Repertoire der musikalischen Übertragungstechnik zur Verfügung steht.' Dies betrifft zunächst die dynamische Bandbreite von Konzerten. Bei unverstärkten, symphonischen Konzerten in großer Besetzung bewegt sich der Schallpegel am Hörerplatz typischerweise in einem Bereich von 45-95 dB. Er ist nach unten nur durch den Geräuschpegel des Publikums begrenzt, der in einer Größenordnung von 35-45 dB liegt;' die Obergrenze hängt von der Besetzungsstärke des Orchesters und den raumakustischen Bedingungen ab. Bei elektroakustisch verstärkten Konzerten kann dieser Bereich nach oben deutlich überschritten werden, auch wenn die Schallimmission im Publikum bei öffentlichen Veranstaltungen durch gesetzliche Bestimmungen inzwischen auf einen mittleren Schallpegel von 99 dB, mit kurzzeitig erlaubten Spitzen von bis zu 135 dB, begrenzt ist.' Erst die Beschallungstechnik erlaubt das Zusammenwirken von akustisch inkompatiblen Klangquellen. Selbst im klassischen Konzertbetrieb werden leise Instrumente häufig verstärkt, man denke an Konzerte für Gitarre und Sinfonieorchester. Im Bereich der Popularmusik hat die klangliche » Vergrößerung« leiser Schallquellen in vielen Fällen stilbildend gewirkt: War ein Jazzensemble in den 1910er Jahren noch auf kräftige Blues-Stimmen und die Tuba als Bassinstrument angewiesen, wurden erst mit Einführung von Lautsprecher 1 Der. Anteil live gehörter Musik wird auf etwa ein Prozent geschätzt, vgl. H. Rösing (1998) Musikgebrauch im täglichen Leben, S. 110. ' 2 H.-J. Maempel (2007), Technologie und Transformation. 3 F. Winckel (1962), Optimum acoustic criteria of concert halls, S. 85. 4 DIN 15905-5 (2007), Maßnahmen z um Vermeiden einer Gehörgefährdung des Publikums. 302 und elektrischem Röhrenverstärker ein intimer Gesang nah am Mikrofon' und der elektroakustisch verstärkte Kontrabass konstitutiv für das musikalische Genre. Und schließlich erlaubt erst die Elektroakustik die Benutzung konkreter (aufgenommener) und synthetischer Klänge, wie sie in den verschiedenen Spielarten der elektroakustischen Musik verwendet werden. Alle Varianten elektroakustischer oder elektroakustisch ausbalancierter Musik erfordern eine Wandlung von Schallsignalen, d.h. die Übersetzung eines zeitveränderlichen Schalldrucks an einem Punkt im Raum in eine Spannungsmodulation. Dies geschieht durch Mikrofone oder in Gegenrichtung durch Lautsprecher. Auf der elektrischen Ebene ist dann eine Verstärkung, Mischung, Bearbeitung und räumliche Verteilung der Signale möglich. Das Endprodukt dieser Bearbeitung wird durch das Format der Wiedergabe bestimmt. Während für die mediale Distribution von Musik stereofone Formate mit zwischen zwei und acht Kanälen hergestellt werden, richtet sich die Verteilung und das Format bei elektroakustischen Live-Beschallungen individuell nach der räumlichen Konfiguration des Aufführungsorts, der Anzahl der Zuhörer und dem Konzept von Musikern und Tonmeister. 3.3.1 Schallwandler (Mikrofon, Lautsprecher) Heute werden überwiegend drei physikalische Prinzipien für die elektroakustische Wandlung eingesetzt. Diese sind prinzipiell reversibel, lassen sich also für die Konstruktion von Mikrofonen und von Lautsprechern einsetzen. Bei >elektrodynamischen Wandlern< bewegt sich ein elektrischer Leiter im Magnetfeld eines Permanentmagneten. Beim elektrodynamischen Mikrofon ist dieser Leiter in Form einer Spule (Tauchspulmikrofon) oder eines Bändchens (Bändchenmikrofon) mit der dem Schallfeld ausgesetzten Membran verbunden, wobei durch magnetische Induktion eine Spannung induziert wird, die am Ausgang des mゥォイッヲョ セ@ abgegriffen werden kann. Beim elektrodynamischen Lautsprecher bewirkt die Einspeisung einer Wechselspannung in eine im Magnetfeld schwingungsfähig aufgehängte Spule eine Kraft, welche die Spule und die damit fest verklebte Membran zu Schwingungen anregt, die Schall in den umgebenden Raum abstrahlen. Fast alle hochwertigen Lautsprecher arbeiten heute nach dem elektrodynamischen Prinzip, auch Mikrofone für Musik und Sprache vor allem im Live-Bereich sind häufig elektrodynamisch. 5 Besonders ausgeprägt beim sog. Crooning, vgl. H .-J. Maempel (2010), Crooning, S. 78. 303 ...... Stefan Weinzierl Die Audiotechnik Bei >elektrostatischen Wandlern< bildet die Membran eine Elektrode eines elektrischen Kondensators. Dadurch ergibt sich ein sogenanntes Kondensatormikrofon, bei dem eine an der Gegenelektrode anliegende Gleichspannung durch die Bewegung der Membran im Schallfeld und die damit verbundene Änderung der Kapazität des Kondensators moduliert und am Ausgang des Mikrofons abgegriffen wird. Die Vorspannung des Kondensators kann entweder durch eine von außen zugeführte, sogenannte Phantomspeisung oder durch die dauerhafte elektrische Polarisation der Membran erreicht werden (Elektret-Mikrofon) . Während elektrostatische Lautsprecher aufgrund ihrer aufwändigen Konstruktion nur selten eingesetzt werden, gehören Kondensatormikrofone mit ihrem über einen großen Frequenzbereich erreichbaren, linearen Frequenzgang zu den beliebtesten Wandlern im Bereich der professionellen Musikübertragung ebenso wie bei akustischen Messmikrofonen. Schallwellen Sicke Permanentmagnet_ (Keramik, Ferrit, Alnico, Neodym) Hintere Polplatte (Weicheisen) mechanische Schwingung des Stegs oder des Korpus' in eine Spannungsmodulation übersetzen. Neben dem elektroakustischen Wandlungsprinzip wird das Verhalten von Mikrofonen und Lautsprechern durch die Art des Einbaus der Membran in ein Gehäuse bestimmt, beim Mikrofon auch als >Kapsel< bezeichnet. Dies ist insbesondere für das Empfängerprinzip (Mikrofon) bzw. für die Art der Schallabstrahlung (Lautsprecher) von Bedeutung und damit auch für die Richtwirkung des Wandlers entscheidend. Wird die Mikrofon-Membran beim Mikrofon in eine allseitig geschlossene Kapsel eingesetzt, so reagiert sie nur auf den Schalldruck auf der Vorderseite der Kapsel, unabhängig aus welcher Richtung die einfallende Schallwelle kommt (Druckempfänger) . Ist die Kapsel dagegen mit seitlichen Eintrittsöffnungen versehen, reagiert das Mikrofon auf die Schalldruckdifferenz zwischen Vorder- und Rückseite der Membran. Letztere hängt von der Schalleinfallsrichtung ab, somit entsteht die größte Empfindlichkeit für die Einfallsrichtung, welche die maximale Druckdifferenz erzeugt (Druckgradientenempfänger). Je nach Empfängerprinzip und Geometrie der seitlichen Schalleintrittsöffnungen lassen sich auf diese Weise die typi schen Richtcharakteristiken Kugel, Niere und Acht annähern (Abb. 2), die auch in Zwischenstufen verfügbar sind (Breite Niere, Superniere, Hyperniere). Da die Richtcharakteristik von Mikrofonen in der Regel rotationssymmetrisch um die Hauptempfindlichkeitsrichtung ist, kann sie als zweidimensionales Polardiagramm angegeben werden. Dieses weist die Empfindlichkeit des Mikrofons in Abhängigkeit von der Schalleinfallsrichtung aus, normiert auf 0 dB für die 0°-Richtung des Mikrofons. Abb. 1: Elektroakustische Wandlung nach dem elektrodynamischen Prinzip. Die Membran des elektrodynamischen Lautsprechers (links) wird durch die Kraft auf eine stromdurchflossene Spule im Magnetfeld eines Permanentmagneten angetrieben. In eine von der einfallenden Schallwelle bewegte Spule wird beim elektrodynamischen Mikrofon (rechts) eine Spannung induziert. Bei >piezoelektrischen Wandlern< kommen spezielle Materialien zum Einsatz {Quarze, Blei-Zirkonat-Titanat PZT), welche auf eine mechanische Verformung mit einer Ladungsverschiebung (Piezo-Mikrofon) bzw. auf eine angelegte Wechselspannung mit einer entsprechend modulierten Verformung reagieren (Piezo-Lautsprecher). Piezoelektrische Wandler kommen aufgrund eines begrenzten Frequenzumfangs und hoher Nichtlinearitäten der Übertragungskennlinie heute kaum noch als Mikrofone, sondern hauptsächlich als Körperschallabnehmer zum Einsatz, etwa bei Tonabnehmern für die Schallplatte oder für halbakustische Instrumente (Gitarre, Kontrabass), wo sie die 304 305 Stefan Weinzierl Die Audiotechnik spricht. (meist 4 oder 8 0) und auf eine Entfernung von 1 m in der Hauptabdes Lautsprechers bezogen wird (>Sen sitivity <, s. Abb. 3 rechts oben). Das Ubertragungsmaß kann in Abhängigkeit von der Frequenz für eine feste eゥョヲ。ャウイセィエオァ@ oder in Abhängigkeit von der Einfallsrichtung (Mikrofon) oder Abstrahlnchtung (Lautsprecher) für einen festen Frequenzbereich 。 ョァ ・ァ セ@ ben werden und wird dementsprechend als Frequenzgang (Abb. 3) oder als Richtcharakteristik (Abb. 2) bezeichnet. Die Richtcharakteristik kann in zweioder dreidimensionaler Darstellung angegeben werden (s. Abb. 2 rechts) oder als Einzahlwert durch d en sogenannten Bündelungsfaktor. Dieser hat für omnidirektionale Wandler einen Wert von 1 und nimmt für zunehmende Bündelung der Empfindlichkeit Werte größer 1 an. ウエイ。ィャョ」オセ@ Sens 02 153V 1m 0410 dᄋセ@ 10 0 - g0 'V' :1 B Abb. 2: Richtwirkung von Mikrofonen in der Darstellung als frequenzabhängiges Polardiagramm: Kugel (links oben), Niere (rechts oben), Hyperniere (unten ). Die Richtcharakteristiken resultieren aus dem unterschiedlichen Kapselaufbau (Abbildungen links) mit rückwärtig geschlossener Kapsel (Kugel) oder unterschiedlich gestalteten, rückwärtigen Schalleintrittsöffnungen (Niere, Hypem iere).' Anders als beim Mikrofon wird nur bei sogenannten BreitbandLautsprechern das ganze hörbare Frequenzspektrum durch einen einzigen Wandler erzeugt. In der Regel werden bei Lautsprechern zwei bis drei Systeme in ein gemeinsames Gehäuse integriert, von denen jedes nur für die Abstrahlung eines definierten Frequenzbands verantwortlich ist (Tief-/Hochtöner oder Tief/Mittel -/Hochtöner) . Eine elektrische Frequenzweiche sorgt dafür, dass jedes System auch elektrisch nur mit dem jeweiligen Frequenzband angesteuert wird. Wichtigste Messgröße für elektroakustische Wandler ist das Übertragungsmaß, d .h. für Mikrofone das Verhältnis von Ausgangsspannung zu EingangsSchalldruck, bei Lautsprechern das Verhältnis von erzeugtem Schalldruck zu anliegender Spannung. Es wird bei Mikrofonen in den Einheiten mV/Pa für frontalen Schalleinfall angegeben, bei Lautsprechern als logarithmierter Schalldruckpegel (dB,r1,) für »1 W/1 m«, d.h. für eine Eingangsspannung, die einer elektrischen Leistung von 1 W an der Nennimpedanz des Lautsprechers ent- 6 Abbildung und Daten: Georg N eumann GmbH, Berlin, Datenblätter 306 7 60 0 . 05 0. 2 0 .5 1 2 5 10 kHz Abb. 3: Drei-Wege-Studiolautsprecher mit Tief-, Mittel- und Hochtöner (links). Rechts der Frequenzgang (>Sensitivity<, oben) und der maximale, bei einem Klirrfaktor von 3% erreichbare Schalldruckpegel (unten), beides auf eine Hörentfernung von 1 m bewgen.7 7 Fotografie: Klein & Hummel GmbH, Daten: Anselm Goertz. 307 Die Audiotechnik Stefan Weinzierl Angestrebt wird meist ein über einen möglichst großen Frequenzbereich lineares Übertragungsmaß, d.h. eine neutrale Charakteristik des Wandlers, die sich nicht durch mit spektralen Überhöhungen oder Einbrüchen einhergehenden Klangverfärbungen bemerkbar macht. Bei Lautsprechern wird der Frequenzbereich, in dem das übertragungsmaß um nicht mehr als 10 dB gegenüber dem über eine Oktave im Bereich maximaler Empfindlichkeit gemittelten Bereich abfällt, als >Übertragungsbereich< bezeichnet. Gleichzeitig ist eine möglichst frequenzunabhängige Richtcharakteristik wünschenswert, da sonst bereits kleine Abweichungen von der idealen, frontalen Hörposition beim Lautsprecher zu einer Änderung der Klangcharakteristik führen. Ein weiteres Kriterium ist der durch den Wandler übertragbare Dynamikbereich. Er ist nach oben durch den gerade noch verzerrungsfrei übertragbaren (beim Mikrofon) bzw. durch den noch verzerrungsfrei erzeugbaren Schalldruck (beim Lautsprecher) begrenzt. Als zulässiger Grenzwert für nichtlineare Verzerrungen wird bei Mikrofonen ein Klirrfaktor von 0,5% oder 1 %, bei Lautsprechern je nach Einsatzgebiet zwischen 3% und 10% angesetzt (Max. SPL, s. Abb. 3 rechts unten). Auch wenn Kopfhörer letztlich nichts anderes als Lautsprecher in einem speziellen Gehäuse sind, gelten aufgrund der besonderen Wiedergabebedingungen - man unterscheidet ohrumschließende, ohraufliegende, Ohrmuschelund Einsteck-Ohrhörer - andere Messverfahren. Während Mikrofone und Lautsprecher im reflexionsarmen Raum vermessen werden, um den Einfluss von Schallreflexionen im Raum auszuschließen, werden Kopfhörer auf einem sog. Kuppler oder auf einem Kunstkopf montiert (Abb. 4 ), wodurch eine reproduzierbare und gleichzeitig realitätsnahe Einbausituation geschaffen wird. Beide Systeme bilden eine Nachbildung des Ohrkanals (Kuppler) bzw. des gesamten Außenohrs (Kunstkopf) und schließen rückseitig mit einem Druckmikrofon (als Ersatz für das menschliche Trommelfell) ab. Alternativ kann das Übertragungsmaß auch durch einen Lautheitsvergleich mit einem externen Referenzschallfeld bestimmt werden. Hierfür gleichen Versuchspersonen die Lautstärke von über Kopfhörer wiedergegebenen Terzbandrauschen mit einem durch Lautsprecher erzeugten Schallfeld ab. Dabei wird die Abweichung des Kopfhörerfrequenzgangs von einem im Übertragungsmaß linearen, freien oder diffusen Schallfeld bestimmt. Da die Design-Vorgaben bei Kopfhörern weniger klar definiert sind als bei Lautsprechern, unterscheiden sich die Übertragungsmaße auch von hochwertigen Kopfhörern erheblich. Mangels objektiver Kriterien spielt die subjektive Präferenz bei der Auswahl hier eine größere Rolle als bei Lautsprechern oder Mikrofonen. Stax SRS 2020 Lambda Basic 100 1k 10k frequency [Hz] Abb. 4: Kopfhörer bei einer Messung des Übertragungsmaßes auf einem Kunstkopf (links) und das aus einer vergleichbaren Messung resultierende Übertragungsmaß für rechtes und linkes Ohr (rechts). Dargestellt sind jeweils zehn Messungen nach Repositionierungen des Kopfhörers (absetzen/aufsetzen), die zeigen, dass der Frequenzgang nicht unerheblich auch von der Sitzposition des Kopfhörers abhängt. Die Messung für das rechte Ohr ist für die Darstellung um 50 dB nach unten versetzt.' Die Parameter und Messverfahren für elektroakustische Wandler sind in den Normen DIN EN 60268-4 (Mikrofone), DIN EN 60268-5 (Lautsprecher) und DIN EN 60268-7 (Kopfhörer) festgelegt. Aktuelle Entwicklungen im Bereich elektroakustischer Wandler betreffen die Integration von elektrischen Vorverstärkern und Analog/Digital-Wandlern in das Mikrofongehäuse (Digitale Mikrofone), die Erweiterung der passiven Frequenzweiche von Lautsprechern zu einer aktiven, digitalen Vorverarbeitungsstufe (Controller) zur Linearisierung des Frequenzgangs und die Integration mehrerer, parallel betriebener Wandlersysteme zu sog. Arrays, bei denen durch geeignete Kombination der Einzelsysteme eine Steuerung der Richtcharakteristik möglich ist (Abb. 5). 8 Z. Schärer / A. Lindau (2009), Evaluation of equalization methods for binaural signals. 308 309 Die Audiotechnik Stefan Weinzierl ,- 1 , ' j „.„ {l. \„ „ differenz des stereofonen Signalpaars (Abb. 6), oder aus einer Überlagerung beider Parameter [7 2.63]. Die für eine stereofone Abbildung erforderlichen Laufzeit- und Pegeldifferenzen können entweder durch ein stereofones Aufnahmesystem, in der Regel ein geeignet ausgerichtetes Mikrofonpaar, erzeugt werden, oder durch ein sog. Panorama-Potentiometer, das ein monofones Eingangssignal am Mischpult mit einer regelbaren Pegeldifferenz auf den stereofonen Ausgangskanal verteilt. Auf diese Weise können Schallquellen akustisch auf der Stereobasis positioniert und das räumliche Abbild eines ausgedehnten Ensembles von Klangquellen erzeugt werden.' 0 75% . c :::> 75% 1:' ᄋセ@ 50% 25% 1-Llb-i o··"' RUセ Q j@ Abb. 5: Elektroakustische Wandler in Array-Konfigurationen zur Steuerung der Richtcharakteristik. Links: Kardioid -Ebenen-Mikrofon (KEM) mit 12 vertikal angeordneten Mikrofonen und starker Bündelung in der Horizontalebene (Richtwirkung in drei Dimensionen angedeutet) für den Einsatz als Sprechermikrofon, z.B. im deutschen Bundestag. Rechts: Line-Array aus sechs gekrümmt angeordneten Einheiten (Curving) zur gezielten Beschallung bestimmter Publikumsbereiche in der Live-Beschallung.9 3.3.2 Audiowiedergabe Bei der räumlichen Wiedergabe live-akustischer oder medial vorproduzierter Musiksignale über Lautsprecher können verschiedene Konzepte unterschieden werden. Für die stereofone Wiedergabe werden Lautsprecherpaare mit weitgehend identischen, sich nur um eine gewisse Zeit- oder Pegeldifferenz voneinander unterscheidenden Signalpaaren angesteuert. In Abhängigkeit von der Signaldifferenz bildet sich bei der Wiedergabe dann eine virtuelle Schallquelle (>Phantomschallquelle<), die auf der Basis zwischen den Lautsprechern lokalisiert wird . Für einen in der Symmetrieachse der Lautsprecher (>sweet spot<} befindlichen Hörer resultiert die genaue Position aus der Laufzeit- oder Pegel- 9 Fotografi e: Microtech Gefell GmbH (links), JBL I Harrnan International Industries Inc. (rechts) 310 R so% 75% '---.f Pl1antomschallquelle 50% ·c: •! セ@ セ 「セ ゥNMセ O> i <j> f 25% . ' ,(5 / I 9 12 15 18 3 6 Pegeldifferenz ßl in dB 0 ' I O> § :E 75% . Mセ@ 50% .g Mセ@ O> 25% セ@ '0 I 0 0.2 0.4 0.6 0.8 La ufzeitdifferenz !d in ms Hörer Abb. 6: Zweikanalstereofone Lautsprecheranordnung. Bei der Wiedergabe stereofon er Signale bildet sich eine sog. Phantomschallquelle, deren scheinbare Position auf der Lautsprecherbasis von der Pegel- und Laufzeitdifferenz abhängt, mit der die Klangquelle innerhalb des stereofonen Signalpaares kodiert ist." 10 S. Weinzi erl (2008), Aufnahmeverfahren. 11 Werte nach K. Wendt (1964), Das Richtungshören bei Zweika11al-Stereopho11ie. 311 Stefan Weinzierl - - - - - - - - - - - - - - - - - - - - - - - - Die Audiotechnik Medial produzierte Musik (auf CD, LP oder zweikanaligen Dateiforma.: ten) liegt in der Regel in diesem Format vor. Auch bei Live-Beschallungen werden die links und rechts von der Bühne angebrachten Lautsprecher zumindest ansatzweise für eine stereofone Abbildung verwendet, auch wenn sich der Großteil des Publikums außerhalb eines sweet spots befindet und die Lokalisation daher weniger gut kontrollierbar ist. Mehrkanalig produzierte Musik, etwa im 5.1-Format auf DVD, verwendet eine erweiterte Form der Stereofonie, bei der meist nur die äußeren Kanäle (L, R) für die räumliche Abbildung des Ensembles (Orchester, Kammermusik-Formation, Chor) eingesetzt werden, während der Mittenkanal (C) für die Abbildung von Einzelquellen (Sprecher, Sänger, Instrumentalsolisten) und die rückwärtigen SurroundKanäle (LS, RS) für räumliche Schallanteile verwendet werden. Zweikanalstereofone Musikaufnahmen waren seit 1958 als Tonträger (LP), seit 1963 in Deutschland über UKW-Rundfunk verfügbar. In der elektroakustischen Musik wurden bereits in den 1950er Jahren stereofone Prinzipien eingesetzt, um mit mehrkanaligen Systemen Bewegungen von Klängen zu erzeugen und auf diese Weise den Raum als kompositorisches Element erfahrbar zu machen. Die für die Klangbewegung erforderlichen, stereofonen Signale wurden für Kompositionen wie Kontakte (1960) über einen vom Komponisten Karlheinz Stockhausen entworfenen, mechanischen Rotationstisch erzeugt, während sie später meist elektronisch gesteuert oder algorithmisch generiert wurden. Eine moderne Variante der räumlichen Wiedergabe ist der Einsatz von großen Lautsprecherarrays zur >Schallfeldsynthese<. Hier beruht die räumliche Wahrnehmung nicht auf dem psychoakustischen Effekt der Ausbildung von Phantomschallquellen, sondern auf der physikalisch realen Synthese von akustischen Wellenfronten durch die Interferenz der einzelnen Lautsprechersignale. So kann den zunächst separat übertragenen Klangquellen (Akustische Instrumente, elektronische Klänge) erst bei der Wiedergabe ein virtueller Entstehungsort zugewiesen werden. Anhand dieser Information berechnet eine Software zur Schallfeldsynthese in Echtzeit die Signale für jedes einzelne System des Lautsprecherarrays, deren Schallfelder sich dann zu einem Muster mit von der virtuellen Schallquelle ausgehenden Wellenfronten überlagern. Für die Berechnung der Lautsprechersignale existieren verschiedene algorithmische Verfahren (>Wellenfeldsynthese<, >Higher Order Ambisonics<). Die Schallfeldsynthese, bei der zum Teil mehrere Hundert Lautsprecherkanäle zum Einsatz kommen, wird bisher überwiegend zur Erzeugung virtueller akustischer Reali- täten in der Forschung genutzt. Es zeichnen sich aktuell aber vermehrt auch Anwendungen im 3D-Erlebniskino, in der Beschallungstechnik oder in der elektroakustischen Musik und Klangkunst ab." 2 1.5 0.5 0 ;:>., -0.5 -1 -1.5 -2 -2 -1 0 X 1 2 (m) Abb. 7: Erzeugung einer ebenen Schall-Wellenfront durch das Zusammenwirken von 56 Kanälen eines Systems zur Schallfeldsynthese. Die Form und Orientierung der Wellenfront kann bei der Wiedergabe durch einet')oftware gesteuert werden, welche die Signale nach einem algorithmischen Verfahren (hier: Wellenfeldsynthese) für jeden einzelnen Lautsprecher in Echtzeit berechnet." Eine Besonderheit im Bereich der elektroakustischen Musik ist die Verwendung von Lautsprecherorchestern. Hier werden keine standardisierten, zwei-, vier- oder achtkanaligen Wiedergabekonfigurationen verwendet, die den Klang 12 D. de Vries (2009), Wave field sy11thesis. 13 ]. Ahrens I H. Wi es torf I S. Spors (2010), Comparison of higher order ambisonics and wave field synthesis. 312 313 Die Audiotechnik Stefan Weinzierl »von außen « auf das Publikum projizieren. Stattdessen treten die Lautsprecher bei live-akustischen Aufführungen von Werken im Umfeld der französischen >musique concrete<gleichsam physisch an die Stelle akustischer Instrumente und wirken mit ihrer Klang- und Abstrahlcharakteristik nicht als neutrales Medium, sondern als Klangerzeuger mit individuellem Charakter." . Der mit dem Vorgang von Abtastung und Quantisierung verbundene lnformationsverl ust erweist sich bei signaltheoretischer Betrachtung als unbedenklich, wenn die zeitliche Abtastrate und die Auflösung des Wertebereichs ausreichend hoch ist. So kann, wenn die Abtastfrequenz mindestens doppelt so hoch wie die höchste im Signal enthaltene Frequenz ist, das digital übertragene Signal bei der Rückwandlung in seinem zeitlichen Verlauf fehlerfrei rekonstruiert werden. Um eine fehlerfreie Übertra gung des ganzen hörbaren Spektrums zu gewährleisten, werden in der Audiotechnik daher typische Abtastraten von 44,1 kHz (CD) oder 48 kHz (DVD, digitaler Rundfunk) verwendet, die mehr als doppelt so hoch wie der hörbare Frequenzbereich liegen. Der mit dem Vorgang der Quantisierung einhergehende Fehler kann durch die Größe der für die numerische Auflösung maßgeblichen binären Wortbreite im Prinzip beliebig klein gehalten werden. Mit Wortbreiten von 16 Bit (wie bei 16 der Audio CD) oder 24 Bit lassen sich 2 = 65.536 bzw. 2 24 = 16.777.216 Abstufungen der Signalamplitude darstellen. Damit sind die durch die Quantisieinduzierten Ungenauigkeiten in der Regel bereits geringer als bei analoイオョセN@ ger Ubertragung, wo die Signalamplitude durch Rauschen oder durch für das Medium oder den Übertragungsweg spezifische Störungen ebenfalls beeinträchtigt ist. Zeil in ms - Abb. 8: Das sogenannte >Akusmonium <, ein Lautsprecherorchester aus Systemen mit charakteristischem Klang und Abstrahlverhalten für die Aufführung von Werken der musique concrete bei einem Konzert in der Berliner Elisabethkirche.15 14 M. Supper (1997), Elekttoakustische Musik und Computermusik . 15 Fotografie: Jef Chippewa. 314 セ MB[P セ S GMセ セMB[PNイR Nセ GM U セMG セMPNT セ MGA」Z[PNUW@ セ 0.5 セ@ Für die übertragung und Speicherung von Audiosignalen gibt es zwei grundsätzlich verschiedene Repräsentationsformen. Bei >analoger< übertragung wird der im Audiosignal kodierte, zeitliche Verlauf des Schallsignals in ein physikalisch reales Abbild überführt. Dies kann die Modulation der am Ausgang eines Mikrofons anliegenden elektrischen Spannung sein, die Modulation der Magnetisierung auf einem Magnetband oder die Auslenkung der in eine Schallplatte eingravierten Tonrille. Bei >digitaler< Übertragung wird der kontinuierliche Verlauf des Audiosignals in periodischen Zeitabständen abgetastet und jeder dieser Abtastwerte durch einen binären Zahlenwert kodiert (>Quantisierung<). Q GM {g 2 <( 3.3.3 Audioübertragung, Kodierung, Speicherung セoイN セ Qッ イM MLQ@ l⦅jM|Lセ MG MイエZセ MイヲGBセ」Q o jM - 0.5 ' 10 ' 「a ' ' セ・イャ ・M 15 20 ' .. .. „ ...... ' '' 1 '' • ' ' '» 11001100110011010!1101110101110001100111001100110101„. Abb. 9: Oben: Kontinuierliches Audiosignal, wie es durch die Mikrofonaufnahme ein es Geigentons geliefert und bei analoger Übertragung unverändert abgebildet wird . Unten: Durch Abtastung und Quantisierung erzeugte, binäre Zahlenfolge (2er-KomplementCode) als Grundlage einer digitalen Übertragung. 315 T 1 Die Audiotechnik Stefan Weinzierl Ein Maß für die Leistungsfähigkeit von einzelnen Komponenten einer Au- · dioübertragungskette neben der Linearität des Frequenzgangs und dem Anteil nichtlinearer Verzerrungen (s. 3.2.1) ist das Verhältnis der größten im System übertragbaren Signalleistung PMax zur Leistung des Störsignals PNoise' welches die Dynamik des Systems nach unten begrenzt. Der Signal-Rauschabstand (>Signal-to-Noise Ratio<, >SNR<) wird meist als Logarithmus in Dezibel angegeben, mit SNR = ャァセ@ p in dB PNoise Bei digitalen Systemen ist PMax durch den größten darstellbaren binären Zahlenwert bzw. die ihm zugeordnete Signalamplitude gegeben, bei analogen Systemen wird meist die Amplitude, bei der nichtlineare Verzerrungen ein bestimmtes Maß überschreiten (bei Mikrofonen etwa ein Klirrfaktor von 0,5 oder 1 %), als Obergrenze des nutzbaren Aussteuerungsbereichs festgelegt. Das Störsignal PNoise ist in der Regel durch ein durch die Schaltungstechnik bedingtes Rauschen gegeben, unterhalb dessen sich keine Signale mehr übertragen lassen. Tabelle 1 gibt einen Überblick über die historische Entwicklung und die bei professionellen Geräten derzeit üblichen bzw. erreichbaren SignalRa uscha 「ウセゥ@ nde. Übertragungssystem/Speichermedium Signal-Rauschabstand (SNR) Schellack-Platte 30-55 dB" Vinyl-Langspielplatte (LP) 50-70 dB' 7 Analoges Magnetband 60-80 dB" ND - und DIA-Wandler 90-120 dB Mikrofone 100-130 dB Tabelle 1. Der Signal-Rauschabstand (SNR) als Maß für die Systemdynamik verschiedener Komponenten der Audio-Übertragungskette. 16 J.R Minter (1956), Recent developments in precision master recording lathes , S. 51. 17 D.W. Gravereaux / A.]. Gust / B.B. Bauer (1970), The dynamic range of disc and tape records. 18 Abhängig vom Bandmaterial und vom eingesetzten Rauschunterdrückungsverfahren. 316 Die gesamte Signalkette zur Übertragung und Speicherung von Audiosignalen wurde seit den 1970er Jahren Schritt für Schritt auf digitale Formate umgestellt. Dies betrifft die Verwendung von digitalen Speichermedien bei der Produktion (digitale Magnetbandformate, seit 1978) und beim Endverbraucher (Compact Disc, seit 1982), digitale Filmton-Formate im Kino (seit 1993), die digitale Radioübertragung (DAB, Regelbetrieb in Deutschland seit 1999) und das digitale Fernsehen (DVB-T, seit 2002). Wesentliche Gründe für diesen Systemwandel waren • die überlegenen technischen Übertragungseigenschaften (im Hinblick auf Frequenzgang, nichtlineare Verzerrungen, Signal-Rauschabstand, Gleichlauf), die sich gegenüber analoger Übertragung bei gleichem Aufwand und Kosten erreichen lassen, • die Möglichkeit verlustlosen Kopierens und Archivierens digitaler Inhalte, • umfangreichere Möglichkeiten der Klangbearbeitung und Editierung und • die durch die Digitaltechnik ermöglichte technische Konvergenz von Medieninhalten (Bild, Ton, Text) auf Seiten der Industrie ebenso wie auf Sei·ten der Mediennutzung. Da die drahtgebundene oder drahtlose Übertragungsbandbreite für digitale Daten ebenso begrenzt ist wie die Speicherkapazität digitaler Medien, wurden seit den 1980er Jahren Algorithmen zur Datenreduktion (auch: Kompression) von Audiosignalen entwickelt. Sie beruhen auf der begrenzten zeitlichen und spektralen Auflösung des menschlichen Gehörs und führen zu einer psychoakustisch motivierten Eliminierung unhörbarer bzw. mutmaßlich weniger relevanter Anteile von Musik- und Sprachsignalen (>verlustbehaftete Kodierung<). Hierbei wird einerseits der Frequenzverlauf der absoluten Hörschwelle berücksichtigt, d.h. die Tatsache dass das Gehör für Frequenzanteile im Bereich von 2-4 kHz empfindlicher ist als für den tiefen und hohen Frequenzbereich. Darüber hinaus wird das Phänomen der Simultanverdeckung ausgenutzt, d.h. die Tatsache, dass dominante Signale gleichzeitig auftretende Signalanteile in benachbarten Frequenzbändern verdecken, d.h. unhörbar ma2.5.3]. chen ォ￶ョ・{セ@ In der Praxis wird für jedes Frequenzband analysiert, um wieviel dB die dort auftretende Energie oberhalb der durch die absolute Hörschwelle und die Verdeckungsschwellen benachbarter Bänder gegebenen Hörschwelle liegen und mit entsprechend hoher Auflösung kodiert bzw. ganz weggelassen. Meist ist durch die Vorgabe einer bestimmten Übertragungsrate (Bitrate in kbit/s) ein passender Bitpool vorgegeben, der entsprechend der Hörbarkeitsanalyse (Signal-to-Mask-Ratio) den einzelnen Frequenzbändern zugeteilt wird. Unterhalb einer bestimmten Bitrate ist mit Einbußen der Übertragungsqualität zu rechnen, da nicht mehr alle als hörbar eingestuften Signalanteile über- 317 Stefan Weinzierl tragen werden. Dies kann sich in Übertragungsartefakten wie erhöhtem Rauschen, reduziertem Freg uenzumfang, Störgeräuschen (»Zwitschern «, »Blubbern «) und Vorechos und Verschmieren von impulshaften Signalen äußern. Fiir die perzeptive Bewertung von Algorithmen zur Bitratenreduktion werden standardisierte Verfahren eingesetzt, anhand derer die Qualität bestimmter Codecs bewertet und di e Bitrate ermittelt wird, unterhalb derer Einschränkungen der Übertragungsqualität hörbar werden (>Transparenzschwelle<). Letztere hä ngt stark von den zu kodi erenden musikalischen Signalen ab und liegt für heute verbreitete Codecs in einer Größenordnung von 128-256 kbit/s für zweikanalige Formate. Im Vergleich zu einem unkomprimierten Audiosignal in CD-Qualität (44,1 kHz Abtastrate, 16 Bit Wortbreite) bedeutet dies eine Reduzierung der Bitrate um einen Faktor 5,5-1 l. Zusätzlich zu diesen (potentiell) verlustbehafteten Kodierungen werden häufig noch als >verlustlose Kodierung< bezeichnete Algorithmen eingesetzt. Bei dieser vollständig reversiblen (daher: verlustlosen) Umwandlung binärer Daten kommt meist eine Kombination von linearer Prädiktion und Entropiekodierung zum Einsatz. Das erstere Verfahren nutzt die statistische Abhängigkeit aufeinanderfolgender Abtastwerte, das letztere die ungleiche Verteilung der Signalamplituden in einem Audiosignal aus, um durch einen Code mit ungleicher Wortlänge (im Gegensatz zum gleichmäßigen 16 Bit-Code der Audio CD, s. Abb. 9) eine Datenreduktion zu bewirken, die bei Audiosignalen typischerweise einen Faktor 2 erreicht. Beispiele für datenreduzierende Codecs sind die von der Motion Picture Experts Group (MPEG), einer gemeinsamen Arbeitsgruppe von ISO, IEC und ITU", standardisierten Formate. Dazu gehört MPEG-1 zur Kodierung von zweikanaligen Audiosignalen, MPEG-2 mit der Erweiterung auf mehrkanalige Audioformate und MPEG-4 mit zahlreichen Erweiterungen im Hinblick auf komplexere Kompressionsverfahren oder die Verarbeitung synthetischer Sprach- und Musikanteile. MPEG-1 spezifiziert drei als >Layer< bezeichnete Verfahren zur Audiokompression (Layer 1, 2, 3) mit aufsteigender Komplexität und entsprechend höherer Qualität bei geringeren Bitraten. Fiir MPEG-1 Layer 3 hat sich dabei das Kürzel »mp3 « durchgesetzt. Es benennt sowohl ein Verfahren zur Audiokompression als auch ein Dateiformat (.mp3), mit dem derart komprimierte Musikdateien im Internet ausgetauscht werden können. Weitere Codecs sind das AC-3-Verfahren, das unter dem Namen Dolby Digital vor allem im Kino und auf der DVD-Video zu Einsatz kommt, sowie das 19 Internationa l Organization for Sta ndardizat ion (ISO), Internat ional Electrotechnical Commission (JEC), International Telecommunication Union (ITU). 318 Die Audiotechnik ATRAC-Verfahren, das von der Fa. Sony für portable Audiogeräte (MiniDisc) und unter dem Namen Sony Dynamic Digital Sound (SDDS) ebenfalls im Kino eingesetzt wird. Die verschiedenen Verfahren unterscheiden sich durch die in Frequenzbänder eingesetzten Transformationsalgofür die aセヲウー。ャエオョァ@ nthmen, die Anzahl der Frequenzbänder, die Implementierung der in einem psychoakustischen Modell hinterlegten Hörschwellen und durch den Einsatz weiterer >Tools< zur Reduktion der Bitrate ohne hörbaren Qualitätsverlust. Dabei werden Abhängigkeiten zwischen den Kanälen ausgenutzt (Mid/Side Stereo MS, lntensity Stereo IS, Parametric Stereo PS), ebenso Periodizitäten v.a. in tonalen Signalen (Frequency Domain Prediction FDP, Long Term Prediction LTP), bis hin zu einer Substitution v.a. rauschhafter Signalanteile durch auf der Empfängerseite generiertes, synthetisches Rauschen (Perceptual Noise Substitution PNS, Spectral Band Replication SBR).'0 20 A. Lerc h (2008), Bitratenreduktion. 319 Glossar Amplitude Der Begriff bezeichnet den Betrag der maximalen Auslenkung eines schwingenden Systems aus seiner Ruhelage. Bernoulli-Effekt Der Bernoulli-Effekt (auch Bernoulli-Prinzip, Bernoulli-Kraft} beschreibt ein von Daniel Bernoulli (1700-1782) gefundenes umgekehrt proportionales Verhältnis zwischen Druck und Strömungsgeschwindigkeit, welches besonders grundlegend für die Tonerzeugung bei Blasinstrumenten und bei der Singstimme ist: Je größer der Druck an einer bestimmten Stelle ist, desto geringer ist dort die Strömungsgeschwindigkeit und umgekehrt. Bläst man z.B. durch die Rohrblätter einer Oboe, so ist darin die Strömungsgeschwindigkeit kurzfristig sehr hoch, wodurch im Verhältnis zum Außendruck der Druck zwischen den Rohrblättern plötzlich sehr gering wird. Dies hat zur Folge, dass sich die Rohrblätter zusammenziehen, wodurch der Luftstrom wieder unterbrochen wird. Hierdurch endet die Luftströmung und damit der mit ihr einhergehende Unterdruck abrupt, so dass die Rohrblätter aufgrund ihrer Elastizität wieder auseinander gehen. Sofort kann wieder neue Blasluft nachströmen, wodurch sich aufgrund der Strömungsgeschwindigkeit und dem dadurch verursachten Unterdruck zwischen den Rohrblättern diese wieder zusammenziehen usw. Dieses periodische Öffnen und Schließen der Rohrblätter wird als Klang hörbar, d.essen Tonhöhe von der Eigenresonanz der angeschlossenen Röhre (z.B. eine Oboe oder ein Fagott} bestimmt wird. Cent Cent ist ein von dem Philologen tAlexander John Ellis (1814-1890) vorgeschlagenes logarithmisches Maß zur Kennzeichnung der Größe von Intervallen. Bezugsgröße ist der gleichstufig temperierte Halbton mit einer Größe 2 1112 • Dieser Halbton wird in 100 gleiche Teile geteilt. 100 Cent entsprechen also einem gleichstufig temperierten Halbton, 200 Cent einem gleichstufig temperierten Ganzton usw. Die Oktave hat den Wert 1200 Cent. Ein Intervall, das durch ein bestimmtes Frequenzverhältnis x/y definiert ist, lässt sich wie folgt in Cent umrechnen: Cent = (lg x/y) / (lg 2111200 ) 321 Glossar Glossar dichotisch / diotisch / monotisch / binaural / monaural Beim dichotischen (»getrenntohrigen«) Hören werden dem rechten und linken Ohr (meist via Kopfhörer) jeweils unterschiedliche Signale zugeführt (meist im Rahmen von Experimenten zur Aufmerksamkeit oder zum CocktailpartyEffekt). Beim diotischen Hören hingegen werden beide Ohren mit dem gleichen Schallsignal beschallt, während beim monotischen Hören nur eines der beiden Ohren mit akustischen Signalen versorgt wird. Dieses einohrige Hören wird auch als monaurales Hören bezeichnet, während das binaurale (beidohrige) Hören den normalen Hörvorgang via zwei Ohren beschreibt, der besonders für die räumliche Wahrnehmung in der Horizontalebene von Bedeutung ist. Dissonanz Siehe Konsonanz Formant und Formantgesetze Formanten, Formantbereiche oder Formantstrecken sind grundtonunabhängige, einen Klang charakteristisch prägende feste Frequenzbereiche oder -strecken in Spektren von Sprach- (bzw. Vokal-) oder Musikinstrumentenklängen, in denen die Amplituden der Teiltöne besonders hervorgehoben werden. Nach den von Carl Erich Schumann 1929 gefundenen Gesetzmäßigkeiten verhalten sich diese Formantbereiche abhängig von der Spieldynamik: So verlagert sich das Amplitudenmaximum innerhalb eines Formanten bei stärkerer Tongebung auf Teiltöne höherer Ordnung (Formantverschiebungsgesetz); bei extrem starker Tongebung kann hierbei auch die Lücke zwischen zwei Formantstrecken übersprungen werden, um die zweite obere Formantstrecke mit einem spektralen Amplitudenmaximum auszuzeichnen (Sprunggesetz). Bei Klängen mit mehreren Formanten konnten Schumann und andere Klangforscher charakteristische lntervallverhältnisse zwischen den jeweils stärksten Teiltönen der einzelnen Formantbereiche beobachten (Formantintervallgesetz), die ebenfalls charakteristisch für bestimmte Instrumente sein sollen (z.B. ist das Verhältnis des stärksten Teiltons im ersten Formanten zum stärksten Teilton im zweiten Formanten für die Oboe 1:2, für das Fagott 3:8, für das Englisch Horn 2:5 etc.). Interferometrie Das Messverfahren der lnterferometrie beruht auf dem Effekt der Interferenz, d.h. der Überlagerung von Wellen, bei der sich die Amplitudenwerte addieren. Sendet man einen gebündelten Lichtstrahl auf ein schwingendes Objekt, so wird der Strahl reflektiert und trifft mit einer zeitlichen, von der Schwin- 322 gungsphase abhängigen Differenz gegenüber einem Referenzstrahl, der an einer fixierten Fläche reflektiert wird, auf einer Sammellinse ein. Durch die Phasenverschiebungen werden sogenannte Interferogramme erzeugt. Klang Der Begriff ist definiert als komplexe, aus mehreren Teilschwingungen zusammengesetzte Schwingung. Entsprechen die Frequenzen der Teilschwingungen ganzzahligen Verhältnissen (1:2:3:4 ... ), so spricht man von einem harmonischen Klang. Bei nicht-ganzzahligen Frequenzverhältnissen (z.B. Glockenklang) spricht man von einem unharmonischen Klang. Klangfarbe Nach einer Defintion des American National Standards Institute ist Klangfarbe (timbre) »that attribute of auditory sensation in terms of which a listener can judge that two sounds similarly presented and having the same loudness and pitch are dissmilar« (ANSI S. 3.20, 1960) . Klangfarbe ist eine Warhnehmungsqualität, die durch eine Vielzahl von physikalischen Parametern beeinflusst wird, z.B. von der Teiltonstruktur des wahrgenommenen Klanges und ihrer zeitlichen Veränderung oder dem geräuschhaften Anteil am Gesamtklang. Konsonanz Konsonanz und Dissonanz sind Kategorien der Musiktheorie, die zur Klassifikation von Intervallen dienen. Wörtlich übersetzt deuten die Begriffe auf das Zusammenklingen bzw. Auseinanderklingen der an dem jeweiligen Intervall beteiligten Töne hin. Ein Aspekt der Konsonanz/Dissonanz-Unterscheidung ist in der Wahrnehmung, wie stark die beiden beteiligten Töne zu einem Gesamteindruck verschmelzen. Ein anderer Aspekt ist die Rauigkeit des entstehenden Gesamtklanges. Neben solchen von 、 セ イ@ Psychoakustik untersuchten Wahrnehmungsqualitäten spielt in der Musiktheorie aber auch die Funktion der Intervalle in einem mehrstimmigen Satz eine Rolle: konsonante Intervalle dienen beispielsweise der Schlussbildung eines musikalischen Satzes, während dissonante Intervalle als Durchgangsintervalle behandelt werden. Die Zuordnung der Intervalle zu einer der beiden Kategorien wechselte teilweise im Laufe der Jahrhunderte. Longitudinalwelle Siehe Welle 323 Glossar Mode Der englischsprachige Begriff, der auch im Deutschen Verwendung findet, bezeichnet die Form der Eigenschwingungen im Hinblick auf ihre Energieverteilung in verschiedenen Dimensionen. Pascal (Pa) Die Einheit Pascal wurde nach dem Mathematiker Blaise Pascal (1623-1662) benannt. 1 Pascal gibt den Druck an, den eine Kraft von 1 Newton auf eine Fläche von 1 Quadratmeter ausübt. Photogrammetrie Die Photogrammetrie dient der Rekonstruktion der räumlichen Lage von Objekten aus einer Reihe von Fotografien mithilfe von computergestützten mathematischen Modellen. Resonanz Jedes schwingungsfähige System hat eine oder mehrere Frequenzen, mit der/denen es bei einmaliger Krafteinwirkung schwingt. Dies sind die sog. Eigenfrequenzen. Wird ein solches System durch eine periodische Kraft angeregt, deren Frequenz mit einer der Eigenfrequenzen des Schwingungssystems übereinstimmt, so steigt die Amplitude der Schwingung an, geht bei ungedämpften Systemen gegen unendlich. Die Übereinstimmung von anregender Frequenz und Eigenfrequenz und das Aufschaukeln der Schwingungsamplitude nennt man Resonanz. Schwingung Der Begriff bezeichnet die zeitabhängige, abwechselnde Zu- und Abnahme einer oder mehrerer physikalischer Größen eines Systems, die auftritt, wenn bei einer Störung des Gleichgewichtszustandes des Systems Rückstellkräfte wirksam werden, die auf eine Wiederherstellung dieses Zustandes gerichtet sind. Bei einem schwingenden Pendel verändern sich potentielle und kinetische Energie zeitabhängig, wobei als Rückstellkraft die Gravitation wirksam ist. Spektrum Das Spektrum (auch Klangspektrum, Teiltonspektrum oder Frequenzspektrum) beschreibt die Teiltonzusammensetzung eines Klanges auf der Grundlage des Fourier-Theorems, nach dem sich jede komplexe, periodische Schwingung in eine Reihe von Sinusschwingungen zerlegen lässt, die danach in Frequenz und Amplitude (bzw. Amplitudenverlauf) in zwei- oder dreidimensionaler 324 Glossar . Form dargestellt werden kann. Während bei zweidimensionalen Spektren (mit den beteiligten Frequenzen auf der X-Achse und den jeweiligen Amplitudenwerten auf der Y-Achse) meist nur augenblickliche oder gemittelte Werte dargestellt werden, erlauben dreidimensionale Spektren auch eine Einsicht in den zeitlichen Verlauf der klanglichen Entwick lun g, wie z.B. beim WaterfallDisplay (X-Achse: Zeit, Y-Achse: Frequenzen, Z-Achse: Amplituden) oder beim Sonagramm bzw. Spektrogramm (X-Achse: Zeit, Y-Achse: Frequenzen, Färbung: Amplituden). Spektren sind besonders hilfreich bei der Analyse von musikalischen Klängen, besonders wenn es um die Ermittlung von Formantbereichen, Geräuschanteilen, periodischen Verhältnissen, Vibrati und ähnlichen instrumententypischen Merkmalen geht. Stehende Welle Siehe Welle Ton Im physikalischen Sprachgebrauch bezeichnet Ton eine einzelne Sinusschwingung (DIN 1320, Berlin 1969). Der Begriff wird aber auch häufig verwendet, um allgemein einen ein zelnen Klang zu bezeichnen, der eine eindeutige Tonhöhe aufweist. Transversalwelle Siehe Welle Welle Schwingungen breiten sich in einem Übertragungsmedium als Wellen aus. Die einzelnen Teilchen des Mediums schwingen dabei mit einer bestimmten Wechselgeschwindigkeit um ihre Ruhelage. Stimmt die Schwingungsrichtung der Teilchen mit der Ausbreitungsricht ung der Welle überein, so spricht man von einer Longitudinalwelle. Schwingen die Teilchen quer zur Ausbreitungsrichtung, so spricht man von einer Transversalwelle. Schallwellen sind Longitudinalwellen. Ein Spezialfall ist gegeben, wenn sich zwei Wellen gleicher Frequenz und gleicher Amplitude aber gegenläufiger Ausbreitungsrichtung überlagern. Dieses Phänomen kann z.B. durch Reflexion der Welle an einem Hindernis entstehen. Eine solche Überlagerung führt dazu, dass an bestimmten Raumpunkten die Teilchen des Mediums in Ruhe bleiben (sogenannte Schwingungsknoten), an anderen Raumpunkten mit maximaler Amplitude schwingen (sogenannte Schwingungsbäuche). Die aus Überlagerung zweier gegenläufiger Wellen resultierende Welle wird als stehende Welle bezeichnet. 325 Literaturverzeichnis Literaturverzeichnis 0. Abraham, Tonometrische Untersuchungen an einem deutschen Volk.slied, in: Psychologische Forsch ung 4 (1923), S. 1-22. Ph . Ackermann, Com puter und Musik, Wien, New York 1991. Agi lent Techn ologies (Hrsg.), The fundamentals of signal analysis, 2000. [http://cp.literature.agilent. com/litweb/pdf/59 52-8898E. pdf, letzte r Zugriff: 8.3.2013] J. Ahrens / H. Wiestorf / S. Spors, Com parison of higher order ambisonics and wave fi eld synthesis with respect to spatial discretization artifacts in time domain, in : AES 40th International Conferen.ce, Tokyo, Japan, 2010. G. Albersheim, Zur Psychologie der Ton- und Klangeigenschaften, Straßburg 1939. J. B. Allen, Short term spectral analysis, synthesis, an.d modification by discrete fourier transform, in: IEEE 25 (June 1977), S. 235-238. American Standards Association, Americmr Standards Association Terminology (including M echanical Shock and Vibration), New York 1960. F. Anwander, Synthesizer: So funkti oniert elektronische Klangerzeugung, Bergkirchen 2000. T. Arai, Gel-type tongue for a physical model of the human vocal tract as an educational tool in acoustics of speech production, in: Journal of Acoustical Science and Technology 29/2 (2008), s. 188-190. V. Aschoff, Phantasie und Wirklichkeit in der Frühgeschichte der Akustik, in: Acustica 42 (1979), 121-132. J. Askill, Physics of musical sounds, New York u.a., 1979 . F. Attneave / R.K. Olson, Pitch as a medium: A new approach to psychophysical scaling, m: America nJourna l of Psychology 84 (1971), S. 147-166. F. Auerbach, Akustik. Historische Entwicklung und kulturelle Beziehungen, in : Physik, hrsg. von E. Lecher, Leipzig 2 1925. W. Auhagen, Dreiecksimpulsfolgen als Modell der Anregungsfunl<tion von Blasinstrumellten, in: Fortschritte der Akustik, 13. DAGA '87, Aachen 1987, S. 709-712. W. Auhage n, Musikalische Satzstruktur und Tempoempfinden, in: Systematische Musikwissenschaft 1/2 (1993 ), S. 35 3-369. W. Auhagen, Akustische Grundbegriffe, in: MGG2, Bd. 1, Ka ssel u. a., 1994, S. 368-394. W. Auhagen, Rh)1thmus- und Tempoempfinden, in: Musikpsychologie (Handbuch der Systematischen Musikwissenschaft Bd. 3), hrsg. von H. de la Motte-Haber und G. Rötter, Laaber 2005, s. 231-249. W. Auhagen, Rhythmus und Timing, in: Musikpsychologie. Das neue Handbuch, hrsg. von H . Bruhn, R. Kopiez und A. C. Lehmann, Reinbek bei Hamburg 2008, S. 437-457. R. Bader (Hrsg.), Musikalische Akustik, Neurokognition und Musikpsychologie. Hamburger Jahrbuch für Musikwissenschaft 25, Frankfu rt 2009. P. Bailhache, Une histoire de l'acoustique musicale, Paris 2001. J. Backus, Th e acoustical foundations of music, New York, 1969. J. Backus / T. C. Hund le, W all vibrations in f/u e organ pipes and their effect on tone, in: Journal of the Acoustical Society of America 39/5 (1966), S. 936-945. J. Barkowsky, Einführung in. die musikalische Alwstik, W il helmshaven, 2009. C. Barlow / J. Wood house, Microscopy of wood finishes, in: Violin Acoustics, hrsg. von C. H utchins / A. Benade, Woodbury/NY 1997, Sp. 913-919. M . Barron, A uditorium acoustics and architectural design, London ' 2010. M. Barron / A.H. Marshall, Spatial im pression due to early lateral reflections in concert halls, in : Journa l of Sound and Vibration 7 (1981), S. 211-232. 326 j.W. Bea uchamp, Analysis and synthesis o f niusical instrument sounds, in: Analysis, Synthesis, and Perception of musical Sounds: Sound of Music, hrsg. von J.W. Beauchamp, New York 2007, s. 1-89. J.W. Beauchamp I A. Homer, Spectral modelling and timbre hybridisation programs for computer music, in: Organised Sound 2/3 (1997), S. 253-258 . M . Becker, Synthesizer von gestern, Augsburg 1990. M. Bec ker, Synthesizer von gestern, Vol. 2, Augs burg 1995. A.H. Benade, Musik und Harm onie, München u.a ., 1960. A.H. Benade, Ho lzblasinstrumente, in: Die Physik der Musikinstrumente, hrsg. von K. Winkler, Heidelberg 1988, S. 22-3 1. A.H. Benade / D.J. Gans, Sound production in wind instruments, in: Annals of the New York Academy of Sciences, vol. 155 (1968), S. 247-263. J. Bensa / D. Dubois / R. Kron land-Martinet / S. Ystad, Perceptive and cognitive evaluation of a piano symhesis model, in: Com puter Music Modeling and Retrieval 33 1012 005 , hrsg. von U. K. Wiil, Berlin 2005, S. 232- 245. L.L. Beranek, Acoustics, New York 1996. L.L. Beranek, Concert halls and opera houses: Music, acoustics, and architecture, New York 2 2003. R.E. Berg/ D.G. Stork, The physics of sound, Upper Sadd le River 2005 . W.A. van Bergeijk / J.R. Pierce / E.E. Dav id jr., Die Schallwellen und wir, München 1960. L. Bergmann / C. Schäfer, Lehrbuch der Experim entalphysik, Berlin 1943 . D.E. Berlyne, Aesthetics and psychobiology, New Yor k 1971. D. Bernoulli, Theoremata de oscillationibus corporum filo flexibili con.nexorum et catenae verticaliter suspensae, in : Commentationes Academiae scientiarum Petropoli 6, 1732-33, S. 108122. D. Bernou lli, Demonstrationes et theorematum suorum de oscillationibus corf1orum filo flexibili connexorum et catenae verticaliter suspensae, in: Commentationes Academia e scientiarum Petropoli 7, 1734-35, S.162-173. D. Bernoulli (1741/43), D e vibrationibus et sono laminarum elasticarum commentationes physico-mathematicae, in: Commentationes Academiae scientiarum Petropoli 13, 1741- 43, S. 105-120. J. Bernoulli , Theoremata selecta, fJrO conservatione virium vivarum demonstranda, in: Commentationes Academiae scientiarum Petropo li 2, 1727, S. 200, Reprint: Opera Omnia, Lausa nne und Genf 1742, Bd. 3, S. 124-130. M. Bertsch, Vibration patterns and sound analysis of the Viennese Timpani, in: Proceedings of the International Symposium on Musica l Acoustics (ISMA), Stanzial, Domenico, Perugia 2001,S. 281-284. M . Bertsch / T. Maca, Visualisierung des Einblasvorgangs [Warm up] bei Blechbläsern. mittels Infrarot-Th ermographie, in: Zeitschrift für Musikphysiologie und Musikermedi zin 15/1 (2008), s. 1-5. R.T. Beyer, Sounds of our times: Two hundred years of acoustics, New York 1999. J. Blauert, Räumliches Hären, Stuttgart 1974. J. Blauert, Spatial Hearing: Th e psychophysics of human sound localization. Ca mb ridge and London 1997. F. Bluttner, Obiehtive und subiektive Untersuchu ngen zum Einschwingen von Piano/:dängen, in: Das Musikinstrument 31 (1982), S. 1140-1146. M . Boom: Music through MIDI, Redmond, Washington 1987. I. Bork / J. M eyer, Zum Einfluss der Form des Mundloches auf die Tonerzeugung bei den Querflöten, in : Tibia 5 (1989), S. 358-368 H . Borucki, Einführung in die Akustik, Mannheim, 1980. 327 Literaturverzeichnis .J. Bortz, Statistih für Human- und Sozialwissenschafrler, 7. Aufl. Berlin und Heidelberg 2010. Chr. Braut, Das MIDI Buch, Düsseldorf 1993. A.S. Bregman, Auditory streaming: Com petition. among alternative orga11izatio11s, in: Perception & Psyc hophysics, 23 (1978), S. 391-398. A.S. Bregman, The formation of auditory streams, in: Attention and Performance VII, hrsg. von J. Requin , H illsda le, New Jersey 1978, S. 63-76. A.S. Bregman, Auditory scene analysis, paper presented at the Seventh International Conference on Pattern Recognition, Sil ver Spring, Md 1984. A.S. Bregman, Auditory scen.e analysis: Tin perceptual organization. of sound. Ca mbridge und Massachu setts 1990. A.S. Bregman, Auditory scene analysis and the role of fJh enomenology in. experimental psychology, in : Canadian Psyc hology, 46/1 (2005), S. 32-40. A.S. Bregman , Auditory scene analysis, in : The Senses: A comprehensive reference, audition, Band 3, hrsg. von A. 1. Basbaum / K. Akimichi / G. M. Shepherd / G. Westhe imer, San Diego 2008a, S. 861-870. A.S. Bregman, Auditory scene analysis, in: Encyclopedia of neuroscience, hrsg. von L. R. Squi re, Oxford, UK 2008b, S. 729-736. A.S. Bregman / P.A. Ahad / P.A.C. Crum / J. O 'Reilly, Effects of time intervals and tone durations on auditory stream segregation, in: Perception & Psychophysics, 62/3, (2000), S. 626-636. A.S. Bregman / S. Pinker, Auditory streaming and the building of timbre, in: Canadian Journal of Psychology, 32 (1978), S. 19-31. R. Bresin, Towards a com putational model of expression in music performance: The GERM model, in: Musicae Scientiae, Special Issue: Current trends in the study of mu sic and emotion (2001-2002), s. 63-122. D.E. Broadbent, Perception and communication. London 1958. D.E. Broadbent / P. Ladefoged, On the fu sio11 of sound reaching different sense organs, in: Journal of the Acoustical Society of America 29 (1957), S. 708-710. J.P.L. Brokx I S.G. Nooteboom, Intonation and the perceptual separation of simultane01.1s voices. in: Journa l of Phonetics 10 (1982), S. 23-36. M. Brunea u, Fundamentals of acoustics, London 2006. F. Busoni, Entwurf einer neuen Ästhetih der Tonkunst, Leipzig '1916. C. Cagniard de Latour, Sur la sirene, nouvelle machine d'acoustique destinee a mesurer !es vibrations de l'air qui constituen.t le son, in: Anna les de chimie et de physique, 2nd ser., 12, 1819, s. 167-171. St. Campidell, Die Mihrostruhtur von Ventilbindungen bei Trompeten, Magisterarbeit, Universität Wien 1995 . R. Carhart / T .W . Tillman / K.R. Johnson, Release of mashing for speech through interaural time delay, in : Journal of the Acoustica l Society of America 42 (1967), S. 124-138. 0. Carpentier, Les instruments des Coupleux et Givelet 1920-1935, Universite de Paris Sorbonne 2004. S. Carra l, Pluching the string: The excitation mechanism of the guitar (a bstract), in: Journal of the Acoustica l Society of America 128/4,2 (2010), S. 2448. V. Chatziioannou / W. Kausel /Th. Moore, Th e effect of wall vibrations on the air column inside trumpet bells, in: Proceedings of the Acoustics 2012 Nantes Conference, Nantes 2012, s. 2243-2248. J. -M. Chen / J. Smith / J. Wolfe, Experienced saxophonists learn to tune their vocal tracts, in: Science 319 (2008), S. 726. C.E. Cherry, Same experiments on the recognition of speech, with one and with two ears, in: Journal of the Acoustica l Society of America 25/5 (1953), S. 975-979. 328 Literaturverzeichnis E.F.F. Chladni, Entdeckungen über die Theorie des Klanges, Leipzig 1787 . E.F.F. Chladni, Die Ahustik. Berlin 1802. J.M. Chowning, The synthesis of complex audio spectra by means of frequency modulation in: ' Journa l of the Aud io Engineering Society 21 (1973), S. 526-534. J.M. Chown ing, Com puter synthesis of the singing voice, in: Soundgeneration in winds, strings ' computers, hrsg. von der Royal Swedish Academy of Music Stockholm 1980, S. 4-13. A. Collins, Professional guide to audio plug-ins and Virtual Instruments, Amsterdam und Boston 2003. P.R. Cook, Music, cognition, and computerized sound. An introduction. to (Jsychoacoustics ' Ca mbridge und London 2001. P.R. Cook, Real sound syn.thesis for interactive afJtJlications, Natick, MA 2002. D.C. Copley I W.J. Strang, A stroboscopic study of lip vibrations in a trombone, in: Journa l of the Acoustical Society of Am er ica 99/2 (1996), S. 1219-1226. L. Cremer, Die wissenschaftlichen. Grundlagen der Raumahustik, Band 1. Stuttgart 1948. L. Crerner, Die wissenschaftlichen Grundlagen der Raumakustik, Stuttgart 1978. L. Crerner, Physih der Geige, Stuttgart 1981. D. Cro mbie, The new complete synthesizer, London, New York und Sydney 1986. J.F. Culling I Q. Summerfield, Perceptual separation of concurrent speech sounds: Absence of across frequency grouping by common interaural delay, in: Journal of the Acoustical Society of America 98 (1995), S. 185-797. P. Dall os, Overview: Cochlear neurobiology, in: Springer handbooh of auditory research - the cochlea, hrsg. von R.R. Fay / A.N. Popper, New York 2006, S. 1-43. G.L. Dannenbring I A.S. Bregma n, Effect of silence between tones 011 auditory stream segregation, in: Journa l of th e Acoustical Society of America 59/4 (1976), S. 987-989. 0. Darrigol, The acoustic origins of harmon.ic analysis, in: Archive for history of exact sciences 61 (2007), s. 343-424. C.J. Darwin, Perceptual grouping of speech components differing in fundamel1ta l frequency and onset time, in: Quarte rly Journa l of Experimenta l Psychology, 33A (1981), S. 185-207. C.J. Darwin I R.P. Ca rlyon , Auditory grouping, in: The Handbook of Perce[Jtion and Cognition, Band 6, hrsg. von B.C..J. Moore, London 1995, S. 387-424. C.J. Darwin I R.W. Hukin, Auditory objects of attention: The role of interaural time differences in: Journa l of Experimental Psychology: Human Perception and Perfo rmance 25 (1999), S. 617-629. J.F. Daugherty, Spacing, formati on. and choral sound: [Jreferences and perceptions of auditors and choristers. Ph.D . thesis, Flo rid a State Universi ty at Tallaha ssee, Sc hool of Music (1996). B. David, Vergleich der akustischen Richtwirhur,ig des Konzertflügels Steinway D-274 mit und ohne Klangspiegel. IWK - Univers ität für Musik und darstellende Kunst Wien 2010. H. Davis, Psychological and physiological acoustics: 1920-1942, in: Journal of th e Aco ustical Society of America 61 (1977), S. 264-266. J.B.J. de Fourier, Theorie analytique de la chaleur, Paris 1822. D. de Vries, Wave field synthesis (AES Monograph}, New York 2009. J. Deva ney, An empirical study of the inf/uen.ce of musical context on intonation practices in solo singers and SA TB en.sembles, Ph. D. Dissertation McGi ll 2011. D. Deutsch, Two -channel listening to musical scales, in: Journal of th e Acoustica l Society of America 57 (1975), S. 1156-1160. D. Deu tsch, Musical illusions and paradoxes (CD), La Joll a 1995. J.A. Deutsch I D. Deutsch, Attention: Same theoretical considerations, in: Psychologica l Review, 70 (1963), s. 80-90. M. Dickreiter I W. Hoeg IV. Dittel / M. Wöhr (Hrsg.), Handbuch der Tonstudiotechnik, Baud 1, Münc hen 2008. 329 Literaturverzeichnis DIN 15905-5, Veranstaltungstechnik-Tontechnik-Teil 5: Maßnahmen zum Vermeiden einer Gehörgefährdung des Publikums durch hohe Schallemissionen elektroakustischer Beschallungstechnif<_, 2007. DIN 18041, Hörsamkeit in kleinen bis mittelgroßen Räumen, 2004. DIN EN 60268-4, Elektroakustische Geräte - Teil 4: Mikrofone, 2004. DIN EN 60268-5, Elektroakustische Geräte - Teil 5: Lautsprecher, 2003. DIN EN 60268-7, Elektroakustische Geräte - Teil 7: Kopfhörer und Ohrhörer, 1996. DIN EN ISO 3382-1, Messung von Parametem der Raumakustik, 2009. P. Donhauser, Elektrische Klangmaschinen, Wien 2007. P. Donhauser: »Der elektrische Beethoven. «. Anmerkungen zur Geschichte und Technik des ersten europäischen elektromechanischen Klaviers, in: Blätter für Technikgeschichte 69/70 (2007/2008), s. 117-135. P. Donhauser, Österreichische Pioniere der »Elektrischen Musik« und die Medienarchäologie, in: Klangmaschinen zwischen Experiment und Medientechnik, hrsg. von D. Gethmann, Bielefeld 2010, s. 73-96. S. Donval, Histoire de /'a coustique musicale, Courlay 2006. S. Dostrovsky I ]. F. Bell I C. Truesdell, Physics of music, in: The New Grove Dictionary of Music & Musicians, ed. Stanley Sadie, London 1980. W.J. Dowling, Rhythmic fission. an.d perceptual organization., in: Journal of the Acoustical Society of America 44/1 (1968), S. 369. W.J. Dowling, The perception of interleaved melodies, in: Cognitive Psychology 5 (1973), S. 322-337. W.J. Dowling, Dichotic recognition of musical canons: Effects of leadin.g ear an.d time lag between ears, in: Perception & Psychophysics, 23/4 (1978), S. 321-325. W.J. Dowling, Music cognition. Orlando 1986. H.H. Dräger, Prinzip einer Systematik der Musikinstrumente, Kassel und Basel 1948. N.L. Durlach I H.S. Colburn, Binaural phenomena, in: Handbook of Perception, Val. 4, Hearing, hrsg. von E.C. Carterette I M.P. Friedman, New York 1978, S. 365-466. M. Ebeling, Konsonanz und Dissonanz, in: Musikpsychologie. Das neue Handbuch, hrsg. von H. Bruhn, R. Kopiez und A.C. Lehmann, Reinbek bei Hamburg 2008, S. 499-521. R. Eberlein, Theorien und Experimente zur Wahrnehmung musikalischer Klänge, Frankfurt 1988. R. Eberlein, Geschichte der musikbezogenen Akustik, in: MGG2, Bd. 1 (Sachteil), Ka ssel u. a. 1994,S. 376-385. R. Eberlein, Die Entstehung der tonalen Klangsyntax, Frankfurt a.M. 1994. W. Ellermeier I ]. Hellbrück, Hören - Psychoakustik - Audiologie, in: Handbuch der Audiotechnik, hrsg. von S. Weinzierl, Berlin 2008, S. 41-85. B. Enders, Der Ein.fluß moderner Musiktechnologien auf die Produktion von Popu/armusik, in : Popmusic - Yesterday Today Tomorrow, hrsg. von M. Heuger IM. Prell, Regensburg 1995, s. 47-72. B. Enders, Die Klangwelt des Musiksynthesizers, München 1985. B. Enders, Lexikon Musilwlektronik, Mainz 1997. B. Enders, Mathematik ist Musik für den Verstand, Musik ist Mathematik für die Seele, in: Mathematische Musik - musikalische Mathematil<, hrsg. von B. Enders, Saarbrücken 2005, S. 9Sセ@ B. Enders I W. Klemme, Das MIDI- und Sound-Buch zum Atari ST, Haar bei München 1988. B. Enders I C. Reuter, Verschicken musilwlischer Daten - Von MIDI zum Internet, in: Elektroakustische Musik (Band 5 der Reihe Handbuch der Musik im 20. Jahrhund ert), hrsg. von E. Ungeheuer, Laaber 2002, S. 282-285. 330 Literaturverzeichnis -R.F. Estrada I E.A_. Starr, 50 years of acoustic_ signal fJroc essing for detection: coping with the d1g1tal revolut1on, m: IEEE Anna ls of the H1story of Computing 27/2, (2005), S. 65-78. L. Euler, De la propagation du son, in: Memoires de l'Academie des Sciences de Berlin 15 1759 , , , s. 185-264. L. Euler, Tentamen Novae Theoriae Musicae, Petersburg 1739. F.A. Everest, Fundamentals of sound, in: Handbook for sound engineers, hrsg. von G. Ballou ' Indianapolis, 1987. F.A. Everest, The master handbook of acoustics, New York ' 2001. A. Eximeno, Dell' Origine e delle regale della Musica, Rom 1774. W. Fasold I E. Veres, Schallschutz und Raumakustik in der Praxis, Berlin 2003. H. Fast! I E. Zwicker, Psychoacoustics - Facts and Models, Berlin -'2006. G.Th. Fechner, Elemente der Psychophysik, (Nachdruck der Ausgabe, Leipzig 1860), 2 Bände, Amsterdam 1964. C. Fensterbusch, Vitruvii De architectura libri decem. Lateinisch und deutsch. Darmstadt 6. Aufl. 2008. H. Fleischer, Vibroakustische Untersuchungen an. Paukenfellen, Neubiberg 2005. H. Fleischer, Fell, Kessel und Gestell der Orchesterpauke, Neubiberg 2008. H. Fletcher, A space-time pattern theory of hearing, in: Journa l of the Acoustical Society of America 1 (1929), S. 313-316. H. Fletcher, Auditory patterns, in: Reviews of Modem Physics 12 (1940), S. 47-65. H. Fletcher I W.A. Munson, Loudness, its definition, measurement, an.d calculation, in : Journa l of the Acoustical Society of America 5 (1933), S. 82-108. N.H. Fletcher I T.D. Rossing, The ph)1sics of musical instruments, New York, 1991. L. Fogliano, Musica theorica, Venedig 1529. P. Fraisse, Rhythm an.d tempo, in: The psycho/ogy of music, hrsg. von D. Deutsch, San Diego 1982, s. 149-180. J.P. Fricke, Über subjektive Differenztöne höchster hörbarer Töne und des angrenzenden Ultraschalls im musikalischen Hören., Regensburg 1960. J.P. Fricke, Die Innenstimmung der Naturtonreihe und der Klänge, in: Festschrift K. G. Feilerer zum 60. Geburtstag, hrsg. von H. Hüschen, Regensburg 1962, S. 161-177. J.P. Fricke, Formantbildende Impulsfolgen bei Blasinstrumenten, in: Fortschritte der Akustik, 4. DAGA'75, Braunschweig 1975, S. 407-411. J.P. Fricke, Kompression zur Herstellung natürlicher dynamischer Verhältnisse beim Abhören un ter verschiedenen umweltbedingten Störschalleinflüssen., in: Bericht über die 11. Tonmeistertagung Berlin'78, Köln 1978, S. 100-107. J.P. Fricke, Zur Anwendung digitaler Klangfdlrben.filter bei Aufnahme und Wiedergabe, in: Bericht über die 14. Tonm eistertagung München, München 1986, S. 135-148. ].P . Fricke, Klangbreite und Tonempfindung. Bedingungen kategorialer Wahrnehmung aufgrund experimenteller Untersuchung der Intonation, in: Musikpsychologie, Empirische Forschungen - Ästhetische Experimente, Band 5, hrsg. von K.-E. Behne, G. Kleinen und H. de la Motte-Haber, Wilhelmshaven 1988, S. 67-88. J.P. Fricke, Der Klang der Musi!?instrumente nach den Gesetzen des Gehörs: Wechselwirkung Mensch - Instrument, in: Das Instrumentalspiel. Bericht vom Internationalen Symposion. Wien, 12. -14. April 1988, hrsg. von G. Windholm IM. Nagy, Wien und München 1989, S. 275-284. J.P. Fricke, Die Bedeutung der Mikrointervalle im Wandel der Zeiten und Kulturen, in: Mikrotö ne IV, Bericht über das 4. Internationale Symposion Mikrotonforschung, Musik mit Mikrotönen, Ekmelische Musik, 1991 in Salzburg, hrsg. von Horst-Peter Hesse, München 1993, S. 221-250. 331 Literaturverzeichnis J.P. Fricke, Die Wechselwirkung von Mensch und Instrume11t im Zusammenspiel von Physik und Psychologie, in: Neue Musiktechnologie, Vorträge und Berichte vom KlangArt-Kongreß 1991 an der Universität Osnabrück, hrsg. von B. Enders, Mainz 1993, S. 169-196. J.P. Fricke, Ein Plädoyer für die Formanten, in: Flöten, Oboen und Fagotte des 17. und 18. ]h., 12. Symposium zu Fragen des Instrumenten baus 1991, Blankenburg, Michaelstein 1994, S. 66-77. J.P. Fricke, Über Fremdheit und Aneignung in der Musik, in: Lux Griente. Festschrift Robert Günther zum 65. Geburtstag, hrsg. von K.W. Niemöller / U. Pätzo ld / C. Kyo-chul, Regensburg 1995, S. 363-376. J.P. Fricke, Systemische Musikwissenschaft - Eine Konsequenz des Dialogs zwischen den Wissenschaften, in: Musikwissenschaft zwischen Kunst, Ästhetik und Experiment. Festschrift Helga de la Motte-Haber zum 60. Geburtstag, hrsg. von R. Kopiez, B. Barthelmes, H. Gembris, J. Kloppenburg, H. von Loesch, H . Neuhoff, G. Rätter, C.M. Schmidt, Würzburg 1998, S. 161-171. J.P. Fricke, Psychoakustik des Musil<hörens, in: Musik/Jsychologie (Handbuch der Systematischen Musikwissenschaft, Band 3), hrsg. von H. de la Motte-Haber / G. Rätter, Laaber 2005, S. 101-154. J.P. Fricke, Neuronale Koinzidenz mit Unschärfe löst das Problem unbefriedigender Konsonanztheorien, in: Musikpsychologie - Musilwlisches Gedächtnis - musikalisches Lernen, Band 20, hrsg. von W. Auhagen / C. Bullerjahn / H. Höge, Göttingen 2009, S. 94- 122. J.P. Fricke: A statistical theory of musical co11sonance proved in praxis, in: Klangfarbe. Vergleichend-systematische und musikhistorische Perspektiven, hrsg. von A. Schmidhofer / S. Jena, Frankfurt 2011, S. 99-112. J.P. Fricke, Iutonation und musikalisches Hären, Osnabrück 2012. J.P. Fricke, The recagnition of cansonance is not impaired by intonation deviations. A revised theory, in: Proceedings of the 34th Annual Conference of the Gesellschaft für Klassifikation e.V., hrsg. von W. Gaul / A. Geyer-Schulz/ L. Schmidt-Thieme / J. Kunze, Berlin 2012, S. 383-391. J.P. Fricke /Chr. Louven, Psychoakustische Grundlagen des Musikhörens, in: Musikpsychologie. Das neue Handbuch, hrsg. von H . Bruhn / R. Kopiez / A. Lehmann, Rheinbek 2008, S. 413436. G. Friedlein (Hg.), De institutione arithmetica libri duo, De institutione musica libri quinque, accedit Geometria quae fertur Boetii, Leipzig 1867, Reprint Frankfurt/Main 1966. J.B. Fritz/ M. Elhilali / S.V. David/ S.A. Shamma, Auditory attention - focusing the searchlight an sound, in : Current Opinion in Neurobiology 17 (2007), S. 437-455. M. Fruhmann, Ein Modell zur Wahrnehmung der Ausgeprägtheit der Tonhöhe, Diss. München 2006. P.A. Fuchs, The Oxford handbook of auditory science - Th e ear, Oxford 2010. D. Gabor, Theory of communication, in: Journa l of the Institution of Electrical Engineers Part III, 93126 (1946), S. 429-457. A. Gabrielsson, The performance of music, in: The psychology of music, hrsg. von D. Deutsch, San Diego ' 1999, S. 501-602. A. Gabrielsson / E. Lindström, The influence of musical structure an emotional expression, in: Music and emotion: Theory and research, hrsg. von P.N. Juslin und J.A. Sloboda, Oxford 2001, s. 223-248. G. Galilei, Discorsi e dimostrazioni matematiche intorno a due nuove scienze, Leiden 1638. S.A. Gel fand, Hearing - An introduction to psychological and physiological acoustics, New York 2004. S.A. Gelfand, Essentials of audiology, New York und Stuttgart 2009. D. Gethmann (Hg.), Klangmaschinen zwischen Experiment und Medientechnik, Bielefeld 2010 332 Literaturverzeichnis W. Gieseler I L. Lombardi I R.-D. Weyer, Instrumentation in der Musik des 20. jahrhund t er s, Celle 1985. A. Glinsky, Theremin: ether music and espionage, Illinois 2000. W. Goebl I S. Dixon IG. de Poli I A. Friberg IR. Bres in / G. Widmer, >Sense< in expressive music performance: data acquisition, computational studies, and models, in: Sound to sense_ Sense to sound: A state of the Art in Sound and Music Computing, hrsg. von P. Polotti und D · Rocchesso, Berlin 2008, S. 195-242. W. Goebl I I. Fujinaga, Do key-bottom sounds distinguish piano tones? In: Proceedings of the 10th Internat1011al Conference on Music Perception and Cognition (ICMPClO), Sapporo 2008, s. 292. W. Goebl I C. Palmer. Tactile feedback and timing accuracy in piano performance in: ' Experimental Brain Research 186/3 (2 008 ), S. 471-479. W. Goebl I G. Widmer, Unobtrusive practice tools for {Jianists, in: Proceedings of the 9th International Conferen.ce an Music Perception and Cognition (ICMPC9), Bologna 2006, S. 209214. J. Goldstein, An optimum processor theory for the central formation of the pitch of camp/ex tones, 111: Journal of th e Acoustical Society of America 54 (1973), S. 1496-1516. J. Goldstein I A. Gerson IP. Srulovicz / M. Furst, Verification of the optimal probabilistic basis of aural processing in pitch of camp/ex tones, in: Journal of the Acoustical Society of America 63 (1978), S. 486-497. P. Gorges, Das großer Sampler Praxisbuch, München 1991. N. Gosselin IP. Joli coeur II. Peretz (2009), Impaired memory for pitch in congenital amusia, in: The Neurosciences and Music III - Disorders and Plasticity: Annals of the New York Akaderny of Sciences 1169 (2009), S. 270-272. P. Gouk, The role of acoustics and music theory in the scientifi c work of Robert Hooke, in: Annals of Science 37/5 (1980), S. 573-605. B. Graham, Musik and the synthesizers, Hertfordshire 1980. D.W. Gravereaux I A.J. Gust I B.B. Bauer, The dynamic range of disc and tape recards, in: Journal of the Audio Engineering Society 18/5 (1970), S. 530-535. D.M. Green I W.A. Yost, Binaural analysis, in: Handb ook of Sensory Physiology: Auditory System, hrsg. von W. Keidel / W. Neff, New York 1975, S. 461-480. 0. Grewe I F. Nage l I R. Kopi ez I E. Altenmüller, Ustening to music as a re-creative process: Physiological, psychological, and psychoacaustical carrelates of chills and strong emotions, in: Music Perception 24/3 (2007), S. 297-314. J.M. Grey, An exploration of musical timbre, Stanford 1975. ].M. Grey, Multidimensional perceptual scalin!J of musical timbres, in: Journal of the Acoustical Society of America 61 (1977), S. 1270-1277. P. Grosche IM. Müller I C.S. Sapp, What makes beat tracking difficult? A case study 011 Chopin Mazurkas, in: Proceedings of the 11th International Conference an Music Information Retrieval (ISMIR), hrsg. von J.S . Downie und R.C. Veltkamp, Utrec ht 2010, S. 649-654. R. Großmann, Sampling, in: Metzler Lexikon Medientheorie/ Medienwissenschaft, hrsg. von H. Schanze, Stuttgart, 2002, S. 320 f.. R.H. Gundlach, Factors determining the characterization of musical phrases, in: American Journal of Psychology 47 (1935), S. 624-643. W. Güth, Zur Frage der »Ansprache« von Streichinstrumenten, in: Acustica 46 (1980), S. 259267. W. Güth I F. Danckwerth, Die Streichinstrumente. Physik - Musik - Mystik. Stuttgart 1997. A. Gutschalk I C. Micheyl / A.J. Oxenham, Neural carrelates of auditory perceptual awareness in: PLoS Bio!, 6/6 (2008), S. 1156-1165. under informational ュ。ウャセゥョァL@ 333 Literaturverzeichnis A. Guzrnan, Decomposition of a visual scene into three-dimensional bodies, in: Automatie Interpretation and Classification of Im ages, hrsg. von A. Grasselli, New York 1969, S. 243276. H. Haas, Ober den Einfluss eines Einfachechos auf die Hörsamkeit von Sprache, in: Acustica, 1 (1951), s. 49-58. D.E. Hall, Musi/wlische Akustik - Ein Handbuch, Mainz u.a . 1997. D.E. Hall, Musical acoustics, Pacific Grove 2002. L. Halpern I R. Blake / J. Hillenbra nd , Psychoacoustics of a chi/fing soun.d, in: Perception and Psychophysics 39/2 (1986), S. 77-80. W.M. Hartmann I D. Johnson, Stream segregation and peripheral chmmeling, in: Music Perception, 9/2 (1991), S. 155-184. M.L. Hawley I R.Y. Litovsky I H.S . Colburn, lntelligibility and localization of speech signals in a multi-source environment, in: Journa l of the Acoustical Society of Arnerica 105 (1999), S. 3436- 3448 . G. Heike I H. Diinnwald, Neuere Klanguntersuchungen an Geigen und ihre Beziehung zum Gesang, in: Systemische Musikwissenschaft. Festschrift Jobst Peter Fricke zum 65. Geburtstag, hrsg. von W. Niemöller, Frankfurt 2003, S. 235-243. J. Hellbrück I W. Ellermeier, Hören - Physiologie, Psychologie und Pathologie, Göttingen 22004. G.B. Henning, Effect of interaural phase on frequency and am/1/itude discrimination, in: Journal of the Acoustical Society of Arnerica 54 (1973), S. 1160- 1178. L. Hermann, Phonophotographische Untersuchungen VI - Nachtrag zur Untersuchung der Vocalcurven, in: Archiv für die gesamte Physiologie des Menschen und der Tiere 58 (1894), S. 264-279. H.P. Hesse, Zur Tonhöhenwahmehmung. Experimentelle Überprüfung des Ohmschen Gesetzes in der Akustik, in: Hamburger Jahrbuch für Musikwissenschaft, Band . 1, hrsg. von C. Floms / H.J. Marx/ P. Petersen, Hamburg 1974, S. 233-248. J.K. Hilliard, Elektroacoustics to 1940, in: Journal of the Acoustical Society of America 61 (1977), s. 267-273. P. Hindemith, Unterweisung im Tonsatz, Mainz 1938. M. Hipp, Das elektrische Clavier, in: Dinglers Polytechnisches Journal 183 (1867), S.200-203. U.G. Hoenig, Workshop Synthesizer. Klangerzeugung für Musik er, Bergkirchen 2002. H. Hoffmann/ A. Lüpke, 0 Dezibel+ 0 Dezibel= 3 Dezibel, Berlin 1975. E.M. Hornbostel, Musikalische Tonsysteme, in: Handbuch der Physil<, Band 8, Akustik, hrsg. von H. Geiger und K. Scheel, Berlin 1927, S. 425-449. T. Houtgast, Subharmonie pitches of a pure tone at low s/n ratio, in: Journa l of the Acoustical Society of Arnerica 60 (1976), 405-409. D.M. Howard, Intonation. drift in a ca/1ella soprano, alto, tenor, bass quartet singi11g with key modulation, Journal of Voice 21/3 (2007). F.V. Hunt, Origins in acoustics: The science of sound from antiquity to the age of Newton, New Haven 1978 . D. Huron, Sweet anticipation, Cambridge/MA 2006. F.T. Husain / T.P. Lozito / A. Ulloa / B. Horwitz, Investigating the neural basis of the auditory continuity illusion, in: Journal of Cognitive Neuroscience 17 (2005), S. 1275-1292. H. Husmann, Vom Wesen der Konsonanz, Heidelberg 1953. C.M. Hutchins, A history of via/in research, in: Journal of the Acoustical Society of America 73 (1983), s. 1421-1440. C.M. Hutchins, Klang und Almstik der Geige, in: Die Physik der Musikinstrumente, hrsg. von K. Winkler, Heidelberg 1988, S. 88-99. C.M. Hutchins / K.A. Stetson/ P.A. Taylor, Clarification of »free plate tap tones" by holographic interferometry, in: Journal of the Catgut Society 16 (1971), S. 15-23. 334 Literaturverzeichnis C. Huygens (1690), Traite de la lumiere, Leiden 1690. IMA (Hrsg.), Zauberhafte Klangmaschinen, Mainz 2008. ISO 226-BS 3383 (1988), Specification for normal equal-loudness level contours for pure to nes under free -field listeni11g conditions, Genf. H. Jers, Directivity of singers, in: Journal of the Acoustical Society of America 118/3 (2005) s , . 2008. H. Jers I S. Ternström. Intonation analysis of a multi-channel choir recording. in: TMH-QPSR Speech, Music and Hearing: Quarterly Progress and Status Report, 47,1 (2005), S. 1-6. E. Jansson I N. Molin I H. Sa ldner, On eigenmodes of the via/in - Electronic holography and adm1ttance m easurem ents. In : Journal of the Acoustical Society of America 95 (1994) s. , 1100-1105. I. Johnston, Measured tones: The interplay of physics and music, Bristol 1994. M. Joos, Acoustic phonetics, Baltimore 1948. P. Jost, Zum Begriff der »Klangfarbe«, in: Musiktheorie 16 (2001), S. 181-183. B. Julesz I I.J. Hirsh, Visual and auditory perception - An essay of comparison, in: Human Communication: A unified View, hrsg. von E.E. David / P.B. Denes, New York 1972 S. , 283-340. E. Chr. Kapp, Grundlinien einer Philosophie der Technik, Braunschweig 1877. K. Karplus I A. Strang, Digital syn.thesis of plucked-string an.d drum timbres, in: Computer Music Journal 7/2 (1983), S. 43-55. W. Kausel, Bore reconstru.ction of tubular ducts from its acoustic input impedance curve, in: IEEE Transactions on Instrumentation and Measurement, 53/4 (2004), S. 1097-1105. W. Kausel IV. Chatziioannou I Th. Moore, More on the structural mechanics of brass wind instrument bells, in: Proceedings of Forum Acusticum 2011, hrsg. von der Danish Acoustical Society (Europea n Acoustics Association) Aalborg 2011, S. 527-532. W. Kausel I A. Mayer I G. Nachtmann, Experimental demonstration of the effect of wall vibrations an the radiated sound of the hom and a search for possible explanations, in: Proceedings of the International Symposium on Musical Acoustics, Barcelona 2007. W. Kausel I D. Zietlow I Th. Moore, Transmission line modelling of acoustical systems with vibrating walls, in: Proceedings of the Second Vienna Talk an Music Acoustics, hrsg. von W. Goeb, Wien 2010, S. 89-92. W. Kausel I D. Zietlow, I Th. Moore, lnfluence of wall vibration.s on the sound of brass wind instrumen.ts, in: Journ al of the Acoustical Society of America 128 (2010), S. 3161-3174. W.D. Keidel, Physiologie des Gehörs, Stuttgart 1975. J.J. Kellaris, Consumer esthetics outside the !ab: Preliminary report an a musical field study, in: Advances in Consumer Research 19 (1992j, S. 730-734. R.A. Kendall I E.C. Carterette, Verba! attributes of simultaneous wind instrumen.t timbres: l. von Bismarck's adjectives, in: Music Perception 10 (1993), S. 445-468. R.A. Kendall I E.C. Carterette, Verba/ attributes of simultaneous wind instrument timbres: TI. Adjectives induced from Piston's orchestration, in : Music Perception 10 (1993), S. 469-502 . M. Kent IG. Knapen et al.: Universa l Serial Busdevice class definition for MIDI devices, Release 1.0, 1999 <littp://www.usb.org/developers/ devclass_docs/midi10.pdf> (letzter Zugriff: 18.4.2013) R.G. Kiesewetter, Einleitung und Zusatzartikel, in: Der neuen Aristoxener zerstreute Aufsätze über das Irrige der musikalischen Arithmetik und das Eitle ihrer Temperatur-Rechnungen, hrsg. von R. G. Kiesewetter, Leipzig 1846, S. 1-16 und 64-68. R.G. Kiesewetter, Die sogenannte vollkommen gleichschwebende Temperatur, ohne Logarithmen, graphisch, technisch und prai:?.tisch ausgeführt, in: Caeci lia 26 (1847), S. 137- 142. R.G. Kiesewetter, Über die Octave des Pythagoras, Wien 1848. 335 Literaturverzeichnis Y.E. Kirn, Singing voice analysis/synthesis, Doctoral dissertation, Massachusetts Institute of Technology 2003 . A. Kircher, Musurgia Universalis sive Ars Magna Consoni et Dissoni, Rom 1650. F. Kittler I Th. Macho/ S. Weigel (Hrsg.), Zwischen Rauschen und Offenbarung, Berlin 2008. M. Kob, A method for measurement of the vocal tract impedance at the mouth, in: Medical Engineering & Physics; 24/7 (2002), S. 467-471. W.E. Kock, Schallwellen und Lichtwellen - Die Grundlagen der Wellenbewegung, Berlin u.a. 1971. S. Koelsch I W.A. Siebe!, Towards a neural basis of music perception, in: Trends in Cogn itive Sciences 9 (2005), S. 578-583. P. Költzsch, Von der Antike bis in das 20. Jahrhundert: ein Streifzug durch die Geschichte der Akustik (Schriftenreihe zur Geschichte der Akustik 1), Berlin 2010. P. Költzsch, Akustisches Wissen aus der Antike auf den Transferwegen in das »abendländische« Europa (Schriftenreihe zur Geschichte der Akustik 2), Berlin 2010. R. Kopiez, Reproduktion und Interpretation, in: Musikpsychologie. Das neue Handbuch, hrsg. von H. Bruhn, R. Kopiez und A.C. Lehmann, Reinbek bei H amburg 2008, S. 316-337. V. Koshelev, The Emiriton: Phenomen, history, problems and perspectives of study, in: N . Rimsky-Korsakov and his Heritage in historical Perspective, hrsg. V.L.O. Ader et al., SanktPeterburg 2010, S. 43-65. St. Kreichi, The ANS synthesizer: Composing on a photoelectronic instrument, in: Leonardo 28/1 (1995), s. 59-62. H. Krim IM. Viberg, Two decades of array signal processing research, in: IEEE Signal Processing Magazine 7 (1996), S. 67-94. H. Kröncke, Mechanische Schwingungen und Schall, Hildesheim 1973. C.L. Krumhansl, Why is musical timbre so hard to understand? in: Structure and Perception of electroacoustic Soundsand Music, hrsg. von S. Nielzen / 0. Olsson, Amsterdam 1989, S. 44- 53. C.L. Krumhansl I P.W. Ju sczyk, Infants' perception of phrase structure in music, in: Psychologica l Science 1/1 (1990), S. 70-73. J.H. Ku, British acoustics and its transformation from the 1860s to the 1910s, in: Annals of Science 63 (2006), S. 395-423. W.R. Kundert, Acoustical measuring instruments over the years, in: Journa l of the Acoustical Society of America 68 (1980), S. 64-69 . H. Kuttruff, Akustik - Eine Einführung, Stuttgart u.a. 2004. H . Kuttruff, Room acoustics, London ' 2009. W.H. Kyong C hun / Th. Keenan, New media, old media: A history and theory reader, New York, 2006 . S. Lakatos, A Common perceptual space for harmonic and percussive timbres, in: Perception & Psychophysics 62/7 (2000), S. 1426-1439 . G. Langner, Die zeitliche Verarbeitung periodischer Signale im Hörsystem: Neuronale Repräsentation von Tonhöhe, Klang und Harmonizität, in: Zeitschrift für Audiologie 46/1, S. 8-21. ]. Langner, Musikalischer Rhythmus und Oszillation, Frankfurt/M. 2002. N.J. Lass I C.M. Woodford, Hearing science fundamentals, St. Louis, 2007. J. Laurendeau, Maurice Martenot, luthier de l'electronique, Paris 1990. N. Lavie, Distracted and confused? Selective attention under load, in: Trends in Cognitive Sciences 9 (2005), S. 75-82. P. Lehmann / H. Wilkens, Zusammenhang subjektiver Beurteilungen von Konzertsälen mit raumakustischen Kriterien, in : Acustica 45 (1980), S. 256-268. M. Leman, Music and schema theory, Berlin und H eidelberg 1995. 336 Literaturverzeichnis S.-A. Lembke I S. McAdams (2012), Establishing a spectral. theory for perceptual timbre blending based an spectral envelope charactenst1cs, 111: Proceedmgs of the 12th lnternational Conference an Mus1c Perception and Cognition (ICMPC-ESCOM), Thessaloniki 2012. A. Lerch, Bitratenreduktion, in : Handbuch der Audiotechnil<, hrsg. von S. Weinzierl, Berlin 2008, s. 849-884. Th.Y. Levin, »Töne aus dem Nichts«. Rudolf Pfenninger und die Archäologie des synthetischen Tons, in: Zwischen Rauschen und Offenbarung, hrsg. von F. Kittler /Th. Macho/ S. Weigel, Berlin 2008, S. 313-356. Th.Y. Levin, »Tones out of nowhere«. Rudolph Pfenninger and the archaeology of synthetic sound, in: Grey Room 12 (S ummer 2003), S. 32-79. D.J. Lev itin I P.R. Cook, Memory for musical tempo: Additional evidence that auditory memory is absolute, in: Perception & Psychophysics 58/6 (1996), S. 927-935. J. C.R. Licklider, Basic correlates of the auditory stimulus, In: Handbook of experimental Psychology, hrsg. von S.S. Stevens, New York 1951, S. 985-1039. P. Lienard, Petite histoire de l'acoustique: bruits, sons et musique, Paris 2001. R.B. Lindsay, The story of acoustics, in: Jou rna l of the Acoustical Society of America 39 (1966), s. 629-644 . R.B. Lindsay, Acoustics: Historical and philosophical development, Stroudsburg/Pa. 1973. R.B. Lindsay, Acoustics and the Acoustical Society of America in historical perspective, in: Journal of the Acoustical Society of America 68 (1980), S. 2-9. A. Lindau I S. Weinzierl, Perceptual evaluation of model- and signal-based predictors of the mixing time in binaural room impulse responses, in: Journal of the Audio Engineering Society 60/11 (2012), s. 887-898 . Chr. Louven, Reiz- und wissensgeleitete harmonische Informationsverarbeitung, in : Musikpsy chologie (Hand bu ch der Systematischen Musikwissenschaft Bd. 3), hrsg. von H. de la MotteHaber und G. Rötter, Laaber 2005, S. 208-230. Chr. Louven, Die Konstruktion von Musik. Theoretische und experimentelle Studien zu den Prinzipien der musilwlischen Kognition, Frankfurt/M. 1998. D.A. Luce IM . Clark, Durations of attack transients of nonpercussive orchestral Instruments, in: Journ a l of the Audio Eng ineering Society 13 (1965), S. 194-199. K. Lüders I R.O. Pohl, Pohls Einführung in die Physik, Berlin u. a„ 2004. E. Mach, Zur Geschichte der Al<ustil<, Prag 1892. H.-J. Maempel, Technologie und Transformation. Aspekte des Umgangs mit Musikproduhtionsund -übertragungstechnik, in : Musiksoziologie (Handbuch der systematischen Musikwissenschaft 4), hrsg. von H . de la Motte-Haber und H. Neuhoff, Laabe r 2007, S. 160-180. H.-J. Maempel, Crooning, in: Lexikon dqr Systematischen Musikwissenschaft (Handbuc h der systematischen Musikwissenschaft 5), hrsg. von H. de Ja Motte-Haber und G. Rötter, Laaber 2010, s. 78. A.H. Marshall I W.]. Cavana ugh I M.A. Ruggero / ]. Santos-Sacchi, Cochlear mechanics and bioph ysics, in: Encyclopedia of Acoustics, Band 3, hrsg. von M.J. Cracker, New York 1997, s. 1357-1371. D.W. Martin I W .D. Ward, Subjective evaluation of musical scale temperament in pianos, m: Journa l of the Acoustical Society of America 33 (1961 ), S. 582-585. J . Ma ttheson, Der vollkommene Capellmeister, Hamburg 1739. A. Mayer (2003), Riam (reed instrument artificial mouth) - A computer controlled excitation device for reed instruments, in: Proceedings of the Stockholm Music Acoustics Conferen.ce 2003, Stockholm 2003, S. 279-282. A. Mayer I H. Rust, An artificial excitation mechanism for an acoustical comparison of the hammered dulcimer, in: Proceedings of the Second Vienna Talk an Music Acoustics, Wien 2010, s. 100-101. 337 Literaturverzeichnis S. McAdams. Spectral fusion, spectral parsing, and the formation of auditory images. Unpublished doctora l di ssertation. Stanford 1984. S. McAdams, Perspectives an the contribution of timbre to musical structure, in: Computer Music Journa l 23/3 (1999), S. 85-102. S. McAdams I A.S. Bregman, Hearing musical streams, in: Computer Music Journal 3/4 (1985), s. 26-43 . J. E. McLennan, A new bowing machine, in: Journal of the Catgut Acoustical Society 4/2 (2000), s. 55-60. H . Menge (Hg.), Euclidis opera omnia, Bd. 8, Leipzig 1916. P. Mengo li, Speculationi di Musica , Bologna 1670. M. Mersenne, Harmonie universelle, Paris 1636. M. Mersenne, Harmonicorum libri X II, Paris 1648. J . Meyer, Almstik der Holzblasinstrumente in Einzeldarstellungen. Frankfurt/M„ 1966. J . Meyer, Vibrato: am besten 6 bis 8 Hz, in: Instrnmentenbau-Zeitschrift 22 (1968), S. 544-546. J. Meyer, Akustik und musikalische Aufführungspraxis, Bergkirchen 2004. J. Meyer, Musikalische Akustik, in: Handbuch der Audiotechnik, hrsg. von S. Weinzierl, Berlin 2008, s. 123-180. W. Meyer-Eppler I H. Sendhoff / R. Rupprath, Residualton und Formantton, in: Gravesaner Blätter 14 (1959), S. 70-83. B.F. Miessner, The electronic piano, in: Proceedings of the Music Teachers National Association (1937), S. 259-272. B.F. Miessner, Electronic music and instruments, in: Proceedings of the Institute of Radio Engineers 2411 1 (1936), S. 1427-1466. D.C. Miller, Anecdotal history of the science of sound, New York 1935 . G.A. Miller, The masking of speech, in: Psycho logica l Bulletin 44 (1947), S. 105-129. G.A. Miller / G.A. H eise, The tri// threshold, in: Journal of the Acoustical Society of America 2215 (1950), S. 637-638. G.A. Miller I J. C. R. Licklider, The intelligibility of interrupted speech, in: Journa l of the Acoustica l Society of America 22 (1950), S. 167-173. H.B. Miller, Acoustical measurements and instrumentation, in: Journal of the Acoustical Society of America 61 (1977), S. 274-282. J .B. Minter, Recent developments in precision master recording lathes, in: Journa l of the Audio Engineering Society 4/2 (1956), S. 50-55. E.R. Miranda, Computer sound design, synthesis techniques and programming, Focal Press '2002. T.R. Moore, A simple design for an electronic speckle pattern interferometer, in: American Journal of Physics 72 (2004), S. 1380-1384. H. de la Motte-Haber, Handbuch der Musil<psychologie, Laaber ' 1996. H. de la Motte-Haber, Musikpsychologie. Eine Einführung, Köln 1972. H . de la Motte-Haber, Ein Beitrag zur Klassifikation musikalischer Rhythtnen, Köln 1968. S. Müller, Messtechnik, in: Handbuch der Audiotechnik, hrsg. von S. Weinzierl, Berlin 2008, S. 1087-1169. H.-G. Musman, Genesis of the MP3 audio coding standard in IEEE transactions an consumer electronics, in: IEEE 52/3 (August 2006), S. 1043-1049. E. Netoliczka, Zur Geschichte der Physik: Ueber die ältesten Bestrebungen in der Akustik. Graz 1865. M. Neukorn, Signale, Systeme und Klangsynthese, Bern, Berlin und Brnxelles 2005. 0. Neumann, Theorien der Aufmerksamkeit, in: Enzyi<lopädie der Psychologie. Themenbereich C: Theorie und Forschung. Serie 2: Kognition. Bd. 2: Aufmerksamkeit, hrsg. von A.F. Literaturverzeichnis Sanders IN. Birbaumer I D. Frey I J. Kuh! I W. Schneider IR. Schwarzer, Göttingen 1996, S. 559-643. K. Nödl , Metallblasinstrumentenhau. Fach- und Lehrbuch für die Herstellung von Metallb lasinstrumenten, Frankfurt am Main, 1970. I. Newton (1687), Philosophiae Natura lis Principia Mathematica, London 1687. D.A. Norman, Rhythmic fission: Observations an attention, temporal judgments and the critical band. Unpublished manuscript. Center for Cogn itive Studies, Harvard University. Boston, MA 1966. A.C. North I D.J. Hargreaves, The social and applied psychology of music, Oxford 2008 . M. Oehler, Die digitale Impulsformung als Werkzeug für die Analyse und Synthese von Blasinstrumenten.klängen, Frankfurt/Main 2008. M . Oehler, Dichotisch / Binaural, in: L exikon. der Systematischen. Musikwissenschaft, hrsg. von H. de la Motte I H. v. Loesch IG . Rötter I Chr. Utz, Laaber 2010, S. 86-87. J.J. Ohala, The whole body plethysmograph in speech research, in: Journal of the Acoustical Society of America 93/4 (1993), S. 2416. G.S. Ohm, Über die Definition des Ton.es, nebst daran geknüpfter Theorie der Sirene und ähnlicher tonbildender Vorrichtungen, in: Annalen der Physik und C hem ie 59, 1843 = Annalen der Physik und Chem ie, Zweite Reihe, 29, 1843, S. 513-565. H.F. Olson, Music, physics an.d engineering, New York 1967. W. Opelt, Ueber die Natur der Musik, Plauen 1834. C.V. Pa li sca, The Florentine Camerata: Documentary studies and translatio11s. New Haven, CT, 1989. B.H. Pandya I G.S. Settles I J.D. Miller, Schlieren imaging of shock waves from a trumpet, in: Journal of the Acoustical Society of America 114/6 (2003), 3363-3367. D. Pantalony, Altered sensations: Rudolph Koenig's acoustical workshop in nineteenth-cen.tury Paris, Dordrecht 2009. R. Parncutt, Harmony: A psychoacoustical approach, Berlin und Heidelberg 1989. J. Paulu s IM. Müller I A. Klapuri, Audio-based music structure analysis, in: Proceedin.gs of the 11th International Conference on Music Information Retrieval (ISMIR), hrsg. von J.S. Downie und R.C. Veltkamp, Utrecht 2010, S. 625-636. E. Petzold, Elementare Raumakustik, Berlin 1927. S. Philipp, MIDI-Kompendium 2, Fränkisch-Crumbach 1986. A.D. Pierce, Basic linear acoustics in: Springer Han.dbook of Acoustics, hrsg. von T.D. Rassing, New York 2007, S. 25-111. K. Ploc h, Sampling. Theorie und Praxis für Einsteiger und Profis, München 1988. R. Pl omp I J.M. Levelt, Tonal consonance and f ritical bandwidth, in: Jou rna l of the Acoustica l Society of America 38, 1965, S. 548-560 R. Plomp, Pitch of camp/ex tones, in: Journal of the Acoustical Society of America 41 (1967), S. 1526-1533 . D.J. Povel IP. Essens, Perception of temporal patterns, in: Music Perception 2/4 (1985), S. 411- 440. R.L. Pra tt I J.M. Bowsher I R.A. Smith, The measurement of the acoustic impedan.ce of hrass instrumen.ts, in: Acustica 38 (1977), S. 236-246. K.B. Quiring: The new anechoic room at the Institute for Musical Acoustics (IWK), University of Music and Performing Arts, Vien.na, in: Proceedings of the Inter-Noise 2007, Istanbul 2007. M. Raffel I C. Willert I S. Wereley I J. Kompenhans, Particle image velocimetry: A practical guide. Berlin und New York 2007. T. Rahne, Beeinflussung von auditorischer Objektbildung durch visuelle Stimulation. Berlin 2008. J. Ph. Rameau, Nouveau systeme de musique thearique, Paris 1726. 338 339 Literaturverzeichnis Literaturverzeichnis 0. Ranke I F.H . Lullies, Physiologie der Stimme und Sprache, Berlin 1953. C. Raphael I Y. Gu (2009), Orchestral accompaniment for a reproducing piano , in: Proceedings of the International Computer Musi c Conference, Montreal 2009, S. 501-504. H .-P. Reinecke, Über den dopf1elten Sinn des Lautheitsbegriffes beim musifwlischen Hören, Hamburg 1953. G. Reiss I W. Walkowiak I H.-P. Zenner I P.K. Plinkert I E. Lehnhardt, Das stato-akustische Organ - Ein Bildatlas zur Evolution, Physiologie und Morphologie, Hannover 1989. Chr. Reuter, Der Einschwingvorgang nichtperfwssiver Musikinstrumente, Frankfurt 1995. Chr. Reuter, Die auditive Disl<rimination von Orchesterinstrumenten, Frankfurt 1996 Chr. Reuter, Vers chmelzung und partielle Verdeckung, in: Fortschritte der Akustik, DAGA 2000, Oldenburg 2000, S. 176-177. Chr. Reuter, Klangfarbe und Instrumentation , Frankfurt 2002. Chr. Reuter, Wie und warum in der Geschichte der Klangfarbenforschung meistenteils am Klang vorbeigeforscht wurde, in: Systemische Musikwissenschaft. Festschrift Jobst Peter Fricke zum 65 .Geburtstag, hrsg. von Wolfgang Niemöller, Frankfurt 2003, S. 293-301. Chr. Reuter, Von der Physik der Klangfarben zur Psychologie der Klangfarben, in: Musikpsychologie - Musif:wlische Begabung und Expertise, Band 17, hrsg. von K. -E. Behne IG. Kleinen I H. de la Motte-Haber, Göttingen 2004, S. 107-125. G. Revesz, Zur Grundlegung der Tonpsychologie, Leipzig 1913. G. Revesz, Zur Geschichte der Zweikomponenten/ehre in der Tonpsychologie, in: Zeitschrift für Psychologie 99 (1926), S. 325-356. T.L. Rhea, The evolution of electronic musical instruments in the United States, Dissertation, Nashville 1972. H. Riemann, Die objektive Existenz der Untertöne in der Schallwelle, Kassel 1875. H. Riemann, Katechismus der Akustik, Leipzig 1891. R.J. Ritsma, Existence region of tonal residue I, in: Journal of the Acoustical Society of America 34 (1962), s. 1224-1229. C. Roads, The computer music tutorial, Cambridge 2000. F. Robartes, A discourse concerning the musical notes of the trumpet, and the trumpet marine, and of defects of the same, in: Philosophical Transactions of the Royal Society 16, 1686-92, s. 559-563 . D.W . Robinson I R.S. Dadson, A re-determination of the equal-loudness relations for pure tones, in: BritishJournal of Applied Physics 7 (1956), S. 166-181. J.G. Roederer, Physikalische und psychoakustische Grundlagen der Musif<, Berlin, '2000. H. Rösing, Objektiver Klang und subjektiver Klangeindruck der Musikinstrumente (l), in: Das Musikinstrument 15 (1966), S. 1232-1234. H. Rösing, Musikgebrauch im täglichen Leben, in: Musikwissenschaft. Ein Grundkurs, hrsg. von H. Bruhn und H. Rösing, Reinbek 1998, S. 107-129. D.F. Rosenthal, I H.G. Okuno (Hrsg.), Computational auditory scene analysis. Mahwah, NJ. 1998. W.D. Ross (1936), Aristotle's Physics. A revised text with introduction and commentary, Oxford 1936. Th.D. Rossing (1988), Die Pauke, in: Die Physik der Musikinstrumente, hrsg. von K. Winkler, Heidelberg 1988, S. 128-135. Th.D. Rossing (Hrsg.), Springer handbook of acoustics, New York 2007. Th.D. Rossing, Science of percussion instruments, Singapore 2008. Th.D. Rossing, The science of string instruments, New York 2010. Th.D. Rossing I R.F. Moore I P.A. Wheelder, The science of sound, San Francisco u.a. 2002. A. Ruschkowski, Elektronische Klänge und musifwlische Entdeckungen, Ditzingen 1998. M. Russ, Sound sampling and synthesis, Oxford 1998. 340 H.S. Sabine, Building acoustics in America, 1920-1940, in: Journal of the Acoustical Society of America 61 (1977), S. 255-263. W.C. Sabine, Collected papers an acoustics, Cambridge/Mass. 1922. C. Sachs, The history of musical instruments, New York 1940. W. Sandner, Sound & Equipment, in: Rockmusik - Aspehte zur Geschichte, Ästhetik, Produhtion, hrsg. von W. Sandner, Mainz 1977, S. 81-99 . J. Sauveur (1984), Collected writings an musical acoustics, hrsg. von Rudolf Rasch Utrecht 1984. , Z . Schärer I A. Lindau, Evaluation of equalization methods for binaural signals, in: AES 126th Convention, Munich, Germany, 2009, Paper 7721. J. H. Scheibler (1834), Der physikalische und musikalische Tonmesser, Essen 1834. F. Scheminzky, Die Welt des Schalles, Wien, 1943. W . Sch.iffner, Einflüsse der Technik auf die Entwichlung von Rock/Pop-Musik, Hamburg 1991. H. Sch1mank, Zur Frühgeschichte der Ahustik, in: Akustische Zeitschrift 1 (1936), S. 106. M. Schleske, Modalanalyse im Geigenbau - Vom praktischen Nutzen physikalischer Forschung im Musikinstrumentenbau. Teil I: Grundlagen, in: Das Musikinstrument 4112-3 (1992), S. 98-106. H. Schole, Experimentelle Untersuchungen an höchsten und an l<ürzesten Tönen, in: Zeitschrift für Psychologie 131 (1934), S.1- 6 3. H. Scholl, Trägheitserscheinungen beim Gehör, in: Aufnahme und Verarbeitung von Nachrichten durch Organismen, Stuttgart 1961, S. 56-62. J.F. Schouten, The perception of pitch, in: Philips Technical Review 5110 (1940), S. 286-294. ].F. Schouten, The perception of subjective tones, in: Proceedings of the Koninhlijke Nederlandse Akademie van Wetenschappen te Amsterdam 41 (1938), S, 1086-1094. J.F. Schouten, The residue, a new component in subjective sound analysis, in : Proceedings of the Koninklijke Nederlandse Akademie van Wetenschappen 43, 1940, S. 356-365. J.F. Schouten, The residue revisited, in: Frequency Analysis and Periodicity Detection in Hearing, hrsg. von R. Plomp I G.F. Smoorenburg, Leiden, 1970, 41-53. Chr. E. Schreiner I G. Langner, Periodicity coding in the inferior colliculus of the cat. II. Topographical organization, in: Journal of Neurophysiology, 6016 (1988), S. 1823-1840. M. Schreiner, Wilson & Wilson's comprehensive analytical chemistry, Val. XLII: Nondestructive microanalysis of cultural heritage materials, Amsterdam 2004, S. 713-754. M. Schroeder, Acoustics in human communications: room acoustics, music, and speech, in: Journal of the Acoustical Society of America 68 (1980), S. 22-28 . H. Schulze I H. Scheich I G. Langner, Periodicity coding in the auditory cortex: What can we learn from learning experiments, in: Psychophysics, physiology and models of hearing, hrsg. von T. Dau /V. Hohman I B. Kollmeister, Singapore, New Jersey 1999, S. 21-26. K.E. Schumann, Akustik, Breslau, 1925. K.E. Schumann, Physif< der Klangfarben, Berlin 1929. A. Seebeck, Ueber die Sirene, in: Annalen der Physik und Chemie 60, 1843 =Anna len der Physik und Chemie, Zweite Reihe, 30, 1843, S. 449-481. A. Seebeck, Über die Definition des Tones, in: Annalen der Physik und Chemie 63 (1844), S. 353-368. W. Seidner I J. Wender, Die Sängerstimme. Phoniatrische Grundlagen der Gesangsausbildung. Berlin '1997. H . Selg I W. Bauer, Forschungsmethoden der Psychologie, Stuttgart (Kohlhammer) 1971. C.R. Shackford, Same aspects of perception. II. lnterual sizes and tonal dynamics in perform ance, in: Journal of Music Theory 6 (1962), S. 66-90 C.R. Shackford, Same aspects of perception. fII. Addenda, in: Journa l of Music Theory 6 (1962), s. 295-303. 341 Literaturverzeichnis Literaturverzeichnis R.S. Shankland, Architectural acoustics in America to 1930, in: Journal of the Acoustical Society of America 61 (1977), S. 250-254. D.B. Sharp, Acoustic pulse ref/ectometry for the measurement of musical wind instruments, PhD Thesis, University of Edinburgh, Physics Department 1996. R.N. Shepard, Circularity in judgments of relative pitch, in: Journal of the Acoustical Society of America 36/12 (1964), S. 2346-2353 . B.G. Shinn-Cunningham, Object-based auditory and visual attention, in: Trends in Cognitive Sciences, 12/1 (2008), S. 82-86. R. Shuter-Dyson I C. Gabriel, The psychology of musical ability, 2. Aufl. London (Routledge & Kegan Paul) 1982. D.K. Simonton, Thematic fame, melodic originality, and musical Zeitgeist: A biographical and transhistorical content analysis, in: Journ al of Personality and Social Psychology 38 (1980), s. 972-983 . E. Skudrzyk, Die Grundlagen der Akustik, Wien, 1954. K.M. Slavik, Anschlusstechnik, Interfaces, Vernetzung. m: Handbuch der Audiotechnil<, hrsg. von S. Weinzierl, Berlin 2008, S. 945-1034. J.A. Sloboda, Music structure and emotional response: Same empirical findings, in: Psychology of Music 19 (1991), S. 110-120. A. Smirnov / B. Yankovsky, Leben im Klangspektrum, in: Klangmaschinen zwischen Experiment und Medientechnik, hrsg. von D. Gethmann, Bielefeld 2010, S. 97-120. J.O. Smith III, Physical modeling using digital waveguides, in: Computer Music Journal, 16/4 (1992), s. 74-91. J.O Smith I S. Hausfeld / R.P. Power / A. Gorta, Ambiguous musical figures and auditory streaming, in: Perception & Psychophysics 32/5 (1982), S. 454-464. R.A. Smith, It's all in the bare. ITG Journal 12 (May), Reprint, 1988. G.F. Smoorenburg, Pitch perception of two-frequency stimuli, in: Journa l of the Acoustical Society of America 48 (1970), S. 924-942. G.A. Sorge, Anweisung zur Stimmung und Temperatur, Hamburg 1744. G.A. Sorge, Vorgemach der musicalischen Composition, Lobenstein 1745. A.G. Sotiropoulou I R.J. Hawkes / D.B. Fleming, Concert hall acoustic evaluations by ordinary concert-goers: I, Multi-dimensional description of evaluations, in: Acustica 81 (1995), S. 1-9. C. Spence I V. Santangelo, Auditory attention, in: The Oxford Handbook of auditory science. Hearing, hrsg. von C.J. Plack, Oxford 2010, S. 249-270. M. Spitzer, Musik im Kopf, Stuttgart 2002. J. Stange, Bedeutung der elektroakustischen Medien für die Musik im 20. Jahrhundert, Pfaffenweile 1989. J. Stange-Elbe, Das musilwlische Interface. Von der Trommel bis zum virtuellen Instrument, in: Mathematische Musik - musikalische Mathematik, hrsg. von B. Enders, Saarbrücken 2005 177-194. W . Stauder, Einführung in die Akustik, Wilhelmshaven u.a. 1979. U. Steudel, Über die Empfindung und Messung der Lautstärke, m: Hochfrequenztechnik und Elektroakustik 41 (1933), S. 116-128. S.S. Stevens, A Scale for the measurement of a psychological magnitude: Loudness, in: Psychological Review 43/5 (Sep 1936), S. 405-416. S.S. Stevens, Calculation of the loudness of complex noise, in: Journal of the Acoustical Society of America 28 (1956), S. 807-832. S.S. Stevens, Procedure for calculating loudness: Mark VI, in: Journal of the Acoustical Society of America 33/11 (1961), S. 1577-1585. S.S. Stevens, On the psychophysical law, in: Psychological Review 64 (1957), S. 153-182. 342 S.S. Stevens I D. Hallowell, Hearing: Its psychology and physiology, New York, London und Sidney 1938. S.S. Stevens I E.B. Newman, The localization of actual sources of sound, in: American Journal of Psychology 48 (1936), S. 297-306. S.S. Stevens I ]. Volkmann I E.B. Newman, セ@ Scale .for the measurement of the psychological magmtude p1tch, m: Journal of the Acoust1cal Soc1ety of America 8 (1937), S. 185-190. A. Stickel, Faszination Gehör - Entdeclmngsreise in die Welt des Klangs, Bergkirchen 2003, S. 36. K. Stockhausen, Elektronische Musik und Automatik, in: Texte zur Musik 1963-1970 Band 3 ' ' hrsg. von D. Sehnebel, Schauberg und Köln 1971, S. 232-236. C. Stumpf, Tons/Jsychologie, Band 2, Leipzig 1890. C. Stumpf, Die Sprachlaute, Berlin 1926. J. Sundberg, The acoustics of the singing voice, in: Scientific American 3 (1977), S. 82-91. ]. Sundberg, Die Wissenschaft von der Singstimme, Bonn 1997. M. Supper, Elektroakustische Musik und Computermusik . Geschichte, Ästhetik, Methoden, Systeme, Hofheim 1997. E. Sussman, Integration and segregation in auditory scene analysis, in: Journal of the Acoustical Society of America 117/3 (2005), S. 1285-1298. I. Szab6, Einführung in die technische Mechanik, Berlin, '2002. T. Tarnoczy (1991), Einführung in die musikalische Akustik, Budapest 1991. G. Tartini, Trattato di Musica, Padua 1754. B. Taylor, De motu nervi tensi, in: Philosophical Transactions of the Royal Society 28, 1712-13, s. 26-32. G. ten Hoopen, Auditive Aufmerkamkeit, in: Enzyklopädie der Psychologie. Themenbereich C: Theorie und Forschung. Serie 2: Kognition. Bd. 2: Aufmerhsamkeit, hrsg. von A.F. Sanders/ N. Birbaumer I D. Frey / J. Kuh!/ W. Schneider/ R. Schwarzer, Göttingen 1996, S. 115-161. E. Terhardt, Zur Tonhöhenwahrnehmung von Klängen. I. Psychoakustische Grundlagen, in: Acustica 26 (1972), S. 173-186. E. Terhardt, Ein psychoakustisch begründetes Konzept der musikalischen Konsonanz, in: Acustica 36 (1976), S. 121-146. E. Terhardt, Fourier Transformation of Time Signals: Con.ceptual Revision., in: Acustica 57 (1985), S. 242-256. E. Terhardt, Akustische Kommunilwtion., Berlin 1998, S. 220-222. S. Ternström I H. Jers I J. Nix, Group and Ensemble Vocal Music, in: The Oxford Handbook of Music Education, hrsg. Von G. R. McPberson / G. F. Welch, Oxford University Press (2012), 580-593. f P. Toiviainen, Musikalische Wahrnehmung und Kognition im Computermodell, in : Musi/:i.psy chologie. Das neue Handbuch, hrsg. von H . Bruhn, R. Kopiez und A.C. Lehmann, Reinbek bei Hamburg 2008, S. 476-489. T. Tolonen /V. Välimäki / M . Karjalainen, A new sound synthesis structure for modeling the coupling of guitar strings, in: NORSIG'98, Vigso, Denmark 1998, S. 205-208. Y. Tougas / A.S. Bregman, Auditory streaming and the continujty illusion, in: Perception & Psychophysics 47 (1990), S. 121-126. T.H. Townsend / D.P. Goldstein, Suprathreshold binaural unmasking, in: Journal of the Acoustical Society of America 51 (1972), S. 621-624. A.M. Treisman / G. Geffen, Selective attention: Perception or response? in: Quarterly Journa l of Experimental Psychology 19 (1967), S. 1-17. D. Ullmann, Chladni und die Entwicklung der Akustik von 1750-1860, Basel 1996. E. Ungeheuer, Wie die elektronische Musik »erfunden« wurde, Mainz 1992. M. Vail, Vintage synthesizers, San Francisco 2000. 343 Literaturverzeichnis L.P.A.S. van Noorden, Tempora/ cohe"rence in the perception of tone sequences. Ph.D. dissertation Tech. Hogeschool, Eindoven 1975. L.P.A.S. van Noorden, Minimum differences of Level and frequency for perceptual fission of tone sequences ABAB, in: Journal of the Acoustical Society of America 61 (1977), S. 1041-1045. I. Veit, Technische Akustik, Würzburg 1974. H. Vereecke I W. Kausel , Carbon fiber reinforced polymer, an alternative to brass? In: International Trumpet Guild Journal, October 2012, S. 41-43. C. Vergez I X. Rodet, Experiments with an artificial mouth for trumpet, In: Proceedings of the International Symposium an Musical Acoustics, Leavenworth 1998, S. 153-158. G. Vicario, L'effetto tunnel acustico, in: Rivista di Psicologia 54 (1960), S. 41-52. G. Vicario, Same observations in the auditory field, in: Organization and Representation in Perception, hrsg. von J. Beck, Hillsdale, N .J. 1982. 0. Vierling, Das elektroakustische Klavier, Berlin 1936. 0. Vierling, Eine neue elektrische Orgel, Habilitation, Berlin 1938. W. Voigt, Untersuchungen zur Formantbildung in Klängen von Fagott und Dulzianen. Regensburg 1975. W. Voigt, Dissonanz und Klangfarbe, Bonn 1985. G. von Bekesy, Zur Theorie des Hörens. Über die Bestimmung des einem reinen Tonempfinden entsprechenden Erregungsgebietes der Basilarmembran vermittels Ermüdungserscheinungen, in: Physikalische Zeitschrift 30 (1929), S. 115-125. G. von Bekesy, Über die Hörschwelle und Fühl.grenze langsamer sinusförmiger Luftdruckschwankungen, in: Annalen der Physik 418/6 (1936), S. 554-566 G. von Bekesy, Über die Resonanzkurve und die Abklingzeit der verschiedenen Stellen der Schneckentrennwand, in: Akustische Zeitschrift 8 (1943), S. 66-76. G. von Bismarck, Extraktion und Messung von Merkmalen der Klangfarbemvahrnehm ung stationärer Schalle, München 1972. Chr. von Campenhausen, Die Sinne des Menschen , Stuttgart 1981. Chr. von Ehrenfels, Ueber »Gestaltqualitäten «, in: Vierteljahresschrift für wissenschaftliche Psychologie 14/3 (1890), S. 249-292. H. von Helmholtz, Die Lehre von den Tonempfindungen als physiologische Grundlage für die Theorie der Musik, Braunschweig 1863. M. Vorländer, Auralization. Fundamentals of acoustics, modelling, simulation, algorithms and acoustic virtual reality, Heidelberg 2008. H. Wagner, Aristoteles, Physikvorlesung(= Werke in deutscher Übersetzung Band 11), Berlin 5. Aufl. 1995. K.W. Wagner, Einführung in die Lehre von den Schwingungen und Wellen, Halle, 1947. W . Wallach/ E.B. N ewman / M .R. Rosenzweig, The precedence effect in sound localization, in: The American Journal of Psychology 62 (1949), S. 315-336. J. Wallis, On the trembling of consonant strings: A new musical discovery, in: Philosophical Transactions of the Royal Society 7, 1677, S. 839ff. K. Walliser, Zusammenhänge zwischen dem Schallreiz und der Periodentonhöhe, in: Acustica 21 (1969), s. 319-329. K. Walliser, Zur Unterschiedsschwelle der Periodentonhöhe, in: Acustica 21 (1969), S. 329-336. H. Wandler, Technologie und Sound in der Pop - und Rockmusik -Entwicklung der Musikelektronik und Auswirlwngen auf Klangbild und Klangideal, Osnabrück 2012. D. Wang, Primitive auditory segregation based an oscillatory correlation, in: Cognitive Science 20 (1996), s. 409- 456. D. Wang / G.J. Brown, Computational auditory scene analysis: Principles, algorithms, and applications. Hoboken 2006. 344 Literaturverzeichnis s. 392_ 393. , R.M. Warren, Auditory perception. An analysis and synthesis. Cambridge 2008. R.M. Warren I J.M. Wrightson I J. Puretz, Illusory continuity of tonal and infratonal periodic sounds, in: Journal of the Acoustical Society of America 84/4 (1988), S. 1338-1342. R.L. Wegei / C.E. Lane, The auditory masking of one pure tone by another and its probable relation to the dynamics of the inner ear, in: Phys iological Review 23 (1924), S. 266-285. R. Weidenaar, Magie music from the Telharmonium, Metuchen, New Jersey und London 1995. S. Weinzierl, Beethovens Konzerträume. Raumakustik und symphonische Aufführungspraxis an der Schwelle zum modernen Konzertwesen, Frankfurt 2002. S. Weinzierl, Grundlagen in: Handbuch der Audiotechnik, hrsg. von S. We inzierl, Berlin 2008. S. Weinzierl, Aufnahmeverfahren, in: Handbuch der Audiotechnik, hrsg. von S. Weinzierl, Berlin 2008, S. 747-812. S. Weinzierl I H. Rosenheinrich I J. Blickensdorff / M. Horn / A. Lindau, Die Akustik der Konzertsäle im Leipziger Gewandhaus. Geschichte, Rekonstruktion und Auralisation, in: Fortschritte der Akustik, DAGA 2010, S. 1045-1046. A. Wellek, Die Aufspaltung der »Tonhöhe« in der Hornbostelsche n Gehörpsychologie und die Konsonanztheorien von Harnbastei und Krueger, in: Zeitschrift für Musikwissenschaft XVI, 10/12 (1934), s. 481-553. A. Wellek, Typologie der Musikbegabung im deutschen Volke. Grundlegung einer psychologischen Theorie der Musik und Musikgeschichte. Mit allgemeinpsychologischen Beiträgen zur 2 » Tonhöhen«-Unter-schiedsem/;findlichkeit, München 1939 ( 1970). K. Wendt, Das Richtungshören bei Zweikanal-Stereophonie, in : Rundfunktechnische Mitteilungen 8/3 (1964), S. 171-179. M. Wertheimer, Untersuchungen zur Lehre von der Gestalt, in: Psychologische Forschung 5 (1923), s. 301-350. D.L. Wessel, Timbre space as a musical control structure, in: Foundations of Computer Music, hrsg. von C. Roads / J. Strawn, Cambridge und London 1985, S. 640-657. R. Westphal, Aristoxenos von Tarent: Melik und Rhythmik des classischen Hellenentums, 2 Bde. Leipzig 1883, 1893. E.G. Wever / C.W. Bray (1930), Auditory nerve impulses, in: Science 71, 1930, S. 215. G. Widholm, BIAS - Eii1 Computersystem zur Beurteilung der Qualität von Blasinstrumenten, in: Instrumentenbau-Zei tschrift, Nr. 40/32 (1993), S. 45-49. G. Widholm, The influence of valve mechanisms an the microstructure of slurs played with brass wind instruments, in: Proceedings of the International Symposium of Musical Acoustics 1997, S. 407-412. , G. Widholm, Wiener Klangstil - Fakten und Hintergrundinformation am Beispiel der Wiener Philharmoniker, in: Skriptum Internationales Orchesterinstitut Attergau, Attergau 2012, S. 15-27. W. Wille, Das Verhalten musikalischer Intervalle in mittleren und hohen Tonlagen, Diss. Hamburg 1959. F. Winckel, Phänomene des musikalischen Hörens, Berlin und Wunsiedel 1960. F. Winckel, Optimum acoustic criteria of concert halls for the /Jerformance of classical music, in: Journal of the Acoustical Society of America 34 (1962), S. 81-86. I. Winkler / E. Kushnerenko / J. Horvath / R. Ceponien· / V. Fellman / M. Huotilainen / R. Näätänen / E. Sussman, Newborn infants can organize the auditory world, in: Proceedings of the National Academy of Sciences of the United States of America, 100120 (2003), S. 1181211815. R .P. Winnington-Ingram (Hg.), Aristidis Quintiliani de musica libri tres, Leipzig 1963. P.H. Winston, The psychology of computer vision. N ew York 1975. R.M. Warren, Perceptual restoration of missing speech sounds, in: Science 167 (1970) 345 Literaturverzeichnis K. Wagram, Einfluss von Material und Oberflächen auf den Klang von Blechblasinstrumenten, in: Instrumentenbau-Zeitschrift 5 (1976), S. 414-418. K. Wagram, Akustische Auswahll<riterien bei Blechblasinstrumenten, in: Das Instrumentalspiel, Bericht vom internationalen Symposion, hrsg. von G. Widholm / M. Nagy, Wien und München 1989, S. 119-136. N.L. Wood / N. Cowan, The cocktail party phenomenon revisited: Attention and memory in the classic selective listening procedure of Cherry (1953), in: Journal of Experimental Psychology: General 124 (1995), S. 243-262. T. Young, Untersuchungen über Schall und Licht, in: Annalen der Physik 22, 1806, S. 337-396. W.A. Yost, The cocktail party effect: 40 years later, in: Localization - Binaural and spatial Hearing in real and virtual Environments, hrsg. von R. Gilkey / T. Anderson, Hillsdale 1997, s. 329-347. W. Yost, Fundamentals of hearing, San Diego ' 2007. P.G. Zimbardo / R.J. Gerrig, Psychologie, München "2004. G. Zupanc, Behavioral neurobiology: An integrative approach, Oxford and New York, 2004. E. Zwicker, Subdivision of the audible frequency range into critical bands, in: Journal of the Acoustical Society of America 33/3 (1961), S. 248-249. E. Zwicker, Psychoakustik, Berlin und Heidelberg (Springer) 1982. E. Zwicker/ H. Fast!, Psychoacoustics: facts and models, Berlin 1990. E. Zwicker/ R. Feldtkeller, Das Ohr als Nachrichtenempfänger, Stuttgart 2 1967. E. Zwicker/ G. Flottorp / S.S. Stevens, Critical band width in loudness summation, in: Journal of the Acoustical Society of Arnerica 29 (1957), S. 548-557. MGG2 = Die Musik in Geschichte und Gegenwart, 2. vollständig neu bea rbeitete Auflage, hrsg. von L. Finscher; Kassel, Stuttgart 1994 ff. Register Absorption 17, 32, 49, 150f., l57f. additive Synthese 16, 263ff., 270f., 275, 279, 283 Admittanz 71, 73, 118f. Akkulturation 231 Amplitude 26, 30ff., 33, 36f., 4lf., 44, 46f., 50f., 53f., 59, 62, 67, 69f., 73,9lf.,98, lOlf., QSヲNLセ@ 119, 123, 135, 137, 146, 164, 163, 167,170, 177,192,193,212,214, 248, 264, 270ff., 274f., 300, 315f., 318,321 Audiokodierung 314, 317f., Audiospeicherung 12, 16, 17, 54, 83, 243,263,277,279,281f.,289, 292, 299, 314, 316f. Audioübertragung 11, 12, 58, 83, 292, 302f., 304, 306ff., 309, 314ff., 317f. Auditorische Szenenanalyse 18, 190, 193, 195-217 Auralisa tion 15 2 Bark 60, 61, 62, 168, 172 Basilarmembran 18, 60, 63, 162f., 167, 173 Bassverhältnis, Bass Ratio, BR 155 Bekesy, G. von 34 Bernoulli, D. 25f. Bernoulli-Effekt 90, 104f., 135, 321 Beugung17,143, 146, 152 Biegewellen 55 Binaural 214, 322 Binaural Masking-Level Difference 213 Blauertsche Bänder 212f. 346 Blechblasinstrumente 10, 73, 75, 75, 79, 89-103, 104, 107, 109, 194 Boethius 20 Cent104, 105, 126,127, 128, 132, 137, 146,321 Chladni, E.F.F. 26f., 56 Chladnische Klangfigur 26f., 56 68 Chor 64, 134, 145-147, 157, 222, 277, 312 Cocktailparty-Effekt, CPE 211-216, 322 Continuity Illusion 216f. Dämpfung 38, 41, 42, 44, 48, 49, 57, 94, 100, 101, 102, 104, 121, 124, 150,268 Dezibel (dB) 49, 179f., 316 Dichotisch 206, 211, 213, 322 difference limen, DL 128 diotisch 206, 211, 213, 322 Dissonanz 18, 19, 33, 137, 227f., 321, 323 Drosselung 172, 173, 176, 178, 184, 186-187, 188, 204 eben merklicher Unterschied 128-129, 173, 179, 180,227 Eingangsimpedanz 73, 75, 80 Einschwingvorgang 42, 68 elektrische/elektronische Musikinstrumente 12, 16, 17, 34, 234-301 Elektrophon 16, 234-301 セャイ・QVLSY@ 168, QWLRセV@ 256, 262, 265, 267ff., 277, 282, 285,289 347 -------1 Register Register Formant 32, 62, 139f.,142, 176, 185, 190, 192f.,214,266,269,281, 322 Formantgesetze 190, 192f., 322 Fourier, J.B.J. de 25, 29, 34, 53f., 60, 63, 71,263,283,324 Frequenzgruppenbreite 33, 167f., 178, 183,210,216 Frühe Reflexionen 149, 151, 155, 160, 161 Galilei, G. 22 Galilei, V. 21 gedackte Pfeife 51, 193, Gehörll,15,31,33,35,36,37,57, 58, 82, 161-164, 165, 167, 168, 170, 173, 176, 179, 180, 183, 185, 186, 188,263,317 Gekoppelte Schwingung 40, 56f. 276 Geometrische Akustik 17, 146, 149, 151 Gesangsstimme 133-147, 303 Gesetz der ersten Wellenfront, Präzedenzeffekt 213 Gestaltpsychologie 18, 196f., 215, Granularsynthese 263, 275, 283 Grundton 22, 23, 25, 29, 30, 62, 123, 136, 139, 141, 143, 173, 175, 176, 177, 178, 182, 192, 193,263,271, 288 Gütekriterien (Musikpsychologisches Experiment) 81f. Haarzellen 18, 163 Harmonie 12, 18, 137, 227, 229ff., 232 Helligkeit 171, 191, Helmholtz, H. von 9, 12, 28, 29, 31, 32, 57, 120, 131, 189, 190, 195,282 Helmholtz-Resonator 30, 57, 120 348 Holzblasinstrumente 66, 73, 103-109 Hörbahn 16, 18, 163 Hörexperimente 81-86 Hörsamkeit 154ff., 160 Hörschwelle 18, 82, 83, 84, 101, 164f., 180, 181, 185, 188, 189,204,317, 319 Hörtoleranz 128 Hüllkurve 41, 138, 151, 264, 265, 272, 282,283 Hüllkurvengenerator 264, 268, 285 Hypothese 83f., 86, 211 Impedanz 57, 73ff., 79, 80, 95, 101, 107, 108, 162, 306 Impulsantwort 71, 80, 152f., 154, 155, Innenohr 18, 32, 34, 60, 161ff., 174, 185 Integrationszeiten 168ff., 188, 209, 210, 216 Interferenz 24, 68, 69, 143, 312, 322 Interferometrie 68, 70, 71, 322 Intervall 19, 21, 22, 26, 48, 126, 127, 130, 132, 137, 172, 199,200,201, 210,225,281,321,322,323 Intonation 11, 63, 73, 78, 93, 94, 95, 100, 101, 105, 106, 126-132, 137, 145,292 Klang 9, 10, 12, 16, 25, 26, 31, 32, 33, 34,50,51,52,53,55,57,58,59, 60,61,62,63,65,67, 76,91, 102, 105, 107, 109, 111, 112, 113, 114, 115, 119, 120, 123, 124, 125, 133, 138, 145, 148, 164, 170, 171, 173, 175, 176, 182, 184, 189ff., 195, 196,202,203,206,207,208,209, 212,214,216,218,227,228,229, 231,232,236,243,256,262,263, 264,266,267,269,270,273,274, 277,278,279,281,282,283,292, 299,300,303,312,313, 321,322, 323,324,325 Klangbreite 127 Klangfarbe 9, 10, 11, 12, 16, 23, 25, 31, 32,62,63,81,92,93,99, 100, 101, 102, 104, 105, 106, 108, 109, 110, 113, 115, 132, 134, 143, 145, 146, 148, 155, 164, 165, 189-194, 196, QYWLRPセSU@ 221,225,264,266,267,269,273, 275,282,292,298,299,302,323 Klangfarbenwahrnehmung 11, 32, 33, 85, 140, 146, 154, 155, 164, 168, 170, 189-194, 202f. Klangfülle 12, 156, 157, 160 Klanghaftigkeit 227, 228 Klangsynthese 17, 30, 34, 55, 262, 262284, 298, 299, 301 Klarheitsmaß C80 154f., 156 Kombinationstöne 18, 32, 173ff. Konsonant134, 141, 142, 143, Konsonanz 18, 19, 26, 131, 132, 137, 145, 227ff„ 323 Konzertsaal 12, 144, 148, 152, 158f., 218 Kunstkopf 60, 154, 308f. Lautheit 33, 168, 172, 182ff., 214, 227, 308 Lautsprecher 12, 18,43, 55, 64,74, 152, 153, 176,238,248,266, 302, 303-308,309,310,311,312,313, 314 Lautstärke 11, 36, 37, 47, 59, 61, 65, 66, 81, 94, 99, 100, 101, 108, 113, 114, 117, 134, 143, 145, 160, 164, 167, 181f.,184,185, 186,187, 189, 190,196,198,199,207,219, 221,223,225 , 248,264,282,292, 294,308 Lautstärkenwahrnehmung 85, 164, 170, 172, 179-184 Lichtton 176, 240-244, 2 77, 292, Lochsirene 28, 176 Lokalisation 162, 199, 202, 205, 206, 212f., 312 Longitudinalwelle 44, 55, 325 Luftsäule, schwingende 23, 89, 91f., 103, 104, 122, 276 Mager, J. 252f. Masse-Feder-System 37-41, 57, 276 Melodie 11, 18,137, 141, 193, 197, 199,200, 201,204,207,210, 219-223,225,227,231,232,288 Mensur 80, 89, 94f., 100, 101, 107 Mersenne, M. 22, 25 Messverfahren, musikpsychologische 81-86 Messverfahren, physikalische 58-80, 149,308,309,322 MIDI 17, 77, 262, 273, 284-298, 299, 300 Mikrofon 16, 17, 54, 60, 61, 64, 66, 67, 74, 132, 152, 153, 196,251,282, 303-314, 315, 316 Mittelohr 18, 161f. Modalanalyse 67, 68ff. Mode 25, 52, 53-56, 57, 77, 118f., 120124, 324 Modulation 132, 137, 170, 199, 200, 202,205,206,207,209,270-274, 277,283,314 Monaural 322 Monochord 20f. Monotisch 322 349 Register Register - - - - - - - - - - - - - - - - - - - - - - - - l'vioog,R.262,265,269,284,285 l'viorphing 283 l'viundstück 16, 73, 74, 75, 76, 77, 8993, 95, 100, 101, 103ff. l'viusiker 11, 32, 34, 58, 64, 78f., 89, 94, 100, 102, 104, 105, 124, 126, 127, 128,148, 160, 167, 171, 230, 260, 261,278,288,290,303 l'viusikinstrumente 9, 10, 11, 12, 15, 16, 34,41,45,47,58,60,62,65,66, 79,89-125, 155, 161, 169, 170, 176, 184, 185, 188, 190, 192, 193, 195,235-261,284,322 l'viusikpsychologie 11, 16, 18, 81-86, 218-232 Nachhall 17, 147, 148, 149ff., 155, 160, 161, 175 Nachhallzeit 17, 32, 80, 151, 153, 154, 155, 156, 157, 158 nichtlineare Verzerrung 32, 174, 274, 308 Nullhypothese 83f. Obertöne 12, 23, 25, 26, 30, 31, 51, 130, 141, 146, 173,229,271,274, 281 Objektivität 81f. Ohm, G.S. 29 Ohmsches Gesetz der Akustik 29 Pascal (Pa) 43, 165, 324 Perception Time Smear 169f. Periodizität 130f., 319 Phantomschallquelle 3 lOff. Phase 24, 25, 31, 40, 46, 47, 63, 68, 74, 101,212,270 Phasenwinkel 40 350 Physical l'viodeling 263, 275ff. Potenzfunktion 167 Psychoakustik 11 , 16, 18, 33, 81, 82, 83, 161-194, 323 Pythagoras 19 Rauigkeit 68, 101, 227f., 323 Raumakustik 16, 17, 32, 34, 58, 80,146, 148-160 räumliche Wahrnehmung 83, 85, 206, 211-216, 322 Reflexion 17, 32, 48f., 51, 60, 80, 143, 147, 148-153, 155, 160, 169, 170, 213, 276, 308, 325 Reliabilität 82 Residualtöne 33, 165, 173, 175-178, 271 Resonanz, Resonator 10, 16, 20, 22, 30, 31, 32, 41f., 56, 57, 63, 67, 73, 74, 75, 76, 77, 78,91, 104, 107, 108, 118, 120, 124, 130, 134, 162, 226,248,251,269,276,289,321, 324 Resynthese 263, 277, 283 Rhythmus 18, 219, 223-227, 232, 245, 269,279,290 Richtcharakteristik 65, 67, 143, 146, 305ff., 308, 309, 310 Richtungshören 60, 211f., 311 Rl'v1S 62 Sabine,W.C. 32f., 151, 157 Saitenschwingung 23, 25, 111-116, 117, 248,250 Sala, 0 . 256, 267 Sampling 277-284, 298 Sängerformant 57, 140f., 146 Schallabstrahlung 57, 75, 77, 122, 134, 143f., 305 Schallaufzeichnung 15, 16, 17, 18, 33, 314-319 Schallausbreitung 12, 42-46, 47, 48-55 , 149ff., 152,156,276 Schalldruck 43, 44, 46, 48f., 57, 73, 74, 75, 82, 83, 149,150,151, 153,154, 156, 165, 179, 180, 303, 305,306,307,308 Schallfeld 64-67, 75, 149, 150, 152, 154, 155, 156, 186,303,304,308 Schallfeldsynthese 154, 312ff. Schallgeschwindigkeit 20, 24, 27, 43, 48,49,61,94, 162 Schallkennimpedanz 73 Schallleistung 45f., 61, 142, 149, 156 Schallpegel 82, 85, 99, 141, 142, 170, 173, 179ff.,187,189, 193,202, 204,302 Schallquelle 16, 17, 18, 20, 35, 43ff., 64, 120, 143, 146, 148,149, 151, 154, 155, 156, 162, 164, 176, 196, 213,302,310,311,312 Schallstrahl 149ff. Schärfe 148, 191, 227 Schema 196, 197, 202, 215, 220f., 230 Schlaginstrumente 34, 41, 121-125, 193, 194 Schumann, C.E. 34, 190, 192, 322 Schwebung23,29,47f.,70, 131, 167 Schwingung 10, 13, 15, 16, 17, 18 , 20, 22, 23, 25, 26, 27, 29, 35-57, 67, 68,69, 71, 72, 73, 75,89,94, 103, 104, 110, 111, 112, 113, 114, 116, 119, 120, 123, 124, 130, 135, 163, 164,167,169, 170, 177,252,263, 264,265,266,267,271,272,274, 275,276,281,292,303,305,323, 324,325 Sequenzer 259, 269, 279, 287, 290, 291,297,298,299 Shepard-Ton 171, 230 Signal-Rauschabstand 316f. Sinuskurve 36, 40, 246 Sone 33, 61, 183f. Sound Sampling 277-284, 298 Spektral-Centroid 62, 192 Spektrum 29, 51, 53, 54,58, 62, 70, 71, 73,83,98, 101, 117, 119, 120, 138, 140, 141, 145, 191,271,275, 306, 315, 324f. Sprachverständlichkeit 139, 142, 158, 177,215 Stärkemaß G 154, 156f., 160 Stehende Welle 50ff., 55, 89, 91f., 95, 100,102,107,108, 109, 110,325 Stichprobe 83, 86 Stream Segregation 198-21 1 Streichinstrumente 41, 67, 73, 74, 79, 110-121, 122, 193, 194 Stumpf, C. 32, 184, 187, 189, 190, 191, 192,202,228 Synthesizer 246, 247, 259, 262-301 Tempo 62, 102, 146, 200, 201, 204, 221, 223-227, 232 Temporal Summation Time 170 Theremin, L. 252, 260 Timbre Space 191f. Timing 225f., 297 Ton 18, 19, 20, 22, 23, 24, 26, 28, 29, 31,32,33,35,36,37,43,51,53, 66,82,91,93,94,95,97,98,99, 100, 101, 102, 104, 105, 106, 107, 108, 111,120, 123, 126, 127, 128, 351 Register - - - - - - - - - - - - - - - - - - - - - - - - - - - 129, 130, 131, 132, 136, 137, 139, 140, 142, 143, 145, 146, 148, 167, 170, 171, 174, 176, 180, 182, 184, 186,187,188,189,192, 199,200, 201,202,204,205,208,209,216, 219,222,228,229,230,241,243, 246,248,252,256,264,277,281, 282,292,293,295,296,317,323, 325 Tonalität 18, 225, 227, 229f. Tonhöhe 11 , 22, 23, 29, 32, 36, 50,57, 59,62,81,85,90,91,93, 101 , 106, 109, 111, 123, 126, 127, 128, 129, 130, 137, 145, 146, 164, 166, 167, 168,169,171fL, 176,178, 184,187,188,189, 190,192,194, 196,198,208,219,220,225,229, 245,254,257,258,275,277,283, 269,321,325 Tonhöhenunterschiedsschwelle 173 Tonhöhenwahrnehmung 81, 85, 163, 166, 168, 169, 170, 171-178, 179 Tonigkeit 171, 172 Tonometer 29 Torsionswellen 55 Transversalwelle 51, 55, 110, 111, 325 Trautwein, F. 256f., 267 Trommelfell 18, 60, 162, 308 Uhr, innere 223f. 352 Validität 82 verborgene Zweistimmigkeit 207 Verdeckung 11, 18, 33, 165, 168, 169, 170, 176, 178, 183, 184-189,204, 210,213,214,215,216,217,317 Verwischungsschwelle 169f., 206, 209, 210 Vibrato 62, 63, 137, 142, 145, 146, 170, 175, 177,206,238,271 virtuelle Tonhöhe, virtual Pitch 175-178 Vitruv 20 Vokal31,32, 134, 139, 140, 141, 142, 143, 192,269,322 Wanderwelle 163 Weber-Fechnersches Gesetz 166f. Welle 13, 15, 17, 20, 24, 35, 40, 42-57, 61,68, 75, 89,91,92,94,95,99, 100, 101, 102, 107, 108, 109, 110, 111,115, 135, 138, 143, 149, 152, 169,213,304,305,312,322,325 Wellenfeldanalyse 64 Wellenfeldsynthese 65, 312f., Wellenlänge 24, 43, 49ff„ 52, 61, 66, 68,99, 143 Wohlklang 191, 227 Zahlenverhältnisse 19ff., 128 Zurechthören 126ff. Zweikomponententheorie 171 Die Autorinnen, Autoren und Herausgeber Wolfgang Auhagen studierte von 1973 bis 1982 Musikwissenschaft, Kunstgeschichte und Phi losophie an der Georg-August-Universität zu Göttingen und wurde dort mit einer Dissertation zur Geschichte der Tonartencharakteristik promoviert. Von 1982 bis 1987 war er wissenschaftlicher Mitarbeiter am Musikwissenschaftlichen Institut der Universität zu Köln, Abteilung für Musikalische Akustik. 1992 habi lierte er sich an der Universität zu Köln mit einer Arbeit zur auditiven Tonalitätsbestimmung in Melodien. Von 1994 bis 2003 war er Professor für Systematische Musikwissenschaft an der HumboldtUniversität zu Berlin, seit 2003 ist er in gleicher Funktion an der MartinLuther-Universität Halle-Wittenberg tätig. Peter Donhauser, geboren am 6. Dezember 1948, Wien. Studium an der Universität Wien (Mathematik, Physik und Chemie). Unterrichtstätigkeit an einem Gymnasium und für Erwachsenenbildung. Professor an einer pädagogischen Akademie. Aufbau einer interaktiven Physikabteilung im Technischen Museum Wien. Ab 1992 dort Sammlungsleiter für die Bereiche Physik, Musiktechnik, Medizintechnik, Datenverarbeitung, Drucktechnik, Post- und Fernmeldewesen, Rundfunk und Fernsehen, Fotografie und Film. 1997 - 1999 Museumsdirektor, Wiedereinrichtung der Schausammlungen und Eröffnung. Ab 2000 wieder Sammlungsleiter. Ab 2011 Vorlesungen an der Universität Wien zum Themenkreis "elektronische Musik". Zahlreiche Publikationen u.A. über elektronische Instrumente, darunter "Elektrische Klangmaschinen. Die Pionierzeit in Deutschland und Österreich". Roland Eberlein, geboren 1959 in Trossingen, studierte Musikwissenschaft, Psychologie und Kunstgeschichte in GÖttingen, Gießen und Köln,1985 Magisterprüfung in Gießen, 1988 Promotion in Köln mit Theorien und Experimente zur Wahrnehmung musikalischer Klänge, 1994 Gastprofessur an der Universität Hamburg, 1996 Habilitation für Musikwissenschaft an der Universität Köln mit Die Entstehung der tonalen Klangsyntax. Seit 2005 Vorstandsmitglied der Walcker-Stiftung für orgelwissenschaftliche Forschung, seit 2011 ist er deren Vorsitzender. In Orgelkreisen wurde Eberlein bekannt durch sein Lexikon der Orgelregister - Orgelregister, ihre Namen und ihre Geschichte (Köln 2008) und die Monographie Die Geschichte der Orgel (Köln 2011). Er ist Inhaber des auf Orgelpublikationen spezialisierten Siebenquart Verlags, gibt die Reihe Veröffentlichungen der Walcker-Stiftung heraus und betreut die Online-Publikationsplattform der Walcker-Stiftung www.walcker-stiftung.de. 353 Die Autoren Bernd Enders, geb. 1947; Studium an der Staat!. Musikhochschule Köln und Universität zu Köln mit Staatsexamen für das Lehramt an Gymnasien in mehreren Fächern. 1980 Promotion an der Universität zu Köln in Musikwissenschaft, Philosophie und Pädagogik. Seit 1981 Dozent im Fachgebiet Musik/Musikwissenschaft an der Universität Osnabrück, Habilitation 1986; von 1992 bis 1994 Professor im Musikwissenschaftlichen Institut der Universität zu Köln ("Musik im 20. Jahrhundert"), seit 1994 Professor für Systematische Musikwissenschaft an der Universität Osnabrück mit den Schwerpunkten Musiktechnologie, Musikalische Informatik, Multimedia, eLearning. Zahlreiche Publikationen zu wissenschaftlichen, kulturellen und pädagogischen Aspekten dieser Themenbereiche. Initiator und geschäftsführender Leiter der 1997 gegründeten Forschungsstelle Musik- und Medientechnologie an der Universität Osnabrück sowie Gründer und Mitherausgeber des musikwissenschaftlichen online-Verlags epOs-Music. 2009 Gastprofessur am musikwissenschaftlichen Institut der Karl-Franzens-Universität Graz; seit 2012 Direktor des Instituts für Musikwissenschaft und Musikpädagogik an der Universität Osnabrück. Jobst Peter Pricke studierte von 1952 bis 1959 Musikwissenschaft, Physik und Psychologie an den Universitäten Göttingen, Berlin (TU) und Köln und wurde in Köln mit einer Dissertation Über subiektive Differenztöne höchster hörbarer Töne und des angrenzenden Ultraschalls im musikalischen Hören promoviert. Von 1960 bis 1961 und von 1963 bis 1970 war er Assistent am Musikwissenschaftlichen Institut der Universität zu Köln. 1969 habilitierte er sich an dieser Universität mit einer Arbeit über Intonation und musikalisches Hören. 1970 wurde er zum Professor ernannt und hat im selben Jahr die Abteilung Musikalische Akustik am musikwissenschaftliehen Institut der Kölner Universität gegründet. Seit 1970 lehrt Jobst Pricke an dieser Universität Systematische Musikwissenschaft. Harald Jers ist Dirigent und Dozent an der Hochschule für Musik Köln sowie Juror bei internationalen Chor- und Kompositionswettbewerben. Er leitet Dirigierkurse bei internationalen Symposien, Musikfestivals und Fachkonferenzen und unterrichtet Chordirigieren, Gesang und Stimmbildung in Verbindung mit musikalischer Akustik. Auf Basis seiner Studien in Dirigieren, Lehramt Musik/Gesang, Kirchenmusik und Physik intensivierte er seine Forschungsarbeit in Chorakustik. Nach einem Forschungs- und Dozentenaufenthalt im Auftrag der EU in Schweden erhielt er den ersten Preis der »Acoustical Society of America « für wichtige wissenschaftliche und musikpraktische Forschungsergebnisse. Harald Jers hat sich durch die praktische Umsetzung von 354 Die Autoren wissenschaftlichen Ergebnissen auf dem Gebiet der Chorakustik und dem daraus resultierenden werk- und epochenspezifischen Klang große Erfolge erzielt, was zahlreiche Preise bei internationalen Chorwettbewerben, CDEinspielungen, Radio-Produktionen und Publikationen in Büchern und Fachzeitschriften belegen. www .haraldjers.de Wilfried Kausel wurde 1957 in Wien geboren . Nach der Matura am Akademischen Gymnasium absolvierte er ein Studium der Elektrotechnik an der TU und ein ordentliches Diplomstudium im Fach Jazz-Bass am Konservatorium in Wien. 1986 begann er als Assistent am Institut für Allgemeine Elektrotechnik der TU-Wien, wo er sich dem Design von CMOS Schaltkreisen widmete. Er erhielt zahlreiche Patente und entwickelte für namhafte Halbleiterfirmen. Nach mehr als 10 Jahren Forschungs- und Lehrtätigkeit an der TU, schlug er 1997 die Laufbahn eines Universitätsassistenten am Institut für Wiener Klangstil der Universität für Musik und darstellende Kunst in Wien ein. Nach der Promotion 1999 habilitierte er sich im Jahr 2003 in der musikalischen Akustik und wurde 2010 mit der Leitung des Instituts betraut. Aktuelle Forschungsschwerpunkte: Einfluss der Wandschwingungen auf den Klang von Blasinstrumenten, Nicht-lineare Wellenausbreitung, Modellbildung, Computeroptimierung, Messtechnik. Christoph Louven , geb. 1966, Magisterstudium Musikwissenschaft, Pädagogik, Physik an der Universität zu Köln. 1993 Magister. 1990-1995 künstlerisches Zweitstudium an der Robert-Schumann-Hochschule Düsseldorf: Komposition (bei Dimitri Terzakis und Manfred Trojahn), Tonsatz und Klavier. 1998 Promotion. Nach Professuren an der Hochschule Magdeburg-Stendal und der Kath. Universität Eichstätt-Ingolstadt seit 2009 Professor für Systematische Musikwissenschaft an der Universität Osnabrück. ArbeitsschwerPräferenz und Offeセ 」ィエョゥウーケッャァ・L@ punkte: Musikalische Lern- und g・、 Musik. Zeitgenössische nohrigkeit, Musikpsychologische Forschungssoftware, Michael Oehler studierte von 1996 bis 2003 Musikwissenschaft, Linguistik und Phonetik sowie Betriebswirtschaftslehre an der Universität zu Köln. Im Jahr 2007 wurde er an der Hochschule für Musik, Theater und Medien Hannover in Systematischer Musikwissenschaft promoviert. Er ist seit 2004 Gesellschafter am Institut für angewandte Musikwissenschaft und Psychologie (IAMP Köln/Wien), seit 2010 im Vorstand der Deutschen Gesellschaft für Musikpsychologie sowie seit 2011 Professor für Medienmanagement/Musikmanagement an der Macromedia Hochschule für Medien und Kommunikation in Köln. Seine Forschungsschwerpunkte liegen im Bereich 355 Die Autoren der musikalischen Akustik, der Wahrnehmungspsychologie sowie im Bereich musikalischer Archivsysteme. Christoph Reuter seit 2008 Professor für Systematische Musikwissenschaft an der Universität Wien, wurde 1996 promoviert und habilitierte 2002 in Musikwissenschaft an der Universität zu Köln. Nach Stipendien (GrFG, DFG), Assistenz- und Dozenturzeiten (Universität zu Köln, Universität Wien, Hochschule für Musik Pranz Liszt Weimar) sowie Tätigkeiten im Verlags- und Medienwesen (u.a. Schott-Verlag (Mainz), Bildungszentrum für informationsverarbeitende Berufe b.i.b. (Hannover), IAMP solutions (Köln)) erhielt er Rufe an die Universitäten Wien (2007) und Osnabrück (2008). Seine Forschungsund Arbeitsschwerpunkte liegen in Bereichen der Instrumenten-, Raum- und Psychoakustik, der Klangsynthese und -analyse, der Musikpsychologie sowie in musikbezogenen Internet- und Software-Projekten. Michael Steppat, 1987-1999 Gitarrenlehrer und Tontechniker im Jugendzentrum Wasserturm in Berlin-Kreuzberg; Freiberuflich tätig als Studiomusiker und Klavierstimmer; 1993 Studium der Kommunikationswissenschaft, Musikwissenschaft und Technischen Akustik an der TU Berlin; seit 1998 Softwareentwickler; Promotion 2008 an der MLU Halle; von 2008-2010 Lehrbeauftragter und seit 2010 Gastdozent an der Beuth Hochschule für Technik Berlin mit den Fachgebieten Software- und Multimediatechnik. Die Autoren zahlreiche Rundfunksender und Musiklabels. Seit 2004 leitet er das Fachgebiet Audiokommunikation und den Masterstudiengang Audiokommunikation und -technologie an der TU Berlin. Seine Forschungsschwerpunkte liegen im Bereich der musikalischen Akustik, der Raumakustik, der virtuellen Akustik und der Theorie der Musikübertragung. Er ist Sprecher einer DFGForschergruppe zur Simulation akustischer Umgebungen und Dekan der geisteswissenschaftlichen Fakultät der TU Berlin. Gregor Widholm, (''-1948). Studien an der TU-Wien (Nachrichtentechnik) und an der Universität für Musik und darstellende Kunst Wien (Konzertfach Horn). Von 1971 - 2007 Mitglied des Orchesters der Wiener Volksoper. Als Mitglied der Capella Academica Wien intensive Beschäftigung zwischen 1974 und 1986 mit dem Naturhorn und der Wiener Klassik. Zahlreiche Schallplatten/CD-Aufnahmen und Konzerte, zum Teil solistisch, in Europa, Asien und den USA. 1980 wird er von der Universität für Musik und darstellende Kunst Wien beauftragt, das Institut für Wiener Klangstil (Musikalische Akustik) als Forschungsinstitut aufzubauen und leitete dieses als Vorstand bis 2013 . In diese Zeit fallen zahlreiche Innovationen und Neuentwicklungen auf dem Gebiet der computergestützten Qualitätsbeurteilung und Optimierung von Musikinstrumenten. Er gilt als Begründer der Musikalischen Akustik in Österreich . Von 2007- 2011 Vizerektor für Außenbeziehungen. Seit 2011 Präsident der Austrian Acoustics Association. Kathrin Schlemmer ist Musikwissenschaftlerin und Diplom-Psychologin. Sie wurde 2005 an der Humboldt Universität zu Berlin mit einer Arbeit über „Absolutes und nichtabsolutes Hören - Einflussfaktoren auf das Erinnern von Tonarten" promoviert. Von 2006 bis 2011 war sie wissenschaftliche Mitarbeiterin im Bereich Systematische Musikwissenschaft am Institut für Musik der Martin-Luther-Universität Halle-Wittenberg und trat 2011 die Professur für Musikwissenschaft an der Katholischen Universität Eichstätt-Ingolstadt an. Ihre Forschungsinteressen umfassen das Gedächtnis für Musik, das absolute Gehör, die Wirkungen des Musikhörens und Musizierens sowie musikpsychologische Forschungsmethoden. Stefan Weinzierl, geb. 1967 in Bamberg, absolvierte ein Doppelstudium in Physik und als Tonmeister an der Universität Erlangen, der Universität der Künste Berlin und der Technischen Universität Berlin. In seiner Promotion im Fach Musikwissenschaft bei Helga de Ja Motte-Haber untersuchte er der Zusammenhang von Raumakustik und musikalischer Aufführungspraxis für die Sinfonien der Wiener Klassik. Er arbeitete als Produzent und Tonmeister für 356 357