Dokument: Inhalt\ Musique Concrète\ Das andere Hören.doc
[Zurück]   [Vor]   [Hoch]   [Startseite]        Index

 

3.30 Das andere Hören.doc


Rudolf Frisius 27 S. Je S. 30x60=1800, also 48 600 Zeichen 29. 419

DAS ANDERE HÖREN. UNSICHTBARE MUSIK ODER AKUSTISCHE KUNST?

Zur Terminologie

Stichworte wie "das andere Hören", "Unsichtbare Musik" oder "Akustische Kunst" verweisen auf (scheinbare oder tatsächliche) Paradoxien in der Musikentwicklung des 20. Jahrhuderts. Beispielsweise liegt die Frage nahe, ob es nicht paradox erscheinen könnten, einen Begriff wie "Das andere Hören" und damit eine Alternative zum Begriff "Das Hören" zu hypostasieren. Gibt es denn, zumal im Zusammenhang der Musik und insbesondere bezogen auf die Musik des 20. Jahrhunderts, tatsächlich sowohl das Hören als auch das andere Hören, also die Alternative zum vorgenannten Hören? Was spricht dafür, in diesem Zusammenhang von Alternativen oder gar von nur einer einzigen denkbaren Alternative zu sprechen?

Das Hören oder das andere Hören sind in anderer Weise aufeinander bezogen als Unsichtbare Musik oder Akustische Kunst. Während im ersten Fall logische Alternativen aufeinander bezogen sind, sind es im zweiten Falle zwei Begriff, von denen jeder auf einen anderen Alternativbegriff verweist: Der Negativbegriff Begriff "Unsichtbare Musik" verweist auf "Sichbare Musik" als positives Korrelat. Der Begriff "Akustische Kunst" verweist mit seinem (auf eine physikalische, dem Hörsinn zugeordneten Teildisziplin verweisenden) Epitheton auf den (dem Sehsinn zuzuordnenden) Begriff "Optische Kunst" als Gegenbegriff; in der Konzentration auf Hörbares verweist er auf die Alternative der Verbindung von Hörbarem und Sichtbaren und damit auf den weiter gefaßten Begriff "Audiovisuelle Kunst".

Der Begriff "Unsichtbare Musik" könnte als paradox verschlüsselte Paradoxie erscheinen, wenn Musik per definitionem als "Hörbare Musik" verstanden, der Begriff "Sichtbare Musik" also als in sich widersprüchlich abgelehnt wird. Plausibel erscheint dieser Begriff allenfalls dann, wenn die Negation "unsichtbar" inhaltlich begrenzen, d. h. ausdrücklich etwas ausschließen soll, das zur Musik gehören kann, aber nicht muß. "Unsichtbare Musik" in diesem Sinne wäre Musik, deren Rezeption so weitgehend auf das Hören konzentriert ist, daß von Verbindungen mit anderen Sinnesbereichen, insbesondere zum Visuellen, abgesehen werden kann. Pierre Schaeffer und Francois Bayle bezeichnen, an Pythagoras anknüpfend, solche Musik als "akusmatische Musik" ("musique acousmatique"). Diese dem Altgriechischen entnommene Bezeichnung huldigt einem Denker, der sich beim Unterrichten hinter einem Vorhand versteckt haben soll, damit seine Schüler konzentriert seinen Lehren zuhören konnten, ohne sich dabei vom Anblikc seiner Person ablenken zu lassen. Als adäquate Manifestation unsichtbarer bzw. akusmatischer Musik hat sich in der 2. Hälfte des 20. Jahrhundert die im Studio vorproduzierte Lautsprechermusik entwickelt. "Unsichtbar" ist diese Musik nicht etwa deswegen, weil visuelle Vorgänge, die mit der Klangproduktion verbunden sind, vor den Augen des Pulbikums verborgen würden (was nicht nur bei traditionellen Musikdarbietungen geschehen kann, etwa beim Spiel eines Organisten, der beim Gottesdienst im Rücken des dem Altat zugewandeten Publikums spielt, sondern auch beim Singen und Spielen der Musiker in vielen live-elektronischen Aufführungen; in der vorproduzierten Lautsprechermusik entfallen auch solche latenten Zusammenhänge zwischen Hören und Sehen, da Studioproduktion und Aufführung, die klangliche Realisation und die Klangwiedergabe zeitlich voneinander getrennt sind).

Das Gegenbild dessen, was das negative Epitheton im Begriff "Unsichtbare Musik" ausschließt, wird positiv akzentuiert im Begriff "Akustische Kunst". Dieser Begriff betont die Autonomie der Hörwahrnehmung, insbesondere die ästhetische Verselbständigung des Hörens gegenüber dem Sehen. Dies rückt den Begriff "Akustische Kunst" in die Nähe des Begriffs "Unsichtbare Musik" . Beide Begriffe unterscheiden sich aber dadurch, daß der erste einen Teilbereich der Musik zu bezeichnen scheint, während Begriffe wie "Akustische Kunst" oder (genauer) "Hörkunst" den Begriff "Musik" nicht nur zu verallgemeinern, sondern auch im größeren Zusammenhang aufzulösen scheinen. Verwandt sind beide Begriffe insofern, als sie darauf zielen, das Hören ästhetisch zu verselbständigen und vor allem bei der Wahrnehmung ästhetisch geformter Hörereignisse von Zusammenhängen des Hörens mit anderen Sinnesbereichen (insbesondere mit dem Sehen) als sekundär zu behandeln. Deswegen eignen beide Begriffe sich besonders für die Beschreibung von ästhetisch geformten Klangstrukturen und Hörereignissen, die über technische Medien vermittelt werden. Verständlich werden sie erst im Zusammenhang einer mehrere Jahrhunderte umfassenden historischen Entwicklung, in der sich der Begriff der Musik selbst grundlegend verändert hat.

Musik: Tonkunst oder Hörkunst?

Alternative Ansatzpunkte musikalischen Denkens

Musica ist eine Wissenschaft und Kunst, geschickte und angenehme Klänge klüglich zu stellen, richtig an einander zu fügen, und lieblich heraus zu bringen, damit durch ihren Wollaut Gottes Ehre und alle Tugenden befördert werden.

Musik hat ihren Namen aus uralter Zeit von den Griechen erhalten, die darunter alle musischen Künste (...) verstanden. Uns Neuern gilt dieser früher so umfassende Name ausschließlich für die Tonkunst, die durch Töne und Tonverbindungen - dabei aber auch durch das Element des Klanges und durch den Rhythmus wirkende Kunst.

Musik ist die Kunst, welche durch geordnete Tonverbindungen die Seele bewegt und dem auffassenden Geist ästhetische Lust gewährt, jenes durch ihren Inhalt, dieses durch ihre Form.

(Musik ist) die gesetzmäßige Natur in bezug auf den Sinn des Ohres.

Das, was der Komponist als ´Musik´ komponiert hat, wird vom Hörer vielleicht als ´Lärm´ bezeichnet, und ´Musik´ ist für ihn der Gesang der Vögel oder der Klang der Geldstücke in seiner Tasche. Es fehlt an objektiven Kriterien, die es dem externen Beobachter ermöglichen können, zu entscheiden, ob ein ihm zugänglicher Schallvorgang ´Musik´ ist oder nicht.

Wenn man versucht, Definitionen der Musik aus verschiedenen Jahrhunderten zu suchen und miteinander zu vergleichen, dann kann man Beispiele aus dem 20. Jahrhundert finden, die dem aktuellen Entwicklungsstand der Musik insoweit entsprechen, daß sie sich von Definitionen aus früheren Jahrhunderten grundsätzlich unterscheiden. Dies zeigt sich im Vergleich von Definitionen des Informationstheoretikers Meyer-Eppler und der Komponisten Webern mit solchen des Musikwissenschaftlers Riemann, des Musiktheoretikers Marx und des komponierenden Musikschriftstellers Mattheson: Wenn Mattheson das Material der Musik auf die "Klänge" eingrenzt und wenn Marx und Riemann in demselben Zusammenhang "Töne und Tonverbindungen" nennen, dann unterscheiden sie sich nicht nur von Werner Meyer-Eppler, der eine materialbezogene Definition der Musik ablehnt und statt dessen eine kommunikationsbezogene Definition vorschlägt, sondern auch von Webern, der den Akzent vom Material auf das Organ seiner sinnlichen Wahrnehmung, auf das Ohr verlagert und damit den ersten Schritt von einer materialbezogenen zu einer kommunikationsbezogenen Definition wagt (allerdings im Gesamtzusammenhang, in der Berufung auf Goethes Farbenlehre und auf das Sprachverständnis von Karl Kraus, möglicherweise weniger kühn als in der Formulierung selbst).

Je stärker eine Definition der Musik sich auf das Material der Töne und Tonverbindungen begrenzt, desto weniger wird sie der materialen und kommunikativen Komplexität ihres Gegenstandes gerecht. Dies zeigt sich schon unter dem materialbezogenen Aspekt: Die Aussparung von Geräuschen ist, wie bereits Hermann von Helmholtz festgestellt hat, schon aus physikalischen Gründen selbst dann unhaltbar, wenn man absieht von europäischer und vor allem außereuropäischer Musik mit Schlaginstrumenten unbestimmter Tonhöhe, von Musik mit komplexen elektroakustischen (elektroakustisch generierten und/oder transformierten) Klängen ganz zu schweigen. Helmholtz hat deutlich gemacht, daß die dem traditionell geschulten Musiker geläufige Vorstellung des (reinen) Tones (die der Physiker präzisiert durch den Begriff des aus Obertönen im harmonischen Spektrum zusammengesetzten Klanges) eigentlich eine musiktheoretische Fiktion ist. Fiktiv ist, wie von Helmholtz hervorhebt, die Vorstellung, daß das, was der Musiker Ton und der Physiker Klang nennt, immer etwas zeitlich Invariantes bezeichnen müßte. Vielmehr ist zu berücksichtigen, daß gewisse charakteristische Eigentümlichkeiten des Klanges mancher Instrumente abhängen von der Art, wie ihr Klang beginnt und wieder aufhört. Helmholtz ist sich also der Tatsache bewußt, daß die Beschreibung von Klängen und Klangfarben nur nach ihren stationären Klanganteilen, unter Vernachlässigung der Ausschwing- und Ausschwingvorgänge, eigentlich eine unzulässige Abstraktion ist. Mehr noch:

... Auch wenn ein Klang mit gleicher oder veränderlicher Stärke andauert, mischen sich ihm bei den meisten Methoden seiner Erregung Geräusche bei als der Ausdruck kleinerer oder größerer Unregelmäßigkeiten der Luftbewegung. (...) Gewöhnlich sucht man, wenn man Musik hört, diese Geräusche zu überhören, man abstrahiert absichtlich von ihnen, bei näherer Aufmerksamkeit jedoch hört man sie in den meisten durch Blasen und Streichen hervorgebrachten Klängen sehr deutlich. Bekanntlich werden auch viele Konsonanten der menschlichen Sprache durch solche anhaltende Geräusche charakterisiert (...) Aber auch die Vokale der menschlichen Stimme sind nicht ganz frei von solchen Geräuschen (...)

Mit diesen Worten relativiert von Helmholtz die polare, dem traditionellen Musikempfinden näher stehende Unterscheidung zwischen (physikalischen) Klängen (also den gesungenen oder instrumentalen Tönen der traditionellen Musik) und Geräuschen, von der er selbst zuvor ausgegangen ist:

Es zeigt sich (...) im allgemeinen, daß im Verlauf eines Geräusches ein schneller Wechsel verschiedenartiger Schallempfindungen eintritt. (...) Ein musikalischer Klang dagegen erscheint dem Ohr als ein Schall, der vollkommen ruhig, gleichmäßig und unveränderlich dauert, solange er eben besteht, in ihm ist kein Wechsel verschiedenartiger Bestandteile zu unterscheiden. (...) Hiernach ist klar, daß die musikalischen Klänge die einfacheren und regelmäßigeren Elemente der Gehörempfindungen sind (...)

Mit diesen Worten begründet von Helmholtz, warum er in seiner Abhandlung von Klängen und nicht von Geräuschen ausgeht: Klänge lassen sich einfacher beschreiben als Geräusche - zumal dann, wenn sie abstrahierend nur als stationäre Klänge beschrieben werden. In dieser Argumentation wird deutlich, daß der Physiker hier nur von einer wissenschaftsmethodischen, aber keineswegs von einer ästhetischen Priorität spricht. Im Gegenteil: Die Geräusche beschreibt von Helmholtz viel lebendiger als die Geräusche. Er erwähnt das Sausen, Heulen und Zischen des Windes, das Plätschern des Wassers, das Rollen und Rasseln eines Wagens und beschreibt anschließend einige zeitlich markant sich verändernde Geräusche:

Es zeigt sich (...) im allgemeinen, daß im Verlauf eines Geräusches ein schneller Wechsel verschiedenartiger Schallempfindungen eintritt. Man denke an das Rasseln eines Wagens auf Steinpflaster, das Plätschern und Brausen eines Wasserfalles oder der Meereswogen, das Rauschen der Blätter im Walde.

Es ist bekannt, daß einer der kühnsten Innovatoren der Musik des 20. Jahrhunderts die Abhandlung von Helmholtz gelesen hat. Schon frühzeitig hat er, anders als später Hindemith, bemerkt, daß dieses Buch alles andere als eine physikalische Fundierung des traditionellen tonalen Musikdenkens ist. Er selbst hat darauf hingewiesen, daß eine der sinnfälligsten Neuerungen in seiner Musik unmittelbar von dieser Lektüre inspiriert worden ist: Die Verwendung von Sirenen, die statt traditioneller Haltetöne auf- und absteigende, an- und abschwellende Glissandi produzieren. Varèse hat bald erkannt, daß diese Instrumente sich nicht nur zum akustischen Experimentieren eignen, sondern daß sie auch zu Musikinstrumenten umfunktioniert werden können, deren Klänge sich mit Klängen herkömmlicher Orchesterinstrumente verbinden lassen und deren kontinuierliche Klangstrukturen sogar zu Modellen differenzierterer Klanggestaltung mit elektronischen Mitteln werden können.

Das Glissando ermöglicht in einfacher, aber wirkungsvoller Weise Abweichungen von den Idealen der traditionellen, an festen Tonhöhen und Intervallen orientierten abendländischen Musiksprache, wenn es als Tonglissando ausgeführt wird. Tonglissandi lassen sich mit Stimmen und mit vielen Instrumenten (insbesondere mit Streichinstrumenten) relativ einfach realisieren. Um so erstaunlicher ist es, daß Varèse von den Möglichkeiten, Glissandi mit Stimmen und konventionellen Instrumenten zu komponieren, keinen intensiven Gebrauch gemacht hat. Was er versäumte, hat seit den frühen 1950er Jahren Iannis Xenakis nachgeholt, beginnend mit den dichten Glissando-Texturen des Orchesterstückes "Metastaseis", die 1955 auf den Donaueschinger Musiktagen Aufsehen erregten.

Die Annahme liegt nahe, daß dies nicht die einzige Anregung war, die Varèse dem umfangreichen Buch entnahm. Jedenfalls fällt auf, daß die Beschreibungen nichtstationärer Geräusche bei von Helmholtz so lebendig sind, daß sie durchaus später die musikalisch-kompositorischen Vorstellungen von Varèse inspiriert haben könnten, wenn er eine Utopie nichtstationärer Musik entwirft:

Wenn neue Instrumente mir erlauben werden, Musik so zu schreiben, wie ich sie konzipiere, wird die Bewegung von Klangmassen, von wechselnden Ebenen deutlich in meinem Werk wahrgenommen werden, da sie den Platz des linearen Kontrapunkts einnehmen wird. Wenn diese Klangmassen zusammenstoßen, wird das Phänomen von Durchdringung oder Abstoßung auftreten. Bestimmte Transmutationen, die auf bestimmten Ebenen Platz greifen, werden auf andere Ebenen projiziert erscheinen, die sich in anderen Geschwindigkeiten und mit anderen Winkelstellungen bewegen. Den alten Begriff von Melodie oder melodischem Wechselspiel wird es nicht länger geben. Das ganze Werk wird eine melodische Totalität sein. Das ganze Werk wird fließen, wie ein Fluß fließt. (...) In den beweglichen Massen würde man ihrer Transmutationen inne, wenn sie verschiedene Schichten passierten, bestimmte Körper durchdrängen oder sich in bestimmten Verdünnungen verlören.

Dies klingt wie eine Konkretisierung theoretischer Idealvorstellungen, die zuvor der von Varèse bewunderte Feruccio Busoni aufgeschrieben hatte:

Frei ist die Tonkunst geboren und frei zu werden ihre Bestimmung. Sie wird der vollständigste aller Naturwiderscheine werden durch die Ungebundenheit ihrer Unmaterialität. Selbst das dichterische Wort steht ihr an Unkörperlichkeit nach; sie kann sich zusammenballen und kann auseinanderfließen, die regloseste Ruhe und das lebhaftestes Stürmen sein; sie hat die Höchsten Höhen, die Menschen wahrnehmbar sind - welche andere Kunst hat das? -, und ihre Empfindung trifft die menschliche Brust mit jener Intensität, die vom "Begriffe" unabhängig ist.

Die Musik, die Varèse vorschwebte und die er in seinen eigenen Kompositionen - sei es mit mehr oder weniger konventionellen Instrumenten, sei es in elektoakustischer Tonbandmusik - allenfalls ansatzweise tatsächlich hat realisieren können, distanziert sich völlig von dem Begriffen der traditionellen Musiktheorie: Melodie, Harmonie, (linearer) Kontrapunkt, Instrumentation. Die traditionelle Vorstellung einer Tonkunst, die sich aus Tönen und Tongruppierungen bildet (in ähnlicher Weise wie die Sprache aus Lauten, Silben, Wörtern, Satzteilen, Sätzen usw.), wird ebenso radikal in Frage gestellt wie das ihr entsprechende Musikhören. Varèse wußte, daß zu dieser Musik Wege gefunden werden mußten, die bereits Feruccio Busoni theoretisch markiert hatte: Wege zu neuen Klangmitteln:

Plötzlich, eines Tages, schien es mir klar geworden: daß die Entfaltung der Tonkunst an unseren Musikinstrumenten scheitert. (...) Wohin wenden wir dann unseren Blick, nach welcher Richtung führt der nächste Schritt? Ich meine, zum abstrakten Klange, zur hindernislosen Technik, zur tonlichen Unabgegrenztheit. Dahin müssen alle Bemühungen zielen, daß ein neuer Anfang jungfräulich erstehe.

Busonis Idealvorstellung einer von allen Konventionen traditioneller Musiktheorie, selbst von allen Affinitäten zu sprachlichen Strukturen befreiten Musik reichen weiter als seine eigenen Konkretisierungsvorschläge: Neue, auch mikrotonale Skalen - die Hoffnung auf elektronisch produzierte Klänge, die eine Beschreibung des Dynamophone von Thaddeus Cahill geweckt hatte. Seine Wunschvorstellungen zielen einerseits auf völlige Freiheit der künstlerischen Gestaltung, andererseits auf strengster Kontrolle der musiktheoretischen (Neu-)Strukturierung und der technisch gesteuerten Klangproduktion. Vor allem unter dem ersten Aspekt haben seine Vorstellungen starken Einfluß auf Edgard Varèse ausgeübt. Dieser hat, anders als Busoni, beträchtliche Energien in den Versuch investiert, das theoretisch Postulierte auch tatsächlich klanglich zu realisieren. Er mußte aber jahrzehntelang darauf warten, bis er die Möglichkeit erhielt, mit elektroakustischen Klängen zu komponieren. Die Schwierigkeiten, mit denen er zu kämpfen hatte, hängen eng mit der komplizierten Entwicklung der technisch produzierten Musik im 20. Jahrhundert im Spannungsfeld von musikalischen, musiksoziologischen und technologischen Faktoren zusammen. Andere, denen eher als Varèse die Arbeit im elektroakustischen Studio möglich wurde, mußten früher als er erfahren, wie stark die materialbezogenen Veränderungen verknüpft waren mit der Notwendigkeit, sich auf neue Strukturen der musikalischen Kommunikation einzustellen. Die Musik veränderte sich so weitgehend, daß ihr Begriff, daß selbst die Autonomie des ihr zugeordneten Erfahrungsbereiches, die Autonomie der Hörwahrnehmung grundsätzlich in Frage gestellt werden konnte.

Die Krise, in die die abendländische Konzeption der Tonkunst schon im 19. Jahrhundert geraten ist, manifestierte sich einerseits in der Krise der Tonalität, andererseits, noch radikaler, in der Emanzipation des Geräusches. Während die Krise der Tonalität erst in einigen atonalen Spätwerken von Franz Liszt einen ersten Kulminationspunkt erreichte, finden sich einzelne, teilweise schon recht weit getriebene Ansätze der kompositorischen Arbeit mit Geräuschen schon bei Beethoven (Wellingtons Sieg bei Vittoria), Berlioz (Sinfonie fantastique) und Wagner (vor allem die 12 Ambosse in "Rheingold") - schon lange vor der definitiven Gleichberechtigung der Schlaginstrumente im Orchestersatz bei Mahler (z. B. 5. Symphonie) und Webern (Orchesterstück op. 6 Nr. 4: hier verbunden mit Atonalität, die sich bis zum Zwölfklang steigert und schließlich, über dieses Endstadium der Atonalität noch hinausgehend, in eine mehrschichtige Geräuschstruktur umschlägt). Die genannten Beispiele belegen, daß die Einbeziehung konventioneller Schlaginstrumente in den Orchestersatz einerseits nicht wesentlich zur Weiterentwicklung komplexer Tonbeziehungen beiträgt (da die Möglichkeiten der Tonhöhendifferenzierung im konventionellen Schlagsatz eng begrenzt oder in vielen Fällen überhaupt nicht gegeben sind), andererseits neben reicheren Farbvaleurs auch ein reicheres assoziatives Potential verfügbar machen kann. Die Kanonenschüsse bei Beethoven, das Donnergrollen bei Berlioz und die in verschiedenen Tonlagen und Geschwindigkeiten geschichteten Amboß-Rhythmen bei Wagner, auch die Militärtrommeln bei Mahler oder die Totenglocken bei Webern appellieren an eine Hörerfahrung, die sich, über die engen Begrenzungen der Tonkunst hinausgehend, öffnet zur Hörwelt. Ein musikalisch geschulter Hörer, der diese Geräusche hört und ihre klangliche Realisation an den Anforderungen der Partitur mißt, kann feststellen, daß die traditionelle Notation hier kaum oder allenfalls in sehr groben Abstufungen Tonhöhen-Differenzierungen erlaubt und sich weitgehend auf rhythmische, teilweise auch dynamische Vorschriften beschränken muß. Beide Aspekte stehen der alltäglichen Hörerfahrung näher als melodische, harmonische oder polyphone Tonstrukturierungen. Besonders deutlich kann dies in dynamischen Gestaltung werden, wenn beispielsweise laut oder leise, crescendo oder decrescendo zugleich Nähe oder Ferne, Annäherung oder Entfernung suggerieren soll. So kann es sich ergeben, daß das Hören sich verlagert von materialbezogenen auf kommunikative Aspekte, von Tonstrukturen auf Klangbilder.

Die technisch produzierte Musik erlaubt neuartige und weitreichende Differenzierungen sowohl der Ton- als auch der Geräuschstrukturen (erstes beispielsweise in den ersten Studioproduktionen serieller elektronischer Musik, letzteren in den Anfangsjahren, aber auch in späteren Entwicklungsstadien der konkreten Musik). Sie bietet Möglichkeiten sowohl für eine Radikalisierung traditioneller Konzeptionen der Tonkunst als auch für eine Öffnung zur Hörwelt. Besonders im letzteren Falle kann deutlich werden, daß gerade dann, wenn sie an komplexe Erfahrungszusammenhänge erinnert, die rein klanglichen Eindrücke sich auch mit außermusikalischen, z. B. visuellen Assoziationen verbinden können. Gerade die "unsichtbare" Lautsprechermusik kann dazu beitragen, daß assoziationsreiche Klangbilder wahrgenommen werden. Aus der technisch bedingten Isolierung von Hören und Sehen, aus Konfrontationen unsichtbarer und sichtbarer Musik, akustischer und audiovisueller Kunst ergeben sich nicht selten Ansatzmöglichkeiten zu neuen Konzeptionen der Synthese und der integrativen Vermittlung.

Hören und Sehen - Unsichtbare und sichtbare Musik - Akustische und audiovisuelle Kunst

Ist es möglich, Hörbares und Sichtbares, Akustisches und Audiovisuelles in der allgemeinen und in der ästhetisch orientierten Sinneserfahrung zu trennen? Oder verweist eine begriffliche Kontrastierung etwa zwischen "unsichtbarer" und "sichtbarer" Musik darauf, daß dies nicht, oder zumindest nicht immer möglich ist? Diese und ähnliche Fragen stellen sich vor allem für die Musikentwicklung des 20. Jahrhunderts, und in ihrem Zusammenhang besonders für die elektroakustische Musik und Hörkunst, in deren Bereichen sich neue Probleme des Hörens ergeben haben: "Das andere Hören" ist zu einem Zentralproblem musikalischer, auditiver und audiovisueller Erfahrung geworden.

Paradoxien zwischen Altem und Neuem, zwischen Bekanntem und Unbekanntem, zwischen innermusikalischen und musikübergreifenden Erfahrungen haben sich in so verwirrender Komplexität entwickelt, daß selbst ihre genauere Beschreibung sich nicht selten als äußerst schwierig erweisen kann. Besonders deutlich wird dies in einer Beschreibung, die von den Schwierigkeiten des Hörens "unsichtbarer" Musik spricht: Das erste Lautsprecherkonzert der Musikgeschichte, das am 18. März 1950 in der Pariser Ecole Normale de Musique stattfand, ist von seinem Initiator Pierre Schaeffer mit folgenden Worten beschrieben worden:

Die Gäste dieses Abends waren die ersten, denen etwas für Konzertbesucher Wesentliches vorenthalten wurde: es saßen keine Musiker auf dem Podium. Diese Gäste erlebten auch als erste eine Probe des noch Ungehörten: nicht nur bislang niegehörte Klänge, sondern auch Klangverbindungen, von denen sich nicht sagen ließ, ob sie vorherbestimmten Gesetzen von Komponisten folgten, oder ob sie einfach dem Zufall entsprungen waren. Und wenn von dieser neuen Sprache ein Bann ausging, so war sie doch auch befremdlich, um nicht zu sagen ungehörig. Handelte es sich überhaupt noch um eine Sprache?

Pierre Schaeffer hat ausdrücklich betont, daß die neuen Probleme des Hörens sich nicht nur dem Publikum stellen, sondern auch dem Komponisten:

Am meisten verwirrt und beunruhigt waren (...) nicht die Zuhörer, die sich sogleich ein Urteil über dieses seltsame, interessante neue Unternehmen bildeten, sondern die Verantwortlichen dieser Premiere, zumindest ihr Hauptinitiator. Wir waren zu dritt: Pierre Henry, Jacques Poullin und ich (...)

Neue Probleme des Hörens, die nicht nur die Rezipierenden, sondern auch die Produzierenden betreffen, lassen sich beschreiben im Kontext dessen, was Adorno als Fazit einer von ihm imaginierten "musique informelle" beschrieben hat:

Die Gestalt aller künstlerischen Utopie heute ist: Dinge machen, von denen wir nicht wissen, was sie sind.

Eine Revolutionierung des Hörens, die nicht nur den Hörer, sondern auch den Komponisten tangiert und die überdies die Funktion des Interpreten in Frage stellt, läßt sich auch als Infragestellung der tradierten Rolle des Komponisten beschreiben, wenn in technisch produzierter Musik Komposition nicht mehr ausschließlich als Herstellung einer Partitur, einer schriftlichen Anweisung zur klanglichen Realisation oder eines an die Klangvorstellung des Lesers appellierenden musikalischen Textes definiert werden kann. Eine Musik, die einerseits nicht mehr auf der Basis einer zureichend codierten Notation, z. B. eines konventionellen Notentextes entstanden ist und deren Klangbild andererseits vom Hörer nicht mehr entsprechend den Normen einer solchen Notation gehört (also insbesondere auch nicht mehr imaginativ oder tatsächlich in traditionelle Notenschrift umgesetzt werden kann), stellt alle Hörkategorien in Frage, die sich an traditionellen, zumeist an dieser Notenschrift orientierten musikalischen Vorstellungen orientieren - vor allem die Begrenzung auf feste Tonhöhen innerhalb eines a priori vorgegebenen Tonsystems mit exakt meßbaren und in einfachen Zahlenproportionen aufeinander bezogenen Zeitwerten, mit einfachen, in der Regel nur qualitativ und relativ abgestuften Lautstärkewerten und -kurven sowie mit - als konstant, stationär, oder aus Erfahrung, z. B. mit standardisierten Instrumenten, bekannt angesehenen - fixierten Klangfarben. Wenn aber ein im Studio arbeitender Komponist, ein an der Klangproduktion beteiligter oder ein externer Hörer technisch produzierte und verarbeitete Klänge wahrnehmen, die sich mit standardisierten Werten oder Verläufen offensichtlich nicht zureichend beschreiben lassen, stellt sich die Frage nach einer Neuorientierung des Hörens.

Im Programm des von Schaeffer beschriebenen Konzerts hatte Serge Moreux geschrieben:

Es gab ein Mittelalter des Steins: man bearbeitete ihn. Es gibt ein Mittelalter der Wellen: man fängt sie ein. Dem Künstler bleibt keine andere Avantgarde zur Wahl. Zwischen dem unnützen Spiel der syntaktischen Systeme und dem Zurück zu den vergessenen oder versiegten Quellen stehend kann der moderne Musiker - um mit Pierre Schaeffer zu reden - versuchen, eine Bresche in der Ringmauer zu finden, die uns manchmal wie eine Zwingburg umgibt.

Schaeffer selbst, den Moreux hier zitiert, stand dieser Betrachtungsweise nicht ohne Skepsis gegenüber:

Wir haben gelernt, die Laute mit dem Mittelalter in Verbindung zu bringen, den Gregorianischen Choral mit dem Kloster, das Tamtam mit den Eingeborenen, die Viola da Gamba mit höfischer Gewandung. Warum also sollte die Musik des 20. Jahrhunderts nicht eine Musik der Maschinen und Computer sein? (...) An einer derart abgegriffenen Deutung festhalten heißt ganz offensichtlich, an der Fragestellung vorbeigehen (...)

Es heißt, die Sache so betrachten, als existierte eine primäre Beziehung zwischen den historischen Bedingungen und den kulturellen Erzeugnissen, die das Rohprodukt dieser Bedingungen wären.

Auf diese Art jedenfalls hören die Zeitgenossen - und das ist ganz natürlich - eine ihnen ungewohnte Musik: sie hören sie nicht um ihrer selbst willen, sondern als allgemeines Indiz für eine Technologie, für Ideologien, für Sitten und Gebräuche. Genauso wie es Schwierigkeiten bereitet, zum Inhalt einer unbekannten Sprache Zugang zu finden, genauso unbequem ist es auch zunächst, eine "andere" Musik zu hören (...)

Schaeffer benennt hier das zentrale Problem: Das Hören einer "anderen" Musik, das "andere Hören". Wenn er anmahnt, daß Musik "um ihrer selbst willen" gehört werden soll, dann spricht er hiermit eine Qualitätsbestimmung an, die nach seiner Auffassung konstitutiv für die Musik ist und diese von anderen Hörereignissen unterscheidet:

Für die menschliche Sprache geht es darum, das Gesprochene zu verstehen - für die Vogelsprache ist es uns leider verwehrt; für die Musik weiss man sehr wohl, dass man sie um ihrer selbst willen hört und nicht aufgrund einer Mitteilung, die sie nur weitergeben könnte; das Geräusch enthält wie die Sprache ein Gesetz, das durch die Zeichen, die es liefert, auf eine Geschichte hinweist, die es erzählt.

Was ist damit gemeint, wenn verlangt wird, daß Musik "um ihrer selbst willen" gehört werden soll, und wie läßt sich ein solches Hören von der Rezeption anderer Hörereignisse unterscheiden? Wie müssen Antworten auf diese Fragen ausfallen, die den radikalen Veränderungen des Hörens im technischen Zeitalter Rechnung tragen? Was muß geschehen, um Antworten auf die neu gestellten Fragen zu ermöglichen?

Pierre Schaeffer war davon überzeugt, daß diese Fragen sich nur auf der Basis einer neuartigen, phänomenologisch orientierten Klangforschung beantworten ließen. Als wichtigstes Postulat dieser Klangforschung postulierte er:

Erforschung einer Sprache. - Neue musikalische Strukturen müssen darauf abzielen, eine Kommunikation herzustellen zwischen dem, der sie entwirft, und dem, der sie aufnimmt.

Auf der Suche nach neuen musikalischen Wegen empfahl Schaeffer, abstrakten Ideen zu mißtrauen und statt dessen empirisch von elementaren klanglichen Erfahrungen auszugehen, anstatt sich auf vorgegebene musikalische Systeme und auf deren abstrahierend antizipierte Erweiterungen zu verlassen:

Wir erforschen die Elemente, die jedem denkbaren musikalischen System voraufgehen und behaupten, daß sie alsdann dazu dienen werden, sowohl das unsrige wie auch andere, vergangene Systeme (archaisische, exotische, primitive) verständlich zu machen und den Weg zu öffnen für alle möglichen Systeme, die eine noch nicht voraussehbare Ästhetik der Zukunft Zug um Zug aus dem Schatz der Klänge gewinnen kann. Es ist also nötig, vor dem "Musikalischen" das Klangliche zu definieren.

Diesen Ansatz bezeichnet Schaeffer als Verallgemeinerung (...), die vom Klanglichen ihren Ausgang nimmt, aber ohne die direkte Anmaßung, alsogleich zur Musik zu gelangen, weder zu Kompositionsregeln noch zu einem wohldefinierten System. Damit ergibt sich eine Alternative zu musikalischen Ansätzen, die auf der Suche nach Innovation zunächst von theoretischen Spekulationen ausgehen. Diese Ansätze, wie sie sich bereits 1906 bei Feruccio Busoni fanden (und nicht nur spätere mikrointervallische Kompositionen bei Haba, Wyschnegradsky und anderen antizipierten, sondern auch den Boden bereiteten für die Befreiung des Klanges in der Musik von Edgard Varèse) und später wieder in der Frühzeit der elektronischen Musik, bei Meyer-Eppler, Stockhausen und Eimert eine wichtige Rolle spielten sollten, beschreibt und bewertet Schaeffer als Verallgemeinerung des Musikalischen mit folgenden Worten:

Ein bestimmtes Musikalisches wird dabei a priori gesetzt in der Annahme, dieses lasse sich verallglemeinern, oder - wie man gewöhnlich glaubt - "fortschrittlich" entwickeln; zu neuen Klängen, wie die guten Leute sagen. Die Wahl, die am Anfang stünde, wäre also die des abendländischen Systems? Seine Verallgemeinerung, über die "neuen Klänge" hinaus, hätte dann, als Nachwirkung der Atonalität, die vervielfachte Aufsplitterung der Töne zur Folge? Nach Wyschnegradskys Vierteltönen zu Meyer-Epplers Frequenzen und zu den "synthetischen Klängen", von denen die Elektroniker träumten, und auf die Stockhausen in peinlich genauen Experimenten soviel Energie verwendet hat? Zum Schluß kämen dann die "Computer", um alle möglichen Tonkombinationen des Solfège, oder besser noch: der akustischen Parameter des Klangs zu realisieren?

Dies war nicht die "andere Musik", wie sie sich Schaeffer als Anregung für ein "anderes Hören" wünschte. Auf der Basis experimenteller Klangforschung, der Analyse und Klassifikation vorhandener aufgenommener Klänge und ihrer Reduktion auf kleinste Elementarbestandteile und deren Zusammensetzung zu neuen Klangverbindungen (durch Schnitt und Montage) sollte sich nach seinen Vorstellungen nicht nur eine neue, verallgemeinerte Musiktheorie entwickeln, sondern auch eine neue Musik und ein ihr adäquates neues Hören:

Durch die Erfindung neuer Objekte gelangt man zum Nie-Gehörten. Aber dieses Nie-Gehörte als solches hat nur potentielles musikalisches Interesse. Es muß von einem Gehör aufgearbeitet, angeeignet, assimiliert werden, das sich im gleichen Augenblick erzieht, indem es das Nie-Gehörte entdeckt.

Als Übung auf dem Weg "zum Nie-Gehörten" empfahl Schaeffer das "reduzierte Hören": das Hören aufgenommener Klangstrukturen und Klänge, d. h. die Wahrnehmung von Ereignissen, die sich nur noch durch das Ohr erfassen lassen, da sie nicht mehr mit dem visuellen Eindruck der Klangproduktion verbunden ist. Erfahrungen mit solchen Klängen sind elementare Beispiele für das, was Adorno auf höherer Ebene "Dinge, von denen wir nicht wissen, was sie sind" nannte. Die Isolierung der Klangwahrnehmung von dem die Klangwirkung erzeugenden, auch mit den Augen verfolgbaren Vorgang der Klangerzeugung kann die Hörsituation radikal verändern. Selbst die Identifikation aus der Erfahrung bekannter möglichst "naturgetreu" aufgenommener Ereignisse kann mißlingen, wenn die gewohnte Kopplung von Auge und Ohr aufgehoben ist. Noch schwieriger wird die Identifikation, wenn die Zerlegung in kleinste Montagepartikel selbst die aus der Erfahrung bekannten Elementareinheiten der Sprache (das Wort oder die Silbe), der Musik (der Ton, eventuell der Akkord oder das Motiv) oder des Geräusches (das Einzelereignis innerhalb eines komplexen Geräuschvorganges, z. B. das Anlassen des Motors bei der Abfahrt eines Autos oder Motorrades) noch weiter in kleinste Bestandteile zerlegt, die dann häufig nicht mehr klar identifizierbar (nicht einmal einem der drei Erfahrungsbereiche zweifelsfrei zuzuordnen) sind. Noch stärker lösen sich Klänge und Klangfragmente aus ihren ursprünglichen Erfahrungszusammenhängen dann, wenn sie nicht in möglichst "naturgetreuen" Aufnahmen, sondern in klanglichen Verfremdungen zu hören sind - z. B. transponiert (aufwärts: Versetzung in höhere Tonlage und Beschleunigung - Zeitraffer; abwärts: Versetzung in tiefere Tonlage und Verlangsamung - Zeitlupe), in Rückwärtswiedergabe, in Filterungen des Klangspektrums oder moduliert mit anderen Klängen. Fragmentierte, klanglich veränderte und anschließend womöglich in Montagen und Mischungen mit anderen kombinierte Klänge können in der Regel nicht an vorausgegangenen Erfahrungen, z. B. an bekannten (vokalen oder instrumentalen) Klangfarben oder alltäglichen Hörvorgängen gemessen und entsprechend identifiziert werden. Klänge, denen nicht mehr anzuhören ist, wie sie zustande gekommen sind, provozieren beim Hörer die Frage, wie und als was sie gehört werden können, was sie sind.

Aufgenommene Klänge können sich als reine Hörereignisse aus gewohnten Erfahrungszusammenhängen lösen. In einfachen Fällen wird dies daran erkennbar, daß das Ohr sowohl den ursprünglichen klanglichen Kontext als auch die von diesem abgelösten Klangmerkmale noch erkennen kann, also neuartige Klänge als Verfremdungen bekannter Klänge wahrnehmen kann.

DAS ANDERE HÖREN. UNSICHTBARE MUSIK ODER AKUSTISCHE KUNST?

- Zur Terminologie

- Musik: Tonkunst oder Hörkunst?

Alternative Ansätze musikalischen Denkens

(musikalischer und musikübergreifender Kommunikation)

- Hören und Sehen - Unsichtbare und sichtbare Musik - Akustische und audiovisuelle Kunst
[Zurück]   [Vor]   [Hoch]   [Startseite]        [Index]   [Frisius-Homepage]