Dokument: Inhalt\ Diverse Texte\ Hören und Sehen - Sichtbare Musik b.doc\ Hören und Sehen - Sichtbare Musik.doc
[Zurück]   [Vor]   [Hoch]   [Startseite]        Index

 

7.26.1 Hören und Sehen - Sichtbare Musik.doc


Rudolf Frisius

HÖREN UND SEHEN - SICHTBARE MUSIK

Diesseits und jenseits der Oper: Hören und Sehen als unbewältigte Konfliktsituation

"Das entschieden barocke Werk ließ eine charmante Haitianerin (Eurydice) in einer Begräbnisdekoration zu den konkretesten Klängen tanzen; Philippe Arthuys, Träger venezianischer Obelisken, brachte, von elektronischem Gluckern begleitet, vor der Aschenurne ein Trankopfer dar, während Geigen nach reinster Zigeunermanier Krokodilstränen in den Kulissen vergossen. Das war zuviel für unsere Deutschen, die zunehmend überrascht und entrüstet reagierten, aber mehr einiger herzhaft tonaler Modulationen als unserer konkreten Exzesse wegen." Diese Beschreibung gilt einem folgenreichen Skandal auf den Donaueschinger Musiktagen 1953: Der Uraufführung von "Orphée 53". Pierre Schaffer, der diese "opéra concrète" zusammen mit Pierre Henry geschaffen hat, ist damals auf heftigste Ablehnung gestoßen mit dem Versuch, neue Klangwelten mit den Aufführungskonventionen des Konzert- und Opernbetriebes zu versöhnen. Schaeffers Konzeption einer Lautsprecheroper mit live hinzutretenden Musikern und Darstellern hatte, wie er selbst später berichtet hat, damals Konflikte zwischen konventionellen und traditionellen Klangstrukturen, zwischen Hörbarem und Sichtbarem provoziert, mit denen nicht einmal sein Koautor einverstanden gewesen war: "Während Pierre Henry sein Heil in der Flucht nach vorn suchte, im Außer-Sich-Geraten des Klangs, in der Heftigkeit, in den schreckenerregenden Wirkungen einer Freisetzung des musikalischen Unbewußten, suchte ich, das zerrissene Band zur Musik der Gehörbildungsklassen und der Konservatorien, des Orchesters und der Opern neu zu knüpfen.(...) Die Autoren waren von Anfang an zu einem Kompromiß zwischen ihren Konzeptionen gezwungen, da Pierre Henry auf einer strengen stilistischen Geschlossenheit bestand, während ich mich vor allem darauf festgebissen hatte, die Möglichkeiten des konkreten Einflusses auf einen entschieden traditionellen Vokalstil zu erproben." Die Vermischung neuartiger, vorproduzierter Lautsprecherklänge mit mehr oder weniger konventionellen Live-Klängen und mit Versuchen szenischer Darstellung blieb selbst unter den beiden Autoren nicht unumstritten. So kam es dazu, daß zwei Jahre nach dem Donaueschinger Mißerfolg Pierre Henry allein des Werk zu einer reinen Tonbandmusik umarbeitete, die dann, in Verbindung mit einer von Maurice Béjart realisierten Ballett-Inszenierung, zu einem Welterfolg geworden ist: In dieser radikalen Trennung der vorproduzierten "unsichtbaren" Musik von der Live-Darbietung des Balletts wirkte die Verbindung zwischen Hörbarem und Sichtbarem offensichtlich überzeugend, während zuvor die pseudo-opernhafte Darbietung offensichtlich gescheitert war.

Seit den frühen 1950er Jahren ist deutlich geworden, daß viele Zusammenhänge zwischen Hörbarem und Sichtbarem fragwürdig geworden sind, die bis dahin im Musikleben meistens als selbstverständlich und unproblematisch angesehen worden waren. Junge Komponisten, die nach den Schrecken der Kriegsjahre neue, von belasteten Traditionen freie Wege finden wollten, suchten damals nach Ansätzen eines radikalen Neubeginns, der alle bisher bekannten Vorstellungen und Assoziationszusammenhänge in Frage stellte. Die Musik selbst, ja selbst der einzelne Klang und die Möglichkeiten seiner Strukturierung waren zum Problem geworden. Die radikalsten Komponisten stellten alles Vorgegebene in Frage - nicht nur überkommene rhythmische, melodische, harmonische und klangliche Strukturierungen, sondern auch den der realen Hörwelt entnommenen, aufgenommenen und technisch verarbeiteten Klang, mit dem die konkreten Musiker arbeiteten. Der Komponist sollte von einfachsten Elementen ausgehen und aus diesen eine neue musikalische Sprache schaffen. So ergab sich die Forderung nach einer auf ihre kleinsten Bestandteile reduzierten "punktuellen" Musik, in der alle bisher bekannten kommunikativen Zusammenhänge zunächst einmal aufgelöst erscheinen - nicht nur in der Musik selbst, sondern vor allem auch in ihren Verbindungen mit Wort und Szene. Musik wurde zur abstrakten Struktur, die sich im Extremfall sogar aus der konventionellen, mit Ohr und Auge verfolgbaren Präsentation in Konzertsaal und Opernhaus löste und zur "unsichtbaren", im Studio vorproduzierten Lautsprechermusik wurde. In dieser Situation provozierte der Versuch, etwa neue Musik für eine konventionelle Opernbühne zu schreiben, bei den Anhängern des radikalen Fortschritts nicht selten den Vorwurf der Anbiederung ans Restaurative oder gar Reaktionäre, als Verrat an den Idealen einer neuen "musique pure". Die vollständig auf die Erneuerung des Hörens konzentrierte, ja reduzierte Musik mußte sich vollständig erneuern, bevor sie sich wieder zu anderen Sinnes- und Erfahrungsbereichen öffnen konnte.

Wie schwierig die Absage an das Alte und die Suche nach Neuem waren, zeigt sich in der Entwicklung seit den frühen 1950er Jahren in der Auseinandersetzung selbst zwischen den radikalsten Exponenten der damals neuen Entwicklungen - vor allem zwischen Pierre Boulez, Karlheinz Stockhausen und Luigi Nono: drei Komponisten, die damals, z. B. als Besucher der Darmstädter Ferienkurse, in so intensivem Kontakt standen, daß sie und einige ihnen nahestehende Komponisten zeitweilig mit dem (eigentlich nicht ganz zutreffenden) Etikett "Darmstädter Schule" versehen wurden. Dies geschah, obwohl unverkennbar war, daß keiner dieser Komponisten sich irgend einer Schulmeinung unterzuordnen bereit war. Gleichwohl gab es zwischen ihnen einen intensiven Erfahrungsaustausch, in dem tiefgreifende Meinungsverschiedenheiten keineswegs unterschlagen wurden. Schon frühzeitig zeichneten sich in internen Diskussionen Meinungsverschiedenheiten zwischen den drei sogenannten Schulhäuptern ab, die erst später an die Öffentlichkeit dringen sollten - und die auf längere Sicht am deutlichsten in unterschiedlichen Positionen zum Thema "Hören und Sehen" erkennbar wurden: Der junge Stockhausen war vom seriellen Rationalismus so gründlich überzeugt, daß er alle diesem unzugänglich erscheinenden Aspekte der Musik zunächst ausschalten wollte - also insbesondere auch Vokalmusik, die an einen Text und an dessen Ausdrucksinhalte gebunden war. In dieser Hinsicht war er anderer Meinung als Nono, der neben reiner Instrumentalmusik die kompositorische Auseinandersetzung mit Text, Gesang und Ausdruck nicht missen mochte. Der Dissens zwischen beiden wurde offenkundig, als sie sich selbst bei der Interpretation derselben Musik entzweiten: Stockhausen, der selbst schon in seinem "Gesang der Jünglinge" (1955-1956) die Absage an Text und Gesang aufgegeben und beides (teilweise in extremer Pulvierisierung und Akkumulierung der Gesangslaute und Gesangslinien) in neue elektronische Klangstrukturen integriert hatte, glaubte verwandte Tendenzen bei Nono entdecken zu können, als er dessen angeblich abstrahierende Textbehandlung in der fast gleichzeitig entstandenen Kantate "Il canto sospeso" lobte. Nono hat dies später heftig getadelt als "einseitig subjektiv beobachtende Materialanalyse" und 1960 eine Richtigstellung aus eigener Sicht versucht: "Der Text (...) wurde durchgehend komponiert. Die letzte Einheit, in welche er aufgespaltet wurde, ist das Wort, nicht die Silben." Ob der Hörer Nonos komplexe, bisweilen extrem aufgesplitterte Textbehandlung eher im Sinne Stockhausens oder eher im Sinne des Komponisten wahrnimmt, läßt sich pauschal wahrscheinlich nicht beantworten. Unverkennbar aber ist, daß Nono auch in seiner weiteren kompositorischen Entwicklung unter Beweis gestellt hat, wie wichtig Sprache und Ausdruck für ihn geblieben sind: so wichtig, daß in ihrem Kontext der Schritt zum Musiktheater durchaus konsequent war. In diesem Sinne hat der Komponist sein musiktheatralisches Werk "Intolleranza" (1960-1961) als "azione scenica", als Alternative zur traditionellen Oper charakterisiert mit folgenden Stichworten: Und heute? Das Musiktheater ist noch unterwegs. Das entscheidende Bedürfnis: Kommunikation. Neue menschliche Situationen suchen dringend ihren Ausdruck. Dieses Manifest zur Erneuerung des Musiktheaters gilt gleichwohl einer Komposition, die, wohl auf der Suche nach expressiver Deutlichkeit und Wirkung, in ihrer Dramaturgie durchaus noch narrative Elemente duldet und die auch musikalisch manchen Klischees der traditionellen Opernkomposition verbunden bleibt (z. B. in der Präsentation des politischen Flüchtlings als Heldentenor, in der plakativen Verwendung von Sprechtexten und Geräuschen und in dramatisch-lyrischen Kontrasten der Instrumente und Stimmen).

Nonos Hoffnung, daß die Verbindung des Klanges mit dem Wort und mit dem Gesang neue, von der Tradition unbelastete Verbindungen zwischen Hörbarem und Sichtbarem im modernen Musiktheater ermöglichen könnte, hat keineswegs ungeteilte Zustimmung gefunden. Von Heinz Klaus Metzger mußte der serielle Ausdrucksmusiker und (Quasi-)Opernkomponist sich als "serieller Pfitzner" verspotten lassen. Die szenische Wiederaufbereitung älterer Kompositionen mit gelegentlichen Ansätzen zu holzschnittartigen ideologischen Zuspitzungen, die in "Intolleranza" und, stärker noch, in Nonos zweitem Hauptwerk für das Musiktheater ("Intolleranza", 1972/74), hat schwierige Probleme nicht zuletzt in durchaus heterogenen und kontroversen Versuchen der Inszenierung provoziert. Nono, der in seinen Partituren auf Regieanweisungen weitgehend oder vollständig verzichtete, hat seine im Musiktheater mündenden ästhetischen und ideologischen Vorstellungen, in seinem Spätwerk dann weitgehend selbst in Frage gestellt: In seinem Streichquartett "Fragmente - Stille. An Diotima" (1979-1980) werden Text-Fragmente von Hölderlin nicht gesungen, sondern nur noch stumm in der Partitur (mit)gelesen. In "Prometeo" (1981/84; 2. Fassung 1985) mutiert das Musiktheater zur "Tragedia dell´ascolto". So findet die Musik auf anderer Ebene wieder zur intensiven Konzentration auf das Innere der Klangstrukturen und Klänge zurück, die wir aus vielen Werken des jungen Nono kennen. Die Hinwendung zum Musiktheater in seiner mittleren Periode erscheint bei Nono, anders als bei vielen anderen Komponisten auch seiner Generation, keineswegs als Ziel, sondern als Versuch einer Öffnung, der sich über mehrere Jahrzehnte hinweg entwickelte, aber letztlich dann doch wieder zurückgenommen wurde.

Wege vom abstrakten Klang über die Stimme zur szenischen Darstellung, wie sie der Luigi Nono seit den 1950er Jahren gesucht hat, standen in beziehungsreichem Kontrast zu anderen Ansätzen, die sich vor allem in ihrer Position zum traditionellen Opernbetrieb anders artikulierten: Während Nono bei der Aufführung seiner Opern oft eher mit politischen als mit aufführungspraktischen Schwierigkeiten zu kämpfen hatte, obwohl seine Musiksprache weitgehend kompromißlos blieb, gerieten andere Komponisten seiner Generation, sobald sie sich dem Musiktheater näherten, häufig in aufführungspraktische Konfliktsituationen, denen entweder durch Anpassung an die Anforderungen des konventionellen Opernbetriebes oder durch alternative (Musik-)Theaterarbeit in anderen Institutionen Rechnung getragen werden mußte. Den erstgenannten Weg betrat schon in den 1950er Jahren Hans Werner Henze (der sich 1959 mit einer Darmstädter Aufführung des "König Hirsch" definitiv von den Idealen der "Darmstädter Schule" distanzierte), im folgenden Jahrzehnt Krzystof Penderecki (dessen Weg von bruitistisch-postserieller Orchestermusik über die Lukaspassion bis zur politisch engagierten Auseinandersetzung mit Glaube und Aberglaube in der Oper "Die Teufel von Loudon" geführt hatte; ähnlich, wenngleich nicht so geradlinig und weniger konventionell verlief die kompositorische Entwicklung György Ligetis, der nachdem er durch seine Emigration den Zwängen des sozialischen Realismus entronnen war, zunächst elektronische Tonbandkompositionen und Orchesterstücke komponierte, dann die latent szenischen Werke "Aventures" und "Nouvelles Aventures", der anschließend geistliche Musik vertonte im "Requiem" und in dessen Seitenstück "Lux aeterna" und der einige Jahre später dann auch mit "Le grand macabre" den Weg zur Oper fand ). Während Henze und Penderecki sich von traditioneller Operndramaturgie nicht wesentlich weiter entfernten als viele andere gemäßigt moderne Opernkomponisten ihrer Zeit, hatte Bernd Alois Zimmermann mit viel größeren Schwierigkeiten zu kämpfen, als er in seiner Oper "Die Soldaten" traditionelle narrative Strukturen aufbrach und in die polyphone Überlagerung verschiedener szenischer Prozesse hineintrieb. Auch dieses Werk aber fand schließlich seinen Platz auf großen offiziellen Opernbühnen - also einen besseren Platz im nach wie vor stark konventionell geprägten Musikleben als viele Arbeiten, die in der Verbindung von Klang und Szene sich noch wesentlich weiter vom konventionell Etablierten entfernten.

Die Suche nach neuen Möglichkeiten der Verbindung zwischen Hörbarem und Sichtbarem abseits der etablierten Institutionen des Musiktheaters manifestiert sich, vor allem in den späten 1950er und in den 1960er Jahren, teils latent, teils in offener Rebellion gegen traditionsbedingte Zwänge. Im einfachsten Falle, wenn die Musik mit weitgehend konventionellen Aufführungsbedingungen vorlieb nehmen muß, kann dies schon durch die Theatralisierung einer Musikaufführung geschehen. Dieter Schnebel hat dies am Beispiel von Mauricio Kagels "Sur scène" (1959-1960) beschrieben: Die Instrumentalisten sind in doppeltem Sinn Spieler - sie spielen Musik und eine Rolle. Letztere ist allerdings nicht in dem Maß verfremdet wie die des Sprechers oder Sängers. Die Drei tun kaum anderes, als was Interpreten sonst auch tun, höchstens daß sie übertreiben. Schnebel hat darauf hingewiesen, daß Kagel bereits wenig später, in dem Ensemblestück "Sonant" (1960/...), auf diesem Wege einen Schritt weiter gegangen ist: Hier wird instrumentales Spiel nicht nur wirklich Spiel - Spielerei: ein Ball ist auf die Pauke zu werfen - sondern Spiel noch in anderem Sinn, nämlich Thetaer - der Instrumentalist spielt eine Rolle. Das tat er zwar auch bisher, aber nur einiges davon erachtete man als relevant. Realisierung von Musik wurde abstrakt vom Ergebnis her gesehen, als ob der Vortrag eines Musikstückes nur darin bestünde, die Vorschriften des Textes in richtiges Niederdrücken und Loslassen von Tasten und Pedalen umzusetzen.(...) Der Musik "Sonant" indes liegt gerade am Vorgang der Realisation. Sie ist begriffen als Komplex menschlicher Handlungweisen, die Wililkürliches und Unwillkürliches, Bewußtes und Unbewußtes enthalten. Die bis ins Szenische hineinführende Theatralisierung des musikalischen Aufführungsprozesses führt so weit, daß in einem Teil des Stückes die Interpreten auch aus den Spielanweisungen vorlesen, so daß das Publikum einerseits die Ausführungsanweisungen kontrollieren kann wie ein die Partitur mitlesender Dirigent (eine Möglichkeit, die Kagel später, in "Diaphonie" mit projizierten Partiturbildern noch weiter entwickelte), andererseits motiviert wird, die gehörten sprachlichen Anweisungen und klanglichen Resultate auch mit den Augen zu verfolgen, mit den sichtbaren Aktionen der Instrumentalisten zu vergleichen. - Klangliche und szenische Aktionen verbindet Schnebel auch in seiner eigenen Musik. Im Vorwort seiner Partitur "Glossolalie 61" für drei oder vier Sprecher und drei oder vier Instrumentalisten (einer Ausarbeitung des 1959-60 definierten Projektes Glossolalie), die außer der Musik auch zahlreiche Regieanweisungen enthält, schreibt der Komponist unter dem Stichwort "Szenische Aufführung" Folgendes: Glossolalie kann, allerdings nur auf genügend großer Bühne, auch szenisch aufgeführt werden, sodaß die Sprecher gänzlich als Schauspieler agieren. Diese Anweisungen verweisen darauf, daß der Übergang zur szenischen Aktion dem Sprecher (ebenso wie dem Sänger) oft leichter gelingen als dem Instrumentalisten. Dies kann sich, deutlicher noch als in gesprochenen oder gesungenen Texten, auch in freien, vom Sprachlichen losgelösten Stimmäußerungen, auch in anderen, den Stimmklang imitierenden oder verfremdenden (instrumentalen oder elektroakustischen) Klängen deutlich werden. Beispiele hierfür finden sich schon in den ersten Jahren der elektroakustischen Musik (collagiert in der "Symphonie pour un homme seul" von Pierre Schaeffer und Pierre Henry, 1949-1950; vollständig elektronisch verwandelt in "Haut Voltage" von Pierre Henry, 1956; mit gleichsam zum Sprechen gebrachten elektronischen Klängen in "Artikulation" von György Ligeti, 1958). Luciano Berio hat gezeigt, welche Impulse die Arbeit mit der elektronisch gespeicherten und verarbeiteten Stimme auch für die Live-Vokalmusik geben kann: In der Zusammenarbeit mit Cathy Berberian entstanden nicht nur "Musiken für unsichtbare Stimme(n)" ("Tema - Omaggio a Joyce", 1958; "Visage", 1961), sondern auch ein Vokalsolo mit szenischen Elementen ("Sequenza III"; 1965). Erst seit den 1980er Jahren hat Berio sich der Opernkomposition zugewandt (beginnend mit "La vera storia", 1982, und "Un re in ascolto", 1984).

Experimentelle "sichtbare Musik" konnte seit den 1950er Jahren nicht nur aus neuartiger "Musik mit Stimmen" entstehen, sondern auch aus theatralisch inszenierter neuer Instrumentalmusik oder aus szenischen Aktionen mit unkonventionellen Klangerzeugern. Diese Musik konnte (und kann auch am Ende des 20. Jahrhunderts noch) leicht zwischen die Fronten geraten, wenn sich die Frage nach adäquaten Aufführungsorten und -situationen stellt. In mehr oder weniger konventioneller Darbietung auf einem etablierten Musikfestival (und mit Interpreten, deren darstellerische Qualitäten nicht immer das Niveau ihrer musikalischen Professionalität erreichten) läßt sich musikalisches Theater nicht überzeugend präsentieren; andererseits fehlten und fehlen oft die Voraussetzungen für eine szenisch überzeugte Darbietung, wenn die etablierten Institutionen des (Musik-)Theaters sich verweiger(te)n und allenfalls die begrenzten Möglichkeiten einer Experimentierbühne zur Verfügung stell(t)en. Wenn aber seit den 1970er Jahren auch avancierte Komponisten schließlich Zugang zu etablierten Opernhäusern fanden, so ergaben sich daraus für experimentelle Bestrebungen nicht nur Chancen, sondern gelegentlich auch Risiken: Die etablierten Opern-Institutionen förderten nicht selten die Produktion mehr oder weniger etablierter Opernmusik - auch bei Komponisten, die womöglich zuvor andere Erwartungen geweckt hatten. Hören und Sehen verbanden sich nicht selten wieder an Konstellationen, die mehr oder weniger deutlich an bereits aus der Tradition Bekanntes erinnerten. Dennoch konnte nicht in Vergessenheit geraten, daß die Intentionen Neuer Musik, auch auf der Suche nach neuen audiovisuellen Konstellationen, ursprünglich wesentlich ehrgeiziger gewesen waren und daß viele Probleme auf dem Wege ihrer Lösung nach wie vor ungelöst blieben.

Hören und Sehen haben sich im 20. Jahrhundert, nicht zuletzt unter dem Einfluß technischer Entwicklungen und ihrer Auswirkungen auch auf traditionelle Bereiche des kulturellen leben, weiter entwickelt in der polaren Spannung zwischen Autonomie und polyästhetischer Koexistenz. Die unteilbare Einheit eines musikalischen Live-Erlebens, in dem Hörbares und Sichtbares untrennbar miteinander verknüpft sind, wurde in Frage gestellt durch technische Entwicklungen, die die Isolierbarkeit und die - isolierte oder kombinierte - Manipulierbarkeit getrennter Sinnesbereiche und Sinneserfahrungen in zuvor unvorstellbaren Ausmaßen vorangetrieben haben. In Frage gestellt wurde nicht nur die Aura des Kunstwerkes (auch des Gesamtkunstwerkes älterer oder neuerer Provenienz), sondern auch seine Geschlossenheit und die Bindung der Rezeption an konventionell etablierte Institutionen und Situationen. Die Automatisierung der künstlerischen Produktion und von Prozessen der künstlerisch geformten Vermittlung sinnlicher Erfahrungen haben neue Möglichkeiten der Kommunikation in einzelnen oder in mehreren miteinander verbundene Sinnesbereichen geschaffen, in denen sich das Potential künstlerischer Gestaltung jeweils in verschiedenen Richtungen erweitern kann: einerseits in der ästhetischen Öffnung zur Alltagserfahrung, andererseits in der experimentellen Erforschung neuer Wahrnehmungsinhalte und Wahrnehmungsstrukturen. Die Entwicklung bleibt offen. Wer sie sich in größeren Zusammenhängen sich vergegenwärtigt und befragt, kann dabei auch auf Fragen stoßen, die auch am Endes des 20. Jahrhunderts noch aktuell sind: als "unanswered questions."

Hören und Sehen im Zeitalter der technischen (Re-)Produzierbarkeit

Was ist neu in der Neuen Musik des 20. Jahrhunderts? Ist es in erster Linie die Entwicklung eines neuen Verhältnisses zur klanglichen Wirklichkeit - die Erfindung neuer Klangwelten, die produktive Erschließung und Veränderung der Hörerfahrung? Oder hat sich die Musik in Aspekten verändert, die nicht nur ihren eigenen Begriff - und darüber hinaus den noch weiteren Begriff der Hörerfahrung - tangieren, sondern auch in weitere Erfahrungsbereiche hineinwirken?

Hat sich im 20. Jahrhundert die Musik in einer Weise verändert, die ihren eigenen Begriff in Frage zu stellen beginnt? Hat sie sich von Grund auf erneuert oder hat sie sich im Zuge radikaler Verwandlungsprozesse selbst aufgegeben und in etwas anderes verwandelt? Wie sollte man denn, wenn dies zuträfe, einen Oberbegriff finden für das, was traditionell Musik genannt wurde, aber inzwischen womöglich zu etwas anderem geworden ist, und wie ließe sich dieses andere benennen?

Es ist offensichtlich schwierig, am Ende des 20. Jahrhunderts den Entwicklungsstand der Musik so zu beschreiben, daß auch grundsätzlichen Veränderungen dieses Phänomens, womöglich seinem (sei es auch nur partiellen) Verschwinden oder seinem Aufgehen in anderen Zusammenhängen Rechnung getragen wird. Die Schwierigkeiten beginnen schon damit, daß die sinnliche Erfahrungsbasis der Musik im 20. Jahrhundert in vielfältiger Weise in Frage gestellt worden ist - nicht nur in der Faktur der Musik selbst, sondern auch in den Modalitäten ihrer Vermittlung. Dies zeigt sich deutlich in Zusammenhängen der Hörerfahrung mit anderen Erfahrungsbereichen, insbesondere in Zusammanhängen zwischen Hören und Sehen: Während in früheren Jahrhunderten musikalische Erfahrungen in der Regel an Live-Erlebnisse, an scheinbar "natürliche" Zusammenhänge zwischen Gehörtem und Gesehenen, gebunden waren, haben sich im Zeitalter der technischen (Re-)

Produzierbarkeit neue Wahrnehmungs-Situationen ergeben: Musik, die über Medien übertragen wird, kann unabhängig von einer realen Aufführungs-Situation erklingen und wahrgenommen werden. In dieser Situation stellt sich die Frage nach neuen Modalitäten der klanglichen Realisierung, der Klangwiedergabe und der kommunikativen Wirkung klanglicher Ereignisse (nicht nur, aber auch von Musik und ihren möglichen Nachbar- oder Nachfolgedisziplinen). Wie kommt es, daß auch im Zeitalter des Lautsprechers und der Lautsprechermusik Musik immer noch so häufig in mehr oder weniger traditioneller Konzertdarbietung aufgeführt wird. Wie ist es zu erklären, daß auch im audiovisuellen Zeitalter traditionelle, aus der Geschichte von Oper und Musiktheater geläufige Vermittlungsformen immer noch eine so große Rolle spielen?

Das 20. Jahrhundert steht im Zeichen technischer Entwicklungen, die traditionelle Vorprägungen und Vernetzungen sinnlicher Wahrnehmung aufgebrochen haben. Vorbereitet wurde dies schon vor Jahrhundertbeginn durch die Asynchronität wichtiger technischer Innovationen: Technisch reproduzierbare Klänge, wie sie seit 1877 (seit der Erfindung des Phonographen durch Thomas Alva Edison) zur Verfügung standen, sind als technische Erfindung jünger als die Photographien - die technisch konservierten und reproduzierten Bilder, die schon im 19. Jahrhundert die Seherfahrung und die Bildende Kunst nachdrücklich verändert haben. Die technisch (re-)produzierten Hörbilder hatten einen beträchtlichen Entwicklungs-Rückstand gegenüber den Sehbildern zu überwinden - und noch am Ende des 20. Jahrhunderts kann zweifelhaft erscheinen, ob er inzwischen eingeholt ist. Schon kurz vor der Jahrhundertwende, in den Anfangsjahren des Stummfilms, wurde deutlich, daß eine gleichwertige Synthese technisch reproduzierbarer (bewegter) Bilder und Klänge vorerst nicht zustande kommen konnte. Für die Musikbegleitung stummer bewegter Bilder wählte man in der Frühzeit des Films nicht konservierte Klänge (die damals in der technischen Qualität den Bildern weit unterlegen waren, auch nicht den Bildern entsprechend geschnitten werden konnten), sondern Live-Musik. Die Musik des Stummfilmpianisten oder des Kino-Orchesters bereiteten anachronistischen Hörkonventionen der Filmmusik den Weg, die auch noch in späteren Jahrzehnten, nach der Erfindung des Tonfilms wirksam blieben: Montagestrukturen geschnittener Bilder werden begleitet von herkömmlich gespielter Musik, die die Schnitte gleichsam überkleistert und das Publikum mit Pseudo-Live-Erlebnissen beruhigt. Noch stärker zeigte sich das Fortleben tradierter (eigentlich durch die technische Entwicklung anachronistisch gewordener) Hörkonventionen in der autonomen Musik: Weder Phonograph und Grammophon noch später der Rundfunk stellten tradierte Formen der Musikvermittlung radikal in Frage: Die Strukturen des Musiklebens, vor allem des Konzertbetriebes, blieben weitgehend unverändert, und auch die avancierten Komponisten trugen dem Rechnung, indem sie weiterhin vorrangig für den Konzertsaal komponierten. Die meiste auf Tonträgern oder über den Rundfunk verbreitete Musik war nicht spezifisch für diese Medien bestimmt, sondern gleichsam für den Lautsprecher umfunktionierte Konzertmusik (oder sogar aus dem ursprünglichen audiovisuellen Kontext herausgelöste Opernmusik). Seit den 1920er Jahren hat das Publikum gelernt, szenische Aktionen nicht nur live auf der Bühne, sondern auch in technischer Konservierung auf der Leinwand zu verfolgen. Niemand vermißt noch im Kino die Live-Qualitäten des Theaters. Im Musikleben aber hat sich die Kunst der technisch (re-)produzierten Klänge auch am Ende dieses Jahrhunderts noch immer nicht in vergleichbarem Ausmaße durchgesetzt: Nicht nur viele Hörer, sondern auch viele Komponisten und vor allem viele Veranstalter halten es für unverzichtbar, daß bei der Aufführung von Musik ausführende Musiker live auf der Bühne auftreten. Sie verteidigen konventionelle Hörkonventionen gegen neue Möglichkeiten, wie sie die moderne Technik bietet: die Emanzipation des Musikhörens von den sichtbaren Begleitumständen der musikalischen Aufführung.

Sichtbare und unsichtbare Musik

Grundlegende Veränderungen im Verhältnis zwischen Hören und Sehen, wie sie sich vor allem im 20. Jahrhundert vollzogen haben, betreffen einerseits die Isolierbarkeit, andererseits die Manipulierbarkeit dieser verschiedenen Sinnesbereiche. Isolierbarkeit und Manipulierbarkeit ergeben sich dabei nicht unbedingt als Selbstzweck, sondern sie können auch den Boden bereiten für neuartige Formen der Synthese und Integration. Wer hiernach sucht, kann ausgehen vom Nachdenken über schockierende Grenzerfahrungen: Von der gespenstischen Wirkung stummer bewegter Bilder um 1895 ("unhörbare Bilder") oder von der befremdlichen Wirkung reiner Lautsprechermusik in Konzertsälen der frühen 1950er Jahre ("unsichtbare Klänge"). Gehörtes und Gesehenes erklären und verdeutlichen sich hier nicht mehr wechselseitig, sondern entwickeln sich eigenständig über Assoziationszusammenhänge hinaus, die zuvor als unauflöslich galten: Technisch produzierte Bilder und Klänge erschließen neue Sinneserfahrungen, die ohne technische Hilfsmittel sich nicht machen ließen. Die unterschiedlichen Gegebenheiten auditiver und visueller Techniken sowie die asynchrone Entwicklung technischer Reproduzierbarkeit im Visuellen (seit Beginn des Jahrhunderts) und im Auditiven (vor allem in der zweiten Jahrhunderthälfte) haben dazu geführt, daß experimentelle künstlerische Entwicklungen in beiden Bereichen zunächst für einige Zeit getrennt voneinander verlaufen mußten, bevor Versuche neuartiger Synthesen gewagt werden konnten. Dabei hatte es die experimentelle Klangkunst, die Kunst der Hörbilder, im Verhältnis zur experimentellen Kunst der (stehenden oder bewegten)

(Seh-)Bilder einerseits schwerer, andererseits aber auch leichter: Ihre wichtigsten Innovationen im Bereich der Montagetechnik und der differenzierten Aufnahmequalität hinkten mehrere Jahrzehnte hinter der Filmkunst hinterher; andererseits ist die experimentelle Hörkunst dadurch aber auch manchen Gefahren allzu rascher Kommerzialisierung entgangen. Als in den 1930er Jahren mit der Verdrängung des Stummfilms durch den Tonfilm auch die experimentelle Montageästhetik ihren Boden verlor und eher traditionellen narrativen Strukturen weichen mußte, wandte sich die Bildästhetik gleichsam rückwärts: in die Richtung der sie illustrativ begleitenden Musik, die weitgehend den Klang- und Kompositionskonventionen des 19. und frühen 20. Jahrhunderts verpflichtet blieb. Der Weg vom experimentellen Stummfilm zum experimentellen Hörfilm und Tonfilm wurde damals nicht weiter verfolgt, obwohl avancierte russische Filmemacher wie Pudowkin und Eisenstein oder der deutsche Stumm- und Hörfilmpionier Walther Ruttmann zuvor hierfür wichtige Impulse gegeben hatten. Erst seit 1948, seit den ersten Produktionen der konkreten Musik, setzte eine über einzelne Ansätze hinausführende, kontinuierliche Entwicklung technisch produzierter Klänge ein, die den technischen Standards der bildlichen Montagestrukturen gewachsen war, allerdings nur in Ausnahmefällen sich mit experimentellen Filmproduktionen tatsächlich verband. So kam es zu der paradoxen Situation, daß die radikale Veränderung der Seh-Erfahrung, wie sie die Montagestrukturen des Films evoziert hatten, einige Jahrzehnte später von den experimentellen Musikern zunächst in "unsichtbarer Musik" aufgegriffen werden mußte. Die Emanzipation der Musik von der Bebilderung vorgegebener visueller Abläufe führte hier zunächst von ihrer völligen Ablösung von sichtbaren Vorgängen. Da ihre Klänge im Studio in zahlreichen komplizierten Arbeitsgängen vorproduziert worden waren, war es nicht mehr möglich, daß das Publikum während der Aufführung Aktionen von live den Klang produzierenden Musikern mitverfolgen konnte. An traditionelle Rituale der Konzert- oder Opernaufführung erinnerten allenfalls noch Aktionen eines Klangregisseurs oder von die Tonband-Wiedergabe klanglich oder musikalisch begleitenden Akteuren. Die Möglichkeit, daß sich eine voll avancierte experimentelle Klangkunst in polyphoner Gleichwertigkeit mit experimenteller Bild- und Filmkunst verbinden könnte, wurde in den 1950er Jahren nur in seltenen Ausnahmefällen genutzt. Vorbehalte dagegen gab es offensichtlich auf verschiedenen Seiten. Sie hängen eng zusammen mit der Schwierigkeit, avancierte Möglichkeiten der Musik zu nutzen und diese dabei gleichwohl auf die Funktion der "angewandten Kunst" festzulegen.

Hörerfahrung und audiovisuelle Erfahrung

im Spannungsfeld von Autonomie und Grenzüberschreitung: "Reine" und "angewandte" Musik

In den 1950er Jahren hatten konkrete und elektronische Musik erstmals die Möglichkeit eröffnet, Musik zu produzieren, die für ihre klangliche Realisation keiner live agierenden Interpreten mehr bedarf - Musik also, bei deren Aufführung es (im Sinne traditioneller Erwartungen des Konzertpublikums) nichts mehr "zu sehen" gibt. Die Frage stellte sich, ob dies als Mangel empfunden oder als Chance für neue Möglichkeiten der Präsentation und Vermittlung gesehen werden sollte. Die Antworten hierauf konnten verschieden ausfallen - je nachdem, wie der Antwortende über das Problem einer "Musik in Funktion" dachte. Pierre Schaeffer und Pierre Henry, die beiden führenden Exponenten der konkreten Musik, hatten ihre Arbeit in einem Versuchsstudio des Rundfunks begonnen, wobei Schaeffer sich auf gründliche Erfahrungen im Bereich experimenteller Hörspielarbeit stützen konnte. Auf dieser Basis fiel es nicht schwer, Verbindungen zu Nachbardisziplinen herzustellen. Die Affinität zur Radiopraxis öffnete hierbei den Blick auch über den Bereich der Hörkünste hinaus: einerseits zum Theater, andererseits zum Film. So schuf Pierre Henry 1950 die erste konkrete Theatermusik (zu "La grande et la petite manoeuvre" von Arthur Adamov), und Pierre Schaeffer realisierte 1952 die erste konkrete Filmmusik (zu "Masquerage" von Max de Haas; zwei Jahre zuvor hatte Pierre Henry bereits aus Elementen seine "autonomen" Lautsprecherkomposition "Musique sans titre" eine Musik zum Film "Aube" von J. C. See entwickelt, also "reine" Musik zur "angewandten" Musik umfunktioniert). Sogar der junge Pierre Boulez, dem die meiste konkrete Musik vor allem wegen ihrer Affinität zur "angewandten Musik" heftig mißfiel (der aber gleichwohl selbst jahrelang als Theatermusiker für Jean Louis Barrault gearbeitet hatte) hat 1955 eine konkrete Filmmusik zu dem Film "Symphonie mécanique" von J. Mitry produziert - ein Werk allerdings, das danach in seiner offiziellen Karriere als Instrumentalkomponist keine Rolle mehr spielen sollte.

Die genannten Beispiele sind nur eine eng begrenzte Auswahl aus einem reichen Repertoire "angewandter" Musiken aus den frühen 1950er Jahren, wie sie im Pariser Studio in zwangloser Nachbarschaft zu den Produktionen "reiner" Lautsprechermusik entstanden. Pierre Schaeffer, Pierre Henry, Philippe Arthuys, Henri Sauguet und andere Komponisten scheuten sich nicht, neben ihren autonomen Produktionen auch Musiken für Radiosendungen, für das Theater oder für den Film zu realisieren. Die meisten dieser Stücke sind heute in Vergessenheit geraten oder (vereinzelt) nur noch in konzertanten Fassungen zugänglich. (Im letzteren Falle wären allerdings auch einige Produktionen zu nennen, von denen sehr zu bedauern ist, daß sie nur noch als reine Hörfassungen bekannt sind - z. B. "Orient Occident" von Iannis Xenakis (1960) oder einige Realisationen von Francois Bayle.) So erklärt es sich, daß selbst für das Pariser Studio hierarchische Abstufungen gelten, die in konkurrierenden Studios, vor allem im Kölner Studio für Elektronische Musik, noch weitaus massiver durchgesetzt wurden: Als eigentliches Ideal der elektroakustischen Musik galt die autonome Konzertwiedergabe, also unter den damaligen technischen Voraussetzungen die Aufführung als reine, "unsichtbare" Wiedergabe über Lautsprecher. Insbesondere Hören und Sehen wurden unter dieser Perspektive rigoros voneinander getrennt, und das Sehen wurde nicht selten als Behinderung des konzentrierten Hörens beargwöhnt: Der junge Stockhausen empfahl, beim Hören Elektronischer Musik die Augen zu schließen.

In den 1950er Jahren entwickelte sich das Kölner Studio zum Zentrum der "unsichtbaren Musik". Nach zwei vorbereitenden Jahren wurden dort 1953, bei der Ankunft Stockhausens, die Weichen umgestellt: Stockhausen sorgte dafür, daß elektronische Spielinstrumente künftig keine Rolle mehr spielten, und er überzeugte Herbert Eimert, den damaligen Leiter des Studios, von einer streng konstruktivistischen Ästhetik, die keinerlei Kompromisse mit der "angewandten" Musik zu erlauben schien. Diese Weichenstellung mag damals nachvollziehbar gewesen sein - zu einer Zeit, in der tatsächlich avancierte Komponisten wie Bernd Alois Zimmermann es schwer hatten, in Brotarbeiten angewandter Musik (z. B. Hörspielmusiken) vielfältigen Abhängigkeiten und Subordinationen zu entgehen; in einer Zeit überdies, in der viele Komponisten einem strengen seriellen Strukturalismus folgten, der vor allem mit dem konventionellen Opernbetrieb unvereinbar erschien (wie ihn etwa Hans Werner Henze zwar akzeptierte, dadurch aber sich von seinen radikaleren Komponistenkollegen jener Jahre absetzte). Symptomatisch für die damals heftigen Aversionen gegen "angewandte" Musik sind die Probleme, die Herbert Brün bekam, als er es wagte, im Kölner Studio elektronische Schauspielmusik zu produzieren.

Extrempositionen einer von allem Außermusikalischen gereinigten "musique pure", wie sie vor allem in den Anfangsjahren der Elektronischen Musik vertreten wurden, lassen es begreiflich erscheinen, daß der dialektische Umschlag in eine Wiederentdeckung des Visuellen nicht endlos lange auf sich warten lassen würde. Entscheidenden Anteil an dieser Entwicklung hat ein Komponist genommen, der selbst einen wichtigen Beitrag zur Entwicklung der Elektronischen Musik in Köln geleistet hat: Mauricio Kagel. Seine 1958 realisierte Tonbandkomposition "Transicion I" mit ihren weiträumigen Klangstrukturen des gleitenden Überganges markiert eine entschiedene Grenzüberschreitung über die damals vorherrschenden, seriell konstruierten Gliederungsformen hinaus. Der kontinuierliche Klangfluß dieser Kölner Produktion lädt ein zum Vergleich mit einem Stück, mit dem fast gleichzeitig Iannis Xenakis neue Wege der Klang- und Formgestaltung im Pariser Studio gesucht hat: "Diamorphoses". Diese Musik der permanenten Verwandlung und der gleitenden Übergänge existiert auch in einer (stark verkürzenden) filmischen Adaption, als Musik zum Film "Fer chaud" von J. Brissot. Die kontinuierliche Musik von Xenakis hat also nachträglich den Weg in weiter umfassende audiovisuelle Zusammenhänge gefunden. Auch in dieser Hinsicht ist sie vergleichbar mit der ersten Kölner Produktion von Mauricio Kagel, die später in seinen ersten, 1965 uraufgeführten Musikfilm "Antithese" eingegangen ist - in einen Film, der in seiner Konzeption weit hinausführt über die visuelle Aufbereitung einer kurzen Tonbandkomposition. Sein Titel ist übernommen von einer zweiten, 1962 entstandenen Tonbandkomposition Kagels, die ebenfalls als Werk der Grenzüberschreitung charakterisiert werden kann: "Antithese", eine "Komposition für elektronische und öffentliche Klänge" durchbricht die Hermetik absoluter serieller Musik, indem sie elektronische mit konkreten Klängen konfrontiert. Die Öffnung der Tonbandkomposition zur realen Hörwelt gab auch den Anstoß zu neuen, musikübergreifenden Gestaltungsideen für Hörbares und Sichtbares: Schon im Jahr der Tonbandproduktion entstand auch eine szenische Adaption als "Spiel für einen Darsteller mit elektronischen und öffentlichen Klängen", das dann 1963 im Kölner Schauspielhaus zur Uraufführung kam.

Kagels erster Musikfilm gehört zu den konsequentesten Beispielen der Integration experimenteller Klang- und Bildsequenzen. In beiden Bereichen arbeitet er mit Gestaltungsprinzipien, die sich nur mit modernen Techniken der Produktion und/oder Transformation realisieren lassen. Darüber hinaus thematisiert er grundlegende Veränderungen der Wahrnehmung unter dem Einfluß technischer Medien. Gesehenes und Gehörtes verbinden sich bald in einfachen assoziativen Zusammenhängen, bald in polyphonen Überlagerungen, bald in vielfältigen Zwischenformen. Die für das 3. Fernsehprogramm des Norddeutschen Rundfunks entstandene (und dort erstmals 1966 gesendete) Produktion ist einer der wichtigsten Beiträge zur Neubestimmung des Verhältnisses von Hören und Sehen im 20. Jahrhundert - ein Beitrag allerdings, dessen Impulse nicht einmal im engeren Erfahrungsbereich "Musik im Fernsehen" bis heute adäquat weiter entwickelt worden sind. Vielleicht liegt dies auch daran, daß Künstler, die mit experimenteller Klang- und Bildgestaltung auf gleich hohem professionellen Niveau vertraut sind (wie seit den 1960er Jahren Mauricio Kagel, später auch Bernard Pargemegiani oder Robert Cahen), nach wie vor zu den höchst seltenen Ausnahmeerscheinungen zu rechnen sind. Noch wichtiger aber dürfte der Umstand sein, daß es den audiovisuellen Künstlern nicht gelungen ist, ihre Arbeit in den Bereichen von Film und Fernsehen rechtzeitig so zu verankern, wie es seit den 1950er Jahren zumindesten teilweise den Exponenten Neuer Musik mit dem Hörfunk gelungen ist; eine letzlich leichtsinnige und verhängnisvolle Geringschätzung "angewandter" Musik hat möglicherweise dazu geführt, daß die Neue Musik wichtige Möglichkeiten ihrer Vernetzung in der vielgestaltigen Medienkultur nicht rechtzeitig hat nutzen können.

Hörbares und Sichtbares in der Musik

Vernetzungen zwischen verschiedenen Sinnesbereichen, insbesondere zwischen Hören und Sehen, spielen in der Musik eine andere Rolle als in anderen Künsten. Im Spannungsfeld zwischen Möglichkeiten und Grenzen der schriftlichen Fixierung einerseits und der klanglichen Realisierung andererseits mag sich vor allem ein Vergleich der Musik mit der Sprache anbieten (deren Erscheinungsbild und Erfahrungsbilder sich ja ebenfalls im Zeitalter der Massenmedien nicht unwesentlich verändert haben). Auch im Vergleich zwischen Musik und Sprache aber bleiben wesentliche Unterschiede unverkennbar bestehen - insbesondere Unterschiede in der Gewichtung von sinnlichem Erscheinungsbild (der Klänge oder Schriftzeichen) einerseits und Bedeutungszusammenhängen andererseits. Dennoch bleibt auffällig, daß in beiden Bereichen neben der Primärerfahrung des Hörens die Sekundärerfahrung des Lesens (also eines auf Entschlüsselung zielenden Sehens und Betrachtens) von wesentlicher Bedeutung ist. Noch am Ende des 20. Jahrhunderts bleibt kulturelle Erfahrung in wichtigen Bereichen geprägt dadurch, daß sowohl Sprache als auch Musik vor der Erfindung der Musikautomaten und der Tonträger nicht anders fixiert werden konnten als schriftlich, also durch visuelle Verschlüsselung von Ereignissen, die sich eigentlich über das Ohr vermitteln sollten. In dieser Hinsicht unterscheiden sich Musik und Sprache von visuellen Künsten, die sich in der Regel nicht in akustische Partituren umkodieren lassen. Wir kennen vielfältige Erfahrungen des Mitlesens, des imaginierenden Vorauslesens oder Nachlesens von klingender Sprache oder klingender Musik, aber nicht eines die visuelle Wahrnehmung in vergleichbarer Weise begleitenden Hörens. Dies legt die Vermutung nahe, daß der Musiker und der an Musik Interessierte in anderer Weise für Wahrnehmungen aus anderen Sinnesbereichen disponiert ist als jemand, der sich mit Malerei, Plastik oder Architektur beschäftigt.

Das Schreiben und Lesen von Musik ist nach traditioneller Vorstellung in scheinbar selbstverständlicher Weise mit dem Hören verbunden: Die Partitur des Komponisten gilt als Codierung von etwas innerlich Gehörtem, und die musikalische Interpretation dieser Partitur erscheint als Versuch, den notierten Text so zu decodieren, daß die klangliche Realisation, die real erklingende Musik, der ursprünglichen Klangvorstellung des Komponisten, wie man sie aus dem Notentext glaubt erschließen zu können, möglichst nahe kommt. Die traditionelle Partitur erscheint in dieser Perspektive lediglich als Mittel zum Zweck - als notwendiges, aber in der Regel unvermeidliches Hilfsmittel bei der Verwandlung vorgestellter in tatsächlich hörbare Klänge. In diesem Funktionszusammenhang interessieren die spezifischen Besonderheiten des Schriftbildes weniger als die Frage, ob die notierten Zeichen sich tatsächlich dafür eignen, diese Verwandlung zu steuern. Sofern dies gesichert bleibt, wird die Frage nach den spezifischen visuellen Besonderheiten der Notation sekundär: Musik läßt sich, ähnlich wie Sprache, mit abstrakten Zeichen aufschreiben, die auch bei der Übersetzung in ein anderes Schriftbild ihre Bedeutung nicht zu verändern scheinen - bei der Übertragung sei es von einer Handschrift in die andere, z. B. vom Original-Manuskript in die Abschrift durch einen Kopisten, sei es von der Handschrift zum Druck. Insofern ercheint es einleuchtend, Zusammenhängen zwischen Hören und Sehen in konventionell geschriebener Sprache oder in konventionell notierter Musik keine wesentliche Bedeutung beizumessen. Zumal im Bereich der Musik (deren Notation nicht allgemeinverständlich, sondern nur dem besonders Geschulten zugänglich und einsichtig ist) schien es unvermeidlich, daß die Mehrheit des Publikums ein Werk nicht in der vom Komponisten fixierten Form kennenlernen konnte (als an die Klangvorstellung des kundigen Lesers appellierende Partitur), sondern nur indirekt: Als Aufführung, deren Angemessenheit an die Anforderungen der Partitur sich in der Regel ohne deren genaue Kenntnis nicht überprüfen ließ. Der Laie, der (komponierte) Musik hörte, ohne sie dabei in den Noten mitverfolgen zu können, befand sich also in einer paradoxen Situation: Die Musik, die er zu hören bekam, mußte visuell, als Notation existieren, bevor sie real erklingen konnte. In der Aufführung aber ließ sich ihre Abhängigkeit von einem visuellen Substrat nicht von jedem Hörer nachvollziehen - zumal dann nicht, wenn auswendig musiziert wurde. Den Augen des Publikums erschloß sich also nicht der Text der Musik, sondern sie nahmen allenfalls das visuelle Ambiente einer Konzertaufführung wahr, das eigentlich für die aufgeführte Musik nicht wichtig war (zumindest dann, wenn präzise notierte autonome Musik aufgeführt wurde). Wer emanzipierte Kunstmusik im Konzertsaal hörte, bekam es also (wenn er nicht die Augen schloß) auch mit sichtbarer Musik zu tun. Das Live-Erlebnis einer Konzertaufführung war für viele nicht nur als Hörerlebnis wichtig, sondern auch als polyästhetische, vor allem als audiovisuelle Erfahrung. Mimik und Gestik eines auftretenden Musikers, eines vermeintlichen oder wirklichen Stars, interessierten gelegentlich kaum weniger als die eigentliche musikalische Leistung. Diese (aus dem konventionellen Konzertbetrieb geläufige) Paradoxie einer sichtbaren Musik, die gleichwohl in ihrem eigentlichen Kern unsichtbar bleibt (wenn nicht gar unhörbar, da Sichtbares nicht selten auch vom Hörbaren ablenken kann) ist seit den Anfängen der Neuen Musik des 20. Jahrhunderts so fragwürdig geworden, daß in deren Zusammenhang schließlich die Musikvermittlung in eine schwere Krise geriet, so daß die Zeit für einen dialektischen Umschlag der Entwicklung gekommen schien, sogar für eine produktive Kritik des Tradierten, die neue Wege aufzeigte: Mauricio Kagel, der 1965 im Film "Antithese", im aussichtslosen Kampf eines Live-Darstellers mit elektroakustischen Apparaturen und Materialien, die gestörte Kommunikation (auch fragwürdig gewordene Wahrnehmungs-Konventionen im Zusammenwirken von Hören und Sehen) im technischen Zeitalter thematisiert hatte, ließ sich ein Jahr später durch die "visible music II" von Dieter Schnebel zu einem Film anregen, der das Verhältnis zwischen Hören und Sehen, zwischen hörbarer und sichtbarer Musik, in produktiver Kritik des konventionelles Konzert-Rituals darstellt. Kagel selbst hat erläutert, was ihn an Schnebels Vorlage besonders interessierte, und er hat dabei einerseits die Musikalisierung "sichtbarer Musik", von aus dem 19. Jahrhundert überkommenen, ins Konzert-Ritual eingegangen Gesten betont, andererseits aber auch deren Verwandlung im Geiste des 20. Jahrhunderts, die Hören und Sehen zunächst analytisch trennt, bevor sie sie in neuen Synthesen wieder zu verbinden wagt. Kagel orientiert sich deswegen nicht am konventionellen Zusammenwirken von Hörbarem und Sichtbaren in der Oper, sondern an der analytischen Trennung von Hören und Sehen, am Stummfilm (und indirekt an der Lautsprechermusik), wenn er sich für Schnebels Ansatz interessiert: "Was mich primär an ´visible music´ von Dieter Schnebel faszinierte, war seine Idee, ein Stück für einen Solo-Dirigenten zu schreiben.(...) Es ist eine raum-zeitlich ungebundene Partitur, und soll stumm vorgetragen werden. Sie wäre etwa mit Stummfilmen zu vergleichen, die ebenso wie absolute Musik einer zusätzlichen Dimension nicht bedürfen." Dieter Schnebel hat darauf aufmerksam gemacht, daß Kagel nicht nur der filmischen Vorlage, sondern auch seiner eigenen Affinität zu deren kompositorischen Ansätzen gefolgt ist: "Der Film ´Solo´ gehört kompositorisch in die Reihe jener Stücke Kagels, wo er optische Verläufe gestaltet, als ob sie musikalische wären." Damit führt Kagel weiter, was in ersten Ansätzen John Cage schon 1952 versucht hat in seinem dreisätzigen Schweigestück "4´33": Der Interpret soll den dreiteiligen Aufbau dieser Komposition deutlich machen, ohne dabei einen Laut hervorzubringen. David Tudor gelang dies durch geräuschloses Öffnen und Schließen des Klavierdeckels. In dieser Interpretation zeigte sich, daß Cage hier erstmals eine "Komposition mit nicht klingenden Materialien" gelungen war. Dies hatte Konsequenzen nicht nur für seine eigene Arbeit, sondern nicht zuletzt auch für Mauricio Kagel. Kagel hat experimentelle Kombinationen zwischen Hören und Sehen schon in den sechziger Jahren weiter entwickelt bis in Bereiche hinein, die für Cage erst später bedeutsam werden sollten: "Solo" ist bedeutsam nicht nur als experimenteller Musikfilm, sondern auch in der Konfrontation des Neuen mit fragwürdig gewordenen Konventionen. Dieter Schnebel hat dies erkannt, als er die Aktionen von Alfred Feussner in diesem Film mit folgenden Worten beschrieb: "Er hat fünf Rollen zu spielen. Zwar ist er immer Dirigent, aber mal ein alter in Einstein-Maske, mal ein junger Beau und mal mehr Toscanini, mal ein dämonischer Typ - langhaarig, mit Blessur. Teils hat er zu dirigieren - auch dies in verschiedensten Weisen: scharf und aggressiv, senil-vertrottelt, majestätisch oder behutsam und in sich gekehrt. Teils geht er im Raum umher - langsam und würdig, aber auch panisch einherjagend, ja springend; endlich beginnt er gar zu fliegen - schwebt an einem Kran aufgehängt in der Luft umher. So sind die Bewegungen des Dirigenten (...) musikalisch gestaltet (...)." "Sichtbare Kritik" konkretisiert sich hier als Kritik an musikalischen Konventionen - unter einem Aspekt also, der seit den späten sechziger und frühen siebziger Jahren in Kagels Musik zentrale Bedeutung gewonnen hat: Skandalöse Popularität errang sein Beethoven-Film "Ludwig van" (1969) , in dem sich neben der Karikatur eines provinziellen Liederabends mit "In questa tomba oscura" auch eine groteske Elly-Ney-Parodie findet: Als "Klavierabend eines Transvestiten", dessen Beschreibung durch Werner Klüppelholz teilweise noch über das im Film tatsächlich Realisierte hinausführt: "´Waldsteinsonate´ im Playback, dazu allerlei asynchrone Aktionen, etwa das Spiel auf geschlossenem Deckel. Ihre Perücke wächst langsam, doch stetig an, umwuchert am Ende das ganze Klavier."

Hörbares und Sichtbares, sichtbare und unsichtbare Musik haben sich im oeuvre Kagels seit den 1960er und 1970er Jahren nicht in geradliniger Entwicklung, sondern in vielfältigen Brechungen dialektisch entwickelt. Auffällig in diesem Zusammenhang war seit den späten 1960er Jahren eine Akzentverlagerung vom technischen und ästhetischen Experiment zur kritischen Auseinandersetzung mit der Tradition: Selbst in der Entwicklung der experimentellen Musikfilme von "Antithese" (mit filmisch adaptierter elektroakustischer Musik) über "Match" (eine Filmfassung des gleichnamigen Ensemblestückes), "Solo" (mit Alfred Feussner als einzigem Darsteller), "Duo" (mit Alfred Feussner und dem Gitarristen Karlheinz Böttner) und "Hallelujah" (ein Film über das gleichnamige Chorstück, in den überdies auch die "Phantasie für Orgel mit Obbligati" eingegangen ist) bis zu "Ludwig van" (der kritischen hommage zum Beethovenjahr 1970) wird dies deutlich, und seit den 1970er Jahren hat sich Kagel noch stärker als zuvor auf filmische Adaptionen von Konzertstücken konzentriert (z. B. in der Fernsehfassung seiner 1976 auf den Donaueschinger Musiktagen uraufgeführten "Kantrimiusik"). Dies war nicht das einzige Indiz dafür, daß, nach dem Ende einer mehrjährigen erfolgreichen Zusammenarbeit mit Hansjörg Pauli und dem NDR-Fernsehen, der Musikfilm für Kagel an Bedeutung verloren hatte. Daraus zog er zwei extrem gegensätzliche Konsequenzen: Erstens den völligen Verzicht auf die optische Komponente in reinen Hörwerken: in zahlreichen seit 1969 entstandenen Radiostücken (u. a. "(Hörspiel) Ein Aufnahmezustand", 1. Dosis 1969, 2. und 3. Dosis 1971; "Guten Morgen!", 1971; "Soundtrack", 1975; "Die Umkehrung Amerikas", 1976); zweitens die Annäherung an konventionelle Aufführungsmöglichkeiten in dem 1971 aufgeführten Werk "Staatstheater", einer Auftragskomposition für das Hamburger Staatstheater, für ein konventionelles Opernhaus. Diese Komposition, einer der wichtigsten Beiträge für die Erneuerung des Musiktheaters im 20. Jahrhundert, zielt auf die grundlegende Erneuerung nicht nur einer traditionsbelasteten Gattung, sondern auch der sie tragenden Institution des Musiklebens. In dieser radikalen Zielsetzung, die einen vollständigen Bruch mit den musikalischen und dramaturgischen Konventionen der Operngeschichte bedeutet, ist "Staatstheater" singulär selbst im oeuvre Kagels (der sich später in den Opern "Die Erschöpfung der Welt" (1980) und "Aus Deutschland" (1981) teilweise um die Wiederbelebung traditioneller Konzeptionen der erzählenden und/oder darstellenden Libretto-Oper bemühte); vergleichbar ist das Werk allenfalls mit anti-narrativen Experimentalopern wie "Kyldex" von Pierre Henry (einem technisch produzierten Werk mit einem variablen, vom Publikum beeinflußbaren Formverlauf und mit einer dramaturgischen Disposition, in der nicht Opernsänger, sondern von Nicolas Schöffer konstruierte Roboter die Hauptrollen spielen) (Uraufführung Hamburg 1973) oder "Europeras I und II" von John Cage (1985, Uraufführung Frankfurt 1987). Henrys Oper mit ihrer Konzentration auf vorproduzierte Tonbandmusik und dem weitgehenden Verzicht auf Live-Darbietungen (mit Ausnahme einiger Ballett-Sequenzen) bleibt selbst unter den Ausnahmewerken neuen Musiktheaters singulär. (Vergleichbar wäre allenfalls Karlheinz Stockhausens Oper "Freitag aus Licht", die 1991-1994 entstand und 1996 in Leipzig uraufgeführt wurde - ein Werk, das, in computergesteuerter Regulierung des szenischen Ablaufes, eine durchlaufende Schicht elektronischer Musik mit vorproduzierten Aufnahmen verfremdeten Gesangs und mit vokal-instrumentalen Live-Szenen kombiniert, allerdings in seiner Szenenabfolge noch Spuren narrativer Dramaturgie erkennen läßt.) Kagels "Staatstheater" und Cages "Europeras" (nicht nur in den ersten beiden, sondern auch in den folgenden Teilen) aber sind vergleichbar insofern, als sie in der Verbindung von Hörbarem und Sichtbarem versuchen, sich einerseits der traditionellen Oper zu nähern, andererseits aber auch diese gerade im Prozeß der Annäherung und der Radikalisierung ihrer Ansätze von innen heraus zu überwinden. Kagel komponiert mit zunächst isolierten, dann aleatorisch auf neue Weise wieder zusammengefügten Versatzstücken der Operngeschichte - sei es, daß er aus den Einsingübungen der Sänger musikalische Strukturen entwickelt, sei es, daß er in der Umfunktionierung dramaturgischer Konventionen Solisten zum Chor vereinigt oder Requisiten als Hauptdarsteller einsetzt. Cage überträgt die Regeln seiner Zufallskomposition auf alle Parameter der traditionellen Opernkomposition und -dramaturgie. Beide, Kagel ebenso wie Cage, sind in der Umfunktionierung des Traditionellen an die Grenzen dessen gegangen, was sich in traditionsgebundenen musikalischen Institutionen noch realisieren läßt. In ihren radikalsten Arbeiten für das Musiktheater definieren sie Extrempositionen neuer musikalischer Ansätze, die, ausgehend von der im technischen Zeitalter manifest gewordenen Auflösung traditioneller Verbindungen zwischen Hörbarem und Sichtbarem, auf neuen Wegen nach der Wiederzusammenführung des Getrennten gesucht haben.

Dissoziation oder Integration von Hören und Sehen: Szenische oder visualisierte Musik

Die Frage, warum so viele Menschen beim Hören von Musik gleichzeitig etwas sehen möchten, ist einerseits, gemessen an bis heute noch weit verbreiteten Hörkonventionen, verständlich, andererseits aber auch paradox: Um dies nachzuvollziehen, braucht man sich nur vergleichsweise zu fragen, wer denn beim Betrachten eines Bildes Wert darauf legt, etwa Musik zu hören. (Der Sonderfall, daß etwa ein Maler während der Arbeit an einem Gemälde oder ein Filmregisseur bei der Schneidearbeit zur Anregung Musik hören, ist in diesem Zusammenhang eben so wenig relevant wie andererseits der Sonderfall, daß sich ein Komponist von einem Bild musikalisch anregen läßt; in solchen Fällen geht es um Anregungen der Kreatitivät aus verwandten Bereichen benachbarter Künste, aber nicht um die Konzentration der rezeptiven Wahrnehmung auf einen einzigen Sinnesbereich.) Die Erwartung, daß man ein Musikstück besser versteht, wenn man seine Aufführung nicht nur mit den Ohren, sondern auch mit den Augen verfolgt, ist in vielen Fällen trügerisch - es sei denn, ein Kunstwerk sei auf audiovisuelle Wahrnehmung ausdrücklich angelegt (in der Visualisierung von Prozessen der Klangerzeugung oder in deren polyphoner Kombination mit visuellen Vorgängen, zum Beispiel mit szenischen Vorgängen). Auch Werke, die sich auf Prozesse der Visualisierung instrumentaler oder vokaler Klangproduktionen konzentrieren (z. B. Kagels "instrumentales Theater" mit Werken wie "Pas de cinq", "Match", "Unter Strom", "Dressur" und anderen oder Schnebels "Maulwerke") erschließen sich allerdings nicht immer allein im audiovisuellen Erlebnis einer Aufführung (auch nicht durch Betrachtung und Analyse ihrer Adaption für Film und/oder Fernsehen). Das, was man bei der Aufführung dieser Stücke sieht, schöpft nur einen Teil ihres mit den Augen erfaßbaren visuellen Potentials aus - zumindest dann, wenn - wie es bei den genannten Werken Kagel und Schnebel der Fall ist - der Komponist sein Werk primär als Partitur konzipiert hat, nicht als Studioproduktion. (Schnebel und Kagel haben viele Werke audiovisueller Musik komponiert, die nicht in einer definitiv vom Komponisten besorgten Realisierung existieren, sondern als Partiturvorlagen wiederholt und womöglich in unterschiedlichen Versionen aufführbar sind. In solchen Werken ist die schriftliche Vorlage - die Fixierung dessen, was man in einer idealen Aufführung hören und sehen sollte - wichtiger als deren Realisation - das, was man in einer konkreten Realisierung tatsächlich zu hören und zu sehen bekommt. Die Partitur eines so konzipierten audiovisuellen Stückes ist also wichtiger als etwa das Drehbuch eines Films - sei es auch so detailliert wie bei Alfred Hitchcock, dessen Publikum, anders als er selbst, sich ausschließlich am tatsächlich filmisch Realisierten orientiert; noch deutlicher wird der Primat der filmischen Realisation bei Chaplin, wenn dieser bei der Produktion nicht von einem vorfixierten Drehbuch, sondern von vorbereitenden, teilweise experimentell-improvisatorisch erarbeiteten szenischen Varianten ausgeht; wenn man sich fragt, warum experimentelle audiovisuelle Musik vergleichbarer Qualität, die sich ebenfalls von den Vorgaben einer Partitur löst, bis heute so selten geblieben ist, wird man wiederum an die schwierige Situation einer Musik im Zeitalter der Massenmedien erinnert, die bisher zwar im Hörfunk, aber nicht in Film und Fernsehen den ihr gebührenden Platz gefunden hat.)

Paradoxe Konstellationen im Verhältnis zwischen Hörbarem und Sichtbarem können dann entstehen, wenn jemand mit Augen und Ohren eine audiovisuelle Aufführung verfolgt, aber die Partitur nicht zu sehen bekommt, nach deren Angaben sich die Ausführenden richten. Auch in solchen Aufführung bleibt es bei der (auch im traditionellen Musikleben bestehenden) Schwierigkeit, daß Auge und Ohr nur das äußere Erscheinungsbild erfassen können , nicht aber die dieses hervorbringenden ästhetischen Strukturen. Dies gilt nicht nur für traditionell notierte Musik, deren Notenbild an das innere Ohr des Lesers appelliert, sondern auch für Musik in neueren Notationsformen, bei denen sich Lesbares und (innerlich oder tatsächlich) Hörbares womöglich nicht so leicht aufeinander beziehen lassen. Ein Hörer, der die Partitur nicht voraus-, mit- oder nachlesen kann, muß auf wesentliche visuelle Informationen verzichten, wofür ihn auch eine noch so genaue Beobachtung der Musiker während der Aufführung in der Regel nicht entschädigen kann.

Die Frage liegt nahe, ob diese Situation unvermeidlich ist. Wer daran festhält, daß eine musikalische Notation die ihr in der Vergangenheit zugewachsene Funktion eines definitiven Textes behalten sollte, vergleichbar der schriftlichen Fixierung eines literarischen Textes, könnte versuchen, die Substanz des Notierten auch dem Publikum zugänglich zu machen. Anders entscheiden könnte sich jemand, der es für ausreichend hält, wenn die Notation von den ausführenden Musikern (und vielleicht auch von analysierenden Musikwissenschaftlern) mehr oder weniger verstanden und dementsprechend genutzt wird. Wie ein Komponist sich im Falle dieses oder jenes Stückes entscheidet, läßt sich in der Regel an der entsprechenden Partitur ablesen. Maßgeblich für seine Entscheidung ist nicht zuletzt die Frage, welche Funktion er seiner Partitur zuordnet: Ist sie in erster Linie die Fixierung von etwas innerlich Gehörtem, das bei der Aufführung in real Erklingendes verwandelt werden soll - oder vielmehr eine Aktionsanweisung für Interpreten, deren klangliches Resultat mehr oder weniger unvorhersehbar ist? Seit 1952 haben vor allem John Cage und ihm nahestehende Musiker Entwicklungen initiiert, in denen die erste, aus der traditionell notierten Musik bekannte Alternative gegenüber der zweiten mehr oder weniger weit zurücktritt. In vielen Partituren lösten sie sich nicht nur von traditionellen Notationssymbolen, sondern auch von der sich mit ihnen verbindenden Klangvorstellung. Statt dessen war die Notation in vielen Fällen ausdrücklich darauf angelegt, die Interpreten zur Realisation neuartiger, überraschender Klänge und Klangstrukturen anzuregen. So entstanden erste Ansätze neuer Notationsweisen, die später vor allem unter dem Stichwort "Musik und Graphik" Aufsehen erregen sollten - sei es in Modifikationen des traditionellen Notenbildes, sei es in neuartigen graphischen Zeichen. Earle Brown, der mit seinem Werkzyklus "Folio" (1952-1953) zu einem der wichtigsten Initiator dieser neuen Entwicklungen geworden ist, hat später (auf dem Darmstädter Notationskongreß 1964) nachdrücklich hervorgehoben, daß die neuen Notationsformen sich als Anregung zu neuen Möglichkeiten musikalischer Kommunikation interpretieren lassen, und er hat damit ein (über das damals und später tatsächlich Erreichte weit hinausreichendes) Potential künftiger Entwicklungen benannt: "Es geht im die Produktion einer ´multiordinalen´, in vielen Ordnungen sich bewegenden Kommunikation zwischen dem Ausführenden und dem Komponisten und um ein ähnlich ´offenes´ Erlebnispotential für den Zuhörer." Aus der Sicht eines Hörers, der bei einer Aufführung die graphische Notation in der Regel nicht mitlas, mußte diese Erwartung nicht weniger utopisch bleiben als aus der Perspektive eines Hörers, der etwa 1964 in Darmstadt miterlebte, mit welch reizvoller, aber objektiv nicht nachvollziehbarer Flexibilität der Dirigent Brown die starren Rechteckstrukturen seiner Graphik "December 1952" gestisch zu unverhofftem Leben erweckte. De facto blieb der Hörer weitgehend ausgeschlossen von einer Kommunikation "sichtbarer Musik", die Brown selbst an anderer Stelle seines Darmstädter Notations-Referats realistisch auf das Zusammenwirken von Komponist und Interpret eingrenzt: "In ´Folio` ist der Inhalt ´graphisch´ impliziert und dem Ausführenden zur unmittelbaren Determination überlassen (die Aufführung erfolgt spontan in beliebiger Folge der Ereignisse und auf beliebigen Instrumenten)." Auch die neuen, häufig auf vieldeutige Interpretierbarkeit oder auf (mehr oder weniger weitgehende) Indetetermination zielenden Notationsformen blieben weitgehend dem Insider-Wissen der Komponisten und Interpreten überlassen, während der Hörer sich in der Regel mit einem fixierten klanglichen Resultat zufrieden geben mußte und nicht ahnen konnte, welche anderen interpretatorischen Möglichkeiten der variable oder indeterminierte Notentext hätte bieten können. Überdies wurde es mit zunehmender Komplexität variabler oder indeterminierter Notationen für einen externen, nicht an der Einstudierung nicht beteiligten Hörer immer schwieriger, die Entscheidungen des oder der musikalischen Interpreten hörend und lesend nachzuvollziehen - selbst dann, wenn ihm die Partitur zur Verfügung stand. John Cage akzeptierte dies, als er die tradierten Zusammenhänge zwischen dem Schreiben, Lesen und Hören bzw. zwischen Komposition, Interpretation und Rezeption grundsätzlich in Frage stellte: Ihm erschien es nicht mehr wichtig, daß der Komponist bei einer Aufführung im konkreten Klangbild wieder das zu hören bekam, was er sich abstrakt schon vorher beim Komponieren vorgestellt hatte - oder auch, daß der Hörer nachvollziehen konnte, was der Komponist notiert bzw. der Interpret aus dieser Notation klanglich entwickelt hatte. Die bewußt herbeigeführte Zusammenhanglosigkeit zwischen Geschriebenem, Gelesenem und Gehörtem war für ihn der erste Schritt auf dem Wege zu einer noch radikaleren Neubestimmung des Verhältnisses zwischen Hören und Sehen: Auch Hörbares und Sichbares sollte sich in geplanter Zusammenhanglosigkeit präsentieren. Erfahrungen, die schon der junge Cage in der Zusammenarbeit mit dem Tänzer Merce Cunningham hatte sammeln können, wurden so weiter entwickelt zu einer radikalen Emanzipation des Hörbarem vom Sichtbaren und umgekehrt des Sichtbaren vom Hörbaren: Beides sollte gleichberechtigt koexistieren, ohne sich wechselseitig zu beeinflussen. Damit war eine Radikalposition erreicht, die zur Formulierung von Gegenpositionen herausfordern mußte.

Die von Cage initiierten Ansätze der Dissoziation verschiedener musikalischer Verhaltensweisen und verschiedener Sinnesbereiche gehen einerseits auf langjährige Erfahrungen als Komponist experimenteller Ballettmusik zurück, andererseits auf seine Versuche der Übertragung musikalischer Konstruktionsprinzipien auf außermusikalische Bereiche (z. B. die Übertragung von Zeitstrukturen von der Musik auf die Sprache in der 1949 oder 1950 entstandenen "Lecture on Nothing" und ein erstes happening im Jahre 1952, auf dem erstmals die nicht-intentionale Verbindung verschiedenartiger künstlerischer Aktivitäten versucht wurde). Mit einem künstlerischen Denken, das die kompositorische Planung mehr und mehr von der klanglichen Realität entfernte (zunächst in er Reduktion auf Rhythmus und Zeitstrukturierung, dann durch zunehmend sich verstärkende Indetermination) bezog Cage, der eigenwilligste Schüler Schönbergs, in der Musik nach 1945 seine eigene Position auch in der Auseinandersetzung mit Tendenzen eines radikal objektivierenden, die Strenge der Zwölftonstrukturierung noch überbietenden seriellen Konstruktivismus. In der Absage an traditionelle, subjektiv geprägte Form- und Ausdrucksideale und ihrer Ablösung durch radikalen musikalischen Konstruktivismus traf er sich zeitweilig mit dem jungen Pierre Boulez, der sich dann aber (wie später viele andere Komponisten auch) mit Cages Zufallsästhetik nicht befreunden mochte und auch an seiner Erkundung neuer Notationsformen kein Gefallen fand. Danach, in der Blütezeit der aleatorischen Instrumentalmusik während der späteren 1950er Jahre, hat sich für längere Zeit ein intensiver Kontakt zwischen John Cage und Karlheinz Stockhausen entwickelt. Wie verschieden allerdings auch schon damals beide Komponisten dachten, wurde nicht zuletzt unter dem Aspekt "Hören und Sehen" schon frühzeitig deutlich. Es zeigt sich bereits in Stockhausens 1956 entstandenem "Klavierstück XI" - seiner ersten Komposition, die zum Vergleich mit experimenteller Instrumentalmusik von John Cage und seinen Freunden herausfordert (insbesondere mit den ebenfalls austauschbaren Formteilen eines 1953 entstandenen Klavierstückes von Morton Feldman: "Intermission VI"). Stockhausen unterscheidet sich von seinen amerikanischen Kollegen (auch von Morton Feldman) dadurch, daß er die neuartige Anlage und Notation seiner Komposition nicht nur dem Interpreten unmißverständlich deutlich zu machen versucht, sondern auch dem Hörer: Wer eine Aufführung dieses Stückes im Konzertsaal miterlebt, erfährt wesentliche Informationen über seine musikalischen Besonderheiten nicht nur über das Ohr sondern auch über das Auge. Dieses Stück ist vielleicht die erste Komposition der Musikgeschichte, in der Zusammenhänge zwischen geschriebener, gelesener und gehörter Musik, zwischen Komposition, Interpretation und Rezeption allen Beteiligten deutlich werden könnten. Nicht nur der Komponist und der Interpret, sondern auch jeder interessierte Hörer einer Aufführung kann mitverfolgen, in welcher Weise die Anlage der Notation und der Vorgang ihrer Entzifferung sich auf das klangliche Geschehen auswirken. Dabei wird deutlich, daß auch Besonderheiten des Notenbildes, die für Partituren traditioneller Musik unerheblich wären, hier zentrale Bedeutung gewinnen - z. B. das Layout, die scheinbar zusammenhanglose Anordnung der voneinander isolierten Formteile des Stückes auf einem einzigen Notenblatt. Sie soll deutlich machen, daß der Interpret die Partitur so lesen soll wie eine Zeitung: Irgendwo, mit einem beliebigen Formteil, beginnend, auf den das Auge gerade zufällig fällt - nach abgeschlossener Lektüre dieses Teiles überwechselnd zu irgend einem anderen, ebenfalls zufällig erblickten Formteil usw. Dieser Vorgang des aleatorischen Lesens und Spielens erschließt sich auch dem Publikum, und zwar nicht nur über das Ohr (da die Grenzen zwischen den Formteilen deutlich markiert sind, vor allem durch ausgehaltene Töne und/oder Pausen), sondern auch über das Auge (da auch der weiter entfernt Sitzende mitverfolgen kann, wenn der Blick des Pianisten sich auf das Notenbild eines bestimmten Formteils richtet oder von einem zum anderen überwechselt). Was das Publikum hier zu sehen bekommt, ist also nicht eine vordergründige Inszenierung oder szenische Ausschmückung der Klangproduktion, auch nicht eine mehr oder weniger disparate visuelle Kontrapunktierung, sondern die Visualisierung des musikalischen Geschehens selbst, eine visuelle Verdeutlichung der musikalischen Struktur - einer Musik, die aus strukturell eng verwandten und deswegen austauschbaren Zellen gebildet ist. In diesem Stück zeigt sich bei Stockhausen erstmals eine Konzeption "sichtbarer Musik", in der Hörbares und Sichtbares nicht gleichwertig sind, sondern - anders als etwa in traditioneller Opernmusik, aber auch anders als im experimentellen Musiktheater eines John Cage, eines Pierre Henry oder eines Mauricio Kagel - das Sichtbare sich als Konsequenz des Hörbaren ergibt. Von späteren Beispielen "sichtbarer Musik" unterscheidet sich dieses Werk einerseits dadurch, daß die Visualisierung hier vorerst nur die variable Formgestaltung des Stückes verdeutlicht, aber noch nicht alle seine Dimensionen, bis in die Detailgestaltung hinein, erfaßt; andererseits hat Stockhausen in diesem Stück noch von dem Versuch abgesehen, dem Publikum gleichzeitig mit der Visualisierung auch eine Deutung der Musik zu übermitteln. Dem Hörer bleibt es deswegen freigestellt, dieses Stück als "absolute Musik" zu erleben, ohne zu einer inhaltlich konkretisierenden Deutung genötigt zu sein (etwa zur Deutung als geistliche Musik, zur Interpretation serieller Ordnung als Abbild göttlicher Vollkommenheit, wie sie dem Komponisten selbst für seine gesamte Musik schon seit den frühen 1950er Jahren weitgehend selbstverständlich geworden ist). Solche über die Musik selbst hinausführenden Deutungen werden für Stockhausens Musik erst dann wichtig, wenn er Außermusikalisches in seinen (zur Vertonung bestimmten oder die Musik kommentierend begleitenden) Texten benennt oder wenn er das klangliche Geschehen mit inhaltlich deutbaren sichtbaren Vorgängen verbindet. In den 1950er Jahren geschah dies noch selten - zunächst in früher Vokalmusik ("Chöre für Doris", 1950, darin ein "Agnus Dei" zu einem Text von Paul Verlaine; "Choral", 1950; "Drei Lieder", 1950), später, in der unmißverständlichen Kopplung elektronischer Klänge mit Gesangsaufnahmen eines Bibeltextes, im "Gesang der Jünglinge" (1955-1956). Selbst in diesen Stücken aber ging die inhaltliche Akzentuierung noch nicht so weit, daß Stockhausen Klang und Wort auch mit szenischer Darstellung hätte verbinden wollen. Stockhausen hat lange Zeit gewartet, bis er diesen weiteren Schritt wagte. Sein 1961 entstandenes Musiktheaterstück "Originale", eine szenische Adaption seiner Komposition "Kontakte" für elektronische Klänge, Klavier und Schlagzeug, blieb zunächst für längere Zeit ein vereinzelter Sonderfall. Auch in der Kantate "Momente" (1962-1969), einem Hauptwerk der 1960er Jahre, erschließen sich außermusikalische Bedeutungszusammenhänge einer "Liebesmusik" eher über die Texte und über die quasi-programmusikalischen Aspekte der musikalischen Konstruktion als über vereinzelte Ansätze szenischer Ausgestaltung; die wenig später (1970) entstandene Komposition "Mantra" für zwei ringmodulierte Klaviere (und Zusatzinstrumente), inhaltlich wohl als antipodisches Gegenstück zur Komposition "Momente" zu verstehen, kennt szenische Episoden nur in vereinzelten Einschüben, die die strenge serielle Formelkonstruktion aufbrechen. Erst nach der Vollendung dieses Stückes ist in den 1970er Jahren deutlich geworden, daß die Konzeption einer "visualisierten Musik", einer visuellen Verdeutlichung vorgegebener musikalischer Strukturen, sich nach und nach zum beherrschenden Prinzip in Stockhausens Musik und in ihrer Aufführungspraxis entwickelt hat. Bereits in "Inori" (1973-1974) führt dies so weit, daß die musikalischen Parameter der Orchestermusik in visuelle Parameter synchroner Gebetsgesten übersetzt werden, was Stockhausen 1974, in einer der Donaueschinger Uraufführung vorausgehenden Analyse, dem Publikum ausführlich erklärt hat. In dieser Komposition ist die (aus der musikalischen Grundstruktur abgeleitete) Integration von Hörbarem und Sichtbarem in einer selbst für den radikalen Konstruktivisten Stockhausen außergewöhnlichen, in ihrer Art wohl nicht überbietbaren Konsequenz verwirklicht.

Der 1977 begonnene siebenteilige Opernzyklus "Licht", der nach Stockhausens Planungen bis zum Jahre 2002 vollendet sein soll, überträgt Prinzipien der Formelkomposition, wie sie zuvor in Werken wie "Mantra" und "Inori" aus jeweils einer einzigen Formel entwickelt wurden, auf eine polyphone Schichtstruktur aus drei miteinander überlagerten Melodieformeln. Auch in diesem Werk spielen Aspekte der Visualisierung und der mit ihr verbundenen Semantisierung eine wichtige Rolle. Selbst die einzelnen Töne, ihre inneren Bewegungsformen, ihre rhythmischen, melodischen und harmonischen Konstellationen einschließlich der Integration von Geräuschen ("gefärbten Pausen"), von melodischen und farblichen Ausschmückungen und von Pausen, werden bedeutsam auch über den Bereich der Musik hinaus. Die Korrespondenzen zwischen Hörbarem und Sichtbarem, zwischen Musik und Szene reichen so weit, daß beispielsweise bestimmte Personen genau dann von der Bühne abtreten oder wieder zurückkehren, wenn Stockhausens "Superformel" für die ihnen entsprechende Melodie den Beginn oder das Ende einer Pause vorsieht. Auch die einzelnen Töne und ihre Bewegungen sind in den drei überlagerten Melodien so geformt, daß sie als Interaktionen zwischen den entsprechenden drei wichtigsten Protagonisten des Opernzyklus gedeutet werden können: Michael, Eva und Michael - zum Beispiel in unterschiedlichen Gruppierungen, Gewichtungen oder Formtendenzen einzelner überlagerter Melodieteile ("Glieder"): vereinzelt, zu zweien oder zu dreien; kontrastierend oder in neutraler Koexistenz; konzentriert auf Töne oder auf (nicht selten assoziationsträchtige) Geräusche usw. Aus seriell geprägten, zu melodisch prägnanten polyphonen Strukturen weiter entwickelten musikalischen Vorstrukturierungen entwickeln sich so Ansätze der Integration von Hörbarem und Sichtbarem - Ansätze einer visualisierten Musik, die sich beschreiben läßt als Kontrastmodell einer das Gehörte und Gesehenen dissoziierenden szenischen Musik etwa im Geiste der "Europeras" von John Cage, die, vor allem im Verhältnis von Tradition und Innovation, komplementär zur visualisierten Musik definiert werden kann.

Trotzdem blieb, auch in der Musik des 20. Jahrhunderts (vor allem in seiner ersten Hälfte) die Vorstellung verbreitet, daß

Das Lesen von Musik ist in den meisten Fällen ein Privileg derjenigen, die sich selbst mit der Erfindung und/oder der klanglichen Realisierung von Musik beschäftigen. Nur in Ausnahmesituationen kommt es dazu, daß auch der Musikhörer mit dem Schriftbild der Musik vertraut gemacht wird. In diesem Falle ergibt sich ein spezieller Aspekt des Hörens und Sehens von Musik.

Stockhausen Klavierstück XI: Der Augenblick entscheidet über den Formablauf

Das Publikum kann die Lese-Abfolge mitverfolgen

Cage Music for Piano, Variations (Folien: vgl. Transparentleiste Refrain); Brown Folio

Kagel, Diaphonie

Schnebel, Denkbare Musik

HÖREN UND SEHEN - SICHTBARE MUSIK

- Diesseits und jenseits der Oper: Hören und Sehen als unbewältigte Konfliktsituation

- Hören und Sehen im Zeitalter der technischen (Re-)Produzierbarkeit

- Sichtbare und unsichtbare Musik

- Hörerfahrung und audiovisuelle Erfahrung

im Spannungsfeld von Autonomie und Grenzüberschreitung:

"Reine" und "angewandte" Musik

- Hörbares und Sichtbares in der Musik

- Dissoziation oder Integration von Hören und Sehen: Szenische oder visualisierte Musik
[Zurück]   [Vor]   [Hoch]   [Startseite]        [Index]   [Frisius-Homepage]