[Zurück] [Vor] [Hoch] [Startseite] | Index |
Rudolf Frisius
MUSIK UND TECHNIK
Veränderungen des Hörens - Veränderungen im Musikleben
Veränderungen des Hörens - Unsichtbare Musik
Es gibt Fragen, die gerade deswegen besonders dringlich sind, weil sie viel zu selten gestellt werden. Wenn heute, im letzten Jahrzehnt des 20. Jahrhunderts, die Frage nach Veränderungen und aktueller Bedeutung des Hörens in diesem Jahrhundert gestellt wird, dann spricht manches dafür, daß damit eine solche latent-dringliche Frage aufgekommen ist: Heute gibt es eine kaum noch verarbeitbare Vielfalt von Hörereignissen und Hörsituationen - eine Vielfalt, wie sie in früheren Zeiten undenkbar gewesen wäre. Verfahren der Konservierung, der Reproduktion und Vervielfältigung, der Übertragung und weltweiten Verbreitung, der möglichst originalgetreuen oder der weitgehend verfremdeten technischen Wiedergabe von Hörereignissen haben die Hörerfahrung - zumindest potentiell - in kaum zu überschätzendem Ausmaße erweitert. Inwieweit allerdings die hiermit eröffneten Möglichkeiten tatsächlich genutzt werden, ist eine andere, übrigens schwer zu beantwortende Frage.
Die Vielfalt dessen, was es heute in aller Welt zu hören gibt, könnte so verwirrend erscheinen, daß manches dafür spricht, sie für vollkommen unübersichtlich, wenn nicht gar unübersehbar zu halten. Eine solche Aussage wäre wohl plausibel, aber andererseits in ihrer Diktion auch verräterisch: "Unübersichtlich" oder "unübersehbar" kann man Hörereignisse eigentlich nur dann nennen, wenn man sie mit dem falschen Maßstab mißt - wenn man Hörbares nach Kriterien des Sichtbaren beurteilt: Was wir hören, können wir in vielen Fällen nicht angemessen bewältigen, so daß wir unsere rätselhaften Sinneswahrnehmungen nur inkommensurabel beschreiben können - mit Begriffen und Darstellungsweisen, die dem Bereich der Sehwahrnehmung entstammen. Wir sind es gewöhnt, viele Ereignisse leichter mit dem Auge zu identifizieren als mit dem Ohr - und vieles, was wir hören, glauben wir nur insoweit uns bewußt machen zu können, als es mit Sichtbarem verbunden ist oder sich in Sichtbares übertragen läßt. An beides haben wir uns nicht zuletzt unter dem Einfluß einer viele Jahrhunderte umfassenden abendländischen Literatur- und Musiktradition gewöhnt: Als das Wesentliche einer sprachlichen oder musikalischen Äußerung galt im traditionellen Verständnis das, was sich in Schrift oder Notation fixieren ließ. Dies war verständlich in früheren Zeiten, als sprachliche Mitteilungen und Musik nur auf schriftlichem Wege die engen Grenzen der live-Übermittlung überwinden und sich über diese hinaus verbreiten konnten. Im 20. Jahrhundert aber, im Zeitalter der technischen Reproduzierbarkeit und Produzierbarkeit von Klängen, die sich weltweit verbreiten lassen - in dieser Zeit sind die alten Maßstäbe fragwürdig geworden. Wer mit geeigneten technischen Geräten und Tonträgern umgeht, bekommt vieles zu hören, was er nicht gleichzeitig sehen kann; vieles, was er hört, läßt sich nicht ohne weiteres schriftlich so fixieren, daß es ein Hörer oder gar ein am ursprünglichen Geschehen unbeteiligter Leser später nach dem Leseeindruck wieder angemessen rekonstruieren könnte. Der Musiker oder Musikfreund erfährt dies, wenn er über Lautsprecher Musik hört, die unabhängig davon erklingt, daß zum Zeitpunkt der Wiedergabe irgendwelche Musiker singen oder spielen müßten: "Unsichtbare Musik" - Musik, die beim Erklingen sich losgelöst hat von realen Aufführungssituationen. (In einfachen Fällen kann dies die Wiedergabe einer zeitverschobenen Übertragung oder einer Studioproduktion von live gespielter Musik sein; in komplizierteren Fällen, bei technisch produzierter Musik, kann es sich aber auch um Klangwirkungen handeln, deren Erreichung in einer live-Aufführung unmöglich ist.)
"Unsichtbare Musik" kann dann entstehen, wenn man etwas hört, aber dabei keine Interpreten sieht, die das Gehörte in live-Aktionen hervorbringen. (Diese Musik wird dann ihrem Begriff um so besser gerecht, je weiter ihre Klänge sich von den Möglichkeiten der live-Darbietung entfernen). "Unsichtbare Musik" in einem spezielleren Sinne kann aber auch dann entstehen, wenn Klänge zu hören sind, die sich nicht in einer musikalisch ohne weiteres "lesbaren" Weise visualisieren lassen. ("Unsichtbare Musik" in diesem Sinne wird ihrem Begriff um so besser gerecht, je weiter sie sich von bereits bekannten Möglichkeiten der musikalischen Notation entfernt.)
"Unsichtbare Musik" jenseits der traditionellen live-Darbietung - "Unsichtbare Musik" jenseits der traditionellen Notation: Beide Möglichkeiten können unabhängig voneinander, aber auch miteinander kombiniert vorkommen. Im einen wie im anderen Falle kann deutlich werden, daß der Eigenwert des Hörens - unabhängig von seiner Kopplung mit Sichtbarem - vergrößert wird. Dies ließe sich so interpretieren, daß die Musik zu ihrer eigentlichen Bestimmung als Hörkunst zurückfindet; daß sie sich von Bindungen an Sichtbares löst, die ihr eigentlich wesensfremd sein müßten. Diese Bindungen aber haben sich in vielen Jahrhunderten der abendländischen Musiktradition so stark verfestigt, daß sie von vielen Hörern leicht mit einer "zweiten Natur" der Musik verwechselt werden. Noch heute, nach einer mehrere Jahrzehnte umfassenden Entwicklung der technisch produzierten Musik, fällt es vielen Hörern, Interpreten und sogar auch Komponisten schwer, Musik sich vorzustellen jenseits der Modalitäten einerseits einer (mehr oder weniger konventionellen) Konzertaufführung, andererseits einer (mehr oder weniger traditionellen) Notation. Wer hier wie dort nach neuen Wegen sucht, könnte deswegen auf die Idee verfallen, statt des bisherigen, für viele allzu traditionsbelasteten Begriffs "Musik" einen anderen, umfassenderen Begriff zu verwenden: Den Begriff "Akustische Kunst".
Neue Strukturen des Musiklebens - Akustische Kunst
Der Begriff "Akustische Kunst" ließe sich interpretieren in positiver Komplementarität zum negativ abgrenzenden Begriff "Unsichtbare Musik". Während der negative Begriff ("Unsichtbare Musik") auf die Musik zielt, konzentriert sich der positive Begriff ("Akustische Kunst") auf das Hören. Dabei zeigt sich eine terminologische Schwäche (die allerdings im bisherigen allgemeinen Sprachgebrauch nicht in Erscheinung getreten ist): "Akustisch" ist hier, im Zusammenhang mit Kunst, nicht so zu verstehen, daß Hörphänomene naturwissenschaftlich erklärt würden oder daß von der phänomenologischen Realität der sinnlichen Wahrnehmung abstrahiert werden sollte. Wenn man dies vollkommen unmißverständlich klar machen wollte, müßte man den Begriff "Auditive Kunst" verwenden, der sich allerdings bisher nicht eingebürgert hat. Wenn die Bezeichnung "akustisch" im Zusammenhang mit Kunst im Sinne von "auditiv" verstanden wird, dann kann man sagen, daß der Begriff "Akustische Kunst" sich dazu eignet, in positiver Weise zu bezeichnen, was der Terminus "Unsichtbare Musik" nur in negativer Weise angibt: Es geht darum, die Hörerfahrung in ihrem Eigenwert wieder zu entdecken - losgelöst vor allem von Seherfahrungen, die Gehörtes nur allzu leicht überlagern und verdecken.
Man könnte die Frage aufwerfen, warum die Wieder-Aufwertung der Hörerfahrung gegenüber der Seherfahrung denn so wichtig sei; ob es denn tatsächlich einen Rückstand des Hörens gegenüber dem Sehen gebe, der kompensiert werden müßte. - Wenn man versucht, auf diese Frage heute eine angemessene Antwort zu finden, dann sollte man dabei berücksichtigen, daß das Verhältnis zwischen Sehen und Hören in wesentlichen Aspekten von Faktoren der technischen Entwicklung geprägt ist: Der Vergleich verschiedener Künste im "Zeitalter der technischen Reproduzierbarkeit", insbesondere der Vergleich ihrer entwicklungsgeschichtlichen Faktoren, macht deutlich, daß die "Hör-Künste" und die "Seh-Künste" sich asynchron entwickelt haben: Photographie und Stummfilm, die Künste der stehenden und bewegten Bilder, hatten von Anfang an einen beträchtlichen Entwicklungsvorsprung vor Erfindung und Verbreitung der Klangreproduktion (der Erfindung des Phonographen durch Edison im Jahre 1877) und der Klangmontage (als deren wichtigste künstlerische Manifestation wir heute Walter Ruttmanns 1930 entstandenes Hörstück "Weekend" ansehen können). So ergaben sich Phasenverschiebungen zwischen der "technisch reproduzierbaren Seh-Kunst" und der "technisch reproduzierbaren Hör-Kunst": Schon im 19. Jahrhundert wurde den Menschen der Umgang mit Photographien selbstverständlich, und schon in den ersten Jahrzehnten des zwanzigsten Jahrhunderts lernten sie, die Sprache der bewegten Bilder und ihrer Montagen zu verstehen. Im Bereich des Hörens aber ließen sich vergleichbare Erfahrungen auf breiterer Basis erst seit den späten vierziger Jahren machen, nachdem Pierre Schaeffer 1948 mit den Etüden seines "Concert de bruits", seines "Geräusch-Konzertes", die ersten ausschließlich im Studio produzierten und künstlerisch gestalteten Klangstrukturen, die ersten die gesamte Hörwahrnehmung definitiv und dauerhaft verändernden, rein "auditiven" Äquivalente des (um mehrere Jahrzehnte älteren) rein "visuellen" Stummfilms geschaffen hatte. (Walter Ruttmanns bereits 1930 entstandene Klangmontage "Weekend" war ein damals kurzzeitig beachteter, aber in den folgenden Jahren rasch wieder in Vergessenheit geratener, letztlich folgenloser Ausnahmefall - nicht zuletzt auch deswegen, weil das Stück jahrzehntelang verschollen blieb und seine bemerkenswerten Innovationen in der Zwischenzeit von anderen ein zweites Mal erfunden werden mußten).
Der zeitliche Vorsprung der "Kunst der montierten Bilder" vor der "Kunst der montierten Klänge" hat dazu geführt, daß das Hören längere Zeit auf älteren Entwicklungsstufen stehen geblieben ist, die in der Seherfahrung längst als anachronistisch erkannt und überwunden worden waren. Was erstmals in den Klangmontagen Ruttmanns künstlerisch überzeugenden Ausdruck gefunden hatte, wurde erst später, seit der Erfindung der "musique concrète", auf breiterer Basis bekannt, so daß es es seit den fünfziger Jahren möglich wurde, weit verbreitete traditionelle Hörgewohnheiten wesentlich zu verändern. Dieser Entwicklungrückstand der "technisch reproduzierten Hör-Kunst" wirkte sich vor allem im Bereich der Filmmusik aus: Auch nach der Erfindung des Tonfilms blieb die Filmmusik stark geprägt von Ablaufmustern der traditionellen live-Musik, die sich aus der (häufig am Klavier improvisierten) live-Begleitung von Stummfilmen entwickelt hatte. Die Rückständigkeit der Tonfilmmusik im technischen - und übrigens, in der Fixierung auf spätromantische Stilkonventionen, auch im ästhetischen Sinne zeigte sich besonders deutlich in der Verbindung traditioneller musikalischer Klischees mit traditionellen narrativen Strukturen des vertonten Films. Alternative, weiter in die Zukunft weisende Lösungen, wie sie Ruttmann in seinen Klangmontagen gelungen waren, führten erst Jahrzehnte später zur Bildung und Entwicklung einer neuen Kunstgattung, in der die Grenzen zwischen verschiedenen Bereichen der künstlerisch geprägten Hörerfahrung, vor allem zwischen Musik und Hörspiel, überwunden werden sollten: Zur Akustischen Kunst.
Die Entwicklung der "Akustischen Kunst" hat zur Ausbildung neuer Strukturen des Musiklebens geführt - so wie, einige Jahrzehnte zuvor, die Erfindung des Films zur Etablierung einer eigenständigen, vom Theater unabhängigen Kinokultur geführt hatte. Vieles spricht allerdings dafür, daß die ästhetische und kulturorganisatorische Lösung des Kinos vom Theater rascher und wirksamer gelungen ist als die Lösung der Akustischen Kunst aus den tradierten Bereichen der Literatur, des Hörspiels und der Musik und aus den ihnen entsprechenden Vermittlungsformen.
Akustische Kunst, in der - im Gegensatz zur traditonellen Tonkunst - Sprache, Geräusch und Musik im herkömmlichen Sinne weitgehend gleichberechtigt sind, arbeitet mit einem Material, auf das aus der Tradition bekannte Abgrenzungen sich häufig nicht mehr anwenden lassen - insbesondere die Abgrenzung zwischen Literatur und Musik. Schon Walter Ruttmanns "Weekend" ist weder ein traditionelles Hörspiel noch ein traditionelles Musikstück. Eine Aufführung würde sowohl im Theater als auch im Konzertsaal deplaziert wirken; an beiden Orten würde es dem Publikum ungewöhnlich erscheinen, daß man zwar Klänge hört, daß aber keine mit der Klangerzeugung verbundenen Vorgänge zu sehen sind. Die Klänge erscheinen herausgelöst aus realen Erfahrungszusammenhängen, bei denen Hör- und Seh-Wahrnehmung meistens untrennbar miteinander verbunden sind - als isolierte Hör-Ereignisse, d. h. als Gegenstücke zu isolierten Seh-Ereignissen, wie sie seit der Erfindung des Stummfilms unsere Wahrnehmung so einschneidend verändert haben. Um so auffälliger ist es, daß, wie es scheint, die Veränderungen des Sehens durch den "Seh-Film" so viel weiter gegangen sind als die Veränderungen des Hörens durch den "Hör-Film". Walter Ruttmann hat in den Klangmontagen seines Hörstückes "Weekend" ähnliche Techniken angewendet wie, einige Jahre zuvor, in den Bildmontagen seines Stummfilms "Berlin - Sinfonie einer Großstadt". Bei der Realisation des Stummfilms aber arbeitete Ruttmann in der Tradition einer langfristig und weltweit sich entwickelnden Montage-Ästhetik, die hineingewirkt hat bis in weite Bereiche der populären Rezeption und die, jenseits von Konzertsaal und Theater, auch längst in den Kinos ihre eigenen kulturellen Institutionen und Organisationsformen gefunden hatte. Ganz anders war die Situation jedoch bei der Realisation des Hörstückes (man könnte auch sagen: des "Hörfilms" oder des "Blindfilms", wobei die nur wenig bekannten oder völlig ungebräuchlichen Begriffe für die weitgehend unbekannte Sache sprechen). Die Produktion "Weekend" entstand gleichsam als Abfallsprodukt der Entwicklung des Tonfilms, als Tonfilm ohne Bilder. Die montierten Klänge konnten gerade deswegen so wirkungsvoll in Erscheinung treten, weil sie nicht der übermächtigen Konkurrenz der montierten Bilder ausgesetzt waren. Im Kino aber, wo das Publikum sich längst an montierte Bilder gewöhnt hatte, hatten bildlose Klangmontagen offensichtlich keine Chance. Dies zeigte sich an den frühen Klangmontagen Ruttmanns, und es zeigte sich später auch in der Entwicklungsgeschichte der konkreten und elektroakustischen Musik, deren Produktionen - anders als Ruttmanns "Weekend" - seit den fünfziger Jahren starke Beachtung fanden, wobei ihnen damals und später allerdings die populären Foren des Films ebenso wie des Fernsehens weitgehend unzugänglich blieben.
Der jahrzehntelange Entwicklungsvorsprung der technisch produzierten, montierten und verarbeiteten Bilder vor den technisch produzierten, montierten und verarbeiteten Klängen ist im letzten Jahrzehnt des 20. Jahrhundert noch immer nicht vollständig aufgeholt. Als neue Techniken der Montage und der Verarbeitung von Klängen sich seit den fünfziger Jahren durchzusetzen begannen, war für breite Publikumsschichten der Zeitpunkt für einschneidende Veränderungen der Hör-Wahrnehmung anscheinend längst verpaßt: Seit den dreißiger Jahren, seit der Einführung des Tonfilms, war es aussichtslos, die Etablierung von Hör-Kinos zu versuchen, weil das Publikum sich mit bildlosen Klängen damals nicht mehr zufrieden geben wollte. Noch schwieriger war die Situation seit den fünfziger Jahren: Die Entwicklung der technisch produzierten Hörkunst erfolgte damals in wichtigen Bereichen völlig losgelöst von aktuellen Entwicklungstendenzen im Bereich des Films - und zwar nicht nur unter ästhetischen, sondern auch unter institutionellen Aspekten: Nur in wenigen Ausnahmefällen arbeiteten die Pioniere der experimentellen Klangkunst mit experimentellen Filmemachern zusammen. Dies ergab sich als Konsequenz daraus, daß seit den dreißiger Jahren unternommene Versuche etwa von Edgard Varèse, akustisch-musikalische Experimentalstudios in Zusammenarbeit mit der Filmindustrie zu gründen, gescheitert waren. Auch im Radio ergaben sich damals keine Möglichkeiten für die längerfristige Entwicklung einer experimentellen, mit technischen Mitteln arbeitenden Hörkunst. Nur vereinzelt und für kürzere Zeit gab es Ansätze zur Entwicklung experimenteller Radiokunst etwa bei Orson Welles (der bald seine radiophonen Aktivitäten aufgeben und den Schwerpunkt seiner Arbeit seit den frühen vierziger Jahren auf die Produktion von Filmen verlagern mußte) und bei John Cage (der, fast gleichzeitig mit Orson Welles, erkennen mußte, daß ihm das Radio keinen Spielraum zur Weiterentwicklung seiner experimentellen Klangkunst bieten konnte, und der sich deswegen stärker auf experimentelle Musik im Konzertsaal, seit den fünfziger und sechziger Jahren außerdem auch auf musikübergreifende happening- und Multimedia-Projekte konzentrierte).
Nachdem erste Versuche der institutionellen Etablierung einer experimentellen Hörkunst in den späten dreißiger und frühen vierziger Jahren in den Vereinigten Staaten zunächst gescheitert waren, hatte einige Jahre später Pierre Schaeffer im französischen Rundfunk mehr Erfolg. Vieleicht läßt dieser Erfolg sich daraus erklären, daß Schaeffer, anders als etwa Varèse und Cage, nicht von außen in die Institution des Radios hereinkommen mußte, sondern daß er das Radio von innen heraus, aus seiner praktischen Erfahrung als Rundfunk-Ingenieur, genauestens kannte - und zwar nicht nur in seinen technischen und ästhetischen Möglichkeiten, sondern auch in den institutionellen und politischen Rahmenbedingungen der Arbeit in dieser Institution. Von ausschlaggebender Bedeutung war dabei, daß Schaeffer in den vierziger Jahren seine experimentelle Radio- und Hörspielarbeit in der französischen Résistance begonnen hatte. Seine neue Radiokunst wurde zunächst im Untergrund produziert, als Vorbereitung für eine neue Radiopraxis im befreiten Frankreich. Als im August 1944 die Zeit für die Befreiung von Paris gekommen war, trat Schaeffer dort an die Öffentlichkeit als Pionier und Organisator des Rundfunks im befreiten Frankreich. Die wichtige politische Rolle, die er damals bei der Neukonstitution des Rundfunks spielte, sicherte ihm auch in den folgenden Jahrzehnten maßgeblichen Einfluß in dieser Institution - einen Einfluß, der ihm auch Spielraum gab für die Erarbeitung der ersten Produktionen der von ihm erfundenen "musique concrète" und für die Etablierung eines auf diese Musikart spezialisierten Spezialstudios. So ist Schaeffer zu einem der wichtigsten Pioniere nicht nur des experimentellen Hörspiels, sondern auch der experimentellen Musik geworden; heute könnte man ihn in der ersten Reihe der Pioniere der Akustischen Kunst nennen.
Seit den späten vierziger Jahren ist in Frankreich das Radio zum privilegierten Medium der technisch geprägten experimentellen Hörkunst geworden. Die Uraufführung der ersten Produktionen der konkreten Musik beispielsweise erfolgte 1948 im Rahmen nicht eines Konzertes, sondern einer Rundfunksendung. Auch in den folgenden Jahren blieb das Radio das wichtigste Medium zur Produktion und Verbreitung elektroakustischer Musik. Dies gilt nicht nur für das Pariser Studio, sondern auch für die einige Jahre später gegründeten experimentellen Rundfunkstudios in Köln, Mailand, Warschau und Tokio. Die enge institutionelle Anbindung verschiedener Experimentalstudios an den Hörfunk hat dazu geführt, daß die Entwicklung einer "reinen", von musikübergreifenden Funktionen und Präsentationsformen weitgehend abgelösten Hörkunst im Vordergrund stand. Diese Isolierung wurde in wichtigen Studios - vor allem im 1953 in Köln gegründeten Elektronischen Studio des NWDR, des späteren WDR - nicht nur als unvermeidliches Übel hingenommen, sondern ausdrücklich angestrebt: im Interesse einer radikalen, autonomen und von äußeren funktionellen Zwängen so weit wie möglich abgelösten Ästhetik der Avantgardemusik. Funktionelle elektroakustische Musik (etwa als Begleitmusik in Radiosendungen verschiedener Art und in Hörspielen, in Theaterstücken, Filmen oder Fernsehsendungen) wurde in nicht wenigen Studios vollständig tabuisiert oder allenfalls als unvermeidlicher Kompromiß an institutionelle oder finanzielle Sachzwänge akzeptiert. Im Pariser Studio, das von Anfang stärker in die allgemeine Radiopraxis (vor allem auch in die - ebenfalls von Schaeffer maßgeblich inspirierte - experimentelle Hörspielpraxis) integriert gewesen war, war diese avantgarde-ästhetische Isolierung noch am wenigsten zu spüren, da - vor allem bis in die frühen fünfziger Jahre hinein - Pierre Schaeffer sich ausdrücklich und bei vielen Gelegenheiten darum bemüht hatte, die im Rundfunk entstandenen Produktionen auch außerhalb von Radiosendungen zu präsentieren, z. B. in Vorträgen und Konzerten, als Begleitmusik in Radiosendungen, Theaterstücken, Balletten und Filmen. Seit den späten fünfziger und frühen sechziger Jahren, in einer Zeit der Rekonstituierung des Studios und der mit ihm verbundenen Forschungsgruppe, hat Schaeffer überdies versucht, die institutionelle Einbindung seiner experimentellen Arbeit den veränderten Rahmenbedingungen des Rundfunks anzupassen, insbesondere der institutionellen Integration von Hörfunk und Fernsehen. Schaeffer versuchte die Gründung einer Forschungsgruppe, die sich nicht nur um elektroakustische Klang- und Musikproduktionen kümmern sollte, sondern vor allem auch um experimentelle audiovisuelle Produktionen. Entscheidendes Gewicht sollte dabei darauf gelegt werden, daß die technische Faktur der experimentellen Klänge sich von Standards der konventionellen Filmmusik löste und ein den modernen Produktionsbedingungen des Films adäquates Niveau erreichte. Unter diesen Prämissen haben im Pariser Studio - aufbauend auf Erfahrungen der fünfziger Jahre, insbesondere auf experimentellen Filmmusiken von Pierre Schaeffer und Pierre Henry - seit den frühen sechziger Jahren verschiedene profilierte Komponisten wichtige Beiträge zur experimentellen Neubestimmung des Verhältnisses zwischen Klang und Bild geleistet - u. a. Iannis Xenakis, Ivo Malec, Francois Bayle und Bernard Parmegiani. Eine besonders wichtige Rolle spielte hierbei Bernard Parmegiani, der sowohl die experimentellen Bilder als auch die experimentellen Klänge selbst produzierte. Die genannten Komponisten realisierten audiovisuelle Produktionen zu einer Zeit, als auch anderwärts Grenzüberschreitungen zwischen verschiedenen Künsten an Bedeutung gewannen, beispielsweise in Arbeiten von John Cage und Josef Anton Riedl. Gleichwohl bleibt festzustellen, daß im Gesamtzusammenhang der musikalischen Entwicklung zu dieser Zeit interdisziplinäre Tendenzen nur vorübergehend die künstlerische Entwicklung maßgeblich geprägt haben. Weder in Schaeffers audiovisueller Forschungs- und Produktionsgruppe noch in audiovisuellen Projekten des Cage-Kreises kam es so weit, daß musikübergreifende Ansätze die Programmangebote, die Organisationsstrukturen, die Rezeptions- und Kommunikations-Verhältnisse im kulturellen Leben grundlegend verändert hätten. Im Gegenteil: Spätestens seit den siebziger Jahren verstärkten sich wieder die Tendenzen einer Abschottung der verschiedenen Künste voneinander - sei es auch in der Weise, daß in ihrer Verbindung die kooperative Gleichberechtigung einer hierarchischen Abstufung Platz machte, in der eine Kunst mindestens eine andere für ihre Zwecke vereinnahmt und sich so der Frage aussetzt, ob sie sich nicht dadurch wiederum isoliert (allerdings möglicherweise auf höherer Ebene).
Spätestens seit den siebziger Jahren entwickelten sich paradoxe Konfrontationen einer neu belebten musikalischen Autonomie-Ästhetik mit musikübergreifenden Aspekten, die nicht selten sich engstens an das anlehnten, was in den innermusikalischen Strukturen ohnehin schon angelegt war - etwa in Formelkompositionen und in der multiformalen Musik von Karlheinz Stockhausen, wo zentrale Aspekte der visuellen bzw. musiktheatralischen Präsentation sich in engster Parallelisierung zur musikalischen Struktur ergeben, nicht als ihre eigenständige kontrapunktische Ergänzung - gleichsam als dialektischer Umschlag einer genauestens geplanten musikalischen Struktur in detailliert vorgestellte Bedeutungszusammenhänge. Dabei wird die traditionelle Hierarchie zwischen dramaturgischer Konzeption und musikalischer Struktur gleichsam auf den Kopf gestellt: Das theatralische Geschehen ergibt sich aus der musikalischen Struktur, nicht umgekehrt. Die Musik geht dabei in ihrem strukturellen Kern von Ansätzen der seriell generalisierten Zwölftonmusik aus - von Tonstrukturen, die bis in den Geräuschbereich hinein ausgeweitet werden; von Tonstrukturen, die eine instrumentale Ausführung zulassen, die sich aber auch in weiteren Zusammenhängen der elektroakustischen Klangproduktion ausarbeiten lassen. Der Primat dieser Tonstrukturen - eine Konsequenz des seit den fünfziger Jahren entwickelten seriellen Einheitsdenkens, das sich auf alle musikalischen Aspekte, vielleicht sogar darüber hinaus, auswirken sollte, und das damals für die ersten Produktionen elektronischer Musik, vor allem bei Stockhausen, von ausschlaggebender Bedeutung war - dieser Primat hat dazu geführt, daß in Stockhausens Formelkonstruktionen musikalisches Theater sich artikuliert als Visualisierung und inhaltliche Konkretisierung von musikalischen Strukturen, die ihrerseits sich ergeben aus der Erweiterung und Verallgemeinerung von Grundansätzen der traditionellen Tonkunst, aus der Verwandlung von Zwölftonstrukturen in mehrdimensionale und polyphone Reihen- bzw. Formelstrukturen.
Aufschlußreich ist, daß in den bisher uraufgeführten Opern des 1977 begonnen siebenteiligen Zyklus "Licht" live agierende Instrumentalisten und Sänger, d. h. die Hauptpersonen im Verständnis der traditionellen Opernpraxis (unter Umständen auch in live-elektronischen Präsentationsformen) meistens eine mindestens eben so wichtige oder sogar noch wichtigere Rolle spielen als technisch (vor)produzierte Klänge. Von Bedeutung ist auch, daß Stockhausen, zumindest seit etwa Mitte der achtziger Jahre, zwar den technisch produzierten Klängen verstärkte Bedeutung eingeräumt hat, daß aber anderseits technisch produzierte Bilder und Filme in seinen ausführlichen Konstruktionsplanungen keine konstitutive Rolle spielen. Die Möglichkeiten einer kohärenten Erneuerung des Musiktheaters aus dem Geiste sowohl der technisch produzierten Bilder als auch der technisch produzierten Klänge erscheinen insoweit eingeschränkt. Die Idee einer Erneuerung autonomer Hörkunst kann sich in diesem Zusammenhang am ehesten dann herstellen, wenn Stockhausen etwa bei einzelnen auf elektronische Musik konzentrierten Abschnitten (z. B. im 2. Akt seiner Oper "Dienstag aus Licht") in speziellen konzertanten Versionen auf die visuelle Inszenierung verzichtet und sie in einer reinen Lautsprecherfassung (ohne live agierende Interpreten) als "unsichtbare Musik" aufführt. In diesem Falle kann Musik ihre Würde gerade dadurch gewinnen, daß sie auf den Versuch verzichtet, andere künstlerische Bereiche, insbesondere den Bereich der szenischen Darstellung, zu beherrschen.
Vieles spricht dafür, im Entwicklungszusammenhang der technisch geprägten Hörkunst des 20. Jahrhunderts den fünfziger Jahren eine besonders wichtige Bedeutung zuzuerkennen, vor allem im Bereich der Musik. Wohl niemals sonst haben so viele und so unterschiedliche Komponisten sich aktiv engagiert im Bereich der elektroakustischen Musik - zum Beispiel Edgard Varèse, Olivier Messiaen und John Cage; Pierre Schaeffer und Pierre Henry; Herbert Eimert und Gottfried Michael Koenig; Pierre Boulez und Karlheinz Stockhausen; Bruno Maderna und Luciano Berio, später auch Luigi Nono; György Ligeti und Mauricio Kagel; Iannis Xenakis, Luc Ferrari, Francois Bayle und Bernard Parmegiani. Unter den Genannten gab es Künstler, die sich nur vorübergehend auf das elektroakustische Studio konzentrierten und später wieder verstärkt der Instrumentalmusik zuwandten (z. B. Pierre Boulez - der erst seit den siebziger Jahren mit der Gründung des IRCAM sich wieder verstärkt für elektroakustische Musik interessierte, vor allem im Bereich der live-Elektronik - und György Ligeti). Andere versuchten, in ihrem Schaffen eine gewisse Balance zwischen vokal-instrumentalen Partituren und elektroakustischen Studioproduktionen herzustellen, z. B. Karlheinz Stockhausen und Iannis Xenakis. Andere haben für eine gewisse Zeit intensiv im Studio gearbeitet und später versucht, das dort Erfahrene weiter zu entwickeln und auf andere Bereiche der musikalischen Produktions- und Aufführungspraxis zu übertragen. Im Bereich der live-Elektronik versuchten dies beispielsweise seit den frühen sechziger Jahren John Cage und, etwas später unter ganz anderen kompositorischen Prämissen beginnend, Karlheinz Stockhausen. Mauricio Kagel hat Erfahrungen aus dem elektronischen Studio während der sechziger Jahre in den experimentellen Musikfilm und seit den späten sechziger Jahren in das Neue Hörspiel eingebracht. Nur wenige Komponisten gingen so weit, daß sie sich (weitgehend oder vollständig) auf die elektroakustische Studioproduktion konzentrierten und dementsprechend von der vokal-instrumentalen Komposition zurückzogen - beispielsweise Pierre Henry und die meisten Komponisten in der von Pierre Schaeffer begründeten Forschungs- und Produktionsgruppe GRM. Zu diesen Komponisten, die das Notenschreiben eingeschränkt oder gänzlich aufgegeben hatten, gesellten sich (in einigen Fällen schon seit den fünfziger Jahren) auch Schriftsteller, die vom Schreibtisch in das elektroakustische Produktionsstudio umgezogen waren. Experimentelle Literaten und experimentelle Komponisten begegneten sich in Bereichen des Niemandslandes zwischen Literatur und Musik, die man heute - unter Anwendung eines später gefundenen Begriffes - der "Akustischen Kunst" zuordnen kann. Einige dieser Künstler haben sich mit experimenteller Radioarbeit beschäftigt - beispielsweise Hans G Helms, Ernst Jandl, Gerhard Rühm, Franz Mon und Ferdinand Kriwet, die seit den späten sechziger Jahren, teilweise aufbauend auf noch älteren Ansätzen, exemplarische Produktionen im Bereich des "Neuen Hörspiels" realisiert haben, für den sich auch profilierte Komponisten wie Mauricio Kagel und Luc Ferrari oder, seit den siebziger bzw. achtziger Jahren, John Cage und Pierre Henry interessiert haben. Experimentelle Literatur und experimentelle Musik begegneten sich unter übergreifenden Aspekten des Neuen Hörspiels und der Akustischen Kunst. Besonders der letztere Begriff kann deutlich machen, daß es dabei vor allem um eine Rückbesinnung auf die Eigenständigkeit der Hörwahrnehmung ging - um die konkrete sinnliche Erfahrung des Klanglichen, nicht nur um deren Normierung an Anforderungen eines im voraus aufgeschriebenen literarischen oder musikalischen Textes. Die Aufmerksamkeit verlagert sich in experimenteller Literatur vom Text auf die klingende Sprache (einschließlich ihrer akustischen Inszenierung durch Geräusche und Musik), in experimenteller Musik von der Notation auf das klingende Resultat. Die Herkunft der Materialien wird dabei unwesentlich insoweit, als sie in technischer Konservierung, Produktion oder Verarbeitung zu hören sind. Dies kann auch die in traditionellen Zusammenhängen weitgehend eindeutige Abgrenzung zwischen Sprache und Musik in Frage stellen, da technisch transformierte Sprachaufnahmen sich dem sprachfernen musikalischen Klang nähern können, während andererseits sprachferne Klänge durch die Modulation mit Stimmlauten und Sprachklängen (zum Beispiel mit Hilfe eines Vocoders) auch der Sprache angenähert werden können.
Die Akustische Kunst hat selbst im letzten Jahrzehnt des 20. Jahrhunderts allenfalls erst in Teilbereichen ihr eigenes Medium gefunden. Wenn die Akustische Kunst sich als Zusammenfassung und Erweiterung avancierter Tendenzen der Hörspielentwicklung (einschließlich der Entwicklung des Neuen Hörspiels) darstellt, dann orientiert sie sich insofern auch am privilegierten Ort der Produktion und Verbreitung des Hörspiels, am Radio. Andererseits spricht vieles auch dafür, daß Akustische Kunst, die durch ihre technischen Produktionsbedingungen definiert ist, trotzdem auch unabhängig von einem Rundfunkstudio produziert und verbreitet werden kann - z. B. produziert in einem privaten, rundfunkfernen, dem Autor oder Realisator verfügbaren Studio, verbreitet über kommerzielle Tonträger. Es gibt auch Tendenzen, die Akustische Kunst aus exklusiven Bindungen an die Vorproduktion im Studio zu lösen - sie so zu gestalten, daß ein vollständiges Stück oder zumindest einzelne seiner Klangschichten auch live wiedergegeben werden können. In diesem Falle können sich Annäherungen an Aufführungspraktiken ergeben, wie sie in der elektroakustischen Musik seit den sechziger Jahren durch die live-Elektronik bekannt geworden sind.
Die Akustische Kunst hat ihren Marsch durch die Institutionen einstweilen noch nicht abgeschlossen. Präsentiert wird sie in Radiosendungen oder auf Tonträgern, in Lautsprecherkonzerten oder in Performances mit mehr oder weniger großen live-Anteilen, als Werk oder als Klanginstallation. Der Konfrontation mit Sichtbarem kann sie ausweichen, sie kann sich ihr aber auch stellen (in der Kopplung sei es mit sichtbaren live-Ereignissen, sei es mit vorproduzierten Bildern, Filmen oder optischen Effekten).
Die Akustische Kunst könnte Spielräume anbieten für den Versuch, der Hörerfahrung wieder zu ihrem Recht zu verhelfen, indem Gehörtes das Sichtbare sei es ersetzt, sei es gleichwertig kontrapunktiert. Die Hörkunst des 20. Jahrhunderts stand lange Zeit im Zeichen der Dissonanz und des Geräusches, der Emanzipiation von überkommenen und fragwürdig gewordenen sprachlichen, musikalischen und musikübergreifenden Konventionen. Zu hoffen wäre, daß im Zeichen der Akustischen Kunst endlich auch eine weitere Emanzipation gelingt, die seit langem überfällig ist: die Emanzipation des Hörens.
Musikhören und Musikleben in Konkurrenzsituationen zwischen Hören und Sehen
a) Musik im Zeitalter des Audio-Clips
Im November 1990 fand in Montréal das Festival "musiques actuelles/New Music America" statt. In Verbindung mit diesem Festival ist eine compact disc erschienen, die den Titel "Electro-Clips" führt. Der Untertitel teilt in drei Sprachen mit, woum es sich handelt - in englisch, französisch und spanisch. Angekündigt werden 25 elektroakustische Schnappschüsse - instantanés électroacoustiques, electoacoustic snapshots, instantánes electroacusticas. Im booklet der CD wird das Unternehmen näher beschrieben - als große künstlerische Herausforderung, die die elektroakustische Musik nötige, über ihre eigenen Grenzen hinauszugehen. 25 Komponisten aus Kanada, aus den Vereinigten Staaten und Mexiko waren eingeladen, kurze Miniaturen für diese CD zu komponieren. Begründet und kommentiert wurde dies mit Worten, die anspielen auf neue Aspekte des Hörens und auf neue Positionsbestimmungen im Musikleben und in seinem kulturellen Kontext. Es heißt dort:
"Inwiefern ist diese Schallplatte aktuell? Wenn man ein Werk mit der Form des Schlagers (mit einer Dauer von drei Minuten) und mit dem Konzept des ´Videoclips´ zusammenbringt, dann macht man die Elektroakustik wieder aktuell, indem man sie aus dem traditionellen Konzertsaal herausholt und sie in die Medienwelt des Clips und der Momentaufnahme bringt..., ohne ihr den künstlerischen Wert zu nehmen, den man ihr heute zuerkennt."
Dem booklet liegen 25 durchnumerierte Fotos bei, auf deren Rückseiten sich Komponisten- und Werkinformationen zu den entsprechenden Audioclips finden. Der Hörer (bzw. Betrachter) wird aufgefordert, verschiedene Abfolgen von Fotos und Clips auszuprobieren.
Die 1960 in Montréal geborene Komponistin Roxanne Turcotte hat zu dieser CD das Drei-Minuten-Stück "Minisérie" beigesteuert. In ihrem Kommentar heißt es:
"Drei kleine Szenen ohne Wörter, ohne Bilder. Die Klangumgebung einer Verfolgungsjagd, die über verschiedene Zusammenhänge in die Welt Hitchcocks führt, zu den farbigen Würzen eines Spielberg; eine cinematographische Konstruktion für die Ohren und ... für die Imagination. Durchtränkt vom Horror, erzählt diese Klanggeschichte eine makabre story in einem eher humoristischen Ton, markiert von den raschen Wechseln der Ebenen einer Musik in drei Dimensionen."
Aus diesem Kommentar läßt sich ablesen, wie stark in manchen Bereichen der aktuellen technisch geprägten Musikentwicklung die fast hoffnungslose Konkurrenz der technisch geprägten Klangkunst und der technisch geprägten Bilderwelt des Films empfunden wird. Die Musik versucht, der Filmkunst nachzueifern; moderne Filme und Videoclips setzen Standards, denen technisch produzierte Musik mit "Audio-Clips" nacheifert. In der Konkurrenz zwischen Hören und Sehen hat es die Musik - vor allem die "unsichtbare", allein für den Lautsprecher bestimmte Musik - bisweilen sehr schwer.
Das Verhältnis zwischen Musik und Technik, das sich in der Musikentwicklung des 20. Jahrhunderts wesentlich verändert hat, ist auch in den letzten Jahren dieses Jahrhunderts noch mit erheblichen Schwierigkeiten belastet. Vor allem im Bereich der sogenannten "ernsten" Musik - der trotz der integrativen Möglichkeiten der Medien nach wie vor eine Sonderstellung behalten hat - ist oft zu beobachten, daß wichtige neue Produktionen um so schwerer einen angemessenen Platz im Musikleben finden, je intensiver und konsequenter sie von modernen technischen Möglichkeiten Gebrauch machen. Während sich die Kunst der technisch produzierten Bilder bereits in den ersten Jahrzehnten des 20. Jahrhunderts kulturell etabliert hat, ist der Kunst der technisch produzierten Klänge, der vergleichbare technische Möglichkeiten (vor allem der Montage) erst Jahrzehnte später zur Verfügung standen, Entsprechendes in der zweiten Hälfte dieses Jahrhunderts allenfalls teilweise gelungen. Ihren Platz im Radio hat die technisch produzierte Musik in vielen Ländern gefunden, ihren Platz im Fernsehen aber nicht. In einem Zeitalter, für das der Primat des Sehens vor dem Hören auch in den Massenmedien offensichtlich geworden ist, konnten auch medienbewußte Komponisten diese Situation nicht mehr ändern, sondern sie allenfalls noch kritisch dokumentieren.
Mauricio Kagel, der seit den fünfziger und sechziger Jahren wichtige technisch produzierte Kunst nicht nur der Klänge, sondern auch der Bilder und Klänge geschaffen hat, schrieb und realisierte 1974 ein Stück, das die paradoxe Situation des Komponisten und Hörers von Kunst im Spannungsfeld der Medien beleuchtet - insbesondere im Spannungsfeld von Radio und Fernsehen; ein Hörstück, für das er nicht nur die Töne der Musik vorschrieb, sondern auch die Sprechtexte und sogar die situationsbezogenen Geräusche - letztere beispielsweise mit folgenden Worten:
- Gellender Schrei.
- Lachen.
Sofort anschließend lautes Klatschen einer Faust, die in die andere Handfläche schlägt.
- Körper prallt mit aller Wucht gegen Zellentür
- Kurzes Gebrüll
- Holzpritsche bricht krachend zusammen
- Holzlatte schlägt auf Kopf, unwillkürlicher Schrei
- Leises Aufstöhnen
- (Steinboden:) Zwei Hände tasten und gleiten vorsichtig
- Körper schlägt auf den Boden auf
- Überraschender Schrei
- Leises Stöhnen
- Kehle wird langsam zugedrückt:
Darsteller versucht vergeblich, Luft zu bekommen
- Gittertür wird gerüttelt
- (Innen:) Schuß eines Colts (überlautes Knallen)
- Gittertür wird gerüttelt
- Schüsse schlagen in die Pritsche ein
- Körper wirt sich auf den Boden, rollt
- Verzweifeltes Husten, keuchend und würgend
- Colt wird gespannt
- Erbärmliches Husten
Trockener Schuß (mit Dämpfer)
Husten
Im Einleitungstext des Hörspiels schreibt Kagel hierzu:
"Die genaue Dauer jedes Ereignisses wird nicht ausdrücklich vermerkt, da die Geräusche, zumeist kurz, akustische Interpunktionen darstellen sollen (Trennen, Betonen, Steigern, Beenden, usw.)
Für die Realisation... ist die Mitwirkung eines Geräuschemachers, der gewohnt ist, nach dem Bild zu synchronisieren, erforderlich. So kann das Material jene typische Prägnanz erreichen, die es dem Liebhaber von Westernfilmen ermöglicht, den "echten, harten Sound" wieder zu erkennen, auch wenn der Fernsehapparat im Nebenzimmer steht. Um einen authentischen Text zu produzieren, kann der Geräuschkanal durch den Lautsprecher eines Fernsehgerätes im Studio wiedergegeben und dies über Mikrophon gleichzeitig aufgenommen werden."
Die Geräusche sind so zusammengestellt, daß die Klischees ihrer Konstellationen auch als "unsichtbare Klänge", als Hörspielgeräusche, Handlungsklischees von Westernfilmen evozieren können. So wird die Konzeption dieses Stückes deutlich, das Kagel als "Film-Hörspiel" bezeichnet: Sein Titel heißt "Soundtrack". Das Titelwort bezeichnet - wie Kagel es einmal ausgedrückt hat (auf einem Seminar der Darmstädter Ferienkurse im Jahre 1976) - das, was vom Film übrigbleibt, wenn man ihm die Bilder wegnimmt. Hier geht es also darum, daß die im Fernsehen allfällige Dominanz der Bilder konterkariert wird, indem diese einfach fortfallen und nur das Hörbare über den Radioapparat wiedergegeben, der Fernsehfilm zum Radiohörspiel amputiert wird: Im fertigen Hörspiel verbindet Kagel die Geräuschspur mit Sprechtexten und Musik - wobei die Sprache mehr, die Musik weniger bringt, als der Westernkenner erwartet: Kagel hat die Westerndialoge auf wenige holzschnittartig knappe Sätze verkürzt, zum Ausgleich dafür aber andere Sprache hinzugefügt - nämlich Sätze der Familienmitglieder, die im Fernsehzimmer den Western anschauen. Auf üppige Westernmusik verzichtet Kagel vollständig, so daß der bildlose Film auch noch in einem zweiten zentralen Bereich amputiert erscheint. Statt dessen ist etüdenhaftes Klavierspiel zu hören - das Spiel des Sohnes, der in Nebenzimmer üben muß (der aber immer wieder abbricht und in das Fernsehzimmer herüberzukommen versucht). Kagel gibt hierzu Anweisungen, die die Assoziation des realen Vorganges zugleich bekräftigen und dementieren:
"Ein Pianist (=Sohn, stumme Rolle) übt fast unaufhörlich auf dem Klavier.
Drei Arten von Pausen unterbrechen das Klangkontinuum:
- Die Klavierübungen werden abgebrochen,
die Tür zum Wohnzimmer aufgemacht;
leise Schritte nähern sich
- Laute Schritte nähern sich der Wohnzimmertür.
Sobald sich diese öffnet, wird das Klavier lauter, erst anschließend verstummt es.
- Abrupte Unterbrechung des Klavierspiels
(Weder Schritte noch das Öffnen der Tür
sind vor oder nach der plötzlichen Pause zu hören)"
So verbinden sich Klänge aus dem Fernseher und Klänge aus der Wohnung nicht nur im Bereich gesprochener Sprache, sondern auch im Bereiche des Geräusches. Die Musik wird in diesem Zusammenhang zum störenden Lärm, der unwillig produziert und unwillig rezipiert wird: Der Sohn möchte eigentlich lieber den Western anschauen als Klavier spielen, und die anderen Familienmitglieder werden durch sein Spiel beim Fernsehen gestört.
Der doppelt amputierte Film ist ein Hörstück, in dem verschiedene Ereignisse und Klangschichten kombiniert sind nach der Logik der Verwandlung des kumulierten Sinnlosen ins Klischee:
Vom Western sind nur standardisierte Geräusche und einige Dialogfetzen übrig geblieben. Kagel hat erzählt, daß trotzdem nach der Ursendung des Hörspiels (am 13. Juni 1975) Hörerbriefe kamen, in denen die integrale Übertragung des hier angeblich verstümmelten Westernfilms im Fernsehen gefordert wurde - eines Films also, den es gar nicht gibt. Man könnte versucht sein, hieraus abzuleiten, daß es genügen könnte, Geräuschklischees aneinanderzureihen, damit Hörer einen solchen Film in ihrer Phantasie sehen. Dies wäre ein paradoxer Umschlag der Wirkung des Abgenutzten, die so immerhin durch Übersteigerung ein gewisses Maß an Phantasie freisetzen würde.
Die Klischeewirkung des scheinbar sinnlos Aufgereihten zeigt sich nicht nur in der Geräuschspur des Hörspiels, sondern auch in den Texten und in der Musik: Den Familienmitgliedern sind einzelne monologische Sätze zugeteilt, die erst im Verlauf der Inszenierung zu (Pseudo-)Dialogen ineinandergeschoben werden sollen; der Klavierpart besteht aus Figurationen von Akkorden, die für sich stehen und auf verschiedene Weisen miteinander kombiniert werden können. Hier artikuliert sich Aleatorik als Mittel der Medienkritik - als Darstellung von Sprache, deren kommunikative Möglichkeiten offensichtlich verstümmelt sind, und von auf willkürliche Muster isolierter tonaler Akkorde reduzierter Musik.
Mauricio Kagels Fernseh-Hörspiel "Soundtrack" reduziert die technisch vermittelte Musik, das Klavierspiel aus dem Lautsprecher, zur altmodischen, chancenlosen Alternative gegen das Fernsehen - und dies, obwohl selbst die sanften vagierenden Sextakkorde "sinnvoller" erscheinen könnten als die gedankenlos brutalen Geräusche und Redensarten, die aus dem Fernseher oder Wohnzimmer kommen. - Bezeichnend ist, daß der Musiker seine Fernsehkritik hier nicht im Fernsehen selbst artikulieren kann, sondern "nur" im Radio, dem ihm viel besser zugänglichen Medium. Mauricio Kagel, der in den sechziger Jahren wegweisende Beiträge zu völlig neuen Konzeptionen des Fernseh-Musikfilms geliefert hatte, hat progressive Medienarbeit in den siebziger und achtziger Jahren vor allem im Radio geleistet, in seinen Hörspielen. (Seit dieser Zeit sind auch Fernsehproduktionen in seiner Arbeit nicht selten - z. B. im Falle der 1976 uraufgeführten "Kantrimusik" - eher einfallsreich gefilmte Musik-Aufführungen als ästhetisch eigenständige Musikfilme.) Im Falle Kagels zeigt sich besonders deutlich, daß gerade die exponiertesten Vertreter einer musikalischen Medienkunst, die über die Grenzen des bisherigen Musikverständnisses hinausstrebt, es oft besonders schwer haben: Über das Radio erreichen ihre Arbeiten günstigenfalls einen relativ kleinen Kreis intensiv Interessierter, in das Programmangebot der audiovisuellen Medien Kino oder Fernsehen lassen sie sich oft nur schwer integrieren.
b) Musik als Hörfilm
Die Isolation der Medienmusik von integralen Zusammenhängen der audiovisuellen Medienkunst ist um so befremdlicher, als viele Medienmusiker stark von der Ästhetik des Film beeinflußt sind - und trotzdem in ihrer eigenen Arbeit über die Isolation des Akustischen nur schwer hinauskommen. Dies zeigt sich nicht zuletzt auch in Klangproduktionen, die den jahrzehntelangen Vorsprung der Filmkunst offen einbekennen und gleichwohl aufzuholen versuchen.
Pierre Henry - der 1927 geborene "konkrete" Musiker, der sich schon in jungen Jahren intensiv für Filmkunst und Filmmusik interessierte - hat 1984 ein Hörspiel realisiert, dessen Klangmontagen nach seinen eigenen Worten von Bildmontagen eines berühmten Stummfilms inspiriert sind: "Berlin, Sinfonie einer Großstadt" von Walter Ruttmann. Erst nachträglich hat Henry versucht, die Sequenzen seines Hörstückes - mit einigen Abwandlungen und Umstellungen - Ruttmanns Film zu unterlegen (wobei zum Beispiel aus der Eisenbahnsequenz, die eigentlich im Inneren des Hörspiels steht, die Eröffnungsmusik zu Ruttmanns Film-Einleitung wurde, zur Eisenbahnfahrt nach Berlin). Henry, der seit den fünfziger Jahren eine große Anzahl von Filmmusiken realisiert hat (und der aus seinem umfangreichen filmmusikalischen oeuvre 1995 eine Hörspielproduktion für das Studio Akustische Kunst des WDR entwickelte) ist anläßlich der Produktion seines Hörspiels "La Ville - Die Stadt" gewissermaßen nachträglich zum Komponisten eines weiteren Films geworden - wobei seine Sequenzen gegenüber den Details der Bildfolge selbständig bleiben (in ähnlicher Weise, wie es Josef Anton Riedl in diversen Filmmusiken seit den frühen sechziger Jahren praktiziert). Bei Riedl ebenso wie bei Henry zeigen sich Ansätze, der Filmmusik im Kontext autonomer Medienmusik größeres Gewicht zu verleihen - in später Befolgung von theoretischen Postulaten an den Tonfilm, die verschiedene Theoretiker und Praktiker schon in den zwanziger Jahren aufstellten.
c) Medienkunst live
Henrys Verfahrensweisen lassen sich in vielen Fällen erklären als Übertragung von Techniken des Stummfilms auf die Klangproduktion - insbesondere von Techniken der Montage, teilweise auch der Mischung. Somit wird Henrys Klangkunst zum Gegenmodell einer Musikauffassung, in der die traditionelle live-Musikpraxis immer noch eine entscheidende Rolle spielt. Damit wird Henry zum Antipoden eines anderen berühmten Medienkünstlers: John Cage.
Seit den dreißiger Jahren ist John Cage auf anderen Wegen zur Medienkunst gekommen als, ein Jahrzehnt später beginnend, Pierre Henry. Cage ging es um eine universelle Geräusch- und Klangkunst, für deren Verwirklichung ihn technische Medien vorrangig als Mittel zum Zweck interessierten - weniger als eigenständiger Erfahrungsbereich, der den Künstler von vorneherein zur radikalen Revision aller seiner bisherigen Vorstellungen zwänge. Anders als bei Henry sind auch die Medienkompositionen von Cage stets noch in erster Linie Partituren für Interpreten - nicht im Studio entstandene, vom Komponisten selbst ohne externe Vorgaben hergestellte Produktionen. Zu den Interpreten konnte allerdings auch Cage selbst gehören - beispielsweise in den dreißiger und vierziger Jahren als Mitglied seines Geräuschorchesters oder im folgenden Jahrzehnt beispielsweise als Realisator der 1952 als Montageanweisung geschriebenen Tonbandpartitur "Williams Mix" oder, in gleicher Funktion, 1958 als Realisator der graphisch notierten (auch mit instrumentalen Klangmitteln realisierbaren) Komposition "Fontana Mix".
d) Medienkomposition als Filmmusik
Der entscheidende Unterschied zwischen John Cage und Pierre Henry besteht darin, daß Henry, anders als Cage, immer primär als Produzent seiner eigenen Klänge, Klangverarbeitungen und Klangmontagen tätig wird - und eben dies erklärt, daß Henry, wiederum anders als Cage, eine große Affinität zum Film erkennen läßt, besonders zum Stummfilm.
Ansätze filmisch inspirierter Lautsprechermusik, wie sie sich bereits 1984 in "La Ville - Die Stadt" im Rahmen eines Hörstückes finden (das dann erst nachträglich zur Filmmusik umgearbeitet wurde), hat Pierre Henry 1991 weitergeführt in einer Produktion, die von vorneherein konzipiert ist als Begleitmusik zu einem Stummfilm: "Der Kameramann" von Dziga Vertov, eine Produktion aus dem Jahre 1929. In seiner Musik zu diesem Film begleitet Pierre Henry Bilder der späten zwanziger Jahre mit Klängen, die an manchen Stellen fiktiv-exotisch klingen, an anderen Stellen die Aura populärer Medienmusik der frühen neunziger Jahre wachrufen.
In Pierre Henrys Klangmontagen und Klangmischungen artikuliert sich Medienmusik als Kunst der befreiten Klänge - als Konsequenz von Entwicklungen der technisch produzierten Hörkunst, die schon Jahrzehnte früher eingesetzt hatten.
e) Historische Tondokumente und Medienkunst - Beispiele zur Entwicklungsgeschichte
Die älteste Klangaufzeichnung der Geschichte stammt aus dem Jahre 1877: Thomas Alva Edison feiert die Erfindung seines Phonographen, indem er sich selbst aufnimmt. Er singt das populäre Lied "Mary had a little lamb", und dann lacht er. Schon in dieser Aufnahme lassen sich drei verschiedene Dimensionen erkennen: Sprache (der gesungene Text) - Musik (das Lied) - Geräusch (das Lachen). Beim Hören der Aufnahme sind alle drei Dimensionen gleich wichtig - und damit ergibt sich eine grundsätzlich andere Situation als in aufgeschriebener Sprache oder in aufgeschriebener Musik, wo ein begleitendes Lachen allenfalls durch knappe und nur approximative Zusatzbezeichnungen angegeben werden könnte. Wenn solche Aufnahmen mehrmals abgehört werden, kann der Hörer genauer auf Merkmale achten, die er im vergänglichen live-Hörerlebnis vieleicht nicht angemessen berücksichtigt: auf den Klang einer Stimme, auf Besonderheiten der Geräuschfärbung oder der musikalischen Artikulation und auf anderes mehr. Deutlich wird schon an diesem einfachen Beispiel, daß technisch produzierte Klänge neue Hörperspektiven eröffnen - und zwar Perspektiven eines "reduzierten Hörens", das konservierte Klänge unabhängig von den visuellen Begleitumständen ihrer Entstehung wahrnimmt. So erschließen sich:
- konservierte Geräusche in ihrem klanglichen Eigenleben, weitgehend abgelöst von mit ihnen verbundenen realen Vorgängen;
- konservierte Stimmen und Sprachlaute in ihren nonverbal-klanglichen Besonderheiten,
auch jenseits des in der Schrift Fixierbaren;
- fixierte Musik in Feinheiten der Interpretation, die die Notation nicht zu fixieren vermag.
So lange sich Klänge auf technischem Wege nur reproduzieren, aber nicht produzieren ließen, mochten diese Veränderungen eher den Hörer betreffen als den schaffenden Künstler. Noch viele Jahrzehnte mußten vergehen, bevor sich direkt für technische Medien bestimmte Klangkunst durchsetzte: Kunst für Stimmen und Sprachlaute auch jenseits eines geschriebenen Textes - Klangkunst auch jenseits der überlieferten Notation - Kunst, für deren technische und ästhetische Grundvoraussetzugnen es unerheblich blieb, ob Geräusche, Sprache oder Musik aufgenommen und später reproduziert wurden; integrative Akustische Kunst also, in der etwa die herkömmlichen Abgrenzungen zwischen Literatur und Musik fragwürdig geworden sind. Auffällig ist allerdings, daß die historischen Spuren dieser Klangkunst im öffentlichen Bewußtsein heute bei weitem weniger verankert sind als Dokumente aus der Geschichte von Fotografie oder Stummfilm. Fotos oder Filmsezenen von wichtigen Personen und Ereignissen der neueren Geschichte sind besser bekannt als entsprechende Tonaufnahmen.
Fotografie und Film haben sich offensichtlich so entwickelt, daß schon frühzeitig deutlich wurde, wie weit sie hinausgehen konnten über die angebliche Verdopplung einer vorgeblichen Realität: Die Bilder entfalteten ihr Eigenleben - und wahrgenommen wurden nicht nur die abgebildeten Gegenstände, sondern auch Besonderheiten der Art und Weise, in der sie mit Hilfe technischer Geräte gesehen und dargestellt wurden. In der Akustischen Kunst (bzw. in ihren Vorformen) blieben solche Besonderheiten lange Zeit unbeachtet: Es dominierte das Interesse für das Aufgenommene, aber nicht für die Klangregie der Aufnahme. Wesentliche Veränderungen dieser Situation ergaben sich erst in den zwanziger Jahren, als für das neue Medium Radio künstlerisch ambitionierte Hörstücke und Hörspiele entstanden - Produktionen, die uns in etlichen, auch wichtigen Fällen heute nur noch in Rekonstruktionen oder Neuinszenierungen aus späterer Zeit zugänglich sind.
Techniker ebenso wie Regisseure waren jahrzehntelang der Situation konfrontiert, daß Hörbares und Sichtbares sich nur getrennt voneinander aufnehmen und reproduzieren ließen, daß also unter dem Einfluß der Technik Hör- und Sehwarhnehmung zunächst rigoros voneinander isoliert wurden. Im Stummfilm, in der Kunst der unhörbaren Bilder und Bildfolgen, wurde dies durch die Filmmusik kompensiert - durch improvisierte oder komponierte Musik, die zur Begleitung der technisch produzierten Bilder live wiedergegeben wurde. Schon damals, in den Anfangszeiten der Filmmusik, wurde das Publikum daran gewöhnt, moderne, von den Techniken des Schnitts und der Montage geprägte Seherfahrungen zu kombinieren mit Hörerfahrungen einer traditionellen live-Musikwiedergabe. Moderne Sehgewohnheiten verbanden sich mit weiterhin konventionellen Hörgewohnheiten. Seit Jahrzehnten erwartet niemand mehr, daß Filme der traditionellen Theater-Dramaturgie folgen, daß sie dem Betrachter die Illusion des live-Erlebnisses vortäuschen. In der Musik aber - besonders in der sogenannten "ernsten" Musik - gibt es noch in den neunziger Jahren viele Hörer, die zumindest die Illusion eines live-Erlebnisses erwarten; die lieber konventionelle Musikdarbietungen erleben als sich mit der Tatsache abfinden wollen, daß differenzierte Medienmusik sich nicht einfach mit den begrenzten Möglichkeiten der live-Interpretation begnügen kann. Der historische Rückstand der Hörgewohnheiten gegenüber den Sehgewohnheiten beträgt für viele Hörer mehr als ein halbes Jahrhundert. Auf ihn dürfte auch Pierre Henry sich bezogen haben, wenn er noch in den achtziger und frühen neunziger Jahren Musik komponierte, die von Stummfilmen der zwanziger Jahre inspiriert oder sogar als deren Begleitmusik konzipiert ist.
In der Hörspieldramaturgie der zwanziger und frühen dreißiger Jahre setzten sich Tendenzen durch, die in der Folgezeit auch den Tonfilm prägen sollten: Das Klangliche bleibt sekundär, es wird den Erfordernissen einer erzählenden Dramaturgie untergeordnet - zum Beispiel so, daß unsichtbare Geräusche, unsichtbare Stimmen und unsichtbare Musik als Dekor einer Geschichte eingeführt werden, in der tatsächlich nichts zu sehen ist. (Zum Beispiel: Mehrere Personen befinden sich in den Gängen eines Bergwerkes. Plötzlich gibt es eine Explosion, und das Licht fällt aus. Man hört Stimmen aus der Nähe und fernen Gesang.)
Szenarien aus der Frühzeit des Hörspiels, die in späterer Zeit nicht selten mit moderneren Möglichkeiten der Aufnahmetechnik und Regie nachgestellt wurden, haben die Verwendung unsichtbarer Klänge einerseits dramaturgisch motiviert, andererseits aber auch der illusionistischen Vorspiegelung von live-Erlebnissen angenähert und insofern traditionalistisch abgeschwächt. Die total verfinsterte "innere Bühne" des Bergwerksschachtes war dabei ein nur selten praktikabler Extremfall; plausibler war es beispielsweise, "unsichtbare Klänge" darzustellen aus der Bezugsposition eines geschlossenen Raumes, in den von außen Geräusche hereinkommen.
In dem 1930 produzierten Hörspiel "Straßenmann" von Hermann Kesser gibt es eine Treppenhaus-Szene: Man hört mehrmals hintereinander Schritte im Treppenhaus, unterbrochen jeweils von Dialogen: In verschiedenen Wohnungen soll Geld einkassiert werden; man hört Äußerungen derjenigen, die das Geld eintreiben und derjenigen, die bezahlen sollen. So entwickelt sich eine in Episoden gegliederte, live gespielte Szene in der dramaturgischen Vortäuschung einer Montagestruktur (bei der gleichsam Szenen an Wohnungstüren verschiedener Etagen aneinandermontiert werden). Hier geht es um den Wechsel nicht nur verschiedener Sätze, sondern vor allem auch verschiedener Stimmen. Der letztere Aspekt, der Aspekt der Stimmregie, entzieht sich der literarischen Fixierung, aber er ist für die Wirkung dieser Szene entscheidend. Die Szene überschreitet die dramaturgischen Grenzen der traditionellen Funkerzählung, und sie konzentriert sich auf die technisch vermittelten Klänge einzelner Stimmen - unverwechselbar, wie die Gesichter von Filmschauspielern. Dies ist ein herausragendes Beispiel medienspezifischer Stimmregie - ein Beispiel, dem sich nicht ohne weiteres ein vergleichbar prägnantes Beispiel medienspezifischer Musikregie an die Seite stellen läßt.
Die radiophonische Musikregie der zwanziger und frühen dreißiger Jahren blieb weitgehend traditionellen dramaturgischen und musikalischen Vorstellungen verhaftet - selbst in den musikalischen Nummern, die Paul Hindemith und Kurt Weill für Bertolt Brechts Lindberghflug komponierten. Mehr noch: Die Benutzung moderner Massenmedien für regressive Ideologien hat spätestens in den frühen dreißiger Jahren auch die Musik in ihren Bann gezogen: Im 1932 entstandenen Hörspiel "Eine preußische Komödie" von Paul Rehberg gibt es eine Szene, in der die Musikregie gleichsam die sogenannte Machtergreifung am 30. Januar 1933 vorwegnimmt: Die Beschwörung des Geistes von Langemarck mündet im Deutschlandlied - ganz ähnlich, wie später die Radioreportage über Hitlers Einzug in die Reichskanzlei (und, daran anknüpfend, von Goebbels später inszenierte Wochenschauen dieses Jahres, deren krönender Abschluß das Deutschlandlied bildete - wie das ideologisch pervertierte Gegenstück zum Schlußchoral einer Bach-Kantate).Musik übernimmt im Zeitalter der Massenmedien nicht selten die Funktion der rückwärts gewandten live-Illusion. Tendenzen der Öffnung zum Geräusch, wie sie seit den ersten Jahrzehnten des Jahrhunderts in der Avantgardemusik eine wichtige Rolle spielten, wurden in der medienspezifischen Massenmusik allenfalls ansatzweise aufgegrif fen - beispielsweise in einigen Musiksequenzen Kurt Meisels zu Eisensteins Potemkin-Film. Im Medienalltag aber rechnete man Geräusche nicht zur Musik, sondern zum pseudo-realistischen Dekor einer pseudo-realistischen Handlung. So findet man Sirenen, mit denen Edgar Varèse in Kompositionen der zwanziger und frühen dreißiger Jahren experimentierte, fast gleichzeitig als akustische Requisiten eines erzählenden Hörspiels: "SOS Rao rao foyn" von Friedrich Wolf. Wie ungewohnt und schwierig Verfahren einer weniger konventionellen Geräuschregie auch in der Folgezeit noch blieben, zeigt sich einerseits in dem sensationellen Überraschungserfolg von Orson Wells´ "Krieg der Welten", andererseits, nur wenige Jahre später, im Scheitern des ersten Hörspielexperiments von John Cage. Am 13. August 1979, nach dem Abschluß einer nunmehr gelungenen Hörspielproduktion, des "Roaratorio", hat Cage Klaus Schöning, seinen Auftraggeber im Hörspielstudio des WDR, über die negativen Erfahrungen des Jahres 1942 berichtet:
"Ja, das Stück hieß "The City Wears a Slouch Hat" von Kenneth Patchen, und ich hatte vor, die Geräusche, die in dem Stück vorkamen, herauszusuchen und eine Musik, die aus diesen Geräuschen bestehen sollte, zu komponieren. Aber ich hatte keinen Erfolg in diesem Fall... Es war wohl noch zu kompliziert für die damalige Zeit. Die Technologie, die wir damals hatten, ließ es noch nicht zu, wir hatten keine 16-Spur-Maschinen, wir hatten überhaupt noch keine Tonbandgeräte zu dieser Zeit. Das kam später, Ende der vierziger Jahre."
So blieb es dabei, daß, abgesehen von einigen anderen medienspezifischen Arbeiten von John Cage, die Musik der Mediengeschichte der frühen vierziger Jahre eine eher konventionelle Rolle spielte - sei es als funkisch verzerrtes Weihnachtslied "Stille Nacht", das der reichsdeutsche Rundfunk Weihnachten 1942 an allen Fronten, auch in Stalingrad, anstimmen ließ, sei es, fast zwei Jahre später, im Gesang der Marseillaise bei der Befreiung von Paris im August 1944. In einer Dokumentaraufnahme aus dieser Zeit ist ein Gespräch zwischen dem Radiopionier Pierre Schaeffer und dem Schriftsteller Paul Eluard zu hören, von außen ergänzt durch den Jubel der Massen und dem Gesang der Marseillaise auf der Straße - Sprache, Geräusche und Musik in einer Hörspielszene, die nicht inszeniert, sondern das Resultat live mitgeschnittener Zeitgeschichte ist.
Aus den Kriegsjahren ist uns eine singuläre Hörspielszene erhalten, die Zeitgeschichte im experimentellem Klang einfängt: In "La coquille à Planètes" (Die Planetenmuschel) von Pierre Schaeffer finden sich an einer Stelle akustische Remineszenzen an den Luft- und Bodenkrieg jener Jahre. Hier findet sich eine künstlerische Gestaltung aktueller geschichtlicher Erfahrung - kurze Zeit, bevor die Lösung der hier dargestellten Konflikte sich in realen Tondokumenten artikulieren sollte.
Während des zweiten Weltkrieges, zur Zeit des Vichy-Regimes und der deutschen Besetzung Frankreichs, hat Pierre Schaeffer in Beaune ein radiophones Versuchsstudio aufgebaut, und er hat in dieser Zeit vorgearbeitet für die Radioarbeit des für die Zukunft erhofften befreiten Frankreich. !944, bei der Befreiung von Paris, hat sich Pierre Schaeffer mit praktischer Radioarbeit an entscheidender Stelle engagiert. Dies sicherte ihm auch für die Zukunft maßgeblichen Einfluß - einen Einfluß, der ihm später auch Freiräume sicherte, von dort die musique concrète zu etablieren; einen Einfluß, den in den dreißiger Jahren Edgard Varèse in den USA nicht hatte erringen können, so daß er, anders als Schaeffer, zunächst kein Studio bekam, um seine experimentelle Musik und Medienkunst zu realisieren. Varèse mußte bis 1954 warten, als Schaeffer ihn in sein Pariser Studio einlud und ihn dort, zusammen mit Pierre Henry, die Tonband-Interpolationen seiner "Déserts" realisieren ließ.
.Das Hörspiel ebenso wie die musique concrète (in wichtigen Bereichen auch die Elektronische Musik) entstanden und entwickelten sich als Produkte moderner medienspezifischer Radioarbeit. So läßt sich erklären, daß es in beiden Bereichen besonders prägnante Beispiele für die Auseinandersetzung mit der politischen Realität gibt, wie und insoweit sie von akustischen Medien eingefangen werden kann. Zusammenhänge der neuen Medienkunst beispielsweise mit traumatischen Erfahrungen aus der Zeit des zweiten Weltkrieges sind besonders deutlich bei Schaeffer zu erkennen - nicht nur in Produktionen aus den Kriegsjahren, sondern auch aus der Rückschau späterer Jahre, etwa am Anfang der (gemeinsam mit Pierre Henry realisierten) "Sinfonie pour un homme seul" (Sinfonie für einen einsamen Menschen), wenn pochende Geräusche und Rufe zu hören sind, die nach Schaeffers eigenen Worten an Anfangssignale einer alten Theatervorstellung erinnern können, aber auch an den nächtlichen Terror der Gestapo.
Medienmusik und Medienkunst sind Dokumente nicht nur der Zeitgeschichte, sondern auch der Mediengeschichte. Darauf hat auch Pierre Schaeffer hingewiesen. Nach seinen Worten entstand die musique concréte "aus der Erweiterung jener dramatischen Kunst für Blinde, des Hörspiels nämlich, das ebenfalls im Rundfunk entstanden war".
Karlheinz Stockhausen, der 1952 einige Zeit in Schaeffers Studio gearbeitet hatte und anschließend zum wichtigsten konzeptionalen Pionier der Elektronischen Musik wurde, hat für die Entwicklung einer medienspezifischen neuen Radiomusik andere Vorstellungen entwickelt - in klarerer Distanzierung zur musikübergreifenden Gattung des Hörspiels, in umso stärkerer Akzentuierung funkspezifischer Produktionsbedingungen. Auch er hat sich allerdings auch auf die Legitimation der elektroakustischen Musik als Medienkunst berufen. 1958 schrieb er in seinem Text "Elektronische und instrumentale Musik":
Wo wird elektronische Musik produziert?Das erste Studio wurde im Kölner Rundfunk gegründet. Das ist bezeichnend; denn die heutigen akustischen Kommunikationsmittel,über die wir verfügen - und die vielleicht auch über uns verfügen - sind in der Hauptsache Rundfunk, Tonband und Schallplatte.Tonband, Schallplatte und Rundfunk haben das Verhältnis von Musik und Hörer tiefgreifend geändert.Die meiste Musik wird am Lautsprecher gehört.
Und was haben Schallplatten- und Rundfunkproduzenten bisher getan? Sie reproduzierten reproduzierten eine Musik,die in vergangener Zeit für Konzertsaal und Opernhaus geschrieben wurde, gerade als ob der Film sich nur damit begnügt hätte, die alten Theaterstücke zu photographieren. Obgleich nun der Rundfunk eine solche Konservenfabrik geworden war, geschah etwas Unerwartetes: Elektronische Musik kam ins Spiel; eine Musik,die ganz funktionell aus den spezifischen Gegebenheiten des Rundfunks hervorging. Die Hörer am Lautsprecher werden früher oder später verstehen,daß es sinnvoll ist,wenn aus dem Lautsprecher Musik kommt,die man nur am Lautsprecher und nirgendwo sonst empfangen kann."
Heute, fast vier Jahrzehnte nach Stockhausens Prophezeiung, gibt es immer noch gewichtige Gründe zum Zweifel daran, ob sie sich tatsächlich erfüllt hat. Als radiophone Musik par excellence hat sich die Elektronische Musik immer noch nicht durchgesetzt: Womöglich hat Stockhausen die Möglichkeiten der raschen Realisierung avancierter Medienkunst damals überschätzt - im Radio ebenso wie im Fernsehen, für dessen künftige Praxis er damals prophezeite, "daß man die Kamera, dem Mikrophon des Rundfunks entsprechend, nur noch für aktuelle live-Reportagen oder überhaupt nicht verwendet und statt dessen fernseheigene, elektronisch-optische Kompositionen sendet."
Stockhausen dachte damals an Medienkünste der synthetischen Klänge und der synthetischen Bilder. Aus der Erfahrung bekannte Bilder und Klänge hielt er damals für nicht weniger veraltet als traditionelle Praktiken der live-Aufführung im Konzertsaal. - Inzwischen ist allerdings deutlich geworden, daß Stockhausen selbst diese rigorose Position in seiner eigenen kompositorischen Praxis modifiziert hat. Niemals hat er aufgehört, live aufzuführende Instrumentalmusik für den Konzertsaal zu schreiben. Überdies hat er - spätestens seit dem 1956 aufgeführten "Gesang der Jünglinge" - auch mit dem Mikrophon aufgenommene Klänge in seiner Tonbandmusik akzeptiert. Mehr noch: Seit der 1960 uraufgeführten Komposition "Kontakte" ist es in Stockhausens Tonbandmusik fast zur Regel geworden, daß sie im Konzertsaal unter der (meist fakultativen) Mitwirkung von live-Interpreten aufgeführt wird. Stockhausen hat aber schon frühzeitig versucht, traditionelle, vom Notentext für live-Interpreten ausgehende Kompositionsweisen und Aufführungspraktiken in seine Arbeit zu intergrieren. Wenigstens in dieser Hinsicht ließ er auch in den sechziger Jahren noch Affinitäten zu seinem Antipoden John Cage erkennen: Stockhausen ebenso wie Cage versuchten, die elektroakustischen Techniken aus der Exklusivität des Studios herauszulösen und einzubinden in das Erfahrungsfeld der live-Aufführung, sogar der Aufführung im traditionellen Konzertsaal. So wurde der Schock der bis dahin "unsichtbaren" Lautsprechermusik wenigstens teilweise gemildert, und diese wurde wiederum der traditionellen Instrumentalmusik angenähert, wobei auch aus der Vergangenheit bekannte Rollen-Aufteilungen zwischen Komponist und Interpret wieder ganz oder teilweise in Kraft gesetzt werden konnten
Unter den Werken, die Cage und Stockhausen in den sechziger Jahren realisierten, verstärken sich Tendenzen der interpretatorischen Freiheit bis in Extremsituationen hinein: Nur vereinzelt zeigten sich damals auch entgegengesetzte Tendenzen - z.B. bei der Einbeziehung fixierter Konserven traditioneller Musik in eine (in Ausschnitten auf 2 Mitschnitt-Schallplatten festgehaltene) Realisation der "Variations IV" von John Cage und den auf Tonband fixierten Verarbeitungen verschiedener Nationalhymnen, Sprachaufnahmen und Geräusche in Stockhausens "Hymnen" .
Mit der Rückkehr zur vorgegeben Musik kündigte sich eine Trendwende an: Sowohl Cage als auch Stockhausen kehrten Ende der sechziger/Anfang der siebziger Jahre weitgehend zur traditionellen Notenschrift zurück, während sich das Verhältnis zwischen Komponist und Interpret weiterhin veränderte, traditionellen Rollenverteilungen noch stärker annäherte. Beide Komponisten interessierten sich in den siebziger Jahren auch verstärkt für Musik mit herkömmlichen vokal-instrumentalen Klangmitteln. Selbst in Stockhausens elektronischen Hauptwerk der siebziger Jahre, "Sirius", ist die Tonbandpartie so gestaltet, daß die Tonhöhenverläufe von Sängern und Instrumentalisten weitgehend mitgespielt und mitgesungen werden können.
Die Annäherung der Medienmusik nicht nur an traditionelle Aufführungspraktiken, sondern auch an die traditionelle Notation, wie sie Stockhausen seit den siebziger Jahren als Konsequenz seiner Konzeption der Formelkomposition betrieb, mag in der Entwicklung der Medienmusik eine Extremsituation darstellen - zumal Stockhausen selbst in seinen Medienkompositionen immer wieder in Bereiche vorstößt, die sich der traditionellen Notation entziehen. Trotzdem läßt sich feststellen, daß seit den siebziger Jahren, als neue Techniken sich in der Elektroakustischen Musik durchzusetzen begannen, gleichwohl kompositorische und ästhetische Rückwege gesucht wurden - vor allem Wege der Instrumentalisierung technisch produzierter Musik, auch der Annäherung technisch produzierter Klänge an populäre Assoziationsfeldernder Natur, der technischen Welt oder galaktischer Phantasiewelten. Tendenzen der Semantisierung der elektroakustischen Musik zeigten sich in den siebziger Jahren nicht nur in Stockhausens "Sirius", sondern auch, mit anderen Inhalten, bei Iannis Xenakis: In "La Légende d´Eer" als galaktische Musik, in "Pour la Paix" als sprachlich-musikalisches Manifest gegen den Krieg. Damit änderte Xenakis strikte Positionen der formalisierten Tonbandmusik, wie er sie zuvor besonders in elektroakustischen Produktionen der späten fünziger Jahren bezogen hatte. - Auch bei Jean-Claude Risset finden sich - besonders in den politisch unruhigen späten sechziger Jahren, Tendenzen einer Semantisierung experimenteller Klangstrukturen. In der "Computersuite Little Boy" verwendet Risset Endlosglissandi als Klangsymbol des Atombombenabwurfs, des physischen und psychischen Sturzes ins Bodenlose.
Das Verhältnis zwischen Musik und Technik bleibt vielschichtig und schwierig - sei es in vollständig fixierten Studioproduktionen, sei es in Kompositionen mit live-Elementen, auch in Verbindungsformen fixierter und live aufzuführender Strukturen, sei es in analogen, sei es in digitalen Techniken, sei es in abstrakten, sei es in die tägliche Erfahrung dokumentierenden oder verwandelnden Klangwelten.
Neue Fragestellungen für das musikalische Hören ergeben sich aus Anregungen einer Musik, die ihren definierten Platz im Musikleben bis heute noch nicht gefunden hat. Die technisch bedingte Isolierung von Gesichts- und Gehörsinn sind die vordergründigen Versuche, beide Sinne auf unterschiedlichen Stufen der Differenzierung und Entwicklung gleichwohl vordergründig zusammenzubringen, haben beträchtliche Schwierigkeiten provoziert. All dies hat dazu beigetragen, daß die technisch produzierte Musik einen angemessenen Platz in dem von Technik beherrschten Musikleben bis heute noch nicht gefunden hat - weder in den Medien, noch in einzelnen Aufführungen, noch auf größeren Festivals.
Die Schwierigkeiten, neue technische Möglichkeiten zur Weiterentwicklung der musikalischen Wahrnehmungsfähigkeit zu nutzen, sind offenkundig. neue technische Möglichkeiten sind nicht selten schon vorhanden, bevor der Musiker nach ihnen gesucht hat. Zu hoffen bleibt, daß neue Prinzipien der musikalischen Gestaltung, neue Erfahrungsbereiche der musikalischen Wahrnehmung und neue Strukturen des Musiklebens sich künftig in ihren Entwicklungstendenzen nicht voneinander entfernen, sondern aufeinander zubewegen.
Pioniere der Medienmusik
In den letzten Jahren des 20. Jahrhunderts beginnt deutlich zu werden, daß viele exponierte Komponisten dieses Saeculums dazu beigetragen haben, die anstehenden Probleme zu erkennen und voranzutreiben:
- Edgard Varèse hat differenzierte Mischformen hochartifizieller und spontaneistischer Klangestaltung und Klangverbindung entwickelt, die auch Komponisten späterer Generationen nachhaltig beeindruckten. z.B. Iannis Xenakis und - in ganz anderer Weise - Wolfgang Rihm.
- John Cage hat Ansätze der Geräusche- und Medienkunst entwickelt, die bis zur (durch Zufallsverfahren vorstrukturierten) kompositorischen Unbestimmtheit und zur völligen Neubestimmung des Verhältnisses zwischen Komponist, Interpret und Hörer führen.
- Pierre Boulez und - in ganz anderer Weise - der späte Luigi Nono, haben, nach ersten Erfahrungen mit vorproduzierter Tonbandmusik - sich später umorientiert zu instrumental-elektroakustischen Mischformen und zu live-elektronischen Erweiterungsformen der traditionellen Musikpraxis.
- Pierre Schaeffer, Pierre Henry, Francois Bayle und andere Exponenten der musique concrète sind Schöpfer von Verfahren der experimentellen Klangforschung, von vielfältigen Montage- und Mischtechniken einer universellen Klangkunst, die nicht von festen traditionellen Parametern ausgeht, sondern von inneren Differenzierungen und Bewegungsformen komplexer Klänge.
- Karlheinz Stockhausen und Gottfried Michael Koenig haben versucht, in serieller elektronischer Musik die traditionelle Instrumentalmusik zunächst im Hegelschen Sinne aufzuheben - was Stockhausen in der Folgezeit auf die Suche nach Verbindungsmöglichkeiten zwischen tradierten und neuen Kompositions- und Aufführungsfomen brachte, während Koenig den umgekehrten Weg einer verstärkten Formulierung wählte und auf diesem zur Computermusik gelangte.(zunächst vorwiegend in mit dem Computer nach Kompositionsprogrammen berechneten Partituren instrumentaler Musik; von hier aus Schritt für Schritt sich annähernd an die Formalisierung der Transformation und Generation synthetischer Klänge.- Die Möglichkeiten einer aus dem seriellen Musikdenken hervorgehenden Computermusik haben auch jüngere Komponisten beeinflußt, z.B. Clarence Barlow in der live-Version und in der synthetischen Version seines Klavierstückes Cogluotobüs- ismetessi.
- Iannis Xenakis hat mit verschiedenen Ansätzen seiner formalisierten Musik, vor allem in seiner elektroakustischen Musik, radikale Antithesen zum traditionellen Musikdenken entwickelt.
. Vertreter der musikübergreifenden Medienkunst von Walter Ruttmann bis Ferdinand Kriwet haben sich entschlossen, die Klangmaterialien und Vermittlungsformen der Musik auch in musikübergreifenden Zusammenhängen zu entdecken, zu organisieren und zu entwickeln. Ihr Denken gibt in dieser Hinsicht grenzüberschreitende, polyästhetische und polymediale Impulse, so wie sie in anderer Weise auch Musiker wie John Cage, Pierre Henry. Josef Anton Riedl und andere vermitteln.
- Jean Claude Risset findet in vielseitigen Verwendungsmöglichkeiten des Computers Verbindungs- und Vermittlungsformen zwischen instrumentalen und studiotechnisch g eprägten Kompositionsverfahren, zwischen live gespielten und technisch vorgeprägten Klängen, zwischen instrumentaler Aktion und verschiedenen Möglichkeiten ihrer interaktiven Weiterentwicklung, zwischen konkreten und elektronischen Klängen.
Veränderungen des Hörens und des Musiklebens durch die Medienmusik
Die technisch produzierte Medienkunst beleuchtet zentrale Probleme des Hörens, insbesondere:
- Das Problem des Verhältnisses zwischen Form und Struktur - zwischen dem sinnlich wahrzunehmenden Hörergebnis einer Musik und der Gesamtheit der technischen bzw. kompositionstechnischen Prozesse, die dieses Resultat hervorgebracht haben.
- Das Problem des Verhältnisses zwischen abstrakten und konkreten Höreindrücken -
vereinfacht gesagt: zwischen Musik-Hören im engeren Sinne und Hörspiel-Hören.
- Das Problem des Verhältnisses zwischen (pseudo-)realistisch, konventionell abbildenden, die vorgegeben Realität verändernden (verfremdenden) und neue Realitäten setzende Klängen
Neue Strukturen des Musiklebens, in denen auch die angesprochenen und andere Probleme des Hörens einen neuen Stellenwert gewinnen könnten, haben sich bis heute noch nicht entgültig durchgesetzt. Ihre Notwendigkeit wird deutlich umso mehr, je stärker die Musik sich von den tradierten Modellen der live-Interpretation löst. Noch immer ist nicht klar entschieden, ob die technisch vermittelte Kunst weiterhin ein Schattendasein im traditionellen Musikleben fristet oder sich eigene Orte suchen kann und soll, so wie der Film sie in Kino und Fernsehen, abseits der Theater, längst gefunden hat.
Die Frage nach der Zukunft der technisch produzierten Musik ist auch eine Frage nach neuen Formen des Umgangs mit Musik - des Hörens und Machens, des Reflektierens und Vermittelns, der Wahrnehmung der Weiterentwicklung und der Entdeckung neuer Möglichkeiten.
Es gibt folgende untergeordnete Dokumente:
[Zurück] [Vor] [Hoch] [Startseite]
[Index] [Frisius-Homepage]