[Zurück] [Vor] [Hoch] [Startseite] | Index |
Rudolf Frisius
JANUSKÖPFIGE MUSIKGESCHICHTE
Beziehungen zwischen der der allgemeinen Musikgeschichte und der Entwicklung der elektroakustischen Musik im 20. Jahrhundert:
Konvergenzen und Divergenzen - Kompositorische Profile - Veränderungen des Musiklebens
I.
Zentrale Neuerungen in der Musikentwicklung des 20. Jahrhunderts
sind die Entwicklung von Alternativen zur Dur-Moll-Tonalität in der ersten Jahrhunderthälfte
und die Entwicklung von Alternativen zur live-Musikpraxis
seit den Anfängen der elektroakustischen Musik.
Die erste Neuerung stellte den traditionellen Musikbegriff in Frage,
die zweite die Einheit der Musik selbst:
Unklar war und ist, ob und inwieweit die Möglichkeiten
der elektroakustischen Produktion, Verarbeitung und Verbreitung von Klängen
unter innermusikalische oder musikübergreifenden Aspekten beschrieben werden müssen,
ob und in welchen Fällen sie entweder einem speziellen Bereich der allgemeinen Entwicklung zuzuordnen oder als Phänome einer neu zu definierenden akustischen Kunst zu beschreiben sind
(ähnlich wie einige Jahrzehnte zuvor die Entwicklung des Films nicht nur bezogen auf andere, z. B. darstellende Künste, sondern als eigene Kunstgattung mit spezifischen Möglichkeiten der Produktion, Rezeption und Verbreitung vordringlich geworden ist). Die verschiedenen Möglichkeiten lassen sich aufzeigen im Vergleich von Komponisten, die entweder sich von der traditionellen Live-Musik mehr oder weniger vollständig lösten (z. B. Schaeffer, Henry und Bayle) oder sie mit Möglichkeiten der traditionellen Vokal- und Instrumentalmusik zu verbinden versuchten (z. B. Cage, Boulez, Nono und Stockhausen). Die Veränderungen lassen sich ablesen nicht nur an innermusikalischen Entwicklungen, sondern auch an neuen Kunstformen, für die Begriffe wie Radiokunst, Neues Hörspiel oder Ars acustica sich einzubürgern beginnen.
II.
Elektroakustische Musik kann sich dadurch profilieren, daß sie sich querstellt zu anderen, an die Live-Interpretation gebundenen Formen der Musikdarbietung. Diese Musik hat die Exklusivität von Konzertsaal und Opernhaus aufgegeben und ist - wie übrigens auch alle über Tonträger und Medien verbreitete Konzert- und Opernmusik - in die Wohnungen gelangt, als Hausmusik neuer Art. Der kanadische Komponist Yves Daoust hat groteske Hörszenen produziert, in denen dies unmißverständlich deutlich wird. Nicht weniger drastisch geht Mauricio Kagel vor, wenn er in seinem Hörspiel Soundtrack zeigt, in welchem Kontext häuslisches Klavierspiel heute erklingen kann: Der Sohn des Hauses muß Klavier üben - scheinbar simple Klavier-Etüden. (In Wirklichkeit handelt es sich um gelenkte Klavier-Improvisationen, die der Komponist selbst nach seinen eigenen, approximativ-aleatorischen Angaben spielt). Im Wohnzimmer läuft gleichzeit ein Fernseh-Western. Man hört Geräusche, Dialogfetzen und Kommentare verschiedener Familienmitglieder. In diesem Kontext erscheinen die Dreiklangs-Improvisationen auf dem Klavier, trotz ihrer penetranten Sanftheit, fast schon als ruhestörender Lärm.
Kagel macht deutlich, welche Klänge die Musik des Klavierspielers vom ersten Platz verdrängt haben: Die Fernsehklänge - vor allem die genußvoll (häufig in Trickaufnahmen mit einem Geräuschemacher) produzierten und montierten Geräusche. Die Attraktivität dieser kunstvoll stilisierten akustischen Western-Klischees übertrifft die Attraktivität konventioneller Harmonien bei weitem. -
Die Massenmedien haben die Illusion der auratischen Eindeutigkeit dargebotener Musik gründlich in Frage gestellt. Dies gilt nicht nur für konservierte live-Musik, sondern auch für Musik, die ausdrücklich dem Lautsprecher zugedacht ist.
Pierre Schaeffer hat, unter dem Titel Pochette surprise, den sketch eines Musiktests konzipiert, in dem ein Mann auf unterschiedliche Musikzuspielungen reagieren soll: Populäre Filmmusik - avantgardistische elektroakustische Musik - ein arrangiertes und variiertes Volkslied - schließlich konkrete Musik, die in keine der zuvor aufgezogenen Schubladen paßt. Die Frage nach dem Wesen der elektroakustischen Musik wird in diesem Hörspot zur "Unanwered Question" (im Sinne von Charles Ives). -
Wesen und Erscheinungsbild elektroakustischer Musik lassen sich in nivellierender Pauschalisierung nur schwer beschreiben. Selbst ihre Einzelklänge sind durchaus heterogen. Schaeffer macht dies deutlich in einer Szene seines Hörspiels L´aura d´Olga: Im sketch eines Klangtests, bei dem eine Frau unter neun kurzen elektroakustischen Klängen ihren Lieblingsklang auswählen soll. Alle Klänge, die ihr zur Wahl gestellt haben, haben gemeinsam, daß sie sich mit traditionellen Begriffen nicht beschreiben lassen, aber gleichwohl in großer Prägnanz erscheinen und starke Wirkungen auslösen. Die Frage nach den Gründen hierfür bleibt weitgehend offen.
Elektroakustische Musik, die die Vielfalt ihrer Möglichkeiten angemessen ausschöpft, kann voreiligen Rubrizierungen entgehen: Als Musik, die sich zwischen alle Stühle setzt - als Musik zwischen den Fronten. Dies kann sich in unterschiedlichsten Zusammenhängen zeigen - beispielsweise im vielgestaltigen oeuvre eines Jean Claude Risset, der 1969 in seiner Computer Suite from Little Boy aus scheinbar esoterischen Computerklängen Protestmusik gegen einen amerikanischen Atombombenabwurf entwickelt, und der, etliche Jahre später, im Einleitungsteil seiner Tonbandkomposition Sud (1985) Naturklänge fast bruchlos in Computerklänge überleitet. In der elektroakustischen Musik sind selbst tradierte ästhetische Frontstellungen inzwischen ästhetisch weitgehend fragwürdig geworten - Schlagworte wie "elektronisch contra konkret", "empirisch gegen apriorisch", "digital gegen analog", "live gegen vorproduziert" und anderes mehr. Beispiele für Vielfalt und undogmatische Offenheit finden sich nicht zuletzt im oeuvre von Risset. Es ist also keineswegs davon auszugehen, daß der Bereich der elektroakustischen Musik von dogmatischer Verengung bedroht ist. Dennoch bleibt die Frage, ob und in welcher Weise er sich in die allgemeine Musikentwicklung integriert hat oder insgesamt ein Sonderbereich geblieben ist.
III.
Musik des 20. Jahrhunderts, die nicht nur ältere Traditionen fortschreibt, sondern sich in wesentlichen Aspekten über diese hinausentwickelt, hat es insofern verdient, zumindst von Zeitgenossen als "Neue Musik" bezeichnet zu werden. Von Musik früherer Zeiten, für die entsprechende Bezeichnungen sich durchgesetzt haben, unterscheidet "Neue Musik" des 20. Jahrhunderts sich in der Regel durch mindestens eines der beiden folgenden Hauptmerkmale:
1. Sie sucht nach Alternativen (manchmal auch nach Abwandlungs- oder Erweitungsmöglichkeiten) zu der in früheren Jahrhunderten entwickelten (Dur-Moll-)
Tonalität, zu ihren rhythmischen, teilweise auch dynamischen und klangfarblichen Ausprägungen;
2. sie prüft Erweiterungsmöglichkeiten oder Alternativen zu den in früheren Zeiten unverrückbaren Begrenzungen der live-Musikpraxis.
Zu 1.:
Für die Alternativen zur Tonalität hat sich im allgemeinen Bewußtsein weithin der Begriff Atonalität durchgesetzt (trotz seiner - durchaus problematischen - negativen Verengung). Versuche, die überlieferte Tonalität in Frage zu stellen oder - im Geiste einer (wie auch immer genau definierten) Atonalität durch anderes zu ersetzen, werden meistens primär mit innermusikalischen Argumenten begründet und akzeptiert - beispielsweise die Zwölftonmusik im Sinne Schönbergs und seiner Schule.
Zu 2.:
Für die Alternativen zur Live-Musikpraxis ergibt sich eine andere Situation: Sie stehen in musikübergreifenden Zusammenhängen. Dies ergibt sich schon daraus, daß sie erst auf der Grundlage technischer Erfindungen möglich geworden sind, deren Bedeutung weit über die Musik hinausreicht.
Die Möglichkeit der Konservierung beliebiger Klänge, die sich seit 1877 (also seit der Erfindung des Phonographen durch Thomas Alva Edison) abzeichnete, läßt sich auf zwei verschiedene Weisen interpretieren:
- einerseits als verspätetes Pendant zur Erfindung der Photographie - oder auch
- andererseits als verfrühtes Pendant zur Erfindung des Stummfilms.
Um so erstaunlicher ist es, daß visuelle Erfahrung und visuelle Erfindung sich unter dem Einfluß technischer Innovationen wesentlich eher und rascher veränderten als das Hören und die musikalische Erfindung. Vielleicht läßt sich dies weitgehend damit erklären, daß die visuellen Techniken rascher über die simple Konservierung hinausgelangt sind - daß Schnitt und Montage, sogar technische Verfremdung für aufgenommene (stehende oder bewegte) Bilder sehr viel rascher möglich geworten ist als für aufgenommene Klänge. Deswegen haben sich seit den Anfangsjahren des Stummfilms anachronistische Techniken der Kopplung von Bildern und Klängen entwickelt: Geschnittene, technisch vorproduzierte Bilder (und Bildfolgen) verbinden sich mit ungeschnittenen, live gespielten musikalischen Klängen - z. B. mit Musik eines Stummfilm-Pianisten, der frei oder mit vorgefertigten Versatzstücken improvisiert, oder auch mit Musik eines Stummfilm-Orchesters, das nach den Vorschriften einer exakt ausgearbeiteten Partitur spielt. Während Montagen und selbst Mischungen oder technische Verfremdungen (Trick-Aufnahmen) im Stummfilm schon bald nach der Jahrhunderwende sich durchsetzten, entstand das erste rein technisch produzierte Hörstück erst 35 Jahre nach der Erfindung des Stummfilms: Walther Ruttmann, der in den 1920er Jahren mit experimentellen Stummfilmen Aufsehen erregt hatte, schuf 1930 sein für die Lautsprecher-Wiedergabe bestimmtes Klangstück Weekend - technisch gesprochen einen Tonfilm ohne (Seh-)Bilder. Dieses Stück unterscheidet sich von den meisten (literarisch geprägten) Hörspielen jener Jahre dadurch, daß Sprachaufnahmen hier keineswegs mehr dominieren, sondern daß Geräusch- und Musikaufnahmen ihnen vollständig gleichwertig sind. So ergibt sich ein erstes Beispiel dessen, was in späteren Jahrzehnten mit Begriffen wie "Neues Hörspiel", "(experimentelle) Radiokunst" oder "Akustische Kunst" bezeichnet wurde.
Ruttmann verbindet ("komponiert"), ähnlich wie in seinem sinfonisch strukturierten Berlin-Stummfilm (Berlin, die Sinfonie der Großstadt, 1927), in Weekend aufgenommene und geschnittene Klänge nach Prinzipien der Montage, die sich im Stummfilm kurz nach der Jahrhunderwende ausgebildet und durchgesetzt hatten. In den 1920er Jahren versuchten beispielsweise Bela Balacs, Dziga Vertov und Sergij Eisenstein, praktische Montage-Erfahrungen zu reflektieren, zu systematisierungen und vom Bild auf den Ton, von der Bildmontage auf die Klangmontage zu übertragen. Ihre Ansätze zielten auf eine integrative, für Bild und Ton verbindliche Montagepraxis, auf den experimentellen Tonfilm. Sie schlugen ästhetische Neuerungen vor, die dann in der Folgezeit (wohl vor allem aus kommerziellen Gründen) sich nicht durchsetzten: In den kommerziellen Tonfilmen verloren seit den dreißiger Jahren experimentelle Strukturen der Bildmontage an Bedeutung, weil mit dem Vorrang des gesprochenen Textes auch traditionelle Erzählstrukturen wiederkehrten und weil - im Einklang damit - nun auch die Musik um so stärker traditionell erzählen, also traditionelle, leitmotivische Traditionen der Programm- und Opernmusik weiterführen konnte. Der Film näherte sich dem Modell einer audiovisuellen Erweiterung des literarischen Hörspiels - eine Gattung, in der der gesprochene Text dominiert und einerseits die illustrativen Geräusche, andererseits die untermalende Musik reguliert. Ruttmanns Weekend blieb demgegenüber der einmalige Sonderfall eines integrativen Hörstückes - ein Sonderfall,l der anschließend für fast ein halbes Jahrhundert in Vergessenheit geriet, so daß inzwischen die führenden Klangpioniere späterer Jahrzehnte, ohne Ruttmanns Modell zu kennen, gleichsam wieder von vorn hatten anfangen müssen. Eine erste Chance dafür, daß experimentelle Filmkunst auch einer experimentellen Klangkunst den Weg bereiten könnte, wurde also vorerst nicht weiter genutzt.
Kommerziell bedingte Traditionalismen im Tonfilm - und insbesondere auch in der Tonfilm-Musik - der dreißige Jahre fielen in eine Zeit zunehmender ästhetischer Regression und politischer Repression. Manches spricht dafür, daß in dieser Situation vor allem das kommerziell dominierende Medium Film tangiert war und entsprechend reglementiert wurde, während im Radio vereinzelt noch experimentelle Ansätze möglich waren,z. B. in den späten dreißiger Jahren in den USA bei Orson Welles und später, seit 1942, bei Pierre Schaeffer (in dem damals von Deutschland geschlagenen und besetzten Frankreich, in der Zeit der sich formierenden Resistance). In Schaeffers Hörspiel La Coquille à Planètes (Die Planetenmuschel) finden sich deutliche Anklänge an jene finsteren Kriegsjahre. (Erinnerungen an Okkupation und Terror jener Jahre haben Schaeffer auch später noch verfolgt - z. B. in Reminiszenzen an nächstliches, polterndes Türklopfen der Gestapo, wie sie den ersten Satz der Symphonie pour un homme seul eröffnen).
Die experimentelle Radioarbeit, die Pierre Schaeffer 1942 in dem damals von ihm gegründeten Versuchsstudio in Beaune begonnen hatte, galt dem Widerstand gegen Besatzer und Kollaborateure sowie Vorarbeiten für ein neues Radio des künftigen, befreiten Frankreich. Im August 1944, in den Tagen der Befreiung von Paris, war es dann so weit: Schaeffer etablierte einen freien Rundfunksender in Paris. Über diesen Sender, also über die Radiolautsprecher, rief er dazu auf, als Zeichen des Widerstandes die Pariser Kirchenglocken zu läuten - und die Radiohörer konnten live miterleben, daß dieser Appell befolgt wurde. Das erhaltene historische Tondokument dieses Ereignisses läßt sich beschreiben nach Kriteren der Hörspielregie: Die Sprache des agitierenden Radiosprechers verbindet sich mit dem Glockenläuten (das, in entsprechender Funktion wie ein Geräusch im Hörspiel, auf einen realen Vorgang verweist). Das live aufgenommene Tondokument provoziert zum Vergleich mit einer wirkungsvoll disponierten Hörspielszene.
In einer anderen Dokumentaraufnahme aus den Pariser Augusttagen 1944 verbinden sich Sprache, Geräusche und Musik: Pierre Schaeffer ist im Studio, als das Telefon klingelt. Es meldet sich der Dichter Paul Eluard, der ebenfalls der Resistance angehört. Gleichzeitig dringt Musik von der Straße herein: Die Marseillaise wird gesungen. Stimmlaute, Telefonsignale und Gesang verbinden sich gleichsam zu einer live-Hörspielszene.
IV.
Schaeffer, der Radiopionier der Resistance, hat auch in der Folgezeit, im Radio des befreiten Frankreich, eine wichtige Pionierrolle gespielt. Dabei verwandelte er sich vom Hörspielmacher in einen Klangexperimentator: Er wollte herausfinden, wie sich aufgenommene Klänge künstlerisch gestalten ließen - und zwar in experimenteller Weise, unabhängig von überkommenen literarischen oder musikalischen Vorstellungen. Als gelernter Radioingenieur, als Schriftsteller und als Sohn musikliebender Eltern suchte er nach einer neuen integrativen Radiokunst, die literarische, musikalische und technische Erfahrungen nicht bloß konserviert, sondern sie vielmehr zusammenführt und dabei in etwas Neues verwandelt. Dafür war es notwendig auf die einfachsten Elemente der Hörkunst zurückzugehen: Auf Stimme und Sprache, auf die Musik und auf das Geräusch. Was Schaeffer erst in den fünfziger und sechziger Jahren theoretisch klar fixiert hat, bestimmte seine Klangexperimente schon seit 1948: Die analytische Reduktion aufgenommener Klänge auf Elementarheinheiten:
- die Reduktion aufgenommener (Menschen-)Sprache auf ein herausgeschnittenes Wort
- die Reduktion aufgenommener Tier-Sprache (z. B. Vogel-Gesang) auf eine einzelne Figur;
- die Reduktion aufgenommener Musik auf einen einzelnen Ton (oder auch auf einen einzelnen Akkord bzw. auf ein einzelnes Motiv);
- die Reduktion eines aufgenommenen Geräusch-Vorganges auf ein einzelnes Geräusch.
Stimme und Sprache - Musik - Geräusch: Diese drei Dimensionen der (radiophonen) Aufnahmetechnik und der Hörspielregie werden durchlässig gegeneinander, wenn man sie in noch kleinere Teile zerlegt. Dann zeigen sich klangliche Verwandtschaften zwischen Klängen ganz verschiedener Herkunft, z. B.:
- Klangimpulse, d. h. verklingenden Einzelereignissen
sei es von (Menschen- oder Tier-, z. B. Vogel-)Stimmen,
sei es aus dem Bereiche der Musik,
sei es ein einzelnes Geräusch (z. B. eines angelassenen Motors bei der Abfahrt eines Autos).
Die radikale Fragmentierung aufgenommener Klänge war der erste Schritt zur Entwicklung einer neuartigen autonomen Klkangkunst - einer Kunst jenseits traditionell definierter Bereiche der Literatur und ihrer radiophonen Inszenierung als Hörspiel einerseits, der Musik andererseits; einer Kunst, die gleichwohl Literatur, Musik und Radiophonie in neuartiger Weise synthetisiert.
Das einfachste Mittel, die Fragmentierung aufgenommener Klänge dem Hörer deutlich zu machen, ist deren mechanische Wiederholung. Schaeffer erreichte sie, indem er einen Effekt ausnutzte, den man von defekten Schallplatten her kennt: Den Effekt der geschlossenen Schallplattenrille (sillon fermé), bei dem sich ein kurzes Klangfragment, ein Klangsplitter, fortwährend wiederholt. So entstehen repetitive Klangmuster (sei es es technische Panne, sei es als eingeplanter und kompositorisch organisierter Klangeffekt).
Herausgeschnittene (meistens sehr kurze) Klangsplitter, die sich nicht selten mechanisch wiederholen als Klangmuster, spielen eine wichtige Rolle in den ersten experimentellen Klangproduktionen, die Pierre Schaeffer 1948 als (Geräusch-)Etüden (Etudes de bruits) realisierte und und unter dem Titel Concert de bruits (Geräusch-Konzert) zusammenfaßte. Das erste dieser Stücke ist eine Geräusch-Studie über Eisenbahnklänge (bzw. mit Eisenbahnklängen: Etude aux chemins de fer). Dieses Stück beginnt scheinbar realistisch, wie ein Hörfilm: Mit einem Pfiff, dem Geräusche einer anfahrenden Dampflok folgen - gleichsam Außenaufnahmen der Eisenbahn. Danach hört man, gleichsam als Innenaufnahmen, Geräusche rumpelnder Waggons. Diesen Klangsplittern folgen Klangmuster: Winzige, aber oft wiederholte Ausschnitte aus Waggon-Rhythmen - in zwei verschiedenen Klangfarben collagiert als Wechselmontage mit zunehmend kürzeren Montagestückchen. Dann erscheinen, als vorläufiger Abschluß, einige markante Kolbenstöße. Danach beginnt eine neue Sequenz mit ähnlichen, aber im Detail veränderten Klangelementen.
In dieser Schallplatten-Collage hat Schaeffer mit großer Mühe Klangkonstellationen produziert, die sich später technisch viel einfacher realisieren ließen (seit den frühen fünfziger Jahren mit Bandschleifen, später mit gesampelten und geloopten Klängen). Selbst in dieser rudimentären Technik begnügte Schaeffer sich keineswegs mit Collage-Effekten: Die Eisenbahn-Etüde beginnt wie eine (pseudo-)realistische Hörszene und verwandelt sich dann, in zunehmend feineren Montagestrukturen, mehr und mehr in Musik neuer Art (in "Musik im weiteren Sinne", in Akustische Kunst). Durch diese Musiknähe unterscheidet sich Schaeffers Etüde von dem 18 Jahre älteren Hörstück Weekend von Walther Ruttmann, das vorrangig als Hörfilm rezipiert werden kann. Bei Schaeffer hingegen wechseln die Perspektiven zwischen Hörfilm und musikalischem Hörstück: Es ist janusköpfige Hörkunst, in der Klangsplitter aus bekannten Umweltklängen in neuartige Zusammenhänge einmontiert sind.
Schaeffer hat seine experimentellen Hörstücke später als konkrete Musik bezeichnet. Er wollte damit ausdrücken, daß hier der konkret hörbare Klang und die abstrakte Klangvorstellung genau umgekehrt aufeinander bezogen sind wie in der bis dahin komponierten Musik: Die Traditionelle Komposition führt von der (zunächst abstrakten) Klangvorstellung im Kopfe des Komponisten bis zum konkreten Klang in der Aufführung. Der konkrete Musiker hingegen geht aus vom Abhören konkreter Klangaufnahmen, die sich dann bei der klangtechnischen Verarbeitung gegebenenfalls Schritt für Schritt in abstraktere Klänge und Klangstrukturen verwandeln lassen.
Schaeffers Eisenbahn-Etüde wurde nicht am Schreibtisch komponiert, sondern in einem Rundfunkstudio. Die erste öffentliche Darbietung erfolgte nicht in einem Konzert, sondern in einer Radiosendung. Erst 1950 begann Schaeffer damt, seine Stücke außer in Radiosendungen auch in Lautsprecherkonzerten vorzuführen. Damit begab er sich in eine Konkurrenz, die bis heute - zumindest in den meisten nicht frankophonen Ländern - gefährlich geblieben ist:
In traditionellen, eigentlich nicht für Live-Musik bestimmten Konzertsälen und auf entsprechend orientierten Musik-Festivals haben die konkrete Musik und, allgemeiner gesagt, die elektroakustische Lautsprechermusik meistens einen schweren Stand: Viele Veranstalter meinen, daß in Konzerten Live-Interpreten auftreten sollten und daß die meisten Hörer dies auch erwarten. Wenn diese Veranstalter recht haben, so bestätigt dies, daß die Hörgewohnheiten im Zeitalter der technischen (Re-)Produktion nach wie vor anachronistisch geblieben sind im Vergleich zu den Sehgewohnheiten: Niemand verlangt, daß im Kino Schauspieler auch live auftreten sollten; an konservierte (stehende und bewegte) Bilder ohne Live-Zutaten hat man sich seit der Erfindung von Photographie und Stummfilm gewöhnt. Die Erfindung des Phonographen und des Grammophons sowie des Radios hat die Hörgewohnheiten allerdings nicht vergleichbarer Weise verändert: Technisch aufbereitete konservierte Klänge sind noch in den letzten Jahren des 20. Jahrhunderts, wie es scheint, für weite Teile des Publikums immer noch durchaus ungewöhnlich. Dies könnte deswegen verständlich erscheinen, weil die Lautsprechermusik, anders als der Stummfilm, in den auf ihre Erfindung folgenden Jahrzehnten weltweit noch keinen eigenständigen Wirkungsort gefunden hat: Es gibt keine separaten Hörkinos, und und den konventionellen Tonfilmkinos dominiert meistens konventionelle Filmmusik, so daß für experimentelle Film-Lautsprechermusik dort nur selten sich Chancen bieten.
Selbst dann, wenn, wenn es avancierten Komponisten tatsächlich einmal gelingt, experimentelle Klänge mit experimentellen Filmbildern zu kombinieren, fällt es ihnen oft schwer, damit angemessene öffentliche Wirkungen zu erzielen. Dies gilt sogar für einen der berühmtesten audiovisuellen Künstler, der experimentelle Filmtechnik und experimentelle Klangtechnik in gleicher Perfektion beherrscht: Bernard Parmegiani - ein Künstler, der zuerst im Fernsehstudio produziert hat, bevor er sich der experimentellen Klangproduktion zuwandte. Später hat er experimentelle Klangstrukturen mit von ihm selbst produzierten experimentellen Filmsequenzen kombiniert. In der 1970 entstandenen audiovisuellen Proudktion L´oeil écoute (Das Auge hört) beispielsweise hört man (elektroakustisch transformierte) Eisenbahnklänge, gleichsam als Außenaufnahmen gleichzeitig sieht man, gleichsam als Innenaufnahme, ein Gesicht in vielfältigen elektronischen Bildverfremdungen. Bezeichnend ist, daß diese Produktion relativ rasch als Hörstück veröffentlicht worden ist (auf Schallplatte, später auf compact disc), aber nicht als audiovisuelles Stück (auf Videokassette). Wer nur die Musik hört, wird sich wahrscheinlich davon auch visuell anregen lassen; an seinem inneren Aufge werden also eher Eisenbahnzüge vorbeiziehen als die Eindrücke des im Filmbild elektronisch modulierten Gesichtes, die Parmegiani selbst mit seinen Eisenbahnklängen kontrapunktisch verbunden hat. Im Hörstück erreichen die Eisenbahnklänge nicht nur das Ohr, sondern auch das innere Auge.
Bernard Parmegianis Stück ist eigentlich nicht für Konzertsäle bestimmt, sondern eher für Vorführungen im Kino, im Fernsehen oder auf Video. Dennoch ist die Musik so komplex und abwechslungsreich gestaltet, daß die Komposition auch als reines Hörstück überzeugt. Insofern behauptet dieses Werk sich ohne weiteres auch im Vergleich mit anderen Eisenbahn-Hörstücken, die ausschließlich für die Lautsprecherwiedergabe bestimmt sind - z. B. mit der wohl originellsten Eisenbahnmusik der 1990er Jahre: Grand Bruit (Großes Geräusch, Großer Lärm) von Christian Zanesi, einem Werk, das aus einer einzigen Aufnahme abgeleitet, gleichsam klanglich herausmodelliert worden ist: Zanesi verwandelt eine (knapp 20 Minuten lange) reale Metro-Fahrt in eine imaginäre. Sein Stück ist nicht aus vielen verschiedenen Klangobjekten entwickelt (wie die meisten anderen Kompositionen konkreter Musik), sondern aus einem einzigen Klang, der in der musikalischen Verarbeitung dann später in stets wechselnden Bewegungsformen erscheint.
Schon in der Frühzeit der konkreten Musik hat ihr Begründer, Pierre Schaeffer, Aufnahmen nicht nur von Geräuschen verarbeitet, sondern auch von (Tier- und Menschen-)Stimmen oder von vorgefundener Musik. Seinem Beispiel sind später auch andere konkrete Musiker gefolgt - zum Beispiel seine Assistentin Monique Rollin, die 1952 mit Stimmlauten ein merkwürdig janusköpfiges Musikstück produziert hat: Motet. Der Titel rührt daher, daß hier der Tonsatz einer mittelalterlichen Motette im Studio nachproduziert worden ist - für jede der drei Stimmen ausgehend von einem einzigen, unverwechselbaren Originallaut, der dann auf alle im Notentext verlangten Tonhöhen transponiert und mit diesen Transpositionen zusammenmontiert wird. Mittelalterliche Musik wird hier gleichsam mit Geisterstimmen gesungen, von drei Homunculi. Die Schnitte, Montagen und Transpositionen ergeben ein vollkommen künstliches Klangbild.
Noch radikaler geht, ebenfalls im Produktionsjahr 1952, Pierre Henry vor. In seiner Komposition Vocalises werden Transpositionen eines einzigen Stimmlautes aneinandergereiht - in extrem kontrastierenden Dauern, Lautstärken, Tonlagen und Klangfarben; in drastischen Verzerrungen, die die strengen, seriellen Montagestrukturen in grimmiger Ironie ad absurdum zu führen scheinen. 33 Jahre später erschien eine Reihe von kurzen Klangstudien jüngerer Komponisten, die alle ebenfalls von einem einzigen, für das konkrete Stück indivuell ausgewählten Basisklang ausgingen und diesen dann fortwährend klanglich veränderten - und zwar nicht in einfachen Aufwärts- oder Abwärtstranspositionen, in elementaren Zeitlupen- oder Zeitraffer-Effekten wie bei Pierre Henry, sondern in differenzierten Computer-Transformationen. Daniel Teruggi beispielsweise verarbeitete dabei die Stimme seines kleinen Sohnes Léo: Der kleine Junge ruft seine Mutter. Aus diesem Ruf entwickelt der Verater ein Musikstück. Es heißt Léo le jour (Léo am Tage). Alain Savouret hat ein Stück aus einem gesprochenen literarischen Namen gebildet: Don Quixote. In der Basisaufnahme des Stückes wird dieser Name extrem deutlich, Silbe für Silbe, ausgesprochen. Das Stück heißt Étude numérique, aux syllabes.
Es gibt zahlreiche Beispiele elektroakustischer Musik mit Stimmlauten. Eines der bekanntesten stammt aus den fünfziger Jahren: Pierre Henry realisiert in Haut Voltage (1956) Verbindungen stark verfremdeter elektroakustischer Klänge mit nonverbalen Stimmlauten. Karlheinz Stockhausen kombiniert in seinem Gesang der Jünglinge (1955-1956) den Gesang einer Knabenstimme mit elektronischen Klängen - in einer Synthese konkreter und elektronischer Klangmaterialien. Noch weiter geht 2 Jahre später Luciano Berio, wenn er in Tema - Omaggio a Joyce ausschließlich mit konkreten Klängen arbeitet - mit farblich und morphologisch überaus komplexen Transformationen einer Frauenstimme, die einen Text aus dem "Ulysses" von James Joyce in verschiedenen Sprachen rezitiert. Weitere Beispiele differenzierter Verabeitung von Stimmlauten finden sich auch in späteren Werken von Berio (z. B. Visage) sowie bei Herbert Eimert, Bernard Parmegiani, Trevor Wishart und anderen. Entwicklungen, die im Bereich der frühen konkreten Musik und der analogen Tonbandmusik begannen, haben sich später auch mit digitalen Techniken fortgesetzt, beispielsweise in den Speech Songs von Charles Dodge. Diese grotesk stotternde, effektvoll aus Sprechstimmen-Samples entwickelte Musik Computermusik läßt sich interpretieren als digitales Gegenstück zu frühen Collagen aus vokalen Stimmaufnahmen etwa von Pierre Henry - als technische Verzerrung oder karikierende Verspottung sprachlichen oder lautlichen, mehr oder weniger banalen (Un-)Sinns. - Diese und andere Beispiele technisch produzierter Vokalmusik präsentieren wiederum Musik, die für konventionelle Aufführungsorte wie Konzertsaal oder Opernhaus eigentlich weniger geeignet ist, die aber mangels anderer, modernerer Aufführungsorte dort gelegntlich zu hören sein kann. Nur selten bekommt man Musik zu hören, in der Stimme-Klänge live und in technischer Vermittlung kombiniert sind; häufiger sind Verschmelzungen beider Kategorien (der vokal-instrumentalen und der elektronischen Klangerzeugung) etwa in den sechziger Jahren bei Karlheinz Stockhausen (Mikrophonie II) oder, knapp zwei Jahrzehnte später, bei Luigi Nono (z. B., Io, eine als Fragment aus Prometeo konzipierte Komposition). Live-elektronische Veränderungen des Stimmklanges erscheinen allerdings in vielen Fälle nicht ohne weiteres so prägnant und facettenreich wie geeignete im Studio vorproduzierte Veränderungen, wie sie, in einfachsten Techniken, schon in früher konketer Musik sich finden lassen, beispielsweise Zeitlupen-, Zeitraffer- oder Rückwärts-Effekte in der Symphonie pour un homme seul (Symphonie für einen einsamen Menschen), die 1949-1950 von Pierre Schaeffer und Pierre Henry realisiert worden ist.
Elektroakustische Musik kann Klänge aus verschiedenen Erfahrungsbereichen vearbeiten - nicht nur Geräusche (insbesondere aus der täglichen Hörwelt) oder Stimmen (von Menschen oder Tieren), sondern auch vorgefundene Musik. Das bekannteste Beispiel für die letztgenannte Kategorie, für Musik über Musik, ist die 1966-1967 entstandene Komposition Hymnen von Karlheinz Stockhausen. In dem Stück verarbeitet der Komponist Nationalhymnen verschiedener Länger teils ausgehend von Aufnahmen (als konkrete Musik), teils in synthetischer Neuproduktion (als elektronische Musik). Elektronische und konkrete Klänge können in dieser Musik auch gleichzeitig zu hören sein - zum Beispiel dann, wenn eine aufgenommene und später klanglich transformierte Nationalhymne gleichzeitig mit einer elektronischen Klangfläche (und eventuell überdies gleichzeitig mit prägnanten Geräuschen) zu hören ist - beispielsweise in einem Abschnitt aus dem Schlußteil des Stückes, in dem sich die britische Hymne mit Geräuschen und mit einem (der Nationalhymne der Sowjetunion zuzuordnenden) elektronischen Akkord verbindet. An dieser Stelle hat Stockhausen die britische Hymne durch einen Schnitt stark verkürzt: Nur Anfangs- oder Schlußtakte bleiben übrig. Überdies hat der Komponist dafür Sorge getragen, daß diese aufgenommene Musik hier mit anderen Klangschichten gemischt ist. Er realisiert hier im Studio, was, in der Verarbeitung derselben Melodie, Charles Ives 74 Jahre zuvor noch auf dem Papier komponieren mußte: In dessen Variations on America erscheint die später auch von Stockhausen heranzgezogene Melodie ebenfalls auf wenige Takte (gleichsam durch Schnitt) zusammengekürzt und in der Überlagerung verschiedener Klangschichten, überdies verzerrt durch irreguläre Tempowechsel.
Elektroakustische Musik, in der konservierte Klänge (historische Aufnahmen nicht nur von Geräuschen und Sprache, sondern auch von Musik, z. B. von Nationalhymnen oder politischen Kampfliedern) verarbeitet werden, kann sich artikulieren als kompositorisch reflektierte Verarbeitung von Zeitgeschichte - beispielsweise in der 1983 entstandenen Tonbandkomposition Aide-Mémoire von Georg Katzer sowie in diese Konzeption weiterführenden Werken Katzers (Mein 1789, 1989; Mein 1989, 1990; die beiden letzten Werke sind Bestandteile internationaler kompositorischer Kooperations-Projekte für das Festival elektroakustischer Musik in Bourges).
Auch dokumentarische, mit historischen Tondokumenten arbeitende elektroakustische Musik paßt eigentlich nicht an historisch etablierte Aufführungsorte. Dennoch haben sich andere, modernere Aufführungsbedingungen für diese Musik nur selten ergeben. Dies gilt sogar für ein so spektakuläres Werk wie die Hymnen von Karlheinz Stockhausen - ein Werk, für das der Komponist zahlreiche unkonventionell-multimediale Aufführungsvorschläge gemacht hat, von denen einige so weit gingen, daß auch er selbst sie zu befolgen keine Gelegenheit fand. Jahrzehntelang, bis in die letzten Jahre des 20. Jahrhunderts hinein, fand sich keine Gelegenheit zu einer angemessen multimedialen Präsentation, die der klanglichen, formalen und inhaltlichen Komplexität dieser Musik gerecht werden könnte. -
V.
In der elektroakustischen Musik hat sich immer wieder die Frage nach der Natur des Klangmaterials gestellt: Ergibt es sich aus der chaotischen Vielfalt komplexer Hörerfahrungen oder vielmehr aus strengen, klar identifizierbaren oder analysierbaren Reduktionen in der Ableitung aus einfachsten Prämissen und Grundgegebenheiten?
Pierre Schaeffer, Pierre Henry oder andere, ihren Spuren folgende konkrete Musiker, die sich für die empirische Vielfalt der Klänge interessieren, können sich in ihrer kompositorischen Arbeit relativ leicht von Konventionen der Vokal- und Instrumentalmusik entfernen. Dies kann auch eher deduktiv arbeitenden Komponisten gelingen, allerdings in anderer Weise: Karlheinz Stockhausen beispielsweise Elektronische Musik nicht als Kontrastmodell zur herkömmlichen Vokal- und Instrumentalmusik gesucht und gefunden - auch nicht als Kontrastmodell zu der (in den frühen 1950er Jahren zunächst von ihm noch wenig geschätzten) konkreten Musik. Stockhausen wollte vielmehr in einem neuen Ansatz strukturellen musikalischen Denkens hinausführen über alle bisher bekannte Musik. Als er 1952 erstmals die Gelegenheit erhielt, in Pierre Schaeffers Pariser Versuchsstudio Tonbandmusik zu realisieren (die konkrete Etude), konzentrierte er sich zunächst auf seriell konstruierte, in verschiedenen Parametern streng quantitativ kontrollierte minutiöse Tonband-Montagen (in ähnlicher Weise, wie es zuvor in demselben Studio in einigen Produktionen schon Pierre Boulez und sogar auch Pierre Henry versucht hatten). Rein elektronische Kompositionen konnte Stockhausen erst ab 1953 realisieren, nach seinem Überwechseln vom Pariser konkreten Studio in das Kölner elektronische Studio. In der Studie I, seiner ersten elektronischen Komposition, bleibt allerdings erkennbar, daß Stockhausen dabei nicht vom Punkt Null, sondern an bereits vorhandenen Konzeptionen avancierter Musik anknüpfen wollte: Die Reihenstrukturen seiner ersten elektronischen Komposition orientieren sich unverkennbar am Konzert für neun Instrumente op. 24 von Anton Webern. Das Tonmaterial dieser elektronischen Komposition entsteht aus Dreitonzellen, die denen Weberns eng verwandt sind. Neu ist allerdings, daß Stockhausen im ausgeführten Stück, anders als Webern, die zu Grunde liegende Dreitonstruktur nicht deutlich hervorheb, sondern sie in stehts wechselnden seriellen Gruppierungen eher verschleiert und daß er die Lautstärke von Ton zu Ton verändert (wobei allerdings mehrere zum Tongemisch überlagerte Töne eine einheitliche Dauer und Hüllkurve erhalten). Die Tonstrukturen des Stückes artikulieren sich in stets wechselnden Konstellationen von Intervallen, Lautstärkerelationen und Dichten der harmonischen Überlagerung. Töne, Tongemische und ihre Abfolgen oder Überlagerungen sowie größere Formeinheiten ergeben sich als Konsequenzen strenger konstruktiver Prämissen. Die Musik entwickelt sich ausgehend vom einzelnen Sinuston (gleichsam einem "musikalischen Atom") schrittweise fortschreitend zu komplexeren Gruppierungen. Andererseits wird dieses monistische Gruppierungsprinzip auch wieder aufgebrochen, etwa indem größere Strukturen nicht sogleich von neuen abgelöst, sondern mit ihren eigenen, unmittelbar ihnen nachfolgenden (z. B. transponierten und verhallten) Varianten verbunden werden. So gewinnt die Musik größere organische Flexibilität und Qualitäten, die in den fünfziger Jahren für Stockhausens gesamte kompositorische Entwicklung maßgeblich werden sollten, nicht zuletzt für seine elektronischen Hauptwerke dieses Jahrzehnts.
Schon in den ersten Klängen der 1955-1956 realisierten Komposition Gesang der Jünglinge entstehen plastische Formgebilde im beziehungsreichen Kontrast zwischen elektronischen und gesungenen Passagen. Bereit der erste Klangkomplex des Stückes unterscheidet sich grundlegend von den klar identifizierbaren Tonstrukturen der ersten elektronischen Studie: Man hört dichte, vom Ohr nicht mehr exakt differenzierbare Massierungen aufsteigender Impulsscharen. Unentwirrbar bleibt die Vielfalt selbst dann, wenn man, in separater Wiedergabe einzelner Kanäle, den Klangkomplex in seine 3 Teilschichten auflöst, die in unterschiedichen Gesamtdauern und Raumpositionen zu hören sind. - Ähnlich strukturiert wie die Impulskomplexe sind auch die Gesangskomplexe. Auch sie sind aus vielen Schichten zusammengesetzt, in denen das Ohr die einzelnen Schichten nicht mehr exakt heraushören kann. In aufgenommenen und synchronisierten Vokalpassagen zeigen sich also, ähnlich wie in den elektronischen Klängen, erste Ansätze des Überganges zur Komposition komplexer, nicht mehr in allen Details seriell vorausbestimmter Massenstrukturen. Neue Möglichkeiten der inneren Belebung aufgenommener Klangstrukturen ergeben sich hier daraus, die Klänge nicht mehr ausschließlich aus vorher fixierten apparativen Einstellungen resultieren, sondern auch aus Aufnahmen von Live-Aktionen (vom Live-Gesang eines Knaben, der graphisch notierte, mit dem vorgegebenen Bibeltext unterlegte Melodielinien sang, oder Quasi-Live-Aktionen des Komponisten und seiner Mitarbeiter bei manuellen Einstellungsveränderungen während der Klangwiedergabe im Studio).
Die Komposition Kontakte, die nächste, 1959-1960 realisierte elektroakustische Realisation Stockhausens, präsentiert einen anderen, wieder stärker auf die Einheitlichkeit aller verwendeten klanglichen Mittel zielenden Ansatz: Stockhausen geht es hier nicht um die Vereinigung des ursprünglich Getrennten, etwa von Stimmen oder Instrument mit dem elektronischen Klang; vielmehr sucht er umgekehrt nach einem einheitlichen Prinzip der Klangerzeugung, aus dem auch gegensätzliche Resultate hervorgehen können. Der Titel des Werkes verweist auf den Versuch, in diesem Zusammenhang auch Verbindungen zwischen elektronischen und instrumentalen Klängen zu finden. Beide Klangkategorien präsentieren sich im Verlauf des Stückes in unterschiedlichen Konstellationen, in unterschiedlichen Prozessen der Annäherung und Entfernung: sei es in der Konzentration auf das Tonglissando und den lange ausgehaltenen, innerlich belebten Ton; sei es, im anderen Extrem, in dichten Geräusch-Schichtungen. Die vierkanalige Disposition des Stückes hat der Komponist später einmal (auf den Darmstädter Ferienkursen 1970) interpretiert als räumliches Pendant zur traditionellen, in vielen Bereichen an der Norm der Vierstimmigkeit orientierten Polyphonie.
Die elektronische Musik im Sinne Stockhausens hat sich genau gegenläufig zur konkreten Musik im Sinne Schaeffers entwickelt: Die serielle Musik, die zunächst an Zwölftonkonstruktionen des späten Webern und an über diese hinausgehender frühserieller Instrumentalmusik angeknüpft hatte, hat sich seit der Realisation der Komposition Gesang der Jünglinge in ihrer Produktionsweise wieder stärker an instrumentale oder quasi-instrumentale Techniken der Klangerzeugung annähert. Vier Jahre später werden in der Komposition Kontakte die instrumentalen Aspekte noch deutlicher: nicht nur in der kompositorischen Konzeption, die bekannte, tonhöhenbestimmte oder geräuschhafte Klangfarben bekannter Instrumente in ein elektronisches Klangfarbenkontinuum einzubeziehen versucht, sondern auch in der Verbindung der Tonbandwiedergabe mit (unterstützenden und verdeutlichenden) Live-Instrumentalpartien. Immerhin bleibt auch in diesem Werk die Tonbandpartie noch so stark dominant, daß die Komposition auch ohne Live-Partien, als reine Tonbandkomposition aufgeführt werden kann. Seitdem hat Stockhausen immer wieder versucht, auch in seiner elektroakustischen Musik Hörerwartungen entgegenzukommen, die sich an der aus der Tradition bekannten Live-Musikpraxis orientieren: Seit den sechziger Jahren versuchte er, Erfahrungen mit elektronischen Klängen herauszulösen aus der exklusiven Sphäre des elektronischen Studios, sie zu übertragen in die Live-Atmosphäre des Konzertsaals (in exzessiv geräuschhaften, klanglich experimentellen Werken wie Mixtur, Mikrophonie I und II oder später, in der Rückbindung an eine melodisch geformte Tonreihenstruktur, in Mantra). Selbst die Tonbandkomposition Telemusik (1966) kommt den Live-Erwartungen des Hörers dadurch entgegen, daß die elektronischen Klangstrukturen sich hier mit Fragmenten traditioneller Musik aus verschiedenen Ländern und Kontinenten verbinden, so daß elektronisch transformierte Musik aus verschiedenen Weltgegenden den Hörer gleichsam in künstlerisch überhöhter radiophoner Übermittlung erreicht. Dieser Aspekt einer mit konservierten Live-Aufnahmen arbeitenden Musik über Musik wird noch deutlicher in der Komposition Hymnen (1966-1967), in der mit weltweit bekannten musikalischen Ausgangsmaterialien so gearbeitet wird, daß der Hörer nicht nur die Originalaufnahmen identifizieren, sondern auch Effekte und Prozesse ihrer elektronischen Transformation verfolgen kann. Auch für dieses Werk hatte Stockhausen vorgesehen, daß es einerseits als reine Tonbandkomposition (z. B. auf Schallplatte) der Öffentlichkeit zugänglich sein sollte, daß aber andererseits bei Konzertaufführungen sich die Wiedergabe des vierkanaligen Tonbandes mit Live-Partien von vier Instrumentalsolisten verbinden sollte. Bei der Uraufführung arbeitete Stockhausen mit Musikern seines eigenen Ensembles, die so fundierte stilistische und insbesondere auch improvisatorische Erfahrungen mitbrachten, daß der Komponist erneut versuchen konnte, was 7 Jahre zuvor bei der Uraufführung der Kontakte noch gescheitert war: Die Musiker bekamen die Aufgabe, nicht nach einer fixierten Partitur zu spielen, sondern in freier Reaktion auf die Tonbandwiedergabe. In dieser Form ist das Werk seitdem auch häufig aufgeführt worden. Immer wieder aber ergaben sich Probleme daraus, daß die Reaktionen der Interpreten nicht den Vorstellungen des Komponisten entsprachen, so daß Stockhausen schließlich in den 1990er Jahren zu der Entscheidung kam, das Werk künftig nicht mehr mit konzertierender Solobegleitung aufzuführen; neben der reinen Tonbandversion ließ er nur noch die Möglichkeit gelten, einen Teil des Werkes in Verbindung mit einem relativ exakt ausnotierten, nachträglich hinzugefügten Orchesterpart aufzuführen. - In späteren Werken für Tonband mit Live-Begleitung ist Stockhausen bei der Präzisierung der Live-Notationen noch weiter gegangen, indem er elektroakustische und vokal-instrumentale Partien auch in den Tonstrukturen noch enger aufeinander bezog: in dem abendfüllenden Werk Sirius, dessen elektronischer Part aus 4 Melodien des zwölfteiligen Zyklus Tierkreis abgeleitet ist, und in dem Opernzyklus Licht, dessen konstruktive Kerntöne im Zusammenhang einer aus ihnen gebildeten dreischichtigen "Superformel" (oder einzelner Schichten aus ihr) in makroskopischer Spreizung zu Keimzellen vollständiger Szenen und Akte oder sogar einer vollständigen Oper mutieren. Auch diese Beispiele für eine in großformale Dimensionen hinein projizierte Technik der elektronischern Formelkomposition (zu der sich erste Ansätze bereits in der Komposition Hymnen entdecken lassen - allerdings dort noch in Verbindung mit tradierten melodisch-harmonischen Strukturen einer bekannten, der sowjetischen Nationalhymne) belegen, daß die Annäherung an gesungene oder gespielte Live-Musik sich in Stockhausens kompositorischer Entwicklung weiter fortgesetzt hat. Seine elektroakustische Musik, die in den frühen 1950er Jahren zunächst als dialektischer Umschlag in der Entwicklung instrumentaler Musik entstanden und dann als Kontrastmodell zu dieser weiter entwickelt worden war, hat sich schon frühzeitig der instrumentalen Musik wieder angenähert, bis schließlich seit den siebziger Jahren für beide Bereiche gemeinsame Tonstrukturen entwickelt wurden, die man sowohl singen und auf (herkömmlichen oder neueren) Instrumenten spielen als auch elektronisch im Studio realisieren kann.
VI.
Das Denken in (Zwölf-)Tonreihen, dessen Radikalisierung und Verallgemeinerung zum seriellen Musikdenken Komponisten wie Pierre Boulez und Karlheinz Stockhausen in den frühen 1950er Jahren zur Produktion elektroakustischer Musik geführt hat, ist ursprünglich von festen Tonhöhen und Intervallstrukturen ausgegangen. Ansätze kontinuierlichen Musikdenkens, wie sie zuvor vor allem von Edgard Varèse entwickelt worden waren, spielten im seriellen Musikdenken zunächst keine oder allenfalls eine untergeordnete Rolle. Zentrale Bedeutung erlangten sie dagegen für einen Komponisten, der schon in den 1950er Jahren in konstruktiver Kritik des Serialismus neue Ansätze gesucht hat: Iannis Xenakis. Xenakis hat Glissandostrukturen zunächst, in den Orchesterwerken Metastaseis und Pithoprakta, instrumental realisiert und dann später, erstmals in Diamorphoses, in der Tonbandmusik weiter entwickelt. (Die 1958 entstandene zweite Tonbandkomposition Concret PH mit ihren dicht akkumulierten Impulsscharen läßt sich also pseudo-kontinuierliches Gegenstück des ersteren Werkes beschreiben.) Schon in der ersten, großflächig-kontinuierlichen Tonbandkomposition von Iannis Xenakis wird deutlich, daß die elektroakustische Musik für die Realisation kontinuierlicher Musik, insbesondere von Glissandostrukturen und -texturen, viel reichhaltigere Möglichkeiten bieten kann als die Instrumentalmusik (in der Glissandi in der Regel nur als von einer festen zu einer anderen festen Tonhöhe in einem gegebenen Zeitraum führende Tonlinien notierbar sind - wenn sie nicht sogar dort durch illusionistische Quasi-Glissandi mit festen Tonhöhen nur vorgetäuscht sind wie beispielsweise in den Atmosphères von György Ligeti, denen kurz zuvor eine elektronische, vom Komponisten aber verworfene elektronische Realisation mit dem Titel Glissandi vorausgegangen war). Dennoch finden sich kontinuierliche elektrakustische Kompositionen zumindest in den Anfangsjahren relativ selten (vor allem in konkreter Musik von Pierre Henry, besonders prägnant und weiträumig zu Beginn seiner 1953 entstandenen Tonbandkomposition Le voile d´Orphée seltener in der elektronischen Musik der 1950er Jahre: in einer kurzen Studie von Karel Goeyvaerts später, in größeren Formdimensionen, in Transicion I von Mauricio Kagel). - Von elektroakustischer Musik inspirierte Verbindungen kontinuierlichen und diskontinuierlichen Musikdenkens finden sich auch in der minimal music, deren erste Ansätze keimhaft bereits 1955 in der Komposition Spirale von Pierre Henry erkennbar werden und die Steve Reich seit den 1960er Jahren mit loop- und Rückkopplungstechniken weiter entwickelt, später auch der instrumentalen Live-Musikpraxis nutzbar gemacht hat.
Verschiedene Ansätze kontinuierlicher Musik haben sich auf der Basis neuer technischer und ästhetischer Möglichkeiten elektronischer Klangproduktion entwickelt. Prinzipien der Montage-Ästhetik und der Mikro-Montage, wie sie zuvor in der konkreten und elektronischen Musik eine wesentliche Rolle gespielt hatten, wurden allmählich abgelöst von Tendenzen kontinuierlicher, prozeßhafter Formentwicklung. Diese ließen sich realisieren, indem längere Klangereignisse entweder unverändert belassen oder ohne Montage elektronisch transformiert wurden.
Im ersteren Falle (der Arbeit mit längeren, nicht durch Montage minutiös fragmentierten Aufnahmen) wurde es möglich, an Stelle winziger, womöglich vom Hörer nicht mehr klar identifizierbarer Montagestücke auch längere, den ursprünglichen Klangvorgang mehr oder weniger "naturgetreu" abbildende Aufnahmen kompositorisch zu verwenden. Davon hat schon seit den frühen sechziger Jahren Luc Ferrari unter dem Stichwort Anekdotische Musik Gebrauch gemacht, ohne jedoch (in Kompositionen wie Hétérozygote oder Music Promenade) in der kompositorischen Praxis gänzlich auf stärker abstrahierende Techniken der Montage und Klangverarbeitung zu verzichten. Bei Ferrari selbst (z. B. in der naturalistisch-hörfilmartigen Komposition Presque rien no. 1) sowie bei anderen Tonbandkomponisten und experimentellen Hörspielmachern (z. B. One Two Two, ein 1969 entstandenes experimentelles O-Ton-Hörstück von Ferdinand Kriwet, oder Music Dari Jalan, ein 1976 produziertes Tonbandstück mit Aufnahmen indonesischer Marktausrufer von Jack Stanley Body) finden sich allerdings auch weitergehende Annäherungen an eine dokumentarische Aufnahmepraxis.
Im zweiten Falle (elektronische Verarbeitung längerer, unmontierter Klangmaterialien) haben Ansätze quasi-instrumentaler Klangproduktionstechniken im elektroakustischen Studio, wie sie sich schon seit der Frühzeit der konkreten und teilweise sogar der elektronischen Musik finden lassen, seit den sechziger Jahren erheblich an Bedeutung gewonnen, wobei teils bekannte Techniken umfunktioniert, teils neue Techniken wie die Spannungssteuerung ausgenützt wurden (erstes beispielsweise häufig in Stockhausens Hymnen und in vielen groß dimensionierten Metakompositionen von Pierre Henry wie Parcours Cosmogonie, Journal de mes sons oder La Ville / Die Stadt letzteres beispielsweise in vielen Großformen der französischen elektroakustischen Musik seit den späten sechziger und siebziger Jahren, z. B. L´expérience acoustique von Francois Bayle oder De natura sonorum von Bernard Parmegiani).
Neue Technologien ermöglichten seit den siebziger Jahren neue Konzeptionen auch in seriell konstruierten elektronischen Produktionen von Karlheinz Stockhausen. Während die permanenten Variationen seriell konturierter Melodien in Sirius (1975-1977) zumindest im Detail sich noch auf feste Tonhöhen und Intervallkonstellationen konzentrieren, dominieren in der Tonbandpartie der zweiten Version von Kathinkas Gesang als Luzifers Requiem (der zweiten Szene aus der Oper Samstag aus Licht) für Flöte und Tonband (1983) komplexe Glissandostrukturen, die jeweils von Tönen der vorgegebenen Tonstruktur ausgehen, sich von ihnen dann aber kontinuierlich fortbewegen. Diese Konzeption auskomponierter Glissandobewegungen zwischen strukturell vorgegebenen Reihentönen hat Stockhausen - in der Kombination von vokalen und instrumentalen (teilweise live-elektronischen) Partien mit Tonband - 1990-1991weiter entwickelt im zweiten Akt seiner Oper Dienstag aus Licht und, unter veränderten technischen und kompositorischen Voraussetzungen, anschließend auf abendfüllende Dimensionen übertragen in der Tonbandpartie seiner 1991-1994 entstandenen Oper Freitag aus Licht. Den komplexen elektronischen Glissando-Kompositionen folgte, in einfacheren Linienführungen, 1993 das völlig von Glissandi beherrschte Helikopter-Streichquartett - eines der in den letzten Jahrzehnten des 20. Jahrhunderts selten gewordenen Beispiele elektronisch inspirierter Instrumentalmusik, gleichsam als Ausnahme von der Regel, während sonst die meisten Beispiele kontinuierlicher elektronischer Musik sich eher von der gleichzeitig entstandenen Instrumentalmusik entfernen und weder deren Spuren folgen noch diese erkennbar beeinflussen. So zeigt sich in größeren Entwicklungszusammenhängen, daß das Verhältnis zwischen vokal-instrumentaler und elektronischer Musik, das in den 1950er Jahren von produktiver Konkurrenz geprägt war und im folgenden Jahrzehnt sich in vielfältigen Formen der Vermischung und wechselseitigen Grenzüberschreitung darstellte, seit den 1970er Jahren in vielen Bereichen an Relevanz verloren hat und von einem weitgehend beziehungslosen Nebeneinander in den Entwicklungen beider Bereiche überlagert worden ist. Dies erklärt auch etliche Schwierigkeiten der Standortbestimmung Elektroakustischer Musik im Musikleben dieser Zeit, wo sie aus vielen wichtigen Foren weitgehend oder gänzlich verschwunden oder andererseits in Spezialbereiche abgedrängt worden ist.
VII.
Janusköpfige Musikgeschichte präsentiert sich nicht zuletzt in der ambivalenten Darstellung des Verhältnisses zwischen Elektroakustischer Musik und Akustischer Kunst. Ambivalent präsentiert sich beim Vergleich beider Bereiche auch das Verhältnis zwischen Grenzüberschreitung und Absonderung: Einerseits ließe sich sagen, daß die Elektroakustische Musik einen Teilbereich der Neuen Musik ausmacht, ebenso wie diese einen Teilbereich der Musik darstellt und einem entsprechenden Teilbereich des Musiklebens zugewiesen bleibt. Andererseits können sich aus der Abgrenzung in der Abgrenzung auch neue Möglichkeiten der Grenzüberschreitung in andere Bereiche hinein ergeben: Wenn die musikalische Emanzipation nicht nur der Dissonanz, sondern auch des Geräusches vollzogen ist, stellt sich die Frage der Abgrenzung der Musik von anderen Bereichen der Hörerfahrung auf neue Weise, insbesondere die Frage nach dem Stellenwert der Musik neben der Sprache und dem Geräusch im größeren Bereich der Akustischen Kunst. Einerseits ist es möglich, auch klingende Sprache und Geräusche als Bestandteile einer Musik im weiteren Sinne etwa im Sinne des konkreten Musikers Pierre Henry zu definieren. Andererseits können sich für die Musik neue Möglichkeiten auch gerade daraus ergeben, daß sie sich gegenüber der klingenden Sprache und dem Geräusch als eigenständiger Bereich profiliert. Elektroakustische Musik und Akustische Kunst können deswegen einerseits dieselben Sachverhalte unter gegensätzlichen Akzentuierungen bezeichnen, andererseits aber auch auf die Tatsache verweisen, daß im breiten Spektrum der musikalisch-auditiven Gestaltungsmöglichkeiten im Zeitalter der technischen (Re-)Produzierbarkeit bald die eine, bald die andere Möglichkeit im Vordergrund stehen kann. Wenn im Sinne der Klanglehre von Pierre Schaeffer die klingenden Sprache durch ihre kodifizierten Bedeutungszusammenhänge, das Geräusch durch seine Verbindung mit realen Vorgängen und die Musik durch ihren klanglichen Eigenwert charakterisiert wird, ergibt sich eine Doppeldeutigkeit des Geräusch-Begriffes (entweder im akustischen bzw. traditionell musiktheoretischen oder im hörspieldramaturgischen Sinne), und das Verhältnis zwischen Sprache und Musik bleibt vielfältig bestimmbar in Möglichkeiten nicht nur der Verbindung, sondern auch der strukturellen Assimilation oder Integration beider Bereiche. Dies gilt unabhängig von möglichen Differenzen bei der Frage nach dem möglichen Sprachcharakter der Musik (die beispielsweise Pierre Boulez in seinem Musikdenken und in seiner kompositorischen Praxis ganz anders beantwortet als etwa einerseits Iannis Xenakis oder andererseits John Cage).
Die Frage, ob und inwieweit die Entwicklungen einerseits der Elektroakustischen Musik und Akustischen Kunst, andererseits der vokalen und instrumentalen Musik im 20. Jahrhundert eher in ihren Zusammenhängen und Wechselwirkungen oder eher getrennt verfolgt werden sollten, ist schwierig zu beantworten, da sie differenziert werden muß im Bezug sowohl auf Zeitepochen als auch auf individuelle künstlerische Entwickungen. Während in den 1920er und 1950er, teilweise auch in den 1960er Jahren musikalische und technische Entwicklungen enger miteinander verbunden waren, haben sich in anderen Jahrzehnten beide Bereiche eher getrennt entwickelt. Selbst in der Entwicklung einzelner Komponisten ist das Verhältnis zwischen Musik und Technik, zwischen vokal-instrumentaler und elektroakustischer Musik nicht unverändert geblieben. So hat beispielsweise schon der junge John Cage sich intensiv für Musik mit technischen Medien interessiert (in Kompositionen wie Imaginary landscape no. 1, 1939 oder Credo in Us, 1942), und auch zur Tonbandmusik der 1950er Jahre hat Cage wichtige Beiträge geleistet: 1952 mit den Mikromontage-Strukturen von Williams Mix, 1958 mit der nach einer grafischen Partiturvorlage experimentell realisierten Produktion Fontana Mix. In beiden Werken, vor allem im letzteren, manifestiert sich die für ihn zentrale Konzeption der Komposition mit Unbestimmtheitsfeldern: Bei der Realisation von Williams Mix folgte Cage den exakten Montageanweisungen einer Partitur, die die Klänge selbst nur nach globalen Kriterien fixiert. Die graphische Partitur zu Fontana Mix ist so allgemein gehalten, daß sie auch als Anweisung für Live-Realisationen verwendet werden kann. Die Momente der Unbestimmtheit in den Partituren beider Werken lassen sich analysieren im Kontext ihrer Vorgeschichte in der vorausgegangen Entwicklung des Komponisten, insbesondere im Vergleich mit seinen rhythmisch klar strukturierten, aber klanglich teilweise unbestimmten frühen Schlagzeugkompositionen und mit seinen Kompositionen für präpariertes Klavier (bei denen er herausfand, daß auch mit präzisen Präparationsanweisungen sich die klanglichen Resultate zumal für verschiedene Klavierfabrikate nicht mit der ursprünglich angestrebten Genauigkeit vorherbestimmen ließen), schließlich auch in seinen Kompositionen mit zu Musikinstrumenten umfunktionierten technischen Medien, bei denen beispielsweise in Credo in Us nach traditionell notierten rhythmischen und dynamischen Angaben ein Plattenspieler oder Phonograph bedient werden soll, auf dem irgend eine "klassische" Musikaufnahme aus älterer oder neuerer Zeit abgespielt wird. Während hier die klanglich unbestimmte Partie für Tonträger (oder auch Radio) noch mit klanglich genauer fixierten Instrumentalpartien kombiniert ist, hat Cage neun Jahre später in der Partitur von Imaginary landscape no. 4 (1951) ausschließlich (zwar rhythmisch exakt fixierte, aber) klanglich unbestimmte Hörereignisse vorgeschrieben: 12 Radioapparate werden von je zwei Ausführenden bedient, von denen nach den Angaben der Partitur der eine die Sendefrequenzen einstellt, der andere die Lautstärke regelt. Die klanglichen Details wechseln von Aufführung zu Aufführung. Sie sind weder vom Komponisten noch von den Interpreten voraussehbar, da sie von den weitgehend unvoraussehbaren radiophonen Sende- und Empfangsbedingungen während der Aufführung abhängen. An konventionelle Partituren erinnert dieses Stück nur noch in seiner exakt ausnotierten rhythmischen Struktur. In der fünf Jahre später entstandenen Radio Music ist selbst dieses Relikt getilgt. Während hier aber immerhin noch die Spieler nach einer vorgegebenen Partitur nach mehr oder weniger globalen Vorschriften spielen müssen, ist 9 Jahre später in Rozart Mix (1965) die Unbestimmtheit so weit getrieben, daß lediglich die Produktion und klangliche Wiedergabe von 88 Tonbandschleifen vorgegeben ist. (Die Zahl 88 wurde gewählt als ironische Anspielung auf die Anzahl der Tasten des Klaviers. Die kompositorischen Vorschriften waren so knapp und klanglich unbestimmt gehalten, daß die Interpreten auch ohne Partitur und Stimmen wußten, was sie zu tun hatten; die Partitur entstand auf der Basis informeller Vorbereitungsunterlagen erst nach der Aufführung). In den elektroakustischen Stücken, nicht zuletzt in den Medienkompositionen der fünfziger und frühen sechziger Jahre hat die kompositorische Unbestimmtheit Schritt für Schritt gesteigert und erst später wieder reduziert (beginnend mit HPSCHD, 1969, sich fortsetzend mit Roaratorio, 1979, und mit anderen Produktionen für das Studio Akustische Kunst des Westdeutschen Rundfunks, mit Vorschriften sei es über die Verwendung traditioneller Musik, sei es, in Roaratorio, mit Vorschriften über an bestimmten Orten aufzunehmende, aber sonst klanglich nicht weiter vorausbestimmte Geräusche). - Für die gesamte, fast sechzig Jahre umfassende kompositorische Entwicklung des Komponisten läßt sich feststellen, daß in ihr die Arbeit mit elektroakustischen Klängen eine wichtige, aber keineswegs dominante Rolle gespielt hat. Spätestens seit den 1970er Jahren hat Cage sich wieder verstärkt für die Arbeit mit herkömmlichen Klangmitteln interessiert und seine kompositorischen Methoden (insbesondere unter dem Aspekt der Unbestimmtheit) entsprechend modifiziert. Auch live-elektronische Verfahren der Klangproduktion, wie sie Cage zuvor schon frühzeitig in der Cartridge Music (1960) eingeführt hatte, haben in seiner Musik seit den 1970er Jahren nicht mehr eine so wichtige Rolle gespielt wie zuvor. Auch in der kompositorischen Entwicklung von Cage finden sich Belege dafür, daß sich spätestens seit den 1970er Jahren vokal-instrumentale und elektroakustische Musik in verstärktem Maße auseinander entwickelt haben.
Komponisten, die sich die Produktion elektroakustischer Musik zur vorrangigen oder ausschließlichen professionellen Lebensaufgabe gemacht haben (z. B. Pierre Schaeffer und Pierre Henry, Francois Bayle und Bernard Parmegiani), arbeiten unter durchaus anderen Bedingungen als solche, die sich mit dieser Musik nur vorübergehend befaßt haben (z. B. György Ligeti oder Krzystof Penderecki) oder parallel zu ihr weiterhin vokal-instrumentale Musik komponieren (z. B. Karlheinz Stockhausen, Luciano Berio oder Iannis Xenakis). Von Bedeutung ist auch die Frage, ob und inwieweit sich kompositorische Studioarbeit konzentriert auf Hörspiele oder auf hörspielnahe Akustische Kunst, so wie es bei Mauricio Kagel seit 1969 oder bei John Cage seit 1979 der Fall ist (anders als bei Pierre Henry, der in vielen Entwicklungsphasen, bis in sein um 1976 beginnendes Spätwerk hinein, sowohl Hörspiele und hörspielartige Akustische Kunst als auch Elektroakustische Musik im engeren Sinne produziert hat). Für andere Komponisten ist bedeutsam, daß sie sich zeitweilig oder längerfristig auf eine "musique mixte", auf die Verbindung vorproduzierter Lautsprechermusik mit live-Musik oder auf live-elektronische Musik konzentriert haben (musique mixte: z. B. Werke für Tonband und Orchester von Pierre Boulez und Henri Pousseur in den späten 1950er Jahren; Live-Elektronik: z. B. John Cage und Karlheinz Stockhausen in den frühen 1960er Jahren, Pierre Boulez seit den 1970er Jahren, Luigi Nono seit den frühen 1980er Jahren). Ungeachtet verschiedener, zeitweilig bedeutsamer Mischformen läßt sich gleichwohl feststellen, daß in größeren Entwicklungszusammenhängen ungemischte Formen, also einerseits reine Instrumentalmusik und andererseits reine Lautsprechermusik, sich als bedeutsamer und entwicklungsfähiger erwiesen haben. Nicht wenige Umstände sprechen also dafür, bei Fragen nach dem Verhältnis technisch (vor-)
produzierter Lautsprechermusik zur Live-Musik nicht nur auf vordergründige Mischformen und Synthese-Versuche, sondern auch auf spezifische, materialgerechte Unterschiede zu achten, um so, sei es auch auf getrennten Wegen, vielleicht doch noch gemeinsamen Zielen näherzukommen auf der Suche nach einer sich weiterhin erneuernden Musik und Akustischen Kunst.
Es gibt folgende untergeordnete Dokumente:
[Zurück] [Vor] [Hoch] [Startseite]
[Index] [Frisius-Homepage]