Laser Concert
'David Tudor
David Tudor
/
'Lowell Cross
Lowell Cross
Mittwoch, 10. September 1980 Brucknerhaus, Großer Saal
Im Anschluß an den "Großen Preis der Ars Electronica": David Tudor und Lowell Cross LASER CONCERT
"VIDEO/LASER III" DAVID TUDOR und LOWELL CROSS
ASSISTENT: Stephen Julstrom CO-DESIGNER: Carson Jeffries
Seine Partituren werden von Lowell Cross und David Tudor ausgeführt.
Das Laser-Equipment wurde von der University of Iowa, Iowa City (USA) zur Verfügung gestellt.
Die KOMPONISTEN sind: David Tudor, Lowell Cross und Carson Jeffries.
Sowohl die elektronische Musik als auch die Laser-Bilder werden mit Hilfe elektronischer Steuersysteme von den Künstlern "live" realisiert.
Video/Laser III ist ein Projektions-System mit sechs verschiedenen Farben, konstruiert von LOWELL CROSS und CARSON JEFFRIES. Es reagiert auf Tonfrequenzen bis zu 3.000 Hertz. Alle sechs Farben können unabhängig voneinander programmiert werden. Dieses System erlaubt den Komponisten, zusammengehörige sich bewegende bildhafte Skulpturen mit permanent sich ändernden Eigenschaften zu kreieren, wobei Musik, Bilder und Farben sich gegenseitig beeinflussen und ergänzen.
Prof. Dr. Wolfgang Burde: LASER CONCERT – David Tudor, Lowell Cross Als John Cage und David Tudor am Ende der fünfziger Jahre ihre Kontaktmikrophone listig in Kehlkopfnähe placierten oder aber an eine gewöhnliche Schreibmaschine montierten, wurde das gewiß nicht als revolutionäre musikalische Tat gefeiert. Das Insider-Publikum der "Darmstädter Ferienkurse für Neue Musik" des Jahres 1958 akzeptierte den Auftritt der beiden amerikanischen Musiker eher wie eine Nonsensperformance, als Show, und die entstehenden Geräusche, die dadaistisch gereihten Sound-Ketten wurden allenfalls als Begleitmusik zu einem Happening goutiert. Bald wurde indes sichtbar – und das unterstrichen auch die Vorträge von Cage –, daß hinter der clownesk-nonchalanten Fassade der Cage-Auftritte eine ästhetische Position sich verbarg, die in der Lage war, das musikalische Weltbild der fünfziger Jahre gründlich zu demolieren. Denn Cage und Tudor unterwanderten nicht nur die serielle kompositorische Praxis der Zeit, sondern auch all das, was in zehn Jahren an seriöser experimenteller und kompositorischer Arbeit in den europäischen Studios elektronischer Musik geleistet worden war.
Die Entwicklung elektronischer und elektro-akustischer Möglichkeiten der Klangerzeugung hatte bereits in den zwanziger Jahren mit der Produktion elektronischer Instrumente wie Trautonium und Ondes Martenot konkrete Formen angenommen. Aber erst nach dem zweiten Weltkrieg wurde es möglich, Musik unmittelbar auf dem Tonband zu produzieren. Und von dieser Möglichkeit machten in Europa das Elektronische Studio in Paris, die Musiker um Pierre Schaeffer Gebrauch, die "Musique concrète" komponierten.
In Köln dagegen, im Studio des WDR, in dem Eimert und Stockhausen arbeiteten, entstand elektronische Musik aus der Synthese von Klängen, wie sie der Sinuston-Generator produzierte. 1955 wurde es möglich, mit der Hilfe von elektronischen Synthetisatoren Anweisungen des Komponisten auf Lochstreifen zu drucken und in Musik umzusetzen. Und die Entwicklung der Computer-Technologie führte im Jahre 1959 zu den ersten Kompositionen von Computer-Musik. Das neue Computer-Instrumentarium wurde als ungewöhnlich fortschrittlich gefeiert, weil es dem elektronischen Komponieren viel von seiner Mühsal nehmen würde.
Während der Komponist elektronischer Musik noch alle Klangereignisse entweder durch den Generator produzierte Klänge oder aber konkrete Schallereignisse – Augenblick für Augenblick, Stück für Stück zu einem Werk zusammensetzte, geschah der kompositorische Prozeß im Fall der Computer-Musik gänzlich automatisch. Nachdem der Komponist das Computer-Programm entworfen hatte, gab er sein Werk buchstäblich aus der Hand, überantwortete es den mechanischen musikalischen Webvorgängen, die der Computer außerordentlich präzise zu leisten vermochte.
Freilich, rätselhaft schien zunächst, warum Komponisten überhaupt sich bereit fanden, dem eigentlichen Entstehungsprozeß des Werkes gegenüber sich so weitgehend zurückzuhalten. Denn jeder schöpferische Prozeß bedarf doch – so will es jedenfalls die traditionelle Ästhetik – der beständigen, wägenden Reflexion, der planvollen Arbeit mit allen Chancen des Eingriffs und der Korrektur.
Es scheint, daß diese Enthaltsamkeit dem entstehenden Werk gegenüber vor allem zwei Gründe hatte.
Was die Computer-Technologie von der der Generatoren unterscheidet, ist ein hohes Maß an eigener Entscheidungsfähigkeit. Der Computer kann rechnen, musikalisch ausgedrückt, er kann aus einer gesetzten Figur unzählige andere, nach den Regeln seines Programms gesteuert, ableiten und produzieren. Grundsätzlich ein keineswegs illegitimes Verfahren, wenn man bedenkt, daß auch das tonale musikalische System letztlich ein Regelsystem ist. Eines freilich, das sich in einem jahrhundertelangen Prozeß entwickelt und zwischen 1600 und 1900 revolutionär verändert hat.
Daß ab 1957 Computer-Musik von den Komponisten gewagt und gedacht wurde, hing freilich auch eng mit der kompositorischen Entwicklung und der Ästhetik der fünfziger Jahre zusammen.
Zu dieser Zeit beherrschte die Ästhetik des "Anonymats" das musikalische Denken. Musik sollte nicht länger Ausdruck subjektiver Befindlichkeit sein oder neoklassizistischem Modell-Denken gehorchen. Herbert Eimert, der zu den Initiatoren des Elektrischen Studios in Köln gehörte, forderte damals eine Musik ohne Autorenleben. Die strukturellen Möglichkeiten musikalischer Konstellationen sollten entfaltet werden, Klang sollte zu sich selbst kommen. Eine grundsätzliche Allergie gegen die Sprachähnlichkeit von Musik, gegen musikalische Rhetorik im traditionellen Sinne breitete sich aus. Und das serielle kompositorische Verfahren, die strenge Reihen-Disziplin, der Komponisten wie Pierre Boulez oder Karlheinz Stockhausen sich unterwarfen, hatte nicht zuletzt ihre Rechtfertigung in dem Gedanken an noch ungehobene, gleichsam mineralische, kristallene Schönheiten der Musik. Mit anderen Worten: Musik als Selbstausdruck im strengen Sinne war tabu.
Indem Cage und Tudor mit Kontaktmikrophonen hantierten und die UKW-Sender aufdrehten und mit Bandschleifen arbeiteten, denunzierten sie aber nicht nur die gängige Praxis seriellen und elektronischen Komponierens, sondern sie attackierten in einer zuvor so nie versuchten Weise den traditionsreichen musikalischen Werkbegriff überhaupt. In der Tat entstand nur wenig später, durch Ligeti und Penderecki kompositorisch ausgearbeitet, eine neue stilistische Tendenz, die als "Klangfarbenkomposition" in die Geschichte der Neuen Musik eingegangen ist. Und im Verlauf der sechziger Jahre bildeten sich Improvisations-Kollektive, Improvisations-Ensemble, die für Augenblicke den abendländischen Werkbegriff außer Kurs zu bringen schienen. So entstand 1963 in Amerika das "New Music Ensemble", in Italien, um Franco Evangelisti, die römische Gruppe "Nuova Consonanza" und ähnliche Gruppen bildeten sich auch um Stockhausen, um Cardew und Globokar.
Unübersehbar und unüberhörbar meldeten sich in Amerika zudem die Vertreter des "New Thing" zu Wort, des neuen schöpferischen Jazz, der erstmals den Sprung über die traditionellen, tonalen Sprachgrenzen hinaus wagte. Und in Europa entstanden Kollektive des "Free Jazz", der "Freien Musik", die oft genug auch mit Komponisten der Avantgarde zusammenarbeiteten. All das hatte kaum zu unterschätzende Folgen für die Entwicklung der im engeren Sinne elektronischen Produktionsweisen.
Zunächst einmal: Die von vielen prophezeite große Welle elektronischen Komponierens blieb aus – bis heute. Trotz Computer, trotz Synthesizer blieb elektronische Musik als technisch-musikalischer Produktionsvorgang eine Arbeit für Spezialisten, für Komponisten, die ein besonderes Interesse am technischen Medium und seinen besonderen Ausdrucksmöglichkeiten haben.
Im Verlauf der sechziger Jahre wandte sich das Interesse der Musiker und Komponisten vielmehr der Live-Elektronik zu und damit einem Konzept von Performance, das technisch relativ leicht zu beherrschen war und das zudem den Vorteil größerer Kommunikation für sich hatte. Denn die typische Studio-Atmosphäre, die oft genug auch ersticken machte, – man fühlte sich vom Rund der vier oder acht Lautsprecher eingeschlossen, gefangengehalten, konnte auf diese Weise vermieden werden.
Technisch wurde das Konzept der Live-Elektronik möglich durch die entwickelte Generation von Synthesizern, die auch differenzierte musikalische Exkursionen ermöglichte. Musikalische Vorgaben konnten nun gespeichert und während des musikalischen Prozesses abgerufen werden. Die Synthesizer erlaubten nun aber auch differenzierte Eingriffe in das entstehende musikalische Gefüge. So wurden Zufallsresultate abgefangen, neutralisiert oder aber auch schöpferisch weitergeführt. Und vor allem durch die Arbeit und Zusammenarbeit von Don Buchla und Morton Subotnik und anderer Komponisten um das kalifornische "San Francisco Tape Center" konnte das eher traditionelle und zunächst den Markt völlig beherrschende Konzept des "Moog Synthesizer" überwunden werden. Der "Moog" war ausschließlich für die halbtönig organisierte, chromatische Skala programmiert und nicht zuletzt im Jazz so auch genutzt worden. Der "Modular Synthesizer" von Buchla dagegen erlaubte die Programmierung des Instruments nach den Bedürfnissen des Komponisten und befreite sie von der "Tyrannei der gestimmten Klaviatur", wie es Subotnik einmal formulierte. Mit dem "Modular Synthesizer" wurde es möglich, vieles von dem, was an Klangfarbenmöglichkeiten in den sechziger Jahren entwickelt worden war, "live" zu realisieren.
Freilich, das Konzept der Live-Elektronik, wie es heute sichtbar ist, wäre als musikalisches Konzept allein zu eng gesehen. Live-Elektronik ist auch der Versuch, die neuen kommunikativen Erfahrungen der sechziger Jahre als neues Lebensgefühl, als neue soziale Haltung zu formulieren. Darum sollen auch die gewöhnlichen Barrieren zwischen dem Interpreten und seinen Zuhörern, zwischen den Musik-Darstellern und den Musik-Konsumenten weniger fühlbar werden. Es ist aber auch ein Konzept, das durch die Erfahrungen der außereuropäischen Musik hindurchgegangen ist und sich darum im wahrsten Sinne des Wortes "Zeit" läßt. Live-elektronische Performances von vier Minuten oder sieben Minuten, von der Handlichkeit einer Single-Plattenseite, sind darum auch undenkbar, widersprächen der Spiritualität des Mediums.
Live-Elektronik, so gesehen, ist also weit mehr als ein Spezialisten-Medium. Es ist ein Instrumentarium von hohen integrativen Qualitäten. Ästhetisch einigermaßen unentschieden – die Musik will weder anonym noch subjektiv besonders akzentuiert oder profiliert sein. Die Sound-Bänder und Sound-Ostinati eröffnen vielmehr eine spezifische Sphäre, laden in einem eher allgemeinen Sinne zur Kommunikation, wie zum gelassenen Hören ein. Und erst nach einiger Zeit, nachdem, wie in einem indischen Raga, die Einleitung geschehen ist, beginnt die intensivere Strukturierung der Musik und damit ihr eigentliches Aktionsfeld, für individuelle Assoziationen und musikalische Formulierungen Chancen eröffnend. Darin gleicht sie übrigens auch der "Minimal Music", Kompositionen von Steve Reich oder, präziser noch, Arbeiten von Terry Riley.
Die Musiker und Gruppen, die Ars Electronica im Rahmen des Bruckner-Festivals in Linz vorstellt, arbeiten also auf der Basis einer historisch gewachsenen Tradition elektroakustischer und elektronischer Klangerzeugung, die sich seit nahezu sechzig Jahren entwickelt und differenziert hat.
Die New Yorker Gruppe "Composers Inside Electronics" (siehe "Open-house"), die im Jahre 1973 gegründet wurde, hat die Möglichkeiten der Live-Elektronik vor allem um zuvor so nie systematisch erforschte Raumwirkungen von Musik erweitert. Vier Gründungsmitglieder der Gruppe – John Driscoll, Ralph Jones, Martin Kalve und David Tudor – hatten im November und Dezember des Jahres 1978 Gelegenheit, intensiv die räumlichen Wirkungen von Klang zu erforschen. Das Ziel ihrer Arbeit war die Entwicklung rotierender Lautsprecher, die für live-elektronische Aufführungen geeignet sind. Unter akustischen Gesichtspunkten ging es darum, Sound ganz gezielt zu einem bestimmbaren Punkt im Raum transportieren zu können, ihn räumlich zu fixieren, Sound-Strahlen zu produzieren also, die während der Performance miteinander in Interaktion geraten würden. Solche Rotationen von Klang sowie die Bündelung von Klang sind wesentliche Faktoren der Musik, die CIE produziert.
Aber auch im Falle der Gruppe "Composers Inside Electronics", zu der außer den bereits genannten Komponisten noch Phil Edelstein, Linda Fisher, Paul de Marinis und Bill Viola gehören, geht es nicht allein um musikalische oder kompositorische Probleme, sondern auch um sozial-psychologische und um musik-soziale Prozesse.
Joan la Barbara, die amerikanische Komponistin, besuchte vor einiger Zeit ein New Yorker Zentrum der Live-Elektronik, "The Kitchen", eine Künstleretage im New Yorker Süden, in Soho. Ein Platz übrigens, in dem nicht nur Musiker ein Zuhause finden, sondern auch Literaten lesen und Künstler Gelegenheit zu Ausstellungen bekommen und in dem der Komponist David Behrman die Rolle eines künstlerischen Hausvaters spielt. In "The Kitchen" also gab CIE ein Konzert, und Joan la Barbara beobachtete dabei folgendes: "Manchmal drängt sich in experimentellen Konzerten – ob mit Elektronik oder mit akustischen Instrumenten, spielt keine Rolle – weniger der musikalische Gesichtspunkt, als der andere vor, wie der Klang entsteht, warum er entsteht und wie die Spieler interagieren, wie sie aufeinander und auf den Klang selbst reagieren. Es ist eine ungewöhnlich gegenwärtige direkte Klangerfahrung, aber sie basiert auf der gründlichen Erforschung von Klangmöglichkeiten und auf der fortwährenden Weiterentwicklung des Mediums. Und sie verlangt von den teilnehmenden Musikern absolute Unterwerfung unter die Chancen der (Augenblicks-)Situation." Und man kann hinzufügen: was für die teilnehmenden Musiker/Komponisten gilt, das ließe sich auch von den Zuhörern sagen, die während der Performance auch als Zuschauende Gelegenheit haben, die vielfältigen Spuren der als Aktion erfahrenen Musik zu verfolgen.
Synästhetische Konzepte lassen sich in unserem Jahrhundert zurückverfolgen bis zu Alexander Skrjabin, dessen "Prometheus"-Symphonie, die er im Jahre 1910 komponierte, erst kürzlich wieder in Iowa City in Amerika aufgeführt worden ist. Realisiert von einem Video/Laser III, dessen Lichtbündel in eine Palette von 16 Farben ausgefiltert werden kann. Während in Skrjabins Farb-Klang-Konzept Licht auf harmonische Konstellationen reagiert, auf den Wechsel der Harmonien, arbeiten Tudor und Cross in ihrer Laser-Performance mit wesentlich geschmeidigeren Zuordnungen. Das Gerät ist das gleiche wie in Iowa. Lowell Cross und Carson Jeffries, die mit David Tudor regelmäßig zusammenarbeiten, haben Video/Laser III in den Jahren 1971/72 entwickelt. Das Geheimnis des Laser-Geräts liegt in rotierenden Spiegeln, die auf Audio-Impulse reagieren und Zusatzgeräte, die es ermöglichen, die akustischen Impulse in dynamische optische Strukturen zu übertragen.
Während der Bonner Weltmusiktage war eine Laser-Performance von Tudor–Cross zu erleben, die tags darauf in folgender Weise beschrieben wurde: "Die verblüffende Vielfalt der Formen und Farbkombinationen, der immer 'elegante', fließende Wechsel der tausendfach abgewandelten Oszillationsgebilde aus dem 'Laser'-Projektor, schließlich auch die Perfektion der ohne abrupte Brüche und mit raffinierter dramaturgischer und kompositorischer Akribie sich abwickelnden Tonbild-Geschichten der Kurven und Netze und locker oder streng gebündelten Liniengeflechte demonstrieren dabei in bisher nicht bekannter Eindeutigkeit, daß diese 'Laser-Kanone' als live-elektronisches Instrument das Stadium des Spielzeugs hinter sich gelassen hat."
Die Zukunft der Live-Elektronik, die Möglichkeiten der elektronischen Musik überhaupt sind untrennbar – das hat der Streifzug durch die Geschichte der Neuen Musik der letzten fünfunddreißig Jahre gezeigt – von der Gesamtentwicklung der musikalisch-kompositorischen Mittel. Gegenwärtig gibt es einen Trend zu historischen Form – Modellen, eine zweite Renaissance traditionsreicher formbildender Mittel – nach dem Vorlauf des Neoklassizismus. Bruckner und Mahler "orgeln" gewaltig nach in den Symphonien von Wolfgang Rihm, aber auch in Sound-Clustern avancierter Pop-Gruppen. Für die elektronische Musik freilich, die von ihrer Technologie her über das gegenwärtigste, zeitgenössischste Instrumentarium verfügt, wären das die falschen Propheten.
Prof. Dr. Wolfgang Burde
|