www.aec.at  
Ars Electronica 2003
Festival-Website 2003
Back to:
Festival 1979-2007
 

 

Code und Musik
Technik und Kreativität beim Komponieren

'Jonathan Norton Jonathan Norton

Seit erstmals „Daisy, Daisy“ bei Bell Laboratories aus dem Großrechner ertönte, sind Computer und Softwarecode zu einem bedeutenden Einflussfaktor bei der Schaffung und Verbreitung von Musik geworden. Es gibt heute fast keinen Bereich der Musik, der nicht von Technik beeinflusst wäre. Wie Gerfried Stocker ausführt, „[entsteht] künstlerischer Ausdruck […] nicht mehr ausschließlich durch Können und Handwerk des Künstlers, sondern über Programmcodes werden die Parameter und Prozesse beschrieben, entsprechend derer vom Computer dynamische Bild- und Klangwelten generiert werden – … [in] Bereichen der U- [ebenso wie der] E-Musik.“
(Ars Electronica, Presseaussendung, Linz, 25. März 2003)
Ich wurde gebeten, im Rahmen der Ars Electronica 2003 die Rolle von Code in der Musik zu untersuchen. Dies stellt eine reizvolle Herausforderung dar und erlaubt mir, kurz die Berührungspunkte und Zusammenhänge zwischen Code und Musik darzulegen und abschließend einige Fragen zu formulieren. Weder können noch wollen wir den Geist zurück in die Flasche verbannen; wir sollten jedoch überlegen, wie Code Eingang in die Kunst und Musik gefunden und unserer Kreativität neue Impulse verliehen hat.

In einer Presseaussendung der Ars Electronica vom Frühjahr 2003 wurde folgende Frage aufgeworfen: „Welche Rolle spielen Software und digitale Codes für das Wesen und die Identität von digitaler Medienkunst als einer ,Kunst aus Code‘, also einer generativen, aus computativen Prozessen entwickelten und entstehenden Kunst?“ Diese Frage berührt den Kern des Problems.

Einige der umfassendsten Innovationen zeigen sich im Bereich der algorithmischen Komposition. Obwohl auf Lisp, C und C++ basierende Low-Level-Programmierumgebungen wie
z. B. Common Lisp Music (CLM), Csound und die Synthesis ToolKit-Funktion von C++ (STK) weiterhin häufig zum Einsatz kommen, werden sie hauptsächlich im akademischen Bereich für Forschungszwecke und zur Weiterentwicklung des Genres verwendet. Geändert hat sich dies erst in jüngster Zeit. Die Rechnerleistung hat sich dramatisch erhöht; während vor nur zehn Jahren fast ausschließlich die oben erwähnten Institutionen ausreichend leistungsstarke Rechner besaßen, ist heute die Rechnerleistung von typischen Heimcomputern so hoch, dass jede Programmierumgebung genutzt werden kann und dennoch freie Kapazitäten zur Verfügung stehen. Dadurch konnte ein völlig neues Marktsegment von potenziellen Anwendern erschlossen werden.

Neben einem breit gefächerten Angebot an günstigeren und schnelleren Computern hat die Entwicklung von komplexeren GUI-Programmierumgebungen wie PD und besonders MAX/MSP dazu beigetragen, dass heute mehr Menschen als jemals zuvor Zugang zu Computermusik haben. Computermusik ist nicht länger eine Domäne von Akademikern, nun kann auch die breite Masse die Welt der Computermusik für sich erschließen. Ein positiver Effekt dieser Öffnung ist, dass Innovationen sich rascher durchsetzen. Komponisten, Akademiker und Nicht-Akademiker, die früher vor Computermusik zurückschreckten, weil u. a. die Programmiersprachen für ihre Zwecke nicht komplex genug waren, lassen nun ihrer Fantasie freien Lauf. Dies hat zu einer tief greifenden Veränderung der Musikszene geführt.

Wenn ich beispielsweise vor neun oder zehn Jahren eine algorithmische Komposition schreiben wollte, verwendete ich primär Rick Taubes auf Lisp basiertes Programm Stella, das maßgeschneidert für diese Art von Komposition war und mit Lisp-Grundkenntnissen relativ leicht erlernt werden konnte. MAX war zu jener Zeit ebenfalls bereits am Markt erhältlich, beschränkte sich jedoch eher auf eine allgemeine Programmierumgebung. Sowohl MAX als auch Stella waren nur eingeschränkt verwendbar, da sie ausschließlich MIDI verarbeiten konnten. Wollte ich Kompositionen schreiben, die computergenerierte und manipulierte Audiosequenzen enthielten, musste ich auf Programme wie CLM zurückgreifen. Sowohl Stella als auch CLM-Umgebungen erforderten viele Zeilen Computercode, die auf einem NeXT-Computer ausgeführt werden mussten. Möchte ich heute diese Art von Musik komponieren, verwende ich üblicherweise MAX/MSP; dieses Programm vereint bereits algorithmische Komposition und Audiokomposition und läuft auf meinem Laptop.

Durch den Einsatz von schnelleren Computern und GUI-Programmierumgebungen konnten auch im Bereich der Musik-Controller und Interfaces umfangreiche Neuerungen erzielt werden. Dieser Bereich zog in den letzten Jahren derart viel Aufmerksamkeit auf sich, dass eine internationale Konferenz zu diesem Thema initiiert wurde – die New Interfaces for Musical Expression Conference (NIME) wird heuer an der McGill University in Montréal, Kanada, stattfinden.

Viele Controller kombinieren Techniken aus verschiedenen anderen Bereichen; sie lösen Objekte aus ihrer natürlichen Umgebung heraus und nutzen sie auf neue Art. BioMuse von BioControl war eines der ersten Systeme, das bioelektrische, transdermale Elektroden, die normalerweise für Biofeedback und medizinische Therapien eingesetzt werden, für Musikapplikationen nutzte. Das System konnte über acht Sensoren gleichzeitig Elektromyogramme (Muskelbewegung), Elektrookulogramme (Augenbewegung), Elektrokardiogramme (Herz) und Elektroenzephalogramme (Hirnströme) aufzeichnen. Obwohl es einzigartig für seine Zeit war, blieb die Nutzung auf akademische Zwecke und Komposition beschränkt, da außerhalb des universitären und medizinischen Bereichs das Wissen über derartige Systeme fehlte und Interessierten daher der Zugang verwehrt blieb.

Seit einiger Zeit sind I-Cube von Infusion und ähnliche Produkte verfügbar. Das I-Cube-System verwendet keine bioelektrischen Sensoren wie BioMuse, sondern weist ein flexibleres Design auf, das die gleichzeitige Nutzung von 32 Sensoren ermöglicht. Das Programm verfügt auch über eine Vielzahl von Sensoren, die Parameter wie z. B. Biegung, Berührung, Lichteinfall, Neigung, magnetische Felder, Orientierungssinn, Temperatur und Druck messen. Ein bedeutender Vorteil dieser Systeme ist die automatische Umwandlung der Sensorrohdaten in MIDI-Daten, was eine Zeitersparnis bewirkt und die Programme wesentlich benutzerfreundlicher macht. In Kombination mit einer GUI-Programmierumgebung sind sie aufgrund ihrer leichten Zugänglichkeit und Benutzerfreundlichkeit auch für andere potenzielle Anwender interessant.

Controller und Softwarecode unterstützen nicht nur die Schaffung von organischeren und innovativeren Musikformen, sondern ermöglichen auch Klangentwicklung in einer Echtzeitumgebung. Dies war in der Vergangenheit nicht oder nur sehr schwer möglich. Früher mussten Töne in einer Live-Situation physisch erzeugt werden, indem Musik aufgenommen oder vom Band gespielt wurde, bevor die Musik durch EQ, Filter, Manipulationen von Aufnahmen oder Outboard-Effekte verändert wurde. Die Klangquelle selbst konnte allerdings nicht manipuliert werden. Heute können Töne selbst verändert werden, und die sie beeinflussenden Parameter können spontan auf Befehl des Künstlers erzeugt werden.

Wie hat sich also die Position des Künstlers in einem Musikumfeld, das von derart tief greifenden technischen Fortschritten geprägt ist, durch die Verwendung von Software verändert? Traditionelle Komponisten halten ihre Musik mittlerweile nicht länger ausschließlich auf Papier fest. Zwar werden Papier und Bleistift auch weiterhin verwendet, doch können sie ihre Musik und Partituren heute mittels spezifischer Software auf schnellere, komplexere und diversere Art gestalten, präsentieren und arrangieren. Sequencer-Programme ermöglichen das Abspielen verschiedener Sequenzen und Arrangements, bevor diese endgültig in der Partitur festgehalten werden. Viele dieser Programme erlauben auch die Einbindung von Audiodateien in einzelne Musiksequenzen, was die Palette an Ausdrucksmöglichkeiten, die dem Komponisten zur Verfügung stehen, stark erweitert. Vorausgesetzt man kann mit ihnen umgehen, bringen Notationsprogramme eine große Zeitersparnis. Ganze Sequenzen können relativ einfach eingegeben, verändert, ausgeschnitten, kopiert, transponiert und auf ihren Tonumfang hin überprüft werden. Nach Fertigstellung können einzelne Teile extrahiert und direkt über die am Bildschirm zu sehende Partitur ausgedruckt werden. Für Orchesterpartituren und andere große Werke sind Notationsprogramme unendlich wertvolle Hilfsmittel.

Für zeitgenössische Komponisten bedeutet das reichhaltige Softwareangebot, dass sie nicht nur Komponisten, sondern auch Programmierer sind. Neben digitalen Audiosequenzen können Sequencer-Programme eine Fülle von Plug-Ins importieren, um Effekte, Klangmanipulationen, Sampler und virtuelle Instrumente nutzen zu können. Für Komponisten, die mit den eingeschränkten Funktionen mancher Programme und Plug-Ins nicht zufrieden sind, sind High- und Low-Level-Programmierumgebungen die perfekte Wahl. Sie verschaffen ihnen Zutritt zum Reich der algorithmischen Komposition, der akustischen und physikalischen Modelle, der digitalen Signalverarbeitung und der einzigartigen Controller. Jeder Parameter und jede Klangnuance kann kontrolliert und exakt an spezifische Situationen, Klangfüllen und Musikideen angepasst werden. Allerdings hat diese Flexibilität ihren Preis. Je mehr Nuancen Komponisten über den Computer steuern wollen, desto größer muss ihr Wissen über Synthesetechniken, akustische Modellierung, digitale Signalverarbeitung und die Schnittstellen zwischen diesen einzelnen Parametern sein.

Künstler aus anderen Disziplinen macht die Software zu Komponisten. Als es noch keine entsprechende Software gab, mussten Komponisten „echte“ Komponisten sein. Musikpartituren wurden händisch niedergeschrieben und dann von Musikern aufgeführt. Dies erforderte zumindest Wissen über die Notation von Musik und die Klangfülle bzw. den Tonumfang jener Instrumente, für die die Stücke geschrieben wurden. Mit der Verwendung von entsprechender Soft- bzw. Hardware und computergenerierten oder computergesteuerten Tönen ist dies nicht länger nötig. Die meisten Kunstformen können auf die eine oder andere Weise in alternative Kunstformen umgewandelt werden. Ein Künstler kann ein Abbild von seinem Kunstwerk machen, sei es ein Foto, eine Zeichnung oder eine Videoaufnahme, und mittels eines Scanners oder einer Videokamera, die an eine spezifische Bearbeitungssoftware angeschlossen sind, die Pixeldichte oder die Bewegungsdichte des Bildes auf MIDI-Rohdaten mappen. Diese Daten können zu einem Synthesizer oder einer anderen Klangquelle oder Programmierumgebung übertragen werden, die dann Musik generiert. Ein anderes Beispiel wären Bildhauer, die Licht-, Wärme-, Berührungs- oder Bewegungssensoren an ihrem Kunstwerk anbringen, um MIDI-Rohdaten zu generieren, die dann an eine Klangquelle angeschlossen werden. Die Kombinationsmöglichkeiten sind schier unendlich.

Umgekehrt könnten Komponisten eine existierende Komposition oder Live-Performance verwenden, um durch MIDI/Video-Converter oder Audio/Video-Converter auf der Basis bestimmter vorprogrammierter Parameter-Mappings eine grafische Repräsentation ihrer Musik in Echtzeit zu schaffen.

Abschließend möchte ich nochmals auf spezifische Aspekte des Codes und der Kreativität zurückkommen. Wie bereits erwähnt, sind die meisten zeitgenössischen Komponisten – und besonders jene von Computermusik – Komponisten und Programmierer in Personalunion. Manche behaupten vielleicht, dass das Musikschaffen dieser Komponisten keine echte Musik sei, nur wenige werden allerdings bestreiten, dass Musik eine Kunstform ist. Was charakterisiert also den Code, der zur Schaffung von Musik verwendet wird? Darf behauptet werden, dass der Code aufgrund der zunehmenden Nutzung von Computern und Software zu einer eigenständigen Kunstform geworden ist? Ist dies der Fall, wann ist Software dann nicht einfach nur Code, sondern Kunst? Gelten diese Grundsätze für alle Kunstschaffenden oder gibt es Unterschiede? Programmiert z. B. ein Computerprogrammierer einen Algorithmus, der Musik erzeugt, sollte dieses Programm dann als Kunst betrachtet werden? Was, wenn etwa ein Komponist exakt den gleichen Algorithmus schreibt? Wird das Programm des Komponisten als Kunst, das Programm des Programmierers hingegen lediglich als Code zur Generierung von Musik betrachtet, oder sind die Programme gleichwertig? Wird vielleicht keines der Programme als Kunst akzeptiert? Ist ein Programm, das als Kunst bezeichnet wird, tatsächlich Kunst oder wird es nur als Kunst angesehen, weil jemand behauptet „Das ist Kunst“? Gibt es konkrete Kriterien, die einen derartigen Standpunkt rechtfertigen, oder handelt es sich um subjektive Werturteile? All diese Fragen berühren Kernpunkte der Fusion von Technik und Kunst.

Ich habe mich in diesem Kontext auf die Zusammenhänge zwischen Code, Technik und Komposition beschränkt, das Thema „Code und Musik“ ist aber wesentlich vielschichtiger und wird uns in der Zukunft vermutlich alle in den verschiedensten Lebensbereichen berühren. Wie eingangs erwähnt, sind Computertechnik und Software zu einem integralen Bestandteil der Schaffung und Verbreitung von Musik geworden. Die anhaltende Kontroverse um die Verbreitung von Musik und das Kopieren von Dateien über das Internet greift Fragen des Rechts, des Codes und der individuellen künstlerischen Schöpfung aus einer weitaus vielschichtigeren Perspektive auf. Technik und Code fördern die individuelle Kreativität, wie ich aufzuzeigen versucht habe, drohen jedoch gleichzeitig das Recht des Individuums auf seine eigene Kunst einzuschränken.

Aus dem Amerikanischen von Sonja Pöllabauer