www.aec.at  
Ars Electronica 1982
Festival-Programm 1982
Back to:
Festival 1979-2007
 

 

Großer Preis der Ars Electronica




Donnerstag, 30. September 1982, 20 Uhr
Brucknerhaus Mittlerer Saal

Während einer öffentlichen Veranstaltung wird von einer internationalen Fachjury zum dritten Mal der "Große Preis der Ars Electronica für die originellste und zukunftsweisendste Neuentwicklung im Bereich der elektronischen Klangerzeugung" vergeben.

Für die Endausscheidung wurden folgende TEILNEHMER gewählt:
Serge Blenner (BRD)
Joel Chadabe (USA)
Hans Deyssenroth (BRD)
Benjamin Heidersberger und Peter Kohlrusch (BRD)
Uwe Hüter (BRD)
Ivan Tcherepnin (USA)
Dr. Martin Wichtl (Österreich)

JURY:
Dr. Robert A. Moog (USA)
Gerald Dellmann (BRD)
Prof. Dr. Werner Krützfeldt (BRD)
Betha Sarasin-Baumberger (Schweiz)
Bruno Spoerri (Schweiz)
Tom Darter (USA)

MODERATOR: Walter Zimmermann (BRD)

Die Teilnehmer am "Großen Preis der Ars Electronica" präsentieren ihre Klanginstrumente dem Publikum bereits am Nachmittag im Rahmen eines öffentlichen Workshops im Mittleren Saal des Brucknerhauses.

GROßER PREIS DER ARS ELECTRONICA
Der 1979 ins Leben gerufene "Große Preis der Ars Electronica" ist ein internationales Forum für Elektronikmusiker, ein Forum für Präsentation, Erfahrungsaustausch und Verwirklichung gemeinsamer musikalischer Ideen und Projekte. Von einer internationalen Fachjury wird dieser Preis 1982 zum dritten Mal für die originellste und zukunftsweisendste Neuentwicklung im Bereich der elektronischen Klangerzeugung vergeben. Die von Dr. Robert Moog konzipierten Bestimmungen für den "Großen Preis" beruhen auf der Ansicht, daß ein neues künstlerisches Medium nur insofern wertvoll sei, als es Künstlern ermöglicht, ansprechende Kunstwerke zu schaffen, die in eine interessante und aufregende Zukunft weisen. Dementsprechend sind neben der Beherrschung der technischen Ausrüstung vor allem Kreativität im Konzept und Musikalität Kriterien für die Beurteilung, Bisherige Preisträger vom "Großen Preis der Ars Electronica" sind Bruno Spoerri mit dem "Lyricon" (1979) und Nyle Steiner mit dem "Electronic Valve Instrument" (1980). Für den "Großen Preis der Ars Electronica 82" wurden aus den Einsendungen insgesamt sieben Projekte zugelassen. Der Jury unter dem Vorsitz von Dr. Robert Moog gehören Gerald Dellmann (FACHBLATT Music Magazin), Betha Sarasin-Baumberger (Metallklangkonstrukteurin), Prof. Dr. Werner Krützfeldt (Hochschule für Musik und Darstellende Kunst, Hamburg) und Bruno Spoerri (Musiker und Komponist) an. Moderator des "Großen Preises der Ars Electronica" ist der Komponist und Elektronikfachmann Walter Zimmermann. Die Beratung und Vorauswahl erfolgte durch Dr. Robert Moog, Hubert Bognermayr und Ulli A. Rützel. Technische Tagesorganisation: Dr. Wolf-Dieter Kaltenböck.

Die Trophäe des "Großen Preises der Ars Electronica" ist ein Objekt mit dem Titel "Tempel für einen Chip", gestaltet von Prof. Helmuth Gsöllpointner, dem Leiter der Meisterklasse für Plastisches Gestalten–Metall an der Hochschule für künstlerische und industrielle Gestaltung in Linz.

Der Sieger des "Großen Preises" erhält diese 70 cm hohe Plastik, die sich wie eine strenge Architektur auf einem quadratischen Grundriß erhebt. Die eigentliche Form wird aus horizontal und vertikal angeordneten, dabei asymmetrisch ineinander verschränkten Balken aufgebaut, besteht aus drei übereinander getürmten Stockwerken und enthält im höchsten Abschnitt eine Art "Herzkammer" in Gestalt eines in Plexiglas eingelassenen Elektronik-Chips. Das Material besteht zum Großteil aus montierten Hölzern, zuoberst jedoch aus einem in die Holzfassung eingelassenen Metalleinsatz.
SERGE BLENNER ZUR PRÄSENTATION
Für meine Live-Darbietung werde ich folgende Geräte benutzen:
  • PPG wave 2.2. Computer

  • PPG wave therm

  • PPG store unit

  • DR Mischpult, 20-Kanal
Die besonderen Merkmale meines Musikcomputers sind:
  1. Zusammensetzung einer Wellenform aus 32 Harmonischen

  2. Zusammenstellung eines Wellensatzes aus 128 Wellenformen

  3. Analyse eines akustischen Klanges

  4. Herstellung einer Resonanzkurve

  5. Speicherung einer Komposition für acht Stimmen

  6. 6. Speicherung dynamischer Polyrhythmen
JOEL CHADABE
Joel Chadabe komponiert für ein tragbares Computersystem und tritt damit bei Konzerten und in Installationen auf. Eine langjährige Liebe für spontanes Musizieren und ein neues Bedürfnis, einen größeren Einklang zwischen Mensch und Technologie zu schaffen, veranlaßten ihn, seine gegenwärtige Richtung einzuschlagen.
"In sämtlichen Arbeiten von Chadabe kann man dieses spontane, konversationsähnliche Element heraushören …"
Tom Johnson, High Fidelity und Musical America, September 1975
Derzeitige Konzertstücke und Installationen beinhalten SOLO, aufgeführt mit Nahempfangsantennen, SZENEN von Stevens, nach Gedichten von Wallace Stevens, RHYTHMEN, für Computer und Percussion, aufgeführt mit dem Percussionisten Jan Williams und PLAYTHINS, eine Installation, die für eine Präsentation im offenen Raum entworfen wurde, in dem vorbeigehende Personen eingeladen werden "zu dirigieren", unter Verwendung von Computer mit Nahempfangsantennen. Frühere Aufführungen fanden statt im: Hartford Civic Center (Hartfort, Connecticut), UNESCO Workshop für Computer-Musik (Aarhus, Dänemark), The Kitchen (New York City), Neue Konzertmusik/New Music Concerts (Toronto), Mills College (Oakland, California) sowie weitere Orte in Nordamerika, Europa, Australien und Neuseeland.
HANS DEYSSENROTH ZUR PRÄSENTATION
Vorgestellt wird ein Computer, der improvisiert, variiert und komponiert und mit vier unabhängigen Stimmen Synthesizer steuert (1 Volt/Oktave). Hardware: KIM-1, selbstgebaute Interfaces, Eprom-Karten.

Software: Ca. 6 K mit einem selbstgeschriebenen 6502-Crossassembler auf einem U1100/81 (UNIVAC)-Großcomputer-System in fünf Jahren entwickelt und ausführlich getestet.

Zweck dieser Übung war, eine Begleitmusik zu erzeugen, zu der man kreativ spielen und üben kann. Die von Sequenzern oder von herkömmlichen Computern erzeugten Baßlinien sind oft schon nach wenigen Wiederholungen langweilig, und auch die Aneinanderreihung von verschiedenen Teilstücken liefert nicht die für die Jazzimprovisation erforderliche Spontaneität. Aber auch der reine Zufall ist nicht so geeignet, da sich dabei ganz bösartige, störende Überraschungen ereignen können. Zufall mit Einschränkungen also?

Es ist sicherlich vermessen, einen künstlichen Bassisten erschaffen zu wollen und auch von vornherein nicht realisierbar. Dennoch entstehen hier mit einem der Biologie entliehenen Algorithmus manchmal rein zufällig ganz brauchbare Begleitlinien, die auch ein guter Bassist nicht spielen könnte. Dieser Algorithmus bedient sich einiger Mechanismen, die sich bei der Replikation von Erbinformationen abspielen. So werden z. B. durch Strahlung beschädigte Gensequenzen von Enzymen wieder repariert. Oder an gewissen Stellen werden Teile der DNA herausgeschnitten und durch andere Teile oder inverse Teile ersetzt usw. Diese Lebensvorgänge, auf die Musikvariation übertragen, sorgen zwar noch für Überraschungen (Mutationen), aber sie bleiben doch in einem gewissen (programmierbaren) Rahmen.

Darüber hinaus bietet das Programm eine große Vielfalt von Änderungsmöglichkeiten während des Spielens (auch im atonalen Bereich), deren Beschreibung hier zu weit führen würde. Im ersten Stück bleibt der Baß relativ stabil, Jedoch sind die Tonart-Periode und die Sequenz-Reihenfolge-Periode verschieden. Im zweiten Stück spielt der Baß manchmal im Gegentakt, findet aber immer wieder zurück.

Beides ist für Menschen beim Improvisieren recht problematisch, aber nicht für den Computer.
BENJAMIN HEIDERSBERGER UND PETER KOHLRUSCH ZUR PRÄSENTATION
Instrument: Computergesteuerter Analog-Multiplexer

Aktion: In einem abgedunkelten Bühnenbereich befinden sich 16 auf Stühlen sitzende Akteure in einem Kreis, bestehend aus Besuchern des "Großen Preises der Ars Electronica". Jeder der Akteure verfügt über Kopfhörer und Mikrofon. Die Mikrofone sind zu vier Vierergruppen zusammengeschaltet, diese Gruppen wieder untereinander. Welches Mikrofon zu welcher Gruppe gehört, bestimmt während der Performance ein Computer. Jede Vierergruppe arbeitet mit einer der möglichen Klangverfremdungen ihrer Stimme. Der zusammengemischte Gesamtklang ist jedem der Beteiligten über Kopfhörer zugänglich. In der Mitte des Kreises rotiert eine Videokamera. Sie überträgt das Gesicht eines der Akteure auf die Monitore, die in der Mitte für jedermann sichtbar angeordnet sind. Die Lautstärke des auf dem Monitor sichtbaren Akteurs wird durch einen Computer angehoben. Die Raumbeleuchtung erhellt nur den Kreis. In der Mitte des Kreises sitzen die Initiatoren (s. o.) mit ihren Geräten, die diese Gemeinschaftskomposition abmischen bzw. ihr eigene Impulse geben. Die Akteure können während der Performance durch andere Zuschauer ersetzt werden.
UWE HÜTER ZUR PRÄSENTATION
Syntouch. Der hier beschriebene Synthesizer ist insbesondere nach folgenden Kriterien entwickelt worden:
  • keine Mechanik-Tasten

  • kleinste Bauform

  • große Klangvielfalt.
Das Instrument hat etwa die Größe und Form einer elektrischen Gitarre, der eine Teil des Korpus ist allerdings nach oben pultförmig abgewinkelt, um besseren Zugang zu den Reglern zu haben. Auf dem Hals des Instruments befinden sich zwei Reihen von Sensor-Kontakten, die wie zwei Saiten über die ganze Länge des Halses laufen, aber aus voneinander getrennten "Bünden" bestehen (19 Bünde x2). Im weiteren Verlauf des Halses, dort, wo er auf dem Korpus aufliegt, sind für die rechte Hand fünf weitere Sensoren angebracht, die bei Berührung verschiedene (einstellbare) Erhöhungen der gesamten Synthesizerstimmung (Te, Qui, Qua) zur Folge haben, der fünfte macht einen vom Fingerdruck abhängigen pitchbend.

Gespielt wird das Instrument ähnlich wie eine Gitarre: die linke Hand spielt auf den beiden im Quartabstand gestimmten "Sensorsaiten" und liefert die Tonhöhe und den Gatepuls oder nur die Tonhöhe und die rechte Hand den Gatepuls. Die Elektronik des Synthesizers (2VCO, 2VCA, 1ADSR, 1VCF) ist auf einer Europakarte im Inneren untergebracht (Curtis ICs), samt LFO und Doppelbandbaßfilter für Sprachformanten (joystick controlled). Die Sensorelektronik ist auf einer weiteren Europakarte aufgebaut, und die dritte Karte enthält string ensemble, noise generator und noch etwas Platz für Erweiterungen. Das Netzteil ist direkt am Netzstecker untergebracht. Der Hals des Instruments kann vom Korpus gelöst und so auf dem Korpus verschoben werden, daß auf beiden Seiten gleichviel übersteht. So ist es möglich, das Instrument auf dem Tisch wie mit einem Manual zu spielen.

Die klanglichen Möglichkeiten: der Ton ist mischbar aus zwei VCOs mit je drei Kurvenformen, Güte und Frequenz des Filters sind ENV-geformt, zwei Formanten lassen sich mit einem Joystick verschieben. Zeitmodulation durch Phaser, Flanger, Stringensemble.
IVAN TCHEREPNIN

MARTIN WICHTL ZUR PRÄSENTATION
"Das Gerät kann im einfachsten Fall mit einem Mikrophon angesteuert werden, jedoch auch mit anderen Tonerzeugern, z. B. Synthesizer, wobei die besten Ergebnisse mit dem Lyricon erzielt werden. Das Eingangssignal wird umgeformt, verstärkt und einem Druckkammer-Lautsprecher zugeführt. Das akustische Signal wird anschließend durch einen Schlauch dem Schallstück eines Blechblasinstrumentes oder einem leicht schwingungsfähigen offenen Metallbehälter (z. B. Limonadendose) weitergeleitet.

Die charakteristische Klangfarbe entsteht in diesen Trichtern oder Dosen. Eine weitere Klangumformung ist durch den Einsatz von konventionellen Dämpfern möglich."

Der Moderator:
Walter Zimmermann

Die Jury:
Dr. Robert A. Moog (USA)
Gerald Dellmann (BRD)
Prof. Dr. Werner Krützfeldt (BRD)
Betha Sarasin-Baumberger (Schweiz)
Bruno Spoerri (Schweiz)
Tom Darter (USA)