www.aec.at  
Ars Electronica 1979
Festival-Programm 1979
Back to:
Festival 1979-2007
 

 

Einleitung


'Herbert W. Franke Herbert W. Franke

Mit der Elektronik ist ein progressives Element in unserer technischen Welt aufgetaucht, dessen Einfluß sich nicht auf Industrie und Forschung beschränkt, sondern in alle Lebensbereiche eingreift. Damit ist eine Entwicklung in Gang gekommen, die erstaunliche und phantastische Aspekte eröffnet, in anderen Belangen aber auch Kritik und Skepsis hervorruft. Die durch die Elektronik bewirkten Neuerungen betreffen insbesondere den Umsatz von Information – ihre Speicherung, ihre Verbreitung und ihre Verarbeitung. Die modernen elektronischen Massenmedien haben die Kommunikation auf eine neue Basis gestellt. Die Auswirkungen reichen bis in Denk- und Verhaltensweisen im privaten Bereich.

Einen speziellen Anwendungsbereich hat die Elektronik in der Kunst gefunden. Das gilt nicht nur für die Aufgaben der Dokumentation und Wiedergabe, sondern auch für unkonventionelle gestalterische Methoden sowohl in der Musik wie auch in der bildenden Kunst. Elektronische und computergenerierte Musik gehören ebenso dazu wie Videoart und Computerkunst.

Die Elektronik ist ein typisches Beispiel einer sanften Technik – mit immer weniger materiellem Aufwand werden immer höhere Leistungen erbracht. Damit ist ein Weg vorgezeichnet, der die resignative Vorstellung des Nullwachstums in vernünftiger Weise überwinden hilft: Wachtum ist nur dort bedenklich, wo es steigenden Verbrauch unersetzlicher Güter mit sich bringt. Wachstum ist aber nicht nur vertretbar, sondern auch wünschenswert und notwendig, wo es eine Steigerung der Lebensqualität aus der Sicht geistiger Werte mit sich bringt. Dazu gehören u. a. die Verbesserung der Bildung, die Freisetzung von Kreativität und die Sensibilisierung des Empfindungs- und Ausdrucksvermögens – vor allem durch künstlerische Aktivität.

Bisher hat der technische Fortschritt in einer recht simplen, unreflektierten Weise Eingang in die Gesellschaft gefunden; die Auseinandersetzung mit bedenklichen Sekundärerscheinungen erfolgte erst in der Konfrontation mit den fest etablierten Systemen. Der bessere Weg ist es, die noch im Entstehen begriffenen technischen Veränderungen von vornherein kritisch zu beobachten und in die richtigen Bahnen zu lenken. Der Begriff "elektronische Kunst" steht hier als Ausdruck für jenes jüngste Stadium der Entwicklung, in dem die Elektronik für gestalterische Zwecke im weitesten Sinn des Worts verwendet wird, wobei sich – erstaunlich genug – eine unerwartet enge Beziehung zu ästhetischen Fragen ergibt. Somit offenbaren sich die typischen Kennzeichen dieser generativen Elektronik gerade dort, wo sie künstlerische Aufgaben zum Ziele hat.

Damit ist die Thematik umrissen, der sich die Veranstaltung "ars electronica" widmen soll. Im Gegensatz zu vielen anderen künstlerisch orientierten Symposien und Kongressen geht es dabei nicht um eine Bestandsaufnahme abgeschlossener historischer Prozesse. Gegenstand sind vielmehr Erscheinungen, die sich zwar heute schon abzeichnen, die aber erst in der Zukunft zur vollen Auswirkung kommen werden. Das bringt es mit sich, daß manche der vertretenen Meinungen schwer zu beweisen sind – eher Mutmaßungen als Voraussagen. Und auch die Reihe der Demonstrationen bringt weniger vollendete Kunst in perfekter Technik als Andeutung der Gestaltungsmöglichkeiten von morgen mit all den Unsicherheiten laufender Experimente, doch mit dem unschätzbaren Vorteil der Offenlegung von Leitlinien und Trends. Und somit ist "ars electronica" auch nicht der Schlußstrich hinter eine Periode der Vergangenheit, sondern das Zeichen für neue Entwicklungen – und die Diskussionen, die diesmal hoffentlich voll anlaufen, ehe die Chancen des Eingriffs vertan sind.

WECHSELWIRKUNGEN MENSCH/TECHNIK
Ein typisches Beispiel für nachträgliche Reparaturen, die man an einem bestehenden Erscheinungsbild anzubringen versucht, bietet das System Mensch/Technik, dessen ökologische Auswirkungen man erst jetzt zu erkennen beginnt. Dabei setzt die Kritik fast immer nur an den äußerlich erkennbaren unangenehmen Folgeerscheinungen an und nicht am falschen Prinzip der Anwendung technischer Systeme. Der Fehler liegt vor allem darin, daß der Mensch die Begrenztheit seines Lebensraums und der darin enthaltenen Rohstoffe nicht rechtzeitig erkannt hat. Er überließ sich dem alten Gesetz der Biologie, nach dem sich eine Lebensform stets so weit ausbreitet, bis sie an die natürlichen Grenzen gerät. Es läßt sich leicht nachweisen, daß alle jene prekären Sekundärfolgen, mit denen wir es jetzt zu tun haben, so gut wie ausnahmslos durch die Übervölkerung verursacht sind. Wäre es durch irgendeine rechtzeitig erfolgte Einsicht gelungen, das Bevölkerungswachstum rechtzeitig zu stoppen, dann wären uns alle Umweltprobleme erspart geblieben; das ist die einzige Stelle, an der ein "Nullwachstum" wirklich nötig gewesen wäre. Steigendes Wachstum bei einer beschränkten Zahl von Menschen bedeutet nämlich eine beliebige Steigerung der Lebensqualität; dann hätte man die Beseitigung der Folgen – insbesondere der Schadstoffe, die für alle unliebsamen Veränderungen verantwortlich sind – gut und gern der Regenerationsfähigkeit der Natur überlassen können. Daß uns die Technik heute eher zum Fluch als zum Segen zu gereichen scheint, liegt daran, daß jeder technisch initiierte materielle Fortschritt direkt oder indirekt in eine Erhöhung der Menschenzahl umgesetzt wurde.

Die damit beschriebene Entwicklung hat aber noch eine andere Konsequenz: Da es technische Mittel waren, die die ungeheure Ausbreitung des Menschen ermöglicht haben, so ist der größte Teil der Menschheit von eben diesen technischen Mitteln abhängig geworden – ohne technische Hilfe wäre der weitaus größte Prozentsatz der Menschheit zum Tode verurteilt. Das bedeutet aber, daß die blinde Technikfeindlichkeit, die als primitive Reaktion auf die Umweltsituation immer häufiger wird, lediglich zu einer Verringerung der Chancen führen kann, die noch bestehen. Denn dieses lebensnotwendige, doch keineswegs unbedenkliche Werkzeug Technik wird sich unter den eingetretenen schwierigen Umständen nur meistern lassen, wenn man es mit positiver Zuwendung aufgreift und nicht wenn man es ignoriert oder ablehnt.

Die Technik, die im Kreuzfeuer der Kritik steht, ist nur ein kleiner Teil davon, näm lich jene, die physikalisch und chemisch fundiert ist. Dabei vergißt man, daß Technik jede Art von systematischer Anwendung naturwissenschaftlicher Erkenntnisse bedeutet, daß es also auch eine Biotechnik, eine Psychotechnik und eine Soziotechnik gibt. Mit biotechnischen Methoden hat es der Mensch fertiggebracht, sich vom Jäger und Sammler zum Bauern, zum seßhaften Viehzüchter und Ackerbauern, zu verwandeln. Die Eingriffe in die Ökologie, die dadurch angebahnt wurden, bedeuten schließlich weitaus intensivere Veränderungen in unserem Lebensraum als alle anderen technischen Eingriffe zusammengenommen. Eine Biotechnik, die auf moderner Forschung beruht – beispielsweise jener der Genetik – kann noch viel stärkere Umwälzungen nach sich ziehen, wobei allerdings zu hoffen ist, daß neu eingeführte Techniken – im Gegensatz zu früher – auf allgemeinere Interessen abgestimmt werden. Die Psychotechnik steckt erst in ihren Anfängen – da und dort macht man in Unterricht oder Werbung davon Gebrauch. Und ähnliches gilt für die Soziotechnik, den gezielten Eingriff in das Verhalten der Bevölkerung, die Manipulation des Menschen als Massenwesen.

Die Unterteilung der Erscheinung Technik kann aber auch nach einem anderen Gesichtspunkt vor sich gehen, und zwar kann man energetische und informationelle Technik unterscheiden. Energetische Technik ist jene, die mit materiellen Gütern zu tun hat und dabei große Mengen Energie umsetzt. Informationelle Technik dagegen betrifft, wie schon der Name andeutet, den Umsatz von Informationen; dazu gehören insbesondere deren Speicherung, deren Verbreitung, deren Verarbeitung und deren Erzeugung. Denn im Gegensatz zur Energie kann Information sowohl produziert wie auch vernichtet werden, und dieser so allgemein-abstrakt anmutende Satz hat erhebliche Auswirkungen für die damit zusammenhängenden technischen Praktiken. Das gilt beispielsweise für die Tatsache, daß der Rohstoff energetischer Technik begrenzt ist, während die informationelle Technik keinerlei Einschränkungen unterliegt. Das bedeutet nichts anderes, als daß es beispielsweise für Bildung oder Kunst keine materiellen Grenzen gibt. Und hieraus wieder folgt der wichtige Schluß, daß die "Grenzen des Wachstums" für informationelle Bereiche nicht gelten.

Natürlich hat es seinen Grund, daß diese Uberlegungen den Ausführungen über die "elektronische Kunst" und den damit zusammenhängenden Problemen vorausgeschickt werden. Tritt man nämlich für den Einsatz technischer Mittel im Raum der Kunst ein, so wird dadurch die Frage herausgefordert, ob man eigentlich in einer Welt, in der sich die Technik als so gefährlich erwiesen hat, nicht wenigstens den Raum der Kunst von ihr freihalten sollte. Die Antwort darauf fällt nun leicht: Die hierfür erforderliche Technik unterscheidet sich grundlegend von der im Mittelpunkt der Diskussionen stehenden Energietechnik. Sie gehört zur informationellen Technik, die mit einem Minimum an Material und Energie auskommt. Andererseits aber – und daran kann kein Zweifel bestehen – führt der Einsatz technischer Mittel stets zu einer gewaltigen Steigerung: Aufgaben, die vorher als unlösbar galten, werden gelöst, die erzielten Wirkungen intensiviert, die betroffenen Räume erweitert. Was aber könnten wir uns in einer Welt, deren materielle Reserven nahezu erschöpft sind, besseres wünschen, als daß wir einen beglückenden Ausgleich in geistigen Bereichen finden. Das sind aber genau jene, in denen die informationelle Technik einen entscheidenden Beitrag leistet.

Wie die Geschichte zeigt, entwickelt sich jede Technik über verschiedene Stadien, und zwar beginnend bei der Mechanik über Optik und Elektrizität bis zur Elektronik und Automation. Das liegt einfach daran, daß mechanische Erscheinungen am einfachsten einsichtig sind, während man sich mit den anderen Disziplinen in abstrakte Regionen beginnt, die unserer Vorstellungsgabe nur indirekt zugänglich sind. Aber auch dieser Weg kennzeichnet verschiedene Stadien wachsender Effektivität. Die Mechanik stellt gewissermaßen das gröbste technische Stadium dar, in dem schwere materielle Körper bewegt werden – mit entsprechender Abnutzung und unvermeidlichem Energieverbrauch als Konsequenz. Optik und Elektrizität beruhen auf immateriellen Vorgängen, die unter energetisch günstigeren Bedingungen und deshalb auch erheblich schneller ablaufen. Die Automation schließlich ist eine informationelle Technik, in der der Energieverbrauch im Vergleich zu den anderen Sparten verschwindend klein ist. Dabei dreht es sich um Steuerung und Kontrolle – Begriffe, die sich materiell als "Knopfdruckprozesse" manifestieren, d. h. also lediglich durch lenkende Eingriffe in Systeme, wobei beliebig große Massen und hohe Energien praktisch ohne energetischen Aufwand in Bewegung gesetzt werden. Die eigentlichen Probleme, um die es dabei geht, liegen im logischen Bereich, der wieder auf dem Erfassen von Situationen und Zusammenhängen beruht.

Es braucht nicht weiter begründet zu werden, daß Anstrengungen auf diesem Gebiet, im Sektor der Informationsverarbeitung, auch zu einer weitaus günstigeren Handhabung der materiellen Systeme führt. So sind beispielsweise einfache Einsparungen, die auf geringerem Verbrauch beruhen, recht wirkungslose Maßnahmen; zu weitaus besseren Lösungen kommt man, wenn es etwa gelingt, bisher ungenutzte Reserven zu aktivieren oder Verluste zu vermeiden. Hätte die Menschheit beispielsweise in der beginnenden Metallzeit versucht, dem Kupfermangel durch Rationierungsmaßnahmen entgegenzuwirken, wäre ihre Entwicklung schon damals zu Ende gewesen. Nur die Innovation, in diesem Fall der Erwerb von Kenntnissen, die die Nutzung anderer Metalle betreffen, bringt eine echte Bereicherung mit sich. Die Geschichte der Menschheit ist eine Geschichte technischer Innovation und hätte sich ohne diese nicht vollziehen können. Und wenn vieles davon auch den energetischen Sektor betrifft, so gehören die Kenntnisse, die Methoden der Problemlösung, die technischen Strategien usw. doch in den Bereich der Information.

Das ist auch der Grund dafür, daß Innovationen, die das "information handling" betreffen, besondere Marksteine im Laufe historischer Prozesse sind. Der erste, der hier nicht ausgeklammert bleiben soll, gehört noch in ein biologisches Entwicklungsstadium: das Aufkommen der Sprache. Er hatte nicht mehr und nicht weniger zur Folge als die Entstehung des homo sapiens. Will man die Wirkungsweise der modernen elektronischen Medien erfassen, dann muß man sich die Bedeutung der Sprache vor Augen halten: Bei Pflanzen und Tieren entwickeln sich neue Verhaltensweisen – bessere Anpassungen an Umweltverhältnisse durch Mutationen in den Genen. Was sich bewährt hat, wird dort aufgezeichnet und auf diesem Weg den Nachkommen vererbt. Um entscheidende Schritte in der Entwicklung zu vollziehen, sind Zeiträume von Millionen Jahren nötig. Mit Hilfe der Sprache reduziert sich der Zeitaufwand eines solchen Anpassungsprozesses auf wenige Jahre oder – rechnet man die Zeit der Prüfung auf Bewährung mit ein – einige Generationen. Wissen kann aber nun auch in der "Horizontalen", also von Mensch zu Mensch, weitergegeben werden, und nicht nur in der "Vertikalen", wie das die biologische Evolution vermag. Folge davon ist, daß vom Moment der Verfügbarkeit sprachlicher Mittel an die biologische Evolution durch ein anderes, weitaus schneller funktionierendes System der Anpassung und dadurch steigender Lebenstüchtigkeit abgelöst wird.

Der nächste Schritt der Entwicklung, das erste Ergebnis menschlicher Erfindungskraft, ist die Schrift. Sie ist ein Mittel der Speicherung und Weiterleitung von Information und verstärkt somit den durch die Sprache erreichten Effekt. Eine weitere Potenzierung der Wirksamkeit wird durch die Buchdruckerkunst erzielt – als Vervielfältigungstechnik ein typischer Vorläufer der modernen Massenmedien.

Auch am Beispiel der Informationsverarbeitung ist zu erkennen, daß der Weg technischer Entwicklung von der Mechanik über einige Zwischenstufen bis zur Elektronik mit all ihren technischen Möglichkeiten führt. Die Methoden der schriftlichen Aufzeichnung und des Drucks funktionieren auf mechanischer Basis; der nächste wichtige Schritt erfolgte anfangs des elektrischen Zeitalters, und zwar durch Telegraf und Telefon, Anlagen, mit denen man sich die mit Lichtgeschwindigkeit erfolgende Ausbreitung elektrischer Wellen und Impulse nutzbar macht. Dadurch reduziert sich der Zeitaufwand für die Weitergabe von Information von Wochen oder Tagen auf unmittelbare, verzögerungsfreie Kommunikation. Hier tritt einer jener Fälle auf, wo "Quantität in Qualität umschlägt": Durch die verzögerungsfreie Weiterleitung von Nachrichten wird nämlich durch den Dialog über das Medium das direkte Wechselgespräch möglich. Das ist zugleich auch ein Beispiel für die Tatsache, daß die wachsende Technisierung auch wieder verlorengeglaubte menschliche Aspekte ins Spiel bringen kann – in diesem Fall durch die übertragene menschliche Stimme mit all ihrem Ausdrucksvermögen, das weit über den Text hinausreicht. Sind Telegraf und Telefon noch individuelle Verständigungssysteme, so haben wir es bei Funk und Fernsehen mit Schulbeispielen der Massenkommunikation zu tun: Ein Sender erreicht eine Vielzahl, normalerweise Millionen von Hörern oder Sehern. Wichtige Nachrichten, ob sie nun verbal oder visuell gefaßt sind, erreichen die interessierte Öffentlichkeit unmittelbar – im Gegensatz zu den biologischen Kommunikationssystemen eine geradezu unglaubliche Erhöhung der Effizienz des Werkzeugs Nachricht. Eine offene Frage ist allerdings, ob man von den gebotenen Möglichkeiten wirklich optimalen Gebrauch macht. In ähnlicher Weise wie mit Hilfe der Elektrizität die Nachrichtenverbreitung revolutioniert wurde, so ergaben sich damit Hand in Hand auch neue Methoden der Dokumentation. Schallplatte und Tonband halten akustische Erscheinungen fest, insbesondere Sprache und Musik, die Fotoschicht und das Videoband sind Mittel zur Bewahrung visueller Geschehnisse.

Die modernen Mittel der Kommunikation bringen ein überaus reiches Informationsangebot mit sich, an dem man bereits wieder negative Kehrseiten zu erkennen beginnt: die viel zitierte Reizüberflutung. Klagen dieser Art sind berechtigt, wo die Information in aufdringlicher Weise angeboten wird, insbesondere, wenn sie mit Lärm verbunden ist. Auf einem anderen Blatt steht die Tatsache, daß der Mensch, um auf dem laufenden zu sein, vielleicht eine größere Zahl von Informa tionen aufnehmen und verarbeiten muß, als das früher einmal der Fall war. Prinzipiell aber ist die Verfügbarkeit von Information, der jederzeit mögliche billige Zugriff, ein Positivum unserer Welt. Im wachen Zustand nimmt der Mensch über Augen, Ohren und andere Sinnesorgane ununterbrochen Information auf, ob er in einer naturbelassenen oder in einer modernen technischen Umgebung lebt. So könnte also auch der einsam lebende Bergbauer über Informationsüberflutung klagen. Inzwischen hat man aber erkannt, daß es bei jeder Art von Wahrnehmung, ob es sich nun um die visuellen und akustischen Muster der freien Natur oder um jene der modernen Großstadt handelt, auf richtige Selektion ankommt. Das bedeutet, daß der Mensch die Fähigkeit besitzt oder – falls nötig – zusätzlich erwirbt, banale, also für ihn unnütze oder gleichgültige, Information von wichtiger zu trennen und seine Aufmerksamkeit auf diese zu richten. Wenn Fernseher an die Anstalt mit der Bitte herantreten, die Programme um elf Uhr zu beenden, da sie sonst um ihren wohlverdienten Schlaf kämen, so zeigt sich darin nur, daß der Benutzer das System falsch verstanden hat. Massenmedien können sich nur auf durchschnittliche, in großen Teilen der Bevölkerung auftretende Wünsche einstellen – eben auf die, in denen deren Bedürfnisse und Erwartungen ähnlich sind. Zur Deckung des individuellen Bedarfs sind andere Mittel vorhanden, beispielsweise Bibliotheken, Theater und Kinos, Vorträge und Kurse und nicht zuletzt das persönliche Gespräch. Nimmt man all das zusammen, dann muß man zugeben, daß zumindest die Bevölkerung in den demokratischen Ländern in einem Schlaraffenland der Information lebt – praktisch ist jedem jede Information zugänglich, und selbst die Kosten spielen dabei eine recht untergeordnete Bedeutung. Dieses Angebot kann jeder in einer auf die eigene Persönlichkeit bezogenen Art ausnützen, beispielsweise um seine Kenntnisse zu erweitern, seine Bildung zu erhöhen, sich zum Nachdenken anregen zu lassen, kritisch denken zu lernen, differenziertere Einstellungen zu allen möglichen Problemen zu finden und eigene Schlüsse daraus zu ziehen. Wenn davon viel zu wenig Gebrauch gemacht wird, so liegt das nicht an den Medien und ihrer Organisation.
KUNST IM ELEKTRONISCHEN ZEITALTER
Die ersten Berührungspunkte zwischen Kunst und Elektronik ergaben sich in den Aufgaben der Speicherung und Wiedergabe. Wenn die dafür entwickelten Medien, beispielsweise Schallplatte und Magnetband, in Aktion treten, ist der eigentliche künstlerische Akt bereits vorbei, nämlich die Entstehung des Kunstwerks. Das ist der Grund dafür, daß man von seiten der mit Kunst befaßten Wissenschaften lange Zeit nur am Rande Notiz davon nahm. Früher war die Kunstwissenschaft ganz auf die Entstehungsphase und damit auf die Person des Künstlers ausgerichtet. Später erst begann man zu beachten, daß Kunst ein kommunikativer Prozeß ist, dessen Wirkung fraglich bleibt, wenn das Kunstwerk nicht irgendwann und irgendwo ein Publikum erreicht. Damit trat die Rezeption der Kunst ins Blickfeld, und damit wurde auch der große Einfluß der Verbreitungs- und Wiedergabemedien deutlich. Sieht man Kunst als einen Prozeß an, der sich in der Gesellschaft vollzieht und in dem auch das Publikum seinen Stellenwert hat, dann wird auch erkennbar, daß die heutige Situation der Kunst ohne diese Medien nicht denkbar wäre.

Das gilt insbesondere für die Musik. Hier tritt der bemerkenswerte Fall ein, daß über Speichermedien abgespielte Werke unter Umständen bessere akustische Bedingungen bieten als die übliche Art der Wiedergabe in einem Konzertsaal. Daraus wieder ergibt sich die Konsequenz, daß man sich bereits bei der Aufführung der elektronischen Hilfsmittel bedient, also beispielsweise Instrumente und Stimmen über Mikrofone und Lautsprecher wirken läßt. Zunächst war es die Aufgabe dieser Medien, den möglichst "naturgetreuen" Eindruck wiederzugeben, später aber trat mehr und mehr das Ziel einer "Verbesserung" in den Vordergrund. Manche Live-Präsentationen der RockSzene wären etwa ohne elektronische Hilfsmittel nicht denkbar, und bekanntere Gruppen führen neben ihren Instrumenten ganze Wagenladungen von Tonabnehmern, Leitungen, Verstärkern und Lautsprechern mit sich. Den Höhepunkt erreicht diese Technik in den Studios, wo die Musik oft genug in Stimmen zerlegt, akustisch verbessert oder verfremdet und später zusammengefügt und überlagert wird. Das Stück, das schließlich von der Platte kommt, hat es in dieser Form vorher nie gegeben.

Zum Unterschied zu den Musikinstrumenten bis hin zu den Synthesizern stehen sowohl die fotografischen wie auch die fernsehtechnischen Mittel im Dienste der Wiedergabe und nicht der Erzeugung von Bildern. Demgegenüber existierte aber schon lange der Wunsch, auch für die Anfertigung visueller Darstellungen ein Instrument zu besitzen, das den Aufbau der Struktur von den Elementen aus erlaubt. Ein Beispiel für eine solche Idee ist die Lichtorgel, mit der freie visuelle Kompositionen in ähnlicher Weise wie Musikstücke hervorzubringen sein sollten; einige Prototypen solcher Instrumente gehen bis zur Jahrhundertwende zurück, doch haben sie letztlich die erwarteten Hoffnungen nicht erfüllt und konnten sich nicht durchsetzen. Dagegen sind in der Geschichte der Kunst – wenn auch selten in diesem Zusammenhang gesehen – einige Aktivitäten bekannt, die durchaus ein gewisses Maß visueller Gestaltung zulassen. Die älteste Form ist das schon im alten China praktizierte Feuerwerk, ein echtes Spektakel für große Volksmassen und somit auch durchaus modern in der Konzeption. Erwähnenswert sind weiter die Wasserspiele, kunstvolle Brunnenanlagen, die insbesondere aus dem Barock bekannt sind. Auch in der Moderne gibt es Beispiele dafür, etwa den Wiener Hochstrahlbrunnen mit seinen von unten her farbig beleuchteten beweglichen Fontänen. Höchste Vollendung hat diese Kunstform in einer Anlage für Bühnenpräsentation gefunden, die man vor Filmen oder bei Varietévorstellungen als besonderen Effekt vorführt. Weitaus bescheidener mutet das Kaleidoskop an, das aber wegen seines Gestaltungsmodus mit Hilfe von Zufallsprozessen bemerkenswert ist. In der neuesten Zeit wird schließlich auch Licht als gestaltendes Medium eingesetzt. Beispiele dafür sind die Lichtskulpturen von Hans-Martin Ihme oder die "Sonnenmalerei" von Professor Hoenig, der die Reflexe von Sonnenstrahlen durch eigens angefertigte Metall- und Spiegelsysteme an die Wand wirft.

Offenbar bedeuten aber alle diese Methoden noch nicht die endgültige Lösung des alten Problems, des Wunsches nach einem eigenständigen visuellen Gestaltungsinstrument. Dieser scheint sich eher auf andere Art verwirklichen zu lassen, und zwar durch eine Weiterentwicklung und Verfremdung längst eingeführter Wiedergabemethoden. Medien wie Fotografie und Fernsehen wurden zunächst mit der Zielsetzung entwickelt, möglichst getreue Abbilder hervorzubringen. Erst nachträglich wurde es klar, daß jedes Abbild mit Abweichungen vom Original verbunden ist. Sehr deutlich wird das beispielsweise bei der Schwarzweiß-Wiedergabe von bunten Szenen, aber auch die Projektion auf die Bildebene bedeutet einen starken verändernden Eingriff – von der Wiedergabe von "Wirklichkeit" kann keine Rede sein. Nun ist es aber bei allen diesen Medien relativ einfach, auch andere Kennzeichen von Bildern absichtlich zu verändern,. um auf diese Weise besondere Effekte zu erhalten. Sowohl in der Fotografie wie auch in der Fernsehtechnik besteht die Möglichkeit, Szenen mit falschen Farben wiederzugeben oder auch ihre Umrisse herauszupräparieren – Auch die Schärfe der Wiedergabe läßt sich, wenn nötig, bis zur Unkenntlichkeit reduzieren, Bilder können verzerrt oder auch überlagert werden – ändernden Eingriffen dieser Art sind keine Grenzen gesetzt.

Die ersten Versuche, vom fotografischen Abbild wegzugehen, fallen ins erste Viertel dieses Jahrhunderts. Die bekanntesten Repräsentanten dieser Art von Fotografie sind Laszlo Moholy-Nagy, Man Ray und Heinz Hajek-Halke. In spielerischer Art versuchten sie die Möglichkeiten auszuloten, die die Kamera zur Erzeugung stark verfremdeter oder auch ungegenständlicher Bilder bot. Wie Moholy-Nagy berichtet, machte er beim Fotografieren und beim Entwickeln genau das, was normalerweise als "falsch" gilt – er schwenkte die Kamera während der Aufnahme und ließ Licht auf den belichteten Film fallen. Merkwürdigerweise entstand durch diese unkonventionelle Arbeitsweise eine Reihe von bemerkenswerten Bildern, die an bestimmte Stilrichtungen der Grafik und der Malerei erinnerten oder auch ganz neue Effekte einer "Lichtgrafik" erbrachten. Auch die Anfänge der Videokunst sind eher dem freien Experimentieren verwandt als der systematischen Erarbeitung einer neuen Methodik. Der bedeutendste Repräsentant dieser Richtung ist June Paik, der mit seinen Arbeiten 1963 zum ersten Mal an die Öffentlichkeit trat. Seine Bilder erschienen auf den Leuchtschirmen von Fernsehgeräten, die er verändert hatte, beispielsweise durch den Einbau von Magneten, die Bildverzerrungen bewirkten.

Die Richtung der Videokunst, die sich zunächst durchsetzte, führte wieder zum Abbild zurück. Les Levine baute ein Gestell, das vier Kameras und einige Fernsehmonitore enthielt und nannte es "A Cybernetic Sculpture". Hier konnte sich der Zuschauer aus verschiedenen Perspektiven und in verschiedenen Farben selbst betrachten. Die Welle der "Videoart" wurde wieder von June Paik eingeleitet, der damit auch gleich das Vorbild für viele weitere Darstellungen gab: Mit einem einfachen Videorekorder hatte er eine Taxifahrt dokumentiert. Die Bänder, die in den folgenden Jahren – zwischen 1965 und 1972 – entstanden, waren ähnlich in der Auffassung: alltägliche Szenen, oft ohne Schnitte über längere Zeit hindurch aufgenommen, manchmal aber auch bunt gemischt und überlagert, mit absichtlich mangelhafter Technik reproduziert. Die meisten dieser Arbeiten wirken unerträglich langweilig, was von den Künstlern als Strategie zur Freisetzung eigener Gedanken beim Betrachter kommentiert wird.

Eine neue Richtung der Videokunst wurde durch den Videosynthesizer eingeleitet. Das erste Gerät hatte June Paik zusammen mit dem Ingenieur Shuya Abe konstruiert. Im Prinzip handelt es sich um ein Mischpult, mit dem man verschiedenste Formelemente auf dem Bildschirm erzeugen und kombinieren kann. Hier ergab sich zum ersten Mal die Möglichkeit einer grafischen Improvisation bewegter abstrakter Vorgänge, und zwar ohne jene technischen Voraussetzungen, die den entsprechenden Gebrauch eines Musikinstruments äußerst schwierig machen. Bei seiner Erstaufführung spielte June Paik eine vier Stunden lange Bildfolge ab und wies auf die Möglichkeit hin, daß sich auch der Laie eines solchen "elektronischen Malkastens" bedienen könne.

Es ist in der Geschichte der Kunst schon manchmal vorgekommen, daß die Pioniere eine Verbindung bestimmter Stilrichtungen mit dem neuen Instrumentarium hergestellt haben, so daß dieser Zusammenhang in der Öffentlichkeit als gegeben und zwingend aufgefaßt wurde. Das gilt beispielsweise für die "elektronische Musik", die man sich normalerweise atonal vorstellt, obwohl das keineswegs so sein muß. Ähnliche Vorurteile ergaben sich auch gegenüber der Videokunst. Doch inzwischen gibt es genügend Beispiele dafür, daß auch das Instrumentarium der Fernsehtechnik einen gezielten Aufbau hoch komplexer ästhetischer Ordnungen erlaubt. Einer der Pioniere dieser Richtung ist Alexandre Vitkine, der ein eigenes Instrumentarium zur Steuerung umgebauter Fernsehgeräte geschaffen hat. Inzwischen wurden verschiedene Systeme anspruchsvoller Videosynthesizer entwickelt, in Paris beispielsweise der "Truqueur-Universel" sowie der "EMS Videosizer" von Ludwig Rehberg. Mit diesen Instrumenten entstanden inzwischen eine Reihe von Werken, die sich grundlegend von den Resultaten der früheren Videoart unterscheiden – komponierte Farb-Form-Spiele, die ein Analogon zur Musik bilden und auch als "grafische Musik" bezeichnet werden können. Unter den bemerkenswertesten Autoren dieser Richtung sind neben Ludwig Rehberg auch Manfred Kage und Paul Jenewein zu nennen. Auch von diesen unter definierbaren Zielvorstellungen entstandenen Arbeiten läßt sich eine Brücke zum Computer schlagen – und tatsächlich bahnt sich als neueste Entwicklung eine Verbindung zwischen Videoart und Computerfilm an. Als Konstrukteur und Autor ist hier insbesondere Jean François Colonna zu nennen.

Als eine an technische Instrumente gebundene Darstellungsform ist schließlich das Fernsehen zu nennen, das in all seinen Bereichen eigenständige Präsentationsformen entwickelt hat, die allerdings fast ausnahmslos auf der Wiedergabe von Realszenen beruhen. Dabei könnte das Fernsehen ein hervorragendes Medium zur Übermittlung von abstrakten Farb-Form-Kompositionen sein – als Vorbote einer neuen Kunstform, die einesteils der Videoart, andererseits dem Computerfilm entspringen. Ansätze sind durchaus vorhanden, beispielsweise die in Werbesendungen eingesetzten Pausensequenzen mancher Regionalprogramme. Im Bayerischen Fernsehen beispielsweise wurden längere Zeit hindurch kaleidoskopische Abläufe gezeigt, während man in der letzten Zeit zu elektronisch erzeugten Schwingungsbildern übergegangen ist. Und im Österreichischen Fernsehen werden gelegentlich Bewegungen farbiger Flüssigkeiten gezeigt, die, in einer vertikalen Achse gespiegelt, wie seltsame organische Formen anmuten. Wie zum Gebrauch des Fernsehens geschaffen sind dagegen die Resultate aus dem Videosynthesizer und aus dem für grafische Zwecke eingesetzten Computer. Bisher wurden sie kaum als eigenständige Produkte geboten. Dr. Paul Jenewein stellte für das Österreichische Fernsehen eine Sendereihe über Videoart und Computerfilm zusammen, in der hervorstechende Beispiele dieser Sparten zu sehen waren. Videogenerierte Passagen werden auch gelegentlich als immaterielle Kulisse zu Fernsehspielen oder musikalischen Darbietungen gebraucht. Bemerkenswert ist schließlich, daß sich Effekte dieser Art in der Rockszene durchgesetzt haben. Auch in Science-fiction-Filmen macht man sich diese Methoden zunutze, allerdings auch wieder nicht als neue Kunstform, sondern ins Geschehen eingekleidet und durch irgendeinen Sinnzusammenhang motiviert; ein Beispiel dafür ist das in Produktion befindliche Science-fiction-Stück "Die Stimmen der Sylphiden", zu dem Manfred Kage die abstrakten Bildszenen liefert. Es könnte durchaus sein, daß sich das Publikum auf diese Weise an eine zunächst recht ungewohnt scheinende Ausdrucksform gewöhnt und daß das abstrakte Farb-Form-Spiel, die "grafische Musik", schließlich zum festen Bestandteil der Fernsehdarbietung wird.
DATENVERARBEITUNG - COMPUTER
Die Medien, von denen bis jetzt die Rede war, erfüllen die Aufgaben der Speicherung und Verbreitung von Information. Diese Aufgaben kann man als triviale Fälle des Informationsumsatzes ansehen, nämlich solche, bei denen die Information unverändert erhalten bleiben soll. Die dennoch auftretenden, unvermeidlichen Veränderungen werden als unerwünschte Nebenwirkungen empfunden. Die Geräte, die diese Aufgabe vollziehen, gehören zwar schon zu den Systemen der Datenverarbeitung, sind aber noch physikalische Maschinen des klassischen Typs.

Die weitaus anspruchsvollere Art des Informationsumsatzes ist ihre Verarbeitung. Im einfachsten Fall kann es sich um Auswahl oder Ordnungsprozesse handeln, typische Beispiele von Informationsverarbeitung, sind Rechenprozesse und logische Schlußfolgerungen, aber auch Wahrnehmen und Denken sind Fälle einer hochkomplexen Umsetzung von Information. Und schließlich gehören dazu auch kreative Prozesse; man kann sie als solche definieren, bei denen Information entsteht. Diese Art des Informationsumsatzes ist für die Lösung von Problemen kennzeichnend, die auf deterministischem Weg, also durch reine Schlußfolgerung aus bestimmten Regeln, nicht zu lösen sind. Die Fähigkeit, die den Menschen in die Lage versetzt, Leistungen dieser Art zu erbringen, wird als schöpferische Phantasie bezeichnet. Die wichtigsten Beispiele dafür sind wissenschaftliche Entdeckungen, Erfindungen und der künstlerische Schaffensprozeß.

Genauso, wie sich der Mensch bei der Lösung energetischer Probleme durch Maschinen helfen läßt, so setzt er auch Maschinen ein, die ihm bei der Bewältigung des Informationsumsatzes helfen. Die bekanntesten sind Automaten, etwa solche der Steuerung oder der Überwachung. Wenn manche von ihnen auch recht komplizierte Aufgaben lösen, so werden sie doch vom jüngsten Vertreter jenes Maschinentyps weitaus übertrumpft, nämlich vom Computer in all seinen Versionen.

Auch die Datenverarbeitungstechnik hat ihren bei der Mechanik beginnenden und in der Elektronik mündenden Weg genommen. Die erste Rechenmaschine – schon seit Anfang der Geschichtsschreibung bekannt, ist die Kugelrechenmaschine, der "Abakus". Die Zahlen sind durch Kugeln präsentiert, die auf Metallstäben aufgefädelt sind und sich über diese verschieben lassen. Durch die Bewegungen der Kugeln werden Rechenprozesse nachgebildet, so daß der Benutzer, ohne mitrechnen zu müssen, zum richtigen Ergebnis kommt. Handelt es sich beim Abakus noch um ein einfaches Handwerkzeug, so versuchte der Astronom Schickard 1623 eine richtige Rechenmaschine zu bauen, die dann von den Mathematikern und Philosophen Pascal und Leibniz weiterentwickelt wurde. Sie waren die Vorläufer jener mechanischen Rechner, die noch vor kurzem mit den Kassen verbunden in vielen Geschäften standen. Die mit ihnen erfaßbaren Operationen beschränkten sich auf Addieren, Subtrahieren, Multiplizieren und Dividieren.

Wesentliche Funktionsprinzipien moderner Rechner nahm der Engländer Charles Babagge mit der von ihm konstruierten Rechenmaschine vorweg – beispielsweise einen Speicher, in dem die Daten unter bestimmten Kennzahlen, den sogenannten "Adressen", aufbewahrt werden sowie eine Folge von Anweisungen, das sogenannte "Programm".

Der Schritt zur elektromechanischen Technik erfolgte 1941 durch den Deutschen Konrad Zuse, dessen Entwicklungen allerdings durch die Ereignisse des Krieges abgeschnitten wurden. Dagegen konnten sich die Amerikaner Aiken, Stibitz, Eckert-Mauchly und andere ungehindert mit ähnlichen Problemen beschäftigen. Zum Durchbruch kamen sie erst, als sie mit ihrer Recheneinheit ENIAC den Übergang zur Elektronik vollzogen. Sie ist der Ausgangspunkt aller heutigen Computer.

Die rasante Entwicklung, die die Datenverarbeitungstechnik nahm, ist vor allem der Mikrominiaturisierung zu verdanken, einer Technologie, die es erlaubt, komplizierteste Schaltfunktionen mit Hilfe immer kleinerer Einheiten zu bewältigen. Moderne Mikroprozessoren enthalten fingernagelgroße "Chips", am besten als "Schnippsel" zu übersetzen, die die Funktion von über 10.000 Schaltern vollziehen. Alle bisher erwähnten Rechnertypen arbeiten mit Ziffern und gehören deshalb zu den sogenannten "Digitalrechnern". Daneben ist ein anderes Verrechnungsprinzip bekannt, die sogenannte Analogrechenweise. Auch hierfür gibt es einen mechanischen Vorläufer, den bekannten Rechenschieber. Seine Funktion beruht auf dem Prinzip, Zahlen durch Längen darzustellen und diese Längen miteinander zu vergleichen, aneinanderzureihen usf. Da diese Längen "den Zahlen analog sind", bezeichnet man dieses System als Analogrechenweise. In der weiteren Entwicklung wurden die Zahlen durch elektrische Spannungen oder Stromstärken ausgedrückt, die man in ähnlicher Weise vergleichen oder überlagern und damit Rechenprozesse nachahmen kann. Später bediente man sich auch hier elektronischer Mittel und gelangte zum sogenannten "Analogrechner", der neben dem Digitalrechner auch heute noch in bestimmten Spezialbereichen seine Geltung hat. Bei diesem Typ kam es übrigens schon relativ früh zu einer Visualisierung der Ergebnisse, und zwar dadurch, daß die elektrischen Spannungen als Kurvenmuster auf Bildschirmen erscheinen. Da manche davon grafisch recht reizvoll sind, gab es hier auch die ersten Versuche, die man als Vorboten der Computerkunst ansehen kann. Als Pioniere sind hier der Deutsche Gerhard Hille und der Amerikaner Ben. F. Laposky zu nennen.

Die Art und Weise, wie die Daten im Inneren eines Computers umgesetzt werden, ist für den Benutzer unerheblich. Es ist nicht nötig, die Rechenprozesse, ihre Organisation, ihren zeitlichen Verlauf usw. in allen Einzelheiten zu kennen, und bei großen Digitalrechnern ist das auch kaum möglich. Was den Benutzer interessiert, sind die einlaufenden und die ausgegebenen Daten, in der Fachsprache kurz "Eingabe" und "Ausgabe" genannt. Für diese Aufgaben sind besondere Geräte nötig, und zwar deshalb, weil der Computer die Daten in einer Form handhabt, die für den Menschen nur schwer durchschaubar ist – in Form von sogenannten Binärzeichen, also mit Hilfe eines Zahlensystems, das nur aus den Ziffern 0 und 1 besteht. Diese werden als Stromimpulse verschlüsselt.

Man kann die Ein- und Ausgabesysteme deshalb als Übersetzungsautomaten ansehen, die nur für Maschinen verständliche Zeichensysteme in menschliche Sprache oder Schrift übertragen. Das läßt sich auf recht verschiedene Weise erreichen – es kommt auf die beabsichtigte Anwendung an, welche Art der Ein- und Ausgabe man wählt. Die Eingaben können beispielsweise über automatische Schreibmaschinen erfolgen, die die Information entweder über Zwischenspeicher, etwa Lochkarten oder Magnetbänder, oder auch direkt zum Rechner weiterleiten. Die Möglichkeiten der Ausgabe sind ein wenig variabler – man kann die Rechenresultate auf Papier ausgedruckt oder auch auf einem Bildschirm dargestellt erhalten. In vielen Fällen erhält man mit grafischen Schaubildern weit bessere Übersichten; für diesen Zweck wurden computergesteuerte mechanische Zeichenautomaten und elektronische Bildschirmgeräte entwickelt. Auch hier wieder stellte sich heraus, daß manche der aus wissenschaftlichen oder technischen Gründen entstandenen Zeichnungen von überraschender Schönheit waren – Anstoß dafür, zu freien Gestaltungsexperimenten überzugehen, der Anfang der Computerkunst. Recht günstig ist die Kombination von Ein- und Ausgabegeräten, wodurch man eine Art "Dialogbetrieb" ermöglicht. So kann der Computer beispielsweise auf eine über die Schreibmaschine eingegebene Anweisung antworten, indem er Zwischenresultate ausdruckt oder Fragen stellt. Ein solches Wechselgespräch kann auch über den Bildschirm geführt werden; dazu benutzt man einen "Lichtgriffel", mit dem man Linien über die Bildfläche ziehen oder Punkte eintragen kann; sie bleiben dann als Lichtschrift sichtbar, der Computer versteht die auf diese Weise gemachten Angaben und kann darauf, beispielsweise durch Veränderung der grafischen Darstellung, reagieren. Die neueste Entwicklung, die gegenwärtig gerade Eingang in die Praxis findet, ist die Ausgabe durch synthetische Sprache, durch gesprochenes Wort. Es gibt eine Reihe von Anwendungsbeispielen, für die diese Methode besonders günstig ist, etwa für die automatische Auskunftserteilung oder für das Lernen von Fremdsprachen.

In den letztaufgezählten Fällen erfolgt die Verständigung mit dem Computer also durchaus schon auf eine voll auf den Menschen abgestimmte Weise. Am Endpunkt dieser Entwicklung stünde ein Computersystem, dem man seine Anweisungen in menschlicher Sprache geben kann und das auch imstande ist, vorgezeigte Bilder zu erkennen. Bei den ersten Computertypen ergaben sich noch grundlegende Verständigungsprobleme – mit jeder Anlage konnte man sich nur mit einem dazugehörigen speziellen und recht umständlichen Verschlüsselungssystem verständigen. Später wurden diese maschinenbezogenen Programmiersprachen durch anwendungsbezogene ersetzt, beispielsweise ALGOL und FORTRAN, die von den meisten käuflichen Systemen verstanden wurden. Die Übersetzung in den "Maschinencode" unterliegt eigenen, eingebauten Übersetzungseinheiten, den "Compilern". Im Laufe der Zeit bemühte man sich um den Entwurf vereinfachter Sprachen, die auch von Benutzern ohne besondere Vorbildung angewandt werden konnten, doch auch heute noch sind Programmiersprachen unentbehrlich, wenn man die ganze Anwendungsbreite der Systeme ausnützen will.
MASCHINELLE INTELLIGENZ UND GESELLSCHAFT
Maschinen helfen dem Menschen bei der Durchführung verschiedenster Aufgaben. Dabei ergeben sich nicht nur geringfügige Arbeitserleichterungen, sondern grundlegende Änderungen, beispielsweise in der Ausnutzung von Rohstoffen, in der Verbesserung der Produkte und in Preissenkungen, durch die manches, was bisher nur wenigen vorbehalten war, allgemein zugänglich wird. All das kann nicht ohne Auswirkungen auf die Gesellschaft erfolgen, auf den Berufszweig, der sich bisher auf manuelle Art jener Tätigkeit gewidmet hat, die nun die Maschine übernimmt, und auf den Benutzer oder Verbraucher der Güter, die nun als Industrieprodukte erscheinen. Was für große Teile der Bevölkerung außerordentlich günstig erscheint, bringt große Nachteile kleinerer Gruppen mit sich, beispielsweise der Handwerker, denen nun der "goldene Boden" unter den Füßen entzogen wurde. So ist es durchaus berechtigt, von einer "industriellen Revolution" zu reden, wie das in Bezug auf die Maschinisierung im England des vorigen Jahrhunderts geschah.

Wie sich heute schon andeutet, zieht auch das Aufkommen der wirkungsvollen datenverarbeitenden Maschinen eine industrielle Revolution nach sich. Und wieder sind beträchtliche Vorteile zu vermerken, beispielsweise die Entlastung von zeitraubender oder auch langweiliger Denkarbeit, Zeitersparnis, Verbilligung von vielerlei Leistungen und dergleichen mehr, doch auch nachhaltige Veränderungen bei den betroffenen Berufsgruppen. Man sollte jedoch nicht übersehen, daß eine nutzbringende Technologie prinzipiell so eingeführt werden kann, daß sie zu einer allgemeinen Steigerung der Lebensqualität führt; dabei ist allerdings die Aufgabe zu bewältigen, die erreichten Vorteile allen gleichmäßig zukommen zu lassen und unmittelbar betroffene Berufsstände von den negativen Folgen zu entlasten. Die Probleme, die hier zu bewältigen sind, sind keine technischen, sondern soziale. Weniger beachtet, aber auf lange Sicht sicher bedeutungsvoller sind jene Änderungen, die die neuen Technologien in der Gesellschaft mit sich bringen. Die Einsatzmöglichkeiten des Computers in Wissenschaft, Industrie und Büro sind bereits so selbstverständlich, daß man darüber nichts weiter auszuführen braucht. Damit ist die Ausbreitung der Computer aber noch keineswegs zu Ende – für manche recht schockierend ist seine Infiltration in Problembereiche, denen scheinbar kaum mit rationalen Methoden des Rechnens und logischen Schließens beizukommen ist. Ein Beispiel dafür ist der Computer im Spital, wo er nicht nur der Verwaltung hilft, sondern auch bei Diagnose, Therapie und Patientenüberwachung. Auch komplizierte Operationen sind heute ohne Mitwirkung von Computern kaum noch denkbar. Ein anderes Gebiet, in dem der Computereinsatz vorbereitet wird, ist die Rechtsprechung. Im Prinzip handelt es sich dabei um die Anwendung bestimmter Regeln, aus denen die Entscheidung über Recht oder Unrecht und über die angemessene Strafe abzuleiten ist. Manche dieser Regeln, beispielsweise für das Finanz- und Steuerwesen, sind durch eine Vielzahl von Änderungen und Anpassungen an Spezialfälle so kompliziert geworden, daß der Mensch kaum noch imstande ist, sie zu überblicken. In diesem Fall lassen sich die besonderen Fähigkeiten des Computers, seine große Speicherkapazität und seine schnelle und präzise Arbeitsweise, bestens nutzen. Es wäre schon ein erheblicher Vorteil, wenn man den Computer in Bagatellfällen anwenden würde – was menschliche Anwälte und Richter für schwierige und ernste Fälle freisetzen würde. In Vorbereitung befinden sich auch Übersetzungsprogramme, mit denen sich die in der internationalen Kooperation so hinderlichen Sprachbarrieren überwinden ließen. Wenn auch das Problem einer sprachlich einwandfreien oder gar literarisch schönen Übersetzung noch nicht gelöst ist, so liefern die entsprechenden Programme doch immerhin schon verständliche Texte, die nur noch einer überschlägigen Bearbeitung durch Fachübersetzer bedürfen. Erwähnenswert in diesem Zusammenhang sind auch die Datenbanken, elektronische Informationszentralen, die die heutigen Bibliotheken ersetzen. Die Vorteile liegen auf der Hand: Was in einer solchen Datenbank eingespeichert ist, kann praktisch ohne Wartezeit an jeden Punkt der Erde geleitet werden, an der eine Datenendstation, ein sogenanntes "Terminal" steht. Zur Weiterleitung kann man sich dabei des Telefonnetzes bedienen. Modern konzipierte Datenbanken erfüllen aber noch ganz andere Funktionen als die der Speicherung und Weiterleitung der Information. Sie können aufgrund eingegebener Stichworte bestimmte Literaturstellen heraussuchen, sie sind fähig, Auszüge und Zusammenfassungen herzustellen, und künftig werden sie nebenbei auch die erwähnte Übersetzungsaufgabe lösen, so daß man jeden beliebigen Text in jeder beliebigen Sprache erhalten kann.

An diesem Beispiel ist deutlich zu erkennen, wie durch eine stetige Ausweitung der Funktionen immer größere Leistungen erbracht werden können – wodurch sich auch immer breitere Anwendungsmöglichkeiten ergeben. So bedarf es beispielsweise nur gewisser ergänzender Programme, um aus der erwähnten Datenbank ein zentrales Unterrichtssystem zu machen. Im wesentlichen handelt es sich dabei um eine Aufbereitung der Lerninformation in eine Form, die der Benutzer gut aufnehmen kann, in eine Unterteilung in "Lernpakete", die der Aufnahmefähigkeit individuell angepaßt sind; automatisch wird dabei auch für die notwendige Zahl von Wiederholungen bis zur festen Verankerung des Lernstoffs im Gedächtnis gesorgt. Im Gegensatz zu früher praktizierten Lernsystemen handelt es sich dabei um ein flexibles System, das sich den persönlichen Fähigkeiten jedes einzelnen Benutzers anpaßt. Dazu werden seine während der Abfragephase gegebenen Antworten statistisch aufgeschlüsselt und das Lerntempo, die Zahl der Wiederholungen usw. diesen Ergebnissen angepaßt. Auch mit Hilfe des Computers bleiben dem Lernenden die nötigen Anstrengungen nicht erspart, aber er vermeidet Langeweile, Leerlauf und Überforderung und bekommt seinen eigenen Weg zum Erfolg gewiesen. Diese Arbeitsweise hat einen bemerkenswerten Nebenaspekt: Hier fällt nämlich die Notwendigkeit einer zentralen Schule weg – jeder kann sein Lernpensum zu Hause abhalten. Das braucht keineswegs zu einer Isolierung zu führen – es gibt auch eine Menge von Lehrgebieten, die sich nur in der Gruppe ausüben lassen, beispielsweise freie Rede, Diskussion, Musik und Sport, und diesen könnte man größere Aufmerksamkeit schenken, wenn die individuelle Lernarbeit konzentrierter verlaufen würde.

Ähnliche Auswirkungen könnten sich aber schließlich auch im Berufsleben ergeben. In einer Zeit, in der nur noch wenige Werktätige direkt mit ihrem Material in Berührung kommen, sondern mit Steuer- und Kontrolleinheiten, mit Hebeln, Druckknöpfen und Tastaturen arbeiten, besteht keine Notwendigkeit mehr, sich an einem gemeinsamen Arbeitsplatz zu versammeln. Benützt man die entsprechenden Telesysteme – in den meisten Fällen wird das über Telefonleitungen möglich sein – dann kann man einen großen Teil seiner Arbeit zu Hause verrichten. An diesem Zukunftsbild wird deutlich, in welcher Weise allein die Verfügbarkeit bestimmter technischer Mittel in die Art des menschlichen Zusammenlebens eingreift. Im beschriebenen Fall würde sich ein engeres Zusammenleben der Familienmitglieder ergeben, eine größere Freiheit bei der Arbeitseinteilung, die Ungezwungenheit und Bequemlichkeit, die nur das häusliche Milieu bieten kann. Es würde bedeuten, daß die riesigen Fabriken und Büros, die heute ganze Stadtviertel einnehmen, verschwinden würden; stattdessen müßte für Lern- und Arbeitsräume in den Privatwohnungen gesorgt werden – etwa in der Art, wie das bei freischaffenden Berufen schon heute üblich ist. Das hätte auch äußerst positive Konsequenzen auf den Verkehr; in Schule und Büro würde man sich nur noch für wenige Stunden gemeinschaftlicher Unternehmungen begeben, und somit fiele der gefährliche Schulweg wie auch der zermürbende Berufsverkehr weg. Durch die Verminderung des Streß und den Zeitgewinn wäre außerdem noch eine Leistungssteigerung zu erwarten; und außerdem ließe sich leicht dagegen vorsorgen, daß die Verlagerung der Arbeit in die Privatsphäre zu Faulheit und Bequemlichkeit führe – denn über die elektronischen Systeme ließe sich sehr gut kontrollieren, wie lange der Benutzer arbeitet und welche Leistung er vollbringt.

So wesentlich die erörterten Änderungen auch sein mögen, so betreffen sie doch nur Sekundärfolgen. Der wesentliche Einfluß der maschinellen Intelligenz, die mit den Computern verfügbar wird, liegt in neuen Denk- und Verhaltensweisen, die sich aus der Zusammenarbeit mit der Maschine ergeben. Hatten schon die Buchdruckerkunst und später die Massenmedien durch die von ihnen ermöglichte rasche Verbreitung der Information nachhaltige Folgen auf die allgemeine Vorstellungswelt, den Bildungsstand, das Kritikvermögen usw., so läßt sich nun mit den Computern die Intelligenzleistung des Menschen um Größenordnungen steigern. Dieser Effekt wurde bisher nur dort deutlich, wo Großrechner vorhanden sind, also in wissenschaftlichen Instituten, in Industriewerken, in der Verwaltung, beim Militär usw. Eine allgemeine Nutzung dieser Potenz könnte sich durch Datenbanken und zentrale Informationssysteme ergeben, wie sie heute schon in Verbindung mit unserem Fernsehnetz aufgebaut werden; dazu gehört beispielsweise die sogenannte "Fernsehzeitung", in denen die Leerphasen zwischen den Bildläufen genutzt werden, aber auch Auskunftsdienste, die bereits in der Entstehung begriffen sind. So wird man beispielsweise über das Telefon Zugauskünfte anfordern können, die dann als Bildtext über die Fernsehsichtscheibe gegeben werden. Und diese Methode läßt sich beliebig ausbauen – so wird man beispielsweise in Zukunft über seinen Fernsehapparat Sichtverbindung mit Kaufhäusern bekommen und die ausgewählten Kaufobjekte über Knopfdruck anfordern können.

Die Geschichte der Technik beweist allerdings, daß die Abläufe nicht immer die erwartete Richtung nehmen. So wie die Kunst-Kopf-Stereophonie den Schritt zur Quadraphonie illusorisch gemacht hat, so könnte eine neue Technologie anstelle der Datenbanksysteme treten. Gemeint ist die "dezentralisierte Intelligenz", die uns heute in Form von Mikroprozessoren entgegentritt. Ein solches Gerät hat die Rechenkapazität eines mittleren Rechners, der vor 15 Jahren noch die Kosten eines Luxusautos verursacht hätte. Heute wird dafür der Preis eines handelsüblichen Farbfernsehgeräts verlangt. Dieser Weg begann mit den Taschenrechnern, die noch vor einigen Jahren eine lawinenartige Verbreitung gefunden haben, und so ist nicht daran zu zweifeln, daß die derzeit auf dem Markt erscheinenden "Heimcomputer", die ein Vielfaches an Möglichkeiten bieten, eine vergleichbare Verbreitung erfahren werden.

Ist ein solches auf mikroprozesser Basis arbeitendes Gerät schon von seiner Rechenleistung her erstaunlich genug, so dürfte es seine Konzeption, seine "Philosophie" sein, von der die Impulse zur allgemeinen Verwendung ausgehen. So erscheint es nur noch als eine Konzession an professionelle Benutzer, daß man diese Geräte mit Hilfe einer allgemein eingeführten Programmiersprache, meist handelt es sich um BASIC, programmieren kann –damit werden alle jene mathematischen und logischen Aufgaben lösbar, die auch mit Rechnern konventioneller Bauart möglich sind. Das Besondere und Neue dieser Geräte ist aber die Tatsache, daß sie neue, weitaus "menschlichere" Möglichkeiten der Verständigung bieten. Dazu werden beispielsweise Bildschirme benutzt, auf die man schreiben und zeichnen kann und auf denen man auch wieder seine Antwort erhält. Einige moderne Varianten besitzen auch eine akustische Ausgabe, können beispielsweise mehrstimmige Tonfolgen oder Sprache realisieren. Dazu kommt eine neue Art gewissermaßen übergeordneter Programme; sie sind in "Moduln" gespeichert und können in das Gerät eingesteckt werden. Sie bereiten eine bestimmte Aufgabenstellung so vor, daß alle nötigen Operationen zur Verfügung stehen, die der Benutzer nach einem sehr einleuchtenden Schema – ohne jede Programmiersprache – auswählt, reiht und kombiniert. Das Mittel dazu sind Auswahllisten, sogenannte "Menüs"; die Auswahlmöglichkeiten werden durch kurze erklärende Texte beschrieben, so daß es keine Schranken vor einer unmittelbaren Anwendung mehr gibt. Und außerdem sind die Programme so aufgebaut und abgesichert, daß Fehler, Sackgassen und dergleichen kaum noch möglich sind.

Auf diese Weise ergibt sich eine Art der Auseinandersetzung mit dem Computer, die keine Ähnlichkeit mit dem früher üblichen Programmieren – mit den mehrfachen Probeläufen, der ermüdenden Fehlersuche und den langen Wartezeiten – hat. Vielmehr reagiert der Computer unmittelbar; wenn nötig kommentiert er die Entscheidungen des Benutzers und führt ihn so – in einem anregenden Wechselspiel – zur erstrebten Lösung. Die überzeugendste Nutzung all der gebotenen Möglichkeiten liegt nun nicht mehr beim Rechnen, sondern bei frei gestalterischen Arbeiten, beispielsweise im Design und in der Kunst.
COMPUTERMUSIK
Der erste Bereich der Kunst, in dem man den Computer einsetzte, ist die Musik. Hier gibt es einen prominenten Vorläufer, nämlich Mozart, der Anweisungen für das Komponieren von Walzern aufgrund "gewürfelter" Noten gab; er hatte also das Prinzip des Zusammenwirkens von Ordnung und Zufall in der Kunst erkannt. Es würde keinerlei Schwierigkeiten bereiten, sein Rezept in ein Programm zu fassen und auf diese Weise beliebig viele Kompositionen zu erhalten.

Einer der ersten, der elektronische Hilfsmittel zur Erzeugung von Musik verwendete, war der Psychologe und Kybernetiker Peter Scheffler an der Universität Innsbruck. Um einen einwandfreien Zufallsgenerator zu erhalten, stellte er eine Batterie von Geigerzählern auf, die auf einschlagende Impulse der kosmischen Strahlung reagierten. Jeder "Treffer" führte zur Auslösung eines Tons. Obwohl es sich um eine reine Zufallsmusik handelte, ergaben sich doch bemerkenswert ästhetische Effekte, und zwar deshalb, weil Scheffler sehr reine, langsam auf- und abschwingende Töne verwendet hatte. Rein subjektiv beurteilt wird sein "elektronisches Orchester" allerdings bald langweilig – es gibt keinerlei Konzentrations- oder Höhepunkte, keine Wiederholung und keine Unterteilung. Die ersten, die mit elektronischen Mitteln eine programmierte Musik erzeugten, gaben deshalb bestimmte Auswahlregeln an: Nicht jeder durch den Zufallsgenerator angezeigte Ton wird verwendet, vielmehr wird eine Art "logisches Filter" eingebaut, das beispielsweise Mißtöne, etwa die Überlagerung zweier nur um eine Tonstufe unterschiedlicher Töne, ausscheidet. Ähnliche Regeln können auch für die Aufeinanderfolge von Tönen getroffen werden – ein Ordnungsprinzip, das sich beliebig kompliziert konzipieren und erweitern läßt. Im Prinzip sollte es auf diese Weise möglich sein, jede beliebige Art von Musik hervorzubringen. Das erste Beispiel von Computermusik lieferten M. Klein und D. Bolitho. 1956 traten sie mit einer Komposition "Push Button Bertha", einem Musikstück aus dem Elektronenrechner Datatron, an die Öffentlichkeit.

Führt man eine statistische Analyse von Musikstücken durch, so kommt man zu Kenngrößen, die man in die Vorschriften einer nachfolgenden Synthese einbauen kann. Dabei hat sich gezeigt, daß neben den klassischen Parametern, die man zur Beschreibung von Kompositionen verwendet, beispielsweise Takt, Tonart, Kontrapunkt usf., andere Größen gibt, die für den Stil der Musik noch aussagekräftiger sind. Bemerkenswerterweise sind die meisten davon Ergebnisse umfassender statistischer Untersuchungen, die Aussagen über den Grad des eingesetzten Zufalls bzw. des Verhältnisses zwischen Zufall und Ordnung geben. So hat etwa der Physiker Wilhelm Fucks, der sich an der Universität Aachen mit statistischer Musikanalyse beschäftigt hat, einen zunehmenden Zufallseinfluß im Laufe der Kulturgeschichte festgestellt. Der Musikwissenschaftler Norbert Boeker-Heil fand einige Beschreibungsgrößen, die sich in einem perspektivisch dargestellten Diagramm ausdrücken lassen und somit eine Art Schaubild der betreffenden Komposition ergeben. Auf diese Weise ist es u. a. möglich, die Urheber von Kompositionen zu ermitteln, bei denen die Autorenangabe nicht erhalten ist.

Besonders spektakulär mutet natürlich die nachfolgende Synthese an, die darauf hinausläuft, daß weitere Kompositionen eines vielleicht längst verstorbenen Komponisten entstehen. Was in der Öffentlichkeit so großes Aufsehen erregt, ist einerseits für den kreativen Musiker relativ uninteressant und hat andererseits bei Musikwissenschaftlern ganz andere Gründe als jene der Sensation. Hier geht es einfach darum, im subjektiven Eindruck zu prüfen, ob die ausgewählten Kenngrößen wirklich die charakteristischen sind oder nicht.

Der komponierende Musiker verwendet die Elektronik mit ganz anderen Zielsetzungen. Ihm geht es ja darum, etwas Neues hervorzubringen; dazu geben ihm schon die verschiedenen klangerzeugenden Systeme eine gute Gelegenheit, die Musik-Synthesizer. An ihnen vollzog sich der Übergang zur programmierten Musik Schritt für Schritt – immer mehr Effekte wurden der Automatik überantwortet und brauchten nicht mehr manuell erzeugt zu werden. Der Komponist spielte eine Phrase auf der Tastatur und ließ sich die dann mit beliebig veränderten Lautstärken, Klangfarben und Geschwindigkeiten beliebig oft abspielen. Hatte er das ihm zusagende Ergebnis gefunden, dann ging er zur nächsten Phrase weiter, die er in ähnlicher Weise herstellen konnte oder aber, wenn sich das gerade anbot, als Veränderung der vorhergehenden. Auf diese Weise wurde die Musik Takt für Takt und Stimme für Stimme zusammengebaut. Im letzten Stadium der Entwicklung wird auch die Tastatur überflüssig. Durch das Eintippen bestimmter Codebezeichnungen werden Frequenzen und Tondauern bestimmt, dann ordnet man noch die weiteren Parameter zu, Klangfarben, Ein- und Ausschwingvorgänge und dergleichen mehr. Zuletzt ergibt sich ein Musikstück, das stereophon oder quadrophon von einem großen, voll tönenden Orchester gespielt worden zu sein scheint, obwohl die ganze Komposition bisher nur im Speicher des datenverarbeitenden Systems steckte. Einige Zeit hindurch waren Anlagen dieser Art auf wenige, meist wissenschaftlich ausgerichtete Musikstudios konzentriert. Wenn sie einmal zur freien Komposition verwendet wurden, dann handelte es sich um Kompositionen, die an die Vorarbeit der elektronischen Musik anknüpften. Die elektronischen Hilfsmittel sind aber in keiner Weise auf bestimmte Stilrichtungen abgestimmt, sondern lassen sich zur Realisierung beliebiger Gestaltungsideen verwenden. In letzter Zeit werden sie auch im kommerziellen Bereich eingesetzt, etwa zur Produktion von Film- oder Unterhaltungsmusik. Aber schon bahnt sich wieder eine neue Entwicklung an: Mit den Home-Computern kommen "elektronische Kompositionssysteme" in die breite Öffentlichkeit, und damit dürfte das, was bisher nur einer kleinen Elite zugänglich war, eine umfassende Popularisierung erfahren – mit allen ihren Licht- und Schattenseiten.
VISUELLE COMPUTERKUNST
Als Geburtsjahr der künstlerischen Computergrafik gilt 1965. Gleichzeitig, doch unabhängig voneinander hatten Frieder Nake, Georg Nees und A. Michael Noll die Entdeckung gemacht, daß man den Computer den klassischen Werkzeugen der Kunst als neues, unkonventionelles Instrument gegenüberstellen kann. Die Kunstkritiker und Künstler griffen die Herausforderung auf. Es kam zu heftigen Diskussionen über den Begriff der Kunst und die Frage, ob mit Computern hervorgebrachte Grafiken Kunstwerke sein könnten. Diese Frage ist bis heute noch nicht entschieden, doch darf man es als erfreuliche Konsequenz der Auseinandersetzungen sehen, daß auf diese Art ein Brückenschlag zwischen dem traditionellen und dem technischen Teil unserer Kultur veranlaßt wurde.

Es hätte wenig Sinn, ein Computerprogramm lediglich für die Anfertigung einer einzelnen Grafik auszuarbeiten. Zumindest sind sie so beschaffen, daß man bestimmte Parameter auswechseln kann, und in vielen Fällen sind die Änderungsmöglichkeiten so groß, das Realisationen ein und desselben Programms kaum als solche zu erkennen sind. Genaugenommen ist deshalb das Einzelbild nicht die adäquate Präsentationsform von Computerkunst – besser ist die Darstellung als Serie. Ändert man die Parameter von Bild zu Bild nur ganz geringfügig, so kommt man zu Folgen, die als Phasenbilder von Bewegungsabläufen aufgefaßt werden können. Sie ergeben das Rohmaterial für Computerfilme; die Arbeit mit den Rechensystemen läßt also einen Schritt als geradezu selbstverständlich erscheinen, den die konventionelle Kunst nicht vollziehen konnte. Gemeint ist der Übergang des ungegenständlichen Bildes in eine bewegte Darstellungsform, wie sie uns als Analogon des auditiven Bereichs in der Musik vorliegt. Selbst wenn die Computerkunst sonst nichts anderes hervorgebracht hätte, so würde sich die Beschäftigung mit ihr schon deshalb lohnen. Was sich im Feuerwerk, in den Wasserspielen und im Kaleidoskop nur vage andeutete, ist nun zu einer gestaltbaren Darstellungsform geworden – für uns noch so ungewohnt, daß es sicher Jahrhunderte dauern kann, bis die bestehenden Möglichkeiten ausgenutzt sind.

Der bekannteste Produzent von Computerfilmen ist John Whitney, der sich vorher mit abstrakten Experimentalfilmen wie auch mit Musik und Fotografie beschäftigt hatte. 1966 gab ihm die IBM Gelegenheit, eine eingehende Ausbildung im Gebrauch von elektronischen Datenverarbeitungsanlagen mitzumachen. Seither arbeitet er eng mit Jack Citron von IBM Scientific Center von Los Angeles zusammen, der sich bisher vor allem mit computergenerierter Musik beschäftigt hatte. Jack Citron wandelte ein Programm zur Schallerzeugung zu elektronischer Musik für filmische Zwecke ab.

Inzwischen wurden auch Picture Processing Methoden in die Technik des Computerfilms eingesetzt; das bedeutet, daß auch die gegenständliche Darstellung mit allen ihren Anwandlungen und Verfremdungen dem Film zugänglich wird. Als Mittel der Eingabe bietet sich die Videokamera an; aufgrund ihres Arbeitsprinzips führt sie die "Digitalisierung", also die Umsetzung des Bildes in einzelne Elemente nach dem Vorbild des Mosaiks, automatisch durch – in dieser Form kann dann die Bildinformation eingespeichert werden und steht zur Verarbeitung zur Verfügung. Damit ergibt sich die interessante Kombination zwischen Computerfilm und Videotechnik ganz von selbst – ein Verfahren, das sich heute mehr und mehr durchsetzt. Eine nach diesem Prinzip arbeitende, sehr vielseitige Anlage ist das System EAAO (enseignement audiovisuel assisté par ordinateur) von Jean François Colonna, das an anderer Stelle eingehend beschrieben wird.

Erstaunlich sind schließlich die Erfolge, die die Amerikaner auf dem Gebiet der "computer animation" erzielt haben. Heute stehen Programme zur Verfügung, die es möglich machen, jeden denkbaren Gegenstand – auch wenn er in Wirklichkeit nicht existiert – in realistischer Darstellung wiederzugeben. Dazu bedarf es nur einer Beschreibung der Form, etwa durch die Angabe der Raumkoordinaten; dann erscheint er auf dem Bildschirm, dreidimensional, perspektivisch richtig, aus beliebiger Sicht und in beliebiger Bewegung. Dazu besteht noch die Wahl verschiedener Oberflächenformen, beispielsweise glatt, geriffelt oder durchsichtig; dabei werden sogar Reflexe einer angenommenen Umgebung und die optischen Brechungserscheinungen bei Transparenz automatisch berechnet und der Formunterlage des Objekts entsprechend dargestellt. Auch das ist ein Schritt zur Perfektionierung der Illusionstechnik, mit der dem Publikum nicht existierende Phantasieweiten vorgespiegelt werden können.
KYBERNETISCHE KUNST
In einer modernen Betrachtensweise kann man Kunst als eine besondere Art der Kommunikation auffassen, deren Wirkung auf einer Stimulation des Betrachters zum Wahrnehmen, Empfinden und Denken beruht. Dabei erweist sich die klassische Kunst als eine typische "Ein-Weg-Information", also eine solche, die stets nur in eine Richtung läuft, in diesem Fall vom Künstler über das Kunstwerk zum Betrachter, Zuhörer oder Leser. Dabei ist längst bekannt, daß ein viel größeres Maß an Aktivierung erreicht wird, wenn eine "bidirektionale Kommunikation" möglich ist, also beispielsweise ein Gedankenaustausch, ein Zwiegespräch, ein Frage-und-Antwort-Spiel. Diese Möglichkeiten sind den klassischen Kunstwerken verschlossen, da sie statische, von vornherein festgelegte, unveränderte Objekte sind. Durch Informatik und Kybernetik wird hier eine völlig neue Sachlage geschaffen: Kunstwerke können als Automaten konzipiert sein, die eigene Aktivität entfalten oder auch auf Einwirkungen des Publikums reagieren. Objekte dieser Art zählt man zur "kybernetischen Kunst".

Auch diese Richtung hat ihre Vorläufer. Calder und Tinguely gehören zu den ersten, die sich mechanischer Hilfsmittel bedienten, um bewegliche Kunstwerke hervorzubringen. Von den Vertretern der Kinetik wurden auch die Hilfsmittel der Elektromechanik herbeigezogen; so verwendeten etwa Hans Geipel und Martha Hoepffner Elektromotoren zum Antrieb von reflektierenden oder polarisierenden Elementen, die immer wieder neue Kombinationen und damit neue Eindrücke ergeben. Hans-Martin Ihme setzt bereits elektronische Schaltungen ein, um seine Lichtskulpturen veränderlich zu gestalten. Als eigenständige Spezial-Zweck-Computer kann man die Lichtrahmen von Vladimir Bonacic bezeichnen. Es handelt sich um ein quadratisches Netz von Lampen, von denen jede einzelne zum Leuchten oder auch wieder zum Erlöschen gebracht werden kann. Die Steuerung erfolgt von einem Rechenwerk aus, das Verteilungen nach bestimmten mathematischen Regeln bestimmt und diese als Lichtmuster auf dem Rahmen sichtbar werden läßt. Sie verändern sich schrittweise, mit einstellbarer Geschwindigkeit, und wiederholen sich über Jahre hinweg nicht. Durch die stetige Veränderung dieser Objekte läßt sich das Interesse des Beschauers über längere Zeit hinweg aufrechterhalten – eine deutliche Steigerung der Wirkung gegenüber statischen Gebilden.

Noch immer aber spielt der Beschauer eine passive Rolle – er muß sich damit begnügen, die vorgewiesenen Prozesse aufzunehmen und hat keine Möglichkeit des Eingreifens. Diese Sachlage wurde auch in anderen Bereichen künstlerischer Aktivitäten als Mangel empfunden, weswegen man beispielsweise in Museen und bei Ausstellungen immer häufiger dazu übergeht, das Publikum zur Mitwirkung anzuregen. So bietet man ihm beispielsweise die Gelegenheit, selbst mit Stift und Farbe zu arbeiten – beispielsweise bei der von Curt Heigl inszenierten "1. Internationalen Jugendtriennale" in der Kunsthalle Nürnberg 1979. An einer Reihe von Arbeitsplätzen saßen die interessierten Besucher vor Spiegeln und waren aufgefordert, ihr eigenes Porträt zu zeichnen; die besten Arbeiten wurden prämiiert. Noch intensiver soll sich das Publikum an den Happenings beteiligen, eine Kunstform, die speziell auf die gemeinsame Aktivität des als Leiter fungierenden Künstlers und seines Publikums ausgerichtet ist. Nachteil, vielleicht aber auch Stimulans dieser Aktivitäten ist es, daß dabei oft recht chaotische Vorgänge ausgelöst werden. Die elektronischen Automaten weisen einen ganz anderen Weg, ähnliche Ziele zu erreichen.

Die bekanntesten deutschen Vertreter dieser Richtung sind Walter Giers und Peter Vogel. Ihre Objekte sind raffiniert ausgeklügelte Schaltungen, die so gestaltet sind, daß sie vom visuellen Eindruck her als Skulpturen anzusehen sind. Darüber hinaus enthalten sie sowohl Eingabe- wie auch Ausgabeeinheiten, beispielsweise Mikrophone für die Aufnahme von Schall und lichtelektrische Zellen für die Aufnahme von Licht, und weiter Lautsprecher und Lampen, mit denen auf Eingriffe von außen geantwortet wird. Dazu genügt ein Händeklatschen, ein gesprochenes Wort oder auch das Vorbeigehen am Objekt, wodurch der Lichteinfall verändert wird. Die Antwort erfolgt dann durch Aufleuchten der Lampen in bestimmten Kombinationen, Schalleffekte, die zum Teil auf die Lautstärke des akustischen Reizes abgestimmt sind, mitunter aber auch durch Zufallsgeneratoren variiert werden. Die Interaktion vollzieht sich meist dadurch, daß der Besucher die Aktivität des Objekts als Antwort auf eine eigene Handlung zu verstehen beginnt und in einer Serie von Versuchen das dahintersteckende System von Regeln zu erkennen versucht. Infolge des Zufallseinflusses wird diese Aufgabe einerseits erschwert, andererseits aber auch erst besonders reizvoll.

Bei diesen Systemen beschränken sich die ausgetauschten "Nachrichten" auf relativ einfache Zeichen. Die volle Ausschöpfung der Möglichkeiten erfolgt erst in der Wechselwirkung mit so komplizierten Automaten, wie es Computer sind – mit interaktiven ästhetischen Programmen, die der gestalterischen Phantasie wie auch der Spontaneität des Benutzers volle Geltung verschaffen. Solche Formen der Betätigung hat man bisher unter "Computergrafik" eingereiht – in Wirklichkeit aber handelt es sich um eine völlig neue Kunstform mit prinzipiell erweiterten Möglichkeiten.

Im Prinzip sind diese allerdings schon bei der statischen Grafik vorhanden; es wurde schon erwähnt, daß ein vernünftig konzipiertes Programm stets auch als Serie, als filmischer Ablauf ausgegeben werden kann. In Wirklichkeit steckt noch viel mehr dahinter; die Reihenfolge der Bilder ist ja nicht vorgeschrieben, und somit ist es möglich, gewissermaßen kreuz und quer durch das Programm zu gehen. Aus einem einzigen Programm lassen sich also prinzipiell beliebig viele Filme erzeugen.

Hat man diese besondere Art der Betätigung von vornherein im Auge, dann kann man den Gestaltungsspielraum des Programms auch so weit ziehen, daß die Anzahl der möglichen einzelnen Realisationen praktisch unübersehbar ist. Auf diese Weise aber erhält man eine Art universelles Zeichen- oder Malgerät, ein Instrument, mit dem eine einzigartige künstlerische Handlung möglich ist, nämlich die grafische Improvisation. Genauso wie es bei Musikinstrumenten mit den Tönen und Klängen geschieht, kann man nun in fortlaufender Folge Bilder hervorbringen, die nicht nur als Einzeldarstellungen ästhetische Qualitäten aufweisen, sondern auch in ihrem Bezug aufeinander während des Ablaufs. Selbstverständlich ist es mit diesem Instrumentarium auch möglich, nach klassischen Vorbildern zu verfahren, also beispielsweise statische Bilder oder Bildabläufe zu komponieren – zur späteren Präsentation und Vorführung. Damit käme man allerdings wieder zu den klassischen Verfahrensweisen zurück, zu Kunstwerken, die dem Publikum vorgewiesen werden, das somit auf eine passive Haltung festgelegt ist. Die weitaus interessanteren Möglichkeiten des Computers und der kybernetischen Kunst liegen genau darin, daß der Künstler über das von ihm konzipierte Programm eine lebendige Auseinandersetzung mit dem Publikum erreicht.
GRAFISCHE MUSIK
Die Verbindung zwischen Musik und Bewegung ist uralt – beispielsweise im Tanz und seiner künstlerisch sublimierten Form, im Ballett. Von den menschlichen Wahrnehmungsgewohnheiten her gesehen scheint ein Bedürfnis dafür vorzuliegen, daß Geschehnisse, die sich im Raum vollziehen, auch akustisch begleitet sind – was von der Wahrnehmungspsychologie her auch verständlich erscheint. So gut sie zusammenpassen, so gibt es doch grundlegende Unterschiede zwischen der Musik und der tänzerischen Bewegung: Während die Musik in weitesten Grenzen frei gestaltbar ist, ist der Tanz an den menschlichen Körper gebunden, dessen Bewegungsspielraum relativ beschränkt ist. Somit liegt der Gedanke nahe, Musik mit ebenso frei gestalteten visuellen Abläufen zu kombinieren. Da die Technik der Visualisation recht anspruchsvoll ist, ist es nicht weiter verwunderlich, daß sie erst relativ spät in der Geschichte auftritt. Bei den ersten Versuchen in dieser Richtung benutzte man "Lichtorgeln", Projektionseinrichtungen, mit denen sich farbiges Licht auf einer Leinwand überlagern läßt. Da die Abläufe mit mechanisch bewegten Linsen- und Spiegelsystemen erfolgen, läßt die Steuerungsmöglichkeit zu wünschen übrig, doch haben sie in der modernen Bühnenbeleuchtung ihre Weiterentwicklung erfahren.

Ein neues Stadium dieser Entwicklungsreihe wurde mit der Elektrotechnik und der Elektronik erreicht. So gibt es einige Geräte, mit denen eine Umsetzung von Musik in bewegte Bilder auf elektrischem Weg möglich ist. Die Gelegenheit dazu bieten die Phänomene der Schwingungen, zu denen Schall ebenso gehört wie elektrische Wellen. Durch Telefon und Funk werden Schallschwingungen durch Mikrophone in elektrische Schwingungen verwandelt und durch Lautsprecher wieder zurück in Schall. Nun hat sich andererseits die Tatsache herausgestellt, daß man Schwingungen aller Art – auch nicht-akustische – sehr einfach sichtbar machen kann und daß sich hierbei noch dazu grafisch reizvolle Bilder ergeben, die sogenannten Lissajous-Figuren. Hat man es mit mechanischen oder Schallschwingungen zu tun, dann lassen sich diese visualisieren, indem man Spiegel auf die schwingenden Medien, beispielsweise Stimmgabeln, aufbringt und über diese einen Lichtstrahl auf eine Auffangfläche leitet; auf dieser entsteht dann die Schwingungsfigur. Auch für die Visualisierung elektrischer Schwingungen gibt es ein gut geeignetes Gerät, und zwar den sogenannten Kathodenstrahloszillografen. In dessen Röhre fällt ein Elektronenstrahl auf die dem Besucher zur Ansicht gebotenen Leuchtscheibe; läßt man auf ihn elektrische Spannungen, beispielsweise regelmäßige Schwingungen, wirken, so zeichnet dieser dieselbe Art von Figuren auf den Bildschirm. Handelt es sich bei den Schwingungen um solche, die mit Musikinstrumenten erzeugt werden, so erhält man auf diese Weise so etwas wie "sichtbare Musik". Systeme dieser Art werden auch heute noch gelegentlich als Hintergrundeffekt gebraucht, doch sind die Ergebnisse letzten Endes nicht befriedigend. Das mag vor allem daran liegen, daß die Umsetzung zu einfach und damit wahrscheinlich auch zu eintönig ist. Für etwas anspruchsvollere Zwecke wird man daher etwas kompliziertere Arten der Umsetzung Schall/Bild verwenden. Ein Beispiel dafür wäre ein System, in dem sich die Wellen in einem sternförmigen Gebilde abbilden, wobei der Strahlwinkel die Frequenz und der Radius die Lautstärke kennzeichnet. Stehen Farbausgabegeräte zur Verfügung, so ist es leicht, gewisse Kenngrößen der Musik in Farbe darzustellen. Ein noch komplizierteres Umsetzungsprinzip verwendet Alexandre Vitkine bei seinem "Sonoskop", eine Anlage, die aus umgebauten Fernsehapparaten entstanden ist. Eindrucksvolle Wirkungen erzielt auch Manfred Kage mit seinem "Audioskop", bei dem die Schwingungen auf dem Umweg über elektrische Verstärker auf eine Membran geleitet werden. Auf dieser befindet sich eine Ölschicht, die unter dem Einfluß der Vibrationen verschiedenartige, von den jeweiligen akustischen Klangfarben abhängige Wellenfelder bildet. Mit farbigem Licht projiziert ergeben sich so auf der Leinwand reizvolle Umsetzungen der gleichzeitig zu Gehör gebrachten Musik.

Anordnungen dieser Art können aber auch ohne Musik in Funktion gesetzt werden, beispielsweise dadurch, daß man die Schwingungen auf elektrischem Weg erzeugt und direkt in die Bildröhre oder auf die Membrananordnung leitet. Auf diese Weise kommt man der Idee einer "elektronischen Lichtorgel" schon recht nahe. Die besten Instrumente zur Verwirklichung dieser Idee liegen aber bereits vor – die schon erwähnten interaktiven computergrafischen Systeme, mit denen man auch bewegte Abläufe hervorbringen kann. Was ihnen vorderhand noch fehlt, ist die Großprojektion. Es ist zu erwarten, daß sich diese Schwierigkeit von selbst abbaut, und zwar deshalb, weil die Ausgabe von Fernsehbildern auf einem großflächigen Wandschirm aus ganz anderen Gründen angestrebt wird: Als eine Ergänzung zum Fernsehen, das auf diese Weise erheblich an Wirksamkeit gewinnen würde. Man käme dann zu einer Art Heimkino, hätte aber auch die Möglichkeit, über Fernsehen eingehende Sendungen einer größeren Zahl von Menschen vorzuführen. Anlagen, die diese Aufgabe leisten, werden von der Industrie schon angeboten, doch sind sie vorderhand noch recht teuer; sicher wird sich aber auch auf diesem Sektor eine Verbilligung ergeben, wie das auch in anderen elektronischen Sparten immer noch der Fall war.

Der frei gestaltete visuelle Ablauf, die "sichtbare Musik", stellt eine völlig neue Kunstform dar, die unter den klassischen Künsten nicht bekannt ist. Da sie den Bedürfnissen des Menschen, der vor allem ein Augenwesen ist, bestens angepaßt erscheint, ist zu erwarten, daß sie eine Entwicklung durchmacht, die jener der Musik ähnlich ist. Dabei sind einige Aspekte bemerkenswert, die eng mit den eingesetzten technischen Systemen zusammenhängen. Es ist offenbar selbst in Kreisen der Musikwissenschaft noch nicht deutlich erkannt worden, daß sich eine hoch komplexe, nach vielfältigen Ordnungsregeln strukturierte Musik, wie es jene der westlichen Tradition ist, nur unter ganz bestimmten technischen Voraussetzungen herausbilden kann, nämlich dann, wenn Mittel zur Verfügung stehen, um die eingesetzte Klangwelt möglichst eindeutig zu beschreiben und mit höchster Genauigkeit produzieren und reproduzieren zu können. Würde man in der Musik – in ähnlicher Weise wie das in der Malerei der Fall ist – auf diese Präzision verzichten, dann würde die Entwicklung auf einer weitaus niedrigeren Stufe steckenbleiben, und zwar deshalb, weil die für die Polyphonie nötige Überlagerung zu Mißklängen und Geräuscheffekten führen würde. Anders ausgedrückt: Die Akkuratesse, mit der das technische Instrumentarium arbeitet – in den Augen mancher Künstler nur von wissenschaftlicher und technischer Bedeutung – ermöglicht erst die Vielfältigkeit des Ausdrucks, wie wir sie heute beispielsweise im Repertoire der klassischen Musik vorliegen haben. Aus diesem Aspekt heraus ist es sehr bedeutsam, daß gerade der Computer mit seinen grafischen Ausgabegeräten mit vergleichbarer Präzision arbeitet. Und das könnte bedeuten, daß die "grafische Musik", von der die Rede ist, in ihren Strukturen weit über das hinausführt, was die klassische Malerei hervorgebracht hat, und daß sich ähnlich komplexe und differenzierte Ordnungssysteme herausbilden, wie sie für die Musik typisch sind – ganz abgesehen von ihrem dynamischen Charakter. Diese Entwicklungslinie ist zweifellos die interessanteste, die der Computerkunst entwächst.

In diesem Zusammenhang stellt sich erneut das Problem des Zusammenwirkens zwischen Bild und Ton. Es ist ohne weiteres möglich und auch in öffentlichen Vorführungen schon geschehen, daß man Computerfilme ohne akustische Begleitung ablaufen läßt. Die Reaktion des Publikums war zwiespältig: Manche Zuschauer empfanden die Stille als wohltuend, andere forderten geradezu die Untermalung durch den Ton. Auf jeden Fall bestätigen die Erfahrungen, daß man mit Hilfe von Musik eine erhebliche Steigerung der Wirkung erreicht und auch in der Lage ist, die Assoziationen und Interpretationen der Zuschauer und Zuhörer in eine gewünschte Richtung zu lenken. Somit wird die musikalische Begleitung sicher auch bei der neuen, elektronischen "grafischen Musik" ihre Bedeutung behalten. Nach den wenigen Experimenten, die hier gemacht wurden, beispielsweise im Laufe eines Symposiums über free jazz, erwies sich, daß eine Synchronität zwischen Ton und Bild, also beispielsweise eine Erhöhung der Lautstärke während gesteigerter Dynamik des Geschehens – nicht befriedigend wirkt. Im Gegensatz zur üblichen Filmmusik, die eine untermalende und unterstützende Wirkung haben soll und deshalb als Verstärkung für das visuelle Geschehen eingesetzt wird, dürfte sie hier ihre Eigenständigkeit in einem viel höherem Maß bewahren. Offenbar wird es nötig sein, Bild und Musik in gegenseitiger Bezogenheit zu komponieren, wobei aber nicht ein Gleichlauf, sondern eher so etwas wie eine Kontrapunktik angestrebt wird. Dieser Methode kommt es zugute, daß der Computer die Trennung zwischen einzelnen künstlerischen Disziplinen zu überwinden hilft; im Prinzip sind es dieselben Verfahren des Programmierens, die man anwendet, ob man nun grafische Abläufe, Musik oder auch Texte komponiert.
ELEKTRONIK - POPULARISIERUNG DER KUNST
Normalerweise beachtet man in Prozessen der Popularisierung insbesondere ihre negativen Begleiterscheinungen, die man durch die Begriffe Simplifizierung und Banalisierung kennzeichnen kann. Vom soziologischen Standpunkt, und diesem ist großes Gewicht beizumessen, bedeutet Popularisierung allerdings auch das Eindringen von bestimmtem Gedankengut in breite Schichten der Bevölkerung, und diese Erscheinung ist zweifellos positiv zu bewerten. Aber selbst, wenn man allein vom künstlerischen Standpunkt aus urteilt, so zeigt sich doch, daß die Basis eines weitreichenden und allgemeinen Interesses ein hervorragender Nährboden von kreativen und progressiven Ideen ist. Allein von der finanziellen Seite her gesehen lassen sich die Möglichkeiten eines Mediums nur ausschöpfen, wenn es von vielen getragen wird.

Die Elektronik hat sich als ein wichtiger Faktor der Popularisierung in allen möglichen Bereichen erwiesen. Das liegt vor allem an der Technologie der Halbleiter-Schaltelemente, die einen ganzen Schub an Innovation hervorgebracht hat und immer noch ausbaufähig ist. Diese Popularisierung gilt auch für verschiedene Zweige der Kunst, beispielsweise für die Musik, die heute über Radio, Platte und Tonband – und mit relativ wenig Aufwand sogar in bester Qualität – in jede entlegene Hütte kommen kann. Und auch über das Fernsehen kann man klagen, soviel man will – jedenfalls läßt es weite Kreise der Bevölkerung, die bisher vom kulturellen Geschehen weitgehend abgeschnitten waren, unmittelbar daran teilnehmen. Natürlich steht auf einem anderen Blatt, wie weit die gebotenen Möglichkeiten genutzt werden, doch sollte man nicht vergessen, daß die Voraussetzung für eine vernünftige und gezielte Nutzung ein vorhergehender Bildungsprozeß ist, der eben erst anzulaufen beginnt. Jedenfalls liegen viele der dem Medium vorgeworfenen negativen Seiten eher an den Gewohnheiten und Forderungen der Benutzer, und nur von dieser Seite aus kann die Verbesserung eingeleitet werden.

Die elektronischen Anlagen, die heute schon Eingang in jedes Haus gefunden haben, sind fast ausnahmslos der reproduzierenden Seite der Kommunikation und speziell der Kunst zuzuordnen. Das hat zweifellos einige unerfreuliche Nebenwirkungen, beispielsweise eine Erziehung zur Passivität – zur Berieselung mit Nachrichten und Musik. Es wäre falsch, daraus den Schluß zu ziehen, man sollte die elektronischen Medien reduzieren und die Einführung weiterer verhindern. Gerade das Gegenteil stimmt: Man sollte die Vorteile der Verbreitungs- und Wiedergabemittel weiterhin nutzen, zusätzlich aber mit allem Nachdruck technische Innovation fördern, die die mit Recht geforderte Aktivierung des Publikums mit sich bringt.

Oftmals wird übersehen, daß auch hochgeachtete Kommunikationsmittel, wie etwa das Buch, recht passive Benutzer verlangen. Nur eine ganz bestimmte Sparte, beispielsweise Anleitungsbücher für Rätsel und Spiele, sind direkt auf die Betätigung des Lesers hin ausgerichtet. In allen anderen Fällen, von der wissenschaftlichen Darstellung bis zum Roman, bleibt es ihm überlassen, ob er etwa nachträglich das erworbene Wissen in eigenständiger Weise anwenden will. Auch hier schaffen die elektronischen Automaten eine ganz neue Situation – gerade jetzt ist jenes Stadium erreicht, in dem sich die interaktiven elektronischen Hilfsmittel durchzusetzen beginnen. Das erste Beispiel war der schon erwähnte Taschenrechner, die nächste Generation ist auf den Mikroprozessor begründet und wird vorderhand durch den Home-Computer präsentiert. Dieses neue Instrument des täglichen Gebrauchs könnte Auswirkungen nach sich ziehen, die geradezu unübersehbar sind: Durch die Zusammenarbeit zwischen menschlicher und maschineller Intelligenz könnte sich eine Potenzierung der Intelligenzleistung ergeben, und das nicht nur in Instituten, Lehranstalten und Industriewerken, sondern im Raum der Privatsphäre, der Familie.

Bei der Entwicklung der Home-Computer hatten die Konstrukteure einige Ziele vor Augen, die eine immerhin bemerkenswerte Erweiterung der Fähigkeiten des Taschenrechners bedeuten. Immer wieder aber stellte sich heraus, daß sich von unvorhergesehenen Seiten überraschende neue Anwendungsmöglichkeiten anboten, und schließlich setzte sich die Überzeugung durch, daß der Nutzung kaum Grenzen gesetzt sind. Das Feld der Anwendungen überdeckt eben nicht, wie zunächst erwartet, nur jene Aufgaben und Tätigkeiten, mit denen Rechnungen, Überlegungen, Entscheidungen und dergleichen verbunden sind, sondern vor allem auch solche, in denen es um gestalterische Aufgaben geht. Dabei kann es sich um eine neue Wohnungseinrichtung handeln oder auch um ein selbst entworfenes Schnittmuster für ein Kleid. Mit eigenen Entwürfen für Teppiche, Stoffe und Tapeten kommt man bereits in den Bereich des Designs, und von hier aus bietet sich der Schritt zur freien Gestaltung selbst an. Dabei haben diese Geräte den Vorteil, daß sie rasch zu sichtbarem Erfolg führen – die Ausübung der Kunst also zu einem reinen Vergnügen wird. Die Möglichkeiten, die sich dabei bieten, wurden schon ausführlich beschrieben; nun kommt als bemerkenswerter Aspekt noch hinzu, daß sie mit den Home-Computern allen Interessierten zugänglich werden. Die Verfügbarkeit eines handlichen Mediums, das ästhetische Visualisierung spielend einfach macht, dürfte rückwirkend auch in anderen Bereichen seinen Niederschlag finden. So sind beispielsweise verschiedenste Verbindungen zwischen dem Aufbau ästhetischer Strukturen und Spielen möglich, im Vergleich etwa zum japanischen Go, zu dessen Reiz auch grafisch originelle Anordnungen beitragen. Weiter dürfte die Visualisierung im Lernbereich Bedeutung gewinnen. So ergibt sich beispielsweise in grafisch reizvollen Umsetzungen mathematischer Gesetzmäßigkeiten ein völlig neuer Zugang zum Verständnis, bei dem das Formempfinden des Lernenden eine wesentliche Rolle spielt. An diesem Beispiel ist zu erkennen, daß sich der Einfluß technischer Medien nicht nur auf materielle Bereiche beschränkt, sondern durchaus auch in geistige Räume hineinwirkt, beispielsweise auf unsere Art des Denkens und die Natur unserer Vorstellungen.

Und wieder wird es nicht ausbleiben, daß das Aufkommen neuer Mittel zu Veränderungen in jenem Berufsstand führt, der die von den Maschinen übernommenen Aufgaben bisher manuell erbracht hat – in diesem Fall geht es um die Person des Künstlers. Manche Künstler halten nachdrücklich an den traditionellen Fertigungsformen fest – es geht ihnen nicht zuletzt darum, die von ihnen als gefährlich erachtete Technik aus dem Bereich der Kunst herauszuhalten, ein Reservat in unserer Welt zu schaffen, in dem man sich auf althergebrachte Handelnsweisen und Werte besinnt. Es gibt aber eine ebenso große Zahl von Künstlern, die modernen technischen Errungenschaften prinzipiell aufgeschlossen gegenüber steht und die Möglichkeiten erkennt, die damit erstmalig gegeben sind – eine Situation, wie sie sich eigentlich jede kreative Persönlichkeit wünschen mag. Am Anfang der Computerkunst, als das Programmieren noch mit Schwierigkeiten verbunden war, bildeten sich einige Teams zwischen Künstlern und Programmierern, die in der Kooperation zu bemerkenswerten Ergebnissen kamen. Im Laufe der weiteren Entwicklung eigneten sich immer mehr Künstler Kenntnisse der Programmiersprachen an, und heute gibt es schon eine ganze Reihe davon, die nicht nur die Methode beherrschen, sondern sie auch als Lehrer weitergeben. Damit finden computergrafische Methoden Eingang in den Bereich der Universitäten, eine begrüßenswerte Maßnahme zur Vorbereitung des Berufsstands auf die neuen Medien, die in einer Generation in allgemeinem Gebrauch stehen werden. Selbstverständlich bleibt es jedem unbenommen, weiterhin manuelle künstlerische Methoden anzuwenden, und ebenso kann sich jeder mit einem computergrafischen System beschäftigen, um schöne Bilder hervorzubringen. Aber wird das unter diesen Umständen die spezielle Aufgabe von Künstlern sein? Es gibt Hinweise, die auf eine ganz neue Auffassung dieses Berufsstandes hindeuten.

Der Physiker und Informatiker Christian Cavadia hat im Centre Pompidou eine Abteilung aufgebaut, die zur Vorbereitung der Bevölkerung auf die modernen elektronischen Gestaltungsmethoden beitragen soll. Öffentlich zugänglich und kostenlos zu benutzen stehen einige Anlagen zur Verfügung, an denen sich auch ein zufällig herangekommener Passant einige Zeit aufhalten und ohne Schwierigkeiten eigene Bilder hervorbringen kann. Um dieses Ziel zu erreichen, bedarf es einer eingehenden Vorbereitung, und zwar der Konzeption eines übergeordneten Programms, das nicht nur ein Repertoire von Bildelementen bereithält, nicht nur eine Serie von Operationen, die zu deren Verteilung über die Bildebene dienen, sondern auch ein Schema, das den Großteil aller unsinnigen oder ästhetisch bedeutungslosen Varianten ausscheidet. Auf diese Weise muß also der Benutzer zu einem Erfolgserlebnis kommen, selbst wenn seine Anweisungen eher zufällig, ohne Verständnis ihrer Konsequenzen, erfolgen.

Eine ähnliche Aufgabe ergab sich bei der Konzeption jener Moduln, mit denen der erste echte Heim-Computer, der TI-Dialogrechner, zur künstlerischen Betätigung ausgestattet werden sollte. Dabei wurde zunächst einmal vorgesehen, daß der Aufbau von Bildern Schritt für Schritt unter Sichtkontrolle erfolgen kann – so lange, bis ein befriedigendes Ergebnis erzielt ist; dann läßt sich dieses abspeichern, dokumentieren oder auf andere Weise festhalten. In ähnlicher Weise lassen sich natürlich auch Abläufe, also Computerfilme, entwerfen. Ein völlig neues Prinzip aber wurde entwickelt, um dem Benutzer auch die Möglichkeiten des grafischen Improvisierens zu geben, ohne daß die geringste Vorübung erforderlich wäre. Dabei wird zunächst ein automatischer Ablauf eingeschaltet, bei dem verschiedene Zufallsgeneratoren für eine schrittweise Veränderung der Bilder sorgen. Farben und Elemente sind so ausgewählt, daß sie zusammenpassen, obwohl die einzelnen Konstellationen nicht vorherzusehen sind. Greift der Benutzer nicht ins Geschehen ein, so erhält er eine Art bewegliches Bild, dem er sich in passiver Weise widmen kann, beispielsweise im Sinn meditativer Betrachtung. Entschließt er sich aber zum Eingriff, dann werden dadurch die Zufallsgeneratoren ausgeschaltet; stattdessen folgt der Aufbau den durch Tastendruck gegebenen Anweisungen, und der Benutzer kann den Ablauf Schritt für Schritt seinen eigenen Intentionen unterwerfen. Legt er eine Pause ein, dann kommt die Bewegung keineswegs zum Stillstand, sondern arbeitet nach der letzten Anweisung weiter bzw. setzt wieder Zufallsgeneratoren zur Bestimmung der Gestaltungsakte ein. Durch dieses System erhalten die Abläufe eine immense Dynamik; die Arbeit mit solchen Systemen wird zu einem ästhetischen Vergnügen besonderer Art. Dabei kommt es zu verschiedensten Wechselwirkungen zwischen dem Programm und dem Benutzer – beispielsweise dadurch, daß die Zufallsgeneratoren gewisse Grundformen anbieten, die er nun aufgreifen und weiterverarbeiten kann.

Dabei ergeben sich interessante juristische Probleme: Wer ist nun der Urheber der entstehenden Figurationen – der Programmierer, der hinter all diesen Konzepten steht, oder der Mann an der Tastatur, der die einzelnen Abläufe steuert? Ganz abgesehen von der bisher ungeklärten Rechtslage scheint aber festzustehen, daß die Programmkonzeption ein Gestaltungsakt höherer Ordnung ist; von ihr hängt es ab, was man mit diesem Programm überhaupt anfangen kann. Trotzdem aber mag es vorkommen, daß der "Künstler-Programmierer" auf bestimmte vom Benutzer realisierte Konzeptionen gar nicht kommt, etwa, wenn sein Geschmack nach einer anderen Richtung tendiert oder weil ihm vielleicht sogar das Differenziationsvermögen fehlt, um alle Nuancen auszunutzen, die sein eigenes Programm bietet. Wenn man die gestellten Aufgaben auch nach den Gesichtspunkten "allgemein" und "speziell" unterscheiden kann, so ist damit nicht unbedingt ein Werturteil verbunden. Andererseits aber steht fest, daß der Erzeuger der "speziellen" Bilder oder Abläufe keine Vorbildung braucht – damit hat sich die Aufgabe der Realisierung von Kunstwerken vom professionellen Künstler auf den Laien übertragen. Fundierte Kenntnisse auf verschiedenen Gebieten, von der visuellen Gestaltung bis zur Wahrnehmungspsychologie, muß dagegen jener aufweisen, der das "allgemeine" Programm konzipiert. Allem Anschein nach wird das die künftige Aufgabe von Künstlern sein.

An diese Überlegungen knüpft sich eine ganze Reihe von Fragen, die Zukunftsaspekte betrifft. Wie soll man die Bevölkerung auf die neuen Möglichkeiten vorbereiten? Hat es Sinn, Künstler im traditionellen Sinn auszubilden? Wie soll ein den modernen Medien angemessener Kunstunterricht aussehen? Die damit aufgeworfenen Probleme können nur gelöst werden, wenn man eine gewisse Übersicht über das hat, was die Zukunft bringen wird, und diese läßt sich nur aus jenen Entwicklungen gewinnen, die sich heute anbahnen. Das ist der Grund dafür, daß man auch jenen Initiativen Beachtung schenken sollte, die zunächst als phantastisch oder utopisch erscheinen. Ebenso wichtig zur Beurteilung der Lage aber sind jene die Ästhetik betreffenden Erkenntnisse, die auf der Wahrnehmungstheorie und der Informationspsychologie beruhen. Man kann Kunst zwar betreiben, ohne etwas von Theorie zu verstehen, man kommt aber ohne diese zu keinen haltbaren und praktikablen Aussagen.

Die Veranstaltung "ars electronica" ist die erste, in der Fachleute aller künstlerischen Gebiete zusammenfinden, um der Öffentlichkeit ihre Entwicklungen zu demonstrieren. Zugleich aber wird damit auch eine Diskussion beginnen, die die Auswirkungen der "kreativen Elektronik" auf die Gesellschaft zum Gegenstand hat. Bei den wichtigsten technischen Entwicklungen hat man es bisher versäumt, sich rechtzeitig auf die damit verbundenen Umstellungen – seien sie positiv oder negativ – einzustellen. Es ist zu hoffen, daß aus der "ars electronica" das Beste gemacht wird, was möglich ist. Sie könnte ein Impuls dafür sein, die geistigen Werte wieder vor die materiellen zu stellen.