www.aec.at  
Ars Electronica 1986
Festival-Programm 1986
Back to:
Festival 1979-2007
 

 

Der bildende Künstler als Programmierer


'Hervé Huitric Hervé Huitric / 'Monique Nahas Monique Nahas

Unsere ersten Versuche mit Computergraphik reichen in das Jahr 1970 zurück. Beginnend mit Kleincomputern, sehr einfach Algorithmen mit abstrakten, pointillistischen Bildern, schritten wir zu figurativen zweidimensionalen Zeichnungen fort und sind heute soweit, daß wir dreidimensionale realistische Techniken verwenden und entwickeln. Dieser unser persönlicher Weg verlief parallel zur ständigen Verbesserung unseres Gerätes und besonders unserer Beziehung zu diesem Gerät. Unter anderem sei erwähnt, daß wir zur Herstellung eines Bildes immer gleich viel Zeit benötigen, egal wie hochentwickelt unser Computer ist. Wir können einfach der Versuchung nicht widerstehen, neue Arbeitsvorgänge hinzuzufügen, sobald wir etwas Zeit gewonnen haben. Die Techniken werden immer mehr, wir haben erkannt, daß wir sie, auch unvorbereitet, immer wieder und wieder verwenden können. So steht uns etwa unsere alte Technik des Mischens von Bildern, des Pointillismus, der Filtermethoden, noch immer zur Verfügung. Und unser ästhetisches Streben sucht, trotz der nach uns ausgreifenden Fangarme der Geometrie, stets nach Licht und Farben.

Wir glauben, daß in den Algorithmen etwas Barockes verborgen liegt. Es ist Aufgabe der Künstler, es aufzuspüren.

1. OHNE RASTER: 1970–1974
1970 begannen wir mit einem Kleincomputer und einem Paralleldrucker. Wir wollten mit kontinuierlichen Farbvariationen arbeiten. Zunächst hatten wir einen pointillistischen Ansatz. Da wir nicht direkt eine zusammengesetzte Farbe produzieren konnten, gingen wir von der Annahme aus, daß sie sich aus der optischen Hinzufügung von Punkten in den Primarfarben ergeben sollte, wie dies beim Druckverfahren der Fall ist. Wir unterteilten das Bild in quadratische Blocks, rechneten die zusammengesetzte Farbe der einzelnen Blocks, die jeweils einer bestimmten Farbvariation entsprachen, und realisierten sie dann durch eine statistische Verteilung von Elementarpunkten, die mit Buchstaben bezeichnet waren. Die Listenbeschreibung war eine Sammlung von Buchstaben, die das Bild beschrieben. Danach malten wir von Hand ein kleines Quadrat um jeden Buchstaben eine außerordentlich langweilige Tätigkeit.

Der Prozentsatz der Grundfarben in jedem einzelnen Block war durch mehrere Relationen bestimmt:
  • eine lineare Relation, die dem Block durch das Hinzufügen der Helligkeit jedes einzelnen Farbpunktes die Helligkeit gab;

  • einige kontinuierliche Variationen für eine Teilmenge von Farben, die einer festgelegten Aufteilung flacher Kurven auf den Bildern entsprachen.
Die mit dieser pointillistischen Methode geschaffenen Bilder weisen aufgrund der Elementarpunkte eine körnige Struktur auf: die Wahl verschiedener Zufallsalgorithmen bestimmt unterschiedliche Arten von Punkt-Gruppen und daher unterschiedliche visuelle Strukturen. Das nannten wir Textur, und verwendeten sie als Kompositionselement.

Zusammenfassend kann man über unsere ersten Bilder sagen, daß sie sich rund um zwei Elemente aufbauten:
  • kontinuierliche Variation von Farben, die von einer Serie ebener Linien definiert waren,

  • eine Textur, verbunden mit der pointillistischen Realisierung.
ANDERE GERÄTE = ANDERE REALISATIONEN: LOCHKARTEN UND CALCOMP-PLOTTER
Im Jahr 1972 stießen wir auf einen IBM 1130 und die Lochkarte. Anstatt wie bisher jeden einzelnen Farbpunkt von Hand zu malen, konnten wir jetzt aufgrund des Programms eine Reihe von Lochkarten herstellen, die als Schablonen verwendet wurden. Jede Lochkarte hatte einen Code, der ihre Position im Bild und ihre korrespondierende Farbe definierte. Der Rest der Karte wurde als Schablone für eine Farbe verwendet. Um das Bild zu realisieren, wandten wir die gelochte Karte auf die Bildunterstützung an und verwendeten einen Roller, um die entsprechende Farbe zu verteilen. Da das rascher ging als das Handmalen, konnten wir ein bißchen mehr mit den Textur-Variationen experimentieren. Trotzdem dauerte die Realisierung eines Bildes nach Herstellung der Lochkarten manchmal ein bis zwei Wochen. Dann erhielten wir 1973 einen Calcomp-Plotter und verwendeten ihn zur Erstellung von Umrißschablonen für Seidenraster, wobei wir dieselben Ideen für die Farbprogrammierung beibehielten.

Den Plotter verwendeten wir, um eine Schablone für jede Grundfarbe der Serigraphie zu drucken und wir produzierten die Seidenraster mit drei Grundfarben (Magentarot, Zyan und Gelb) und mit drei Schablonen für jede Farbe. Den Seidenraster erzielten wir durch neun Farbschichten. Wir begannen, aus einem Programm eine Vielzahl von Produkten herzustellen und mit Veränderungen der Schablonen und der Farben zu spielen.
2. DER ERSTE RASTER: 70´56 PIXELS. 4096 FARBEN, 1975–1978
Im Jahr 1975 erhielten wir unseren ersten Raster. Er hatte ein sehr niedriges Auflösungsvermögen, nämlich 70´65 Pixels!, aber auch 4096 Farben, 16 Ebenen für Rot, Grün und Blau. So gaben wir die pointillistische Methode auf, da sie bei einer so geringen Zahl von Pixels keine Bedeutung hatte, und konzentrierten uns ausschließlich auf Farbvariationen. Aus technischen Gründen konnten wir nur die Lisp-Sprache und die Ganzzahl mit einem 16-K-Computer verwenden. Unsere Berechnungen basierten also auf geraden Linien und Kreisen, unter Verwendung der rekursiven Eigenschaft der Lisp-Sprache, um die Elementarstrukturen zu kombinieren. Zuerst konstruierten wir kontinuierliche Variationen von Farben, die mit einigen einfachen Formen wie Viereck und Dreieck begrenzt waren. Jede Farbe, R, G, B, hatte eine monotone Beziehung, die sich durch die Oberfläche verstärkte oder abschwächte. Mit diesen Grundelementen experimentierten wir mit verschiedenen Iterationen, wobei die Struktur jeder einzelnen Elementaroberfläche sichtbar blieb.

Um die Strenge der Geometrie in den Bildern zu mildern, begannen wir dann, die Iteration der Elementarformen auf nichtsichtbare Weise zu verwenden. Wir füllten die Oberfläche mit aufeinanderfolgenden Triangulierungen, wobei wir an allen Ecken dieselben Farbwerte beibehielten.

Auf diese Weise erzielten wir Falt- oder Tiefeneffekte, die Konstruktionsvorgänge durch Triangulierung wurden unmerkbar. Gleichzeitig führten wir eine flexiblere Beziehung zwischen den Farben und den ebenen Linien ein, wodurch wir die Farbvariationen erhöhten. Damit konnten wir auf dem Bild Farbhöhepunkte erzielen.

BILDMISCHUNGEN UND –SEQUENZEN
Es wurde möglich, eine Serie von Bildtransformationen zu entwickeln, weil es einfach war, ein Bild abzuspeichern und zu modifizieren, was vorher ohne den Raster nicht möglich war. Die Mischung von Bildern ist ein sehr einfaches aber künstlerisch höchst wirkungsvolles Werkzeug. Wahrscheinlich ist es für Leute, die mit dem Computer arbeiten, ebenso einfach wie das Mischen von Farben für den traditionellen Künstler. Die einzige Voraussetzung dafür ist die Möglichkeit, die Bilder abzuspeichern und wieder abzurufen. Mit dem Raster standen uns alle diese neuen Möglichkeiten zur Verfügung.

Unsere erste Erfahrung war die einfachste: die Kombination zweier Bilder durch eine barizentrische Funktion: f(x, y) = a•x+(1–a)•y mit O
Durch Änderung des Koeffizienten in der vorhergehenden Beziehung von 1 zu 0 erhielten wir eine Bildfolge, die ständig vom ersten auf das zweite Bild überwechselte. Andererseits konnte jedes Bild als Element der Serie identifiziert werden: wir bestimmten für jedes Bild einen Übersichtsplan, der mit Hell- oder Dunkelfilterung dieses Bildes gemacht wurde.

Es sind ebensoviele Mischungen möglich, wie man sich verschiedene Formeln für ihre Herstellung ausdenken kann- alles, was man braucht, ist eine Funktion, mit der man zwei Farben auf eine dritte aufbringt. So verwendeten wir etwa die Formel f(x, y) = V x•y, durch die der Anteil von schwarz in der Mischung erhöht wird, oder die Formel !x–y! oder !15–x–y!, wobei wir die Komplementärfarbe benutzten. Da wir nur 16 Werte für jede der Grundfarben hatten, ergab jede kontinuierliche Funktion von [0,15] ´ [0,15] bis [0,15] eine kontinuierliche Mischung, wodurch die Kontinuität der Farbvariationen beibehalten wurde.

BILD-UMWANDLUNGEN
Damals war die Entwicklung der Digitalmusik im Vergleich zu unseren einfachen Experimenten eine sehr faszinierende (die Entwicklungen im Bereich der Dreidimensionalität waren für uns noch unerreichbar). Wir fragten uns, ob uns die Techniken, mit denen die Musiker Töne erzeugten, in irgendeiner Weise nützlich sein könnten. So begannen wir also, die Bilder in Begriffen von Frequenzen zu sehen (Raumfrequenzen anstatt Zeitfrequenzen). Mit der Verwendung einer Fournier-Entwicklung im Bereich der trigonometrischen Funktionen von i und j war es einfach, glatte Farbvariationen zu schaffen. Wir liehen uns eine Idee des Musikers Chowning und führten eine Modulation von Frequenzen ein – wir konnten anhand der Parameter der Modulation eine große Vielfalt in den korrespondierenden Farbvariationen, aber auch gewisse Effekte der Farbvibration beobachten. Umgekehrt konnte ein bestimmtes Bild zu einer Fournier-Serie entwickelt werden, genauso wie ein bestimmter Ton einen präzisen Harmonie-Inhalt besitzt. Die Arbeit mit dem Fournier-Koeffizienten war also eine weitere Art der Umwandlung von Bildern. Das einzige Problem bestand in der Rechnung der Fournier-Transformation mit Ganzzahlen und in der Lisp-Sprache. Vermutlich realisierten wir die längste vorstellbare FFT-Transformation.

Es lag nahe, daß wir uns für die Möglichkeiten von Techniken interessierten, die aus der digitalen Bildverarbeitung stammten. Wir verwendeten Fournier- oder Walsh-Expandierungen, um Filter von hohen oder niedrigen Frequenzen zu realisieren. Die Umwandlung von Histogrammen war eine Technik, an der wir großes Interesse hatten. Durch die Egalisierung eines Histogramms reduzierten wir die Zahl der in einem Bild vorhandenen Farbebenen auf eine Weise, die die Formen akzentuierte.

Keine dieser Techniken unterbrach die Kontinuität der Farbvariationen. Wir pflegten sie auf unterschiedliche Weise zu kombinieren.
3. ZWEIDIMENSIONALE ZEICHNUNGEN, 1979–1981
Im Jahr 1979 erhielten wir ein neues Gerät, eine LSI 11 mit einem 24–K-Speicher und einem Raster von 380´255 Pixels, auch mit 4096 Farben. Mit diesen neuen Programmiermöglichkeiten (Echtzahlen und Fortran-Sprache) produzierten wir zunächst weitere kontinuierliche Farbvariationen, wobei wir die Helligkeit durch das Bild bewegten und die drei Farben R, G und B jedes Pixels durch eine lineare Beziehung rechneten: R+G+B=L (mit L-Helligkeit), wie in unseren ersten Bildern oder Seidenrastern. Erstmals war es einfach, eine Kurve zu zeichnen, ohne die früheren Beschränkungen, die die Arbeit auf einem sehr kleinen Computer mit Grundzahlen mit sich brachte. So begannen wir, komplexere Kurven zu verwenden und statt mit geraden Linien und Kreisen zu spielen, brachten wir nun figurative Elemente in unsere Bilder. Um zweidimensionale Formen zu zeichnen, entschlossen wir uns, parametrische anstatt analytische Kurven zu wählen, weil das eine willkommene Möglichkeit war, der strengen Geometrie zu entkommen. Besonders die Verwendung von B-Spline-Kurven war nicht nur eine praktische, sondern auch eine ästhetische Entscheidung. Diese Kurven haben inhärente Eigenschaften, die eine glatte Wirkung ergeben. Sie verfügen auch über nützliche lokale Eigenschaften. Um eine B-Spline-Kurve oder Oberfläche zu zeichnen, muß man lediglich die x- und y-Koordinaten einiger Punkte angeben und die gesamte Kurve bestimmt sich aus diesen Punkten, Kontrollpunkte genannt, ohne exakt durch sie hindurchzugehen. Wenn man einen dieser Punkte verschiebt, verändert sich nur der entsprechende Teil der Kurve, so daß man die Zeichnung lokal verändern kann. Analog dazu werden Oberflächen durch ein dichtes Netz von Kurven konstruiert. Die Art und Weise, wie die Oberfläche gefüllt wird, wird zu einem neuen Parameter der Dichte: So entschieden wir uns bei manchen Bildern (etwa dem einer Hand), eine sichtbare Verteilung von Kurven auf der Oberfläche zu machen, wodurch eine Art Netz entstand. Es ist auch möglich, die Oberfläche nur teilweise zu füllen, indem man nur einige Punkte rechnet und nur eine Verteilung von farbigen Punkten herstellt.

Die Färbung dieser Oberflächen bestand anfangs lediglich in einer Ausweitung unserer früheren Farbrechnungen. Wir benutzten denselben parametrischen Ansatz für die Verteilung der Farben auf der Oberfläche wie für die Berechnung der Geometrie. Jeder Kontrollpunkt war einem Helligkeitswert zugeordnet. So wurde während der Errechnung der Oberfläche für jeden Punkt eine Helligkeit gerechnet und die Farben R, G und B wurden wie vorher gerechnet, indem wir die Helligkeit und die Variationen von zwei Farben zur Festlegung der dritten benützten.

Wir haben diese Methode zum Wiederaufbau von Bildern aus digitalisierten Bildern verwendet, die nur mangelhaft von acht Graustufen und 256´256 Pixels definiert waren. Die Kontrollpunkte erschienen durch ein Rasterfeld auf dem Bild, und die den einzelnen Kontrollpunkten zugeordnete Helligkeit war der korrespondierende Grauwert des digitalisierten Bildes. So produziert also die Berechnung einer B-Spline-Oberfläche mit diesen Kontrollwerten automatisch eine glatte Interpolierung der Helligkeit. Indem wir das Konzept eines nichtgeometrischen Kontrollwertes erweiterten, wurde es möglich, jedem Kontrollpunkt zahlreiche nichtgeometrische Parameter hinzuzufügen; in der Folge erhielten wir eine flache Variation dieser Parameter auf der Oberfläche. So kann etwa ein Farbsatz jedem einzelnen Kontrollpunkt zugeordnet werden, danach wurde die Farbe für jeden Punkt der Oberfläche direkt gerechnet und kontinuierlich diffundiert. Nun konnten alle unsere früheren Erfahrungen mit abstrakten Bildern auf diese Weise wiederholt werden. Besonders die Effekte, die aus der Mischung von Bildern entstanden, waren noch immer interessant, weil sie eine neue Vielfalt von Schattierungen und Farbtönen ergaben. Die Gesamtheit der technischen Neuerungen konnte wiederverwendet werden, was durch eine einfachere Rechenart erleichtert wurde. Wir begannen, andere Arten der "Nachbehandlung" anzuwenden, insbesondere eine pointillistische Behandlung, die dank der größeren Pixel-Anzahl möglich wurde. Es ist sehr einfach, einen pointillistischen Effekt zu erzielen, indem man auf beliebige Weise eine Zufallsstörgröße zu den gerechneten Farbwerten hinzufügt. Selbstverständlich gibt es genauso viele Möglichkeiten, wie man sie sich vorstellen kann. Bei vielen Bildern benützten wir die einfachste Methode, indem wir den drei Farben separat den Zufallswert einer gegebenen Variation hinzufügten. Eine andere Möglichkeit besteht darin, lediglich der Helligkeit eine Zufallsvariante zu geben und die gerechneten Schattierungen und Sättigungsgrade unverändert zu lassen, man kann aber auch der Schattierung und der Sättigung eine Zufallsstörgröße geben und die Helligkeit belassen. Ferner ist es möglich, die Zufallsverteilung durch das Bild zu verändern, wodurch manche Bereiche mehr pointillistisch werden als andere, mit glatten Übergängen.

Alle diese Methoden werden auch bei den dreidimensionalen Bildern weiterverwendet.
4. GESTALTUNG VON DREIDIMENSIONALEN REALISTISCHEN FORMEN
Seit 1980 haben wir unser Rechnen von B-Spline-Oberflächen auf drei Dimensionen ausgeweitet. Die technischen Einzelheiten werden im folgenden erklärt.

Eine dreidimensionale B-Spline-Oberfläche wird aus einem Netz von Kontrollpunkten gestaltet; die Aufgabe der Gestaltung besteht darin, die Koordinaten x, y und z dieser Kontrollpunkte zu bestimmen. Das ist schwieriger als im zweidimensionalen Bereich. Bei der zweidimensionalen Zeichnung kann man die Kontrollpunkte leicht auswählen, indem man die Zeichnung auf ein graphisches Tablett legt. Die Lokalität der B-Spline ist für interaktives Zeichnen sehr geeignet. Die Modifizierung eines Kontrollpunktes verändert lediglich eine Stelle der Kurve. Mit einiger praktischer Erfahrung ist das Zeichnen mit Kontrollpunkten ziemlich einfach.
Im dreidimensionalen Bereich ist die Gestaltung noch ein Problem, das sowohl theoretisch als auch experimentell durch verschiedene angemessene Techniken gelöst werden muß. Wenn bestimmte Formen, wie etwa Wasser, Berge, Hügel oder Bodenflächen relativ leicht durch mathematische Funktionen gestaltet werden können, so ist die Situation bei Körpern oder Gesichtern selbstverständlich viel schwieriger. Je nach den vorhandenen Geräten verwendeten wir eine Reihe von "ad-hoc"-Methoden.

Eine archaische, aber mögliche Methode besteht darin, daß man zwei Ansichten eines Modells, eine en face und eine im Profil, von Hand zeichnet und die Koordination der ausgewählten Punkte auf diesen Ansichten mißt. Im Jahr 1981 machten wir auf diese Weise einen Kopf. Wir mußten mehrere Tage darauf verwenden, die Kontrollpunkte händisch zu manipulieren, um ein befriedigendes Ergebnis zu erzielen; in dieser Zeit schufen wir mehrere interessante Monster …

Algorithmen können für die Manipulation nützlich sein. Für die B-Spline-Oberfläche erwies sich der sogenannte "OSLO-Algorithmus" als außerordentlich wertvolles Werkzeug. Durch die Einführung neuer Kontrollpunkte, ohne die Oberfläche verändern zu müssen, bietet er ein zusätzliches Mittel zur lokalen Veränderung von Objekten an Stellen, wo sie detailreicher sind, weil das Umfeld, das sich mit einem Kontrollpunkt bewegt, kleiner wird.

Um einen Dinosaurier zu gestalten, begannen wir 1982 mit einem hölzernen Skelett. Immer noch händisch vermaßen wir die Koordinaten von Punkten entlang der Wirbelsäule und an verschiedenen Schnittpunkten von Ebenen, mit einem korrespondierenden Rotationswinkel für jede Scheibe (es war nur einer notwendig). Durch eine entsprechende Positionierung der Scheiben in Relation zur Wirbelsäule konnten wir die drei Koordinaten der gewählten Kontrollpunkte rechnen. Die Kombination Wirbelsäule Scheiben hatte den Vorteil, daß sie für eine andere Position rasch adaptiert werden konnten: Dazu mußte man nur die Lage der Wirbelsäule und die Richtung der Scheiben verändern und die im internen Bezugssystem gewonnene Information jeder einzelnen Scheibe beibehalten.

Danach verwendeten wir verschiedene dreidimensionale Modelle aus Gips, Ton und anderen Materialien und überzogen sie mit einem oder mehreren Rastern von Kurven. Dann maßen wir die Rasterpunkte entweder händisch oder automatisch. Jetzt mußte man noch die diesen Maßen entsprechenden Kontrollpunkte finden. So erzielten wir etwa mit einem von dem Autohersteller Renault entwickelten automatischen System einen Satz von Kontrollpunkten von korrespondierenden Bezier-Oberflächen. Bei Flecken, die mit nur 16 Punkten gemacht werden, haben Bezier- und bikubische B-Spline die gleiche Oberfläche. Wir verwendeten die Bezier-Kontrollpunktsammlung zur Herstellung eines Gesichtes, das einem bestimmten Gipsmodell entsprach.
Wir können die ausgewählten Punkte auch direkt als Kontrollpunkte verwenden. Der Unterschied ist nicht immer erkennbar.

Jedenfalls bleibt auch nach vollendeter Sammlung der Kontrollpunkte noch eine Menge zu tun. Hier seien einige Beispiele von möglichen Schwierigkeiten angeführt: Wenn das Objekt in mehrere B-Spline-Felder aufgeteilt ist, ist die Frage, wie man die Kontinuität zwischen ihnen sicherstellt. Auch wenn die Felder korrekt zusammengefügt werden, würde eine Diskontinuität ihrer Berührungspunkte zu einer Diskontinuität der Helligkeit an den Grenzflächen führen? Ein äußerst unangenehmes Ergebnis. Eine Lösung dieses Problems besteht darin, daß man solange an den Kontrollpunkten arbeitet, bis die verschiedenen Felder kontinuierlich miteinander verbunden werden. Zahlreiche Algorithmen und viel Rechenarbeit sind notwendig, um diese Arbeit erfolgreich durchzuführen.

Ein weiteres verwandtes Problem ist die Gestaltung von Baumstrukturen. Da die B-Spline-Oberflächen keine interpolierenden Oberflächen sind, wie stellen wir sicher, daß ein Ast richtig an den Stamm angefügt wird? Auch hierbei ist der OSLO- Algorithmus äußerst hilfreich. Mit diesem Algorithmus ist es möglich, eine B-Spline-Oberfläche in zwei B-Spline-Oberflächen zu schneiden und sie an verschiedenen Stellen zu zerschneiden. Die beiden resultierenden Oberflächen fügen sich ganz exakt aneinander; bei der Darstellung ergeben sie dieselbe Form wie die ursprüngliche Oberfläche. Wir benützten diese Eigenschaft zur Verkettung und Überblendung zweier Oberflächen. So fügten wir etwa einer "Stamm"-Oberfläche eine "Ast"-Oberfläche folgendermaßen hinzu: Wir schneiden den Stamm an einer bestimmten Stelle auseinander.

Die Kontrollpunkte des "Astes" werden zu jenen des ausgewählten "Stamm"-Teiles hinzugefügt, wodurch eine gleiche Oberfläche erzielt wird. Dann stellen wir diese Oberfläche gemeinsam mit dem zweiten Teil des Stammes dar. Wir haben diesen Vorgang wiederholt angewendet und so mehrere Bäume geschaffen, wobei wir von zwei Oberflächen ausgingen: einer für den Stamm und einer für den Ast. Die gleiche Methode verwendeten wir, um die Beine an einem Dinosaurier-Körper anzubringen: der Körper war eine B-Spline-Oberfläche, die vier Beine eine weitere. Zur Verkettung des ersten Vorderbeines schnitten wir den Körper in zwei Teile, dann stellten wir die Kontrollpunkte des Vorderbeines neben die des ersten Teils und stellten die entsprechende Oberfläche als Ganzes dar. Der Prozeß wird fortgesetzt, indem man den übrigen Teil des Körpers zerschneidet, das nächste Bein danebenstellt und es darstellt; zum Schluß wurde der letzte Teil, der Schwanz, allein dargestellt.

Die Verbesserung der Datensammlungsmethodik ist von grundlegender Bedeutung. Sicherlich kommt uns die mögliche Ansammlung von Daten zugute, die stets in anderen Arbeiten verwendet werden können; aber wir sind noch weit von einem einfachen, bequemen Vorgang der Datensammlung entfernt, auch wenn wir uns der unterstützenden Programmiersysteme bedienen können. Bedenken Sie etwa die Herstellung eines Kinofilms, bedenken Sie, wie viele verschiedene Dinge erforderlich sind, um zu verhindern, daß sich das Publikum schon nach wenigen Minuten langweilt. Betrachten Sie ein Foto, ein Fernsehbild, und überlegen Sie, wie viele Gegenstände gestaltet werden müssen, damit es sich der Simultation auch nur annähert …