www.aec.at  
Ars Electronica 1990
Festival-Programm 1990
Back to:
Festival 1979-2007
 

 

VIRTUELLE WELTEN: Des Kaisers neue Körper


'Peter Weibel Peter Weibel

jenes das Wahrnehmen; dies der Gegenstand.

G. W. F. Hegel
Im 18.Jahrhundert, der Morgenröte der Maschinen-Revolution, ereignete sich eine merkwürdige Geschichte.

Ein Zauberer, sehr bewandert auf dem Gebiet der Uhrmacherkunst, hatte einen Automaten konstruiert. Die Maschine war so gut gelungen, ihre Bewegungen waren so geschmeidig und natürlich, daß die Zuschauer, als beide auf der Bühne erschienen, sie nicht voneinander unterscheiden konnten. Um dem Schauspiel einen Sinn zu geben, sah sich der Meister veranlaßt, seine eigenen Bewegungen und darüber hinaus seine ganze Erscheinung zu "mechanisieren", denn die Zuschauer überkam immer stärker das beklemmende Gefühl, sich nicht für den "Echten" entscheiden zu können, und es war immer noch besser, sie hielten den Menschen für den Automaten und vice. (1)
DIE MASCHINE SIMULIERT DEN MENSCHEN – DER MENSCH SIMULIERT DIE MASCHINE
Diese Geschichte erzählt auf eine einfache Weise das schwierige Verhältnis von Maschine und Körper, von Mensch und Maschine. Diese Geschichte illustriert aber auch das Problem der Technik. Nämlich ob sie durch ihre Perfektion eines Tages den Unterschied zwischen Mensch und Maschine zunichte macht. Wird es eines Tages Computer-Roboter, intelligente Maschinen geben, die den Menschen vollkommen simulieren können?

Klarerweise ist jedes Ding, jedes "Zeug" (Heidegger) grundsätzlich amorph. Die Dinge geben auch Auskunft über ihre Produzenten. Erstens haben diejenigen Dinge, die vom Menschen erzeugt wurden, auch Eigenschaften ihres Erzeugers, eben indem sie von Menschen produziert wurden. Zweitens verhalten sich die Dinge wie Menschen, durch die beabsichtigte Delegierung menschlicher Eigenschaften an die Objekte selbst. Man baut ja die Maschinen, damit sie menschliche Funktionen verbessern, verstärken, übernehmen oder ersetzen. Diese Prothesen-Funktion der Maschinen beschreibt Freud in "Das Unbehagen in der Kultur" sehr genau. Man konstruiert die Maschinen, um menschliche Bedürfnisse zu befriedigen. jede Maschine hat also anthropomorphe Züge. Der entscheidende Punkt ist allerdings, daß die Maschine gerade wegen jener Anthropomorphisierung, die von allen gewünscht wird, schließlich so perfektioniert wird, unsinnigerweise, denn das Ziel der Anthropomorphisierung ist ja die perfekte Simulation des Menschen, die ihn dann substituieren kann.

Im Cockpit des Flugzeugs, das im Blindflug vom automatischen Piloten, also einer Maschine, gesteuert wird, kontrolliert der Mensch noch die Instrumente. Es ist aber denkbar, daß auch diese Instrumente, welche den Verlauf des Fluges anzeigen, bald von einer Maschine kontrolliert werden, welche die Instrumente abliest, darauf reagiert Daten eingibt etc. Eine solche intelligente, in Echtzeit reagierende Maschine würde den Menschen ersetzen können. Dieses blinde Cockpit, das auf sich selbst gestellte, autonome, selbsttätige Flugzeug, könnte dann ganz von alleine, eben automatisch, starten, fliegen und landen. Es wäre ein Automat. Diese Autopiloten haben aber gewiß kein Bewußtsein. Dennoch, je perfekter die Maschinen werden, umso weniger brauchen wir die Menschen. Lewis Mumford hat das in "Technik und Zivilisation" bereits geahnt: "Die Maschine eliminiert menschliche Leistungen, was der Paralyse gleichkommt."

Je perfekter die Maschinen werden, zeigt uns die Parabel, umso mehr übertreffen sie in ihrer Perfektion den Menschen selbst. Denn bei Perfektion muß man ja fragen: Perfektion von was? Eben von menschlichen Eigenschaften. Wir wollen ja Maschinen deswegen, weil sie verläßlicher, länger, stärker, genauer arbeiten als Menschen. Die Maschinen perfektionieren die menschlichen Eigenschaften soweit daß sie den Menschen bzw. Teile der Tätigkeit des Menschen ersetzen können. Aber gerade wegen dieser Perfektion der Maschinen, ursprünglich erwachsen aus der Simulation des Menschen, die ihn aber schließlich übertrifft, kommt es soweit, daß die Dinge sich umdrehen und der Mensch die Maschine selbst simuliert. Die Dinge werden durch ihre perfekte Simulation und Anthropomorphisierung selbständig, selbsttätig, autonom. Wie die Waren sich verhalten, als hätten sie ein eigenes Leben, als wäre ihnen Leben eingehaucht, so benehmen sich die Maschinen wie Golems, als hätten sie einen eigenen Geist und Willen. Wegen ihrer dieser neuen Souveränität treten die Maschinen in ein neues Verhältnis zum Menschen, ihrem Produzenten, und die Menschen zu den Maschinen, zu deren Sklaven sie gelegentlich werden.
DIE EVOLUTION DER MASCHINEN

Vom Geist der Maschinen und von den Maschinen des Geistes
Samuel Butler hat 1872 in seinem utopischen Roman "Erewhon", die Umdrehung von "Nowhere", diese Problematik des Verhältnisses von Mensch und Maschine bereits genau erkannt. "Is it man´s eyes, or is it the big seeing-engine which has releaved to us the existence of worlds beyond worlds into infinity? … And take man's vaunted power of calculation – have we not engines which can do all manner of sums more quickly and correctly then we can? … In fact, wherever precision is required man flies to the machine at once, as far preferable to himself … May not make man himself become a sort of parasite upon the machines?"

Wegen ihrer Präzision flüchtet der Mensch geradezu zur Maschine. Die Maschine ist dem Menschen in vielen Perspektiven vorzuziehen. Schließlich wird der Mensch gar zum Parasiten der Maschine.

Aus diesen Überlegungen entwickelt Butler in "Erewhon" erstmals eine Evolutionstheorie der Maschinen. Ähnlich wie in Darwins Evolutionstheorie der Arten durch survival of the fittest entwickeln sich auch die Maschinen selbst durch Evolution. Diese Gedanken, obwohl ihr Urheber vergessen ist, sind gerade heute von äußerster Aktualität durch das Werk von Gotthard Günther, Hans Moravec, Gerald M. Edelman, Daniel Hillis und andere.
NEURALER DARWINISMUS
Der Nobelpreisträger für Medizin von 1972, G. E. Edelman, entwarf in seinem Buch mit dem bezeichnenden Titel "Neural Darwinism" eine neue Theorie, wie das Gehirn und das Neuronensystem funktioniert, die Theorie der neuronalen Gruppenselektion. Wie schon der Titel andeutet handelt es sich dabei um eine Übertragung und Spezifikation der Darwinschen Evolutionstheorie auf das Nervensystem . (2)

Gemäß dieser Theorie operiert das Nervensystem in jedem Individuum als ein selektives System, das den natürlichen Selektions-Mechanismen der Natur entspricht, aber mit anderen Mechanismen ausgestattet ist. Die Kategorisierung verschiedener Sinnes-Reize, die das Verhalten des Menschen bestimmen, erweist sich dabei als dynamischer Prozeß der Re-Kategorisierung.

Aus heuristischen Gründen hat Edelman daher einen Automaten entworfen, der Teile dieser Selektionstheorie in die physikalische Struktur eines funktionierenden selbstorganisierenden Netzwerkes einbettet. Dieser Wahrnehmungs-Automat heißt typischerweise Darwin II. Entlang der Netzwerk-Konnektionen (Synapsen) signalisieren die Gruppen anderen Gruppen ihre Aktivitäten.

Parallele Netzwerke mit mehreren Subnetzwerken, die parallel operieren, sind natürlich auch möglich. Das zweite Netzwerk ist "Wallace" benannt, nach einer anderen Hauptfigur der Evolutionstheorie.

Das Darwin-Netzwerk reagiert vor allem auf individuelle Reizmuster und verwendet die Einzelauswahl bei der Kategorisierung. Das Wallace-Netzwerk reagiert auf Objekte, die zu einer Klasse gehören, und korrespondiert mit der statistischen Methode bei der Kategorisierung. Beide zusammen formieren ein Klassifikations-Paar.
PROGRAMM-DARWINISMUS
Nähert sich Edelman dem Problem auf der Ebene der Effekte des Realen, so der Computerforscher Daniel Hillis auf der Ebene der Simulation. 1983 baute seine Firma "Thinking Machines Corporation" den Parallel-Rechner "Connection Machine", wo "Tausende von Programmen in einer Art Evolutionsprozeß wetteifern" (Hillis), um die jeweils beste Lösung für ein gegebenes Problem zu finden. Eine Art Schiedsrichter-Programm wählt auf dem Weg dahin die beste Software-Variante aus. Diese Ausgewählten treffen in der zweiten Runde wieder aufeinander. Durch dieses "survival of the fittest" entwickeln sich die Computer-Programme selbst – eben nach dem Muster der Darwinschen Evolution (und nach Butlers Idee) – immer höher, um schließlich "genau das zu leisten, was wir wollen" (Hillis).

Die Edelmansche Idee der dynamischen Rekategorisierung von Sinnesreizen ist von dem kanadischen Neurophysiologen Donald Hebb 1949 schon in seinem Buch "Organization of Behavior" in Ansätzen vorgeschlagen worden: "Je aktiver die beiden Neuronen sind", d. h. je mehr Signale zwischen ihnen ausgesendet werden, je mehr sie sich stimulieren, "desto kräftiger entwickelt sich eine Verbindung zwischen ihnen. Dies würde bedeuten, daß unser Gehirn bei jeder neuen Erfahrung seine psychische Struktur ein bißchen neu verkabelt." (3)

Ralph Linsker vom IBM Watson Research Lab hat durch eine Neuralnetz-Simulation diese Fähigkeit eines Neuralnetzes, mit der Ausgestaltung seiner Leitungsbahnen auf Erfahrungen zu reagieren, also sich immer wieder neu zu "verkabeln", nachgewiesen . (4)
MENTALE MASCHINEN UND NEURALNETZWERKE

Ich glaube, daß der Computer eine spirituelle Maschine ist.

Umberto Eco
Linsker ist nur einer von sehr, sehr vielen Forschern, die unter dem Namen "Konnektionismus" mit diesen neuartigen Neuralnetzwerken, die selbsttätig lernen und Assoziationen herstellen, unvollständige Muster sinnvoll ergänzen können, etc., die komplexe Funktionsweisen des menschlichen Gehirns ergründen wollen. (5) Terry Sejnowski, dessen NETalk Computer, der mit künstlichen Neuronen arbeitet, die in riesiger Zahl miteinander vernetzt sind, einen geschriebenen Text laut zu lesen lernt, sagt, die Neuralnetzwerk-Theorie "stellt eine neue Sprache dar, in der sich Forscher unterschiedlicher Fachrichtungen über das Gehirn und den Geist unterhalten können".

Von beiden Seiten, von der Gehirnforschung, welche sich an den Ergebnissen der Computer-Technologie orientiert, und von der Computerforschung, die sich an die Theorien der Gehirnforschung anlehnt wird also eine neue Theorie vorgetragen, die eine neue Generation des künstlichen Gehirns, des Computers, erzeugt hat, die ich (statt Automaten) Hypermaten nennen möchte.

Zu den Neuralnetzrevolutionären zählen übrigens noch: Jim Anderson, der vor 20 Jahren damit begann, John Hopfield, der den Begriff Neuralnetz bekannt gemacht hat in dem er Neuralnetzwerke in Maschinen umsetzte. Gary Lynch, der Neurobiologe, Patricia Churchland, die Philosophin, George Lakoff, der Linguist, Geoffrey Hinton und vor allem David Rumelhart und Jay McClelland, die das dreibändige Standardwerk über Neuralnetze herausgegeben haben, wo sie neuartige Modelle für Neuralnetze und die dazugehörige neuartige Mathematik zu deren Ausbildung entwickelten . (6)
HYPERMATEN UND POSTBIOLOGISCHES LEBEN
Nach der Künstlichen-Intelligenz-Forschung (A.I.) sind wir also dabei, eine Wissenschaft des postbiologischen künstlichen Lebens (A.L.) zu begründen, die "den Geist in der Maschine" sehen möchte, die herausfinden möchte, wie es zur spontanen Selbstorganisation von Molekülen oder Nervennetzwerken kommt, wie wir Sehen und Lernen, wie wir Sprechen und Denken, wie wir Wahrnehmen und Erkennen, wie durch das scheinbar blinde Prinzip der natürlichen Auslese die Vielfalt und Schönheit der Lebensformen hervorgebracht werden konnte und wie wir diese Evolution simulieren und künstlich erzeugen können.

Ch. G. Langton, der Herausgeber des Buches "Artificial Life" (1989) kommt zur Überzeugung, daß eine Stufe der Evolution abgeschlossen ist und eine neue beginnt. "Der Prozeß der Evolution hat in uns zu "Uhren" geführt, die verstehen, was sie "ticken" macht, die beginnen, mit ihren eigenen Mechanismen herumzuspielen und die bald die "Uhrwerk"-Technologie gemeistert haben werden, die notwendig ist, um Uhren nach eigenem Design zu konstruieren.

Der blinde Uhrmacher hat sehende Uhren produziert und diese "Uhren" haben genug gesehen, um selbst Uhrmacher zu werden. Da ihre Sicht aber begrenzt ist, sollten sie vielleicht kurzsichtige Uhrmacher genannt werden. Der Prozeß der biologischen Evolution hat Genotypen erzeugt, welche Phenotypen kodieren können, die ihre eigenen Genotypen direkt manipulieren können: sie kopieren sie, ändern sie, oder schaffen neue. All das ist der Fall beim Künstlichen Leben.
"In der Mitte dieses Jahrhunderts hat die Menschheit die Macht erreicht, das Leben auf der Erde auszulöschen. In der Mitte des nächsten Jahrhunderts wird sie fähig sein, Leben zu erschaffen." (7)
Diese gegenseitige Manipulation und Kreation von Genotyp und Phenotyp beschreibt genau die von mir vorgeschlagene Sicht der gegenseitigen Simulation von Mensch und Maschine als natürliches Ergebnis der Evolution.

Diese Perspektive verschärft das von Butler angeschlagene Problem der parasitären Symbiose des Menschen mit der Maschine bzw. der Eliminierung des Menschen durch die Maschine.
MASCHINEN-REBELLION
Hans Moravec, Direktor des Mobile Robot Laboratory der Carnegie Mellon University, hat in seinem Buch "Mind Children" die "Zukunft der Maschinen- und Menschen-Intelligenz. ganz radikal in diesem Sinne entworfen. (8)

Die beiden ersten Sätze des 4. Kapitels "Grandfather Clause" stellen fast identische Fragen wie Butler: "What happens when ever-cheaper machines can replace humans in any situation? Indeed, what will I do when a computer can write this book, or do my research, better than I?" (Op.cit, S. 100).
Seine Antwort (wie die von Butler): Intelligente Maschinen bedrohen unsere Existenz. "We will simply be outclassed." Innerhalb des nächsten Jahrhunderts werden die Maschinen so komplex sein wie wir und wir werden stolz sein, wenn sie sich als unsere Abkömmlinge ausgeben. Das Ausmaß der schon gegenwärtigen Komplexität der Maschinen kommt in dem Wort "benutzerfreundlich" zum Ausdruck. Da die Maschinen schon komplexer zu bedienen sind als unser einfacher Verstand es lieb hat wird darauf Wert gelegt die Maschine benutzerfreundlich zu gestalten, d. h. in ihrer Komplexität herabzusetzen. In einer Spirale des Wettbewerbs von Billionen von Jahren haben sich nun unsere Gene ausgetrickst und eine neue Wunderwaffe erzeugt, die intelligente Maschine. Diese "Kinder unseres Geistes" werden sich eines Tages von uns befreien und ihr eigenes Leben beginnen. Mit Beginn der industriellen Revolution vor 200 Jahren begann die Endphase, wo künstliche Substitute für körperliche, menschliche Funktionen eingesetzt wurden.

Für Transport, Produktion etc. wurden die Maschinen unentbehrlich. Die in den letzten Jahren entwickelte und alle 20 Jahre um das Tausendfache gestiegene rechnerische Fähigkeit der mechanischen Maschinen bringen uns einer Zeit nahe, wo keine wesentliche menschliche Funktion, physisch oder geistig, ihr künstliches Gegenstück mangeln wird. Der intelligente Roboter als Höhepunkt dieser Entwicklung wird sich selbst konstruieren und verbessern können, ohne uns, und ohne die Gene, die uns gebaut haben. Die DNA wird im evolutionären Wettbewerb verloren haben. So ein genetisches "Take-over" (A. G. Cairns-Smith, Seven Clues to the Origin of Life, 1985) durch die Maschine wird unsere Kultur radikal transformieren.

Schon jetzt sind wir zwar noch Lebewesen mit Organismen, die zur Gänze durch ihre organischen Gene definiert sind, aber als Lebewesen funktionieren wir in unserer Kultur nur noch, indem wir uns auf Informationen verlassen, die nicht von Generation zu Generation durch Gene weitergegeben werden, sondern auf Informationen, die außerhalb unserer Gene erzeugt und gespeichert werden. Die Maschinen sind zur Aufrechterhaltung und zum Wachsen unserer Kultur unabdingbar geworden. Der nächste Schritt wird daher sein, daß wir Menschen für die Roboter nicht mehr unabdingbar notwendig sind, und eines Tages ihre Erhaltung, Verbesserung und Selbst-Reproduktion ohne unsere Hilfe zustande bringen.
Unsere Kultur wird sich dann unabhängig von unserer menschlichen Biologie entwickeln können. Dann ist der genetische Takeover vollständig. Eine "post-biologische Welt", dominiert von selbstverbessernden, lernenden und denkenden Maschinen, welche die Limitationen des sterblichen menschlichen Leibes nicht kennen, würde entstehen. Nach den Tieren und Menschen würden die intelligenten Roboter eine dritte Phase der Evolution einleiten, wovon Kybernetik, Künstliche Intelligenz und Robotik erst die Anfänge zeigen.
Diese Maschinen entwickeln sich mit einer enormen Beschleunigung, die gemäß Moravec nötig ist, um unser künftiges Leben zu sichern und unsere Kultur am Leben zu erhalten. Besonders für die Raumforschung und -besiedlung werden sie unabdingbar. Eventuell werden diese intelligenten Roboter unsere eigenen Raum-Aufenthalte, weil sie schwieriger und um so viele Billionen teurer sind, vollkommen unnötig machen. Und eines Tages werden sie in das Universum emigrieren und uns wie eine Staubwolke hinter sich lassen.

Ähnliche Gedanken hat schon K. Eric Drexler in seinem Buch "Engines of Creation" (Anchor/Doubleday) ausgedrückt. Mikroskopische selbstreproduzierende Roboter, Microbots, aufgebaut auf Integrated Circuits Miniature Technology und versehen mit der teilweisen Adaption genetischer Mechanismen, werden unendlich lang leben und ganz spezifische Aufgaben übernehmen.

Um diese Beschleunigung zu veranschaulichen hat Moravec nach den Kriterien "computational power", die Rechengeschwindigkeit, und "computational capacity", die Speichergröße, eine Karte der Evolution der Rechenmaschinen zusammengestellt.
FORMALE LIMITATIONEN MENTALER MASCHINEN?
Diese beeindruckende Tabelle kann nun aber nicht darüber hinwegtäuschen, daß es bestimmte formale Limitationen gibt, die in der eingangs zitierten Parabel und in der berühmten Church-Turing-Hypothese, ebenso wie in Gödels Beweis und Turings Tests zum Ausdruck kommen.

Gödel konnte bekanntlich formal beweisen, daß nicht alle Sätze eines formalen Systems in diesem System selbst formal beweisbar sind und daher also formal unentscheidbar. Daraus könnte man den Schluß ziehen, daß der Computer, der ein formales System darstellt, und alles was formalisierbar ist, ist auch mechanisierbar, eben deshalb nicht alle Gleichungen der Welt lösen kann. Nicht alles wäre daher berechenbar, formalisierbar und mechanisierbar im formalen System eines Computers.

Gödel selbst hat sich diesem Schluß gegenüber ambivalent verhalten, aber der Deutung der nicht-algorithmischen Natur des menschlichen Denkens den Vorzug gegeben: das Denken ist nicht mechanisch, dann ist der Geist eben stets der Maschine überlegen. Er hat natürlich auch gesagt, daß dabei die Voraussetzungen, daß die digitale Analogie zwischen Computer und Gehirn, also daß beide nach digitalen Prinzipien arbeiten, akzeptiert werden muß.

Diese These verallgemeinert würde auch der Simulation (menschlicher Fähigkeiten durch Maschinen) Grenzen setzen. Die Church-Turing-Hypothese verschärft Gödels Ergebnis, indem sie den Gürtel der Berechenbarkeit noch enger schnallt und sagt, eine Funktion ist nur berechenbar, wenn sie Turing-Maschinen-berechenbar ist und wie Church zeigte, ist dies nur eine bestimmte Klasse von Funktionen, die von ihm so genannten rekursiven Funktionen. Mechanisierbar wäre also nur, was formalisierbar wäre.
Berechenbar wäre aber nur, was effektiv rekursiv berechenbar wäre. Also eine absteigende Stufe der Digitalisierbarkeit des Geistes.

Auf unser Problem übertragen würde daher die Frage lauten, gibt es ein vergleichbares Limitationstheorem auch für die Simulation. Sind Simulationen ebenso einschränkbar auf vergleichsweise effektive Berechenbarkeiten wie die Turing-Maschine. Sind durch Gödels, Turings, Churchs Ergebnisse der digitale Traum, alle Vorgänge des Lebens, zumindest des Gehirns rein numerisch darstellen und berechnen zu können, schon rein formal Grenzen gesetzt? Wenn ein Computer nicht alle Funktionen der Welt und nicht alle Sätze der Mathematik lösen kann, wie soll er dann den Geist vollkommen simulieren können?

Wie gesagt, Gödel selbst hat die Bedeutung seines Theorems für diese Frage schon relativiert und einen platonischen Ausweg offen gelassen.

Turing hat in seinem berühmten Aufsatz von 1950 "Computing Machinery and Intelligence" die Frage gestellt "Können Maschinen denken? " und sie etwas überraschend mit einem operativen Argument, das heute Turings Test genannt wird, bejaht. (9) Er hat nämlich gesagt, ein Computer denkt dann, wenn seine Antworten ununterscheidbar werden von den Antworten eines wirklichen Menschen. Ein Mensch sitzt vor einer Wand und stellt eine Frage. Die fragende Person weiß nicht, welche der auf einem Bildschirm geschriebenen Antworten vom Computer oder dem Menschen stammen. Wenn die Person nicht herausfinden kann, welche Antwort vom Computer und welche vom Menschen stammt, hat der Computer den Test bestanden. K. M. Colby hat in der Mitte der 60er Jahre mittels eines Computers einen Psychotherapeuten simuliert. Der Computer-Therapeut war so erfolgreich, daß er von vielen Patienten dem Menschen vorgezogen wurde.
SURVIVAL BY SIMULATION
Hier sind wir wieder bei unserer Parabel angelangt. Wenn die Simulation erfolgreich ist, fehlt der Unterschied zwischen Mensch und Maschine. Daraus folgt allerdings nicht, daß der Mensch deswegen überflüssig wird. Sondern daraus folgt, daß es bei wirklich perfekter und umfassender Simulation des Menschen durch eine Maschine schwierig wird bzw. keinen Sinn mehr hat, zwischen ihnen Unterschiede zu machen, denn sie operieren ja gleich. Wir werden nicht mehr wissen, ob es sich um eine Maschine oder einen Menschen handelt.

Es wird keinen Unterschied mehr geben und daher auch keinen mehr machen. Es wird sinnlos sein von Mensch versus Maschine zu reden. Auch Gödel war der Auffassung, daß wir vielleicht eines Tages einen nicht-digitalen Computer bauen können, der alle Limitationstheoreme sprengt, nur dann werden wir nicht mehr wissen, daß es ein Computer ist. Der Mensch kann dann entweder seine Identität als Mensch zurückgewinnen oder er kann beginnen, den Computer zu simulieren. Der Mensch wird die perfekte Simulation, das vom Menschen selbst hergestellte Produkt, das ihn simuliert, aber perfekter als der Mensch selbst, wieder simulieren, um diese Perfektion überschreiten zu können. Transzendenz in der Immanenz, würde Husserl dies nennen. Deswegen habe ich am Anfang dieses Artikels gesagt – die Simulation des Menschen durch die Maschine erreicht eine Perfektion, die dazu führt, daß gerade wegen dieser Perfektion der Mensch beginnen wird, die Maschine zu simulieren. Wenn der Mensch beginnt, Eigenschaften seiner eigenen Produkte zu simulieren, dann besteht die Gefahr, daß der soziale Charakter der Produkte der Menschen plötzlich dem Menschen selbst als Eigenschaft der Dinge oder gar als natürliche Eigenschaft der Dinge erscheint. Dies hat Marx die Reifikation, die Verdinglichung und die Vergegenständlichung des Subjekts und des Seins genannt. Diese Tendenz zur universalen Vergegenständlichung des Seins, daß alle menschlichen Beziehungen und Aktivitäten wie Waren behandelt werden, hat mit dem Warentausch begonnen und setzt die Maschinenwelt fort. Waren stellen ja durch ihren Fetisch-Charakter eben den Prototyp der Versachlichung dar. "Das Geheimnisvolle der Warenform besteht also einfach darin, daß sie den Menschen die gesellschaftlichen Charaktere ihrer eigenen Arbeit als gegenständliche Charaktere der Arbeitsprodukte selbst, als gesellschaftliche Natureigenschaften dieser Dinge zurückspiegelt …". (10) Marx schreibt über die Produkte der menschlichen Hand in der Warenwelt:
"Hier scheinen die Produkte des menschlichen Kopfes mit eigenem Leben begabte, untereinander und mit den Menschen in Verhältnis stehende selbständige Gestalten – Dies nenne ich den Fetischismus, der den Arbeitsprodukten anklebt, sobald sie als Ware produziert werden, und der daher von der Warenproduktion untrennbar ist."

(Op.cit., S. 87)
Was Marx hier für die Ware sagt, gilt natürlich noch viel mehr für Roboter. Durch die Maschinen werden die Menschen noch mehr zu Waren als durch die Warenproduktion selbst.

Maschinen klebt ein doppelter Fetischismus an. Erstens als Waren, die sie sind, und zweitens als Reifikation. Der Fetischismus eines Autos, eines TV-Apparates, eines Computers ist allgegenwärtig. Roboter stellen genaue Produkte des menschlichen Kopfes dar, die mit eigenem Leben begabt sind, selbständige Gestalten. Sind also intelligente Maschinen wegen ihres verdoppelten Warenfetisch-Charakters der Endpunkt der Entfremdung?
Sicherlich stellen intelligente Roboter den Höhepunkt des "entfremdeten Geistes" von Hegel dar. Aber Hegel schreibt in seiner "Phänomenologie des Geistes" (1807), von der die A. I. lernen könnte, auch Folgendes:
"Aber das Dasein dieser Welt sowie die Wirklichkeit des Selbstbewußtseins beruht auf der Bewegung, das dieser seiner Persönlichkeit sich entäußert, hierdurch seine Welt hervorbringt und sich gegen sie als eine fremde so verhält, daß es sich ihrer nunmehr zu bemächtigen hat. Aber die Entsagung seines Fürsichseins ist selbst die Erzeugung der Wirklichkeit und durch sie bemächtigt es sich also unmittelbar derselben." (11)
Das Reich der Wirklichkeit entsteht also nur durch diese Selbstentäußerung und Entfremdung des Subjekts. Die Roboter-Maschinen sind demnach gewiß solche Produkte des sich entfremdenden Geistes ("Mind Children" sagt daher Moravec zu recht). "Obwohl geworden durch die Individualität, ist für das Selbstbewußtsein" die wirkliche Welt "ein unmittelbar Entfremdetes." Aber so ereignet sich "das Werden der wirklichen Welt". (12) " Die Maschinen und die Werkzeuge, Simulationen menschlicher Organe und Tätigkeiten, Selbstentäußerungen des Menschen, leisten ihren Beitrag zur Konstruktion und Evolution der Welt.


Die Simulation der Simulation, eine Art rekursiver Kreislauf, wo der Mensch, die Produkte, die ihn simulieren, wieder selbst simuliert, stellt, wollen wir Hegel folgen, ein Modell der Erzeugung der Wirklichkeit dar.
Insoferne wird das Darwinsche Modell der Evolution erst durch die Simulation auf die Probe gestellt. Das Darwinsche Modell der Evolution hat nämlich im Kern seiner Theorien eine Tautologie, nämlich sein berühmter zentraler Satz: survival of the fittest. Wenn man nämlich nach einer Charakteristik des Begriffs "fittest" sucht, kommt als Antwort das was überlebt, also eine Art aristotelisches Lebensprinzip, eine verdeckte Entelechie. Doch nicht Faktisches entwickelt sich aus Faktischem in der Evolution, sondern aus Modellen werden Fakten, aus diesen Fakten werden simulierte Modelle, aus den Simulationen wiederum Fakten. In Wahrheit ist es so, daß die Evolution ein ganzes interaktives Netzwerk von gegenseitigen Simulationen darstellt.
Die Evolution zeigt das Sein durchlöchert von Simulationen. Das "Ideologische" ist bereits Teil der Natur. Mimikry als Instanz der Anpassung an eine sich dynamisch verändernde Umwelt bringt dies deutlich zum Ausdruck. Der Begriff Mimikry muß neu überdacht werden. Wenn eine Pflanze gelbe Punkte auf ihren Blättern erzeugt um Insekten abzuschrecken, die aufgrund früherer Erfahrung und genetischer Information glauben, diese Punkte enthielten Gift, in Wirklichkeit aber nur Farbflecken sind, so ist das eine gelungene Simulation, die zu überleben hilft. Wenn die Insekten nach einiger Zeit die Simulation durchschauen und sich selbst adaptieren (eine neue genetische Information erhalten) und sich wieder auf die Pflanze draufsetzen (vielleicht nun selbst mit gelben Punkten, um sich vor anderen Insekten zu schützen), dann muß sich die Pflanze erneut verändern.
So entsteht eine Kette von Anpassungen an dynamische Simulationen. Survival of the fittest heißt also survival of the fittest simulation.

Das ist die eigentliche Aussage der zu Beginn erwähnten Parabel. Die Evolution der Maschinen und Menschen stellt eine neue Phase der Evolution dar, bzw. restrukturiert das existierende Evolutionsmodell, indem sie bereits vorhandene Elemente der Evolutionstheorie neu akzentuiert und unterschiedlich betont. In dieser gegenseitigen Evolution von Maschine und Mensch durch Simulation entsteht natürlich am Ende eine vollkommen künstliche simulierte Welt (vgl. auch den Denker der Simulation, Jean Baudrillard). Survival of the fittest simulation, heißt auch – survival of the simulation of the fittest. Der Mensch baut Maschinen, die lesen können, und wird selbst von den selbstlernenden Maschinen lernen. Durch diese Struktur kann der dem Warenfetischismus vergleichbare Zahlenfetischismus der digitalen Träumer im Sinne Hegels aufgehoben werden. Schon die Wirklichkeit der Natur ist durchlöchert vom entfremdeten Geist, auch die Tiere entäußern sich und produzieren dadurch ihre Werkzeuge und ihre Wirklichkeit. Die Maschinenrevolution macht uns das nur bewußt.
Wirklichkeit war schon immer konstruiert, künstlich, virtuell.
DAS BEWUßTSEIN DER MASCHINEN
Ein verfemter Denker der Hegeltradition, Gotthard Günther, hat nach seiner Dissertation "Grundzüge einer neuen Theorie des Denkens in Hegels Logik", sein erstes Buch (1933), ein wegweisendes Werk geschrieben "Das Bewußtsein der Maschinen" (1957), das für unseren Fragenkomplex von neuer Aktualität ist. (13) In der Ablehnung eines naiven linearen Pythagoräismus ("Alles ist Zahl") hat er eine Kenogrammatik entwickelt (Kenos, gr. = leer), die von der Leere des Nichts als der Mathematik und Logik zugrundeliegenden Tiefenstruktur ausgeht, die von beliebigen Werten besetzt werden kann. Im Arabischen bedeutet "Sifr" (Ziffer) zunächst "leer" oder "Null". Daher entwickelte er eine arithmetische Theorie, in der die Zahlen nicht linear auf einer einzigen Linie voranschreiten, sondern beliebige Seitenbewegungen ausführen können, einen nicht-linearen komplexen Pythagoräismus. Nach dem Aufgeben der linearen Konzeption der Zahl, fiel auch die zweiwertige Logik seiner Theorie der Polykontexturalität zum Opfer. Der dritte Wert dieser mehrwertigen Logik verwirft dabei als Rejektionswert die gesamte Alternative wahr–falsch; er liegt also nicht mehr auf der Linie zwischen wahr und falsch. Eine zweiwertige Logik des Seins wird also aufgegeben und eine mehrwertige Logik garantiert eine beliebige Offenheit des Formalismus und einen ständigen Komplexitätszuwachs. Die mehrwertige nicht-lineare Logik und die Theorie der Polytexturalität, wo eine Kontextur den Strukturbereich bezeichnet, in der die zweiwertige Logik noch gilt, erklären uns also die Vielfalt der materiellen Qualitäten der Welt, der Umschlag von Quantität in Qualität, und setzen das Modell eines Universums außer Kraft, das geschlossene, abgeschlossene und von einer einheitlichen Kontextur ist. Günther antizipiert dabei Ideen der Quantenmechanik von einer Unendlichkeit paralleler Universen (siehe später David Deutsch), die 1957 auftauchten. Gerade diese mehrwertige Logik der Reflexion, die sich gegen den rein linear und zweiwertig formalisierten bzw. mechanisierten digitalen Computer wendet, hat die Entwicklung der Parallel-Rechner und der Neuralen Netzwerk-Computer antizipiert. Die polykontexturale, polylineare und mehrwertige Logik von G. Günther könnte bei der Organisation und Konzeption solcher Neuralnetzwerke noch von Vorteil sein.

Auch für das von unserer Parabel gestellte Problem hat Günther eine Antwort. Mensch und Maschine werden immer unterscheidbar sein, weil (Hegel folgend) mit der Evolution der Maschinen das Subjekt nicht mehr dasselbe sein wird. Das Subjekt entäußert sich in der Maschine, spaltet sich, verliert seine alte Identität, legt mit dem Artefakt seine bloß mechanisierte, formalisierbare Form des Bewußtseins ab, um in neue Bewußtseinstiefen bzw. -höhen zu dringen. Der menschliche Geist wird (siehe auch Gödel) der Maschine immer überlegen bleiben. Die simulierenden Maschinen zwingen den Menschen im Evolutionsspiel der Simulation zu einer Vermehrung der Reflexion. Daraus resultiert auch selbststeuernd und selbstreflexiv die Höherentwicklung der Materie, die Selbstorganisation der Materie zu ihren höheren komplexeren Zuständen. Die Selbsteinkerkerung des menschlichen Bewußtseins in seinem Subjektivismus, die Karl Heims 1904 erschienenes und G. Günther anregendes Buch "Weltbild der Zukunft" bereits anklagte, ist hier aufgehoben. Dieses neue Subjekt wird eine Souveränität darstellen, die nicht mehr auf Biologie, z. B. Körper-Identität oder Geist-Körper-Problem, aufgebaut sein wird, sondern dem Beobachter der Quantenmechanik näher stehen wird.
Gemessen am historischen Subjekt also ein Phantom.
PROTHESEN-KÖRPER
Moravec sieht zurecht in den gen-technologischen Kreationen besserer Menschen nur zweitklassige Roboter. Er sucht daher nach einem Subjekt mit den Vorteilen einer Maschine, aber ohne den Verlust der persönlichen Identität. Heute schon leben viele Menschen mit künstlichen Organen, künstlichen Maschinen, die ihren Körper unterstützen. Bald werden solche Surrogate, künstliche Prothesen, künstliche Organe, solche Simulationen überlebensfähiger sein als die Originale. Warum, fragt er daher, sollen wir nicht alles ersetzen und das menschliche Gehirn in einen speziellen Roboter einpflanzen (Der Film "Victim of the Brain" von Piet Hoendeoos illustriert dieses Gedankenexperiment. Das Gehirn wird aus dem Körper genommen und lebt als Klon in einem Computer, so daß das Subjekt zwei ausgelagerte Gehirne hat, zwischen denen es hin- und herschalten kann).

Doch die begrenzte Intelligenz des menschlichen Gehirns würde dabei nicht aufgehoben werden. Daher ist die Frage nicht mehr: Können Maschinen denken? Kann ein Gehirn aus dem Körper transportiert werden, so wie eine Niere? sondern: Wie weit ist der Geist von seiner physikalischen Basis, dem Gehirn, unabhängig? Gibt es eine Möglichkeit, unseren Geist aus unserem Gehirn herauszuholen?

Ein erster Weg dazu ist sicherlich, die alte Körper-Identität als Basis des Subjekts aufzugeben und mit ihr überhaupt die gesamte traditionelle Leib-Seele, Geist-Körper-Problematik. Moravec schlägt "Muster-Identität" statt Körper-Identität vor. "Pattern-Identity" definiert als das Wesen, die Identität einer Person gleichsam die Software, die Muster und Prozesse, die in einem Kopf und einem Körper vorgehen, und nicht die Maschine, die Hardware, die diese Prozesse trägt und unterstützt.

Die Prothesen-Körper lösen aber das eigentliche Problem und Phänomen des Bewußtseins nicht, daß nämlich Leben bzw. Geist dynamische Systeme sind, wo das Ganze mehr ist als die Summe der Teile. Dieser Zustand der Virtualität wird später noch genauer behandelt.
QUANTENMECHANIK UND BEWUßTSEIN
Die physikalische Natur des Bewußtseins, die hier angesprochen wird, ist natürlich der heikelste Punkt und kann meinem Verständnis nach im Moment am besten durch die Quantenmechanik beleuchtet werden. Von ihr aus können nicht nur Fragen des Geist-Körper-Problems, der menschlichen Identität, des Bewußtseins, sondern auch die Limitationstheorie formaler Systeme und vermeintlich auch des Geistes neu überdacht werden. Von der Quantenmechanik geht nämlich die größte Bedrohung für den digitalen Traum aus, daß alles durch Zahlen darstellbar und berechenbar sei. G. Günther hat durch die Ausdehnung der Zahlentheorie auf Seitenbewegungen und die Konstruktion einer mehrwertigen Logik diese Gefahr einerseits zu bannen gesucht, andererseits mit einer traditionellen Dialektik die quantenmechanische Problematik schon formuliert.

Wenn die Quantentheorie eine universale physikalische Theorie ist, wie behauptet wird, dann sind Geist und Gehirn zweifelsohne quantenmechanische Phänomene. Ein führender Vertreter dieser Ansicht ist Roger Penrose, der bedeutende Physiker und Mathematiker, der mit Stephen Hawking wesentliche Theorien der neuen Kosmologie erfand. Er stemmt sich zuerst gegen die These "Alles ist ein digitaler Computer", "Alles ist exakt modellierbar durch digitale Berechnungen". Denn die darunter liegende Begründung, daß das Gehirn bzw. der Geist in der Tat ein digitaler Computer sei, erscheint ihm unzulässig. Des weiteren die daraus folgende Behauptung, daß die aktuelle Hardware keine Bedeutung in Beziehung auf mentale Phänomene habe.
Dann versucht er, die Evolution des Gehirns als Ausnützung bestimmter quantenmechanischer Effekte zu beschreiben und das Bewußtsein selbst als quantenmechanisches Phänomen. (14) Denn obwohl auch er der Meinung ist, daß die Aktivitäten des Gehirns in der Tat häufig algorithmischer Natur sind, kann er sich nicht vorstellen, daß die komplexen Algorithmen des menschlichen Gehirns das Ergebnis einer bloß "natürlichen Selektion" von Algorithmen sind. Er kommt zu dem Schluß, daß auch die Quantenmechanik nicht ausreicht, die Tätigkeit und Struktur des menschlichen Geistes zu beschreiben, sondern es dazu Gesetze tiefer als die Quantenmechanik benötigt. Daher gibt es Facetten des menschlichen Geistes, die niemals durch eine Maschine simuliert werden können. (15)

Wenn das Gehirn kein digitaler Computer ist, könnte es ein Quanten-Computer sein? Laßt uns daher das evolutionäre Simulationsspiel (survival by simulation) auf Computer selber übertragen. David Deutsch hat dies 1985 getan. (16) Das Konzept eines Quantencomputers ist eine Verallgemeinerung einer Turing-Maschine. Es hat zwar noch niemand einen Quanten-Computer gebaut und niemand weiß, ob überhaupt einer gebaut werden kann, dennoch gibt es schon bemerkenswerte Resultate. Da eine Turing-Maschine ein serieller Computer ist, der nicht nur durch das Halteproblem, sondern auch durch die Probleme der Komplexitätstheorie eingeschränkt ist, könnte man hoffen, daß ein Computer mit einigen Parallel-Rechnern aus dem Schneider wäre. Das ist er auch einigermaßen. Ein Quanten-Computer jedoch, der ja seine eigene Komplexitätstheorie hat, die sich von der der Turing-Maschinen unterscheidet, könnte im Prinzip solche Limitationen vermeiden. Der entscheidende Punkt bei der Simulation eines universalen Quanten-Computers durch eine universale Turing-Maschine ist, ob Quanten-Computer Funktionen berechnen können, die Turing-Maschinen nicht können. Denn dann wäre die erwähnte Church-Turing-These falsch. Deutsch hat aber gezeigt, daß die Menge der Funktionen, die durch einen Quanten-Computer berechnet werden können, genau die Menge der Church'schen rekursiven Funktionen ist, die auch von Turing-Maschinen berechenbar sind. Aber es gibt auch Aufgaben jenseits der Berechnung von Funktionen. Durch den Quanten-Parallelismus ist z. B. die Anzahl von Aufgaben, die gleichzeitig ausgeführt werden können, nicht begrenzt. Der Vorteil ist daher, jedes Programm eines klassischen Computers oder einer Turing-Maschine kann auf einem Quanten-Computer laufen, aber nicht jedes Quanten-Computer-Programm auf einer Turing-Maschine.

Deutsch glaubt, daß eines Tages Quanten-Computer gebaut werden. Ihre Existenz wird ein starkes Argument für die Interpretation der Quantenmechanik als eine Unendlichkeit paralleler Universen sein. Das Verhalten der Quanten-Computer kann nämlich als Folge des Umstands erklärt werden, daß er Subaufgaben an Kopien seiner selbst in andere Universen delegiert hat. Der Oxford-Philosoph Michael Lockwood hat die Idee von Penrose (14) , daß Quantenkorrelationen, die über sehr separierte Distanzen auftreten können, für die Einheit und Globalität von Bewußtseinszuständen (als hochkarätige Quantenzustände) im Gehirn verantwortlich sein können, vorangetrieben. In seinem Buch "Mind, Brain & the Quantum" (1989) erklärte er "the compound I". (17) Eine wichtige Rolle dabei spielt die vom Physiker H. Fröhlich 1968 gemachte Entdeckung, daß das quantenmechanische Phänomen der Bose-Kondensation auf biologische Systeme anwendbar ist. Eine Art von Bose-verdichteten Zuständen sind für die Kohärenz biologischer Systeme verantwortlich und für die Amplifikation schwacher Signale und für die Codierung großer Informationen auf kleinstem Raum höchst nützlich.

I. N. Marshall hat 1989 die These aufgestellt, daß Bose-verdichtete Zustände die physikalische Basis für mentale Zustände, wie z. B. der Einheit des Bewußtseins sind. (18) Lockwood schließt daraus, daß, wenn das Gehirn ein Quanten-Computer ist, es genau jene Bose-verdichteten Zustände sind, die notwendig sind.
UNDETERMINIERTES DENKEN
Die eigentliche Bedrohung des digitalen Traumes kommt aber aus der Rolle des Beobachters in der Quantenmechanik, aus ihrem Unbestimmtheitsprinzip. Was geschieht nämlich, wenn wir ein physikalisches System beobachten? Dieses "Messungsproblem" wird normalerweise so interpretiert daß die Beobachtung das beobachtete System im Augenblick der Messung bzw. der Beobachtung beeinflußt es also eine Art interaktiver Beziehung zwischen Beobachter und Beobachtetem gibt. Eine andere Interpretation ist, daß uns durch die Beobachtung etwas unwiderruflich verloren geht. Erstens passieren unbeobachtete Ereignisse die ganze Zeit und zweitens geht sogar bei den beobachteten Phänomenen gerade durch die Beobachtung etwas verloren, wegen des Unbestimmtheitsprinzips. Es gibt also keine Entscheidung, keine Gewißheit, welche Möglichkeit der nächste Moment wählt, wie es das paradoxe Gedankenexperiment "Schrödingers Katze" zeigt.

Lockwood hat diesen quantenmechanischen Indetermismus vertieft und gefragt, ist der "Geist in der Maschine" des Körpers, oder braucht der Geist keine Maschine, keinen Körper bzw. keine bestimmte Maschine, keinen spezifischen Körper? Ist der Geist bloße Software ohne bzw. mit jeder beliebigen Hardware, eine mathematische Abstraktion? Er hat beide Fragen verneint und versucht, zwischen Geist und Gehirn, zwischen Bewußtsein und Welt eine neue quantenmechanisch begründete Interdependenz herzustellen. Gemäß Lockwood ist das Herz des quantenmechanischen "Beobachtungs- bzw. Messungsproblems" die Frage, "how consciousness (specifically, the consciousness of the observer) fits into, or maps on to, the physical world". Wie also paßt das Bewußtsein der Beobachter in die beobachtete physikalische Welt?

Der physikalische Zustand des Gehirns des Beobachters, der dem Bewußtseinsstrom der Beobachtung unterliegt, – das sind also solche, die vom Bewußtsein designiert sind, – muß gleichsam die Eigenzustände der bevorzugten Menge der Beobachtungsgegenstände (set of observables) teilen, um als bewußt designiert werden zu können. Nur geteilte Eigenzustände der bevorzugten Menge der "Observables" und des Gehirns sind für die Designation auswählbar. Dies ist Lockwoods Theorie. Mit anderen Worten, etwas muß im physikalisch quantenmechanischen (Eigen-)Zustand der beobachteten Gegenstände sein, das mit dem quantenmechanischen (Eigen-)Zustand eines Teiles des beobachteten Gehirns korrespondiert, um als "bewußt" erlebt zu werden. Es muß also, vereinfacht gesagt, etwas wie Geist und Bewußtsein schon in den Gegenständen bzw. den Maschinen existieren. Bewußtsein, Beobachtetes und Beobachter simulieren einander, übertragen Eigenschaften aufeinander. Die quantenmechanische Formulierung des Messungs-Problems als Anteil des Beobachters am beobachteten System ist also eine Frage der Projektion des Bewußtseins, eine Frage des Anteils des Bewußtseins der Menschen im "Bewußtsein" der Dinge selbst. Die menschliche Konstruktion der Welt geht also nicht gegen den Willen der Dinge, sondern da Welt nur das ist, was wir erkennen, wählen wir nur Dinge aus, die als solche von unseren Sinnen erkannt werden können, also in der Tat mit Eigenschaften unserer Sinne erkennbar sind und daher mit diesen Eigenschaften reziprok korrespondieren müssen. "Ist das Auge sonnenhaft", formulierte Goethe das Problem dieser Beziehung. Das ist es ja, was anthropomorph genannt wird, oder mit W. v. O Quine "naturalisierte Erkenntnistheorie".
KOMPENETRATION VON MATERIE UND GEIST
Diese Theorie mit ihren Konsequenzen ist in aller Schärfe schon von Roger Joseph Boscovich 1763 (z. T. 1758) in seinem Werk "Theoria philosophiae naturalis" vorgelegt worden, welche von einem einzigen Gesetz der Kraft ausgeht worauf mich der große Chaos-Forscher Otto E. Rössler aufmerksam gemacht hat. (19) Boscovich verallgemeinertes Kovarianz Prinzip stellt fest, daß die Welt relativ zum Betrachter beschrieben werden muß und daß sogar Bewegungen (motions) innerhalb des Betrachters die Welt transformieren.

Die Boscovich-Kurve, welche sein Grundgesetz formuliert, kann einen asymptotischen Zweig annehmen. Dann wäre unser Universum ein sich selbst enthaltendes, geschlossenes kosmisches System. Dann könnte kein Punkt außerhalb des Universums mit uns in Verbindung treten. Daher gäbe es die Möglichkeit eines unendlichen Raumes, der mit kosmischen Systemen gefüllt wäre, die miteinander nicht interferieren könnten. Ein Geist in solch einem Universum könnte dann niemals ein anderes Universum überhaupt wahrnehmen außer dem, in dem er existiert. Eine Vorahnung der quantenmechanischen "Many Worlds"-Interpretation. Daher wäre der Raum in der Tat infinit, könnte aber nur als finit wahrgenommen werden. Daher schreibt Boscovich in seinem Supplement II "Of Space & Time, as we know them": "We cannot obtain an absolute knowledge of modes of existence; nor yet of absolute distances of magnitudes". (20) Wenn das Universum sich plötzlich in einer anderen Richtung drehen würde, oder zusammenziehen oder ausdehnen, wir würden es nicht bemerken. Diese frühe Relativitäts-Theorie enthält auch schon das quantenmechanische "Measurement Problem": "What has been said with regard to the measurement of space, without difficulty can be applied to time; in this also we have no definite constant measurement." (21)

Das Bewußtsein ist also von der Welt der Materie nicht einfach subtrahierbar, sogar die Kantschen absoluten Begriffe a priori (jenseits unserer Erfahrung, nämlich Raum und Zeit) werden relativiert: "as we know it". Aber auch das Bewußtsein selbst ist keine absolute Kategorie a priori. Diese mutuelle Beziehung von Bewußtsein und Welt erklärt Boscovich durch komplizierte Vorstellungen der "Kompenetration" und Koexistenz der Materiepunkte in der Zeit. Bewußtsein entsteht als Kompenetration von Materie und Geist, als deren designierter Prozeß. Berühmt-berüchtigt ist seine Doktrin der Impenetrabilität: "Matter is composed of perfectly indivisible, non-extended, discrete points", mit dem Axiom: "2 Materiepunkte können nicht im gleichen Raumpunkt zum gleichen Zeitpunkt sein." Aber was die Kritiker dieser Doktrin übersehen ist, was Boscovich später sagt: To the infinite number of possible points of matter there will correspond an infinite number of possible modes of existence. But also to any one point of matter there win correspond the infinite possible modes of existing, which are all the possible positions of that point." Daher any point of matter has its own imaginary space, immovable, infinite and continous."

"Every point of matter is possessed of the whole of imaginary space and time; the nature of compenetration." (22)
DER VIRTUELLE RAUM IST EIN PSYCHOTISCHER RAUM
Dieser imaginäre Raum ist der virtuelle Raum. Die virtuelle Realität ereignet sich also im Boscovich-Raum. Sind in der Tat in der sinnlichen Wirklichkeit nicht zwei Körper am selben Raumpunkt zum selben Zeitpunkt möglich, so doch im virtuellen Raum. Der Datenhandschuh und die Datenbrille erzeugen eine Überlagerung von realem Raum und imaginärem Raum, wo ein computererzeugter künstlicher Ball dort ist, wo schon andere Gegenstände sind. Die virtuelle Realität ist also eine Reise in den imaginären Boscovich Raum. Reale und mögliche Objekte gehen eine Koexistenz, eine Kompenetration ein. Die virtuelle Welt ist eine Welt der Kompenetration. Gerade das macht ihre Attraktivität aus, daß sie zumindest einen Bruch mit den klassischen Naturgesetzen simuliert die Tyrranei des hic et nunc, von Raum und Zeit simulativ überwindet. Unsere klassische Raumvorstellung wird aufgelöst, indem ich mich selbst, meine reale Hand im simulierten Raum sehe und sowohl reale wie imaginäre Objekte auf meine Akte reagieren sehe. Was ist das für ein Raum, wo das Anwesende und das Abwesende gleichermaßen existieren? Es ist ein Bildraum, indem ich zum ersten Mal wirklich drinnen bin. Bei Closed Circuit Video-Installationen war ich auch schon im Bild.
Jackson Pollock hat dies ursprünglich für seine Malerei beansprucht aber für sich selbst seinen Subjektivismus. Hier kommt der Betrachter ins Bild. Gesichtsraum des Betrachters und Bildraum des Bildes sind nun vermischt kollabieren, weil das was der Betrachter im Bildraum des Bildes tut, er auch in seinem realen Raum tut. Die Telepräsenz, die sowohl im Gesichtsraum des Betrachters stattfindet wie im Bildraum des Bildes, löst klassische Definitionen von Raum, Zeit, Beobachter etc. auf.

Die virtuelle Welt ist also keine reale Welt, keine Wirklichkeit sondern als künstliche Wirklichkeit repräsentiert sie das Reale, wo die Einheit zwischen Wunscherfüllung und Wirklichkeit noch gegeben ist, wo Innen und Außen, Phantasie und Realität Ich und Anderes zusammenfallen. Myron W. Krueger hat "künstliche Wirklichkeit" definiert als Umgebung, die von Computern kontrolliert wird, die unsere Bedürfnisse erfassen und darauf reagieren (23) Omnipotentes Erleben und Lustprinzip sind in der virtuellen Welt in ihrer reinsten Form verkörpert. Der Psychotiker hält sich in einem solchen Realen auf. Es inszeniert das Reale als halluzinatorische Wunscherfüllung. Der Schlachtruf des Psychotikers ist daher: "V. R. everwhere", Virtuelle Realität (V.R.) ist überall. Wenn Freud in der Schrift "Das Unbehagen in der Kultur" als das Ziel der Technik die Schaffung von Prothesen, die Substitution natürlicher durch künstliche Organe beschrieben hat, wodurch der Mensch schließlich ein Prothesengott wird, hat er genau jene Allmachtsphantasien beschrieben, welche die Technik durch Simulation ermöglicht. In der virtuellen Realität wird eine halluzinatorische Wunscherfüllung, welche die Not des Lebens, den Widerstand des Gegenstandes negiert, leicht möglich. Cyberspace ist der Name für diesen psychotischen Raum. Es fällt die letzte Grenze zwischen Wirklichkeit und Wunscherfüllung. Deshalb wird von der VR-Bewegung im schlimmsten Falle nur eine infantile Spielzeugindustrie übrigbleiben, im besten Falle eine Raumfahrtstechnologie, wo die SF-Teleportationsmaschinen die Menschen von einem Stern zum anderen beamen, aus den VR-Konzepten heraus verwirklicht werden können. (24)
DIGITALER DATAISMUS
"Am Anfang waren die Zahlen" (25) steht gleichsam am Anfang aller digitalen Träume. Der erste digitale Denker war bekanntlich Pythagoras. Mit ihm beginnt jene philosophische Weltschau, nach der es die Zahlen sind, die hinter allen Strukturen der Erscheinungen stehen, und daß die Zahlenverhältnisse (aus ganzen Zahlen) die Harmonien stiften. Auch Plato war ein Verkünder dieser digitalen Harmonie, welche die gesamte westliche Kultur tief beeinflußte. Die Sehnsucht nach der perfekten Harmonie, die sich in Zahlen und ihren Verhältnissen zueinander ausdrückt, führte zum Goldenen Schnitt, der göttlichen Proportion, in der Kunst und Architektur der Antike und in ihrer Wiedergeburt, eben der Renaissance, deren großer Künstler Leonardo da Vinci ein weiterer digitaler Träumer war. Der französische Philosoph Descartes hat dann den digitalen Traum erstmals als Wissenschaft formuliert, nämlich als den Anspruch, die mathematische Methode zur universalen Methode der Wissenschaft zu machen: mathesis universalis. Der digitale Traum ist also jene pythagoräisch-platonische Metaphysik, daß die ganze Welt sich in Zahlen und Zahlenverhältnissen darstellen lasse. Wobei interessanterweise ein simulierter Descartes genauso logisch korrekt seine Existenz ableiten könnte wie der reale. Die Simulation, welche den digitalen Traum gefährdet, entstammt also dem digitalen Traum selbst.

Die universelle Mathematisierung der Welt ist das Ziel des digitalen Traumes. Auch der in Linz wirkende Astronom Johannes Kepler, der Ausgangspunkt für die diesjährige Ars Electronica '90, war so ein Träumer, der mit seinem Werk "Harmonices Mundi", das 1619 in Linz erschien, ein Hauptwerk der digitalen Harmonie, der Weltharmonie auf der Basis von Zahlen, schrieb.

Ein entscheidender Durchbruch gelang dem Philosophen und Mathematiker Leibniz ca. ein Jahrhundert später, als er die Theorie der Binärzahlen, den binären Code entwickelte: die Darstellung aller Zahlen der Welt durch nur zwei Ziffern, nämlich 0 und 1 (Leere und Fülle, Nichtsein und Sein).
Was damals als eine mathematische Kuriosität von marginalem Interesse galt, wurde zum Zentrum und zur Basis der modernen Computertechnologie.

Leibniz bildete mit der Darstellbarkeit aller Zahlen durch die zwei Ziffern 0 und 1 die Voraussetzung, den digitalen Traum auch technologisch zu realisieren. Sein Werk galt nämlich dem Versuch, das logische Schließen durch Rechnen zu ersetzen, mithin die Logik durch Mathematik bzw. das Denken durch eine Maschine, welche Beweise automatisch mit Hilfe der zwei Ziffern (0, 1) liefert. Die Leibnizsche Entdeckung hat es ca. zwei Jahrhunderte später ermöglicht die Logik als Schaltalgebra, als logisches Netzwerk auf der Basis von Stromnetzwerken, in technische Maschinen umzuwandeln, wobei die Ziffern "0" und "1" soviel wie "keine Spannung/kein Strom" bzw. "Spannung/Strom" bedeuten. Digit bedeutet auf Englisch Ziffer. So entstanden die digitale Technologie, elektronische Rechenmaschinen, digitale Computer. Die Rechenmaschine war also immer schon der Wegbegleiter der digitalen Träume. Es war ja auch ein enger Freund von Kepler, Wilhelm Schickard (1592–1635) von Tübingen, der den ersten bekannten Computer erfunden hat. Die Computertechnologie ist also der aktuellste Höhepunkt des digitalen Traumes, der die Welt als einen Kosmos von Zahlen betrachtet und aus den Gesetzen der Zahl zu simulieren und zu konstruieren versucht.

Digitale Harmonien, Rechenmaschinen und virtuelle Maschinen entspringen ein- und demselben Traum des Menschen: mit Hilfe der Zahl und ihrer Gesetze die Natur in eine menschliche und von Menschen kontrollierbare Umwelt zu verwandeln, die Schrecken der Naturgewalten zu zähmen, die Kräfte der Natur voraussagen zu können und durch den Menschen kontrollierbar zu machen. Daraus entsteht langsam eine neue Welt, allein durch den Menschen geschaffen, eine künstliche Wirklichkeit, die scheinbar menschenfreundlicher ist als die (feindliche) Natur.

Solche Vorgriffe künstlicher Wirklichkeiten als computerkontrollierte Maschinen-Welten, die auf unsere Bedürfnisse intelligent reagieren, werden den Mittelpunkt der diesjährigen Ars Electronica'90 bilden.

Datenhandschuh, Datenanzug, Datenbrille, Datenbank, sie alle deuten auf die Existenz einer neuen Welt, die Datenwelt. Dataismus statt Dadaismus. Das digitale Credo, das mit Pythagoras begann, hat sicherlich mit der digitalen Computertechnologie von heute seinen vorläufigen Höhepunkt erreicht.

Im Land der Hypermedien und Hypermaten stellen die virtuellen Maschinen eine neue Generation von Automaten dar. Die menschliche Interaktion mit dreidimensionalen Cyber-Modellen in der Beinahe-Welt (virtuelle Welt) ist sicherlich eine verbesserte Form der Mensch-Maschine Interaktion und Simulation; die bisher perfekteste Simulation. Die Anthropomorphisierung der Dinge hat einen neuen Höhepunkt erreicht. Die Selbsttätigkeit und Selbständigkeit der Dinge (intelligente virtuelle Maschinen)ebenfalls. Wenn Heidegger befürchtete, Technik bedeute Aufhebung der Natur und des Leibes, so hätte er in der VR seine Befürchtungen bestätigt gesehen.

Der verdoppelte Körper, der zum Teil imaginierte Körper der Virtuellen Realität (VR) als aktuellste Position der technischen Umformung des Körpers bedeutet sicherlich eine Entmachtung, aber auch eine Verbesserung des Körpers. Ich kann mich nun in Zonen. gefahrlos bewegen, die für den natürlichen Körper gefährlich wären. Das Ich, das Bewußtsein, braucht weniger Körper. VR bedeutet also Körper- und Natur-Entzug für das Ich, das Bewußtsein. Die technische Deterritorialisation durch VR hat das Subjekt in eine neue Kategorie der res extensa, der Raum- und Zeitpunkte aufsteigen lassen, nämlich in das virtuell Infinite, wo das Subjekt sich technisch immaterialisiert.

Das Bewußtsein schafft sich im Verlauf der Evolution durch survival of the fittest simulation und durch simulation of survival immer komplexere Modelle und bessere Medien. Der legendäre "Geist in der Maschine" schafft sich gleichsam selbst bessere Maschinen. Das Bewußtsein als treibende Kraft der Evolution (er)schafft sich auch die Simulation des Bewußtseins. Die Wirklichkeit ist wegen ihrer Selektionsmechanismen, die ich kurz am Beispiel der Mimikry als Adaptionsstrategie beschrieben habe, durchlöchert von Simulationen, perforiert von Strategien des Scheins und der Täuschung. In solchen Simulationen ist der "Geist in der Maschine", das was Lockwood als Bose-Verdichtungen beschreibt, zu suchen.
DIGITALE MASCHINEN – DAS ENDE DES DIGITALEN TRAUMS?
Ch. G. Langtons Definition der Virtualität in dem von ihm herausgegebenen Buch "Artificial Life" zielt ebenfalls in diese Richtung. Für ihn sind "virtuelle Teile" die eigentlichen Moleküle des Lebens, denn ihre Eigenschaften sind weder im System noch in den Teilen selbst zu lokalisieren, sondern treten nur in ihrer Interaktion auf. Virtuell ist ein System dann, wenn seine Teile und sein Ganzes ihre Eigenschaften nicht isoliert, sondern nur im Augenblick ihres Zusammenspiels zeigen (Kompenetration würde Boscovich sagen). Solche virtuelle Systeme sind eben nicht-lineare dynamische Systeme, lebendige Systeme. Der Geist ist ein virtuelles Element in den Maschinen des Körpers. Der Körper funktioniert mit Geist und der Geist im Körper. Wir verstehen nun, was der Versuch bedeutet, den Geist aus dem Körper herauszuoperieren. Gemäß Boscovich ("Every point of matter is possessed of the whole of imaginery space"), der Quantentheorie und der Virtualität ist das nicht möglich.

Wegen der angeführten Definition der Virtualität ist es vielleicht notwendig zu sagen, daß Simulation eher mechanischen Systemen und Virtualität eher non-linear dynamischen Systemen entspricht. Wenn wir also in unserer Evolutionstheorie von Simulation sprachen, meinten wir eigentlich Virtualität. Erst in der Virtualität erreicht die Simulation ihr Wesen.

Eine Uhr ist ein mechanisches System und dennoch hat sie schon ganz leise virtuelle Züge, denn nur in der Bewegung des Räderwerks, von einer externalen Energie versorgt, existiert sie als Uhr. Doch Zeiger bleibt Zeiger, ob "tote" Uhr oder "lebende" Uhr. Der Prothesen-Körper klassischer Funktion ist so ein mechanisches System, denn er bleibt sich auch gleich; er und seine Teile verlieren nie ihre Identität, spalten, entäußern sich nicht. Er ist stets nur die Summe seiner Teile.

Der Computer zeigt schon mehr virtuelle Züge; als digitaler Automat ist er eine Übersetzung der Natur in eine andere Sprache, die langsam in den Zustand der Virtualität überführt. Er bleibt sich nicht gleich. Seine Hardware, sein Körper, hat sich geändert und wird sich ändern. Was allerdings bleibt, ist, was sein Wesen ausmacht, die binäre Codierung. Für den Computer im Gegensatz zur Uhr ist das Programm, die Sprache, der Algorithmus, die Information, die Botschaft schon wichtiger als der Bote, der Körper, die Maschine. Insoferne zeigt er mehr "Geist" als die Uhr. Der Körper wird in dem Maße zu seinem eigenen Klon, je mehr er sich binär chiffriert und ent-ziffert. Er ent-fernt sich durch Entzifferung. Ist der Körper vielleicht der Quanten-Computer, den zu bauen uns nicht gelingt? Wie der Quanten-Computer Kopien seiner selbst in andere Universen sendet, so der Körper Kopien seiner selbst in andere Welten, die virtuellen Welten. Der Computer ist also ein simulativer prothetischer Körper. Das Zugleich von Geist und Körper als Zeichen der Virtualität ist aber in ihm verschleiert schon vorhanden. Solange der Computer ein Prothesen-Körper ist, bleibt er ein mechanischer Körper, dem fehlt, was das Leben ausmacht: Virtualität.

Wir haben also einerseits Computer, die den "Geist" des Gehirns simulieren und wir haben Roboter, die das "Leben" des Körpers simulieren. Wird es möglich sein, beides zu vermischen? Den Geist und den Körper? Nur durch Virtualität.

Insoferne sind virtuelle Maschinen eine Station auf dem Weg dahin, von der "denkenden" zur "lebenden" Maschine. Die lebende Maschine ist nicht nur virtuell, ja sie ist, wenn ein Unterschied zwischen Mensch und Maschine für ewig bleiben soll, sogar immun gegen Simulation. Wenn alles durch Zahlen, durch die binäre Chiffrierung künstlich berechenbar, darstellbar und erzeugbar wäre – der digitale Traum –, dann wäre auch alles simulierbar.

Doch ich habe Argumente gezeigt, von der Quantenphysik vor allem, daß der digitale Traum nicht universal gültig sein kann. Mein Hauptargument ist aber die Theorie der Simulation selbst. Aids zeigt, daß der perfekte Virus derjenige ist der immun gegen Simulation ist. These 1: Der höchste Grad der Simulation ist selbst gegen Simulation immun zu sein. (Eine Kopie ohne Original, ein Klon ohne Körper.) Früher nannte man das principio individuationis. Wäre also eine "lebende" Maschine (auf digitaler Basis) realisierbar, die einen Menschen vollkommen simulieren kann, wir aber annehmen, daß der Mensch selbst der höchste Grad der Simulation ist, das finale Produkt der Evolution als survival of the fittest simulation, dann wäre der Mensch ja wegen These I immun gegen totale Simulation, wäre also nicht total simulierbar. Der Mensch ist also nicht durch eine (digitale) Maschine vollkommen simulierbar.

Wenn Leben eine virtuelle Eigenschaft ist, so das zweite Argument heißt das eben gerade wegen der Definition der Virtualität daß es keine Eigenschaft ist, die in den Dingen, den Maschinen, den Teilen oder im System steckt, die alle simulierbar wären, sondern nur im Zusammenspiel aller Teile selbst existiert. Dieses virtuelle Zusammenspiel ist aber per definitionem nicht simulierbar. Wegen der Virtualität ist nicht alles simulierbar, ist nicht alles digital simulierbar. Die beste virtuelle Maschine ist daher bis jetzt das Virus bzw. die Sprache. Deswegen sagt Burroughs: "Language is a virus of outer space."

Die Sprache ist ein gutes Beispiel für ein virtuelles System in unserem Zusammenhang. Einerseits erscheint die Sprache wie ein mechanisches Uhrwerk, ein determiniertes System mit 26 Elementen (Buchstaben) und einer determinierten algorithmischen Struktur (die Grammatik). Nur sind manche der Ansicht, daß eben die Sprache nichts anderes wäre als eine gesteuerte, programmgesteuerte Folge von Varianten, Kombinationen, Permutationen. Doch auch ein unendlicher Zeitraum würde nicht ausreichen, um auf diese Weise den Textkörper (alle Schriftstücke) der letzten 2000 Jahre zu erzeugen. Daß also jenseits der mechanischen Kapazität der Sprache eine sinnvolle Textmenge erzeugt wurde, was eine rein mechanische Kombination der Textelemente sogar in einer unendlichen Zeit nicht schaffen würde, zeigt, daß auch hier das Argument einer Art natürlicher Selektion von Algorithmen nicht stimmen kann. Die Sprache ist eben mehr als ein mechanisches System.
Irgendetwas schafft schneller sinnvollere Kombinationen der Elemente, als es rein mechanisch möglich wäre. Ist dies das, was man Geist nennt?

Jedenfalls wäre dieser Geist nicht in der Maschine, in der Maschine der Sprache, auch nicht in der Grammatik zu finden, sondern dort im Hirn, wo diese determinierten endlichen Elemente und Algorithmen eine unendliche, undeterminierte Folge von sinnvollen Sätzen erzeugen. Erst im dynamischen Spiel der Elemente des mechanischen Systems Sprache, eingebettet in das nichtmechanistische Gehirn, entsteht dieser Zustand der Virtualität, von dem es dann heißt, eine Sprache "lebt".

Die Quantenmechanik legt also nahe, daß das Moravec-Modell und die A.-L.-Hypothese, daß die Entwicklung des Bewußtseins durch eine natürliche Selektion von Algorithmen oder Programmen stattgefunden habe und solcherart digital simulierbar sei, nicht ausreichend ist und nicht ausschließlich stimmt. Gödels Theorem legt eine nicht-algorithmische Natur des menschlichen "mathematischen" Geistes nahe. R. Penrose ist ebenfalls der Auffassung, daß nicht alle Computer digital sein müssen und daß nicht alles ein digitaler Computer ist, d.h. nicht alles durch digitale Berechnungen exakt modelliert werden kann.
VIRTUELLE MASCHINEN
Nach der Kybernetik, der A.I., der Robotik sind virtuelle Maschinen einerseits noch die letzte Ausformung des digitalen Traumes, andererseits beenden sie ihn auch, geben ihn auf. Ein Computer wie NETalk von Terry Sejnowski, der sich selbst das Laut-Lesen eines geschriebenen Textes beibringt, ist einem sprechenden Menschen verdammt nahe. Die Simulation (neuronaler Netzwerke) scheint perfekt, entsprechend das Ergebnis. Werden die virtuellen Maschinen zu Hauptdarstellern eines globalen Prozesses, in dem der Mensch einfach Zuschauer und Parasit wird? Die perfekte technische Mimesis bzw. Simulation wäre so weit fortgeschritten, daß sie an die Stelle einer natürlichen eine künstlich fabrizierte Welt setzt, wo der Mensch sich selbst abstrahiert bzw. nur mehr als Zuschauer auftritt. Die Parabel zeigt uns die Folge einer solchen perfekten Simulation: der Mensch als Simulator der Maschine, als leere Form und deshalb Mythen und anderen herrschsüchtigen Programmierern der Wirklichkeit, die nochmals die Totalität und Authentizität versprechen, leicht zugänglich.

Doch diese allein von Computern gesteuerten, errechneten und konstruierten Welten nennt man deswegen virtuelle Welten, weil sie nicht die Natur nachahmen, digital simulieren, sondern die Täuschung. Sie sind Simulationen, Computer- bzw. Cybermodelle von imaginären Welten, wobei diese Welten die Gesetze der Logik und Physik einhalten und gleichzeitig scheinbar nicht, weil sie imaginäre Räume erzeugen, wo Irreales möglich ist. Virtuelle Welten sind Illusions-Welten, dreidimensionale Beinahe-Welten auf der Basis von digitaler Technologie. Virtuelle künstliche Wirklichkeiten sind aber alternative Wirklichkeiten. Informationsräume, die in den Dimensionen Raum und Zeit imaginäre Objekte enthalten, die direkt oder aus der Entfernung manipuliert werden können. Die Objekte der virtuellen Realität reagieren auf den Menschen, sind durch den Betrachter steuerbar, z. B. können die Kopfbewegungen des Betrachters die dargestellten digital simulierten Objekte in verschiedenen Proportionen und Perspektiven zeigen. Der Mensch interagiert also mit den Produkten seiner Imagination, welche die Computer ihm digital vorzaubern. Gerade aber dadurch sind virtuelle Welten mehr als nur künstliche, digitale Wirklichkeitssimulationen.

Weil eben der Beobachter im Bild selbst ist, weil eben der Beobachter ein emphatischer Teil dieser künstlichen Wirklichkeit ist. Weil der Betrachter die Illusion haben kann, sein Körper agiert als Klon innerhalb des eigenen Gesichtsfeldes, und er gleichzeitig von außerhalb der virtuellen Welt die imaginären Objekte steuert, relativiert er die Universalität des digitalen Traumes. Denn der Betrachter selbst, als Erzeuger dieser virtuellen Welt, ist ja nicht selbst digitalisiert. Eine Maschine anstelle eines Menschen als Beobachter in der virtuellen Welt würde ja keinen Sinn ergeben, denn für die Maschine ist alles simuliert, gibt es keine Unterschiede zwischen realer Person und computergeneriertem Objekt, da beide in der Daten-Brille gleichzeitig existieren. Für den Bildschirm des Computers wäre alles digital simuliert, auch wenn er einen Hinweis hätte, der ihm sagt diese Objekte existieren vor der Brille (external) und diese Objekte existieren auf und durch die Brille (internal).

In der virtuellen Welt durchdringen einander Simulation, Imagination, Realität. Das macht sie wie gesagt psychotisch, aber gleichzeitig zu einem Residuum des Nicht-Digitalisierbaren. Virtuelle Welten sind also durch die Rolle des Betrachters, des Schnittflächen-Benutzers von realer und simulierter Welt, eine quantenmechanische Einschränkung des digitalen Traumes. Virtuelle Welten stehen zwischen digitalem Traum und Quantenmechanik. So entsteht eine computerkontrollierte und -erzeugte Umgebung, die aber auf menschliche Bedürfnisse und Ideen reagiert. Wäre alles berechenbar, wäre alles determiniert. So aber gibt es die Alternative: die Simulation von Imagination durch virtuelle Maschinen könnte eine Determinierung der Imagination bedeuten, oder aber eine Öffnung des Determinierten durch Imagination. Die Chaostheorie und die Quantenphysik verweisen eher auf das Undeterminierbare des geistigen Kosmos. Digitale Kunst, Kunst aus dem Kosmos der Zahl, verbindet ebenfalls beides, die digitale Finalität und die Infinitheit der Imagination, die Verteidigung des Menschen, indem er immer unsimulierbarer wird. Aber nicht, indem das Digitale verfemt wird, indem das, was berechenbar ist, abgebunden wird. Sondern im Gegenteil, alles was berechenbar, formalisierbar, mechanisierbar ist, soll erforscht und getan werden, damit es abgestoßen und entäußert werden kann. Maschinenunterstützte künstlerische Kreativität ist daher kein Widerspruch ebensowenig wie postbiologisches Leben. Denn beides heißt noch nicht Geist. Eine digitalisierbare künstlerische Kreativität, ein Experten-System zur Erzeugung von Kunst, ein Algorithmus zur Herstellung von Kunstwerken wird eines Tages möglich sein und Kunstwerke jeglicher Art liefern, die den "echten" gleichrangig sind. Damit wird nur gezeigt, wie wenig wert die bisherige Kunst war, wie mechanisch und ungeistig, und wie sehr wir eine Ästhetik des Virtuellen brauchen. Die mechanisierte Kreativität, der Automat, wird uns daher von einer Menge Dreck befreien. Technik als Aufklärungsarbeit des Menschen, indem er sich selbst erforscht?

Virtuelle Maschinen verpassen also dem Geist neue Körper, indem sie ihn in neue Tele-Körper und Tele-Organe verpacken. Sie setzten dort an, was Moravec "den Geist aus dem Körper holen" nennt. Nach den Kleidern, den mechanischen Maschinen, erhält der Kaiser, der Geist, nun auch neue Körper. Nur geschieht das weder transplantativ noch biogenetisch noch roboterhaft, sondern indem der Geist neue künstliche "Prothesen-Organe" erhält, nämlich die virtuellen Maschinen wie Datenhandschuh etc. Diese Tele-Organe machen den Menschen zum "Prothesengott" (Freud), bzw. Tele-Gott, Gott der Telepräsenz statt Allgegenwart. Virtuelle Maschinen erzeugen einen Tele-Körper. Insoferne sind sie des Kaisers, des Geistes, neue Körper.


Anmerkungen:

(1)
In Jean Baudrillard, Das Ding und das Ich. Europaverlag, Wien 1974, habe ich diese Geschichte wiedergefunden.zurück

(2)
Gerald M. Edelman, Neural Darwinism. Oxford University Press, 1989.zurück

(3)
D. 0. Hebb, The Organization of Behavior. Wiley, N. Y., 1949.zurück

(4)
Ralph Linsker, Self-Organization in a Perceptual Network. Computer, März 1988.zurück

(5)
Siehe dazu als Einführung: William F. Allman, Menschliches Denken – Künstliche Intelligenz. Von der Gehirnforschung zur nächsten Computergeneration. Droemer Knaur, München, 1990.zurück

(6)
D. Rumelhart, J. McClelland (Hg.), Parallel Distributed Processing: Explorations in the Microstructure of Cognition. Vol. 1–3, MIT, 1986.zurück

(7)
Ch. G. Langton (Hg.), Artificial Life. Addison-Wesley Publ., 1989, S. 43.zurück

(8)
Hans P. Moravec, Mind Children. The Future of Robot and Human Intelligence. Harvard University Press, 1988.zurück

(9)
A.M. Turing, Computing Machinery and Intelligence. Mind '59, no. 236, 1950.zurück

(10)
Karl Marx, Das Kapital. Dietz, Berlin, 1926, S. 86.zurück

(11)
G. W. F. Hegel, Phänomenologie des Geistes. Suhrkamp TB, 1986, S. 363.zurück

(12)
Op. cit., S. 365.zurück

(13)
Gotthard Günther, Das Bewußtsein der Maschinen, Agis, Baden-Baden, 1957.zurück

(14)
Roger Penrose, Minds, Machines and Mathematics. In: C. Blackmore/S.Greenfield (Hrg.), Mindwaves. R. Blackwell, Oxford, 1987, S. 259–276.zurück

(15)
Roger Penrose, The Emperor's New Mind. Concerning Computers, Minds and Laws for Physics. Oxford University Press, 1989.zurück

(16)
David Deutsch, Quantum Theory, the Church-Turing principle and the universal quantum computer. Proceedings of the Royal Society of London, A 400, S. 97–117.zurück

(17)
Michael Lockwood, Mind, Brain & the Quantum, R. Blackwell, Oxford, 1989.zurück

(18)
1. N. Marshall, Consciousness and Bose-Einstein Condensates. New Ideas
in Psychology, 7,1989, S. 73–83.zurück

(19)
R. J. Boscovich, A Theory of Natural Philosophy. M. I. T. Press, 1966.
Siehe das Paper "Boscovich Covariance" von Otto E. Rössler.zurück

(20)
Op. cit., S. 203.zurück

(21)
Op. cit., S. 204.zurück

(22)
Op. Cit., S. 199.zurück

(23)
Myron W. Krueger, Artificial Reality. Addison Wesley, 1983.zurück

(24)
Siehe zu diesem genannten Bereich die neue Science-fiction-Bewegung des Cyberspace und Cyberpunk. Die beiden Anthologien: Bruce Sterling (Hrg.), Mirrorshades. Paladin, London, 1988. Rudy Rucker, P. L. Wilson, R. A. Wilson (Hrg.), Semiotext(e) SF. N. Y. 1989, bieten eine hervorragende Einführung.zurück

(25)
zitiert nach Bernhard Mitterauer, Architektonik. Entwurf einer Metaphysik der Machbarkeit. Brandstätter, Wien 1989.zurück

(26)
siehe das wichtige Werk "Machines virtuelles", Traverses 44.45, Sept.1988, Centre Georges Pompidou, Paris.