www.aec.at  
Ars Electronica 1995
Festival-Website 1995
Back to:
Festival 1979-2007
 

 

Das Rauschen des Beobachters


'Peter Weibel Peter Weibel

I. INFORMATION UND ENTROPIE IN PHYSIKALISCHEN SYSTEMEN
Die moderne statistische Informationstheorie hat ihre Wurzeln in der Thermodynamik. Die Beziehung von Information und Entropie als "Fehlende Information" (L. Boltzmann. 1894) beginnt mit dem berühmten Maxwell'schen Dämon. In ..Theory of Heat" (1871) schreibt J.C. Maxwell:
"One of the best established facts in thermodynamics is that it is impossible in a system enclosed in an envelope which permits neither change of volume nor passage of heat, and in which both the temperature and the pressure are everywhere the same, to produce any inequality of temperature or pressure without the expenditure of work. This is the second law of thermodynamics, and it is undoubtedly true as long as we can deal with bodies only in mass, and have no power of perceiving or handling the separate molecules of which they are made up. But if we conceive a being whose faculties are so sharpened that he con follow every molecule in its course, such a being, whose attributes are still as essentially finite as your own, would be able to do what is at present impossible to us. For we have seen that the molecules in a vessel full of air at uniform termperature are moving with velocities by no means uniform, though the mean velocity of any great number of them, arbitrarily selected, is almost exactly uniform. Now let us suppose that such a vessel is divided into two portions, A and B, by a division in which there is a small hole, and that a being, who can see the individual molecules, opens and closes this hole, so as to allow only the swifter molecules to pass from A to B, and only the slower ones to pass from B to A. He will thus, without expenditure of work, raise the temperature of B and lower that of A, in contradiction to the second law of thermodynamics." (1)
Maxwell offerierte keine definitive Zurückweisung seines Dämons. M, von Smoluchowski offerierte 1912 eine teilweise Lösung des Problems. Er stellte eine verbesserte Version des Dämons vor. Ein simpler automatischer Apparat wie eine Falltür würde durch seine eigene Brown'sche Bewegung daran gehindert werden, als effektiver Dämon zu funktionieren: "Soweit unsere jetzigen Kenntnisse reichen, gibt es also trotz molekularer Schwankungen kein automatisches dauernd wirkendes Perpetuum mobile, aber wohl könnte eine solche Vorrichtung regelmäßig funktionieren, falls sie durch intelligente Wesen in passender Weise betätigt würde … " (2) Hypothetische intelligente Wesen heißen nun die Dämonen und L. Szillard sollte ihre Funktion bald näher untersuchen. Sie haben offensichtlich die Eigenschaft, gegen den zweiten Hauptsatz der Thermodynamik zu verstoßen. Die Frage war, gehorchen solche Wesen den gleichen Gesetzen wie alle anderen materiellen Systeme?

Paul Ehrenfest kam dieser Frage näher, indem er die intelligenten Wesen mit Menschen verglich, wie es vor ihm auch Smoluchowski getan hat. Ehrenfest verglich in einem Brief von 1927 Albert Einstein, der eine Lücke in der Konsistenz der Quantenmechanik aufdecken wollte, mit einem kleinen "Teufelchen in der Box", das "gewissermaßen Perpetuum mobile zweiter Artspielen möchte", um die Ungenauigkeitsrelation zu durchbrechen". (3) Die intelligenten Wesen wurden also als interne Beobachter identifiziert.

Die entscheidende Identifikation entstammt allerdings schon von Ludwig Boltzmann, der in seiner Arbeit über die statistische Physik von 1894 den Begriff der Information erstmals auf die Entropie bezog und die Entropie als "fehlende Information" definierte, und die man als die Zahl der Alternativen messen könnte, die einem physikalischen System noch möglich bleiben, nachdem all die makroskopisch beobachtbare Information, die es betreffen, aufgezeichnet ist. Dies verweist bereits auf das Modell von Claude Shannons Definition der Information als Logarithmus der Anzahl der vorhandenen Wahlmöglichkeiten. Eine Situation mit zwei Wahlmöglichkeiten enthält bekanntlich ein "bit" (binary digit) an Information. 16 alternative Botschaften charakterisieren 4 bits an Information, denn 16 = 2 hoch 4.

Die Beziehung zwischen Information und Entropie wurde erstmals 1929 explizit formuliert in Leo Szillards berühmtem Papier "Über die Entropieverminderung in einem thermodynamischen System bei Eingriffen intelligenter Wesen". (4) In dieser Arbeit definierte Szillard die Quantität, die heute seit Claude Shannon als Information bekannt ist, als die Menge der freien Energie, die verbraucht wird, wenn ein Beobachter durch ein Experiment lernt, welche von zwei gleich erscheinenden Alternativen realisiert wird. Ein bit Information ist äquivalent zu kln2 Einheiten von Entropie. Daraus konnte Claude Shannon 1948 seine berühmte entropie-ausgedrückte Formel des Informationsmaßes ableiten: H = – ∑ pi log pi
wobei p die Anzahl der Auswahlmöglichkeiten ergibt. (5) Die thermodynamischen Kosten einer Messung und der Informationsgewinnung waren scheinbar klar. Um 1950 galt es als erwiesen, daß bei jedem Akt der Beobachtung bzw. Messung Energie in der Höhe von k.T.ln2 verbraucht wird. John von Neumann und Brillouin nahmen an, daß bei jedem Akt der Informationsverarbeitung ein Minimum an Energie k.T.ln2 verbraucht würde. (6) Zum Beispiel sagte von Neumann 1949 in einem Vortrag: "a computer operating at temperature T must dissipate at least k.T.ln2 of energy per elementary act of information, that is, per elementary decision of a two-way alternative and per elementary transmittal of one unit of information". (7)

Doch diese Vorstellungen von Engergieverbrauch und Information erwiesen sich als naiv und zum Teil unrichtig. 1961 konnte Rolf Landauer zeigen, daß der Prozeß, der wirklich minimal aber unvermeidlich Energie verbrauchte, der Prozeß der Vernichtung von Information ist. (8) Nur bei Informationszerstörung gibt es irreversible thermodynamische Kosten (im Gegensatz zu den reversiblen Kosten bei der Informationsgewinnung). Auch die Übertragung von Information, z.B. ein bit von einem Platz zum andern, benötigt nicht k.T.ln2 Energie, im Gegenteil. Landauer zeigte auch hier, daß die thermodynamischen Kosten gering sind, weil die Informationsübertragung, wenn wir es langsam tun, mit willkürlich kleiner, also vernachlässigbarer Energie-Dissipation erfolgt. (9) Um das zweite Gesetz der Thermodynamik zu retten, bedarf es keiner (minimalen und unvermeidlichen) Energie-Dissipation bei der Informationsgewinnung, beim Transfer der Information vom zu beobachtenden Objekt, sondern bei der Wiederherstellung des Beobachterzustandes nach dem Transfer, d.h. bei der Informationszerstörung. Die Betonung der thermodynamischen Kosten verlagert sich durch Landauer von der Beobachtung und der Messung auf die Wiederherstellung des Zustandes vor der Messung, also auf die Kosten der Löschung der Information und der Geschichte.

Genau da setzt ein weiteres bahnbrechendes Papier von 1973 an, nämlich "Logical Reversibitity of Computation" von Charles H. Bennett. (10) Bennett konstruierte eine "enzymatische Turing Maschine", wo jede Computation in reversibles Format verwandelt werden konnte, indem die Geschichte all der Information akkumuliert wurde, die normalerweise weggeworfen werden würde, um sich dann dieser Geschichte zu entledigen in einem Prozeß, umgekehrt zu dem, der sie geschaffen hat. Die Computation wurde in eine Serie von Schritten verwandelt, wo jeder logisch reversibel war, und dies wiederum erlaubte physikalische Reversibilität. Computation konnte also mit willkürlich kleiner Energie-Dissipation geschehen.

Edward Fredkin entwickelte 1982 ein Billard-Ball-Modell der Berechenbarkeit (Computation) als Beispiel eines reversiblen Computers. (11) Die Kollisionen von Billard-Bällen können jede logische Funktion simulieren, daher auch jede digitale Computation.

Diese Billard-Ball Kollision realisiert eine 2-Input, 4-Output Logikfunktion: A und B, B und nicht A, A und nicht B, A und B. Die Werte 1 oder 0 werden durch die Präsenz bzw. Absenz des Billard-Balls auf einer gegebenen Trajektorie repräsentiert. Er beschrieb mit diesen zellulären Automaten vom reversiblen Typ das erste explizite computer-simulierbare Modell-Universum. Dieses Universum besteht ausschließlich aus Information. Sobald man es in irgendeiner konkreten Form realisiert hat (wobei die verschiedenen Arten von Hardware denkbar sind), liegen seine Eigenschaften vollkommen fest. Es beginnt, "materielle" Eigenschaften von selbst intern zu erzeugen – z.B. Ansammlungen von Hunderten von schwarzen Pixels, die sich bei einer bestimmten Größe stabilisieren und dann gegenseitig anziehen wie Elementarteilchen, mit einem wohldefinierten Kraftgesetz wie dem Coulomb'schen. Fredkins Hoffnung ist, daß sich eines Tages alle Naturgesetze,wie wir sie kennen, als Implikationen aus einem solchen reversiblen zellulären Automatengesetz ergeben. Das einzige, worauf es ankommt ist, daß man mit Glück auf die richtige reversible lokale Regel stoßen muß.

P. Benioff gelang es um die gleiche Zeit (1981-82), ein reversibles quantenmechanisches Modell der Berechenbarkeit und der Information zu erstellen, also das Hamilton'sche Modell mit der Turing-Maschine zu verbinden. (12) In seiner Arbeit "Maxwell's Demon, Szillard's Engine and Quantum Measurements" (13) faßt W.H. Zurek die Ergebnisse zusammen. Er übertrug Szillards Gedankenexperiment in die Quantenmechanik. Der Meßapparat ist dann der Dämon, der die Entropie vermehrt. Diese Entropie kann vom Dämon (dem internen Beobachter) an die Umwelt weitergegeben werden. Die Umgebung bezahlt also die entropischen Kosten der Messung. Die Information, welche durch die Beobachtung, bzw. Messung gewonnen wird, muß durch die Vermehrung der Entropie des Meßapparates ausgeglichen werden.

Auf den Zusammenhang zwischen den entropischen Kosten der Information und der Umgebung bezieht sich auch die Arbeit "Entropy Cost of Information" von Paul N. Fahn. (14) Der zweite Hauptsatz der Thermodynamik ist also ein Entropie-Nichtvermehrungs-Theorem, zumindest ein Entropie-Balance-Theorem, das besagt, wenn in einem System die Entropie zunimmt, im anderen gekoppelten System die Entropie abnimmt. Maxwell's Dämon hat als ein Gedankenexperiment paradoxe Probleme dieser Theoreme gezeigt. Szillard's Ein-Molekül-Dämon hat den Begriff der Information in die Debatte gebracht. Seitdem gibt es eine Theorie der Entropie-Kosten der Information, eine Theorie der Korrelation zwischen Information und Entropie, die in jüngster Zeit durch Landauer und Bennett um eine Theorie der Berechenbarkeit (Computation) erweitert worden ist. (15) Benioff, Feynman, Zurek und Rössler haben die Quantenphysik bzw. Chaostheorie ins Spiel gebracht, wie bereits vor ihnen J.v. Neumann. (16)

Der Dämon verwandelt bei seiner Arbeit Entropie in Information, die informationslöschende Operation verwandelt Information in Entropie. Das sind die zwei Seiten einer Interaktion zwischen einer informationsverarbeitenden Maschine (dem Dämon) und einem klassischen thermodynamischen System. (17) Den Dämon als informationsverarbeitende Maschine, also als Computer zu definieren, war R. Landauers Idee. (9) Maxwell's Dämon wurde eine computer-kontrollierte Vorrichtung, die mit dem Gas interagierte. Die Boltzmann-Entropie des Gases wurde vermindert auf Kosten der Entropie-Vermehrung seines eigenen Informationsgehaltes. Um ein bit an Information zu löschen ist ein minimaler Betrag (k.T.log2) an Hitzedissipation in die Umwelt notwendig. Also ereignet sich Entropie-Verminderung nur solange der Dämon sich mehr und mehr mit Information füllt. Die Frage nach den entropischen Kosten der Information, die Szillard startete,wurden von Brillouin, Landauer und Bennett genauer untersucht. Für Brillouin und Bennett sind Meßoperationen und Auslöschung, Gewinnung und Vernichtung von lnformation, thermodynamisch teure Ereignisse, weil sie Entropie vermehren. Landauer hat als Ausweg die Beziehung zur Umwelt angegeben. Auch Paul N. Fahn (14) geht bei seiner Berechnung der entropischen Kosten der Information diesen Weg. Für ihn sind weder "measurement" noch "erasure" im Prinzip teure thermodynamische Operationen. Aber die Dekorrelation des Systems von der Information vermehrt Entropie im System-mit-Information. Dadurch steigt die Entropie im Universum, es sei denn, die Information wird benützt, um woanders die Entropie zu vermindern, bevor die Korrelation zerbricht. Die thermodynamischen Kosten der Information steigen in dem Ausmaß, in dem sie nicht verwendet wird, um Arbeit vom beobachteten, gemessenen System zu erhalten. Dekorrelation zwischen Information und System ist daher das eigentlich entropie-produzierende Ereignis.

Die moderne Kommunikationstheorie bezieht sich aber nicht nur auf Thermodynamik und statistische Mechanik, sondern ihr Ursprung ist auch im Feld der elektrischen Kommunikation zu finden, in der Übertragung von Signalen durch elektrische Ströme. Nach der Erfindung der Telegraphie 1832 durch F. B. Morse, die Übermittlung von Botschaften durch die An- oder (kürzere oder längere) Abwesenheit eines elektrischen Stromes, tauchen sogleich Fragen nach den Grenzen der Geschwindigkeit und Deutlichkeit der Signalübertragung auf. Externe Ströme sind immer vorhanden, die mit dem gesendeten Signal interferieren und stören, d.h. die Unterscheidung zwischen alternativen Signalen erschweren. Die Störungen durch diese Ströme, die "noise" (Rauschen) genannt wurden, galt es natürlich, soweit wie möglich zu reduzieren. Harry Nyquist publizierte erste wichtige mathematische Beiträge zur modernen Kommunikationstheorie: "Certain Factors Affecting Telegraph Speed" (1924) und "Certain Topics in Telegraph Transmission Theory" (1928), wo er zeigte, wie die Geschwindigkeit der Signalübertragung erhöht werden kann und wo er auch die logarithmische Funktion als Vergleichsmaß der lnformation einführte, wie später Shannon. R..V.L. Hartley gab in "Transmission of Information" (1928) eine erste formale Definition der Information, die er als Sequenz von Symbolen betrachtete: H = n.log.s wobei H die Information der Botschaft, der Logarithmus der Anzahl der möglichen Symbolsequenzen ist, wobei n die Anzahl der gewählten Symbole ist und s die Zahl der Symbole, die zur Verfügung standen.

Im Krieg wurden die Fragen des Rauschens dringlicher als zu Friedenszeiten, denn es kam darauf an, z.B. "noisy" Radardaten richtig zu interpretieren. Vorrichtungen, welche die Rausch-Signale ausfiltern, wurden gesucht. A.N. Kotmogoroff und Norbert Wiener lösten diese Probleme. Im selben Jahr (1948), in dem Wiener sein Buch "Cybernetics" veröffentlichte. publizierte Claude E. Shannon seinen berühmten Artikel "The Mathematical Theory of Communication", übrigens im gleichen Journal, wo auch Nyquist und Hartley publiziert hatten, im Bell System Technical Journal, worauf er sich auch in der Einführung bezog. Shannon betonte besonders den Effekt des Rauschens im Kommunikationssystem bzw. im Informationskanal, wie man seinem berühmten Schema des Kommunikationssystems entnehmen kann. Dies deshalb, weit semantische Aspekte der Kommunikation für den Ingenieurs-Aspekt der Kommunikation irrelevant sind, für den das fundamentale Problem der Kommunikation einfach darin besteht, wie kann an einem Punkt exakt oder möglichst approximativ eine Botschaft reproduziert werden, die an einem anderen Punkt ausgewählt wurde.

Es war der schon genannte Nyquist, der den von J.B. Johnson entdeckten elektrischen Schwankungen, welche die Hitze verursachte, den Namen "Johnson noise" oder "thermal noise" gab. Dieses "Rauschen" ist ein besonders einfaches, universales, unvermeidbares Rauschen, das Signalübertragungssystemen natürliche Grenzen setzt. Rauschen wird also zu jedem Signal addiert. Jede Botschaft wird durch das Rauschen gestört, sei es während der Übertragung oder beim Empfänger, Nachdem das Signal empfangen ist, bleibt immer eine unerwünschte "uncertainty" Ungewißheit (noise) darüber, was die gesendete Botschaft wirklich war. Shannon hat einen Beobachter (zusätzliche Vorrichtung) eingeführt, der die Abweichung zwischen gesendeten und empfangenen Daten, die von "noise" auf die eine oder andere Art verursacht wurden, korrigiert.

Shannon hat mehrere Methoden entwickelt, um die Kanalkapazität eines "noisy channel" zu definieren, der eben von der Entropie, der statistischen Ungewißheit, Grenzen gesetzt werden. H = -∑ pi log pi ist die Entropie der Menge der Wahrscheinlichkeiten pi . … . pn. Der Shannon'sche Beobachter, der beides sieht, nämlich was gesendet und was aufgrund der vom Rauschen verursachten Fehler verzerrt empfangen worden ist, notiert die Fehler und übermittelt die Daten über einen "korrigierenden Kanal" oder einen "fehlerkorrigierenden Code" zum Empfänger, der die Fehler ausbessert. Wenn Hy(x) die Menge der zusätzlichen Informationen ist, die pro Sekunde benötigt wird, um die empfangene Botschaft zu korrigieren, dann können wir die Grenze der Kanalkapazität für Kanäle mit Rauschen definieren: Ein diskreter Kanal habe die Kanalkapazität C und eine diskrete Quelle die Entropie H per Sekunde. Wenn H – C, dann gibt es einen Code, so daß der Output der Quelle über den Kanal mit einer beliebig kleinen Fehlerfrequenz übertragen werden kann. Es wird also angenommen, es gäbe einen idealen Beobachter, der die Fehler, das Rauschen der Informationsquelle bzw. des Informationskanals korrigiert. Information, Wahl, Ungewißheit und Entropie sind auch bei Shannon Begriffe, die sich wechselseitig definieren. Man zahlt offensichtlich einen Preis für Information. In dem die Information unsere Ungewißheit über den Zustand des Systems reduziert, reduziert sie die (thermodynamische) Entropie des Systems. Die Reduktion der Entropie erhöht aber die freie Energie des Systems, die proportional dem Minimum an Energie ist, das notwendig ist, die Botschaft zu übertragen, welche zu einer Vermehrung der freien Energie führte. Der Preis, den man für Information über das eigene System zahlt, der zur Reduktion (der thermodynamischen, statistischen) Entropie eines Systems führt, ist proportional zur (informationstheoretischen) Entropie der Signalquelle, welche die Information produziert., Er ist immer so hoch, um ein Perpetuum mobile der zweiten Art zu verhindern, um den zweiten Hauptsatz der Thermodynamik nicht zu verletzen.

Entropie ist ein Maß des Zufalls und des Zerfalls. Die Tendenz physikalischer Systeme, immer weniger organisiert zu sein, immer mehr zu zerfallen, ist mit Entropie assoziiert. Der Pfeil der Zeit, die Irreversibilität der Zeit entsteht auf Grund der Entropie. In der informationstheoretischen Kommunikationstheorie wird Information als Anzahl der Wahlmöglichkeiten definiert. Wenn eine Situation hoch genug organisiert ist, gibt es wenig Wahlmöglichkeiten, ist der Grad an Zufall gering, das System ist determiniert – daher ist die Information gering. Ein chaotisches (deterministerisches, nicht-lineares) System im Gegensatz zu einem rein deterministischen System hat daher mehr Information, weit mehr Freiheitsgrade, Wahlmöglichkeiten. Ungewißheiten, Freiheit der Wahl, Entropie und Information, definiert als Logarithmus der Anzahl von Wahlmöglichkeiten, konvergieren also als Begriffe. Je größer die Freiheit der Wahl, desto größer die Information, desto größer die Ungewißheit. Rauschen bedeutet aber ebenfalls erhöhte Ungewißheit, so daß man fälschlich meinen könnte: erhöhtes Rauschen bedeutet erhöhte Ungewißheit und damit erhöhte Freiheit der Wahl, also Information. Das ist natürlich paradox. Man braucht also ein Verfahren, das gewünschte Ungewißheit (Information) von unerwünschter Ungewißheit (Rauschen) unterscheidet. Die Kanalkapazität soll diese Aufgabe erfüllen, bzw. der ideale Beobachter.

Das Rauschen bedroht also die Information auf mehrfache Weise. Die klassische informationstheoretische bzw. kybernetische Kommunikationstheorie hat das Problem des Rauschens erstens vereinfacht, indem sie semantische Probleme ausgeklammert hat, zweitens naiv gesehen, indem sie z.B. den Beobachter nicht als Fehlerquelle, sondern als Fehlerkorrektur interpretiert. Sie stellt gewissermaßen einen teilweisen Rückschritt hinter die themodynamische Entropietheorie dar. Die aus der Thermodynamik abgeleiteten quantenphysikalischen und chaostheoretischen Zugänge zur Information und Entropie scheinen mir die aussichtsreichsten, um die Paradoxien und Aporien der Entropie- und Informations-Theorien, wie sie Maxwell's Dämon, Szillards Maschinen etc. exemplifizieren, zu beheben, weil sie das Problem des Beobachters in den Mittelpunkt stellen. Das Rauschen der klassischen Kommunikationstheorie ist mehr oder minder das Rauschen des Eigensignals, wo der Beobachter Fehler korrigiert. Das Rauschen in der Quantenphysik ist das Rauschen des Beobachters, der Fehler unvermeidlich und notwendig produziert. Gödels Arbeit von 1931 "Über formal unentscheidbare Sätze der Principia Mathematica I" (18) war der erste Beweis für die unvermeidbare Unvollständigkeit bzw. Ungewißheit eines Systems bzw, der Informationen überein System bzw. der Selbstaussage eines Systems über sich selbst, über seinen Eigenzustand, wenn es von innen betrachtet wird. In der elementaren Zahlentheorie gibt es gemäß Gödel Aussagen, die wahr, aber formal unbeweisbar sind. In der Welt der Zahlen wird es immer Dinge geben, die wir nicht wissen. Gregory Chaitin hat Gödels Resultat von 1931 und Turings Halteproblem von 1936 (19) universalisiert, indem er einen thermodynamischen, statistisch-mechanischen Zugang zur Mathematik vorschlug, der die Zufallsstruktur in manchen Bereichen der Arithmetik behauptet. (20) Aus Gödels Resultat und Boltzmanns Statistischer Mechanik entwickelte er eine algorithmische Informationstheorie bzw. "thermodynamische Erkenntnistheorie", welche die Ungewißheit und den Zufall nicht ausschließt, da es Gebiete der Arithmetik gibt, wo Probleme nicht durch logisches Schließen gelöst werden können, weil dort Zufall herrscht. Ungewißheit, Mangel an Vorhersagbarkeit und an Information, Zufall sind also allgegenwärtige Prinzipien nicht nur in der reinen Mathematik, sondern auch in der klassischen Physik und in der Quantenmechanik. Kurz nachdem Gödel seinen berühmten Beweis der Unvollständigkeit (von innen) der Arithmetik vorgestellt hatte, begann sein Freund, von Neumann der Frage nachzugehen, ob vielleicht die Quantenmechanik eine ähnliche Beschränkung darstellt – diesmal in einem physikalischen Zusammenhang. Glücklicherweise war von Neumann in der Lage zu beweisen, daß wenn man die Quantenmechanik als die grundlegende physikalische Theorie akzeptiert, welche alle anderen möglichen Theorien als Spezialfälle mitumfaßt, tatsächlich kein Grund zur Besorgnis besteht. Die Struktur der Quantenmechanik gewährleistet nämlich, daß "die Informiertheit des Beobachters über den eigenen Zustand" aus dem Formalismus herausfällt. (16)
Diese Problematik des Beobachters bzw. des Rauschens des Beobachters, der Information erzeugt und gleichzeitig löscht, hat die Quantenphysik eingeführt, um entropische Kosten der Beobachtung bzw. der lnformation zu berechnen. Die Endophysik von Otto Rössler, eine mögliche Erklärung der Quantenmechanik ab ca. 1980 entwickelt, verschärft das Beobachterproblem durch die Unterscheidung zwischen internem Beobachter, dem nur bestimmte Bereiche der Welt zugänglich sind und für den Rest der Welt in einer für ihn nicht korrigierbaren und erkennbaren Weise verzerrt wird, und externem Beobachter, der als Superbeobachter allerdings nur konstruiert werden kann innerhalb von Modellwelten. Die Welt ist immer nur definiert auf der Schnittstelle zwischen dem Beobachter und dem Rest der Welt. Die Beobachterposition ist also ein Regler, der auf einer Frequenz zwischen Paradies (Information) und Hölle (Fehler) verschoben werden kann. Die Information ist also unvermeidlich beobachter-relativ. Der Beobachter erzeugt notwendigerweise Rauschen. Er kann diesem Rauschen der Beobachtung nur entkommen, wenn er selbst ein Teil des Informationsmodells ist. Ähnlich dem von John Bell 1964 vorgeschlagenen Theorem über Fernwirkungen über beliebige Distanzen, über die Existenz der Nicht-Lokalität und des Indeterminismus, wo uns durch (statistische) Korrelationen die lnformation zugänglich wird, ist auch das Rauschen des Beobachters nur durch (Fern-)Korrelationen aufhebbar. Es genügt also nicht zu fordern mehr Beobachtung durch mehr Beobachter, um die Informationen zu erhöhen, sondern es bedarf der erhöhten Korrelationen und Kovarianz der Beobachter und Beobachtungen, also mehr Kommunikation. Allerdings ist die Frage, ob wir uns dieser Korrelationen bemächtigen können.
II. INFORMATION UND ENTROPIE IN SOZIALEN SYSTEMEN
Wenn wir wie bisher in der neuzeitlichen Welt die Naturwissenschaft als Leitwissenschaft betrachten wollen, wird es vielleicht erlaubt sein, die Modelle der Information, der Entropie und des Rauschens von den physikalischen Systemen auf soziale Systeme zu übertragen und auch dort nach den relativen Beziehungen zwischen Information, Entropie und Beobachtung zu fragen. Die informationstheoretische Kommunikationstheorie hat diese Frage der Energiedissipation und das Beobachterproblem vernachlässigt. Die Quantenphysik hat uns mit der Tatsache vertraut gemacht, daß wir bei der Beobachtung von Systemen und Objekten die Rotte des Beobachters nicht außer Acht lassen dürfen. Niels Bohr hat die berühmte These aufgestellt, daß der Akt der Beobachtung, das was wir beobachten, selbst beeinflußt. Archibald Wheeler ist noch weiter gegangen und hat gesagt, ein Phänomen ist nur dann ein Phänomen, wenn es ein beobachtbares Phänomen ist. Die Informiertheit des Beobachters spielt eine zentrale Rolle. Ein vom internen Beobachter festgestellter Zustand ist ein anderer als der "objektiv existierende", von außen beobachtbare. Quantum Dämon beschreibt also das Problem des (Rauschen erzeugenden) Beobachters in Informationssystemen.

Was die Quantentheorie für physikalische Systeme beschrieben hat, kann auch auf soziale Systeme angewendet werden. Auch hier spielen die Informiertheit des Beobachters, das Wissen über seinen Eigenzustand, und der Unterschied, ob er ein interner, dem beobachtenden System angehörender Beobachter ist, oder ein externer Beobachter außerhalb des Systems ist, das er beobachtet, eine entscheidende Rolle. Die quantenphysikalischen Theorien über die Abhängigkeit des Informationszustandes eines Systems vom Beobachter gelten auch für soziale und kulturelle Systeme. Eine Quantentheorie für die Kulturtheorie ist vonnöten. Es muß von den klassischen historischen Vorstellungen Abschied genommen werden, als gäbe es eine reine und objektive Beschreibung der Vorgänge in der geistigen Welt, wo der Beitrag des Beobachters zu den beobachteten Phänomenen ausgeblendet bzw. subtrahiert werden kann. Von diesem Klischee und von dieser Illusion muß Abschied genommen werden, Gerade im Gegenteil: besonders in der Medienweit gilt Wheelers Theorem, daß nur ein beobachtetes Phänomen ein Phänomen ist. Nur was in den Medien repräsentiert wird, existiert auch, und in welcher Form es im Datenraum existiert, ist ebenfalls abhängig von der Position des Beobachters. Der Kritiker und Kulturtheoretiker praktiziert also nolens volens eine Beobachterrelativität. Das Eigensignal des beobachteten Objektes vermischt sich untrennbar mit dem Eigensignal bzw. dem Rauschen des Beobachters. Der Beobachter konstruiert nicht nur Information, er destruiert und löscht auch Information. Die Gesetze der entropischen Kosten der Information, ob auf Kosten der Beobachtung, der Messung, Informationsübertragung, der Umgebung, sind im kulturellen Bereich genauso hoch.

Eine quantenphysikalische Informationstheorie ist für die Praktik des Handels mit Informationen und Werken, deren Plazierung und Verdrängung, deren Publikation und Unterdrückung in der postindustriellen informationsbasierten kapitalistischen Gesellschaft angemessener, als die klassische idealistische, wo der Einfluß des Beobachters (Kritikers, Kurators, Theoretikers, Herausgebers) durch die Beobachtung auf das Beobachtete, auf die durch die Beobachtung erst eigentlich konstruierte und codierte Information, verleugnet bzw, vernachlässigt worden ist. Information und Beobachter sind nicht mehr zu trennen. Das Rauschen des Beobachters, die Unbestimmtheitsrelation zwischen Information und Beobachter ist nicht beliebig reduzierbar. In der gegenwärtigen Welt, wo einerseits von der Medizin bis zur Ökonomie die Information, der Zugang zur Information, die Verbreitung von lnformation, weltweit eine immer fundamentalere und zentralere Rolle spielen, andererseits immense Komplexe der Desinformation globale Zonen der Ungewißheit etablieren, sind diese erwähnten Einschränkungen besonders zu beachten, weil ganz offensichtlich die Gefahr besteht, erstens Rauschen für Information zu halten, und zweitens mit zunehmender Informationsmenge dieses Rauschen nicht zu eliminieren, sondern zu verstärken, gemäß dem Theorem der Quanten- und Endophysik,wenn der innere Beobachter nicht weiß, daß er Beobachter ist und sein Rauschen für die Information des beobachteten Sachverhalts hält.

Die Versuche der Soziologie, von Harold Laswell bis zu Walter Lippmann (21) , das Entstehen von Information in sozialen Systemen zu analysieren, waren nicht sehr erfolgreich. Erst die Arbeiten von Noam Chomsky und Niklas Luhmann,wo das Rauschen des Beobachters konstitutiv eine Rolle spielt, bilden Ansätze zur Erklärung jener unvorstellbaren Verelendung der Informationsdimension im öffentlichen Raum, wie sie gegenwärtig dominiert, wo die Informationen über kulturelle wie politische Transaktionen unzugänglich bleiben. Die Fabrikation von Konsens (22) ist es, was das Rauschen der Beobachter und der massenmedial verbreitete Informationsstaub heute erzeugen. Die entropischen Kosten regulieren und dominieren den Informationsmarkt der westlichen Welt. Entropie ist das Maß der Massenmedien. Werden die digitalen Autobahnen Teil dieses Informationsstaubs, dieser Entropie, oder werden sie mehr Korrelationen und Kovarianzen zwischen Beobachtern bilden, wie es notwendig wäre? Wird die telematische Gesellschaft endlich ihren Mechanismen der Informationsunterdrückung durch Korrelationen und Kovarianzen der Beobachter über weltweite Netzwerke entgegensteuern? Die postmoderne Gesellschaft ist informationsbasiert. Nicht mehr mechanische Maschinen, sondern Informationsmaschinen wie Computer stützen das soziale Betriebssystem. Die Dogmen der lnformationsgesellschaft sind: Es gibt mehr Informationen denn je. Information ist allgemein leichter zugänglich denn je. Information wird mehr ausgetauscht denn je. Werden durch diese Bytes für Bürger die Menschen gescheiter und wissender? Nimmt die Information jedes Einzelnen tatsächlich zu, oder wird nicht auch mehr Information denn je verloren? Nimmt in Wirklichkeit der Austausch der Information ab? Wissen die Menschen – abgesehen von Experten – weniger denn je voneinander? Entsteht nicht eine Informationsimplosion und ein Informationsstau in den digitalen Datennetzen? Im Zeitalter der Multimedien, Infotainment, Wissensoftware, Edutainment, Datenautobahnen ist es notwendig, kritische Fragen an die Mythen und Dogmen der postmodernen Informationsgesellschaft zu stellen.

Die postmoderne Gesellschaft besteht aus sehr komplexen, dynamischen, sozialen Systemen, in denen die Idee der Information eine zentrale Rolle spielt. Der Datenaustausch im Netzwerk von Informationsmaschinen stützt, von der Ökonomie bis zur Freizeitgestaltung, von der Medizin bis zum Tourismus, das soziale Betriebssystem. Die Theorie der Information ist zu einer Leitwissenschaft geworden. Die massenmediale Verbreitung von Information kann aber auch zum Arsenal von Unterdrückungs- und Optimierungsstrategien der Macht gehören. Der Datenaustausch kann zu einem Datenkrieg entflammen.

Wie vor Jahrhunderten mit Atlanten und Meridianen neue Territorien vermessen und entworfen, entdeckt und konstruiert wurden, so stellen auch die globalen Datennetzwerke eine neue, virtuelle Geographie dar. In dieser Geographie, in dieser Datenlandschaft geht es verstärkt darum, Dekorrelationen zwischen Beobachtern, zwischen Information und Umgebung zu vermeiden und im Gegenteil zahlreiche Korrelationen zwischen den diversen Daten der Beobachtungen, Messungen, Umgebungen herzustellen, eben zu vernetzen, um die entropischen Kosten der Informationsgesellschaft zu minimieren, egal ob Maxwells Dämon ein Computer, ein interner Beobachter oder ein hypothetisches Wesen ist. Der Diskurs der Cyberkultur expandierte in die Datenautobahnen. Wir leben nicht mehr allein in Straßen und Häusern, sondern auch in Kabelkanälen, Telegraphendrähten, E-mail-Boxen und eben in digitalen globalen Netzwelten. 1969 wurden erstmals vier Computer miteinander verbunden. Dieses Computernetz trug den Namen ARPANET (Advanced Research Projects Agency-NET). Als INTERNET bezeichnet man daher die Verbindungen all jener Computer, die über ein Protokoll, TCP (Transmission Control Protocol) und IP (Internet Protocol), miteinander kommunizieren. 1972 wurde dieses Projekt des amerikanischen Verteidigungsministeriums öffentlich präsentiert und viele Universitäten und andere Forschungseinrichtungen schlossen sich an das Netz an. Im Jahre 1990 bestand das Internet aus ca. 3000 lokalen Netzwerken mit über 200.000 Computern, im Jahr 1994 hat ihre Zahl über 2,5 Millionen erreicht. Bill Gates rechnet bis zum Jahr 2000 mit 20 Millionen vernetzten Haushalten und Institutionen. Das Informationssystem World Wide Web (WWW) wurde am europäischen CERN-Labor (von Tim Berners-Lee) entwickelt und stellt wegen seiner Hypertext-Verbindungen (sog. Hyperlinks) das flexibelste Werkzeug am Internet dar. Die globalen Datennetze dürfen nicht nur verstanden werden als multimediale Datenbanken und Kommunikationskanäle, wo Texte, Bilder, Töne transportiert und prozessiert werden, sondern diese Datennetzwerke erlauben auch neue Formen der Kommunikation und auch neue Kommunikationspartner, wie zum Beispiel mit Software-Agenten, die mit künstlicher Intelligenz ausgestattet sind, also gleichsam Prototypen von Subjekten ohne Körper bilden. Es werden Kommunikationsformen mit realen Menschen in virtuellen Räumen und mit virtuellen Menschen in realen Räumen möglich. Das Rauschen des Beobachters und Kommunikationspartners kann konstruktiv eingesetzt werden und die Struktur, also auch die Botschaft der Kommunikation jeweils lokal verändern. Die eindimensionale Kommunikation zwischen zwei Partnern mit zwei Interpretationswelten wird zur mehrdimensionalen Kommunikation mit multiplen Interpretationsmöglichkeiten aufgebrochen. Dieser Verlust an gegenseitiger Kontrolle und Eindeutigkeit kann als Freiheit empfunden werden.

Es wird im Reich der öffentlichen Medien zu gigantischen Fehlerexplosionen, zu beschleunigt wandernden Galaxien aus frühzeitig verbrannten Informationsstaub kommen. Unsere Vorstellungen von Information, Kommunikation und Beobachtung werden sich radikal ändern und auch Auswirkungen auf die sozialen Systeme haben. Unsere politischen Systeme werden radikalen Transformationen auf der Grundlage der Demokratie unterworfen oder zu Komplizen von Monopolen und totalitären Systemen werden ("wired democracy", Computerdemokratie, Telekratie, Videokratie). Gerade die künstlerischen Netzprojekte der Ars Electronica 95 werden weltweit zum ersten Mal den Vorhang heben für einen Blick auf diesen Horizont der digitalen Datenautobahnen, die uns bisher mehr oder minder in der Form von medialen Phantomen präsentiert wurden. Es werden die finanziellen und menschlichen Kosten und Strategien einer vernetzten Gesellschaft kritisch hinterfragt. Wie werden die Netzbewohner in dieser Wired World leben? Was werden Information und Kommunikation in diesen Netzwelten kosten? Wer werden die Hitch-Hiker und Hi-Jacker der Information-Superhighways sein? Das Surfen in den digitalen Netzwelten wird neue Formen des Sozialen, von der telematischen Besetzung des Körpers bis zur individuellen Aneignung von Datenmonopolen, ermöglichen.

Mein Dank für viele Anregungen an Otto E. Rössler.


(1)
J C. Maxwell. Theory of Heal. 4. Ed Longmans. Green and Co London 1875. S. 328-329. zurück

(2)
M, v. Smoluchowski. Experimentell nachweisbare, der üblichen Thermodynamik widersprechende Molekularphänomene Physik Z 13. S 1068-1080, 1912 zurück

(3)
Paul Ehrenfest. Brief an Samule Goldsmit. George Uhlenbeck und Gerhard Dieke. Nov 1927 In: Niels Bohr Vieweg. Braunschweig. 1958.S.152. zurück

(4)
Leo Szillard. Über die Entropieverminderung in einem thermodynamischen System bei Eingriffen intelligenterWesen. Z. f. Physik 53. S. 840-856. 1929. zurück

(5)
Claude E. Shannon. The Mathematical Theory of Communication Bell System Technical Journal. Juli, Okt 1948. zurück

(6)
L. Brioullin. Maxwell's demon cannot operate Information and entropy I J. Appl. Phys. 22. S 334-337. 1951.
L Briouttin, Science and Information Theory. 1956. zurück

(7)
John von Neumann. Lecture in 1949, In Theory of Self-Reproducing Automata. Arthur Burks (Ed.). Univ. of Illinois Press. Urbana. 1966. S. 66. zurück

(8)
Rolf Landauer. Irreversibility and Heat Generation in the Computing Process. IBM J. Res. Der, vot. 5. 1961. S. 183-191. Wiederabdruck: H.S.Leff/A.F.Rex (Hrg.). Maxwell's Demon. Princeton Univ. Press. 1990. S 188-196 zurück

(9)
Rolf Landauer. Information is Physical. Phys. Today, vot 44. Mai 1991, S. 23-29.
Rolf Landauer. Computation, Measurement, Communication and Energy Dissipation. In: Selected Topics in Signal Processing. S.Haykin (ed.), Englewood Cliffs: Prentice Hall. S 188-196. 1959. zurück

(10)
Charles H. Bennett, Logical Reversibility of Computation. IBM J.Res. Dev., vol. 17. S. 525-532. 1973.
C.H. Bennett. Demons, engines and the second law. Scientific American. 257. S. 108-116, 1987
C.H. Bennett. The Thermodynamics of Computation. Inst. f. Theor. Phys. 32 (12). S 905-940. 1982. zurück

(11)
E. Fredkin und T. Toftoli, Inst. f. Theor. Phys, vol. 21. S, 219-233. 1982
E. Fredkin. Digital information mechanics. Preprint 1983. Digital Mechanics, Physica D 45. S 254-270. 1990. zurück

(12)
P. Benioff. The computer as a Physical System: A Microscopic Quantum Mechanical Hamiltonian Model of Computers as Represented by Turing Machines. J. Stat. Phys., vol. 22, S.563-591. 1980.
Quantum Mechanical Models of Turing Machines that Dissipate No Energy Phys Rev. Lett , vot. 48. S 1581-158. 1982. zurück

(13)
W.H. Zurek. Maxwell's Demon. Szillard's Engine and Quantum Measurements. In: Maxwell's Demon. Entropy. Information. Computing H. S. Left/ A.F Rex (ed.). Princeton 1990, S. 249-259. zurück

(14)
Paul N Fahr, Entropy Cost of Information In Proceedings of the Workshop on Physics and Computation. PhysComp '94. IEEE Computer Society Press. Los Alamitos. Cat 1994. S. 217-226. zurück

(15)
Harvey S. Left, Andrew F. Rex (Hrg.). Maxwell's Demon: Entropy, Information, Computing Princeton University Press 1990. zurück

(16)
John v. Neumann. Mathematische Grundlagen der Quanten Mechanik. Berlin 1932. Kapitel 5
R. Feynman. Quantum Mechanical Computers. Opt. News, vol. 11 (2). S 11-20, 1985.
Otto E. Rössler. Endophysics. In: J.L. Casti, A. Karlquist (Hrg.) Real Brains, Artificial Minds. North Holland. N.Y 1987, S. 25-46. zurück

(17)
W.H. Zurek. Algorithmic randomness and physical entropy. Physical Review A 40 (8). S. 4731-4751. 1989 zurück

(18)
Kurt Gödel. Über formal unentscheidbare Satze der Principia Mathematica und verwandter Systeme I. Monatshefte für Mathematik und Physik, 38. S 173-198. 1931. zurück

(19)
Alan Turing. On Computable Numbers with an Application to the Entscheidungsproblem. Proc. of the London Math. Soc., 2, vol. 42. S. 230-265.1936-1937 zurück

(20)
Gregory J. Chaitin, Information, Randomness and Incomptetness. World Scientific, Singapore, 1990. zurück

(21)
Walter Lippmann, Public Opinion. 1921. zurück

(22)
Noam Chomsky, Eduard S. Herman, Manufacturing Consent. Pantheon Books, N.Y. 1988. zurück