www.aec.at  
Ars Electronica 1994
Festival-Programm 1994
Back to:
Festival 1979-2007
 

 

Eingebettete Intelligenz und Prozesse der Selbstverwaltung am Beispiel von intelligenten Verkehrssystemen


'Manuel DeLanda Manuel DeLanda

Eine sinnvolle Betrachtungsweise wäre, die Evolution der Computertechnologie als allmähliche Verschiebung von Techniken der Problembewältigung zu beschreiben, eine Verschiebung vom menschlichen Körper auf formale Systeme und von dort weiter zu elektromechanischem Gerät. Als Aristoteles seine berühmte dreigliedrige Logik erfand, tat er demnach nichts anderes, als elementare menschliche Fertigkeiten auf einen mechanischen Ablauf (oder in einen Algorithmus) zu übertragen. Im 19. Jahrhundert erweiterten Logiker (Boole, Frege) die Reichweite dieser Algorithmen auf andere deduktive Schrittfolgen. Als Alan Turing seine imaginäre Maschine entwickelte, die diese mechanischen Anweisungen ausführen könnte und als, im Schub des Zweiten Weltkriegs, er und einige andere, wie John von Neumann, die abstrakten Regelfolgen schließlich als konkrete Maschinen realisierten, war ein weiterer Schritt in diesem Transfer mechanischer Intelligenz getan. Es gab also eine langsame, aber reale Verschiebung vom menschlichen Nervensystem hin zum Computer in drei Etappen. Problemlösefähigkeiten, die als informelle Heuristik (oder als eine Reihe von Faustregeln) dem Fleisch eingeschrieben waren, endeten schließlich als Algorithmus in Silikon; über den Zwischenschritt von auf einem Blatt Papier notierten kombinatorischen Regeln. Heute ist dieser Zwischenschritt von Wissensingenieuren aufgehoben worden, welche die menschliche Heuristik direkt auf die Maschine übertragen. Dies geschieht durch den intensiven Prozeß des Befragens menschlicher Experten, in dessen Verlauf informelle, kaum bewußte Kenntnisse zu Tage gefördert werden. Artikuliert, formalisiert und kompiliert ergeben sie dann ein sogenanntes "Expertensystem", das bislang erfolgreichste Produkt symbolischer AI (Artificial Intelligence).

Gegenwärtig findet eine zweite Verschiebung statt. Mechanische Intelligenz, die bislang auf spezifische Apparaturen wie den Personal Computer beschränkt blieb, beginnt sich auf die menschliche Umwelt auszudehnen: auf Gebäude und Geräte, Beförderungsmittel und -wege. Gerade diese zweite Verschiebung verspricht gesellschaftliche lnteraktionsmuster in einer radikaleren Weise zu verändern. Wie Mark Weiser vom "Xerox-Palo-Alto-Research-Center" es formuliert hat: "Die entscheidenden Technologien sind jene, die verschwinden. Sie verweben sich mit dem Alltäglichen, bis sie von diesem nicht mehr zu unterscheiden sind." Er verweist auf das Beispiel des Elektromotors, der seine Entwicklung als überaus präsente Erscheinung in der Werkstatt, als zentrale Antriebsquelle aller Werkzeuge begann, um dann aus dem Blickfeld zu verschwinden, als die Miniaturisierung jedem Werkzeug einen eigenen Motor ermöglichte. Die Vorstellung dahinter lautet, daß, sobald Motoren oder Computer Teil der Umgebung werden, sie unsere Aufmerksamkeit nicht länger auf sich ziehen, so daß diese ungeteilt den zu bewältigenden Aufgaben zugewendet werden kann. Hier meint unsichtbares Computing gerade das Gegenteil der die Aufmerksamkeit absorbierenden Virtual-Reality-Technologie. Diese fixiert uns auf das Medium selbst, statt uns für das Raum zu geben, was wir damit erreichen wollen. Wie Weiser bemerkt: "Erst wenn Dinge verschwinden, sind wir in der Lage, sie ohne Nachdenken zu gebrauchen und können daher unsere Aufmerksamkeit neuen Zielen zuwenden." (1)

Dennoch wirft eingebettete Intelligenz eine Reihe von Fragen bezüglich des potentiellen Mißbrauchs dieser Technologien auf. In einer Welt, in der die meisten uns umgebenden Display-Oberflächen zu Smart Tabs, Pads und Boards geworden sind – mit der Aufgabe, die Position und Funktion einer jeden Person innerhalb eines Gebäudes zu kennen – dämmert das Überwachungsszenario eines Panoptikums herauf. Das Problem, die Privatsphäre innerhalb dieser neuen Umwelten zu wahren, ist bereits ein heiß umstrittener Punkt, sowohl in bezug auf Internet als auch in bezug auf Kreditkarten. Die vorgeschlagene Lösung heißt in allen drei Fällen Geheimkodierung, die sicherzustellen hat, daß nur die für das System relevante Information die Schaltkreise durchläuft (im Falle von Kreditkarten wäre das die Höhe der Transaktionen, nicht aber das Kaufverhalten). Wie aber der Fall Clipper in den USA zeigt, ist ein Schutz durch Geheimkodierung nicht selbstverständlich; ein solcher muß erkämpft werden.

Über die den Privatbereich betreffenden Probleme hinaus werden die gesellschaftlichen Folgen eingebetteter Intelligenz um die Frage kreisen, welcherart die Strukturen sein sollen, die wir mit diesen Technologien schaffen. Wenn wir uns vorstellen, daß – dank Miniaturisierung gerade solche Materialien intelligent werden, aus denen wir gesellschaftliche Strukturen errichten, stellt sich die Frage, ob wir mit dem "intelligenten Kram" Befehls- und Kontrollhierarchien einrichten oder mit "programmierbarem Material" auf selbstverwaltete, marktorientierte Strukturen abzielen. Im ersten Fall verfahren wir so, daß wir Personen in eine homogene Rangordnung stellen und der obersten Position die Kontrolle überantworten. Im zweiten Fall erfolgt die Kontrolle dezentral und wir haben mit Menschen zu tun, die unterschiedliche Ziele verfolgen, wobei sie ihre Fähigkeiten und Bedürfnisse wechselseitig verknüpfen. Die Menschheitsgeschichte zeigt, daß es uns wesentlich leichter fällt, Hierarchien zu errichten, als dynamische Netzwerke zu schaffen. Wir scheinen nicht einmal über eine angemessene Theorie von Märkten als selbstverwaltete Strukturen zu verfügen. Eine Teilschuld daran trifft die Ökonomie, der es nicht gelungen ist, die tatsächliche Dynamik von Märkten zu erfassen. Entweder hat sie sich der überholten Vorstellung einer "invisible hand" verschrieben, oder aber verfehlt, Monopole und Oligopole als das zu erkennen, was sie immer waren: Kontrollhierarchien, die außerhalb selbstverwalteter Märkte operieren.

Glücklicherweise beginnt sich diese Situation zu verändern. Die Theorien selbstverwalteter Prozesse sind inzwischen 30 Jahre alt, und die frühe Erkenntnis, daß nichtlineare Ströme (zwischen Materie und Energie) in der Lage sind, spontan aus Chaos Ordnung entstehen zu lassen, hat sich zu einem internationalen Forschungsgebiet ausgeweitet, das sich anschickt, in den Sozialwissenschaften Anwendung zu finden. Insbesondere die Idee, daß unter geeigneten Voraussetzungen Entitäten aus der lokalen Dynamik ihrer Komponenten heraus entstehen können, die mehr als bloß die Summe ihrer Teile bilden (d.h. synergetische Entitäten), findet zunehmend Ausdruck in den Managementtheorien. Demnach sollte Management nicht darauf abzielen, Untergebenen einen vorgefertigten Plan aufzunötigen, sondern es sollte die Bildung eines sich selbsttätig erneuernden Prozesses der Entscheidungsfindung auslösen. Anstatt Verhaltensweisen rigide von oben herab zu bestimmen, gilt es, sie behutsam zu regulieren. Auf diese Weise verknüpfen sie sich zu einer autokatalytischen Schleife, einer sich regenerierenden Reihe menschlicher Tätigkeiten, deren Kohärenz aus ihren jeweiligen Dynamiken, auf der Grundlage wechselseitiger und vorausschauender Angleichung, erwächst. (2) Meiner Ansicht nach werden die innovativsten Anwendungsbeispiele eingebetteter Intelligenz aus der Interaktion nichtlinearer Gruppendynamiken erwachsen. Das hieße, unsichtbares Computing sollte entwickelt werden, um das Entstehen von selbstverwalteten, aktivitätsfördernden Netzwerken innerhalb menschlicher Institutionen zu unterstützen und zu erleichtern.

Die spezifischen Institutionen, die ich hier untersuchen möchte, haben mit der Organisation der gesellschaftlichen Transportfunktionen zu tun. Wie Historiker kürzlich entdeckt haben, entwickelten Städte sich immer an geographischen Punkten erhöhten Verkehrs von Menschen, Gütern und Informationen – wie etwa an Kreuzungspunkten zweier Flüsse oder alter Handelswege. (3) Fast scheint es, als seien die frühen Städte wie Ablagerungen von Handelsplätzen entstanden, gewachsene Infrastruktur mit Straßen und Häusern an einem Warenfluß, die wieder andere Prozesse in Gang setzten und zum sprunghaften Wachstum weiterer städtischer Besiedlungen führten. Somit bildet die Verkehrstechnologie, wie unentwickelt auch immer sie sei, ein Schlüsselelement bei der Entstehung urbanen Lebens. Gleichzeitig könnte, vor dem Hintergrund des Wachstums der Städte, die Unzulänglichkeit der Technologie zu ihrem Tod beitragen. Enge, Verstopfung und Verschmutzung werden in einem Ausmaß erzeugt, das von lnstitutionen nicht mehr bewältigt werden kann. Wir nähern uns heute diesem Punkt; viele Städte sind nicht mehr in der Lage, die Probleme zu lösen, die durch die Technologie motorisierter Fahrzeuge und eine zentrale Verkehrsregelung verursacht werden. In den 70er Jahren begann die Regierung der USA den Einsatz Künstlicher Intelligenz zu erwägen – wie z.B. das von der Ohio State University entwickelte "Automated Highway System" (4) –, um diese Probleme zu lösen. Obwohl in den 80er Jahren die Gelder auf diesem Sektor nahezu eingefroren wurden, hat sich die Forschung in den letzten Jahren wieder verstärkt: mit Budgets, die von 2 auf 200 Millionen Dollar erhöht wurden.

Auch hier, bei intelligenten Transportsystemen, treffen wir auf zwei Ansätze, wobei der eine auf zentraler Entscheidungsfindung basiert, der andere auf selbstverwaltetem, spontanem Verhalten.

Interessanterweise spiegeln sich diese beiden Ansätze in jener Art Künstlicher Intelligenz, die für die Konzeption des Problems in Anspruch genommen wird. Untersucht man ein gegebenes System, als sei dieses homogen strukturiert (z.B. eine Hierarchie), ist es einfacher, von oben nach unten zu denken (Top-Down-Ansatz), gleichgültig ob es sich um ein menschliches oder natürliches System handelt. Man analysiert oder zerlegt das Ganze in seine homogenen Teile und setzt es dann wieder zusammen. Ist aber das beobachtete System ein Netzwerk heterogener Teile, versagt diese Analyse, weil der synergetische Effekt des Ganzen auf den Interaktionen zwischen den Teilen beruht und genau diese Interaktionen unter den Tisch fallen, wenn sie zerlegt werden. Daher ist hier ein synthetischer Ansatz gefragt, der von unten nach oben denkt (Bottom-Up-Ansatz). Als ein Beispiel dafür mag das Studium Künstlichen Lebens (Artificial Life) gelten, wobei einem Bestand abstrakter Tiere erlaubt wird, im Verbund mit anderen Tierbeständen zu leben und sich zu vermehren in der Hoffnung, daß spontan eine heterogene Vernetzung entsteht, die einem echten Ökosystem gleicht. Der Kerngedanke ist, daß nur lokale Interaktionsregeln ausdrücklich definiert werden müssen; alles globale Verhalten hat sich selbst zu bilden. Im Fall von AI geht der symbolische Ansatz den analytischen Weg – von oben nach unten. Dagegen wählen die Neuronale Netzwerke- und Animat-Ansätze den synthetischen Weg – von unten nach oben. Symbolische AI war bei der Modellierung phylogenetisch junger Fertigkeiten, wie Schachspielen oder Beweisführung in Theorien, erfolgreich, während verhaltensorientierte und verknüpfende AI sich in der Simulation grundlegenderer Fertigkeiten, wie dem Erkennen von Gesichtern oder Mustern, bewährte. Aufgrund dieser Dichotomie sind Philosophen zu dem Schluß gekommen, der menschliche Geist könne tatsächlich eine Mischform hierarchischer und vernetzter Strukturen sein. Ähnlich wie die Expertensysteme dazu gezwungen waren, einen seriellen Computer (mit seinem zentralisierten Prozessor) zu benutzen, um einen parallelen Computer zu simulieren (z.B. ein dezentrales System von Produktionsregeln), könnte das menschliche Gehirn ein paralleler Computer sein, der an einem gewissen Punkt seiner Evolution fähig wurde, einen seriellen zu simulieren. Es ist gerade letzterer, den wir als unseren Bewußtseinsstrom wahrnehmen. (5) Ähnlich wie der menschliche Geist eine zusammengesetzte Struktur sein könnte, wären die meisten unserer Institutionen als unterschiedliche Mischungen zentralisierter und dezentralisierter Kontrolle vorstellbar, wobei reine Befehlshierarchien und reine Netzwerke die Ausnahme bilden.

Die gegenwärtigen Versuche, mechanische Intelligenz in jenes nichtlineare dynamische System einzubetten, das motorisierte Fahrzeuge in Interaktion mit Verkehrswegen und Signalanlagen bilden, wählten meist den Top-Down-Ansatz. Das kann wiederum nicht überraschen, da hierarchisches Denken unsere Gewohnheiten und Organisationsformen viel stärker zu durchziehen scheint. Dennoch wies die Geschichte unserer öffentlichen Verkehrssysteme neben zentraler Planung durch Amtsgewalten auch Prozesse der Selbstverwaltung auf, die aus komplexen Interaktionen zwischen Benutzern, Fahrpreisen, Betriebskosten und der Anzahl der Linien entstehen. Der öffentliche Verkehr innerhalb des städtischen Bereichs und jener zwischen Städten und Vororten steigert sich wechselseitig, das führt zu nichtlinearen Schwelleneffekten, so wie sich das Einführen einer zusätzlichen Buslinie in einem plötzlichen und dramatischen Ansteigen der Benutzerfrequenz niederschlägt. Versuche zentraler Behörden, die Nutzung einer bestimmten Transportweise zu forcieren, versagen bezeichnenderweise, wenn die Höhe der Investitionen die kritische Schwelle nicht erreicht. Wenn aber das gesamte dynamische System knapp vor einer Gabelung (bifurcation) ausbalanciert ist, können zentrale Befehle Effekte haben, welche die getätigte Investition deutlich übertreffen. Daher kann städtischer Verkehr als weiteres Beispiel eines hybriden Systems gelten, dessen zentralisierter Anteil viel sichtbarer ist als der selbstverwaltete, der erst in letzter Zeit durch Computersimulationen aufgedeckt worden ist. (6)

Die wissenschaftliche Untersuchung des Fahrzeugverkehrs entstand in den 50er Jahren, als entdeckt wurde, daß es sich um einen kontinuierlichen Fluß handeln müsse, dessen Flaschenhälse Störungen verursachen, die sich wellenförmig über das gesamte System ausbreiten. Ein verstärkt von unten nach oben orientierter Ansatz, der diesen Fluß in seine Teilelemente – die Autofahrer – zerlegt, hat gezeigt, daß Verkehrsströme ihre Kohärenz den psychologischen Reaktionen der Fahrer auf die Distanz zu anderen Fahrzeugen verdanken. Diese dynamischen Strömungen weisen mindestens zwei stabile Zustände auf. Bei niedriger Fahrzeugdichte haben wir ein System, das größtenteils dynamisch über das seitens der Fahrer gewünschte Tempo reguliert wird. In dieser stabilen Ordnung formieren sich Muster vom Typ "Kolonne": kurze Ketten von Autos in kurzem Abstand hintereinander, mit größeren Abständen zwischen den Kolonnen. Wenn nun die Fahrzeugdichte eine kritische Schwelle erreicht, wechselt der Fluß zu einer anderen Ordnung, zu einem kollektiven Strom, in dem jedes Auto sich in einem Tempo bewegt, das völlig durch dasjenige seiner Nachbarn bestimmt ist. Zentralisierte Entscheidungsfindung muß innerhalb dieser dynamischen Einschränkungen operieren, d.h. sie kann lediglich Wechsel zwischen Ordnungen auslösen. (Ein besonders wichtiger Parameter, der beeinflußbar ist, betrifft den Anteil an Zeit, den Autos an Ampeln verbringen. (7)

Diese beiden Beispiele zeigen, daß zentralisierte Kontrolle stets innerhalb der Beschränkungen eines größeren, selbstverwalteten Systems operiert, Die Effizienz ihrer Entscheidungen wird davon abhängen, wie nah das System einer Schwelle ist. Entfernt von dieser Schwelle wird unproduktive Anstrengung aufgewendet werden müssen, um einen Wechsel in der von den Menschen bevorzugten Transportweise (z.B. Auto versus Bus) oder im Verkehrsverhalten herbeizuführen. Nahe der Schwelle werden relativ geringe Mengen investierter Anstrengung durch das System selbst verstärkt werden und zu größerer Gesamtwirkung führen. Um aus diesen neueren Entdeckungen Vorteile ziehen zu können, müssen wir jedoch umdenken. Umfassende Planung und Kontrolle müssen aufgegeben werden; die Dynamik des Verkehrssystems muß selbst zum Teil des Prozesses der Entscheidungsfindung gemacht werden. Eine Annäherung an dieses Problem, die durch die Erforschung der Selbstorganisation von Insektengesellschaften richtungsweisend vorliegt, bestünde darin, Entscheidungsfindungen zu dezentralisieren und es der Umwelt zu erlauben, an der Lösung von Verkehrsproblemen mitzuwirken. J.L. Deneubourg und seine Mitarbeiter nennen diesen Ansatz "kollektives Selbstlösen von Problemen". Sie weisen darauf hin, daß im Fall von Ameisenkolonien aus ein paar Verhaltensregeln, aber auch aus intensiver Interaktion zwischen den Ameisen, eine Art "Kollektivintelligenz" entsteht. Wenn zum Beispiel eine Ameise eine Futterquelle findet, rekrutiert sie durch chemische Kommunikation eine andere Artgenossin. Weil dieser Rekrutiervorgang von der zweiten Ameise wiederholt wird, um dann im weiteren ständig wiederholt zu werden, erhöhen sich die Auswirkungen dieser Interaktion. Es bilden sich Ameisenpfade. Werden zwei Futterquellen gleichzeitig entdeckt, bahnt sich von jener, die näher am Bau liegt, schneller ein Pfad; die andere bleibt links liegen. Keine zentrale Entscheidung für eine der beiden Quellen ist erforderlich; in gewissem Sinne setzt sich die günstigere Nahrungsquelle von selbst durch. Wie Nahrung in der Umgebung verteilt ist, trägt zur Lösung des Problems bei. Die Wissenschaftler bemerken darüberhinaus, daß, im Gegensatz zu Ameisen, unsere motorisierten Fahrzeuge nur schwach interagieren und sich daher keine Sondierungspfade bilden können. Die Einbettung von Computern in Fahrzeugen, mit dem Effekt, daß diese sich gegenseitig in unterschiedlicher Stärke anziehen würden, könnte zum Auftreten von "Kollektivintelligenz" im Verkehrsfluß führen. Würde etwa die Anziehung zwischen Autos mit zunehmender Verkehrsdichte abnehmen, könnten Flaschenhalseffekte automatisch vermieden werden. Ebenso würde ein Fahrzeug, das eine neue, freie Route entdeckt, diesen Vorteil automatisch mit anderen teilen, weil es sie dazu brächte, hinter sich einen Pfad zu bilden. (8)

Das wohl erste Beispiel der Anwendung von AI auf Verkehrsprobleme teilte dezidiert nicht den dezentralisierten Ansatz. Ich beziehe mich hier auf den sogenannten "Smart Corridor", eine dreizehn Meilen lange Strecke des Santa Monica Freeway, die 1994 in Betrieb genommen werden soll. Die traditionelle, zentralistische Entscheidungsstruktur wurde aufrechterhalten. Sie wurde lediglich durch Expertensystem-Technologie, sowohl für die Verkehrsführung als auch für die Kontrolle, verstärkt. Das heuristische Know-how von Verkehrsexperten wurde mühsam aus deren Körpern extrahiert und in Regeln verwandelt, die dann, als Wissensbasis zusammenaddiert, mittels einer Inferenzmaschine aktiviert werden. Das System selbst ist jedoch nicht lernfähig. Heuristisches Know-how entsteht durch Interaktion mit der Wirklichkeit; menschliche Experten bringen ihr Wissen durch die Resultate solcher Interaktionen ständig auf den neuesten Stand. Der "Smart Corridor" kann aber selbständig nichts lernen, während er die Lösung realer Probleme unterstützt. Er ist unfähig, seine Wissensbasis durch neue Regeln zu erweitern, es bedarf menschlicher Techniker, die dies händisch tun. Weder kann er mit unerwarteten Phänomenen umgehen, die gleichzeitig auftreten, noch mit zeitabhängigen Konsequenzen einer Kette von Ereignissen, oder auch nur Programmwahrheit in Echtzeit prüfen – eine notwendige Leistung, da sich die Gültigkeit hergeleiteter Fakten mit der Zeit wandelt. (9)

Es könnte jetzt eingewandt werden, daß die eben genannten Beschränkungen keine echten seien, da ein Expertensystem nicht das Verkehrsmanagement übernehmen, sondern lediglich Menschen bei ihren Entscheidungen unterstützen soll. Daher könnten die Unzulänglichkeiten des digitalen Assistenten durch die menschlichen Operatoren kompensiert werden. Doch sofern die Kontrollfunktion nicht auf die Fahrzeuge hin dezentralisiert wird, werden selbst menschliche Operatoren durch die Nichtlinearitäten, die in jeder echten Verkehrssituation auftreten, überfordert: schlechte Wetterverhältnisse, unausgewogenes Fahrerverhalten, nicht kooperative Fußgänger, steckengebliebene Fahrzeuge usw. Gefordert ist ein lernfähiges Verkehrssystem, mit – vielleicht einem schnellen genetischen Algorithmus, der Lösungen für unvorhergesehene Situationen abwerfen kann, sowie ein neuer Ansatz für ein Management, das nicht die Form vorschreibt, welche der Verkehr annehmen sollte, sondern versucht die Bildung effizienter Muster anzuregen, z.B längerwährende Weggemeinschaften. Im Idealfall sollte das gesamte Fahrzeug-, Straßen-, und Signalsystem in der Lage sein, Situationen spontan zu optimieren.

Ich möchte diese Schilderung mit einigen allgemeinen Bemerkungen schließen. Auch wenn in den meisten menschlichen Institutionen die hierarchische Befehlskomponente überwiegt, operieren sie letzlich innerhalb umfassenderer Zusammenhänge, die durch Vernetzungen bestimmt sind. Städte bilden ein Ganzes heterogener Elemente, deren Dynamiken die Entscheidungen und Handlungen ihrer zentralisierten Verwaltung stark einschränken. Dasselbe scheint für Strukturen kleineren Ausmaßes, wie z.B. Unternehmen, zu gelten. Eingebettete Intelligenz würde es Kleinunternehmern erlauben Firmen aufzubauen, in denen das Vernetzen bei Prozessen der Entscheidungsfindung verhältnismäßig einfacher gelänge. Unsichtbares Computing würde als Element des nichtlinearen dynamischen Systems dienen, welches eine Firma in ihren alltäglichen Abläufen charakterisiert, und damit das Entstehen von Selbstverwaltung ermöglichen. Netzwerke solcher kleiner Firmen hätten dann Zutritt zu anderen Skalenökonomien (Produktivitätssteigerung bei Vergrößerung bzw. Synergieeffekten, A.d.Ü) als ihre großen, zentralisierten Gegenspieler und könnten somit erfolgreicher konkurrieren, In einer Welt, die zunehmend homogener wird, wobei ein Großteil dieser Vereinheitlichung durch Befehlshierarchien (zentralistische Verwaltungen, Konzerne) verursacht wird, könnte es nur gesund sein, der Mischung weitere Netzwerke hinzuzufügen. Allerdings ist das Gegenmittel zur homogenen Gliederung nicht ungegliederte Heterogenität. Die gegenwärtige Situation am Balkan verweist auf die Gefahren einer solchen hin. Eher müssen wir lernen, Strukturen zu schaffen, ohne sie zu vereinheitlichen, d.h. Heterogenität als solche zu entwerfen. Selbstverständlich können die dafür benötigten Methoden nicht zentralistisch entwickelt und ins Leben gerufen werden. Somit läge der Hauptbeitrag von eingebetteter Intelligenz darin, Umwelten zu schaffen, in denen diese Methoden sich entwickeln könnten und in denen die Menschheit lernen könnte, sich selbst zu verwalten.

(1)
M.Weiser, The Computer for the 21st Century, in: Scientific American, Vol. 265, Nr. 3, S. 94zurück

(2)
F. Malik und G.J.B. Probst, Evolutionary Management. On Self-Organization and Management of Social Systems, in: F. Malik und G. J. B. Probst, Evolutionary Management, Springer Verlag, Berlin 1984, S. 109zurück

(3)
Fernand Broudel, Capitalism and Material Life, Harper Colophon, New York 1973, S. 389zurück

(4)
D. Rock, D. Hoskins und D. Malkoff. Intelligent Road Transit, in: AI Expert, Vol.9, Nr.4, S. 16zurück

(5)
Andy Clark, Microcognition. Philosophy, Cognitive Science and Parallel Distributed Processing, Bradford, Cambridge/Mass. 1990,S. 135zurück

(6)
D. Kahn, J.I. Deneubourg und A. De Palma, Public Transportation. A Dynamic Model of Mode Choice and Self-Organization, in: Robert Crosby (Hg.), Cities and Regions as Nonlinear Decision Systems, AAAS, Washington DC. 1983, S. 63zurück

(7)
R. Herman, Remarks on Traffic Flow Theories and the Characterization of Traffic in Cities, In: P. M. Allen und W. C. Scheve (Hg.), Self-Organization and Dissipative Structures. Application in the Physical and Social Sciences, Univ. of Texas Press, Austin 1982, S.266zurück

(8)
J.I. Deneubourg, S. Goss, R. Beckers und G. Sandini, Collectively Self-Solving Problems, In: A. Blaboyantz (Hg.), Self-Organization, Emerging Properties and Learning, Plenum Press, New York 1991, S.271zurück

(9)
D. Rock, D. Hoskins und D. Malkoff, zit. Anm. 4, op.cit., S. 21zurück