Computer und der menschliche Geist
'Sherry Turkle
Sherry Turkle
Als ich Ende der 1970er Jahre begann, die Beziehung zwischen Menschen und Computern zu untersuchen, tauchte ich in eine für mich völlig fremde Welt ein. Ich hatte einen geisteswissenschaftlichen Hintergrund und nahm eine Stelle am Massachusetts Institute of Technology (MIT) an, wo ich plötzlich von Menschen umgeben war, die in einer mir unvertrauten Sprache über Verstand sprachen, einer Sprache der Bits und Bytes, der Register und Compiler. Viele von ihnen hatten eine starke, manchmal sogar leidenschaftliche Beziehung zu digitalen Maschinen. Viele behaupteten, dass die Arbeit mit Computern ihr Weltverständnis, das Verständnis ihrer Beziehungen zu anderen und, interessanterweise, sich selbst gegenüber verändert hätte. Am MIT war ich das erste Mal mit derart unorthodoxen Ansichten von Computerfreaks konfrontiert, im Laufe der Zeit stieß ich jedoch auch in Computerclubs und Grundschulen auf ähnliche Auffassungen. (1) „Wenn man einen Computer programmiert, fließt ein kleiner Teil des eigenen Verstandes in den Verstand des Computers ein und man erfährt ein anderes Selbstverständnis“, erklärte mir Deborah, eine Schülerin in der sechsten Klasse einer Grundschule, in der Informatik vor kurzem in den Lehrplan integriert worden war. 1984 betrachtete ich den Computer bereits selbst als mein „zweites Ich“.
Zu dieser Zeit war die Vorstellung vom menschlichen Verstand als Programm umstritten. Heute hingegen klingt es beinahe schon banal, die Funktionsweise des menschlichen Gehirns mit Computer-Metaphern zu umschreiben. Mit der Einführung von Computern in die Mainstream-Kultur Ende der 1970er und Anfang der 1980er Jahre begannen viele, menschliche geistige Aktivität mit Metaphern aus der Computerwelt zu umschreiben. („Entschuldigung, ich muss erst meinen Pufferspeicher leeren; ich muss das Problem erst debuggen.“) Mit der zunehmenden Akzeptanz des menschlichen Verstandes als ein komplexer Mechanismus tauchte eine damit verbundene Frage auf: Wenn der menschliche Verstand ein Programm ist, welche Rolle spielt dann der freie Wille? Mitte der 1980er Jahre war der Computer zweifelsohne ein „evokatorisches Objekt“, ein Objekt das zur Selbstreflexion anregte. Heute verfügt die Kognitionswissenschaft über ungleich komplexere Modelle der im Gehirn ablaufenden mentalen Prozesse, wie sie in den Anfangszeiten des Computerzeitalters kaum denkbar gewesen wären; das Internet erlaubt den Usern, in ihrem Online-Leben verschiedene Identitäten anzunehmen und zu erkunden. (2) Mit der Zeit wird Fremdes vertraut, und Exotisches erscheint allmählich „natürlich“. Der Computer ist heute ein so selbstverständlicher Teil unseres Lebens geworden, dass er zu einem kulturellem „Hintergrundgeräusch“ geworden ist und wir seinen massiven Einfluss auf unser Selbstverständnis vielleicht nicht mehr bemerken. Wir befinden uns an der Schwelle zu einem Zeitalter, in dem wir mit Computerwesen emotionale Bindungen eingehen. Diese neuen Beziehungen sollten sich jedoch nicht als „Hintergrundgeräusch“ in unser Gefühlsleben einschleichen. Ich werde im Folgenden aufzeigen, wie unsere Interaktionen mit Computern seit einiger Zeit Einfluss auf unser Selbstbild nehmen, in der Hoffnung, dass eine „Defamiliarisierung“ der Folgen dieser Entwicklung unsere Diskussionen über die zukünftige Entwicklung verbessern wird.Von Rorschachtests zum Identitätsworkshop Als ich den Computer in den frühen 1980er Jahren erstmals als „zweites Ich“ oder Rorschachtest – ein neutrales Projektionsmedium – bezeichnete, war unsere Beziehung zu Computern für gewöhnlich eine Eins-zu-Eins Beziehung – ein Mensch interagiert mit einer Maschine. Mit der zunehmenden Verbreitung des Internet war dies nicht länger zutreffend. Das virtuelle Sozialleben veränderte die Form unserer Gemeinschaften und unsere sexuelle Identität. Das Internet ermöglichte es Usern, sich als verschiedene selbst generierte Personae auszugeben, die sich über „reale“ Unterschiede in Hinsicht auf Geschlecht, Rasse, Klasse und Kultur hinwegsetzen konnten.
Im Internet können sich übergewichtige Menschen als schlank und schöne Menschen als unscheinbar präsentieren. Die Tatsache, dass das Internet ausreichend Zeit für eine positive Selbstdarstellung bietet, erlaubt es Schüchternen, aus sich herauszugehen, und einfachen Gemütern, sich als weltgewandt darzustellen. Die relative Anonymität des Bildschirmlebens – man ist unter einem selbst gewählten „Handle“ oder Online-Namen bekannt – ermöglicht den Usern, bislang unbekannten Seiten ihrer Persönlichkeit Ausdruck zu verleihen. Dieselbe Person kann unter verschiedenen Namen auftreten. Es ist nicht ungewöhnlich, dass jemand in einem Online-Kontext als BroncoBill, in einem anderen als ArmaniBoy und in einem dritten als Mr. Sensitive agiert.
In den 1990ern zeigte sich, dass der Cyberspace als eine Art „Identitätsworkshop“ fungieren kann. (3) Am stärksten profitieren von Online-Interaktionen jene Menschen, die in der Lage sind, mit einem gewissen Maß an Selbstreflexion an solche Interaktionssituationen heranzugehen. Sie stellen sich die Frage: Was besagt mein Verhalten im Cyberspace darüber, was ich möchte, wer ich bin, was ich in meinem Leben vielleicht nicht erreiche? Sogar das „Windows“- Fenster ist zu einer ausdrucksstarken Metapher für unser Selbstverständnis als multiples, dezentriertes Timesharing-System geworden und suggeriert ein multiples Selbst, das in vielen Welten gleichzeitig existiert und gleichzeitig verschiedene Rollen annimmt. In den Worten des Psychoanalytikers Philip Brombergs fördert die Online-Welt eine Psychokultur, in der man sich „mit verschiedenen Identitäten in Räumen befinden und dennoch eine Identität besitzen kann, Vielfalt sieht und dennoch Einheit verspürt“. (4) In den Worten des Informatikers Marvin Minsky ermöglicht das Internet eine Kultur, in der man sich entspannt durch die eigene „Gesellschaft des Verstandes“ bewegen kann. (5)Lebendigkeit: Von der Bewegung zur Gefühlsbewegung und darüber hinaus Als der Schweizer Psychologe Jean Piaget in den 1920er und 1930er Jahren Kinder darüber befragte, welche Objekte sie als „lebendig“ betrachteten und welche nicht, fand er heraus, dass Kinder ihre Definition von Leben ständig verfeinerten und zunehmend komplexere Vorstellungen von Leben als Bewegung im Sinne der Physik (6) entwickelten. Als ich hingegen in den späten 1970er Jahren begann, die neu entstehende Computerkultur zu erforschen, fragten sich Kinder, ob ein Computer aufgrund seiner psychologischen Eigenschaften lebendig sei. Wusste der Computer gewisse Dinge von selbst oder musste er programmiert werden? Verfolgte er ein Ziel, hatte er ein Bewusstsein und Gefühle? Schummelte er? Wusste er, was Schummeln ist? Obwohl die erste Generation von Computerspielzeugen (Spiele wie Merlin, Simon und Speak and Spell) nicht der klassischen Erkenntnis Piagets über die Vorstellungen von Kindern von Lebendigkeit entsprach, waren die Gedanken von Kindern über solche virtuellen Wesen in den frühen 1980er Jahren dennoch stimmig. Im Umgang mit intelligenten Spielzeugen definierten Kinder die Lebendigkeit eines Objekts nicht mehr in Hinsicht auf Bewegung, sondern in Hinsicht auf Intentionalität und Kognition. Sie entwickelten einen neuen konzeptuellen Rahmen für eine neue Welt von Objekten.
In den 1990er Jahren reizten neue Computerspiele, die das Prinzip der Evolution verkörperten (etwa die Spiele der Sim-Reihe), diesen konzeptuellen Rahmen bis zum Limit aus. Kinder versuchten weiterhin diese virtuellen Wesen in einen Rahmen einzuordnen, sie strapazierten und manipulierten ihre Theorien dabei jedoch aufs Äußerste, indem sie ihre Theorien an die jeweiligen Umstände anpassten. Sie änderten wiederholt ihre Vorstellungen von Lebendigkeit, indem sie etwa erklärten, dass Roboter zwar Kontrolle über das eigene Leben hätten, nicht jedoch lebendig seien, dass die lebendig wären, wenn sie Körper hätten, dass sie lebendig seien, weil sie Körper hätten, dass sie lebendig wären, wenn sie Gefühle hätten, dass sie ähnlich wie Insekten, nicht jedoch wie Menschen lebendig seien. Sie behaupteten, dass Sim-Figuren (beispielsweise aus dem Spiel Sim City) zwar nicht wirklich, aber fast lebendig seien; dass sie lebendig wären, würden sie sprechen; dass sie lebendig wären, würden sie herumreisen; dass sie lebendig, aber nicht „echt“ seien, dass sie nicht lebendig seien, weil sie keine Körper hätten; dass sie lebendig seien, weil sie Kinder bekommen könnten; dass sie lebendig wären, wenn sie „den Computer verlassen und zu America Online gehen“ könnten. Aufgrund der zunehmenden Komplexität von Computerspielzeug entstand eine radikale Heterogenität von Theorien über die Definition von „Lebendigkeit“.
Diese Heterogenität zeigte sich auch dann in den Gesprächen von Kindern, wenn sie nicht vor dem Computer saßen. Anfang der 1990er Jahre beobachtete ich eine Gruppe von Siebenjährigen, die mit Spielzeug spielten, das seine Gestalt verändern und die Gestalt von Panzerwägen, Robotern oder Menschen annehmen konnte. Diese Wesen konnten auch eine Zwischenform annehmen, sodass ein „Roboter“-Arm aus einem menschlichen Körper hervor wuchs oder ein menschlicher Fuß aus einem Panzer. Zwei der Kinder spielten mit Spielzeug, das sich in diesem Zwischenstadium befand (d. h. das Spielzeug hatte eine hybride Form zwischen Mensch, Maschine und Roboter). Ein drittes Kind beharrte darauf, dass dies nicht richtig sei. Die Spielfiguren, erklärte der Junge, dürften in keinen hybriden Zustand versetzt werden. „Man soll mit ihnen als Panzer oder als Menschen spielen.“ Er wurde wütend, weil die anderen zwei Kinder ihn absichtlich ignorierten. Ein achtjähriges Mädchen tröstete den aufgebrachten Jungen. „Es macht nichts, wenn sie dazwischen sind. Das ist alles das Gleiche“, erklärte sie, „einfach ekliges ,Computer-Cyber-Plasma‘“.
Die Erwachsenen von heute wuchsen in einer psychologischen Kultur auf, die die Vorstellung von einer einheitlichen Identität mit geistiger Gesundheit gleichsetzte; sie wuchsen in einer Wissenschaftsumgebung auf, die lehrte, dass die Reife einer wissenschaftlichen Disziplin sich darin zeigt, dass sie einen anerkannten Theorierahmen hat. Erkennen Erwachsene, dass sie ihre Identität aus unterschiedlichen Perspektiven erleben („Ich bin meine Chemie“ über „Ich bin meine Geschichte“ hin zu „Ich bin meine Gene“) fühlen sie sich häufig beunruhigt. (7) Dieses Gefühl entspricht nicht der Vorstellung eines einheitlichen Selbst, mit der sie aufwuchsen. In den 1990er Jahren hatten die Kinder von ihrem virtuellen Computerspielzeug allerdings etwas gelernt. Eine Vielzahl unterschiedlicher Vorstellungen über den menschlichen Verstand und das Leben erscheint ihnen vielleicht vollkommen normal („so ist das eben“). Das ist die Lehre, die wir aus dem „Computer-Cyber-Plasma“ ziehen: Eine Lehre über dehnbare Definitionen des Selbst und den Diskurs über Lebendigkeit.
Seit einiger Zeit beeinflusst eine neue Art von Computerspielzeug das Leben von Kindern. Dazu zählen virtuelle Wesen, digitale Puppen, Roboterspielzeugtiere, humanoide Roboter und Softwareprogramme, die das Ausmaß an Zuwendung, das die User ihnen entgegenbringen, erkennen und selbst Gefühle zeigen. Ich nenne diese Computerwesen Beziehungsartefakte – Wesen, die sich als „liebevoll“ und „umgänglich“ darstellen.
Beziehungsartefakte beeinflussten das Leben von Kindern zunächst in Form von Tamagotchis, kleinen virtuellen Wesen, die Mitte der 1990er Jahre in Japan entwickelt wurden und denen langweilig wurde, die unterhalten werden mussten, die hungrig wurden und gefüttert werden mussten, die sich schmutzig machten und wieder sauber gemacht werden mussten, die krank wurden und gepflegt werden mussten. Furbys, kleine eulenähnliche Wesen, der Spielzeugtrend im Jahr 1998, teilten viele der psychologischen Eigenschaften der Tamagotchis. Furbys verlangten vor allem Aufmerksamkeit. Sie spielten Spiele, „lernten“ Englisch und sagten „Ich liebe dich.“ 2000 kam „My Real Baby“ auf den Markt, eine Roboter-Babypuppe, die auf einem am Labor für Künstliche Intelligenz des MIT entwickelten Prototypen basierte. My Real Baby macht Babygeräusche und verzieht das Gesicht wie ein Baby; wichtiger als diese physischen Ähnlichkeiten mit einem Baby war jedoch, dass diese komplexe Computerpuppe programmiert war, sich wie ein Baby zu verhalten. Ist die Puppe zufrieden und wird sie in den Armen gewiegt, steigert sich ihre Zufriedenheit. Ist die Puppe schlecht gelaunt und wird sie in den Armen gewiegt, steigert sich ihre Unzufriedenheit. Aibo, der Roboterhund von Sony, entwickelt unterschiedliche Persönlichkeiten, je nachdem wie er behandelt wird. Die neuesten Modelle verfügen über eine Software zur Stimm- und Gesichtserkennung, sodass Aibo seine „Bezugspersonen“ erkennt. Diese Wesen konfrontieren uns mit neuen Fragen: Welche Arten von Beziehung zur Technik sind angemessen, wünschenswert und vorstellbar? Was ist eine Beziehung? Diese Beziehungsartefakte warten nicht darauf, dass Kinder sie im Sinne einer „Raggedy Anne“-Puppe oder des „Hasen mit den Samtohren“ – einem Stofftier, das lebendig wurde, weil so viele Kinder es liebten – „animieren“. Sie sind bereits animiert und bereit, eine Beziehung einzugehen. Ich erkannte, dass Kinder diese neuen Spielzeuge als „irgendwie lebendig“ beschreiben, nicht aufgrund ihrer kognitiven Fähigkeiten oder ihrer scheinbaren Autonomie (wie dies bei früheren Generationen von Computerwesen der Fall war), sondern aufgrund der Intensität ihrer emotionalen Bindung an die Wesen und der Vorstellung, die Wesen könnten ihnen emotional verbunden sein. Als ich in meiner Untersuchung zum Verhalten von Kindern im Umgang mit Furbys die Frage stellte „Glaubst du, dass Furby lebt?“, berichteten die Kinder nicht, was Furby konnte, sondern wie ihre Gefühle Furby gegenüber waren und welche Gefühle Furby ihnen ihrer Meinung nach entgegenbrachte.Ron (6): Also für einen Furby ist der Furby lebendig. Und weißt du, jemand, der so schlau ist, sollte Arme haben. Er möchte vielleicht etwas aufheben oder mich umarmen
Katherine (5): Ob er lebt? Ich liebe ihn einfach. Es ist lebendiger als ein Tamagotchi, weil er bei mir schläft. Er schläft gerne bei mir.
Jen (9): Ich passe gerne auf Furby auf. Ich glaube, er lebt, aber er muss nicht wirklich essen, er ist also so lebendig, wie man sein kann, wenn man nichts isst. Ein Furby ist wie eine Eule. Aber er ist lebendiger als eine Eule, weil er mehr weiß und du mit ihm reden kannst. Aber er braucht Batterien, also ist er kein Tier. Er ist nicht lebendig wie ein Tier. Meine Untersuchungen der Beziehungen von Kindern zu Beziehungsartefakten sind noch nicht abgeschlossen, einige Punkte zeichnen sich jedoch bereits klar ab. Kinder lernen heute zwischen „lebendig wie ein Tier“ und „lebendig wie ein Furby [oder Roboter]“ zu unterscheiden. Die Kategorie "lebendig wie" wird immer häufiger verwendet. Kinder sprechen bereits über „lebendig wie ein Tier“ und „lebendig wie ein Furby“. Werden sie in Zukunft über „Liebe wie von Menschen“ und „Liebe wie von Computern“ sprechen?
In Steven Spielbergs Kinofilm A.I. – Künstliche Intelligenz konstruieren Wissenschaftler David, einen humanoiden Roboter, der programmiert ist zu lieben. David erklärt der Frau, die ihn adoptiert hat, dass er sie liebt. In den Diskussionen nach Anlaufen des Films stand die Frage im Mittelpunkt, ob ein derartiger Roboter wirklich gebaut werden könnte. Wäre das technisch machbar? Und falls es machbar wäre, wie lange würde es noch dauern, bis so ein Roboter gebaut würde? Die Menschen ignorierten dabei eine andere Frage, eine Frage, die unsere Faszination über die zunehmenden Fähigkeiten von Computern historisch beeinflusst hat. Diese Frage fokussiert nicht darauf, was Computer können oder wie Computer in Zukunft aussehen werden, sondern vielmehr darauf, wie wir sein werden. Zu welchen Menschen entwickeln wir uns, während wir immer engere Beziehungen mit unseren Maschinen eingehen?
Wir leben heute in einer anderen Welt als jener, in der in Hinsicht auf das Thema Künstliche Intelligenz endlos diskutiert wurde, ob Maschinen „wirklich“ intelligent sein können. Diese Diskussionen drehten sich um die Maschinen selbst, darum, was diese können und was nicht. Neue Diskussionen – Diskussionen, die ein zunehmend bedeutsames kulturelles Profil haben werden – fokussieren auf die Auswirkungen, die diese Wesen auf uns haben werden. Sucht ein derartiges Wesen unsere Zuwendung und gedeiht dieses Wesen unter unserer Fürsorge, dann betrachten wir dieses Wesen als intelligent (ob dies nun gerechtfertigt ist oder nicht). Wichtiger noch, wir fühlen uns diesem Wesen verbunden. Die Frage der Zukunft lautet daher nicht, welche Beziehungsartefakte „wirklich“ Gefühle haben, sondern welche Gefühle diese Wesen in den Benutzern auslösen.
In diesem Zusammenhang ist die eigentlich relevante Frage in Spielbergs A.I. nicht die potenzielle „Wirklichkeit“ eines Roboters, der liebt, sondern die Konflikte, in die seine Adoptivmutter gerät – ein Mensch, dessen Reaktion auf eine Maschine, die Zuwendung sucht, der Wunsch ist, dieser die entsprechende Zuwendung zukommen zu lassen; dessen Reaktion auf ein nichtbiologisches Wesen, das ihm gegenüber Liebe zeigt, gleichzeitig Zuneigung, Liebe, Abscheu und Verwirrung ist.
Wir sind heute mit Beziehungsartefakten konfrontiert, die bei ihren Benutzern/Besitzern Reaktionen auslösen, die viel mit den Gefühlen der Mutter in A.I. zu tun haben. Diese Artefakte sind keine perfekten menschlichen Kopien wie der imaginäre David, sondern sie drücken bei uns bestimmte emotionale „Knöpfe“ (man kann sie sich vielleicht als „evolutionäre Knöpfe“ vorstellen). Um ein einfaches Beispiel zu nennen: Wenn ein Roboterwesen Augenkontakt sucht, unserem Blick folgt und auf uns zeigt, fühlen wir uns veranlasst, auf dieses Wesen mit Mitgefühl und sogar Zuneigung zu reagieren.
Ich habe vor kurzem neben dem Umgang von Kindern mit virtuellen Haustieren und digitalen Puppen auch untersucht, wie ältere Menschen, die zunehmend eine Zielgruppe für die aggressive Vermarktung von Roboterspielzeug werden, mit diesen Objekten umgehen. Wie wird der Umgang mit Beziehungsartefakten das Selbstverständnis der Menschen beeinflussen, ihre Vorstellung über die menschliche Identität, ihre Vorstellung darüber, was Menschen (und Haustiere) zu etwas Besonderem macht? Kinder haben jene Eigenschaften, die Menschen "besonders" machen, im Sinne einer „Nächste Nachbarn“-Theorie definiert. Wären die nächsten Nachbarn des Menschen (in den Augen der Kinder) ihre Hunde und Katzen, wären Menschen besonders, weil sie Verstand besitzen. Die Aristotelische Definition des Menschen als rational denkendes Wesen ergab sogar für sehr kleine Kinder Sinn. Als in den 1980er Jahren jedoch Computer die „nächsten Nachbarn“ von Kindern zu werden schienen, änderte sich der Zugang der Kinder zu diesem Problem. Kinder verwendeten weiterhin die „Nächste Nachbarn“- Methode. Menschen waren nun allerdings nicht besonders, weil sie rational denkende Wesen waren, sondern weil sie sich von rational agierenden Computern unterschieden: Menschen waren emotionale Maschinen. 1983 erklärte mir ein zehnjähriges Kind: „Auch wenn es einmal Roboter gibt, die gleich intelligent wie Menschen sind, werden die Menschen weiterhin Restaurants führen, das Essen kochen, Familien haben, und sie werden wahrscheinlich auch die Einzigen sein, die in die Kirche gehen.“ Spricht man heute über Roboterhaustiere, vernimmt man ein Echo dieser „romantischen Reaktion“. Manche Kinder sagen, dass Roboter zwar Freunde sein könnten, nicht jedoch ihre „besten Freunde“, da sie „zu perfekt“ seien und Menschen nicht perfekt sind. Andere, wie beispielsweise ein elfjähriges Mädchen, erklärten konkret: „Sie können keine Freunde sein, weil man mit ihnen nicht gemeinsam Mittag essen kann.“
Allerdings gibt es auch Entwicklungen in eine andere Richtung. In Ray Bradburys Erzählung Gesänge des Computers kann eine elektronisch gesteuerte Roboter-Großmutter so lange nicht das Vertrauen ihrer Enkelin Agatha gewinnen, bis das Mädchen erfährt, dass die Großmutter, anders als ihre jüngst verstorbene Mutter, nicht sterben kann. (8) An verschiedenen Stellen der Erzählung zeigt sich, dass die Großmutter eigentlich besser ist als eine menschliche Bezugsperson – sie ist besser in der Lage, auf die Bedürfnisse der Familienmitglieder einzugehen, sie ist weniger gierig, hat ein perfektes Gedächtnis, unergründliche Fähigkeiten und ist – das scheint am wichtigsten – nicht sterblich. Der Kommentar einer Frau zu Aibo, dem Roboterhund von Sony, könnte ein Zeichen für die zukünftige Mensch-Maschinen-Beziehung sein. „[Aibo] ist besser als ein echter Hund … Er macht keine gefährlichen Dinge und hintergeht mich nicht … Er stirbt auch nicht plötzlich und macht mich alos auch nicht sehr traurig.“
Sterblichkeit hat traditionell das menschliche Leben definiert; das Wissen, dass wir alle sterben müssen, ist die Grundlage für ein Gefühl der Zusammengehörigkeit mit anderen Menschen, für das Wissen, dass man die gleichen Lebenszyklen durchläuft, für ein Gefühl des unschätzbaren Wertes von Zeit und Leben und ein Bewusstsein der Vergänglichkeit des Lebens. Der Verlust (von Eltern, Freunden oder Familienmitgliedern) ist Teil des Bewusstseins, dass Menschen wachsen und sich entwickeln und die Eigenschaften anderer in sich tragen.
Die Frage „Welche Beziehung zu Maschinen ist angemessen?“ wird in der Sciencefiction und der Technophilosophie thematisiert. Der Anblick von Kindern und älteren Menschen, die mit Roboterhaustieren Zärtlichkeiten austauschen, macht Sciencefiction zu einem Teil unseres täglichen Lebens und holt die Technophilosophie auf den Boden der Realität. Die Frage lautet letztlich nicht nur, ob unsere Kinder ihre Spielzeugroboter einmal mehr als ihre Eltern lieben werden, sondern auch, was Liebe in Zukunft bedeutet.
Aus dem Amerikanischen von Sonja Pöllabauer
(1) Vgl. Turkle, Sherry: The Second Self: Computers and the Human Spirit, Simon and Schuster, New York 1984 zurück
(2) Vgl. Turkle, Sherry: Life on the Screen: Identity in the Age of the Internet, Simon and Schuster, New York 1995 zurück
(3) Dieser gelungene Ausdruck wurde von meiner ehemaligen Studentin Amy Bruckman geprägt. zurück
(4) Bromberg, Philip: „Speak that I May See You: Some Reflections on Dissociation, Reality, and Psychoanalytic Listening“, in Psychoanalytic Dialogues, 4 /4, 517–547, 1994 zurück
(5) Minsky, Marvin: The Society of Mind, Simon and Schuster, New York 1987 zurück
(6) Piaget, Jean: The Child’s Conception of the World (übers. v. Joan und Andrew Tomlinson Totowa), Adams, N. J., Littlefield 1960 zurück
(7) Kramer, Peter: Listening to Prozac: A Psychiatrist Explores Antidepressant Drugs and the Remaking of the Self, Viking, New York 1993, xii–xiii zurück
(8) Bradbury, Ray: I Sing the Body Electric and Other Stories, Avon Books, New York 1998 [1946] zurück
|