www.aec.at  
Ars Electronica 1990
Festival-Programm 1990
Back to:
Festival 1979-2007
 

 

Virtual Environments, Personalsimulation und Telepräsenz


'Scott S. Fisher Scott S. Fisher

1. MEDIENTECHNIK UND SIMULATION DIREKTER PERSÖNLICHER ERFAHRUNG

"Wir möchten Sie auf ein beachtliches neues Verfahren mit der Bezeichnung SENSORAMA hinweisen. Dabei wird versucht, den Betrachter mit denselben Reizen zu überfluten, die in der entsprechenden realen Situation auftreten. Der Stereo-Farbfilm ist voll Farben, Stereo-Ton, Wind und Vibrationen. Die jeweilige Szene wird mit beachtlicher Originaltreue dargestellt. Derzeit kommt dieses System der vollkommenen Wiedergabe der Realität näher als jedes andere von uns erlebte System."
(1)
Für die meisten Menschen ist die vollkommene Wiedergabe der Realität das stillschweigend vorausgesetzte, wenn nicht gar selbstverständliche Ziel jeder modernen Bildtechnologie. Der Beweis für ein "ideales" Bild liegt darin, daß man das Objekt von der Darstellung nicht mehr unterscheiden kann, daß also der Betrachter überzeugt ist, den Gegenstand selbst zu sehen. Diese Beurteilung basiert jedoch meistens nur auf der vordergründigen Bewertung der "leichten Erkennbarkeit", d.h. realistische Bilder sollten dem Dargestellten ähnlich sehen. Aber Ähnlichkeit ist nur ein Teil der Wirkung. Perkins faßt die gängigen Theorien über Realismus von Bildern wie folgt zusammen:
"Bilder informieren, indem Informationen im wesentlichen in derselben Form in Licht verpackt werden wie sonst durch reale Objekte und Szenen, und der Betrachter packt das Paket im wesentlichen in derselben Weise aus." (2)
Bei den derzeitigen Medien ist der eigentliche Vorgang des "Auspackens" des Bildes der am meisten eingeschränkte Aspekt. Eine Grundlage der Bewertung des Bildrealismus sollte auch sein, wie wahrheitsgetreu das Präsentationsmedium die dynamische Wahrnehmung mehrerer Objekte in der Realität simulieren kann. Ein wirklich informatives Bild sollte nicht nur Ersatzobjekt mit Informationscharakter sein, sondern die physikalische Realität duplizieren, die bei der Konfrontation mit der realen Szene, die es darstellen soll, entsteht. Ein solches Bild würde über bloßen photographischen Realismus hinausgehen und den Betrachter in eine interaktive "Umwelt" versetzen, die mehrere Aspekte seines Sensoriums anspricht.

Der sich eben erst entwickelnde Bereich der Medientechnik bietet Methoden zur Realisierung und Bewertung dieser voneinander abhängigen Faktoren, die zum Realismus des Bildes beitragen. Bis vor kurzem wurden die wesentlichen Entwicklungen auf diesem Gebiet gewöhnlich von wirtschaftlichen Überlegungen, von der verfügbaren Technologie, und, wie schon gesagt, von vagen Vorstellungen, welche Arten von Information in der Bilddarstellung ausreichen, diktiert. Das Medium Fernsehen, zum Beispiel, wie es die meisten von uns erleben, wendet sich an eine passive Seherschaft. Dieses Medium hat nur wenig mit der in seinem Namen zum Ausdruck kommenden Fähigkeit zu tun, in die Ferne zu sehen, bestenfalls in einer höchst mittelbaren Form. Es bietet nur Interpretationen von weit entfernten Ereignissen, gesehen durch die Augen anderer, ohne Möglichkeit der Kontrolle des Gesichtspunktes oder persönlicher Nachforschungen. Wenn auch diese Information aus zweiter Hand vielleicht besser ist als überhaupt keine Information, so kann doch ein direkter, persönlicher, interaktiver Standpunkt des Betrachters zusätzliche Dimensionen der Erfahrung bieten:
"Wir erhalten rohe direkte Informationen während der Interaktion mit den Situationen, die wir vorfinden. Nur selten hat eine intensive, direkte Erfahrung den Vorteil, die Gesamtheit unserer inneren Prozesse – der bewußten, unbewußten, viszeralen und mentalen – zu durchlaufen und von unserer Natur vollständig überprüft und bewertet zu werden. Aufbereitetes, "verdautes", abstrahiertes Wissen aus zweiter Hand ist oft in höherem Maße verallgemeinert und ist auch konzentrierter, betrifft uns jedoch gewöhnlich nur intellektuell. Es fehlt die Ausgeglichenheit und Vollständigkeit selbst erlebter Situationen. Wenn wir auch in zunehmenden Maße in den Bereichen abstrakter und generalisierter Begriffe und Prinzipien leben, so liegen dennoch unsere Wurzeln in der direkten Erfahrung auf vielen Ebenen. Dies gilt auch für den größten Teil unserer Fähigkeiten, Informationen bewußt und unbewußt zu bewerten." (3)
In den letzten Jahrzehnten haben sich ändernde Trends in der Medientechnik und die Entwicklung multi-sensoraler Medien-Environments neue Wege der Darstellung direkter Erfahrung eröffnet in welchen der Betrachter mit den präsentierten Informationen in Interaktion treten kann, wie er dies auch beim Vorfinden der Originalszene täte. Ein wesentlicher Aspekt dieser Display-Systeme (und der teureren Simulatorsysteme) ist, daß die Bewegungen des Betrachters nicht programmiert sind. Das heißt, dem Betrachter steht es frei, seinen eigenen Weg durch die vorhandenen Informationen zu wählen und ist nicht mehr auf die Rolle eines passiven Beobachters auf einer "Besichtigung mit Führer" beschränkt. Um effektiv arbeiten zu können und dem Betrachter eine ausreichende Anzahl von Standpunkten zu ermöglichen, benötigen diese Systeme eine umfassende Datenbank. Das Hauptziel ist es, dem Benutzer die Freiheit zu geben, sich in einem "Virtual Environment" zu bewegen, bzw., bei kleineren Systemen, eine Szene viszeral zu "schauen", die entweder fern wahrgenommen oder synthetisch erzeugt werden kann. Im wesentlichen erlaubt der Zugang des Betrachters zu mehr als einem Standpunkt einer bestimmten Szene, ihm eine starke visuelle Wahrnehmung von vielen Standpunkten aus zu synthetisieren. Die Verfügbarkeit vielfältiger Standpunkte stellt ein Objekt in einen Zusammenhang und verlebendigt damit dessen Bedeutung.
2. DIE ENTWICKLUNG DER VIRTUAL ENVIRONMENTS
Die optimale Anpassung der visuellen Darstellungstechnik an die kognitiven und sensorischen Fähigkeiten des Menschen zum Zwecke besserer Darstellung direkter Erfahrungen ist schon seit Jahrzehnten ein wesentliches Ziel der Bereiche Kunst, Forschung und Industrie. Ein allgemein bekanntes Beispiel ist die Entwicklung stereoskopischer Filme in den frühen Fünfziger Jahren. Bei diesen Filmen wurde Tiefenwahrnehmung erzielt, indem man den beiden Augen des Betrachters geringfügig abweichende Bilder bot. Eine konkurrierende Technik zur selben Zeit war Cinerama. Hier boten drei Projektoren dem Betrachter ein Breitwand-Bild. Durch die Erweiterung des projizierten Bildes wurde das periphere Gesichtsfeld des Betrachters mit einbezogen. Das zu einem späteren Zeitpunkt entwickelte Omnimax-Projektionssystem erweitert das Panorama-Erlebnis noch mehr. Das Publikum befindet sich unter einer großen halbkugelförmigen Kuppel, auf die ein hochauflösendes vorverzerrtes Filmbild projiziert wird, und taucht quasi in eine gigantische Bildumgebung ein.

Die bereits erwähnte Sensorama-Technik war 1962 ein beachtlicher Schritt auf dem Wege zur Simulation der persönlichen Erfahrung verschiedener realer Umgebungen. Hierbei wurde die neueste Medientechnik eingesetzt. Das System war ein eleganter Prototyp eines von Morton Heilig entworfenen Münzautomatenspiels. Es war dies eines der ersten Beispiele eines multisensorialen simulierten Environment, das mehr als nur visuelle Eindrücke bot. Durch ein fernglasähnliches optisches System sah der Betrachter eine Stereo-Filmsequenz einer Motorradfahrt durch New York aus dem Blickpunkt des unmittelbar Beteiligten und er hörte mit beiden Ohren und dreidimensional Geräusche aus New York sowie die Geräusche des durch die Stadt fahrenden Motorrades. Wenn man die Hände auf die Lenker-Plattform des Prototypen legte und auf dem Sattel saß, fühlte man simulierte Vibrationen. Der Prototyp hatte auch einen Ventilator für die Windsimulation, der im Zusammenwirken mit einem Vorrat chemischer Geruchsstoffe simulierte Gerüche in das Gesicht des Betrachters blies. Als Umgebungssimulation war die Sensorama-Darstellung einer der ersten Schritte auf dem Weg zur Duplizierung der Konfrontation des Betrachters mit einer realen Szene. Während die Szene simultan über verschiedene Sinne vermittelt wird, befindet sich der Benützer mit dem ganzen Körper in einer Informationszelle, die dafür konstruiert ist, die jeweilige Art von Erfahrung zu simulieren.

Die Idee des "In-einem-Bild-Sitzens" wird schon seit Jahrzehnten im Bereich der Luftraumsimulation eingesetzt, um angehende Piloten und Astronauten auszubilden. Auf simulierten Missionen werden diese angeleitet, komplexe und teure Fluggeräte sicher zu steuern. Kürzlich wurde diese Technik für Unterhaltungs- und Bildungszwecke adaptiert. "Tour of the Universe" in Toronto und "Star Tours" in Disneyland zählen zu den ersten Anwendungen von Simulationstechnik und Virtual Environments im Unterhaltungsbereich: Ca. 40 Personen sitzen in einem Raum auf einer beweglichen Plattform, die sich synchron mit einer computergenerierten und auf entsprechenden Modellen beruhenden Bilddarstellung einer Fahrt durch ein simuliertes Universum bewegt. Diese Technologie hat sich allmählich in Richtung kostengünstigerer "Personalsimulation"-Environments entwickelt bei denen der Betrachter auch seinen eigenen Standpunkt bestimmen bzw. die Bewegung durch ein Virtual Environment steuern kann. Dies ist eine wichtige Möglichkeit, die beim Sensorama-Prototyp nicht gegeben war. Ein frühes Beispiel hierfür ist die "Aspen Movie Map", die in den späten Siebzigerjahren von der Architekturmaschinengruppe der Technischen Universität von Massachusetts (M.I.T.) geschaffen wurde. (4) Mit einem auf dem Dach eines Autos montierten speziellen Kamerasystem wurde Bildmaterial von der Stadt Aspen in Colorado aufgenommen. Hierbei wurde jede Straße entlang und jede Ecke in der Stadt gefilmt. Ergänzt wurde dieses Bildmaterial durch die von oben, von Kränen, Hubschraubern und Flugzeugen aufgenommenen Bilder sowie durch Innenaufnahmen von Gebäuden. Die "Movie Map" gab den Benützern die Möglichkeit, vor einem berührungsempfindlichen Anzeigeschirm zu sitzen und in der von ihnen selbst gewählten Geschwindigkeit auf jeder gewünschten Route durch die Stadt Aspen zu fahren, Durch Berühren des Bildschirmes konnte man bestimmen, wo man abbiegen und welche Gebäude man betreten wollte. In einer Konfiguration wurde das System so aufgebaut, daß der Benutzer von Kamerabildern mit Blick nach vorne, hinten und auf die Seite umgeben war, so daß er vollständig in die Abbildung der Stadt eintauchte.

Konzeptionelle Versionen eines zur letzten Perfektion ausgereiften und dem menschlichen Sensorium angepaßten Virtual Environment finden wir seit Jahrzehnten in der Science-Fiction-Literatur. Eines dieser Konzepte erhielt die Bezeichnung "Telepräsenz". Eine solche Technologie würde es dem Benützer erlauben, genügend sensorisches Feedback zu empfangen, um sich zu fühlen, als befände er sich an einem entfernten Ort und wäre in der Lage, verschiedene Tätigkeiten zu verrichten. Arthur Clarks schreibt über die "Personalized Television Safaris", bei denen der Benützer ohne jede Gefahr oder Unbequemlichkeit weit entfernte Gebiete in "Virtual Reality" erforschen könnte. Heinleins "Waldoes" waren ähnlich, waren aber in der Lage, bestimmte Wahrnehmungsfähigkeiten zu übersteigern, so daß der Benutzer z.B. einen riesigen Roboter steuern konnte. Seit 1950 wurden allmählich die technischen Voraussetzungen geschaffen, um Telepräsenz in der Realität zu ermöglichen. Einer der ersten Versuche zur Entwicklung von visuellen Systemen zur Realisierung von Telepräsenz wurde 1958 von der Philco Corporation durchgeführt. Mit diesem System konnte ein Benutzer ein von einer weit entfernten Kamera aufgenommenes Bild auf einer auf seinem Kopf vor seinen Augen montierten Kathodenstrahlröhre sehen und konnte den Blickpunkt der Kamera durch seine Kopfbewegungen steuern. (5) Eine Variation der auf dem Kopf montierten Bildanzeige wurde Ende der Sechzigerjahre von Ivan Sutherland am M.I.T. geschaffen. (6) Diese auf einem Helm montierte Anzeige war durchsichtig, so daß die computergenerierte Graphik und die reale Umgebung übereinander wahrgenommen werden konnten. Wenn sich der Betrachter bewegte, erschienen die computergenerierten Objekte stabil in der realen Umgebung und konnten mit verschiedenen vom selben Team entwickelten Eingabegeräten manipuliert werden. Die Forschungsarbeit geht weiter in anderen Laboratorien, z.B. NASA Ames in Kalifornien, Naval Ocean Systems Center in Hawaii und im Rahmen des Tele-Existence Projects von MITI in Japan. In diesen Fällen liegt die Motivation für die Forschung in der Entwicklung verbesserter Systeme für ein sicheres und effektives Operieren in gefährlichen Umgebungen, z. B. unter Wasser und im Weltraum.
3. VIEW: DIE NASA/AMES VIRTUAL ENVIRONMENT WORKSTATION
In der Forschungsabteilung für menschliche Faktoren in der Luftfahrt des Ames Research Center der NASA wurde eine "Interactive Virtual Interface Environment Workstation" (VIEW) als eine neue Art von Darstellungs- und Kontrollumgebung auf der Grundlage von Medien entwickelt. Sie ist den sensorischen und kognitiven Fähigkeiten des Menschen genau angepaßt. Das VIEW-System bietet eine virtuelle audio- und stereoskopische Bildumgebung, welche auf Position, Stimme und Gesten des Benützers reagiert. Als kostengünstiges Mehrzweck-Simulationsgerät erlaubt es diese Konfiguration mit variabler Schnittstelle dem Benützer, eine synthetisch aufgebaute oder fern wahrgenommene Umgebung über einen 360gradigen Winkel virtuell zu erforschen und viszeral mit deren Komponenten in Interaktion zu treten. (7) (8) (9) (10) (11)

Das derzeitige VIEW-System besteht aus einem stereoskopischen Weitwinkel-Bildschirm, handschuhähnlichen Vorrichtungen für verschiedene Stufen freier Tasteingabe, angeschlossenen Spracherkennungsgeräten, Gesten, Lesegeräten ", dreidimensionalen Audioeinrichtungen sowie Einrichtungen für Sprachsynthese, Computergraphik und Video-Bildgenerierung.

Mit magnetischen Positions-Verfolgungsgeräten für Kopf und Gliedmaßen ausgerüstet, präsentiert das am Kopf befestigte Display Audio- und Videobildmaterial, das den Benützer im dreidimensionalen Raum vollständig zu umgeben scheint. Die Handschuhe bieten die Möglichkeit der interaktiven Manipulation virtueller Objekte in virtuellen Umgebungen, die entweder aus dreidimensionalen computergeneriertem Bildmaterial synthetisch aufgebaut oder mittels vom Benützer gesteuerten stereoskopischen Videokamera-Anordnungen fernaufgenommen werden. Das Computer-Bildsystem ermöglicht Hochleistungs-Echtzeit-3D-Graphikpräsentation. Die Graphik wird mit einer Frequenz von bis zu 30 Bildern pro Sekunde generiert, je nach Bedarf, um die Blickwinkel der Bilder in Koordination mit der Bewegung des Kopfes und der Glieder des Benützers auf den letzten Stand zu bringen. Zwei unabhängige synchronisierte Darstellungskanäle sind implementiert, um den beiden Augen des Betrachters ungleiches Bildmaterial zu bieten und dadurch einen wahrheitsgetreuen stereoskopischen Tiefeneffekt zu erzielen. Für Echtzeit-Video-Input entfernter Umgebungen werden zwei Miniatur-CCD-Videokameras eingesetzt, um stereoskopisches Bildmaterial zu gewährleisten. Entwicklung und Bewertung verschiedener Prototypen von mit dem Kopf verbundenen Fernkamera-Plattformen und Kardanaufhängungen sind im Gange, um die optimalen Hardware- und Steuerungskonfigurationen für ferngesteuerte Kamerasysteme zu bestimmen. Die Forschungsarbeiten umfassen weiters die Entwicklung von Echtzeit-Signalverarbeitungstechnik, um verschiedene photographische Quellen mit computergeneriertem Bildmaterial kombinieren zu können.
4. ANWENDUNGEN VON VIRTUAL ENVIRONMENTS
Die Anwendungsgebiete der Forschungsergebnisse von NASA Ames auf dem Gebiet der Virtual Interface Environments konzentrieren sich auf zwei Hauptbereiche: Telepräsenz und Dataspace:

TELEPRÄSENZ:
Das VIEW-System wird derzeit zur Interaktion mit einem simulierten Aufgabengebiet für Teleroboter verwendet. Der Benützer kann eine Vielzahl von Bildern des weit entfernten Aufgabengebietes aufrufen, die Aussichten von frei fliegenden oder auf Telerobotern montierten Kameraplattformen darstellen. Dreidimensionale Schaltemissionen liefern Informationen über Distanz und Richtung für nahegelegene Objekte und Ereignisse. Beim Umschalten auf den "Telepresence Control Mode" wird der stereoskopische Weitwinkelschirm des Benützers zum Zweck der genauen Gesichtspunktsteuerung direkt mit dem dreidimensionalen Kamerasystem des Teleroboters verbunden. Der Benutzer kann durch Tasteingabe über eine handschuhähnliche Einrichtung und durch gesprochene Befehle den Arm des Roboters und die "geschickte" Ausführungseinrichtung an dessen Ende direkt steuern. Der Roboterarm samt Endeinrichtung scheinen im Raum dem Arm des Benützers zu entsprechen,

DATASPACE:
Hochentwickelte Datenanzeige- und Manipulationskonzepte für das Informationsmanagement werden mit Hilfe der VIEW-Systemtechnologie entwickelt. Derzeit wird das System zur Schaffung eines Anzeige-Environment verwendet, in dem Datenmanipulation und Systemüberwachungsaufgaben in einem virtuellen Anzeigeraum um den Operator organisiert werden. Durch Sprach- und Gesteninteraktion mit der virtuellen Anzeige kann der Operator Informationsfenster schnell aufrufen oder löschen und sie im dreidimensionalen Raum neu anordnen. Dreidimensionale Toneffekte und Sprachsynthesetechnologie werden verwendet, um den Gesamtüberblick des Benützers über die virtuelle Datenumgebung zu verbessern. Das System ist auch imstande, rekonfigurierbare virtuelle Schalttafeln anzuzeigen, die auf vom Operator getragene handschuhähnliche Tasteingabegeräte reagieren.
5. PERSONALSIMULATION: ARCHITEKTUR, MEDIZIN, UNTERHALTUNG
Abgesehen von Aufgaben in den Bereichen Fernmanipulation und Informationsmanagement, kann das VIEW-Systern für eine Reihe kommerzieller Anwendungen herangezogen werden. Bisher wurde das System für die Entwicklung einfacher Architektursimulationen verwendet, die es dem Operator ermöglichen, ein sehr kleines dreidimensionales Modell eines Raumes zu entwerfen und dann mit einer Bewegung mit dem Handschuh das Modell auf natürliche Größe zu bringen. Dadurch wird es dem Architekten/ Operator ermöglicht, im wahrsten Sinne des Wortes in dem geplanten Raum umherzugehen. Seismische Daten, Molekularmodelle und meteorologische Daten sind weitere Beispiele multidimensionaler Daten, die durch Darstellung und Interaktion in einem Virtual Environment besser verstanden werden können.

Die Entwicklung eines Chirurgiesimulators für Medizinstudenten und plastische Chirurgen ist eine praktische Anwendung des Virtual Environment die Fortschritte macht. Diese Simulatoren sollen in einer Ausbildung eingesetzt werden, ähnlich wie Flugsimulatoren in der Pilotenausbildung. Wie der Pilot Situationen ausprobieren kann, die in der realen Welt sehr gefährlich wären, kann der Chirurg eine simulierte "elektronische Leiche" zur Operationsplanung und Patientenanalyse verwenden. Das System ist auch so angelegt, daß angehende Chirurgen durch die Augen eines erfahrenen Kollegen sehen und direkt wahrnehmen können, welche Schritte dieser für eine bestimmte Operation wählen würde. Wie auch auf der folgenden Abbildung zu sehen ist, können in der Umgebung des Chirurgen Informationsfenster angebracht werden, die dieselben lebenswichtigen Informationen anzeigen, die im Operationssaal von Monitoren und Röntgenbildern geliefert werden.

Durch die Möglichkeit zur Simulation einer großen Bandbreite realer und Phantasieumgebungen mit fast unbegrenzten Möglichkeiten bezüglich Größe und Umfang ist diese Technik auch für Anwendungen im Bereich des Bildungswesens und der Unterhaltung bestens geeignet. Es ist genauso leicht, den Benützer in ein Phantasie-Abenteuerspiel mit einem Gesichtsfeld von 360 Grad eintauchen zu lassen oder es ihm zu ermöglichen, ein virtuelles dreidimensionales Modell des Sonnensystems persönlich zu erforschen oder ein dreidimensionales Malsystem zu benützen, um virtuelle Umgebungen zu schaffen, die andere dann erforschen können.
6. TELE-ZUSAMMENARBEIT DURCH VIRTUELLE PRÄSENZ
Ein größeres Nahziel des VIEW-Projektes besteht darin, zumindest zwei der derzeitigen Interfacesystem-Prototypen mit einer gemeinsamen Virtual-Environment-Datenbank zu verbinden. Die beiden Benützer werden dann an einem gemeinsamen Virtual Environment beteiligt sein und darin in Interaktion treten, aber jeder wird es von seinem relativen im Raum an einem verschiedenen Punkt angeordneten Standpunkt sehen. Das Ziel ist es, einen kooperativen Arbeitsraum zu schaffen, in dem an verschiedenen Orten befindliche Teilnehmer in virtuelle Interaktion treten können, wobei einige der Nuancen einer direkten Begegnung gegeben sind und die Teilnehmer gleichzeitig Zugang zu ihrem persönlichen Dataspace-Gerät haben. Dadurch könnte eine wertvolle Interaktion zwischen Wissenschaftlern, die von verschiedenen Orten im ganzen Land aus zusammenarbeiten, oder sogar zwischen Astronauten in einer Raumstation und Forschungslaboratorien auf der Erde ermöglicht werden. Abtasteinrichtungen, die imstande sind, den ganzen Körper zu erfassen, werden es jedem einzelnen Benützer ermöglichen, in diesem Raum durch eine virtuelle Darstellung in Lebensgröße in jeder gewünschten Form als eine Art elektronische Person zu erscheinen. Für interaktives Theater oder interaktive Phantasieapplikationen können virtuelle Formen von Phantasiefiguren und leblosen Objekten bis zu verschiedenen menschlichen oder sonstigen Figuren geschaffen werden. Schließlich wird es zur Entwicklung von Telekommunikationsnetzen kommen, die mit Dienstleistungsrechnern mit Virtual Environments konfiguriert sein werden, in welche die Benützer einwählen können, um mit anderen virtuell gegenwärtigen Benützern in Interaktion zu treten.

Obwohl der derzeitige Prototyp des VIEW-Systerns vor allem für Laboranwendungen entwickelt wurde, wurde auf leicht austauschbare und relativ kostengünstige Komponenten Wert gelegt. Mit der rasch ansteigenden Verarbeitungsleistung und Geschwindigkeit der Graphik auf Mikrocomputern werden auch tragbare Virtual-Environmentsysteme auf PC-Basis verfügbar werden. Die Möglichkeiten der Virtual Realities sind – so scheint es – ebenso unbegrenzt wie die Möglichkeiten der Realität. Virtual Reality bietet ein menschliches Interface, das quasi verschwindet – ein Tor zu anderen Welten (Abb. 5).

Notes:

(1)
Lipton, L. "Sensorama," Popular Photography, July, 1964.zurück

(2)
Perkins, D. N. "Pictures and the Real Thing," Project Zero, Harvard University, Cambridge, Massachusetts, 1973).zurück

(3)
Bender, Environmental Design Primer, Minneapolis (1973)zurück

(4)
Lipmann, Andrew, "MovieMaps: An Application of the Optical Videodisc to Computer Graphics", Computer Graphics 14, #3 (1980).zurück

(5)
Comeau, C. & Bryan, J. "Headsight Television System Provides Remote Surveillance", Electronics, (Nov. 10, 1961). Pp. 86-90.zurück

(6)
Sutherland, I. E. "Head-Mounted Three-Dimensional Display", Proceedings of the Fall Joint Computer Conference, vol. 33. (1968), pp. 757-764.zurück

(7)
Fisher, S.S. "Telepresence Master Glove Controller for Dexterous Robotic End-Effectors: Advances in Intelligent Robotics Systems, D. P. Casasent (ed) Proc. SPIE 726, (1986).zurück

(8)
Fisher, S. S., McGreevy., Humphries, J., Robinett, W., "Virtual Environment Display System", ACM Workshop on 3D Interactive Graphics, Chapel Hill, North Carolina, (October 23-24, 1986).zurück

(9)
Fisher, S. S.. Wenzel, E. M., Coler, C., McGreevy, M. W., "Virtual Interface Environment Workstations", Proceedings of the Human Factors Society — 32nd Annual Meeting, Anaheim, California (October 24-28, 1988).zurück

(10)
Wenzel, E. M., Wightman, F. L., Foster, S. H., "A Virtual Display System for Conveying Three-Dimensional Acoustic Information"" Proceedings of the Human Factors Society — 32ndAnnual Meeting, Anaheim, California (October 24-28, 1988).zurück

(11)
Foley, James, D. "Interfaces for Advanced Computing", Scientific American, 257, no. 4 (1987) pp. 126-135.zurück