next up previous contents
Next: Eingabegeräte Up: Einführung Previous: Technische Merkmale von VR-Systemen

Visuelle Darstellung

Green und Sun (1995) beschäftigen sich mit der graphischen Modellierung, die bei VR-Applikationen eingesetzt werden kann. Wichtig scheint ihnen unter anderem die Detektion von Kollisionen bewegter Objekte. Sie unterscheiden zwei Arten der Modellierung von Bewegungen:

Geometrische Modellierung will vor allem die Gestalt eines Objekts erfassen. Dazu werden geeignete graphische Primitive definiert, aus denen sich alle Objekte zusammensetzen und die im Rahmen einer hierarchischen Modellierung eingesetzt werden.

Modellierung des Verhaltens (Animation) läßt sich entweder durch erreichen. Die einzelnen Bewegungen können dabei abstrakt programmiert werden oder über interaktive Tools eingegeben werden (indem die Zielbewegung ``vorgemacht'' wird).

Green und Sun (1995) empfehlen den Ansatz der behavioral animation, bei dem das Verhalten eines gesamten Objektes beschrieben wird und nicht dessen einzelne Bewegungen. Dadurch wird das Verhalten der Objekte in bezug auf das Benutzerverhalten und auf andere Objekte definiert.

Helmbasierte Geräte

Kocian und Task (1995) beschreiben eingehend die verschiedenen technischen Varianten von helm- bzw. kopfbasierten Systemen zur Visualisierung virtueller Realitäten, die sie als visually coupled systems (VCS) bezeichnen. Sie bestehen aus folgenden Komponenten:

  1. ein am Kopf oder Helm befestigtes Display,
  2. ein Gerät zum Bestimmen der Kopf- oder Blickbewegungen und
  3. eine Quelle visueller Information, die von der Kopf- oder Blickrichtung abhängt.
Beim Einsatz eines derartigen Systems für VR-Applikationen können sowohl Informationen aus der realen als auch aus der virtuellen Umgebung gleichzeitig dargeboten werden (sog. see-through-displays für die Darstellung angereicherter Realitäten).

Zur Visualisierung sind zuerst geeignete optische Komponenten (Linsen) hoher Qualität erforderlich, die ein scharfes vergrößertes Abbild der Bildquelle ermöglichen. Bei Einsatz von halbdurchlässigen Spiegeln können die ``virtuellen'' Informationen auch die visuelle Wahrnehmung der realen Welt anreichern. Als Bildquellen kommen ganz verschiedene Systeme in Frage; am häufigsten werden Kathodenstrahlröhren oder LCD-Bildschirme eingesetzt.gif Wünschenswert sind dabei eine hohe Auflösung und Leuchtdichte, hohe Farbtiefe und geringe Abmessungen der Bildquelle. Zur Visualisierung dreidimensionaler Objekte sind zwei derartige Bildquellen erforderlich.

Die Verfolgung von Kopfbewegungen ist ein wichtiger Bestandteil von VR-Applikationen. Üblicherweise werden die Orientierung und die Position des Kopfes ermittelt, fortgeschrittenere Systeme können außerdem die Blickrichtung verfolgen. Die meisten Systeme setzen dazu entweder Ultraschall, magnetische oder Lichtenergie zur Kommunikation zwischen den am Kopf angebrachten Sendern und den Empfängern ein. Wichtige Faktoren zur Auswahl solcher Systeme sind (cf. Kocian & Task, 1995):

Schließlich muß eine Integration der Bilddarstellung und der Verfolgung der Kopfbewegungen stattfinden. Kocian und Task (1995) nennen dabei folgende Systemmerkmale:

Verfolgen von Augenbewegungen

Augenbewegungen können zur Steuerung von VR-Systemen eingesetzt werden. Jacob (1995) stellt die technischen Randbedingungen dar. Die einfachste Variante besteht in der Ableitung eines Augen-EEGs (da eine hohe elektrische Potentialdifferenz zwischen Retina und Cornea besteht). Diese Messungen sind allerdings relativ ungenau. Benutzerfreundlicher und genauer ist die Verwendung spezieller Kontaktlinsen, auf denen eine Markierung angebracht ist, die leicht verfolgt werden kann. Am besten eignen sich Apparaturen, bei denen von der Retina reflektiertes Infrarot-Licht gemessen wird.

Der Einsatz von Augenbewegungen zur Steuerung eines Computers bringt das Problem mit sich, daß nicht jede Blickbewegung auch eine Aktion auslösen soll. Außerdem müssen die Daten, die über die Blickrichtung gewonnen werden, zur Beseitigung von Rauschen gefiltert werden und es muß zu Beginn jeder Sitzung eine Kalibrierung durchgeführt werden. Schließlich muß auf die eigentliche Intention des Benutzers geschlossen werden. Zum Einsatz von Blickbewegungen zur Interaktion mit dem Computer schlägt Jacob (1995) vor, die gewünschte Schnittstelle als Menge relativ einfacher individueller Dialoge zu spezifizieren, die durch sogenannte Interaktionsobjekte repräsentiert werden (z.B. Buttons, Scrollbars, aktivierbare Graphiken). Solche Objekte sollen folgendermaßen durch bestimmte Blickbewegungen aktiviert werden können:

Eine besonders ``natürliche'' Anwendungsmöglichkeit der Registrierung von Blickbewegungen besteht darin, nur den gerade betrachteten Ausschnitt eines Displays mit der höchsten möglichen Auflösung darzustellen. Dadurch läßt sich Rechenkapazität sparen und somit eine Echtzeit-Darstellung beschleunigen.

Störfaktoren

Edgar und Bex (1995) untersuchen zwei visuelle Phänomene, die die realistische Darstellung einer virtuellen Welt beeinträchtigen können:

Zeitliches Aliasing: Beim Simulieren von Bewegungen durch eine Abfolge statischer Bilder können unter bestimmten Beobachtungsbedingungen (insbesondere bei geringer räumlicher Auflösung oder geringer Bildwiederholfrequenz) Phänomene auftreten, die den Eindruck einer flüssigen Bewegung stören (oder sogar zur Wahrnehmung einer gegenläufigen Bewegung führen). Auch die Wahrnehmung verschiedener Bilder bei stroboskopischer Beleuchtung fällt in diese Kategorie.

Zur Wahrnehmung von Bewegungen werden kognitive Prozesse (Verfolgen von Zielen in Relation zu deren Umfeld) oder neuronale Mechanismen (sog. Reichardt-Detektoren, die die Korrelation eines Neurons mit dem zeitverzögertem Output eines zweiten Neurons bestimmen) diskutiert.

Akkomodation besteht in einer Änderung der Brechkraft der Linse des Auges. Sie ist als Reflex mit der Konvergenz der beiden Augen verbunden. Bei der Verwendung von flachen Displays für 3D-Darstellungen können Inkonsistenzen zwischen Akkomodation und Konvergenz auftreten, die die räumliche Illusion stören.

Objekterkennung

Auch in virtuellen Welten spielt das Erkennen von Objekten eine zentrale Rolle. Findlay und Newell (1995) stellen deshalb verschiedene Ansätze zur visuellen Objekterkennung dar. Sie greifen dabei auf Bruner zurück, der Wahrnehmung als einen Akt der Kategorisierung auffaßt. Außerdem spielt das Konzept der Objektkonstanz eine wichtige Rolle, das es erlaubt, ein Objekt zu erkennen, auch wenn es ganz unterschiedliche proximale Reize hervorruft. Üblicherweise enthalten die zur Objekterkennung verwendeten Informationen eine hohe Redundanz, die sich unter anderem darin äußert, daß ein und dasselbe Ziel auf ganz unterschiedliche Weise erreicht werden kann (z.B. Tiefenwahrnehmung aufgrund ganz unterschiedlicher Tiefenkriterien).

Welcher Aspekt der Information in einer konkreten Situation relevant ist, hängt außerdem von der jeweiligen Zielsetzung ab: Räumliche Information kann beispielsweise für visuell gesteuerte Handlungen wichtig sein, nicht aber zur Objekterkennung. Eine wichtige Voraussetzung der Objekterkennung ist nach Findlay und Newell (1995) die visuelle Trennung zwischen dem Objekt und dessen Umfeld. Diese Autoren erläutern verschiedene theoretische Ansätze zur Erklärung bzw. Modellierung der Objekterkennung:

Findlay und Newell (1995) beschreiben auch verschiedene experimentelle Paradigmen zur Untersuchung des visuellen Objekterkennung. Besonders hervorzuheben ist die Bestimmung von Reaktionszeiten, die sich aufgrund ungewöhnlicher Perspektiven oder Orientierungen ergeben, und die Rückschlüsse auf die zugrunde liegenden Prozesse ermöglichen sollen. Durch Priming in der Gesichtsfeld-Peripherie läßt sich untersuchen, inwieweit auch außerhalb der fovea centralis bereits eine Objekterkennung oder -klassifikation erfolgt. Schließlich nennen die Autoren noch bottom-up (z.B. Ergänzung von teilweise verdeckten Bereichen) und top-down (Erleichterung der Objekterkennung durch semantischen Kontext) Prozesse bei der Objekterkennung.


next up previous contents
Next: Eingabegeräte Up: Einführung Previous: Technische Merkmale von VR-Systemen

rainer@zwisler.de

Last modified 10-29-98