Die Gestaltung oder Auswahl einer grafischen Anzeige im Kontext von Virtual Reality (VR) erfordert ein tiefes Verständnis des menschlichen Sehsystems. Eine effektive Anzeige muss in der Lage sein, die Bildmerkmale so an die Wahrnehmung des Nutzers anzupassen, dass das virtuelle Umfeld möglichst realistisch erscheint. Das menschliche visuelle Wahrnehmungssystem ist dabei ein entscheidender Faktor. Daher ist es notwendig, sich zunächst mit der Funktionsweise des menschlichen Auges und der visuellen Wahrnehmung auseinanderzusetzen, bevor spezifische Hardware für grafische Displays beschrieben werden kann.

Das menschliche Auge verfügt über mehr als 126 Millionen Fotorezeptoren, die über den Sehnerv mit der Netzhaut verbunden sind. Diese Fotorezeptoren sind jedoch nicht gleichmäßig über die Netzhaut verteilt. Der höchste Konzentrationsbereich der Fotorezeptoren befindet sich in der Fovea, dem zentralen Teil der Netzhaut. Hier befindet sich die höchste Auflösungsfähigkeit des Auges, die es dem Nutzer ermöglicht, feine Details und Farben wahrzunehmen. Die Fovea erstreckt sich jedoch nur über einen kleinen Bereich des Sichtfeldes. Um diesen Bereich herum liegt die sogenannte Peripherie, in der die Dichte der Fotorezeptoren wesentlich geringer ist und die Auflösung deutlich niedriger ist. Diese peripheren Rezeptoren sind darauf optimiert, Bewegungen zu erkennen und sind weitgehend farbenblind, was besonders bei der Wahrnehmung von sich schnell bewegenden Objekten von Bedeutung ist.

Ein weiterer wichtiger Aspekt der menschlichen Wahrnehmung ist das Sichtfeld (FOV), das etwa 150° horizontal und 120° vertikal bei Verwendung eines einzelnen Auges beträgt. Bei beiden Augen erweitert sich das Sichtfeld auf etwa 180° horizontal und 120° vertikal. Der zentrale Bereich dieses Sichtfelds, in dem beide Augen das gleiche Bild registrieren, wird als Bereich der Stereopsis bezeichnet. Dieser Bereich erstreckt sich horizontal über ungefähr 120°. Das Gehirn nutzt den horizontalen Versatz der Bildpositionen, die beide Augen registrieren, um die Tiefe oder Entfernung des dargestellten Objekts zu berechnen. In einem VR-Szenario muss dieses Prinzip der Stereopsis nachgebildet werden, um dem Gehirn die korrekte Tiefenwahrnehmung zu ermöglichen. Hierbei spielen auch individuelle Unterschiede eine Rolle, wie etwa der Interpupillarabstand (IPD), der die Entfernung zwischen den Pupillen beider Augen beschreibt. Dieser Abstand variiert von Mensch zu Mensch und beeinflusst, wie der Nutzer Entfernungen in der virtuellen Welt wahrnimmt.

Im VR-Umfeld müssen die verwendeten Displays die Tatsache berücksichtigen, dass der IPD von Nutzer zu Nutzer unterschiedlich ist. Andernfalls könnte die virtuelle Szene unscharf oder verzerrt erscheinen. Dies ist besonders relevant, wenn wir von Head-Mounted Displays (HMDs) sprechen, die speziell dafür ausgelegt sind, dem rechten Auge nur die rechte Szene und dem linken Auge nur die linke Szene zu zeigen. Wenn diese Anforderungen nicht erfüllt werden, ist die Wahrnehmung von 3D-Grafiken nicht korrekt und es kommt zu einer Verschlechterung der Wahrnehmung.

Die menschliche Wahrnehmung von Tiefe ist nicht nur durch Stereopsis bedingt. In größerer Entfernung nehmen wir die Tiefe auch anhand anderer visueller Hinweise wahr. Diese Hinweise beinhalten lineare Perspektiven, Schatten, Okklusionen (wenn entfernte Objekte von näheren Objekten verdeckt werden), Texturen und Details der Oberfläche. Ein weiteres wichtiges Wahrnehmungsmerkmal ist das Bewegungsparallaxenprinzip: Wenn sich der Nutzer mit dem Kopf dreht, erscheinen nahe Objekte schneller zu bewegen als weiter entfernte. In modernen VR-Systemen, bei denen die Nähe und Entfernung der Objekte dynamisch angepasst wird, können diese visuellen Hinweise ebenfalls effektiv genutzt werden, um ein realistisches Erlebnis zu schaffen. Es gibt sogar hybride Ansätze, bei denen die nahe Umgebung stereoskopisch dargestellt wird, während weiter entfernte Objekte monoscopisch angezeigt werden.

Grafische Displays in VR-Systemen variieren hinsichtlich ihrer Technologien, von persönlichen Displays wie HMDs bis hin zu Displays für mehrere Nutzer, wie sie bei Projektionen oder holografischen Anzeigen zu finden sind. Unabhängig von der Art des Displays gibt es eine Reihe wichtiger Leistungsparameter, die berücksichtigt werden müssen. Diese beinhalten die Auflösung, die Helligkeit und die Bildwiederholrate. Die Auflösung eines Displays ist von zentraler Bedeutung, da sie direkt mit der Detailgenauigkeit der dargestellten Szenen verknüpft ist. Jedoch ist die Auflösung alleine nicht der einzige Maßstab für die Leistungsfähigkeit eines Displays. Die Pixel-Dichte (ppi) spielt eine ebenso wichtige Rolle, da sie die Anzahl der Pixel pro Fläche beschreibt und somit die visuelle Klarheit und Präzision beeinflusst. Displays mit höherer Pixeldichte können feinere Details und schärfere Bilder liefern, was besonders in VR-Anwendungen von Bedeutung ist, wo eine hohe Präzision erforderlich ist, um die Illusion einer realen Umgebung zu erzeugen.

Die Frage, wie ein Display in der VR-Technologie die Wahrnehmung des Nutzers unterstützt, hängt auch von den spezifischen visuellen Anforderungen der Anwendung ab. In interaktiven VR-Umgebungen, wie sie bei Videospielen oder Simulationen vorkommen, muss die Anzeige nicht nur die hohe Auflösung und Farbtreue unterstützen, sondern auch eine schnelle Bildwiederholrate und eine geringe Latenz bieten, um die Illusion einer nahtlosen und realistischer Welt zu gewährleisten. Dies erfordert, dass die Systeme in der Lage sind, Bilddaten in Echtzeit zu verarbeiten und darzustellen, ohne dass es zu Verzögerungen oder Verzerrungen kommt.

Ein effektives VR-Erlebnis setzt voraus, dass die Anzeige in der Lage ist, die speziellen Merkmale der menschlichen Wahrnehmung zu berücksichtigen. Dazu gehören nicht nur Stereopsis und die räumliche Tiefe, sondern auch die dynamische Anpassung des Sichtfeldes, die Farb- und Helligkeitswahrnehmung sowie die Interaktivität und Geschwindigkeit der Anzeige. Bei der Auswahl von Hardware für VR-Anwendungen müssen Entwickler sicherstellen, dass die Anzeige sowohl die physiologischen Anforderungen des menschlichen Sehens erfüllt als auch die technischen Anforderungen der Software berücksichtigt, um das bestmögliche Nutzererlebnis zu garantieren.

Wie beeinflussen Displayeigenschaften die visuelle Wahrnehmung und technische Leistung moderner Geräte?

Die Fähigkeit, den Blick eines Nutzers zu erfassen, insbesondere bei Head-Mounted Displays (HMDs) wie dem HTC VIVE Pro Eye, hat weitreichende Konsequenzen für die Optimierung von Grafikpipelines. Die Erfassung des Fokusbereichs ermöglicht es, die Rendering-Ressourcen gezielt einzusetzen, was besonders bei der Verarbeitung großer Bilddatenmengen von Bedeutung ist. Diese Technologie findet sich zunehmend auch in anderen persönlichen Displays, wie beispielsweise in sogenannten „Smart Glasses“. Bei stereoskopischen Displays, die für 3D-Ansichten verwendet werden, muss der Pixel-Array horizontal zwischen linkem und rechtem Bild aufgeteilt werden, was zu einer Reduktion der Auflösung um die Hälfte führt und somit eine bewusste Balance zwischen Bildqualität und Darstellungskomplexität erforderlich macht.

Die Helligkeit eines Displays ist ein weiterer fundamentaler Faktor für die visuelle Wahrnehmung. Sie wird in Lumen gemessen und definiert die Menge des ausgestrahlten Lichts. Frühere Technologien, wie analoge CRT-Projektoren, erreichten lediglich eine Helligkeit von etwa 300 Lumen, was bedeutete, dass Umgebungslicht die Bildwahrnehmung stark beeinträchtigte. Moderne digitale Projektoren hingegen können bis zu 9000 Lumen erreichen und sind somit weit weniger anfällig gegenüber Umgebungslicht. Die Größe und Anordnung von Displays beeinflussen die wahrgenommene Helligkeit: Eine Anordnung aus mehreren HDTVs addiert zwar die Lichtleistung, doch steigt die Fläche entsprechend, sodass Helligkeit sinnvoller als Lumen pro Flächeneinheit, gemessen in Nits (Candela pro Quadratmeter), betrachtet wird. Gerade bei mobilen Geräten bleibt die Herausforderung, die Helligkeit hoch genug zu halten, um im Sonnenlicht eine gute Sichtbarkeit zu gewährleisten, ohne dabei den Energieverbrauch und die Batterielaufzeit zu stark zu belasten.

Eine zentrale technische Eigenschaft ist die Bildwiederholrate, also die Anzahl der Bildaktualisierungen pro Sekunde, gemessen in Hertz (Hz). Klassische PC-Monitore arbeiten mit 60 Hz, was für statische oder langsam wechselnde Inhalte ausreichend ist, da das menschliche Auge eine Trägheit von etwa 16 Hz besitzt und Einzelbilder so zu einem flüssigen Eindruck verschmilzt. Bei schnell wechselnden Bildern, wie in Videospielen, führen höhere Bildwiederholraten von 90 bis 120 Hz zu einer deutlich besseren Darstellung dynamischer Szenen, da sie das Entstehen von Bildfehlern wie „Tearing“ verhindern. Allerdings steigt der Energieverbrauch mit zunehmender Bildwiederholrate, was besonders bei mobilen Geräten eine Herausforderung darstellt. Variable Bildwiederholraten, wie sie im iPhone 15 Pro implementiert sind, passen die Aktualisierung intelligent an die Bildinhalte an und erlauben so eine effiziente Balance zwischen visueller Qualität und Energieeinsparung.

Die zwei dominierenden Displaytechnologien sind Flüssigkristallanzeigen (LCD) und organische Leuchtdioden (OLED). LCDs beruhen auf der elektrischen Steuerung von Flüssigkristallen, deren Moleküle durch Spannung ihre Orientierung und damit ihre Lichtdurchlässigkeit ändern. Sie benötigen eine separate Lichtquelle, meist bestehend aus Mikro-LEDs für die RGB-Farben, um das Bild zu erzeugen. Die aktive Matrix (AMLCD) sorgt durch eine fein gesteuerte Anordnung von Dünnfilmtransistoren (TFTs) dafür, dass jede Pixelzelle individuell angesteuert wird. LCDs zeichnen sich durch eine hohe Helligkeit und einen vergleichsweise geringen Energieverbrauch aus, was sie besonders für mobile Anwendungen attraktiv macht. Zudem sind sie in der Herstellung kostengünstiger und weniger anfällig für Bild-Einbrenneffekte als OLEDs.

Diese technischen Eigenschaften sind essenziell, um die Nutzererfahrung moderner visueller Systeme zu verstehen. Neben den reinen Spezifikationen der Displays ist es wichtig, auch die Wechselwirkungen zwischen Umgebungsbedingungen, Energieverbrauch und visueller Wahrnehmung zu berücksichtigen. Die Entwicklung von Displays ist dabei ein Balanceakt zwischen optimaler Bildqualität, Effizienz und Anpassungsfähigkeit an unterschiedliche Nutzungsszenarien.

Wie erreicht man visuelle und temporale Kontinuität in Kachelprojektionen?

Die Unterstützung von Projektorgerüsten gewährleistet einen gleichmäßigen Abstand der einzelnen Projektoren sowohl in der horizontalen als auch in der vertikalen Achse. Wenn das Projektorgerüst nicht optimal entworfen wird, entstehen Fehlanpassungen zwischen den Koordinaten der Projektoren und denen der Leinwand, was zu Bildverzerrungen und ungleichmäßigen Größen der Projektorfliesen führen kann. Diese Fehlanpassungen beeinflussen zudem die Helligkeit des zusammengesetzten Bildes. Ein perfektes geometrisches Alignment der Fliesenarray garantiert nicht unbedingt visuelle Kontinuität, wenn Helligkeitsdiskontinuitäten auftreten. Solche Diskontinuitäten manifestieren sich in sehr dunklen oder sehr hellen Zonen im Kachelbild. Ein großes Kachelbild besitzt visuelle Kontinuität, wenn es mit gleichmäßiger Helligkeit und Farbraum präsentiert wird und kein Bildreißen auftritt. Dunkle Zonen in einem zusammengesetzten projizierten Bild entstehen durch Fehlanpassungen, die Bereiche auf der Leinwand hinterlassen, die von keinem Projektor abgedeckt werden. Um dieses unerwünschte visuelle Artefakt zu vermeiden, müssen die Projektoren ihre Fliesen überlappen, wobei die überlappenden Bereiche mindestens 10 % der Fliesenoberfläche ausmachen. Eine Überlappung der benachbarten Kanten sorgt dafür, dass keine dunklen Zonen entstehen, jedoch empfangen die Pixel in diesen Überlappungszonen Licht von zwei oder sogar vier Projektoren. Infolgedessen erscheinen die Pixel in den Überlappungsbereichen doppelt oder sogar viermal so hell wie die Pixel außerhalb dieser Zonen.

Es gibt verschiedene Ansätze, um die Helligkeit der zusammengesetzten Bilder zu verbessern und gleichzeitig einen sanften Übergang zwischen den Kachelbildern zu gewährleisten. Eine einfache Methode besteht darin, die Inter-Projector-Variabilität zu ignorieren und in Software eine lineare RGB-Blending in den überlappenden Pixelbereichen durchzuführen. Diese Methode funktioniert am besten für High-End-Projektoren, die nur geringe Unterschiede in der Qualität zwischen den einzelnen Geräten aufweisen. Eine verbesserte Technik berücksichtigt nicht nur die Inter-Projector-Variabilität, sondern führt auch eine Farbübergangs- und Helligkeitsanpassung innerhalb der Überlappungszone durch. Jeder Projektor hat seine eigene "visuelle Signatur", weshalb ein Algorithmus spezifische Lookup-Tabellen für das Blending der Bildinformationen benötigt. Die Methode von Sajadi et al. (2009) berücksichtigt sowohl inter- als auch intra- Projektor-Variationen und sorgt so für ein großes, nahtloses zusammengesetztes Bild, wobei jedoch die Gesamthelligkeit etwas verringert wird.

Neben der geometrischen und visuellen Kontinuität spielt auch die temporale Kontinuität eine entscheidende Rolle, besonders bei VR-Anwendungen. In diesem Zusammenhang bezieht sich die temporale Kontinuität auf die Synchronisation der Bildschirmausgabe über alle Fliesen hinweg. Eine fehlende Synchronisation zwischen den benachbarten Kacheln führt zu Bildreißen, was die Benutzererfahrung erheblich beeinträchtigt. Das Problem wird noch komplexer, wenn mehrere Computercluster die Inhalte für eine Kacheleinwand bereitstellen, da jedes GPU-Modul unterschiedliche Bildraten aufweisen kann. In der Praxis ist es daher notwendig, auch die temporale Komponente der Kachelanzeige zu berücksichtigen, um eine nahtlose Bildwiedergabe zu gewährleisten.

Für eine flüssige Bildwiedergabe müssen alle Fliesen gleichzeitig ihre Pixelarrays austauschen, was nur durch eine Synchronisation der Refresh-Zyklen erreicht werden kann. Bei Systemen, die mehrere PCs verwenden, wobei jeder PC eine eigene GPU für jede Kachel steuert, wird ein PC als "Master" PC fungieren und die restlichen PCs müssen sich an dessen Taktung orientieren. Diese Synchronisation wird häufig durch ein "Genlock"-Signal realisiert, das von der Master-Station an alle Slave-Stationen gesendet wird. Wenn jedoch mehrere Grafikquellen gleichzeitig betrieben werden, wie in einem „Picture-in-Picture“-Setup, wird die Synchronisation schwieriger, da die unterschiedlichen Grafikkarten mit unterschiedlichen Frequenzen arbeiten.

Für eine skalierbare Lösung, bei der mehrere Videoquellen auf die Kacheleinwand abgebildet werden, kommen Technologien wie die Synchronisation über das Netzwerk (z. B. über den NTP-Server) zum Einsatz. In dieser Architektur wird die Synchronisation durch Software wie die Appspace-Software durchgeführt, die jedes Display mit einer eindeutigen Netzwerk-ID versieht und es ermöglicht, die gesamte Anordnung der Fliesen synchron zu steuern. Bei dieser Methode kann die Kacheleinwand problemlos mit verschiedenen Quellen betrieben werden, während gleichzeitig eine nahtlose Bildwiedergabe aufrechterhalten bleibt.

Besondere Aufmerksamkeit sollte der Wahl der Synchronisationsmethoden geschenkt werden, wenn es um die Steuerung von Video-Inhalten geht, die über verschiedene Quellen und Netzwerke verteilt sind. In solchen Fällen wird die genaue Synchronisation auf Softwareebene oft durch zusätzliche Hardwarekomponenten, wie speziell abgestimmte Master- und Slave-Karten, gewährleistet. Für Projekte, die mit extrem komplexen oder großflächigen Installationen arbeiten, ist es wichtig, eine skalierbare Lösung zu implementieren, die sowohl Hardware als auch Software perfekt aufeinander abstimmt, um eine konsistente, fehlerfreie Anzeige zu gewährleisten.