Die Usability-Bewertung von Virtual Reality (VR) Anwendungen stellt einen wesentlichen Bestandteil der Produktentwicklung dar, da sie sicherstellt, dass die Interaktionen zwischen dem Benutzer und dem System intuitiv und effizient gestaltet sind. Diese Bewertungen unterscheiden sich grundlegend von allgemeinen human-factors Studien, die eher theoretisch sind und sich auf einzelne Aspekte wie Feedback-Modi oder spezifische Interaktionstechniken konzentrieren. Im Gegensatz dazu ist die Usability-Analyse in der VR-Entwicklung produktorientiert und iterativ, was bedeutet, dass sie kontinuierlich während des Entwicklungsprozesses durchgeführt wird, um das Benutzererlebnis zu optimieren. Besonders die VR-Anwendungen erfordern eine präzisere und tiefere Auseinandersetzung mit der Usability, da sie eine Vielzahl von Interaktionen in 3D und multimodalen Umgebungen beinhalten.

Ein solches Vorgehen wird durch die Methodologie von Hix und Gabbard (2002) sowie Gabbard (2015) unterstützt, die eine strukturierte Usability-Studie in vier Phasen unterteilen: User Task Analysis, Expert Guidelines-basiertes Evaluation, Formative Evaluation und Summative Evaluation. Jede dieser Phasen ist darauf ausgelegt, unterschiedliche Aspekte der Usability zu überprüfen und zu verbessern. Im Folgenden wird diese Methodologie anhand einer Fallstudie zu einer militärischen Kommandosimulation namens „Sea Dragon“ veranschaulicht.

User Task Analysis ist die erste Phase einer formalen Usability-Studie. Sie dient dazu, die Aufgaben zu identifizieren und zu beschreiben, die der Nutzer ausführen muss, sowie die benötigten Systemressourcen und Benutzeraktionen zu ermitteln. Diese Analyse erfolgt durch Fragebögen, Interviews mit typischen Nutzern, direkte Beobachtungen und die Auswertung technischer Dokumentationen. Wichtig ist, dass bei der Analyse nicht nur einzelne Aktionen identifiziert werden, sondern auch die Beziehungen zwischen diesen Aktionen, wie Abhängigkeiten und Reihenfolgen. Eine unzureichende Task-Analyse führt oft zu schlechten Produktdesigns, die den Nutzer überfordern oder gar unbenutzbar machen. In der Fallstudie „Sea Dragon“ wurde eine militärische Simulation verwendet, die eine hohe kognitive Belastung mit sich brachte, da die Nutzer in Echtzeit unter feindlichem Druck Entscheidungen treffen mussten. In solchen Szenarien ist die Usability entscheidend, da menschliche Fehler fatale Konsequenzen haben können.

Die Expert Guidelines-basierte Evaluation, auch als heuristische Evaluation bekannt, ist die zweite Phase und zielt darauf ab, potenzielle Usability-Probleme frühzeitig zu identifizieren. Dabei vergleichen Experten die Interaktionen der Nutzer mit dem System und identifizieren Schwächen. In der „Sea Dragon“-Simulation wurde die Navigation als zentraler Aspekt der Usability bewertet, da sie grundlegende Aufgaben wie das Auswählen und Manipulieren von Symbolen auf der Karte beeinflusste. Experten fanden während dieser Evaluation Probleme mit der Systemreaktion und der Funktionalität der Benutzeroberfläche, besonders bei der „exozentrischen“ Navigation – einer Ansicht, bei der der Nutzer das System von außen betrachtet.

Die Formative Usability Evaluation stellt die dritte Phase dar und ist eine iterative, beobachtende Methode, bei der repräsentative Nutzer in Szenarien mit konkreten Aufgaben eingebunden werden. Qualitative und quantitative Daten (wie Abschlusszeiten und Fehler) werden gesammelt und dienen der Verbesserung des Designs. Bei der „Sea Dragon“-Simulation wurden verschiedene Interface-Optionen getestet, um die beste Lösung für die Navigation auf der 3D-Karte zu finden. Der Flugstick erwies sich dabei als die effektivste Lösung, da andere Technologien wie Spracherkennung nicht ausgereift genug waren. In der zweiten Runde der formalen Evaluation wurden spezifische Fehler im Umgang mit dem Flugstick ermittelt, wie falsche Bewegungsrichtungen oder Probleme bei der Navigation der 3D-Karte.

Schließlich folgt die Summative Evaluation, die am Ende des Produktentwicklungszyklus durchgeführt wird, um das finale Produkt mit anderen ähnlichen Systemen zu vergleichen und die beste Lösung auszuwählen. Diese Evaluierung wurde in der „Sea Dragon“-Simulation durchgeführt, um vier wichtige Parameter zu bewerten und das System zu optimieren.

Es ist von entscheidender Bedeutung zu verstehen, dass Usability-Methoden in der VR-Entwicklung nicht nur dazu dienen, technische Mängel zu identifizieren, sondern auch das gesamte Benutzererlebnis zu verbessern. Die Interaktion mit einem VR-System kann komplex sein, da sie verschiedene Sinne und Benutzerhandlungen gleichzeitig anspricht. In Anbetracht der realen Anwendungen – wie etwa militärischen Simulationssystemen – hat die Usability einen direkten Einfluss auf die Effizienz und Sicherheit der Nutzer. Fehler oder ineffiziente Schnittstellen können in solch kritischen Szenarien weitreichende Auswirkungen haben, sei es in der Armee oder in anderen sicherheitsrelevanten Bereichen.

Neben den beschriebenen Phasen der Usability-Analyse ist es wichtig, dass Usability-Tests immer wiederholt und iterativ durchgeführt werden. Es reicht nicht aus, einmal eine Evaluation durchzuführen und das System als „benutzerfreundlich“ zu betrachten. VR-Systeme entwickeln sich ständig weiter, ebenso wie die Bedürfnisse der Nutzer und die Technologien, die zur Interaktion mit diesen Systemen genutzt werden. Daher sollte der gesamte Entwicklungsprozess stets flexibel und anpassbar sein, um auf neue Herausforderungen und Erkenntnisse reagieren zu können.

Wie funktionieren moderne Tracking-Systeme und welche Bedeutung haben sie für virtuelle Realität und Simulationen?

Moderne Tracking-Systeme, insbesondere magnetische Tracker wie das Polhemus „Liberty“ System oder der Polhemus G4 Tracker, bilden die Grundlage für präzise Positions- und Orientierungsbestimmungen in virtuellen Umgebungen und Simulationsanwendungen. Sie arbeiten durch die Erzeugung und Messung magnetischer Felder, welche von Sensoren erfasst werden. Die Qualität dieser Systeme wird maßgeblich durch die Genauigkeit der Positionsmessung, die Rate der Abtastung und die Fähigkeit zur Minimierung von Positionsfehlern oder Drift beeinflusst. Die Vielzahl der Sensoren, wie bei den Polhemus-Sensoren, ermöglicht eine detaillierte und realistische Erfassung von Bewegungen in mehreren Freiheitsgraden.

In der praktischen Anwendung sind die Herausforderungen jedoch vielfältig. Die Komplexität der Messtechnik wird deutlich durch Faktoren wie elektromagnetische Interferenzen, Positionierungsfehler und Drift, die eine kontinuierliche Kalibrierung und Fehlerkompensation erfordern. Die Qualität der Daten hängt zudem von der Sensitivität und der Anordnung der Sensorarrays ab, was für die Implementierung in VR-Systemen oder professionellen Simulationsumgebungen entscheidend ist. Beispielsweise besitzen professionelle optische Tracker eine hohe Präzision, aber auch sie sind in ihrer Anwendung durch Umgebungslicht und Sichtlinien beschränkt, während magnetische Systeme von metallischen Störquellen beeinflusst werden können.

Die Bedeutung des Trackings wird durch die Anforderungen an Echtzeitverarbeitung unterstrichen. Anwendungen wie VR-Headsets (z.B. Quest 2) oder Haptic-Feedback-Geräte (z.B. PowerGlove) benötigen eine extrem niedrige Latenz und hohe Wiederholrate, um eine immersive und reaktionsfähige Interaktion zu ermöglichen. Dabei spielen Technologien wie predictive Rendering eine wichtige Rolle, um Verzögerungen zu kompensieren und die Immersion aufrechtzuerhalten. Die technische Umsetzung verlangt eine nahtlose Integration von Hardwarekomponenten wie Mikrosensoren, Verstärkern, Multiplexern und Netzwerkschnittstellen (z.B. Power over Ethernet), sowie komplexen Algorithmen für Datenfusion und Fehlerkorrektur.

Der Einsatz von Tracking-Technologien erstreckt sich über zahlreiche Bereiche, von medizinischen Anwendungen und Rehabilitation über Industrie-Trainingssimulationen bis hin zu Entertainment und Gaming. Dabei ist es entscheidend, die Einflüsse von Bewegungsreichweiten, Sensitivität und Ansprechverhalten zu verstehen, da sie direkten Einfluss auf das Benutzererlebnis haben. Propriozeptive Systeme und sensomotorische Rückkopplungen sind integrale Bestandteile, um eine realitätsnahe Interaktion zu gewährleisten, was in der Haptik und im multisensorischen Feedback weiter ausgearbeitet wird.

Darüber hinaus sind die Produktionskosten und die Komplexität der Geräte nicht zu vernachlässigen, da sie die Verfügbarkeit und Verbreitung der Technologie maßgeblich beeinflussen. Die Balance zwischen Präzision, Robustheit und Wirtschaftlichkeit ist daher ein entscheidender Aspekt bei der Entwicklung und Anwendung dieser Systeme.

Wichtig ist, die inhärenten Limitationen von Tracking-Systemen zu erkennen und mit einer holistischen Sichtweise zu begegnen, die sowohl die physikalischen Grundlagen als auch die systemtechnischen Herausforderungen und die ergonomischen Aspekte berücksichtigt. Nur so kann die Technologie ihr volles Potenzial entfalten und ein realistisches, immersives Erlebnis erzeugen, das sowohl für den Nutzer als auch für den Entwickler praktikabel und wertvoll ist.

Wie funktionieren Frame-Drops und verteiltes Rendering in VR-Systemen?

Beim Betrachten von VR-Darstellungen auf einem Head-Mounted Display (HMD) sind die zeitlichen Abläufe zwischen Grafikberechnung und Bildwiedergabe entscheidend für das Nutzererlebnis. Der Prozess beginnt mit der Übertragung der Kopfbewegungsdaten vom HMD-Tracker an die CPU des PCs. Diese Daten durchlaufen anschließend die Render-Engine, die die Szene berechnet und an das Laufzeitsystem weiterleitet, welches wiederum Positionen resampelt und die Szene gemäß der Geometrie der HMD-Linsen verzerrt (Warping). Die gesamte Pipeline muss innerhalb des Scan-Intervalls von 11,1 Millisekunden bei 90 Hz Bildwiederholrate abgeschlossen sein.

Wenn die Renderzeit aufgrund komplexer Szenen oder langsamer Hardware die Zeitspanne überschreitet, wird keine vollständig neue Szene berechnet. Stattdessen wird ein zuvor gerendertes Bild herangezogen, das mittels Interpolation an die neue Kopfposition angepasst und verzerrt wird. Diese sogenannten „Dropped Frames“ verhindern, dass das Bild komplett einfriert, mindern aber dennoch die visuelle Qualität. FCAT–VR erfasst diese Ereignisse sowie die Anzahl der „Warped Frame Misses“, bei denen die Warping-Operation vor der Anzeige nicht rechtzeitig abgeschlossen wurde, wodurch ein alter, verzerrter Frame erneut gezeigt wird und visuelle Störungen auftreten können.

Um diese Frame-Drops zu vermeiden, ist eine Grafikkarte mit hoher und stabiler Bildrate essenziell. Während Deep Learning Super Sampling (DLSS) synthetische Frames generieren kann, ist eine gleichmäßige Bildzeit ohne Frame-Ausfälle vorzuziehen. Die Vergleichstests mit FCAT–VR zwischen der NVIDIA RTX 3090 und RTX 4090 zeigen, dass die RTX 4090 eine höhere und konstantere Framerate erreicht, was zu weniger synthetischen Frames und einem flüssigeren VR-Erlebnis führt. Dieses Ergebnis gilt für verschiedene Spiele und verdeutlicht die Bedeutung von Hardware-Leistung für die Qualität der VR-Darstellung.

In Situationen, in denen eine einzelne Grafikkarte die Anforderungen an Auflösung und Framerate nicht erfüllen kann, wird auf verteilte VR-Architekturen zurückgegriffen. Ein verteiltes VR-System teilt die Rendering-Belastung auf mehrere Rechnerressourcen auf, die lokal oder geografisch verteilt sein können. Dies ermöglicht entweder die Darstellung sehr hochauflösender Inhalte oder die Unterstützung mehrerer simultaner Nutzer.

Die traditionelle VR-Architektur basierte auf der vollständigen Grafikberechnung durch einen Desktop-PC, während das HMD nur Tracking und Display bereitstellte. Mit der Entwicklung von All-in-One-HMDs, wie der Quest 2, übernimmt ein mobiler Mehrkernprozessor die gesamte Verarbeitung. Diese Geräte bieten mehr Bewegungsfreiheit, sind jedoch durch begrenzte Rechenleistung, Energieverbrauch und Ergonomie limitiert, was sich in einfacheren Szenen und niedrigeren Auflösungen widerspiegelt.

Split Rendering ist ein Ansatz, der die Last zwischen zwei oder mehreren Ressourcen verteilt. Eine Variante sieht vor, dass ein Host-PC die Hauptszene rendert und das HMD die Bildpixel vor der Darstellung anpasst, um Kopfbewegungen und Linsenverzerrungen zu berücksichtigen. Beispielsweise sendet ein All-in-One-HMD Tracking-Daten per WLAN an den Host, der die Frames berechnet, komprimiert und zurücküberträgt. Das HMD decodiert die Daten und führt die sekundäre Bildbearbeitung durch. Trotz dieser Verteilung können durch Übertragungsverzögerungen oder komplexe Szenen Frames verloren gehen, was wiederum zu wiederholter Bildanzeige führt.

Die Synchronisation der Rendering-Prozesse mit der HMD-Scanzeit ist kritisch. Wird die Renderzeit überschritten, steigt die Anzahl der gedroppten Frames, was die Immersion und das visuelle Erlebnis beeinträchtigt. Verteilte Architekturen und effiziente Kompressionstechniken sind deshalb unverzichtbar, um Latenzen zu minimieren und ein flüssiges VR-Erlebnis zu gewährleisten.

Es ist wichtig, das Zusammenspiel von Hard- und Software in VR-Systemen ganzheitlich zu verstehen, da Verzögerungen und Frame-Drops nicht nur technische Probleme darstellen, sondern unmittelbar die Wahrnehmung und das Wohlbefinden der Nutzer beeinflussen. Eine gleichmäßige Framezeit ist ebenso entscheidend wie eine hohe Bildrate, um Motion Sickness und visuelle Störungen zu vermeiden. Darüber hinaus ist die Anpassung der Hardware an die jeweiligen Anwendungsfälle und die Balance zwischen Leistung, Energieverbrauch und Ergonomie ein Schlüssel zur Weiterentwicklung immersiver VR-Erlebnisse.