Die Erforschung menschlicher Faktoren in der Virtuellen Realität (VR) ist ein unverzichtbarer Bestandteil, um die Interaktion zwischen Nutzer und Technologie zu verstehen und zu optimieren. Die komplexen technischen Grundlagen, wie multimodale Schnittstellen mit Grafik, Klang, Haptik und Geruch, realistische Modellierung und schnelle Renderprozesse, bilden die Grundlage für qualitativ hochwertige VR-Simulationen. Doch die Bewertung der tatsächlichen Nutzerleistung und der subjektiven Erfahrungen während der Nutzung bleibt eine zentrale Herausforderung.

Menschliche Faktorenforschung in der VR untersucht, wie Nutzer mit der Technologie interagieren, welche individuellen Eigenschaften ihre Leistung beeinflussen und welche Faktoren zu Problemen wie der sogenannten „Simulationserkrankung“ oder Cybersickness führen können. Diese multidisziplinären Studien, durchgeführt von Ingenieuren, Ergonomie-Experten und klinischen Forschern, haben zum Ziel, die Systeme so zu verbessern, dass sie nicht nur funktional, sondern auch sicher, komfortabel und gesellschaftlich verträglich sind. Dabei ist die Komplexität menschlichen Verhaltens ein zentrales Hindernis: Es existiert kein umfassendes Modell, das alle individuellen und situativen Variablen abbilden könnte. Die Validität von Bewertungen ist daher oft qualitativ und subjektiv.

Die Methodologie solcher Studien ist streng strukturiert. Sie basiert auf einem detaillierten experimentellen Protokoll, das festlegt, wie Versuche („Trials“) und Sessions ablaufen, wie Ruhephasen eingebaut werden und wie Evaluierungen vor, während und nach den Versuchen durchgeführt werden. Diese Protokolle definieren auch Teilnehmerzahl, Altersgruppen und andere demografische Merkmale, um gezielt die zu untersuchenden Effekte erfassen zu können. Kleinere „Fallstudien“ bieten tiefe Einblicke in individuelle Reaktionen, während größere „Kontrollstudien“ durch Vergleich von Experimental- und Kontrollgruppen statistisch aussagekräftige Ergebnisse liefern. Die höchste wissenschaftliche Qualität erreichen „randomisierte kontrollierte Studien“ (RCTs), die eine zufällige Zuteilung der Teilnehmer gewährleisten und so Verzerrungen minimieren.

Wichtig ist, dass menschliche Faktorenforschung nicht nur die technische Nutzbarkeit und die Leistungsfähigkeit misst, sondern auch die Sicherheit der Nutzer berücksichtigt. Simulationserkrankungen, die sich in Übelkeit, Schwindel oder Desorientierung äußern, sind ein gravierendes Problem. Durch systematische Analysen kann erforscht werden, welche Ursachen dahinterstehen und wie Design und Technologie so angepasst werden können, dass diese Effekte minimiert werden. Darüber hinaus werden gesellschaftliche Auswirkungen untersucht, wie die Veränderung von Gruppen- und Individualverhalten durch den Einsatz von VR, sowohl in positiver als auch in negativer Hinsicht.

Die Bedeutung dieser Forschung liegt in ihrem Beitrag zur Gestaltung von VR-Systemen, die den Menschen in den Mittelpunkt stellen, indem sie sowohl physische als auch psychische Bedürfnisse berücksichtigen. Die Herausforderung besteht darin, bei der Vielzahl der beteiligten Parameter valide, reproduzierbare Ergebnisse zu erzielen. Gleichzeitig ist zu erkennen, dass der menschliche Faktor nie völlig objektiv messbar sein wird, sondern immer ein gewisses Maß an Interpretation und Anpassung erfordert.

Neben der Analyse der Nutzerreaktionen und Leistungsdaten ist es essenziell, die sozialen und ethischen Implikationen von VR zu bedenken. Wie beeinflusst die zunehmende Nutzung dieser Technologie das menschliche Miteinander? Welche langfristigen Folgen könnten sich durch Überbeanspruchung oder falsche Anwendung ergeben? Der Einfluss auf die Gesellschaft und die Verantwortung der Entwickler und Anwender sollten daher integraler Bestandteil jeder VR-Forschung und Entwicklung sein.

Eine weiterführende Betrachtung sollte auch die psychologische Dimension der VR-Nutzung umfassen: Wie verändert sich das Selbstbild des Nutzers in virtuellen Welten? Welche Effekte haben immersive Erlebnisse auf das emotionale Befinden und die kognitive Verarbeitung? Neben den rein technischen und ergonomischen Faktoren sind solche Aspekte entscheidend für eine ganzheitliche Bewertung von VR-Systemen.

Wie beeinflussen menschliche Sinne und Tracking-Technologien die Virtual-Reality-Erfahrung?

Die virtuelle Realität (VR) basiert wesentlich auf der Integration vielfältiger menschlicher Sinneswahrnehmungen und hochentwickelter Tracking-Technologien, um eine möglichst immersive und realitätsnahe Erfahrung zu schaffen. Dabei spielen insbesondere die komplexen Mechanismen der menschlichen Sinne, wie das visuelle, auditive, haptische und olfaktorische System, eine zentrale Rolle. Das visuelle System ist hierbei besonders dominant, da es durch stereoskopische 3D-Darstellung und hochauflösende Displays die Illusion von Tiefe und Raum erzeugt. Die Verwendung von High-Definition Multimedia Interface (HDMI) und hochauflösenden Bildschirmen trägt dazu bei, Bildinhalte in höchster Qualität darzustellen, wodurch das visuelle Erleben intensiviert wird. Zusätzlich sorgen Technologien wie holographische Displays und High Dynamic Range (HDR) für eine gesteigerte Wahrnehmung von Kontrast und Farbtiefe.

Die akustische Wahrnehmung nutzt komplexe Modelle der menschlichen Hörverarbeitung, einschließlich interauraler Zeit- und Intensitätsunterschiede, um dreidimensionale Klangfelder zu simulieren. Dadurch wird die Position von Schallquellen im Raum wahrnehmbar, was das Gefühl von Präsenz verstärkt. Besonders wichtig sind hier auch die vertikalen und horizontalen Ebenen der Schalllokalisation, die durch präzise Reproduktion von Azimut- und Elevationshinweisen realisiert werden.

Das haptische System ermöglicht durch den Einsatz von taktilen und kinästhetischen Feedback-Geräten eine realistische Wahrnehmung von Berührungen, Kräften und Gewichten. Dies erfordert ein tiefgehendes Verständnis der menschlichen Sensitivität für Druck, Vibration, Temperatur und Bewegungen, um die Interaktion mit virtuellen Objekten möglichst natürlich erscheinen zu lassen. Hierbei kommen spezialisierte Sensoren und Aktuatoren zum Einsatz, die auf die Feinheiten der menschlichen Finger- und Handbewegungen abgestimmt sind.

Essentiell für die Steuerung und das Tracking in VR sind hybride Tracking-Systeme, die inertiale Sensoren mit optischen Trackern kombinieren. Diese Systeme ermöglichen es, Bewegungen mit hoher Präzision und geringer Latenz zu erfassen. Die Genauigkeit der Positions- und Orientierungsdaten ist entscheidend für die Synchronität zwischen realen Bewegungen und virtuellen Reaktionen. Insbesondere die HTC-VIVE-Technologie und ähnliche Geräte setzen auf eine Kombination von Basisstationen, Kameras und Inertialsensoren, um die Bewegungen des Nutzers in sechs Freiheitsgraden (6-DOF) zu erfassen.

Darüber hinaus ist die menschliche Sensorik in der Lage, selbst kleinste Abweichungen und Verzögerungen wahrzunehmen, was die Anforderungen an die Hardware und Software drastisch erhöht. Latenzen müssen minimal gehalten werden, um Übelkeit und Desorientierung zu vermeiden. Auch Störeinflüsse wie magnetische Interferenzen oder optische Reflexionen können das Tracking beeinträchtigen und damit die Immersion reduzieren.

Die Einbindung olfaktorischer Reize durch Duftsimulation erweitert das sensorische Spektrum der VR und ermöglicht eine noch intensivere und ganzheitlichere Erlebniswelt. Dies ist besonders relevant in Anwendungen wie Therapie, Ausbildung oder Simulationen, wo multisensorische Integration die Wirksamkeit der Erfahrung erhöht.

Für den Nutzer ist das Verständnis dieser komplexen Zusammenhänge entscheidend, um die Grenzen und Möglichkeiten moderner VR-Systeme zu erkennen. Nicht nur die technische Ausstattung, sondern auch die physiologischen und psychologischen Grundlagen menschlicher Wahrnehmung bestimmen maßgeblich die Qualität der Virtual-Reality-Erfahrung. Die Berücksichtigung menschlicher Faktoren, wie ergonomische Gestaltung, Vermeidung von Sensorik-Überlastung und Anpassung an individuelle Unterschiede, ist dabei unerlässlich.

Ebenso wichtig ist die Bedeutung von präzisen Kalibrierungsprozessen und Validierungen in human-subject-Tests, um die Interaktion von Menschen mit VR-Systemen wissenschaftlich fundiert zu optimieren. Nur durch eine enge Verzahnung von Technik, Wahrnehmungspsychologie und Nutzerstudien lässt sich eine nachhaltige Immersion erreichen, die sowohl realitätsnah als auch komfortabel ist.

Das Zusammenspiel dieser Technologien und menschlichen Faktoren eröffnet nicht nur neue Möglichkeiten in der Unterhaltungsindustrie, sondern auch in der Medizin, im Training, in der Rehabilitation und in der Forschung. Die Fortschritte im Bereich der Sensorik, Tracking-Algorithmen und multisensorischen Integration sind daher von fundamentaler Bedeutung für die zukünftige Entwicklung immersiver Anwendungen.

Wie moderne Tracking-Systeme in VR-Umgebungen präzise Bewegungen erfassen

Das IS‐1500 Tracking-System stellt eine bemerkenswerte technologische Entwicklung im Bereich der Virtual Reality (VR) dar und ermöglicht präzise Bewegungs- und Positionsverfolgung. Dieses System verwendet eine Kombination aus Inertialsensoren und Visionstechnologie, die in zwei Hauptmodi arbeitet: dem fiduziellen Tracking und dem nativen Tracking ohne Marker. Der InertiaCam Tracker, der für die Erfassung der Bewegungsdaten verantwortlich ist, ist mit seinen kompakten Abmessungen von nur 65 mm × 20 mm × 20 mm und einem Gewicht von nur 36 g besonders handlich und für den Einsatz in verschiedenen VR-Anwendungen geeignet. Im Gegensatz zum Quest 2, bei dem die Tracker-Daten intern verarbeitet werden, werden die Daten des InertiaCam an einen Host-Computer übertragen, der die Verarbeitung übernimmt. Diese Kommunikation erfolgt über einen USB-C-Anschluss, wodurch die Mobilität des Nutzers etwas eingeschränkt ist.

Die erste Softwarekomponente des Trackers empfängt die Rohdaten, und die verarbeiteten Datenpakete werden entweder an eine zweite Softwarekomponente weitergegeben, die eine tiefergehende Nutzung ermöglicht, oder an die IS‐1500 Tracking-Bibliothek, die eine Integration mit einem Unity-Plugin zur Nutzung in VR-Simulationen ermöglicht. Der Host-Computer, der diese Daten verarbeitet, enthält außerdem eine Komponente für die Entwicklung, Diagnostik, die Initialisierung und die Anzeige des Live-Kamerabildes des InertiaCam.

Das System nutzt zwei Tracking-Modi: den nativen Tracking-Modus ohne Marker und den Modus mit fiduziellen Markern. Im ersten Modus wird die Umgebung des Nutzers durch die Kamera des InertiaCam überwacht, wobei auffällige Merkmale wie Kanten oder kontrastreiche Elemente erkannt und zur Bestimmung der Position und Bewegung des Objekts genutzt werden. Jeder erfasste Bildbereich wird mit einer eindeutigen ID versehen, wobei der Fokus auf unbeweglichen Punkten liegt. Diese Technik ermöglicht eine genaue Verfolgung der Bewegung des Objekts, auch bei stark wechselnden Perspektiven oder dynamischen Umgebungen. Durch die Berechnung der Parallaxe – einer Verschiebung des Patchs aufgrund der Kamerabewegung – können die Bewegungen präzise nachverfolgt werden, was die Genauigkeit erheblich steigert.

Fehler im nativen Tracking-Modus treten vor allem dann auf, wenn die Entfernung zu den verfolgten Punkten groß wird, da es immer schwieriger wird, die Positionsänderungen exakt zu messen. In solchen Fällen kann die Genauigkeit des Trackings durch eine Kalibrierung des NavChip verbessert werden. Dieser Chip, der die Bewegungsdaten des Trackers liefert, benötigt eine Kalibrierung, bei der das Gerät in drei bekannten Positionen ausgerichtet und dann zur Berechnung der Verzerrung der Rohdaten eingesetzt wird. Diese Kalibrierung ermöglicht es, Fehler im Tracking durch den Einsatz eines Kalman-Filters zu korrigieren, der die Daten kontinuierlich verfeinert.

Wenn das nativen Tracking nicht genug Genauigkeit liefert, kommen fiduzielle Marker zum Einsatz. Diese Marker, die auf einem speziellen Poster platziert werden, ermöglichen eine präzise Lokalisierung des Objekts durch die Erkennung von Mustern aus schwarzen und weißen Zonen. Die Marker fungieren als vorbestimmte Referenzpunkte, was die Tracking-Genauigkeit verbessert. Die Bildverarbeitungseinheit erkennt das spezifische Muster und weist ihm eine einzigartige ID zu. Mindestens vier fiduzielle Marker müssen im Blickfeld des Trackers liegen, um eine stabile optische Verbindung zu gewährleisten. Dieser Ansatz sorgt für eine höhere Genauigkeit, insbesondere bei komplexeren Szenarien.

Das Tracking-System des IS‐1500 kombiniert visuelle Daten mit den inertialen Daten des NavChip, der Bewegungsdaten von Gyroskopen und Beschleunigungsmessern liefert. Diese Daten werden durch eine Integration der Rohdaten in einem Extended Kalman Filter (EKF) weiter verarbeitet. Die Integration erfolgt 200-mal pro Sekunde, was eine sehr niedrige Latenz von nur 10 bis 50 Millisekunden ermöglicht – ein wichtiger Faktor für Echtzeitanwendungen in VR-Umgebungen. Der Kalman-Filter wird genutzt, um die Drift der Positionsdaten zu schätzen und die Integration regelmäßig zu korrigieren, um eine präzise Verfolgung zu gewährleisten.

Im Fall von Fiducial-Marker-Tracking kann das System eine Position mit einer Genauigkeit von nur 2 mm ermitteln, bei einer Roll- und Nick-Genauigkeit von nur 0,25° bei minimaler Drift. Ohne Marker ist das System ebenfalls in der Lage, die Bewegung zu verfolgen, aber es gibt eine Drift von etwa 1% der zurückgelegten Distanz. Bei Yaw (Drehung entlang der Z-Achse) wird die Drift mit 0,7° pro Minute angegeben.

Für Anwendungen, die ein Tracking auf sehr großen Flächen erfordern, wird häufig auf GPS-Technologie zurückgegriffen. Dieses System nutzt Satelliten im mittleren Orbit und wird typischerweise für die Navigation auf der Erdoberfläche sowie in Bereichen wie Bauwesen und Verteidigung eingesetzt. Die GPS-Signale, die von den Satelliten ausgesendet werden, werden von Empfängern auf den zu verfolgenden Objekten empfangen, die die Laufzeit der Signale messen, um ihre Position zu bestimmen. Eine präzise Bestimmung erfordert die Messung der Entfernungen von mindestens vier Satelliten, wobei die GPS-Technologie jedoch vor allem in offenen, ungehinderten Bereichen funktioniert und in städtischen Umgebungen oder geschlossenen Räumen, wo hohe Gebäude oder Hindernisse die Satellitensignale blockieren können, Einschränkungen aufweist.

Die Miniaturisierung von GPS-Empfängern hat die Entwicklung tragbarer Geräte ermöglicht, die in der Lage sind, eine Position in Echtzeit zu bestimmen, was für personalisierte Tracking-Systeme erforderlich ist. Solche Geräte wie der LK 106 GPS-Tracker wiegen nur etwa 40 bis 50 g und sind klein genug, um getragen zu werden. Obwohl diese Geräte für das Tracking von Personen geeignet sind, bleibt die Genauigkeit in städtischen oder bewaldeten Gebieten aufgrund von Signalblockaden weiterhin ein Problem.

Wie die Gestaltung von HMDs die Benutzererfahrung beeinflusst: Faktoren wie FOV, IPD und Augenabstand

Die Gestaltung von Head-Mounted Displays (HMDs) hat einen erheblichen Einfluss auf die Benutzererfahrung. Dabei sind verschiedene Parameter wie der horizontale Blickwinkel (FOV), der interpupilläre Abstand (IPD) und der Augenabstand (deye) von entscheidender Bedeutung. Insbesondere der horizontale FOV ist ein wesentlicher Faktor, der die wahrgenommene Immersion und den Komfort während der Nutzung beeinflusst.

Der horizontale FOV eines HMDs hängt direkt vom IPD des Nutzers ab. IPD beschreibt den Abstand zwischen den Pupillen der Augen eines Nutzers. Diese Messgröße ist bei jedem Individuum unterschiedlich, was bedeutet, dass die Wahrnehmung des visuellen Raums in einem HMD je nach IPD variiert. Interessanterweise gilt: Je kleiner der IPD, desto größer erscheint der FOV für den Nutzer. Das bedeutet, dass Personen mit einem kleineren IPD ein breiteres Sichtfeld wahrnehmen als Nutzer mit einem größeren IPD, selbst wenn beide dasselbe HMD verwenden und dasselbe Szenario betrachten.

Neben dem IPD spielt der Augenabstand eine bedeutende Rolle. Der Augenabstand (deye), der den Abstand von den Augen zum Objektiv des HMD beschreibt, beeinflusst ebenfalls den FOV. HMD-Designs, die den Augenabstand verringern, können den wahrgenommenen horizontalen FOV vergrößern. Allerdings hat dieser Vorteil auch seine Schattenseiten, da eine Verringerung des Augenabstands zu einer Erhöhung der Augenbelastung führen kann, insbesondere bei längerer Nutzung. Diese erhöhte Belastung kann durch die Notwendigkeit, das HMD an verschiedene Augenabstände anzupassen, verstärkt werden, insbesondere für Brillenträger. Im Fall des Oculus Quest 2 zum Beispiel gibt es spezielle Spacer, die den Augenabstand für Nutzer mit Brillen anpassen, was zu einer zusätzlichen Erhöhung des Augenabstands führt.

Ein weiteres bemerkenswertes Beispiel für die Anpassung des HMD-Designs ist das VR Cover für das Quest 2, das eine Schaumstoffersatzplatte für das Gesicht des Nutzers enthält. Diese Anpassung bietet zwei verschiedene Schaumstoffdicken – eine dickere für den Komfort und eine dünnere, die den FOV vergrößert. Zusätzlich wird die Gefahr verringert, dass direktes Sonnenlicht in das HMD gelangt und die empfindliche Elektronik beschädigt. Eine ähnliche Verbesserung wird durch eine Silikonabdeckung für den Nasenbereich erreicht, die verhindert, dass umgebendes Licht in das HMD eindringt und den Nutzer ablenkt.

Neben diesen Verbesserungen bezüglich des Designs und des Benutzerkomforts haben verschiedene HMD-Modelle unterschiedliche Technologien zur Verbesserung des Benutzererlebnisses. Ein Beispiel hierfür ist das HTC VIVE Focus 3, das eine aktive Luftzirkulation zur Verbesserung des Komforts bietet. Diese Luftzirkulation reduziert nicht nur Feuchtigkeit im Inneren des HMDs, sondern sorgt auch dafür, dass sich die Wärme des Prozessors nicht staut, was besonders bei längeren Nutzungssitzungen von Vorteil ist. Im Vergleich zum Quest 2, das eine Frontlastigkeit aufweist, verteilt das Design des Focus 3 das Gewicht gleichmäßig auf den Kopf des Nutzers, was eine weniger ermüdende Nutzung ermöglicht.

Ein weiteres bemerkenswertes Modell ist das Pimax Vision 8K X, das aufgrund seines breiten Gehäuses und der großen Displays einen sehr hohen horizontalen FOV von bis zu 200° bietet. Diese bemerkenswerte Weite des Sichtfeldes erfordert jedoch eine leistungsstarke PC-Hardware, um die hohe Auflösung von 3840 × 2160 Pixeln pro Auge darzustellen. Die Pimax Vision 8K X bietet mehrere FOV-Einstellungen, um sie an verschiedene Grafikkarten und Leistungsstufen anzupassen. Diese Flexibilität ist besonders wichtig, um sicherzustellen, dass das HMD auch bei weniger leistungsfähigen PCs funktionsfähig bleibt, was für viele Nutzer von entscheidender Bedeutung ist. Doch selbst mit diesen Anpassungen hat das Vision 8K X seine Herausforderungen. Durch die Größe des HMDs und das hohe Gewicht (998g) wird das Gerät bei schnellen Kopfbewegungen weniger angenehm zu tragen, was insbesondere bei der Nutzung von omnidirektionalen Interfaces wie dem Omni One problematisch sein kann.

Insgesamt zeigen diese Beispiele, wie entscheidend die Anpassungsfähigkeit von HMDs an die Bedürfnisse des Nutzers ist. Es wird deutlich, dass die Gestaltung von Head-Mounted Displays nicht nur von technologischen Aspekten wie Auflösung und Prozessorleistung abhängt, sondern auch von ergonomischen Faktoren wie dem Augenabstand, dem IPD und der Verteilung des Gewichts. All diese Faktoren müssen bei der Entwicklung von HMDs sorgfältig berücksichtigt werden, um eine möglichst komfortable und immersive Erfahrung zu gewährleisten.

Um die Benutzererfahrung weiter zu verbessern, sind Entwicklungen in der Technologie des eye-tracking und dynamischen Renderings von Bedeutung. Das Pimax Vision 8K X beispielsweise nutzt optional ein Eye-Tracking-Modul, das die Darstellung an die aktuelle Blickrichtung des Nutzers anpasst. Diese Technologie erlaubt es, die Leistung der Hardware zu optimieren, indem nur die Bereiche des Bildschirms mit der höchsten Detailgenauigkeit gerendert werden, was die allgemeine Performance verbessert und die Hardwareanforderungen senkt.