In der virtuellen Realität (VR) sind haptische Schnittstellen von entscheidender Bedeutung, um Benutzern ein realistisches und immersives Erlebnis zu bieten. Haptische Texturen spielen eine wesentliche Rolle dabei, wie wir virtuelle Objekte und Oberflächen wahrnehmen. Diese Texturen ermöglichen es uns, die physikalischen Eigenschaften von Oberflächen wie Rauheit, Glätte, Härte oder Flexibilität zu spüren, obwohl sie in der realen Welt nicht vorhanden sind.
Haptische Texturen lassen sich grundsätzlich in zwei Kategorien unterteilen: solche, die von tragbaren (wearable) und nicht tragbaren (non-wearable) Geräten erzeugt werden. Tragbare haptische Schnittstellen, wie z. B. Handschuhe oder Anzüge, ermöglichen eine direkte Interaktion mit der virtuellen Welt, indem sie Vibrationen, Widerstand oder Druck auf den Benutzer ausüben. Diese Geräte bieten eine präzise und oft komplexe Rückmeldung zu den Texturen der Objekte, mit denen der Benutzer interagiert. Die Unterschiede zwischen verschiedenen tragbaren haptischen Schnittstellen bestehen in der Art und Weise, wie sie verschiedene haptische Wahrnehmungen erzeugen, sowie in der Genauigkeit der Rückmeldungen, die sie bieten.
Nicht tragbare haptische Schnittstellen, wie z. B. externe Force-Feedback-Geräte oder Simulationsplattformen, erzeugen haptische Rückmeldungen ohne direkten Kontakt mit dem Benutzer. Diese Geräte nutzen oft mechanische Aktuatoren, die durch das physikalische Umfeld, in dem sie betrieben werden, die Textur wahrnehmbar machen. Der Hauptunterschied zwischen tragbaren und nicht tragbaren Schnittstellen liegt in der Art der Interaktion – tragbare Geräte ermöglichen eine sehr individuelle und präzise haptische Rückmeldung, während nicht tragbare Systeme eher allgemeine Rückmeldungen bieten, die das virtuelle Erlebnis nur indirekt beeinflussen.
Im Hinblick auf die Simulation von virtuellen Menschen, auch als "virtuelle Agenten" bezeichnet, stellt sich die Frage nach deren Verhalten und der entsprechenden Modellierung. Ein virtueller Agent wird in VR verwendet, um menschenähnliche Interaktionen zu erzeugen, sei es für Spiele, Simulationen oder Trainingsanwendungen. Das Verhalten eines solchen Agenten wird durch ein Modell definiert, das sowohl seine physischen Bewegungen als auch seine Reaktionen auf die Umwelt steuert. Das Level of Autonomy (LOA) eines virtuellen Agenten beschreibt, wie unabhängig er agieren kann, ohne dass der Benutzer eingreifen muss. Ein Agent mit hoher Autonomie kann eigenständig auf Eingaben reagieren, während ein Agent mit niedriger Autonomie stark auf Benutzerinteraktionen angewiesen ist.
Ein Beispiel für einen solchen Agenten könnte in einer erweiterten Realität (AR)-Umgebung vorkommen, etwa bei einem Schachspiel, bei dem der Agent als intelligenter Gegner fungiert. Die Integration eines intelligenten Agenten in ein solches AR-Szenario erfordert fortschrittliche Algorithmen zur Entscheidungsfindung und Echtzeit-Interaktion. Der Agent muss in der Lage sein, auf die Bewegungen des Spielers zu reagieren und passende Züge vorzuschlagen oder auszuführen, ohne dass der Benutzer auf externe Hilfsmittel angewiesen ist.
Die Simulation von Menschenmengen in VR stellt eine weitere Herausforderung dar. Hierbei werden Algorithmen verwendet, um das Verhalten von Menschen in einer virtuellen Umgebung zu modellieren. Dies kann die Bewegung und Interaktion von Tausenden von virtuellen Personen umfassen, die sich natürlich und realistisch verhalten sollen. Ein wichtiger Aspekt dieser Simulation ist die Berücksichtigung von Kollisionen und der sozialen Dynamik, die in einer echten Menschenmenge vorhanden sind. Techniken wie Crowdsimulation und agentenbasierte Modellierung werden verwendet, um das Verhalten und die Bewegungen der virtuellen Individuen zu koordinieren und zu steuern.
Foveated Rendering ist eine Technik, die die Renderleistung in VR-Anwendungen optimiert, indem sie nur den Bereich des Bildschirms mit der höchsten Detailgenauigkeit rendert, auf den der Benutzer fokussiert. Diese Technik ist besonders bei Head-Mounted Displays (HMDs) nützlich, da sie die Hardware-Ressourcen effizienter nutzt und die Framerate optimiert. Sie hat jedoch keinen direkten Einfluss auf das Modellmanagement, das darauf abzielt, die Komplexität und die Ressourcennutzung von 3D-Modellen zu steuern. Model Management ist ein wichtiger Bestandteil von VR-Entwicklungen, insbesondere bei der Anwendung von Raytracing. Raytracing ermöglicht realistische Licht- und Schatteneffekte, stellt jedoch eine enorme Belastung für die Rechenleistung dar. Auf All-in-One-HMDs ist Raytracing aufgrund der begrenzten Hardwarekapazitäten oft nicht möglich, was die Notwendigkeit für effizientes Modellmanagement und Rendering-Techniken wie Foveated Rendering unterstreicht.
Die Modellsegmentation hat einen direkten Einfluss auf die Rendergeschwindigkeit in VR. Durch die Unterteilung von 3D-Modellen in kleinere, besser handhabbare Segmente kann die Renderleistung optimiert und das Ziel einer konstanten Framerate erreicht werden. Methoden wie die Verwendung von Bounding Volume Hierarchies (BVH) und octree-basierter Segmentierung ermöglichen es, die Komplexität großer Modelle zu reduzieren und die Rendering-Geschwindigkeit zu steigern.
In Bezug auf VR-Architekturdurchgänge, bei denen oft sehr große Modelle verwendet werden, können "Page Faults" auftreten. Diese entstehen, wenn Teile eines Modells, die nicht im Arbeitsspeicher sind, nachgeladen werden müssen. Eine effiziente Modellverwaltung kann helfen, diese Fehler zu minimieren, indem nur relevante Teile des Modells zur richtigen Zeit geladen werden, um eine kontinuierliche und flüssige Erfahrung zu gewährleisten.
Schließlich ist die Segmentierung von Modellen auf zellbasierte Strukturen ein weiterer Ansatz zur Verbesserung der Rendering-Leistung. Bei der zellbasierten Segmentierung werden Modelle in einzelne Zellen unterteilt, die unabhängig voneinander gerendert werden können. Dies reduziert die Gesamtkomplexität des Modells und ermöglicht eine schnellere Verarbeitung. Der BW-Algorithmus (Breadth-First Search) und der BSP-Algorithmus (Binary Space Partitioning) sind zwei gängige Methoden zur Modellsegmentation. Der BW-Algorithmus ist in einigen Fällen überlegen, insbesondere wenn es darum geht, Modelle schnell zu durchsuchen und effizient zu rendern. Dennoch gibt es Situationen, in denen der BSP-Algorithmus aufgrund seiner besseren Handhabung komplexer Geometrien bevorzugt wird.
Welche gesundheitlichen und psychologischen Auswirkungen von Virtual Environments auf Nutzer müssen berücksichtigt werden?
Virtuelle Umgebungen (VEs) bieten eine Vielzahl von Interaktionsmöglichkeiten, doch mit diesen Möglichkeiten sind auch potenzielle gesundheitliche und psychologische Risiken verbunden, die nicht unbeachtet bleiben sollten. Besonders die Auswirkungen auf den physischen und mentalen Zustand des Nutzers bei der Nutzung von Virtual-Reality-Technologien (VR) sind komplex und vielseitig. Neben den offensichtlichen direkten Auswirkungen auf das Hören, den Bewegungsapparat oder die Haut können auch subtilere, indirekte Effekte wie die sogenannte Cybersickness auftreten, die durch die Wahrnehmung von sensorischen Konflikten ausgelöst wird. Es ist unerlässlich, diese Risiken zu verstehen, um eine sichere Nutzung von Virtual-Reality-Technologien zu gewährleisten.
Eine der größten Gefahren bei der Nutzung von VR-Umgebungen stellt die übermäßige Lärmbelastung dar. Besonders Simulationen, bei denen hohe Lautstärken mit schnellen Bewegungen oder plötzlichen Geräuschen kombiniert werden, können die Hörgesundheit gefährden. Die US-amerikanische Arbeitsschutzbehörde OSHA empfiehlt, dass Menschen Geräuschen mit 115 dB nur für maximal 15 Minuten pro Tag ausgesetzt sein sollten. Wird die Lautstärke auf 105 dB reduziert, kann die Expositionszeit auf bis zu eine Stunde ausgedehnt werden, und bei 85 dB sind bis zu 8 Stunden zulässig. Wird diese Grenze überschritten, können die Nervenenden im Innenohr geschädigt werden, was zu dauerhaftem Hörverlust führt. In VR-Simulationen mit 3D-Soundquellen kann die wahrgenommene Lautstärke je nach Position des Nutzers variieren. Nähert sich der Nutzer einer sehr lauten Quelle zu sehr, kann dies zu einer Überschreitung der empfohlenen Lautstärkengrenzen führen und das Gehör schädigen. Ebenso gefährlich ist es, wenn der Nutzer in einer stationären Position verharrt, während sich die laute Quelle um ihn herum bewegt, wie es bei Militärtrainings simuliert wird, in denen virtuelle Flugzeuge über den Nutzer hinwegfliegen.
Der muskuläre Bewegungsapparat des Nutzers ist ebenfalls gefährdet, insbesondere bei der Verwendung haptischer Schnittstellen, die hohe Kräfte auf den Körper ausüben können. Hierzu gehören Geräte wie Feedback-Handschuhe, die die Finger zurückziehen, oder Plattformen, die die Fußgelenke über normale Drehwinkel hinaus bewegen. Diese Gefahren können zu Sehnenscheidenentzündungen, Muskelverspannungen und anderen orthopädischen Problemen führen. Bereits normale Bewegungsabläufe können zu Überlastungsschäden führen, wie sie beispielsweise bei der wiederholten Verwendung von Gamecontrollern auftreten. So wurde gezeigt, dass die wiederholte Bewegung von Arm und Daumen bei Konsolen wie der Wii oder PlayStation zu akuten Entzündungen und Schmerzen führt. Bei der Nutzung von VR-Controllern wie dem Quest 2 können ähnliche Beschwerden auftreten, wobei besonders die Daumen und Handgelenke betroffen sind.
Ein weiteres Risiko stellt die gemeinsame Nutzung von VR-Schnittstellen dar, wie sie häufig in Forschungseinrichtungen, auf Messen oder in klinischen Anwendungen vorkommt. Geräte wie HMDs und VR-Handschuhe, die von mehreren Nutzern getragen werden, können ein hohes Risiko für Hauterkrankungen bergen, wenn sie nicht richtig desinfiziert werden. Insbesondere der Kontakt mit bakteriellen und viralen Erregern auf porösen Materialien birgt Gesundheitsgefahren. Um dieses Risiko zu minimieren, können Einweg-Handschuhe getragen und Gummibezüge für Gamecontroller verwendet werden. Alternativ können Schnittstellen so gestaltet werden, dass keine porösen Materialien verwendet werden, die Bakterien und Viren beherbergen können. Auch chemische Reaktionen auf bestimmte Düfte, die in olfaktorischen Feedbacksystemen verwendet werden, können Hautreizungen oder allergische Reaktionen hervorrufen. Dies ist insbesondere für Nutzer mit Asthma problematisch, da irritierende Substanzen die Atmung negativ beeinflussen können.
Abgesehen von den direkten physischen Auswirkungen kann die Nutzung von virtuellen Umgebungen auch indirekte gesundheitliche Folgen haben. Eine der bedeutendsten dieser indirekten Effekte ist die sogenannte Cybersickness, die auch als „Simulationserkrankung“ bezeichnet wird. Diese tritt auf, wenn die Wahrnehmung von Bewegungen und die tatsächliche Bewegung des Körpers im realen Raum nicht übereinstimmen, was zu Übelkeit, Schwindel und anderen unangenehmen Symptomen führen kann. Bei der Nutzung moderner VR-Technologien, trotz verbesserter Auflösung, breiterer Sichtfelder und schnellerer Tracker, bleibt die Cybersickness nach wie vor ein Problem, wenn auch in reduzierter Häufigkeit. Die Symptome sind von Person zu Person unterschiedlich und können von Augenbelastung über Schwindel bis hin zu Erbrechen reichen. Studien haben gezeigt, dass die ersten Generationen von VR-Geräten mit einer viel höheren Inzidenz von Cybersickness verbunden waren, aber auch moderne Geräte sind nicht vollkommen frei von diesem Problem. Interessanterweise kann Cybersickness auch bei der Nutzung von weniger immersiven Technologien wie semi-immersiven CAVE-Systemen oder nicht immersiven Monodisplays auftreten.
Der Ursprung der Cybersickness liegt in einem sensorischen Konflikt, der durch die Diskrepanz zwischen den visuellen, vestibulären (Gleichgewichtssinn) und propriozeptiven (Körperwahrnehmung) Signalen entsteht. Diese sensorischen Informationen werden vom zentralen Nervensystem verarbeitet, und wenn sie widersprüchlich sind, können unangenehme Symptome auftreten. Ein klassisches Beispiel für einen solchen Konflikt tritt bei der Navigation innerhalb einer VR-Umgebung auf. Wird die Kopfbewegung in der realen Welt nicht durch eine entsprechende Bewegung im virtuellen Raum begleitet, kommt es zu einer Fehlanpassung der sensorischen Signale, die zu Cybersickness führen kann. In einem Flugzeugsimulator ohne Bewegungsplattform wird nur visuelles Feedback bereitgestellt, während das Gleichgewichtssystem des Körpers keine entsprechende Reaktion erfährt, was zu einem sensorischen Konflikt führen kann.
Zusätzlich zu den oben genannten physischen und psychologischen Auswirkungen auf die Nutzer gibt es weitere Aspekte, die berücksichtigt werden müssen. Der Einsatz von VR in intensiven Trainingsumgebungen, insbesondere in militärischen oder medizinischen Szenarien, kann zu langanhaltenden physischen und psychischen Belastungen führen, die sich negativ auf die Gesundheit auswirken können. In solchen Fällen müssen präventive Maßnahmen getroffen werden, um die Risiken zu minimieren und die Gesundheit der Nutzer zu schützen.
Wie das haptische Feedback durch Temperatur und Vibration die virtuelle Realität bereichert
Die Entwicklung von haptischen Feedback-Technologien ist ein entscheidender Schritt zur Verbesserung der virtuellen Realität (VR), da sie den Nutzer direkt in die virtuelle Umgebung eintauchen lässt. Eine der fortschrittlichsten Entwicklungen in diesem Bereich ist der TactSuit X, ein Ganzkörper-Haptikanzug, der eine präzise, vibrotaktile Rückmeldung über 70 Aktuatoren auf dem Körper des Nutzers liefert. Diese Aktuatoren, die kleine Gleichstrommotoren mit einem versetzten Gewicht an der Welle sind, erzeugen Vibrationen, die dem Nutzer ein realistisches Feedback zu Interaktionen in der virtuellen Welt bieten. Sie können beispielsweise eindeutig feststellen, ob ein Treffer von der linken oder rechten Seite des Rückens kommt, eine Information, die durch visuelles Feedback allein nicht erfasst werden kann.
Die Aktuatoren sind gleichmäßig auf der Vorder- und Rückseite des Anzugs verteilt, was eine präzise Lokalisierung der Interaktionen ermöglicht. Diese Technologie wird über eine wiederaufladbare Lithiumbatterie betrieben, die etwa 18 Stunden Simulation bei voller Ladung ermöglicht. Der Anzug wiegt mit den 40 Aktuatoren und den anderen Materialien etwa 1,7 kg und bietet gleichzeitig durch verstellbare Gurte und abnehmbare Innenpolster Komfort und Hygiene. Die Kommunikation mit dem Host-Computer erfolgt drahtlos über Bluetooth 4.0 LE. Für die Positionserfassung von Händen und Füßen werden HTC-Tracker genutzt, und auch die Interfaces für Hände und Füße verfügen über eigene Steuerungen und Kommunikationssysteme.
Besonders bemerkenswert ist der "TactVisor", eine weitere Erweiterung des TactSuit X. Dieser ist ein Gesichtsschutz, der an ein Head-Mounted Display (HMD) wie das Oculus Quest 2 angebracht wird. Der TactVisor enthält kleine Aktuatoren, die um die Stirn angeordnet sind und dem Nutzer Rückmeldungen geben, wenn der Avatar im Spiel einen Treffer am Kopf erleidet. Dies bietet ein zusätzliches Maß an Immersion, da es eine weitere wichtige Art von haptischem Feedback – das Feedback für den Kopf – in die virtuelle Erfahrung einbringt.
Allerdings ist der TactVisor nicht ohne seine Herausforderungen. Die zusätzliche Masse von 63 Gramm erhöht das Gewicht des HMD um etwa 14 %, was sich bei längeren Sitzungen durch Nackenbeschwerden bemerkbar machen kann. Aus ergonomischer Sicht sind HMDs wie das Meta Quest Pro besser geeignet, um mit dem TactVisor kombiniert zu werden, da diese Geräte insgesamt komfortabler und besser ausbalanciert sind.
Neben der vibrotaktilen Rückmeldung spielt auch das Temperatur-Feedback eine zunehmend wichtige Rolle in der VR. Wenn wir ein echtes Objekt anfassen, nehmen wir neben der Textur und der Form auch die Temperatur wahr, die uns Informationen über das Material liefert, selbst ohne visuelle Hinweise. Zum Beispiel fühlt sich Stahl kühl an, weil er eine hohe Wärmeleitfähigkeit besitzt und Wärme schnell von unseren Fingern in das Material überträgt, während Materialien wie Holz warm wirken, da die Wärmeübertragung langsamer ist. In der virtuellen Realität kann dieses physische Phänomen durch die Integration von Temperaturfeedback simuliert werden, was das virtuelle Erlebnis realistischer macht.
Einige der fortschrittlichsten Geräte, die diese Art von Feedback bieten, basieren auf thermischen Aktuatoren, die den Peltier-Effekt nutzen. Dieser Effekt entsteht, wenn zwei verschiedene Materialien miteinander in Kontakt kommen und eine Spannung an ihnen anliegt, was zu einem Temperaturunterschied führt. Ein Peltier-Element hat zwei Platten, von denen eine als Wärmequelle fungiert und die andere als Wärmesenke. Indem man den elektrischen Strom reguliert, kann der Temperaturunterschied zwischen den beiden Platten verändert werden, was eine präzise Steuerung der gefühlten Temperatur ermöglicht. In der VR-Umgebung könnte ein solches Gerät eine realistische Wärme- oder Kälterückmeldung an die Hand oder den Kopf des Nutzers geben, was besonders nützlich ist, wenn der Nutzer durch sehr kalte oder heiße virtuelle Welten navigiert.
Thermoelektrische Wärmepumpen, die diesen Peltier-Effekt nutzen, bieten mehrere Vorteile für VR-Anwendungen. Sie sind kompakt, schnell und ermöglichen es, die Temperatur schnell zu ändern. Die Kombination mehrerer solcher Wärmepumpen in einem Array kann größere Kontaktflächen abdecken und komplexere Oberflächenformen schaffen, was das haptische Erlebnis noch weiter bereichert. Ein frühes Beispiel für die Anwendung dieser Technologie war das "Displaced Temperature Sensing System" (DTSS), das Thermode-Elemente verwendete, um die Temperatur der Fingerkuppe in Echtzeit zu messen und mit einem Zielwert abzugleichen.
Neben den technischen Aspekten ist es auch wichtig, die physische Reaktion des menschlichen Körpers auf diese Arten von haptischem Feedback zu berücksichtigen. Während die meisten VR-Technologien darauf abzielen, den visuellen und akustischen Eindruck zu optimieren, bleibt der menschliche Körper immer noch stark von physischem Feedback abhängig, um die virtuelle Welt zu verstehen und zu erleben. Dies bedeutet, dass die richtige Abstimmung der Intensität und Art des Feedbacks entscheidend ist, um ein realistisches Erlebnis zu schaffen, ohne den Nutzer zu überfordern oder zu desorientieren.
Neben den spezifischen Technologien, die in modernen Haptiksystemen verwendet werden, ist es auch wichtig, das Zusammenspiel zwischen der Wahrnehmung und der Reaktion des Körpers zu verstehen. Die Integration von Temperatur- und Vibrationseffekten in einer VR-Umgebung fördert nicht nur die Immersion, sondern kann auch die Benutzererfahrung in Spielen und Simulationen erheblich steigern. Die kontinuierliche Entwicklung dieser Technologien wird es den Nutzern ermöglichen, in noch realistischere virtuelle Welten einzutauchen, die über einfache visuelle und auditive Reize hinausgehen.
Wie die Kinematik die Position von 3D-Objekten in virtuellen Welten beeinflusst
Die Modellierung von Kinematik ist ein wesentlicher Bestandteil der Erstellung virtueller Welten und wird nach der Festlegung der Objektform und -erscheinung vorgenommen. Sie bestimmt die Position und Bewegung von 3D-Objekten in Bezug auf ein Weltkoordinatensystem und ermöglicht es, die Dynamik von Objekten innerhalb der virtuellen Realität zu simulieren. Die kinematische Modellierung basiert auf hierarchischen Eltern-Kind-Beziehungen, bei denen die Bewegung eines übergeordneten Objekts die Bewegung seiner untergeordneten Objekte beeinflusst. Ein weiterer wichtiger Aspekt der Kinematikmodellierung ist die Betrachtungsweise der Welt, insbesondere die Bewegung einer virtuellen Kamera, die als Werkzeug dient, um eine visuelle Rückmeldung an den Benutzer zu geben. Letztlich wird das Bild der Kamera transformiert und auf das 2D-Display projiziert.
Homogene Transformationsmatrizen
Denavit und Hartenberg (1955), Fu et al. (1987) und später Foley et al. (1994) wählten 4x4 homogene Transformationsmatrizen zur Darstellung von Objektverschiebungen, -drehungen und -skalierungen. Eine homogene Transformationsmatrix lässt sich mit der folgenden allgemeinen Formel darstellen:

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский