In der Welt der 3D-Simulationen ist der Szenengraph eine grundlegende Struktur, die das gesamte Objektmanagement einer virtuellen Umgebung organisiert. Der Vizard-Szenengraph, speziell, ist in verschiedene Knotenarten unterteilt, die jeweils spezifische Funktionen und Eigenschaften besitzen. Einige dieser Knoten haben sichtbare Geometrie und sind als GEODE-Knoten bekannt, die wiederum Geometrie-Knoten als Kinder haben. Diese Geometrie-Knoten repräsentieren die dreieckige Struktur eines Objekts, die bei der Betrachtung des Objekts im Drahtgittermodus sichtbar wird. Der Vizard-Szenengraph erlaubt es, die Beziehung zwischen den Knoten zu visualisieren und diese zur besseren Steuerung und Anpassung der Simulation zu manipulieren. Weitere Knotenarten wie Textur-, Licht- und Sequenz-Knoten erweitern den Funktionsumfang und ermöglichen es, Lichteffekte, Animationen und Texturen hinzuzufügen.

Ein wichtiger Aspekt der Visualisierung und des Managements von Objekten innerhalb des Szenengraphen ist die Möglichkeit, die Level of Detail (LOD) durch spezielle LOD-Knoten zu steuern. Diese Knoten ermöglichen es, verschiedene Versionen eines Objekts basierend auf der Entfernung des Objekts zur Kamera darzustellen, was die Leistung und Realismus der Simulation optimiert. Die Interaktivität eines solchen Systems wird durch zusätzliche Knoten wie Occluder-Knoten verstärkt, die dazu verwendet werden, die Geometrie von Objekten auszublenden, wenn sie nicht sichtbar sind.

Ein weiteres wichtiges Konzept in der Arbeit mit dem Vizard-Szenengraphen ist die Nutzung des Inspektors. Der Inspektor bietet eine detaillierte Ansicht der Knotenhierarchie und zeigt Informationen wie die Größe der Knoten und die Anzahl der Polygone, die zu den Gesamtpolygone des Wurzelknotens beitragen. Diese Funktion ist besonders nützlich, um die Performance zu überwachen und Objekte nach Bedarf zu bearbeiten. Der Inspektor ermöglicht es zudem, die Position von Objekten durch einfache Koordinateneingabe anzupassen, was für die Feinjustierung der virtuellen Welt unerlässlich ist.

Neben der Geometrie und der Visualisierung bietet Vizard auch die Möglichkeit, Sensoren und Verhaltensweisen zu integrieren. Ein Beispiel für die Interaktivität innerhalb eines Vizard-Szenengraphen ist die Verwendung von Sensoren, wie etwa einem Handschuh, der als Eingabegerät dient. Wird der Benutzer in der Simulation durch einen Sensor gesteuert, etwa durch das Tragen eines unterstützten Handschuhs wie dem 5DT-Handschuh, so wird die Bewegung des Handschuhs in der Szene als Avatar dargestellt. Hierbei ist es wichtig, den spezifischen Port zu definieren, an den der Sensor angeschlossen ist, um regelmäßig neue Daten zu erfassen und die entsprechenden Bewegungen im Szenengraphen zu aktualisieren.

Verhaltensweisen in Vizard, die durch bestimmte Ereignisse wie Zeitabläufe oder Kollisionen ausgelöst werden, erweitern die Interaktivität der Simulation weiter. Ein typisches Beispiel ist die Kollisionsdetektion, die mit Hilfe von Bounding-Boxen funktioniert, um zu ermitteln, wann zwei Objekte miteinander kollidieren. Sobald eine Kollision erkannt wird, wird eine Rückmeldung durch Callback-Funktionen gesendet, die auf die Kollision reagieren – sei es durch die Anzeige einer Animation, das Abspielen eines Geräusches oder das Vibrieren eines haptischen Geräts.

Die Physik-Engine von Vizard erweitert dieses Konzept um realistische physikalische Berechnungen wie Schwerkraft, Kollisionen und Kräfte. Hierbei können Entwickler die Schwerkraft anpassen, um zum Beispiel Simulationen im Weltraum zu erstellen, wo die Schwerkraft 0 N beträgt. Für realistische Kollisionen zwischen Objekten können Bounding-Boxen definiert werden, die eine präzise Kollisionsberechnung ermöglichen. Darüber hinaus bietet Vizard eine eingebaute Möglichkeit, diese physikalischen Kräfte global auf die Objekte anzuwenden, was zur Erhöhung des Realismus und der Interaktivität beiträgt.

Ein besonderes Highlight in Bezug auf die Physik ist die Integration des OpenHaptics-Plug-ins, das haptisches Feedback in die Simulation einbringt. Dieses Plug-in ermöglicht es, spezielle Geräte wie den Touch X von 3D Systems zu integrieren, die dem Benutzer taktile Rückmeldungen bieten, wenn er mit Objekten in der virtuellen Welt interagiert. Dies trägt nicht nur zur Immersion bei, sondern ermöglicht auch eine tiefere und realistischere Interaktion mit der virtuellen Umgebung. Haptische Geräte können so programmiert werden, dass sie unterschiedliche Kräfte auf den Benutzer übertragen, je nachdem, welche Art von Kollision oder Interaktion stattfindet.

Ein wichtiger Punkt für Entwickler, die mit der Vizard-Physik-Engine arbeiten, ist die Berechnung der Kollisionen und die daraus resultierenden Rückmeldungen. Dabei ist es entscheidend, die Kollisionserkennungsrate und die Genauigkeit der Simulation zu balancieren, da zu hohe Anforderungen an die physikalische Berechnung die Leistung des Systems beeinträchtigen können. Entwickler sollten sicherstellen, dass die gewählte Genauigkeit und die Kollisionsrate nicht zu Lasten der Simulationserfahrung gehen, insbesondere bei komplexen Szenen.

Zusätzlich zur Realitätsnähe und den umfangreichen Anpassungsmöglichkeiten müssen Entwickler auch die Auswirkungen von Echtzeit-Interaktionen auf die Performance und die Benutzererfahrung berücksichtigen. Dies betrifft sowohl die Optimierung der Geometrie und der Szenenstruktur als auch die Anpassung der Physik-Engine und der Sensoren, um eine nahtlose und ansprechende Simulation zu gewährleisten.

Wie funktioniert die Architektur eines Game Engines und der Produktionsprozess?

Die Architektur eines Game Engines ist ein komplexes Zusammenspiel verschiedener Systeme, die miteinander interagieren, um ein funktionierendes und interaktives Spielerlebnis zu bieten. Eine der zentralen Komponenten in dieser Architektur ist der Input Manager, der dafür verantwortlich ist, Eingaben des Spielers zu erkennen, unabhängig davon, welches Eingabegerät verwendet wird. Durch diese Entkopplung des Codes von einem bestimmten Eingabegerät wird es möglich, dass der Game Engine verschiedene Geräte wie Tastaturen, Mäuse oder Gamepads unterstützt, ohne dass für jedes Gerät spezifischer Code geschrieben werden muss. Sobald das Eingabegerät erkannt wird, verwendet der Input Manager den entsprechenden Treiber, um die Eingabedaten zu verarbeiten.

Ein weiterer zentraler Bestandteil des Game Engines ist der Physics Manager, der sich mit der Kinematik von Objekten, der Kollisionsdetektion sowie der Reaktion auf Kollisionen befasst. Durch diesen Manager wird die physikalische Simulation der Spielwelt gewährleistet, was essenziell für die Darstellung realistischer Bewegungen und Interaktionen innerhalb des Spiels ist.

Das Event Management stellt sicher, dass Eingaben wie Mausklicks oder Tastaturanschläge korrekt verarbeitet und in Aktionen umgewandelt werden. Hierbei sind auch Call-Back-Funktionen von Bedeutung, die auf bestimmte Ereignisse reagieren und damit die Kommunikation mit anderen Modulen des Game Engines ermöglichen. Insbesondere die Grafikanzeige und die Audiowiedergabe werden von den entsprechenden Rendering-Modulen gesteuert, die die visuellen und akustischen Aspekte des Spiels in Echtzeit erzeugen. Der Tactical Rendering Manager ist dabei für spezielle Effekte wie Partikelanimationen und Post-Processing verantwortlich, die das visuelle Erlebnis weiter verfeinern.

Ein weiterer wichtiger Bestandteil des Game Engines ist der Resource Manager, der dafür zuständig ist, Spielressourcen wie Texturen, Modelle und Sounds zu verwalten und bei Bedarf schnell und effizient abzurufen. Dies ist besonders relevant, wenn die Anzahl der Ressourcen in einem Spiel steigt und die Komplexität des Spiels wächst. Der Game Loop, als Herzstück des Game Engines, sorgt dafür, dass das Spiel in Echtzeit läuft und jedes Frame kontinuierlich aktualisiert wird.

Das Entity Manager ist verantwortlich für das Erstellen, Verwalten und Löschen von Entitäten im Spiel, wie etwa Objekten, Gegnern oder Nicht-Spieler-Charakteren (NPCs). Diese Entitäten bestehen aus verschiedenen Komponenten, die jeweils Daten und Verhalten speichern. Das Entity Manager sorgt dafür, dass die Entitäten entsprechend den Spielregeln miteinander interagieren und dass beispielsweise ein Krieger mit einer bestimmten Waffe ausgestattet wird, die der Spieler auswählt.

Zusätzlich gibt es noch den Error Manager, der für die Behandlung unerwarteter Fehler während des Spiels zuständig ist. Dies kann zum Beispiel dann der Fall sein, wenn der Speicherplatz des Computers knapp wird oder das Spiel versucht wird, auf einer nicht unterstützten Plattform ausgeführt zu werden. In solchen Fällen stellt der Error Manager sicher, dass das Spiel in einer stabilen und fehlerfreien Weise weiterläuft, was als „graceful degradation“ bezeichnet wird.

Die zunehmende Bedeutung der Künstlichen Intelligenz (KI) im modernen Gaming wird durch das KI-System des Game Engines abgedeckt. KI wird genutzt, um Verhalten von NPCs zu simulieren und deren Interaktion mit der Spielwelt realistisch zu gestalten.

Neben der grundlegenden Architektur eines Game Engines ist der Game Production Pipeline ein unverzichtbarer Bestandteil der Spieleentwicklung. Der Produktionsprozess eines Spiels lässt sich in drei Hauptphasen unterteilen: die Pre-Production, Production und Post-Production. In der Pre-Production-Phase werden alle notwendigen Vorbereitungen getroffen, um das Spiel zu entwerfen. Hier wird das Konzept des Spiels definiert, das Zielpublikum festgelegt, das Budget bestimmt und das Team zusammengestellt. Ein zentrales Dokument in dieser Phase ist das „Game Design Document“, das als Grundlage für die gesamte Produktion dient und als lebendes Dokument regelmäßig aktualisiert wird.

Zu den ersten Aufgaben in der Pre-Production gehört das Erstellen von Konzeptzeichnungen, die das visuelle Design des Spiels skizzieren. Diese frühen Entwürfe werden dann in ein Spielprototyp integriert, der grundlegende Funktionen, Spielmechaniken und das Spielerlebnis überprüft. Ein Prototyp ist jedoch nicht immer der letzte Schritt der Pre-Production, da er oft in der Lage ist, nur einen begrenzten Teil des Spiels zu simulieren, was dazu führt, dass viele Ideen bereits in dieser frühen Phase verworfen werden.

Die nächste Phase der Produktion ist die eigentliche Entwicklung, bei der das Spiel unter Verwendung des Game Engines und anderer Software-Tools erstellt wird. In dieser Phase arbeiten Designer, Entwickler und Künstler intensiv zusammen, um die Spielwelt zu gestalten, die Mechanik zu implementieren und die verschiedenen Elemente zu kombinieren. Grafiker erstellen Texturen und Modelle, Sounddesigner fügen Effekte und Musik hinzu, während Programmierer dafür sorgen, dass alles in der Engine korrekt funktioniert.

Schließlich folgt die Post-Production-Phase, die sich auf das Finetuning, das Testen und die Veröffentlichung des Spiels konzentriert. In dieser Phase wird das Spiel optimiert, Bugs werden behoben und es werden letzte Änderungen vorgenommen, bevor das Spiel auf den Markt kommt.

Abgesehen von der grundlegenden technischen und kreativen Entwicklung des Spiels gibt es viele andere wichtige Aspekte, die die Produktion eines Spiels beeinflussen. Dazu gehören die Auswahl der richtigen Game Engine, die Komplexität des Spiels und die Fähigkeiten des Teams, aber auch die Entscheidung, welche Plattformen unterstützt werden und wie das Spiel vermarktet wird. In der heutigen Welt ist die Auswahl des richtigen Game Engines ein entscheidender Faktor für den Erfolg eines Spiels. Unity 3D und Unreal Engine sind dabei die am häufigsten verwendeten Engines, wobei jede ihre eigenen Vor- und Nachteile hat, die in Bezug auf den Entwicklungsprozess und die verwendeten Programmiersprachen berücksichtigt werden müssen.

Ein weiteres wichtiges Element der Spieleproduktion ist die Nutzung von Tools, die über den Game Engine hinausgehen. Diese nicht-pipeline Tools helfen bei der Verwaltung von Ressourcen, der Optimierung der Produktion und der Vorbereitung des Spiels für den Markt. Sie sind ebenfalls unerlässlich für die Effizienz und Kostenkontrolle der Entwicklung.

Endtext

Wie beeinflusst olfaktorisches Feedback die Realitätswahrnehmung und Anwendungsmöglichkeiten in der virtuellen Realität?

Unangenehme und persistente Gerüche spielen eine wesentliche Rolle bei der Erhöhung des Realismus in virtuellen Umgebungen. Eine Studie von Baus et al. (2022) zeigte, dass die Übereinstimmung von visuell „schmutziger“ Küche und einem unangenehmen Geruch das Gefühl von Realismus deutlich steigerte. Diese Erkenntnisse lassen sich auf das kulturelle Erbe übertragen, da viele historische Objekte ebenfalls charakteristische Gerüche ausstrahlen, die durch flüchtige organische Verbindungen entstehen. Ein klassisches Beispiel hierfür ist das Papier alter Bücher, das mit der Zeit zu verfallen beginnt und so einen typischen Geruch entwickelt, den Kuratoren und Konservatoren nutzen, um den Zustand eines Buches einzuschätzen. Daraus folgt, dass olfaktorisches Feedback den Realismus von historischem Erbe in virtuellen Realitäten entscheidend verbessert, indem es nicht nur visuelle, sondern auch sensorische Eindrücke integriert.

Der Einsatz von Gerüchen in der virtuellen Realität berührt zudem einen immateriellen Aspekt: Die Verbindung zwischen Gerüchen, Emotionen und Erinnerungen ist tief verwurzelt und verstärkt die emotionale Wirkung virtueller Erlebnisse. Ein Beispiel ist eine virtuelle Galerie, in der Meisterwerke des 16. und 17. Jahrhunderts ausgestellt werden. Wenn Besucher dort etwa ein Bild von Adriaen Jansz van Ostade betrachten, könnte die Simulation den Geruch von Pfeifenrauch, charakteristisch für die dargestellte Szene, integrieren. Diese olfaktorische Ergänzung schafft eine authentische Atmosphäre, die weit über reine visuelle Reize hinausgeht.

Um diese Vision umzusetzen, haben deutsche Forscher mit der „Odeuropa Challenge on Olfactory Object Recognition“ erste Schritte unternommen (Zinnen et al. 2022). Sie entwickelten eine umfangreiche Datenbank mit zehntausenden Gemälden, die als Trainingsgrundlage für Software zur Objekterkennung dient. Ziel ist es, Objekte in Gemälden automatisch zu erkennen und deren zugehörige Gerüche zu reproduzieren. Die Herausforderung dabei liegt in der Erkennung kleiner, sich überlappender oder stilistisch unterschiedlich dargestellter Objekte. Obwohl die Forschung sich noch im Anfangsstadium befindet, birgt die olfaktorische Erweiterung des Kulturerbes ein enormes Potenzial für die Weiterentwicklung immersiver Technologien.

Im Bereich der Unterhaltung war und ist Virtual Reality besonders durch intensive sinnliche Interaktion und dreidimensionale Immersion geprägt. VR-Technologie hat sich zum dominierenden Medium für Gaming entwickelt, mit einem prognostizierten Marktvolumen von über 53 Milliarden US-Dollar bis 2028. Dabei zeigen vor allem asiatische Märkte das größte Wachstumspotenzial. Große Technologiekonzerne wie Microsoft, Meta, NVIDIA, Google und Apple investieren massiv in mobile und tragbare VR-Systeme. Diese Dynamik spiegelt sich auch in der akademischen Welt wider, wo VR-Gaming mittlerweile als Studienfach etabliert ist, um zukünftige Fachkräfte auszubilden.

Personal Computer und Spielekonsolen bilden den Kern der VR-Unterhaltungsplattformen, die teils semi-immersiv (Desktop- oder Wandbildschirm) oder voll immersiv (Head-Mounted Displays, HMDs) eingesetzt werden. Hochleistungs-PCs ermöglichen durch leistungsstarke Grafikkarten und erweiterte Sichtfelder ein intensives und flüssiges Spielerlebnis. Besonders populär sind Action-Adventure-, Shooter- und Echtzeit-Strategie-Spiele. Action-Adventure-Titel zeichnen sich durch realistische Physik und hohe Interaktivität aus, wobei schnelle Reaktionen und körperliche Bewegungen erforderlich sind, wie etwa beim Spiel „Beat Saber“, wo Spieler rhythmisch Objekte zerschneiden. Shooter-Spiele, sowohl aus der Ich-Perspektive (FPS) als auch der dritten Person (TPS), fokussieren auf schnelle, aggressive Kämpfe mit hohem Gewaltpotenzial, wobei neuere Titel wie „Halo Infinite“ durch strategische Elemente eine stärkere geistige Herausforderung bieten. Echtzeit-Strategie-Spiele hingegen fordern den Spieler vor allem im Bereich Planung und Ressourcenmanagement, wodurch eine hohe kognitive Belastung entsteht.

Neben der technischen Umsetzung ist bei der Integration olfaktorischer Komponenten in VR-Anwendungen zu berücksichtigen, dass die Wahrnehmung von Gerüchen kulturell stark geprägt und individuell unterschiedlich sein kann. Die Authentizität eines Duftes hängt nicht nur von seiner chemischen Zusammensetzung ab, sondern auch von den Erinnerungen und Emotionen, die er hervorruft. Deshalb erfordert die Entwicklung olfaktorischer Heritage-Anwendungen ein tiefes Verständnis der kulturellen und historischen Kontexte sowie der psychologischen Wirkung von Gerüchen.

Die zukünftige Verbindung von visuellen, auditiven und olfaktorischen Reizen wird das Potenzial von VR deutlich erweitern, insbesondere in der Vermittlung von Geschichte und Kunst. Dabei ist es wesentlich, dass Technologien zur Objekterkennung und Duftreproduktion präzise und vielseitig genug sind, um vielfältige und komplexe kulturelle Inhalte abzubilden. Zusätzlich sollte die Nutzererfahrung stets den individuellen sensorischen Empfindlichkeiten Rechnung tragen, um Überreizungen oder unangenehme Erlebnisse zu vermeiden.