Cybersickness, ein weit verbreitetes Phänomen bei der Nutzung von Virtual Reality (VR), ist eng mit verschiedenen Faktoren verbunden, die die Schwere der Symptome bestimmen. Die Untersuchungen zur Bildwiederholrate (refresh rate) und der Expositionsdauer zeigen, dass diese Elemente entscheidend für das Auftreten und die Intensität von Cybersickness sind.
In einer Studie zur Bildwiederholrate wurde der Zusammenhang zwischen der HMD (Head-Mounted Display) Bildwiederholrate und der Schwere der Cybersickness untersucht. Die Ergebnisse zeigten eine signifikante Reduktion der Cybersickness-Symptome, gemessen mit dem SSQ (Simulator Sickness Questionnaire), wenn die Bildwiederholrate von 60 Hz auf 120 Hz verdoppelt wurde. Dies war nicht nur eine Verbesserung der durchschnittlichen Symptomschwere, sondern auch eine Verringerung der Variabilität der Symptome innerhalb der Gruppe. Die Teilnehmer erlebten weniger Übelkeit und weniger Desorientierung bei höheren Bildwiederholraten, was die Wichtigkeit einer hohen Bildwiederholrate zur Reduzierung von Cybersickness unterstreicht.
Der positive Effekt höherer Bildwiederholraten wurde auch bei 180 Hz bestätigt, wobei die Standardabweichungen der SSQ-Ergebnisse signifikant kleiner waren. Interessanterweise zeigte sich dieser Trend nicht nur bei VR-Systemen, sondern auch bei Desktop-Displays und großformatigen Wandanzeigen. Eine Untersuchung von Stanney et al. (2020) ergab, dass Cybersickness auch auf Desktop-Displays auftreten kann, jedoch mit geringerer Intensität im Vergleich zu HMDs. Diese Studie zeigt, dass Cybersickness nicht ausschließlich auf VR-Brillen beschränkt ist, sondern auch bei herkömmlichen Monitoren auftreten kann, wenn die visuelle und kinästhetische Wahrnehmung im Widerspruch zueinanderstehen.
Die Frage, wie Cybersickness auch bei ständiger Fixierung des Körpers und des Kopfes auftreten kann, wird durch das Phänomen der "Vektorsinnwahrnehmung" (vection) erklärt. Visual vection beschreibt das Gefühl der Selbstbewegung, das bei einem stationären Nutzer ausgelöst wird, wenn er schnell wechselnde, realistische Szenen in einer virtuellen Umgebung betrachtet. Dieses Phänomen ist besonders ausgeprägt, wenn visuelle Reize dominieren und die Propriozeption (die Wahrnehmung des eigenen Körpers im Raum) keine Bewegungen registriert. Diese visuelle Wahrnehmung kann sogar durch andere Sinne ergänzt werden, sodass auditive oder taktile Reize ebenfalls zur Entstehung von Cybersickness beitragen können. Auditive Vektorsinnwahrnehmung tritt auf, wenn 3D-Klänge den Eindruck der Bewegung erzeugen, und hapto-kinetische Vektorsinnwahrnehmung entsteht durch taktile Reize, die sich über große Körperbereiche erstrecken.
Neben den technischen und sensorischen Faktoren spielt auch die Dauer der Exposition eine wichtige Rolle bei der Entstehung und Schwere der Cybersickness. Langfristige Nutzung von VR-Systemen hat einen deutlich stärkeren Einfluss auf das Auftreten von Cybersickness als kürzere Sitzungen. Ein Experiment von Kennedy et al. (2000) zeigte, dass die Schwere der Symptome mit der Dauer der Exposition zunahm. Besonders auffällig war, dass die Teilnehmer, die längere Sitzungen von über drei Stunden absolvierten, eine signifikante Zunahme der SSQ-Werte im Vergleich zu denen mit kürzeren Sitzungen erlebten. Das bedeutet, dass die Dauer der Exposition ein entscheidender Faktor für das Entstehen von Cybersickness ist. Es wird angenommen, dass sich der Körper nach einer gewissen Zeit an die sensorischen Konflikte gewöhnt, was zu einer Zunahme der Schwere führt.
In einer weiteren Untersuchung, die auf die wiederholte Exposition mit VR-Umgebungen fokussiert war, stellte sich heraus, dass wiederholte Erfahrungen mit VR die Schwere der Cybersickness über die Zeit hinweg verringerten. In einer Simulation von sechs Trainingssitzungen, die über mehrere Tage verteilt waren, reduzierten sich die SSQ-Werte der Teilnehmer signifikant. Diese Ergebnisse legen nahe, dass eine wiederholte und regelmäßigere Nutzung von VR zu einer gewissen Gewöhnung führen kann, die Cybersickness verringert. Dies steht im Gegensatz zur anfänglichen VR-Nutzung, bei der die Symptome in der Regel stärker ausgeprägt sind.
Dennoch ist es wichtig, die spezifischen Bedingungen zu beachten, unter denen solche Studien durchgeführt werden. In der Untersuchung von Kennedy et al. (2000) wurden Militärpiloten getestet, eine Gruppe, die möglicherweise Cybersickness-Symptome eher unterberichtet. Eine Übertragung dieser Ergebnisse auf andere Nutzergruppen ist daher mit Vorsicht zu genießen. Auch die Frage, wie sich kurze, wiederholte Sitzungen innerhalb eines Tages auf die Schwere von Cybersickness auswirken, bleibt noch zu klären.
Eine Studie der Beijing Institute of Technology (2021) untersuchte den Einfluss einer langen VR-Exposition von 7,5 Stunden und fand heraus, dass sich die Cybersickness-Schwere mit zunehmender Sitzungsdauer verstärkte. Besonders in Sitzungen, die mit einem HMD durchgeführt wurden, stiegen die SSQ-Werte über die Zeit signifikant an, was auf eine starke Korrelation zwischen Expositionsdauer und Cybersickness hinweist.
Die Erkenntnisse zu den temporal relevanten Faktoren zeigen, dass nicht nur die Technik der VR-Umgebung, sondern auch die Zeit, die der Nutzer in dieser Umgebung verbringt, die Schwere von Cybersickness maßgeblich beeinflusst. Dies ist von Bedeutung für die Gestaltung von VR-Sitzungen und den Umgang mit Nutzern, um das Auftreten von Cybersickness zu minimieren und ein angenehmes Nutzungserlebnis zu gewährleisten.
Wie moderne Simulatoren das militärische Training revolutionieren
Moderne Simulatoren für den Einsatz von Handfeuerwaffen und militärischen Fahrzeugen haben sich zu unverzichtbaren Werkzeugen entwickelt, um die Effizienz des Trainings zu steigern und die Sicherheit zu erhöhen. Diese Technologien, die zunehmend auf virtuelle Realität und realistische Nachbildungen setzen, bieten eine Vielzahl von Vorteilen gegenüber herkömmlichen Trainingseinrichtungen. Besonders hervorzuheben sind dabei Systeme wie der Small Arms Tactical Trainer (SATT) und der Militärfahrzeug-Fahrersimulator, die durch innovative Technik und fortschrittliche Datenanalyse die Fähigkeiten der Auszubildenden auf ein neues Niveau heben.
Der Small Arms Tactical Trainer (SATT) ist ein Beispiel für eine solche Trainingslösung. Er wird nicht nur von Militärs, sondern auch von Polizei- und Sicherheitskräften genutzt, um die Bedienung von Waffen, die Fertigkeiten der Auszubildenden und die Kohäsion innerhalb von Teams zu verbessern. Während ältere SATTs auf Lasertechnologie und Druckluft setzten, um den Rückstoß und das Zielerfassungssystem zu simulieren, wurden diese Technologien aufgrund ihrer Einschränkungen weitgehend durch moderne Systeme ersetzt. Die Gefahr von Augenschäden durch Laserstrahlen sowie die unnatürliche Gewichtung der Waffen aufgrund von Luftschläuchen gehörten zu den größten Nachteilen der älteren Systeme.
Ein modernes Beispiel für einen SATT ist das Guardiaris-System, das ohne Laser und ohne Druckluft funktioniert. Stattdessen verwendet es ein 150°-Kurvenbildschirm, der eine hohe Immersion bietet, und kombiniert dies mit 3D-Audiosignalen und einer vibrierenden Trainingsfläche, auf der die Auszubildenden stehen. Diese Technologien ermöglichen eine realistische Simulation von Einsätzen und schaffen ein intensives Trainingserlebnis. Die Waffen-Nachbildungen sind präzise konstruiert, um das Gewicht, die Dimensionen und die Funktionsweise echter Waffen zu respektieren. Dies erleichtert den Übergang vom Training zum realen Einsatz erheblich und reduziert den Zeitaufwand für das Erlernen von Waffenhandhabung. Zudem erlaubt das System eine präzise Nachverfolgung der Bewegungen des Waffensystems und des Trainees, sodass die Trainingsszenarien in Echtzeit angepasst werden können.
Ein weiterer innovativer Aspekt des SATT ist die Möglichkeit zur Durchführung von After-Action-Reviews (AAR). Dies ermöglicht eine detaillierte Analyse des Trainingsverlaufs und hilft dabei, Fehler zu identifizieren und zu korrigieren. Die Video-Wiedergabe von Fehlern, die für junge Auszubildende, die mit Videospielen aufgewachsen sind, eine vertraute Methode ist, hat sich als besonders effektiv erwiesen. Die visuelle Rückmeldung fördert eine schnellere Lernkurve, da die Fehler sofort erkannt und reflektiert werden können. Das AAR-System analysiert nicht nur einzelne Fehlhandlungen, sondern erlaubt auch eine Aggregation der Daten über mehrere Einsätze hinweg, um Muster in der Leistung zu erkennen.
Neben dem SATT gibt es auch Simulatoren für das Training von Fahrern militärischer Fahrzeuge, wie etwa den Militärfahrzeug-Simulator der ECA Group. Diese Simulatoren sind besonders wichtig, um die spezifischen Anforderungen an Fahrer in verschiedenen Umgebungen, wie etwa unbefestigten Straßen oder bei der Durchführung von Offroad-Missionen, realistisch abzubilden. In realen Szenarien müssen militärische Fahrzeuge oft steile Hänge hinauf fahren oder unwegsames Gelände durchqueren, was für unerfahrene Fahrer besonders riskant sein kann. Durch den Einsatz von Simulatoren können Anfänger risikofrei und sicher in solchen Umgebungen geschult werden.
Der Militärfahrzeug-Simulator der ECA Group nutzt eine 200°-Kurvenbildschirmtechnologie, um den Eindruck einer realistischen Fahrt zu erzeugen. Die Fahrzeugkabine selbst ist ein exaktes Abbild eines echten Fahrzeugs und enthält alle wichtigen Bedienelemente wie das Lenkrad, die Pedale und die Schaltknäufe. Zusätzlich sind digitale Anzeigen integriert, die Funktionen wie Bedrohungserkennung und Kommunikation ermöglichen. Der Simulator verwendet eine Stewart-Plattform, um die Bewegung des Fahrzeugs zu simulieren und so die Dynamik von plötzlichen Bewegungen oder unwegsamem Gelände realistisch abzubilden.
Interessanterweise hat die ECA Group eine spezielle Herausforderung im Simulator berücksichtigt: niedrige Frequenzvibrationen, die durch die Bewegungen der Plattform entstehen und die Eingabegenauigkeit der Fahrzeuginsassen beeinflussen können. Eine Studie hat gezeigt, dass höhere Vibrationen zu längeren Reaktionszeiten und weniger präzisen Interaktionen mit dem Touchscreen führen, was in militärischen Szenarien zu Problemen führen kann, wenn schnelle Entscheidungen erforderlich sind.
Der simulierte Fahrbetrieb ist nicht nur für Anfänger wichtig, sondern auch für erfahrene Fahrer, die sich mit neuen Fahrzeugen oder neuen technischen Systemen vertraut machen müssen, ohne dabei ein Risiko einzugehen. Der Simulator kann an unterschiedliche Szenarien angepasst werden, wie zum Beispiel die Fahrt in einer Kolonne, was zusätzliche Herausforderungen wie die Einhaltung von Geschwindigkeit und Fahrsequenz mit sich bringt.
Wichtig ist, dass moderne Simulatoren nicht nur die physische Fertigkeit verbessern, sondern auch die kognitiven Fähigkeiten der Auszubildenden fördern. Die Integration von Sensoren, die die Augenbewegungen und die kognitive Belastung der Trainees erfassen, ermöglicht es den Ausbildern, die Situationserkennung und die Entscheidungsfindung in Echtzeit zu analysieren und anzupassen. Diese umfassende Analyse trägt dazu bei, die Reaktionsfähigkeit und die taktischen Fähigkeiten der Auszubildenden auf allen Ebenen zu schärfen.
Wie funktionieren moderne Grafikprozessoren und welche Rolle spielt künstliche Intelligenz dabei?
Die neueste Generation von NVIDIA-Grafikprozessoren, insbesondere jene der RTX-Serie mit DLSS 3, demonstriert eindrucksvoll, wie weit die Integration künstlicher Intelligenz in die Grafikverarbeitung bereits fortgeschritten ist. Deep Learning Super Sampling (DLSS) der dritten Generation nutzt neuronale Netze, um Zwischenbilder zu erzeugen – sogenannte AI-generierte Frames, die zwischen zwei real berechneten Frames eingefügt werden. Diese Technik ermöglicht eine signifikante Erhöhung der Bildrate, selbst bei gleichzeitig aktivierter, rechenintensiver Raytracing-Berechnung. Allerdings geht der Gewinn an Performance mit einer erhöhten Latenz einher, da ein gerendertes Bild warten muss, bis das dazwischenliegende KI-Bild fertiggestellt ist. Zudem ist die Inferenz durch neuronale Netze nicht perfekt – temporäre Artefakte können auftreten, wenngleich sie durch die hohe Bildrate oft kaum wahrgenommen werden.
Ein ebenso bedeutender Wandel betrifft die Architektur moderner GPUs: Statt spezialisierter Funktionseinheiten für bestimmte Pipeline-Stufen dominiert nun ein einheitliches, hochgradig paralleles Design. Die sogenannten Streaming Multiprocessors (SMs) bestehen aus einer Vielzahl von CUDA-Kernen – universelle Recheneinheiten, die sowohl Fließkomma- als auch Ganzzahloperationen ausführen können. Sie beinhalten darüber hinaus Tensor Cores für KI-Berechnungen, RT Cores für Raytracing, Textureinheiten und lokale Speicherbereiche. Das Prinzip der Vereinheitlichung erlaubt eine effizientere Ressourcennutzung und erleichtert die Datenkommunikation innerhalb der GPU erheblich.
Ein einzelner SM ist in der Lage, komplexe Aufgaben zu bearbeiten. Die CUDA-Kerne eines SM greifen über L0-Caches und ein gemeinsam genutztes L1-Cache auf Daten zu, was eine gleichzeitige Nutzung durch mehrere Kerne ohne signifikanten Zeitverlust erlaubt. Raytracing-Kerne wiederum setzen sich aus mehreren spezialisierten Komponenten zusammen: Die Box Intersection Engine identifiziert Schnittpunkte zwischen Lichtstrahlen und groben Umrissboxen, gefolgt von einer präziseren Kollisionserkennung durch die Triangle Intersection Engine. Transparente Flächen werden durch die Opacity Microcap Engine berücksichtigt, während die Displacement Micromesh Engine hochauflösende Oberflächenstrukturen effizient verarbeitet.
Die gesamte Architektur, wie sie sich etwa im AD102-Chip der Ada-Lovelace-Generation zeigt, weist eine Gruppierung der SMs in sogenannte Graphics Processing Clusters (GPCs) auf. Jede dieser Gruppen enthält Textureinheiten und ist über einen zentralen L2-Cache mit 98 MB verbunden. Der Datenaustausch mit dem Hauptprozessor erfolgt über ein PCIe 4.0-Interface, während Hochgeschwindigkeits-GDDR-Speicher über seitlich platzierte Speichercontroller angebunden ist. Die Speicherbandbreite – im Fall der RTX 4090 beispielsweise 1 Terabyte pro Sekunde – ist entscheidend, um datenintensive Vorgänge wie Raytracing und AI-Inferenz ohne Flaschenhals durchführen zu können.
Ein weiteres zentrales Element der Grafikpipeline ist das Anti-Aliasing, welches gezackte Kanten glättet, die durch die begrenzte Pixelauflösung entstehen. Die klassische Methode, Multi-Sample Anti-Aliasing (MSAA), unterteilt jeden Pixel in mehrere Subpixel, deren Farbinformationen gewichtet und zusammengeführt werden. Diese Methode erzeugt visuell ansprechendere Übergänge, erfordert jedoch erheblichen Rechenaufwand, insbesondere bei einer hohen Anzahl an Subpixeln.
Als Reaktion auf diese Problematik entwickelte NVIDIA das Fast Approximate Anti-Aliasing (FXAA). Diese Methode funktioniert im Gegensatz zu MSAA nicht während der Rasterisierung, sondern als nachgelagerter Post-Processing-Schritt. Dabei analysiert ein Shader die Kontraste zwischen benachbarten Pixeln, erkennt Kanten und glättet sie selektiv – mit deutlich geringerem Rechenaufwand. Die Bildschärfe bleibt dabei erhalten, allerdings reagiert FXAA weniger robust auf plötzliche Szenenwechsel oder schnelle Kamerabewegungen, wodurch temporäre visuelle Unschärfen entstehen können.
Die vorgestellten Technologien setzen eine idealisierte Pipeline voraus, in der die Ausgaberate einer Rechenstufe der Eingaberate der nächsten exakt entspricht. In der Realität jedoch entstehen sogenannte Bottlenecks – Flaschenhälse – dort, wo einzelne Stufen, sei es auf CPU- oder GPU-Seite, ihre maximale Auslastung erreichen, während andere auf Input warten. Diese Engpässe bestimmen letztlich die Gesamtleistung der Pipeline und können durch kluge Ressourcenzuteilung, adaptive Scheduling-Algorithmen oder Hardware-Innovationen nur teilweise kompensiert werden.
Es ist wichtig zu verstehen, dass die Weiterentwicklung von Grafikprozessoren nicht allein durch rohe Rechenleistung definiert wird. Vielmehr verschmelzen algorithmische Effizienz, parallele Architektur, KI-Integration und spezialisierte Hardware zu einem komplexen System, das fortwährend zwischen Q
Wie begann die kommerzielle Ära der virtuellen Realität und welche Herausforderungen prägten ihre Entwicklung?
Die Anfänge der kommerziellen virtuellen Realität (VR) sind eng verbunden mit der Pionierarbeit von VPL Research Inc., einem Unternehmen unter der Leitung von Jaron Lanier. VPL Research war das erste Unternehmen, das VR-Produkte auf den Markt brachte, darunter die DataGlove – ein Sensorkomplex in Form eines eng anliegenden Lycra-Handschuhs mit eingebetteten faseroptischen Sensoren. Diese Sensoren registrierten die Fingerbewegungen indirekt durch die Lichtintensität, die durch die Fasern wanderte und so die Biegung der Finger erfasste. Das System war mit einem Computer verbunden, der eine virtuelle Hand – einen sogenannten Avatar – in Echtzeit steuerte. Der Begriff Avatar wird hier als ein virtuelles Objekt verstanden, das direkt und simultan die Bewegungen eines Nutzers widerspiegelt, sei es eine Hand, ein Fahrzeug oder eine Kamera. Dieses Konzept stellte eine radikale Verbesserung der Interaktion mit Computern dar, die zuvor hauptsächlich über Tastatur und Maus erfolgte.
Die DataGlove war jedoch teuer und mit einem Preis in mehreren Tausend US-Dollar für die meisten Menschen unerschwinglich, zudem gab es sie nur in einer Standardgröße, die bei sehr kleinen oder großen Händen die Messgenauigkeit beeinträchtigte. Kurz nach der Einführung der DataGlove brachte Nintendo mit dem PowerGlove eine deutlich günstigere Alternative heraus. Dieses Gerät nutzte Ultraschallsensoren zur Erfassung der Handposition und leitete Gesten über leitfähige Tinten-Sensoren ab, die ihre elektrischen Eigenschaften bei Biegung veränderten. Trotz des preislichen Vorteils von unter 100 Dollar und dem Verkauf von fast einer Million Einheiten scheiterte der PowerGlove am Mangel an kompatiblen Spielen, sodass die Produktion bereits 1993 eingestellt wurde.
Neben den Handschuhen entwickelte VPL Research auch das erste kommerzielle Head-Mounted Display (HMD) namens EyePhone. Es zeigte stereoskopische Bilder über LCDs, jedoch mit einer Auflösung von nur 360 × 240 Pixeln, was die virtuelle Umgebung verschwommen erscheinen ließ und die Immersion minderte. Zudem war das EyePhone mit 2,4 Kilogramm schwer und kostete über 11.000 US-Dollar. Trotz dieser Einschränkungen verfügten Forscher erstmals über spezialisierte Hardware, die als Basis für VR-Anwendungen dienen konnte. Die Integration dieser Komponenten sowie die Entwicklung von Software erfolgten jedoch meist noch von Grund auf.
VPL Research war auch Vorreiter bei der Idee eines „Turnkey“-VR-Systems, das alle notwendigen Komponenten in einem Komplettpaket vereinen sollte. Das „RB2 Model 2“ beinhaltete das EyePhone-HMD, DataGlove-Elektronik, räumliches Tracking, Arbeitsstationen und 3D-Grafik-Renderer. Der nächste Schritt war die Miniaturisierung, bei der 1991 die Firma Division Ltd. aus Großbritannien mit dem „Provision 100“ die erste integrierte kommerzielle VR-Workstation vorstellte. Sie bot neben einem stereoskopischen HMD und 3D-Sound auch Handtracking und Gestenerkennung und konnte durch zusätzliche Prozessoren erweitert werden. Ihre Grafikleistung mit 35.000 Gouraud-schattierten Polygonen pro Sekunde war deutlich realitätsnäher als frühere Systeme, doch der Preis von 70.000 US-Dollar blieb hoch.
Trotz der verbesserten Hardware stellte die Softwareentwicklung weiterhin eine große Herausforderung dar. 1992 entwickelte das kleine US-Unternehmen Sense8 das „WorldToolKit“ (WTK), eine C-Bibliothek speziell für VR-Programmierung. Dieses Paket reduzierte erheblich die Entwicklungs- und Fehlerbehebungszeiten und wurde bald zur bevorzugten Sprache für VR-Anwendungen – sofern die Lizenzkosten tragbar waren. Eine weitere Alternative war das „Virtual Reality Toolkit“ (VRT3) aus Großbritannien, das auf mehreren Plattformen ohne teure Grafikbeschleuniger laufen konnte und eine grafische Programmierung über Menüs bot. Dadurch war es leichter zugänglich, aber funktional eingeschränkter.
Um 1993 verfügte das schnellste Grafiksystem, das SGI „Reality Engine“, über eine Leistung von über 300.000 Polygonen pro Sekunde, kostete jedoch mehr als 100.000 US-Dollar. Zeitgleich hatten PCs meist keine eigene Grafikhardware und mussten einfache Szenen softwareseitig über die CPU berechnen. Selbst erste PC-Grafikkarten wie die SPEA Fire erreichten nur etwa 7.000 Polygone pro Sekunde, was den großen Leistungsunterschied verdeutlicht. Der VR-Markt war zu dieser Zeit noch sehr klein – etwa 50 Millionen US-Dollar Umsatz – und viele Unternehmen fehlten die Mittel, um mit der teuren Technologie Schritt zu halten. Die hohen Erwartungen der Öffentlichkeit, genährt durch Medienhype, konnten nicht erfüllt werden. Viele Firmen wie VPL Research, Division Ltd. oder Superscape verschwanden, was die Entwicklung von VR-Anwendungen weiter erschwerte, da technischer Support fehlte.
Bis zur Mitte der 1990er Jahre stand VR somit an einem Wendepunkt mit ungewisser Zukunft. Während die Aufmerksamkeit zunehmend auf das Internet und die aufkommenden Webanwendungen wanderte, arbeiteten einige Wissenschaftler kontinuierlich an der Weiterentwicklung der VR-Technologie. Ihre Beharrlichkeit, zusammen mit dem Aufstieg des Computerspielmarktes, sollte später den nächsten Aufschwung ermöglichen.
Es ist wesentlich zu verstehen, dass die frühe kommerzielle VR trotz bedeutender technischer Innovationen durch hohe Kosten, unzureichende Inhalte und fehlende Standards geprägt war. Die Entwicklung von spezialisierten Hardwarekomponenten allein reichte nicht aus; ohne eine entsprechende Softwareinfrastruktur und breite Akzeptanz in der Nutzergemeinschaft blieb der Durchbruch aus. Die Entkopplung zwischen Erwartungen und technischer Machbarkeit verdeutlicht den schwierigen Balanceakt zwischen Innovation, Marktfähigkeit und Nutzererlebnis. Die Erfahrungen dieser frühen Phase zeigen, wie komplex die Etablierung neuer Technologien in bestehenden Märkten ist und wie wichtig eine ganzheitliche Betrachtung von Hard- und Software sowie Benutzerakzeptanz für nachhaltigen Erfolg ist.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский