Theses

Here you can see the German abstract first. If you click on the link to a paper, you will be taken to a page from the library catalogue.
There you can view the English-language abstract under the item "Further information:".

Results: 206
Created on: Wed, 15 May 2024 23:03:08 +0200 in 0.1007 sec


Knauder, Lorenz;
Generation of emotion-controllable artificial face images using generative adversarial networks. - Ilmenau. - 78 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2024

Für die Generierung von gesichtsbezogenen Bilddaten wird auf neuronale Netzwerke zurückgegriffen, die in Bereichen der Videospielindustrie oder bei Virtual- bzw. Augmented Reality Anwendungen eingesetzt werden können. Für die gezielte Erstellung von Bildern können Generative Adversarial Networks in Kombination mit weiteren Informationen trainiert werden, um Bilder in Abhängigkeit von Labels zu generieren. In dieser Arbeit wird ein solches neuronales Netzwerk vorgestellt, das mittels gesichtsbezogener Bilddaten und Labelinformationen zu Gesichtsausdrücken, neue Bilder generiert. Das implementierte Netzwerk wurde auf Grundlage eines Conditional Generative Adversarial Networks zur Generierung von handgeschriebenen Ziffern erstellt. Dieses wurde so verändert, dass gesichtsbezogene Bilder generiert werden konnten. In der Implementierungsphase wurde das neuronale Netzwerk mit verschiedenen frei zugänglichen Datensätzen trainiert und kontinuierlich optimiert. Die ausgearbeitete Version des Conditional Generative Adversarial Networks wurde auf Grundlage des FACES Datensatzes mit gesichtsbezogenen Bildern und in Abhängigkeit zu den jeweils mimisch dargestellten Gesichtsausdrücken (anger/disgust/fear/happiness/neutrality/sadness) trainiert. Mit der beschriebenen Vorgehensweise können Bilder mit den jeweiligen Gesichtsausdrücken generiert werden, die den realen Bildern ähneln, aber nicht identisch sind. Die Auswertung der generierten Bilder mittels quantitativer Metriken ergab eine geringe Vielfalt und eine hohe Verschiedenheit der stochastischen Verteilung zwischen den realen Bildern aus dem Datensatz und den generierten Bildern des Conditional Generative Adversarial Networks. Im Rahmen von qualitativen Tests wurden Probanden aufgefordert, die in zufälliger Reihenfolge präsentierten realen oder generierten Bilder nach ihrem Aussehen zu klassifizieren und diese in real oder generiert einzuteilen. Als weitere Aufgabe sollten die Probanden generierte Bilder entsprechend den Gesichtsausdrücken zu einem der genannten Labels zuordnen. Die Auswertung ergab eine Zuordnung des Gesichtsausdrucks 'happiness' mit vergleichsweise höherer Wahr-Positiv-Trefferquote, während Bilder, die unter der Bedingung 'disgust' generiert wurden, eine geringere Trefferquote aufwiesen.



Khadka, Karishma;
Conveying emotions on faces of self-avatar. - Ilmenau. - 53 Seiten
Technische Universität Ilmenau, Masterarbeit 2024

Das Gesicht spielt eine entscheidende Rolle in der menschlichen Interaktion, da es uns ermöglicht, Emotionen und Absichten zu vermitteln, ohne zu sprechen - ein hoher Realismus von Avataren, der für VR-Erfahrungen (virtuelle Realität) in der avatarvermittelten nonverbalen Kommunikation wichtig ist. Frühere Studien haben die Wahrnehmung verschiedener Arten von Avataren in immersiven Umgebungen im Hinblick auf Verkörperung und Verankerung untersucht. Die Auswirkungen von Selbst-Avataren wurden in verschiedenen Bereichen der Selbstidentifikation erforscht und beeinflussen das Gefühl der Präsenz in einer virtuellen Umgebung. In dieser Arbeit werden Emotionserkennung, Avatar-Realismus und selbstberichtete Empathie mit zwei Arten von Avataren (selbst und generisch) in VR-Headsets untersucht. Das Ziel dieser Arbeit ist es, die Auswirkungen von emotionalen Ausdrücken, die durch Selbst-Avatare in virtuellen Umgebungen vermittelt werden, zu untersuchen. Diese Arbeit untersucht den Einfluss von avatarvermittelter nonverbaler Kommunikation in der virtuellen Realität (VR) und konzentriert sich auf die Nachbildung menschlicher Emotionen durch Avatare, die aus einzelnen 2D-Fotos erstellt wurden. Um dies zu erreichen, sehen die 19 Teilnehmer ihren emotionalen Zustand durch Avatare und untersuchen das Erkennen von Emotionen, den Realismus der Avatare und das Empathie-Niveau, das sie mit eigenen und generischen Avataren in einer VR-Umgebung erleben. Ziel der Studie ist es zu verstehen, wie Selbst-Avatare den Ausdruck und die Wahrnehmung von Emotionen beeinflussen. Beim Vergleich von Avataren, die sechs grundlegende Emotionsausdrücke darstellen (Freude, Traurigkeit, Angst, Wut, Überraschung und Ekel), wurde kein nennenswerter Unterschied in der Genauigkeit der Emotionserkennung oder der wahrgenommenen Realitätsnähe zwischen den beiden Arten von Avataren festgestellt. In dieser Studie wird untersucht, wie animierte Gesichtsausdrücke die emotionale Selbstwahrnehmung in einer Virtual-Reality-Umgebung verbessern können. Die Methodik umfasst die Erstellung von Avataren mit Photogrammetrie für hohe Realitätsnähe und die Durchführung von Nutzerstudien in einer VR-Umgebung, um die Reaktionen auf die emotionalen Ausdrücke der Avatare zu messen. Die Ergebnisse zeigen keinen signifikanten Unterschied in der Erkennung von Emotionen oder dem wahrgenommenen Realismus zwischen eigenen und generischen Avataren. Es gibt jedoch Hinweise darauf, dass Selbst-Avatare das Empathie-Niveau der Nutzer beeinflussen könnten. Diese Arbeit unterstreicht das Potenzial von personalisierten und ausdrucksstarken Avataren, um immersivere und emotional verbundene virtuelle Erfahrungen zu schaffen. Zukünftige Arbeiten sollten sich darauf konzentrieren, den Realismus der Avatare zu verbessern, die Teilnehmerstichprobe zu erweitern, um vielfältige Einblicke zu erhalten, und fortschrittliche Animationstechniken für nuanciertere emotionale Ausdrücke einzusetzen.



Zeeshan, Muhammad Faiz;
Comparison of QoE, simulator sickness and behavioral analysis in different head mounted displays. - Ilmenau. - 90 Seiten
Technische Universität Ilmenau, Masterarbeit 2024

Die Gewährleistung einer hochwertigen Benutzererfahrung/Quality of Experience (QoE) in der virtuellen Realität (VR) ist von größter Bedeutung. Insbesondere, wenn man die Auswirkungen von verschiedenen Head Mounted Displays (HMDs) berücksichtigt. Um ein qualitativ hochwertiges und immersives Benutzererlebnis zu bieten, ist es wichtig, Faktoren wie Simulator Sickness zu minimieren und das Gefühl der eigenen Präsenz im virtuellen Raum zu optimieren. Der Einfluss der physikalischen Eigenschaften der HMDs muss ebenfalls berücksichtigt werden, daher ist ein umfassender Ansatz notwendig. Um diese Annahmen zu überprüfen, ist eine gründliche Analyse von QoE, Simulator Sickness und dem Nutzerverhalten (Explorationsverhalten) über mehrere HMDs hinweg, mittels subjektiver Tests mit 24 Teilnehmern durchgeführt wurden. Die drei HMDs Varjo XR-3, HTC Vive Pro Eye und Pimax 8K wurden in dieser Masterarbeit eingesetzt. Es wurden die Videoqualität, die eigene Präsenz und Angaben zu den Symptomen der Simulator Sickness erfasst. Zur Untersuchung des Einflusses der HMDs auf das Explorationsverhalten, wurden auch Kopfrotationsdaten aufgezeichnet. Die Ergebnisse zeigen, dass die Variationen der Videoqualität und des Präsenzgefühls vor allem bei HTC Vive Pro Eye und Varjo XR-3 durch die Bitrate beeinflusst wurden. Darüber hinaus wurde das Explorationsverhalten signifikant von physischen Attributen wie dem Gewicht und der Ergonomie des HMD beeinflusst. Es konnten Schlüsselfaktoren identifiziert werden, die sich auf die Benutzererfahrung bei der Bewertung verschiedener HMDs auswirken. Diese schließen Videoqualität, Präsenzgefühl und Simulatorkrankheit ein. Physikalische Eigenschaften beeinflussen auch das Nutzerverhalten. Diese Ergebnisse können als Leitfaden für die Verbesserung der QoE bei verschiedenen Head Mounted Displays dienen.



Ziegler, Sebastian;
Sensory evaluation of HDR videos. - Ilmenau. - 75 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2024

High Dynamic Range (HDR) hat in den letzten Jahren aufgrund der Digitalisierung und der Spezifikation von Ultra-High Definition Television (UHDTV) für den Rundfunk an Bedeutung gewonnen. Durch Erhöhung des Dynamikumfangs vergrößert HDR die Anzahl der Helligkeitswerte zwischen dem niedrigsten und dem höchsten Wert eines Videos, wodurch ein höherer Kontrast und eine allgemeine Verbesserung der Videoqualität erhofft wird. Die Wahrnehmbarkeit dieser potenziellen Verbesserungen wurde in dieser Bachelorarbeit mit Hilfe einer perzeptiven Analyse von HDR-Videos untersucht. Ziel war es, wahrnehmungsbezogene Eigenschaften (Attribute) von HDR-Videos zu analysieren und möglicherweise zu quantifizieren. Im Rahmen dessen wurde ein Experiment mit Nicht-Experten durchgeführt. Für die Umsetzung wurden eine Reihe sensorischer Methoden vorgestellt und in Erwägung gezogen. Schließlich wurde die Relaxed Forced Choice (RFC)-Methode erläutert und dann im Experiment angewendet. Die im Experiment gezeigten Sequenzen wurden aus 2 HDR-Datensätzen entnommen. Aus den HDR-Sequenzen wurden für jede Szene 2 verschiedene Versionen mit unterschiedlichem Dynamikumfang und geringerer maximaler Leuchtdichte erstellt, die dann im Experiment mit den HDR-Sequenzen verglichen wurden. Der Vergleich erfolgte anhand von Attributen, die zur Beschreibung von Videoqualität verwendet werden können. Diese wurden im Vorfeld anhand von geeigneter Literatur ausgewählt. Es wird gezeigt, dass Helligkeit, Kontrast und Schärfe am besten geeignet sind, um HDR-Videos zu beschreiben, während Attribute wie Dreidimensionalität und Natürlichkeit als weniger einflussreich wahrgenommen werden. Weiterhin wird gezeigt, dass die Wahrnehmung der Attribute auch vom Inhalt der Videos abhängig ist.



Frank, Paul Rudi;
High Frame Rate und deren Auswirkungen auf die wahrgenommene Videoqualität. - Ilmenau. - 55 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2024

Diese Arbeit beschäftigt sich mit dem Zusammenhang zwischen High Frame Rate (HFR) und der wahrgenommenen Videoqualität. HFR bedeutet eine Verdoppelung der Bildwiederholrate, beispielsweise von 24 Bildern pro Sekunde (Frames per second, fps) auf 48 fps. Dabei spielt HFR nicht nur technisch eine wichtige Rolle, da es die Lösung für auftretende Bewegungsartefakte wie großflächiges Flimmern, Bewegungsunschärfe oder Verwackeln im Video sein könnte, sondern ermöglicht auch eine flüssigere Wiedergabe von Bewegungen oder Animationen. Mit steigender Auflösung nehmen auch die Bewegungsartefakte zu, so dass es immer schwieriger wird, diese zu beseitigen. HFR ist in der Videowiedergabe bisher jedoch nicht stark verbreitet, da Filme nach wie vor mit 24 Bildern pro Sekunde und Fernsehprogramme mit 60 Bildern pro Sekunde wiedergegeben werden. Obwohl die Technologie es ermöglicht, Filme in HFR zu zeigen, wie z.B. Avatar 2: The Way of Water Ende 2022, gibt es kaum Filme, die in HFR produziert werden. Dies wirft die Frage auf, ob Menschen den Unterschied in der Framerate überhaupt wahrnehmen können und ob eine Erhöhung der Framerate gleichzeitig zu einer höheren Videoqualität führt. In dieser Arbeit wird ein subjektiver Test zur Beurteilung der Videoqualität durchgeführt, der diese Fragen beantworten soll und auch zur Klärung der Forschungsfrage dient, ob HFR zu einer signifikanten Qualitätsverbesserung führt. Für diesen Test wird ein Videodatensatz zusammengestellt, der von mehreren Testteilnehmern bewertet und anschließend in Form von Diagrammen und einem Videoqualitätsmodell ausgewertet wird. Das Qualitätsmodell zeigt eine starke Korrelation zwischen den vorhergesagten Daten und den tatsächlichen Bewertungen. Somit kann das entwickelte Modell zur Vorhersage der Videoqualität verwendet werden.



Din, Adeel Ud;
Assessment of QoE in open-source video conferencing solutions. - Ilmenau. - 110 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Die Zunahme von Videokonferenzen nach 2019 führte zur Erforschung von WebRTC als Werkzeug für Echtzeitkommunikation ohne zusätzliche Softwareinstallationen. Trotz der Beliebtheit wurde in der Forschung festgestellt, dass WebRTC anfällig für Netzwerkbeeinträchtigungen ist, die sich auf die Quality of Experience (QoE) auswirken. Diese Arbeit untersucht menschliche Faktoren und kontextuelle Einflüsse auf die QoE in WebRTC-Videokonferenzen. Ein subjektiver Test mit 18 Teilnehmern, Daten aus webbasierten Tests mit Netzwerkbeeinträchtigungen und maschinelles Lernen für QoE-Schätzung wurden durchgeführt. Ergebnisse zeigen Einflüsse auf die QoE, besonders unter höchsten Testbedingungen. Das XGBoosting-Modell erwies sich als effektiv für Echtzeitschätzungen.



Sanne, Julian;
Energieverbrauch von DASH-Videostreaming. - Ilmenau. - 61 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Bereits heute werden täglich 170g CO2-Äquivalente pro Einwohner in Deutschland für Videostreaming emittiert. Bei einem steigenden Datenverkehr im Internet und immer größer werdenden Popularität von Video-on-Demand Plattformen mit UHD-Inhalten, wird dieser Wert auch in Zukunft steigen. Ein steigender Energieverbrauch besitzt eine hohe Relevanz, da er sowohl negative Folgen für die Umwelt, als auch steigende Stromkosten mit sich bringt. In der Arbeit wurde der Stromverbrauch von DASH-basiertem Videostreaming für die Seite des Clients untersucht. Dabei wurde ein Fokus auf Faktoren gelegt, die den Stromverbrauch beeinflussen, wie z.B. die Videoauflösung, Bildwiederholrate, Videobitrate oder der verwendete Videocodec. Mit einer smarten Steckdose wurden für ein Laptop und einen Desktop-PC mit zwei unterschiedlichen Hardwarekonfigurationen die Stromverbräuche automatisiert gemessen. Dafür wurden von jedem Video für die ersten zehn Sekunden der Stromverbrauch erfasst und jede halbe Sekunde abgefragt. Insgesamt umfassten die Messungen für alle Endgeräte 350 Repräsentationen mit jeweils vier Videoparametern. In Abhängigkeit der jeweiligen Endgeräte und Videoparameter wurden die Messwerte evaluiert. Hierzu wurde festgestellt, dass der Stromverbrauch vom Endgerät abhängig ist und maßgeblich von der Unterstützung für Hardwaredecodierung für bestimmte Videocodecs beeinflusst wird. So konnten für Durchschnittswerte ein Unterschied von 37 % im Stromverbrauch zwischen Hardware- und Softwaredecodierung ausgemacht werden. Auch bei hardwaredecodierten Videos wurden Differenzen von bis zu 7,3 % im Verbrauch zwischen den Videocodecs erfasst. Durch eine richtige Wahl von Videoparametern, angepasst auf das Endgerät, können so mögliche Stromsparpotentiale durchgesetzt werden.



Ahmed, Munim;
Audio-driven lip-syncing talking head avatar generation. - Ilmenau. - 94 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Die audiogesteuerte Lippensynchronisation ist ein entscheidendes Element, um die Authentizität und das Engagement von virtuellen Charakteren in Mixed-Reality-Umgebungen zu verbessern. Diese Arbeit stellt einen innovativen Ansatz zur präzisen und dynamischen Lippensynchronisation für 3D-Avatare durch die Integration modernster Deep-Learning-Techniken und Echtzeit-Animation vor. Die vorgeschlagene Methodik nutzt ein bidirektionales Langzeitgedächtnismodell (BiLSTM), um Phoneme und Viseme aus Echtzeit-Spracheingaben vorherzusagen, was zu synchronen und genaue Lippenbewegungen führt. Die Forschung umfasst die Entwicklung und den Einsatz eines ganzheitlichen Systems, das drei Kernkomponenten umfasst: Audioanalyse, Deep Learning lernende Modellierung und Echtzeit-Animation. Die Phase der Audioanalyse umfasst die Vorverarbeitung der Spracheingabe, um sinnvolle phonetische Merkmale zu extrahieren. Anschließend wird ein BiLSTM-Modell sorgfältig trainiert, um sowohl Phoneme als auch Viseme vorherzusagen. Dabei wird der zeitliche Kontext der Sprachsignale genutzt, um die Präzision zu erhöhen. Die nahtlose Integration dieses Modells mit einem bereits vorhandenen 3D-Avatar wird in der Unity Echtzeit-Entwicklungsplattform realisiert, unterstützt durch ein UDP-Socket-basiertes Rahmenwerk. Dies ermöglicht die Echtzeit-Übertragung der vorhergesagten phonemischen und visemischen Informationen, die wiederum die Lippen des Avatars in einer Weise animieren, die der natürlichen Sprachsynchronisation sehr nahekommt. Das vorgeschlagene System hat vielversprechende Ergebnisse in verschiedenen Dimensionen erzielt und eine Genauigkeit von etwa 80% Echtzeitleistung und visuelle Wiedergabetreue. Es wurde ein umfangreicher subjektiver Test durchgeführt, um die Leistung des Frameworks bei verschiedenen Spracheingaben zu bewerten, was sein Potenzial bestätigt, die das Engagement und die Immersion des Benutzers erhöhen, indem lebensechte Avatare präsentiert werden, die eine bemerkenswerte Sprachpräzision aufweisen. Diese Forschung stellt eine innovative Lösung in der audio-gesteuerten Animation, bei der die Verschmelzung von Deep Learning, Echtzeit-Kommunikation und 3D-Animationstechnologien die Lücke zwischen Audio und visuellem Ausdruck schließt. Die Evaluierungsergebnisse zeigen die konsequente Überlegenheit des vorgeschlagenen Rahmens bei der Nutzerwahrnehmung, insbesondere in den Bereichen Avatar-Realismus, Lippensynchronisationsfähigkeiten und Verhaltensplausibilität. Während die statistische Analyse keine signifikanten Unterschiede zwischen den Frameworks aufzeigt, zeigen die individuellen Bewertungswerte, dass die Teilnehmer das vorgeschlagene Framework in Bezug auf die Lippensynchronisation und den Realismus des Avatars für plausibler und robuster halten.



Elmeligy, Bassem Tarek Mokhtar;
Evaluating the performance of JPEG XS in medical image compression. - Ilmenau. - 83 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Medizinische Bilder, die es medizinischen Fachleuten ermöglichen, in den menschlichen Körper zu sehen und Anomalien zu erkennen, sind für die Diagnose und Behandlung zahlreicher Erkrankungen von wesentlicher Bedeutung. Diese Masterarbeit befasst sich mit der Bedeutung der medizinischen Bildgebung und geht gleichzeitig auf die Herausforderung der großen Dateigrößen ein, die mit medizinischen Bildern verbunden sind. Sie zielt darauf ab, die Effektivität von JPEG XS bei der Komprimierung medizinischer Bilder zu bewerten, wobei die visuelle Qualität beibehalten und die Dateigrößen reduziert werden. Die Studie führt eine detaillierte vergleichende Analyse von JPEG XS mit anderen Komprimierungsstandards wie JPEG 2000, HEVC und AV1 durch und berücksichtigt dabei Komprimierungseffizienz, Codec- Komplexität und visuelle Wiedergabetreue in der medizinischen Bildgebung. Fortgeschrittene Bewertungsmethoden, einschließlich des AIC-2 Flicker-Tests, werden eingesetzt, um den visuell verlustfreien Schwellenwert zu bestimmen, der für die Erhaltung diagnostisch wichtiger Details unerlässlich ist. Darüber hinaus wird in der Studie das Potenzial von Crowd-Sourcing für die Bewertung der visuellen Qualität der medizinischen Bildkompression untersucht. Die Ergebnisse zeigen, dass AV1 andere Codecs in objektiven Metriken durchweg übertrifft, was seine Effizienz bei der Kompression unterstreicht. JPEG 2000 und HEVC schneiden ebenfalls gut ab, während JPEG XS bei niedrigeren Bitraten ins Hintertreffen gerät. Die Analyse der Kodierungszeiten zeigt, dass JPEG XS über verschiedene Komprimierungsstufen hinweg eine schnelle und konsistente Geschwindigkeit beibehält, wodurch es sich für medizinische Bildgebungsgeräte mit geringer Komplexität eignet. Subjektive Bewertungen in Labor- und Crowd-Sourcing-Tests zeigen unterschiedliche Anteile richtiger Bewertungen unter den Teilnehmern, und die Studie schlägt Methoden zur Erkennung von Ausreißern vor, um die Zuverlässigkeit der Bewertung zu erhöhen. Die Studie stellt eine starke Korrelation zwischen Labor- und Crowd-Sourcing-Bewertungen sowie zwischen subjektiven Bewertungen und objektiven Messwerten fest und bestätigt damit die Fähigkeit der letzteren, die menschliche Wahrnehmung der Bildqualität vorherzusagen. Es werden die visuell verlustfreien Schwellenwerte für verschiedene Codecs ermittelt, die wichtige Informationen für Diagnosezwecke liefern. Zusammenfassend bietet die Studie umfassende Einblicke in die Bewertung der medizinischen Bildkompression, die sowohl objektive als auch subjektive Beurteilungen umfasst, mit bedeutenden Auswirkungen auf die visuell verlustfreie Kompression in medizinischen Bildgebungsanwendungen.



García Romero, Ana;
Development and evaluation of different visualization approaches for interactable rooms in immersive virtual environments. - Ilmenau. - 57 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Im Bereich der virtuellen Realität gibt es ein wachsendes Interesse an immersiven virtuellen Umgebungen (IVEs) in verschiedenen Branchen, einschließlich Gaming, Bildung, Gesundheitswesen und Training, da sie den Nutzern ansprechende und realistische Erlebnisse bieten. Der Realismus dieser Umgebungen ist unerlässlich, da sie ein höheres Gefühl von Präsenz und Immersion bieten und es den Nutzern ermöglichen, mit digitalen Räumen und Objekten auf eine Weise zu interagieren, die die reale Welt nachahmt. Es wird angenommen, dass immersive virtuelle Umgebungen potenzielle Vorteile bei der Verbesserung des räumlichen Verständnisses und der Aufgabenleistung haben. Im Rahmen dieser Arbeit wurden zunächst mehrere Studien vorgestellt, die verschiedene Visualisierungstechniken für IVEs verglichen oder kombiniert haben. Anschließend wurden modernste Visualisierungsansätze für interaktive Räume untersucht, wie z.B. 360-Grad-Bilder, CGI-Modellierung, Photogrammetrie und 3D-Scannen. Darüber hinaus wurden in der Literatur vorhandene Ansätze zur Bewertung verschiedener Aspekte virtueller Umgebungen diskutiert. Dazu gehört der Einsatz von Fragebögen zur Bewertung verschiedener Faktoren wie Simulatorkrankheit, Präsenz, Messung der Aufgabenleistung oder Analyse von Interaktionstechniken. Diese Methoden helfen den Forschern, ein umfassendes Verständnis der Benutzerpräferenzen zu gewinnen, um das Design von IVEs zu verbessern. Darauf aufbauend wurden drei unterschiedliche Ansätze mit unterschiedlichen Visualisierungstechnologien wie 360˚-Bilder, CGI-Modellierung und 3D-Scannen entwickelt. Alle erstellten virtuellen Räume sind interaktiv, so dass sich die Nutzer in diesen Räumen bewegen und Aufgaben ausführen können, wie z.B. ein Spiel aus dem Regal nehmen und auf einen Tisch stellen, einen Liegestuhl zusammenstellen oder das Licht einschalten. Darüber hinaus wurde ein subjektiver Test mit insgesamt 31 Probanden entwickelt und durchgeführt. Dabei wurden die verschiedenen Raumvisualisierungstypen hinsichtlich Sehqualität, Aufgabenleistung, Präsenz, Interaktionsmöglichkeiten und weiterer relevanter Faktoren bewertet und miteinander verglichen.