Theses

Here you can see the German abstract first. If you click on the link to a paper, you will be taken to a page from the library catalogue.
There you can view the English-language abstract under the item "Further information:".

Results: 203
Created on: Thu, 28 Mar 2024 23:02:58 +0100 in 0.0822 sec


Paracha, Abdul Haq Azeem;
Assessment and application of machine learning methods to NVH related component data in the automotive R&D environment. - Ilmenau. - 118 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Ein multidisziplinäres Wissen über Signalverarbeitung, Strukturdynamik, mechanische Systeme und Psychoakustik und vor allem ein erfahrener Fachmann sind Voraussetzung für die NVH-Analyse von Fahrzeugen. Eine wachsende Datenmenge aufgrund des raschen industriellen und technologischen Wandels stellt eine Herausforderung für NVH-Ingenieure dar. Die Fortschritte und Erfolge auf dem Gebiet des maschinellen Lernens, insbesondere der tiefen neuronalen Netze, sind eine Hauptmotivation für diese Forschung. Ziel dieser Studie ist es erstens, Datensätze aus der Automobilbranche und Forschung und Entwicklung zu analysieren und die Anforderungen an zukünftige Anwendungen des maschinellen Lernens zu bewerten. Zweitens soll das Deep Neural Network Autoencoder-Modell zur Erleichterung der Fehlerdiagnose für NVH-Ingenieure bewertet werden. Der Ansatz zur Beantwortung der Forschungsfrage ist datengetrieben. Die Autoencoder-Anwendung umfasst drei Fälle. Im ersten Szenario wird der Unterschied des Rekonstruktionsfehlers zwischen normalen und fehlerhaften Daten analysiert. Der zweite Ansatz besteht darin, einen Autoencoder für die Erkennung von Anomalien zu verwenden, und schließlich wird er für die Visualisierung in reduzierten Dimensionen eingesetzt. Die Methode zur Visualisierung von NVH-Daten ist rein unüberwacht und neben einem Autoencoder werden auch T-SNE und DBSCAN verwendet, um die Beziehung zwischen den Datenpunkten zu finden. Der primäre Fokus dieser Forschung ist das Repräsentationslernen. Daher wird die Anwendung des Autoencoders in verschiedenen parametrischen Variationen im Vorverarbeitungsschritt evaluiert. Außerdem werden zwei Modelle verwendet, ein tiefes neuronales Netz (Multilayer Perceptron) und ein rekurrentes neuronales Netz mit Langzeitgedächtnis. Die Untersuchung schließt mit einem Vergleich der Leistung der Vorverarbeitungsparameter und der Modelle für die Fehlererkennung in den NVH-Industriedatensätzen ab. Außerdem werden die Einschränkungen bei der Verfügbarkeit von Daten und Kommentaren aufgrund der hohen Kosten untersucht. Die Ergebnisse dieser Forschung liefern nicht nur einen Mechanismus zur Fehlererkennung, sondern auch eine methodische Grundlage für die künftige Bewertung von Industriedatensätzen.



Pillai, Prateek Pradeep;
Loudspeaker configuration for immersive audio in cars using up-firing techniques. - Ilmenau. - 83 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Eine der Herausforderungen für Automobilhersteller und Hersteller von Car-Audio-Systemen ist die Entwicklung von Car-Audio-Systemen, die den wachsenden Bedarf an immersiven Unterhaltungserlebnissen für den mobilen Konsum von Multimedia-Formaten wie Dolby Atmos erfüllen. In dieser Arbeit wird versucht, Up-Firing-Technologien für einen Car-Audio-Anwendungsfall zu adaptieren, der solche immersiven Audioerlebnisse ohne Verwendung von Deckenlautsprechern ermöglicht. Eine 5.1.4 Lautsprecherkonfiguration mit Up-Firing-Lautsprechern wurde entwickelt und mittels objektiver und subjektiver Bewertungsmethoden mit Stereo, 5.1 und einer 5.1.4-Referenzkonfiguration mit Deckenlautsprechern verglichen. Objektive Bewertungsmethoden wie der Pearson-Korrelationskoeffizient (PCC) und die Perceptual Evaluation of Audio Quality (PEAQ) konnten minimal zwischen den spektralen, nicht aber den räumlichen Merkmalen verschiedener Lautsprecherkonfigurationen unterscheiden. Die Schätzung der Einfallsrichtung half dabei, die räumlichen Ähnlichkeiten zwischen der 5.1.4-Referenzkonfiguration mit Deckenlautsprechern und der vorgeschlagenen Up-Firing 5.1.4- Konfiguration zu ermitteln und zeigte die Grenzen der Lautsprecheraufstellung für Up-Firing-Lautsprecherchassis auf. Die subjektiven Bewertungstests ergaben eine klare Präferenz der Hörer für die 5.1-Lautsprecherkonfiguration, die in "Multiple Stimulus with Hidden Reference and Anchor (MUSHRA)"-Tests etwa 7 Punkte höher bewertet wurde als die 5.1.4-Lautsprecherkonfiguration mit Up-Firing. Allerdings erwies sich diese als deutlich besser als die Stereokonfiguration mit einer MUSHRA-Bewertungsdifferenz von etwa 14 Punkten. Diese Bevorzugung könnte auf mehrere Faktoren zurückzuführen sein, einschließlich, aber nicht beschränkt auf die Abstimmung des Fahrzeuginnenraums, den Zielfrequenzgang der Up-Firing 5.1.4-Lautsprecherkonfiguration, sowie auf die Klangfarbe der Up-Firing Lautsprecher selbst. Diese subjektiven Testergebnisse unterstützen die objektiven Ergebnisse, die darauf hinweisen, dass die vorgeschlagene Up-Firing 5.1.4-Lautsprecherkonfiguration einen weniger ausgeprägten Höheneindruck vermittelt als die 5.1.4-Referenzkonfiguration mit Deckenlautsprechern. Die nahe beieinander liegenden MUSHRA-Bewertungen der Up-Firing 5.1.4 Lautsprecherkonfiguration und der 5.1 Konfiguration bieten eine vielversprechende Grundlage für die Erforschung einer Alternative für den Einsatz von Deckenlautsprechern. Die wichtigste Anwendung einer solchen Lautsprecherkonfiguration ist für Unterhaltungszwecke, z.B. um auch den Insassen von Autos mit niedriger Deckenhöhe/Sonnendach, die keine dedizierte Deckenlautsprecher besitzen, die Möglichkeit zu geben, unterwegs ein virtuelles Konzert zu erleben. Weitere Verbesserungen der Up-Firing Lautsprecherkonfiguration könnten Anwendungen für Gefahren- oder Kollisionswarnungen, Einparkhilfen und Freisprecheinrichtungen für Mobiltelefongespräche, bei denen der Ton aus unterschiedlichen Bereichen des Fahrzeugs kommen soll, ermöglichen.



Ma, Hong;
Unity und 4K-PTZ Kameras als Produktionswerkzeuge für virtuelle Studios. - Ilmenau. - 91 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Das virtuelle Studiosystem ist eine Weiterentwicklung der Bluescreen Produktion von Fernsehinhalten. Es umfasst Schlüsseltechnologien wie Bluescreen-Aufnahme, Kamera-Tracking und -steuerung, Keying und Erstellung von 3D-Szenen. Die virtuelle Studiotechnologie verbessert die Effizienz der Fernsehproduktion, indem z.B. viel Zeit für den Umbau der Studiobühne gespart wird. Außerdem sind die Kosten für die Erstellung und den Platzbedarf bei der Lagerung durch die Nutzung eines virtuellen Studios zum größten Teil gelöst. Darüber hinaus weist das virtuelle Studio ein hohes Maß an Flexibilität auf. So lassen sich mit viel Kreativität der Designer überraschende Effekte bei den Fernsehinhalten realisieren. Diese kann die Qualität und Attraktivität von Fernsehsendungen deutlich verbessern. Inhalt und Aufgabe dieser Masterarbeit war zu untersuchen, ob neue, günstigere Kamerasysteme mit Sensorik (PTZ-Kameras) und neuste 3D-High-End Grafikkarten Potential bieten ein kompakteres virtuelles Studio System aufzubauen. Die Komponenten zur Umsetzung des neuen virtuellen Studio Systems sind dabei vorgegeben und bestehen aus einem High-End Computer, einer PTZ-Kamera, einem Remote-Controller und der Unity3D Software als Rendering-Engine. Mit diesen Komponenten wäre man in der Lage, das Rendering der 3D-Szene für den Hintergrund und das Chroma-Keying in der Bluebox, der High-End 3D-Grafikkarte, zu berechnen. Die Umsetzung der Masterarbeit beinhaltet die Implementierung bzw. Erweiterung von Unity, um die Funktionalitäten der Kamera-Synchronisation, dem Keying, von Filtern und der Kamerafernsteuerung zu realisieren. Das Ergebnis soll in einem Fallszenario demonstriert werden.



Suleman, Muhammad Sami;
Influence of haptic feedback and embodiment on the user experience in virtual reality conferencing and commissioning. - Ilmenau. - 88 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Haptische Rückmeldung und Verkörperung sind ein aktiv erforschter Bereich in der virtuellen Realität (VR). Ein VR-System, das es dem Benutzer ermöglicht, mit virtuellen Objekten so zu interagieren, als ob sie real wären, ist äußerst wünschenswert. Die massive Entwicklung der VR-Industrie hat zu einer Beschleunigung der Entwicklung der haptischen Handschuhtechnologie sowie der Selbstdarstellung des Nutzers in VR durch digitale Avatare geführt. Es gibt jedoch nur wenige Forschungsstudien, die den Einsatz von haptischen Handschuhen in Verbindung mit der Verkörperung in einer virtuellen Umgebung (VE) untersucht haben. Die Bedeutung dieser Forschung liegt darin, besser zu verstehen, wie haptisches Feedback und 3D-Avatarisierung die Benutzererfahrung beeinflussen. Das Hauptziel dieser Studie ist die Entwicklung eines Proof-of-Concept (POC) für eine immersive virtuelle Umgebung (IVE). Durch den Einsatz von Geräten mit haptischem Feedback und Embodiment wird die POC IVE zur Untersuchung von Forschungsfragen zu Präsenz und Immersion eingesetzt. Für das haptische Feedback wurde das SenseGloves Development Kit 1 (DK1) verwendet. Der SenseGloves DK1 ist eine gelenkige Exoskelett-Struktur mit kinästhetischem und vibrotaktilem Feedback. Außerdem wurden in diesem Projekt HTC Vive-Tracker verwendet, um den Körper des Benutzers zu verfolgen. In Unity 3D wurde die Ganzkörperbewegung in der virtuellen Realität mit Hilfe eines 3-Punkt-Trackingsystems, inverser Kinematik und Animationsrigging rekonstruiert. Subjektive Tests wurden von drei VR-Fachleuten durchgeführt, um einen Einblick in die oben gestellten Studienfragen zu erhalten und die Präsenz und Immersion in der virtuellen Realität einzuschätzen. Zwei Testfälle wurden als POC entwickelt. Im ersten Testfall wurde eine Demo für VR-Telekonferenzen entwickelt. Es gab drei verschiedene Szenarien. Die Szenarien enthielten unterschiedliche Einstellungen für haptisches Feedback und Verkörperung. In jedem Szenario musste der Benutzer eine Aufgabe lösen, gefolgt von einem Fragebogen. Im zweiten Testfall wurde eine virtuelle Inbetriebnahme-Demo entwickelt. Sie enthielt ebenfalls drei Szenarien für haptisches Feedback und Verkörperung. In jedem Szenario müssen Aufgaben erledigt und anschließend ein Fragebogen ausgefüllt werden. Schließlich werden die Daten in Gruppen aufgeteilt und mit einfachen Verfahren wie Mittelwert, Standardabweichung, Spearman-Korrelation, ANOVA und t-Test ausgewertet. Die Schlussfolgerungen bestätigten mehrere Ergebnisse früherer Studien über den Einfluss von Haptik und Verkörperung auf die Benutzerqualität und -leistung in VR. Schließlich zeigten die Ergebnisse auch die Bedeutung der Haptik und die Vorteile der Verkörperung für kleine Aufgaben, die in virtuellen Telekonferenzen durchgeführt werden, und die Herausforderung, Aufgaben zu bewältigen, wie zum Beispiel bei der virtuellen Inbetriebnahme.



Analysis of movie trailer composition for automatic trailer generation. - Ilmenau. - 77 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Filmtrailer sind der effektivste Weg, einen Film zu bewerben und das Publikum anzulocken. Heutzutage wächst der Einfluss von Trailern, da sie auf sozialen Medien und Video-Sharing- Plattformen weit verbreitet sind. Das Schneiden eines Filmtrailers gilt als innovativer Prozess, bei dem Profis stundenlanges Filmmaterial sichten, die Szenen auswählen, die am ehesten die Aufmerksamkeit des Publikums erregen, und diese dann schneiden und neu anordnen, um den Trailer zu erstellen. In dieser Arbeit wird ein Ansatz des überwachten Lernens vorgestellt, der automatisch Clips aus Filmen empfehlen kann, ohne dass menschliches Eingreifen oder manuelle Annotationen erforderlich sind, um die Erstellung von Trailern zu unterstützen. Die Methode verwendet ein Deep Convolutional Neuronal Netzwerk (CNN) in Kombination mit einem Long Short-Term Memory (LSTM), um die räumlich-zeitlichen Merkmale von Aufnahmen in Trailern zu modellieren. Das CNN-LSTM-Netzwerk besteht aus zwei Schichten: 1) visuelle Merkmalsextraktion, bei der das CNN-basierte Modell trainiert wird, um den Trailer in die entsprechenden Genres zu klassifizieren; und 2) Highlight-Erkennung, bei der das kombinierte CNN-LSTM-Modell trainiert wird, um Filmclips als Highlights oder Nicht-Highlights zu kategorisieren. Um das entworfene Modell zu trainieren und zu evaluieren, wird ein neuer Filmtrailer-Datensatz erstellt, der über 15K Trailer und 86 Filme mit entsprechenden Filmplots und Metadaten enthält. Der vorgeschlagene Ansatz wurde an mehreren Filmen in Spielfilmlänge getestet. Da es keinen allgemein akzeptierten Bewertungsmechanismus für die Erstellung von Filmtrailern gibt, wurden die erkannten Highlight-Clips als Empfehlungspool extrahiert und mit dem entsprechenden offiziellen Trailer für denselben Film verglichen. Die Ergebnisse zeigen, dass das vorgeschlagene System angemessene Empfehlungen für Filmtrailer gibt und die vom System ausgewählten Clips die zufällig ausgewählten Clips deutlich übertreffen können. Somit extrahiert das System alle notwendigen Informationen aus dem Eingabefilm ohne Vorwissen und empfiehlt den menschlichen Redakteuren automatisch hoch relevante Filmclips, wodurch die Produktionszeit reduziert wird.



Sinani, Luljeta;
Effect of latency on user perception in a mixed reality environment. - Ilmenau. - 70 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Volumetrisches Video (VV) ermöglicht es Zuschauern, hochrealistische 3D-Inhalte mit sechs Freiheitsgraden (6DoF) in Mixed Reality (MR) Umgebungen zu erleben. Das Rendern von volumetrischen Inhalten erfordert viel Rechenleistung, was besonders für mobile Geräte eine Herausforderung darstellt. Um dies zu entschärfen, wird oft das Auslagern des Renderings auf einen Cloud-Server als Lösung gesehen. In solchen Systemen rendert der Cloud-Server eine 2D-Ansicht des volumetrischen Inhalts und streamt ein 2D-Video an den Client (z.B. ein mobiles Gerät). Diese Lösung erhöht jedoch die Motion-to-Photon-Latenz (M2P) aufgrund der zusätzlichen Netzwerk- und Verarbeitungsverzögerungen. Die M2P-Latenz verursacht eine Fehlregistrierung zwischen virtuellen volumetrischen Objekten und der realen Welt. Obwohl verschiedene Techniken zur Minimierung der wahrgenommenen M2P-Latenz vorgeschlagen wurden, sind Techniken zur Messung und Bestimmung der Wahrnehmungsschwellen des Benutzers nicht weit erforscht. Daher wird in dieser Arbeit ein subjektives Testexperiment entworfen, das darauf abzielt, Schwellenwerte für die Latenzerkennung für statische volumetrische Objekte zu finden, die mit einem MR-Headset präsentiert werden. Zu diesem Zweck wird eine Methode entwickelt, um volumetrischen Objekten eine künstliche Latenz hinzuzufügen, es werden psychometrische Methoden zur Bestimmung von Wahrnehmungsschwellen der Latenz untersucht, und es wird eine Testumgebung zur Durchführung subjektiver Tests entwickelt. Für acht Probanden werden unter bestimmten Bedingungen Latenzschwellen gemessen. Die Ergebnisse für die Latenzdiskriminierung werden anhand des Point of Subjective Equality (PSE) und der Just Noticeable Difference (JND) berichtet, die aus den angepassten psychometrischen Funktionen jedes Benutzers extrahiert wurden. Die gefundenen mittleren JND und PSE betragen 16,1 ms bzw. 58,1 ms. Aus diesen Ergebnissen kann gefolgert werden, dass die JND für die Latenzunterscheidung durch trainierte Probanden im Durchschnitt ˜16 ms oder weniger beträgt, unabhängig von der Komplexität des Inhalts. Diese Werte beinhalten nicht die Grundlinienlatenz des Systems. Die Tests wurden unter bestimmten Bedingungen durchgeführt, und die Ergebnisse gelten möglicherweise nicht für alle MR-Bedingungen. Dennoch sind diese Ergebnisse ein Schritt, der es Wissenschaftlern und Ingenieuren ermöglicht, die Latenzanforderungen für die Übertragung von volumetrischem Video, das auf einem Remote-/Cloud-Server gerendert wird, zu bestimmen.



Jawid, Fahad;
Development and investigation of a system to measure influence factors for task performance in immersive virtual environments. - Ilmenau. - 105 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Heutzutage hat die virtuelle Realität aufgrund ihrer fortschrittlichen technischen Eigenschaften so viel Aufmerksamkeit erlangt. Es ist einfach, sie mit virtuellen Objekten auf die gleiche Weise wie in der realen Umgebung zu integrieren und verschiedene Aufgaben innerhalb der virtuellen Umgebung genau wie in der realen Umgebung durchzuführen. Es gibt noch einige Möglichkeiten, an denen noch viel geforscht wird und werden muss. Die Distanzwahrnehmung ist eine dieser möglichen Szenarien in der virtuellen Realität. Es ist ein aktives Forschungsgebiet, dass Benutzer die Entfernung eines Objekts in der virtuellen Realität näher zu sich sehen als in der realen Welt. Um dieses Problem besser zu bewältigen und zu verstehen, besteht die Aufgabe in dieser Arbeit darin, eine Umgebung zu entwerfen, die einige Objekte innerhalb der virtuellen Umgebung wie in der realen Umgebung enthält, und dann den Abstandsunterschied zwischen ihnen im Nahfeld durch einige subjektive Tests zu ermitteln und die messenden Einflussfaktoren für diese Aufgabe mit ihrer Leistung in der immersiven virtuellen Umgebung zu untersuchen. Bisher wurden einige Untersuchungen zu Abstandsunterschieden im Nahfeld durchgeführt, bei denen die Teilnehmer verwirrt waren und mehr Zeit benötigten, um die Aufgabe zu beenden, die 2 cm oder mehr betrug, um zwischen der virtuellen und der realen Umgebung zu wechseln. Das Ziel dieses Themas ist es, eine effizientere und genauere Untersuchung von Abstandsunterschieden im Nahfeld zu finden und die Auswirkungen der Einflussfaktoren auf die Aufgabenleistung zu messen. Es wurden verschiedene subjektive Tests in immersiven virtuellen Umgebungen durchgeführt und vier verschiedene Aufgaben mit dem HTC vive pro, einem Head-Mounted Display, dargestellt. Die virtuellen Umgebungen sind interaktiv, da alles, was die Testperson in der realen Umgebung tut, auch in der virtuellen Umgebung geschieht. Für die in diesem Thema definierten Aufgaben wird das Subjekt einige Aufgaben im Sitzen und andere Aufgaben in einer beweglichen Position ausführen. Nachdem die subjektiven Tests von den Teilnehmern durchgeführt wurden, mussten sie einige Fragen zu den Testszenarien beantworten. Diese Fragen bezogen sich auf die Abstandsdifferenzschätzung und Einflussfaktoren für die Aufgabenerfüllung im IVE. Aus diesen subjektiven Tests wurden die Auswertung und die Ergebnisse durchgeführt. Aus der Einschätzung der Teilnehmer wurde geschlossen, dass die Verwirrung und die Zeit für die Bearbeitung der Aufgaben für jede Aufgabe unterschiedlich war. Bedingungen wie haptisches Feedback, ohne haptisches Feedback, erraten der Zahl, immersive Umgebung und Einflussfaktoren beeinflussen diese Aufgabenleistungen. Aber auch die kombinierten Ergebnisse mit HTC vive pro Hand-Tracking und ohne Hand-Tracking wirken sich auf jede Aufgabe aus. Die frühere [Fre+20] und die neueste Forschung zeigt, dass ab 2cm - 2,5cm die Verwirrung zunimmt. Diese Punkte sind wahrscheinlich nur im Abstand von 2cm - 2,5cm spürbar. Da jedoch nur ein Teilnehmer für alle Aufgaben zur Verfügung stand und eine geringere Anzahl von subjektiven Aufgaben durchgeführt wurde, waren mehr subjektive Tests erforderlich, um bessere und genauere Ergebnisse zu finden.



García Romero, Ana;
Evaluation immersiver virtueller Umgebungen und Entwicklung einer prototypischen Umgebung für Virtual Reality Telekonferenzen. - Ilmenau. - 60 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

Diese Bachelorarbeit befasst sich mit der Entwicklung eines Prototyps einer anpassbaren immersiven virtuellen Umgebung (engl.: immersive virtual environment, kurz IVE) zum Zweck von Telekonferenzen mit VR-Technologie. Das allgemeine Ziel ist eine neue und innovative Benutzererfahrung zu bieten, indem der Nutzer vollständig in eine virtuelle Umgebung eintaucht und dabei die Möglichkeit hat, diese nach Empfinden anzupassen. Außerdem soll der virtuelle Raum idealerweise als virtueller Arbeitsraum genutzt werden können. Auf Basis einer Literaturrecherche wurde ein Einblick in Anwendungsmöglichkeiten der VR-Technologie gegeben. Daraufhin wurde analysiert, welche Technologien zur Implementierung einer immersiven virtuellen Umgebung erforderlich sind. Anhand einer detaillierten Untersuchung über immersive virtuelle Umgebungen wurde festgehalten, wie ein Prototyp einer IVE für VR-Telekonferenz aussehen soll und welche Anforderungen es für die Entwicklung gibt. Darüber hinaus wurde die Entwicklung der IVE durchgeführt und es auf einem HTC Vive Pro-System sowie auf einem Varjo VR-1-HMD ausführen können. Des Weiteren wurde im Rahmen dieser Arbeit entwickelte Prototyp der IVE durch einen kleinen informellen Test mit lediglich einem Teilnehmer bewertet.



Wang, Shuang;
Comparison of objective and subjective methods for assessing point clouds. - Ilmenau. - 71 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

3D Point Clouds bezeichnen eine der ausgereiftesten Technologien zur Darstellung von plenoptischen Inhalten, die in letzter Zeit rasch zunehmen. Praktische Methoden und Datenbanken zur Bewertung der Qualität von Point Clouds fehlen jedoch noch weitgehend. Daher wird in dieser Masterarbeit die Qualitätsbewertung von statischen 3D Point Clouds und dynamischen Point Clouds behandelt. Mittels einer gründlichen Analyse untersucht diese Studie: (1) den Einfluss von 3D Point Clouds mit verschiedenen Degradationstypen auf die visuelle Wahrnehmungsqualität, (2) den Vergleich von MPEG G-PCC- und V-PCC-Kompressionsmethoden, (3) die Genauigkeit der vorhandenen objektiven Qualitätsmetriken des Stand der Techniks. Zu diesem Zweck wird eine subjektive Methode mit einem einzigen Single-Stimulus-Protokoll (ACR) vorgeschlagen, um die Qualität von 3D Point Clouds mithilfe von Crowdsourcing zu bewerten. Ein Crowdtest ist im Vergleich zu einem Labortest eine zeit- und kostenfreundliche Methode, die mehr und vielfältigere Teilnehmer ermöglicht. Daher sind zwei Crowdsourcing-Experimente auf die Forschungsfragen ausgerichtet. In Experiment 1 werden Gaußsches Rauschen und Octree-basierte PCL-Komprimierung verwendet, um Positionsfehler bzw. Punkteverringerung nachzuahmen. MPEG G-PCC und V-PCC sind die in Experiment 2 verwendeten Komprimierungsmethoden nach dem Stand der Technik. Anschließend werden die erfassten subjektiven Bewertungen verwendet, um die aktuellen objektiven Qualitätsmetriken des Stands der Technik zu vergleichen. Schließlich werden die subjektiven und objektiven Ergebnisse analysiert und miteinander verglichen. Zur Unterstützung der Crowdtests wurde eine dynamische Website entwickelt, die die Visualisierung von Point Clouds und die Bewertungsfunktion integriert. Die Analyse und der Vergleich mit objektiven Metriken der Crowdtests zeigen, dass 3D Point Clouds in einer Crowd-Umgebung durchgeführt werden können, während in zukünftigen Arbeiten noch andere Komprimierungsmethoden und -parameter untersucht werden sollten.



Schäfer, Thorsten;
Live-conversion of HD and UHD material and their impact on dynamic range and color gamut. - Ilmenau. - 149 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

Der zunehmende Einsatz von neuen Technologien wie Ultra-High Definition und / oder dem erweiterten Farbraum Rec. 2020 bzw. eines größeren Dynamikumfangs (HDR) bietet viele Möglichkeiten und stellt gleichzeitig etliche neue Herausforderungen an Live-TV-Produktionen. Für eine effiziente Parallelproduktion von Standard-HD und HD/UHD mit eben diesen neuen Technologien ist eine ädequate Echtzeit-Konvertierung entscheidend für die Bildqualität. Daher soll diese Arbeit zunächst die Wahrnehmung von Bildqualität, die neuen Technologiestandards und verschiedene Live-Produktions-Workflows erörtern, um darauf aufbauend anhand von praktischen Beispielen den tatsächlichen Bedarf zu untersuchen. Anschließend werden vier Geräte, die diese Live-Workflows ermöglichen, analysiert und umfassend getestet. Dazu dient hauptsächlich ein umfangreicher subjektiver Test nach ITU-R BT.500-14 mit 32 Teilnehmern ergänzt von weiteren Metriken. Letztlich werden die kombinierten Ergebnisse aus diesem Test dargestellt und diskutiert.