Theses

Here you can see the German abstract first. If you click on the link to a paper, you will be taken to a page from the library catalogue.
There you can view the English-language abstract under the item "Further information:".

Results: 204
Created on: Fri, 19 Apr 2024 23:03:45 +0200 in 2.9315 sec


Zeeshan, Muhammad Faiz;
Comparison of QoE, simulator sickness and behavioral analysis in different head mounted displays. - Ilmenau. - 90 Seiten
Technische Universität Ilmenau, Masterarbeit 2024

Die Gewährleistung einer hochwertigen Benutzererfahrung/Quality of Experience (QoE) in der virtuellen Realität (VR) ist von größter Bedeutung. Insbesondere, wenn man die Auswirkungen von verschiedenen Head Mounted Displays (HMDs) berücksichtigt. Um ein qualitativ hochwertiges und immersives Benutzererlebnis zu bieten, ist es wichtig, Faktoren wie Simulator Sickness zu minimieren und das Gefühl der eigenen Präsenz im virtuellen Raum zu optimieren. Der Einfluss der physikalischen Eigenschaften der HMDs muss ebenfalls berücksichtigt werden, daher ist ein umfassender Ansatz notwendig. Um diese Annahmen zu überprüfen, ist eine gründliche Analyse von QoE, Simulator Sickness und dem Nutzerverhalten (Explorationsverhalten) über mehrere HMDs hinweg, mittels subjektiver Tests mit 24 Teilnehmern durchgeführt wurden. Die drei HMDs Varjo XR-3, HTC Vive Pro Eye und Pimax 8K wurden in dieser Masterarbeit eingesetzt. Es wurden die Videoqualität, die eigene Präsenz und Angaben zu den Symptomen der Simulator Sickness erfasst. Zur Untersuchung des Einflusses der HMDs auf das Explorationsverhalten, wurden auch Kopfrotationsdaten aufgezeichnet. Die Ergebnisse zeigen, dass die Variationen der Videoqualität und des Präsenzgefühls vor allem bei HTC Vive Pro Eye und Varjo XR-3 durch die Bitrate beeinflusst wurden. Darüber hinaus wurde das Explorationsverhalten signifikant von physischen Attributen wie dem Gewicht und der Ergonomie des HMD beeinflusst. Es konnten Schlüsselfaktoren identifiziert werden, die sich auf die Benutzererfahrung bei der Bewertung verschiedener HMDs auswirken. Diese schließen Videoqualität, Präsenzgefühl und Simulatorkrankheit ein. Physikalische Eigenschaften beeinflussen auch das Nutzerverhalten. Diese Ergebnisse können als Leitfaden für die Verbesserung der QoE bei verschiedenen Head Mounted Displays dienen.



Ziegler, Sebastian;
Sensory evaluation of HDR videos. - Ilmenau. - 75 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2024

High Dynamic Range (HDR) hat in den letzten Jahren aufgrund der Digitalisierung und der Spezifikation von Ultra-High Definition Television (UHDTV) für den Rundfunk an Bedeutung gewonnen. Durch Erhöhung des Dynamikumfangs vergrößert HDR die Anzahl der Helligkeitswerte zwischen dem niedrigsten und dem höchsten Wert eines Videos, wodurch ein höherer Kontrast und eine allgemeine Verbesserung der Videoqualität erhofft wird. Die Wahrnehmbarkeit dieser potenziellen Verbesserungen wurde in dieser Bachelorarbeit mit Hilfe einer perzeptiven Analyse von HDR-Videos untersucht. Ziel war es, wahrnehmungsbezogene Eigenschaften (Attribute) von HDR-Videos zu analysieren und möglicherweise zu quantifizieren. Im Rahmen dessen wurde ein Experiment mit Nicht-Experten durchgeführt. Für die Umsetzung wurden eine Reihe sensorischer Methoden vorgestellt und in Erwägung gezogen. Schließlich wurde die Relaxed Forced Choice (RFC)-Methode erläutert und dann im Experiment angewendet. Die im Experiment gezeigten Sequenzen wurden aus 2 HDR-Datensätzen entnommen. Aus den HDR-Sequenzen wurden für jede Szene 2 verschiedene Versionen mit unterschiedlichem Dynamikumfang und geringerer maximaler Leuchtdichte erstellt, die dann im Experiment mit den HDR-Sequenzen verglichen wurden. Der Vergleich erfolgte anhand von Attributen, die zur Beschreibung von Videoqualität verwendet werden können. Diese wurden im Vorfeld anhand von geeigneter Literatur ausgewählt. Es wird gezeigt, dass Helligkeit, Kontrast und Schärfe am besten geeignet sind, um HDR-Videos zu beschreiben, während Attribute wie Dreidimensionalität und Natürlichkeit als weniger einflussreich wahrgenommen werden. Weiterhin wird gezeigt, dass die Wahrnehmung der Attribute auch vom Inhalt der Videos abhängig ist.



Frank, Paul Rudi;
High Frame Rate und deren Auswirkungen auf die wahrgenommene Videoqualität. - Ilmenau. - 55 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2024

Diese Arbeit beschäftigt sich mit dem Zusammenhang zwischen High Frame Rate (HFR) und der wahrgenommenen Videoqualität. HFR bedeutet eine Verdoppelung der Bildwiederholrate, beispielsweise von 24 Bildern pro Sekunde (Frames per second, fps) auf 48 fps. Dabei spielt HFR nicht nur technisch eine wichtige Rolle, da es die Lösung für auftretende Bewegungsartefakte wie großflächiges Flimmern, Bewegungsunschärfe oder Verwackeln im Video sein könnte, sondern ermöglicht auch eine flüssigere Wiedergabe von Bewegungen oder Animationen. Mit steigender Auflösung nehmen auch die Bewegungsartefakte zu, so dass es immer schwieriger wird, diese zu beseitigen. HFR ist in der Videowiedergabe bisher jedoch nicht stark verbreitet, da Filme nach wie vor mit 24 Bildern pro Sekunde und Fernsehprogramme mit 60 Bildern pro Sekunde wiedergegeben werden. Obwohl die Technologie es ermöglicht, Filme in HFR zu zeigen, wie z.B. Avatar 2: The Way of Water Ende 2022, gibt es kaum Filme, die in HFR produziert werden. Dies wirft die Frage auf, ob Menschen den Unterschied in der Framerate überhaupt wahrnehmen können und ob eine Erhöhung der Framerate gleichzeitig zu einer höheren Videoqualität führt. In dieser Arbeit wird ein subjektiver Test zur Beurteilung der Videoqualität durchgeführt, der diese Fragen beantworten soll und auch zur Klärung der Forschungsfrage dient, ob HFR zu einer signifikanten Qualitätsverbesserung führt. Für diesen Test wird ein Videodatensatz zusammengestellt, der von mehreren Testteilnehmern bewertet und anschließend in Form von Diagrammen und einem Videoqualitätsmodell ausgewertet wird. Das Qualitätsmodell zeigt eine starke Korrelation zwischen den vorhergesagten Daten und den tatsächlichen Bewertungen. Somit kann das entwickelte Modell zur Vorhersage der Videoqualität verwendet werden.



Din, Adeel Ud;
Assessment of QoE in open-source video conferencing solutions. - Ilmenau. - 110 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Die Zunahme von Videokonferenzen nach 2019 führte zur Erforschung von WebRTC als Werkzeug für Echtzeitkommunikation ohne zusätzliche Softwareinstallationen. Trotz der Beliebtheit wurde in der Forschung festgestellt, dass WebRTC anfällig für Netzwerkbeeinträchtigungen ist, die sich auf die Quality of Experience (QoE) auswirken. Diese Arbeit untersucht menschliche Faktoren und kontextuelle Einflüsse auf die QoE in WebRTC-Videokonferenzen. Ein subjektiver Test mit 18 Teilnehmern, Daten aus webbasierten Tests mit Netzwerkbeeinträchtigungen und maschinelles Lernen für QoE-Schätzung wurden durchgeführt. Ergebnisse zeigen Einflüsse auf die QoE, besonders unter höchsten Testbedingungen. Das XGBoosting-Modell erwies sich als effektiv für Echtzeitschätzungen.



Sanne, Julian;
Energieverbrauch von DASH-Videostreaming. - Ilmenau. - 61 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Bereits heute werden täglich 170g CO2-Äquivalente pro Einwohner in Deutschland für Videostreaming emittiert. Bei einem steigenden Datenverkehr im Internet und immer größer werdenden Popularität von Video-on-Demand Plattformen mit UHD-Inhalten, wird dieser Wert auch in Zukunft steigen. Ein steigender Energieverbrauch besitzt eine hohe Relevanz, da er sowohl negative Folgen für die Umwelt, als auch steigende Stromkosten mit sich bringt. In der Arbeit wurde der Stromverbrauch von DASH-basiertem Videostreaming für die Seite des Clients untersucht. Dabei wurde ein Fokus auf Faktoren gelegt, die den Stromverbrauch beeinflussen, wie z.B. die Videoauflösung, Bildwiederholrate, Videobitrate oder der verwendete Videocodec. Mit einer smarten Steckdose wurden für ein Laptop und einen Desktop-PC mit zwei unterschiedlichen Hardwarekonfigurationen die Stromverbräuche automatisiert gemessen. Dafür wurden von jedem Video für die ersten zehn Sekunden der Stromverbrauch erfasst und jede halbe Sekunde abgefragt. Insgesamt umfassten die Messungen für alle Endgeräte 350 Repräsentationen mit jeweils vier Videoparametern. In Abhängigkeit der jeweiligen Endgeräte und Videoparameter wurden die Messwerte evaluiert. Hierzu wurde festgestellt, dass der Stromverbrauch vom Endgerät abhängig ist und maßgeblich von der Unterstützung für Hardwaredecodierung für bestimmte Videocodecs beeinflusst wird. So konnten für Durchschnittswerte ein Unterschied von 37 % im Stromverbrauch zwischen Hardware- und Softwaredecodierung ausgemacht werden. Auch bei hardwaredecodierten Videos wurden Differenzen von bis zu 7,3 % im Verbrauch zwischen den Videocodecs erfasst. Durch eine richtige Wahl von Videoparametern, angepasst auf das Endgerät, können so mögliche Stromsparpotentiale durchgesetzt werden.



Ahmed, Munim;
Audio-driven lip-syncing talking head avatar generation. - Ilmenau. - 94 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Die audiogesteuerte Lippensynchronisation ist ein entscheidendes Element, um die Authentizität und das Engagement von virtuellen Charakteren in Mixed-Reality-Umgebungen zu verbessern. Diese Arbeit stellt einen innovativen Ansatz zur präzisen und dynamischen Lippensynchronisation für 3D-Avatare durch die Integration modernster Deep-Learning-Techniken und Echtzeit-Animation vor. Die vorgeschlagene Methodik nutzt ein bidirektionales Langzeitgedächtnismodell (BiLSTM), um Phoneme und Viseme aus Echtzeit-Spracheingaben vorherzusagen, was zu synchronen und genaue Lippenbewegungen führt. Die Forschung umfasst die Entwicklung und den Einsatz eines ganzheitlichen Systems, das drei Kernkomponenten umfasst: Audioanalyse, Deep Learning lernende Modellierung und Echtzeit-Animation. Die Phase der Audioanalyse umfasst die Vorverarbeitung der Spracheingabe, um sinnvolle phonetische Merkmale zu extrahieren. Anschließend wird ein BiLSTM-Modell sorgfältig trainiert, um sowohl Phoneme als auch Viseme vorherzusagen. Dabei wird der zeitliche Kontext der Sprachsignale genutzt, um die Präzision zu erhöhen. Die nahtlose Integration dieses Modells mit einem bereits vorhandenen 3D-Avatar wird in der Unity Echtzeit-Entwicklungsplattform realisiert, unterstützt durch ein UDP-Socket-basiertes Rahmenwerk. Dies ermöglicht die Echtzeit-Übertragung der vorhergesagten phonemischen und visemischen Informationen, die wiederum die Lippen des Avatars in einer Weise animieren, die der natürlichen Sprachsynchronisation sehr nahekommt. Das vorgeschlagene System hat vielversprechende Ergebnisse in verschiedenen Dimensionen erzielt und eine Genauigkeit von etwa 80% Echtzeitleistung und visuelle Wiedergabetreue. Es wurde ein umfangreicher subjektiver Test durchgeführt, um die Leistung des Frameworks bei verschiedenen Spracheingaben zu bewerten, was sein Potenzial bestätigt, die das Engagement und die Immersion des Benutzers erhöhen, indem lebensechte Avatare präsentiert werden, die eine bemerkenswerte Sprachpräzision aufweisen. Diese Forschung stellt eine innovative Lösung in der audio-gesteuerten Animation, bei der die Verschmelzung von Deep Learning, Echtzeit-Kommunikation und 3D-Animationstechnologien die Lücke zwischen Audio und visuellem Ausdruck schließt. Die Evaluierungsergebnisse zeigen die konsequente Überlegenheit des vorgeschlagenen Rahmens bei der Nutzerwahrnehmung, insbesondere in den Bereichen Avatar-Realismus, Lippensynchronisationsfähigkeiten und Verhaltensplausibilität. Während die statistische Analyse keine signifikanten Unterschiede zwischen den Frameworks aufzeigt, zeigen die individuellen Bewertungswerte, dass die Teilnehmer das vorgeschlagene Framework in Bezug auf die Lippensynchronisation und den Realismus des Avatars für plausibler und robuster halten.



Elmeligy, Bassem Tarek Mokhtar;
Evaluating the performance of JPEG XS in medical image compression. - Ilmenau. - 83 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Medizinische Bilder, die es medizinischen Fachleuten ermöglichen, in den menschlichen Körper zu sehen und Anomalien zu erkennen, sind für die Diagnose und Behandlung zahlreicher Erkrankungen von wesentlicher Bedeutung. Diese Masterarbeit befasst sich mit der Bedeutung der medizinischen Bildgebung und geht gleichzeitig auf die Herausforderung der großen Dateigrößen ein, die mit medizinischen Bildern verbunden sind. Sie zielt darauf ab, die Effektivität von JPEG XS bei der Komprimierung medizinischer Bilder zu bewerten, wobei die visuelle Qualität beibehalten und die Dateigrößen reduziert werden. Die Studie führt eine detaillierte vergleichende Analyse von JPEG XS mit anderen Komprimierungsstandards wie JPEG 2000, HEVC und AV1 durch und berücksichtigt dabei Komprimierungseffizienz, Codec- Komplexität und visuelle Wiedergabetreue in der medizinischen Bildgebung. Fortgeschrittene Bewertungsmethoden, einschließlich des AIC-2 Flicker-Tests, werden eingesetzt, um den visuell verlustfreien Schwellenwert zu bestimmen, der für die Erhaltung diagnostisch wichtiger Details unerlässlich ist. Darüber hinaus wird in der Studie das Potenzial von Crowd-Sourcing für die Bewertung der visuellen Qualität der medizinischen Bildkompression untersucht. Die Ergebnisse zeigen, dass AV1 andere Codecs in objektiven Metriken durchweg übertrifft, was seine Effizienz bei der Kompression unterstreicht. JPEG 2000 und HEVC schneiden ebenfalls gut ab, während JPEG XS bei niedrigeren Bitraten ins Hintertreffen gerät. Die Analyse der Kodierungszeiten zeigt, dass JPEG XS über verschiedene Komprimierungsstufen hinweg eine schnelle und konsistente Geschwindigkeit beibehält, wodurch es sich für medizinische Bildgebungsgeräte mit geringer Komplexität eignet. Subjektive Bewertungen in Labor- und Crowd-Sourcing-Tests zeigen unterschiedliche Anteile richtiger Bewertungen unter den Teilnehmern, und die Studie schlägt Methoden zur Erkennung von Ausreißern vor, um die Zuverlässigkeit der Bewertung zu erhöhen. Die Studie stellt eine starke Korrelation zwischen Labor- und Crowd-Sourcing-Bewertungen sowie zwischen subjektiven Bewertungen und objektiven Messwerten fest und bestätigt damit die Fähigkeit der letzteren, die menschliche Wahrnehmung der Bildqualität vorherzusagen. Es werden die visuell verlustfreien Schwellenwerte für verschiedene Codecs ermittelt, die wichtige Informationen für Diagnosezwecke liefern. Zusammenfassend bietet die Studie umfassende Einblicke in die Bewertung der medizinischen Bildkompression, die sowohl objektive als auch subjektive Beurteilungen umfasst, mit bedeutenden Auswirkungen auf die visuell verlustfreie Kompression in medizinischen Bildgebungsanwendungen.



García Romero, Ana;
Development and evaluation of different visualization approaches for interactable rooms in immersive virtual environments. - Ilmenau. - 57 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Im Bereich der virtuellen Realität gibt es ein wachsendes Interesse an immersiven virtuellen Umgebungen (IVEs) in verschiedenen Branchen, einschließlich Gaming, Bildung, Gesundheitswesen und Training, da sie den Nutzern ansprechende und realistische Erlebnisse bieten. Der Realismus dieser Umgebungen ist unerlässlich, da sie ein höheres Gefühl von Präsenz und Immersion bieten und es den Nutzern ermöglichen, mit digitalen Räumen und Objekten auf eine Weise zu interagieren, die die reale Welt nachahmt. Es wird angenommen, dass immersive virtuelle Umgebungen potenzielle Vorteile bei der Verbesserung des räumlichen Verständnisses und der Aufgabenleistung haben. Im Rahmen dieser Arbeit wurden zunächst mehrere Studien vorgestellt, die verschiedene Visualisierungstechniken für IVEs verglichen oder kombiniert haben. Anschließend wurden modernste Visualisierungsansätze für interaktive Räume untersucht, wie z.B. 360-Grad-Bilder, CGI-Modellierung, Photogrammetrie und 3D-Scannen. Darüber hinaus wurden in der Literatur vorhandene Ansätze zur Bewertung verschiedener Aspekte virtueller Umgebungen diskutiert. Dazu gehört der Einsatz von Fragebögen zur Bewertung verschiedener Faktoren wie Simulatorkrankheit, Präsenz, Messung der Aufgabenleistung oder Analyse von Interaktionstechniken. Diese Methoden helfen den Forschern, ein umfassendes Verständnis der Benutzerpräferenzen zu gewinnen, um das Design von IVEs zu verbessern. Darauf aufbauend wurden drei unterschiedliche Ansätze mit unterschiedlichen Visualisierungstechnologien wie 360˚-Bilder, CGI-Modellierung und 3D-Scannen entwickelt. Alle erstellten virtuellen Räume sind interaktiv, so dass sich die Nutzer in diesen Räumen bewegen und Aufgaben ausführen können, wie z.B. ein Spiel aus dem Regal nehmen und auf einen Tisch stellen, einen Liegestuhl zusammenstellen oder das Licht einschalten. Darüber hinaus wurde ein subjektiver Test mit insgesamt 31 Probanden entwickelt und durchgeführt. Dabei wurden die verschiedenen Raumvisualisierungstypen hinsichtlich Sehqualität, Aufgabenleistung, Präsenz, Interaktionsmöglichkeiten und weiterer relevanter Faktoren bewertet und miteinander verglichen.



Bhattacharya, Abhinav;
Frame rate vs resolution vs bitrate: subjective quality evaluation of 360-degree videos with an HMD. - Ilmenau. - 83 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Im Bereich der Virtuellen Realität (VR) gewinnt das Verständnis der Nutzerwahrnehmung von 360˚-Videoqualität erhebliche Bedeutung. Quantitative Messungen allein können die detaillierten Aspekte des immersiven Medienkonsums nicht vollständig erfassen, was Dimensionen umfasst, die über konventionelle numerische Bewertungen hinausgehen. Faktoren wie das Gefühl der Präsenz und die potenzielle Möglichkeit eines Videos, Simulator sickness zu induzieren, erfordern einen Ansatz, der über die technische Methodik hinausgeht. Die Auswirkungen individueller Video-Parameter und das Hinzufügen von räumlichem Audio wie 4th-Order Ambisonics (4OA)-Audio auf die Wahrnehmung der 360˚-Videoqualität durch die Benutzer müssen untersucht werden, um zukünftige Forschung zu unterstützen und ansprechendere und immersivere Inhalte zu produzieren. Um das Problem in dieser Masterarbeit anzugehen, wurden subjektive Tests an einer Gruppe von 26 Teilnehmern durchgeführt. Die Bewertungen für die Videoqualität, die Präsenz und die Simulator sickness für verschiedene Versionen von 360˚-Videos zu sammeln, die auf einem Head Mounted Display (HMD) angesehen wurden. Zusätzlich wurden ihre Kopfrotationsdaten gesammelt, um die Unterschiede im Erkundungsverhalten durch die Änderung von Videoparametern oder der Audio-Modalität zu untersuchen. Es ergaben sich signifikante Einflüsse von 4OA-Audio auf die Wahrnehmung der Videoqualität und der Präsenz, wobei deren Sensibilität für Bitratenänderungen hervorgehoben wurde. Die Probanden konnten zwischen Bitraten mit und ohne 4OA-Audio unterscheiden. Darüber hinaus wirkte sich das Vorhandensein von 4OA-Audio positiv auf das Erkundungsverhalten aus, während die Werte für die Simulator sickness eine wahrnehmbare Korrelation mit dem Vorhandensein von 4OA-Audio aufwiesen. Insgesamt betonen die Ergebnisse die komplexe Wechselwirkung zwischen Audio, visueller Qualität, Präsenz und Erkundungsverhalten in immersiven 360˚-Videoerlebnissen. Diese Erkenntnisse liefern wertvolle Einblicke zur Verbesserung des Designs und der Präsentation von 360˚-Videos und führen zu einer verbesserten Nutzererfahrung sowie einem besseren Verständnis der Einflussfaktoren auf die Wahrnehmung der in virtuellen Umgebungen.



Schulrath, Simon;
Detection of Multi JPEG Image Compression using Deep Learning. - Ilmenau. - 93 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Der Joint Photographic Experts Group (JPEG)-Kompressionsstandard ist einer der am häufigsten verwendeten Kompressionsalgorithmen für digitale Bilder. In den letzten 30 Jahren wurden die Möglichkeiten immer vielfältiger und die Kosten geringer, um Bilder zu bearbeiten. Es ist daher von Interesse, die Authentizität von Bildern zu verifizieren. Ein Ansatz dafür ist die Erkennung der Anzahl von durchgeführten Kompressionsschritten bei JPEG-komprimierten Bildern. Mehrere Kompressionen können darauf hinweisen, dass das Bild nicht mehr dem Original entspricht, wobei sich auch ein Verlust der Qualität ergibt. Voruntersuchungen in der Arbeit zeigten, dass, auch bei gleichbleibender Quantisierungsmatrix, mit jedem Kompressionsschritt Änderungen an den räumlichen Bildinformationen messbar sind. In dieser Arbeit wurde daher untersucht, ob verschiedene CNNs (Convolutional Neural Networks) in der Lage sind, bis zu fünf JPEG-Kompressionen mit derselben Quantisierungsmatrix zu erkennen. Als CNNs wurden VGG-19, DenseNet-201 und Inception-v3 untersucht, wobei RGB-Bilder als Eingabe dienten. Für die Arbeit wurde ein Datensatz aus den Bilderdatensätzen RAISE und MIT-Adobe FiveK zusammengestellt. Zusätzlich wurde Transfer Learning angewendet, um zu prüfen, ob gelernte Merkmale aus der ImageNet Challenge die Erkennung von mehreren Kompressionen verbessern können. Die besten Ergebnisse wurden mit dem VGG-19 erreicht. Im Vergleich jedoch zu schon vorgestellten Methoden führte das untersuchte Verfahren zu keiner Verbesserung der Detektion von mehreren JPEG-Kompressionen. In der Arbeit wurde gezeigt, dass die CNNs in der Lage sind zu einem bestimmten Grad die Anzahl an Kompressionen richtig zu bestimmen. Für eine genauere Erkennung muss vermutlich jedoch eine andere Eingabe als RGB-Bilder erfolgen.



Virtuelles Studio für HD/4K-Anwendungen. - Ilmenau. - 51 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Im Rahmen einer dieser Arbeit vorausgegangenen Masterarbeit wurde begonnen ein virtuelles Studio für HD- Und 4K-Anwendungen zu entwickeln. Darauf wird nun aufgebaut. Das Hauptaugenmerk liegt dabei auf dem Kameratracking. Dieses soll für das Optitrack-System genauso umgesetzt werden wir für den HTC Vive Tracker. Ziel ist es außerdem mit Hilfe von Genauigkeitsmessung und Videoverzögerung herauszufinden, ob unter bestimmten Bedingungen der deutliche preiswertere Gaming-Tracker genauso geeignet sein könnte, wie das wesentlich teurere, professionelle Trackingsystem. Rein nach den gemessenen Werten betrachtet, erzielt der Vive Tracker im Punkt Genauigkeit bessere Ergebnisse. Diese höhere Genauigkeit geht allerdings mit einer hohen Verzögerung einher.



Bader, Jakob;
Entwicklung und Integration neuer Hard- und Softwarefunktionalitäten in ein Kalibriernormal. - Ilmenau. - 62 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2023

Die nachvollziehbare Rückführung von Messergebnissen der Licht- und Farbmesstechnik erfordert eine geeignete Kalibriermöglichkeit. Für diesen Zweck wurde ein Kalibriernormal für die Größen Leuchtdichte, Lichtstrom, Lichtstärke und Farbkoordinaten auf Basis farbiger und weißer LEDs entwickelt. Mit Hilfe einer integrierten Helligkeitsregelung sowie einer Temperaturstabilisierung kann die hohe geforderte Stabilität erreicht werden. Eine PC-Schnittstelle erlaubt die Überwachung der Betriebsinformationen und Fehlerzustände. Im Rahmen der Produktpflege besteht aufgrund der gestiegenen Anforderungen an das Produkt Interesse an der systematischen Weiterentwicklung des Kalibriernormals. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung und Integration von drei Hard- und Softwarefunktionalitäten. Dazu gehört die Abschaltung der Lichtquelle durch die mikrocontrollergesteuerte Manipulation der Helligkeitsvorgabe der analogen Helligkeitsregelung. Die Verifizierung erfolgte durch die Modifikation eines vorhandenen Kalibriernormals als Demonstrator. Für die Weiterentwicklung der PC-Anbindung wurde ein USB-Schnittstellenkonzept zur Übertragung von Steuerbefehlen und Kalibrierdatensätzen entwickelt. Die entstandene Lösung nutzt die USB HID-Klasse. Eine automatische Erkennung von angebrachten optischen Filtern wurde unter Verwendung von Hallsensoren und Permanentmagneten realisiert. Zu diesem Zweck wurde auf Basis praktischer Messversuche ein angepasstes Gehäuse entwickelt. Dieses wurde als Prototyp gefertigt und zur Verifizierung der Filtererkennung erfolgreich eingesetzt.



Experimentelle Laborstudie zur Akzeptanz von, mittels "Metahuman" generierter dreidimensionaler Grafikfiguren in historischem Kontext sowie deren Animation mittels „OptiTrack“, und „ARkit“ und der Interaktion mit den Rezipienten im Szenenkontext. - Ilmenau. - 49 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2023

Das Ziel dieser Arbeit ist es, den Einfluss des „Motion Capture“ und „Facial Animation“ auf die Akzeptanz eines mittels Metahumans dargestellten Menschen in einem szenischen Kontext während einer Liveinteraktion zu ergründen und herauszufinden welche emotionalen Eindrücke dabei die Akzeptanz beeinflussen. Um dies zu beantworten wurde ein Laborexperiment durchgeführt, bei welchem den Probanden 3 interaktive Szenen vorgespielt wurden in welchen sie mit einem Schauspieler, welcher durch einen Avatar, Metahuman, repräsentiert wurde verbal interagieren sollten, dabei wurde die Akzeptanz über die Godspeed Indizes und durch Selbsteinschätzung der Probanden ermittelt. Die Emotionale Wahrnehmung wurde dabei mit einer Abfrage des Probanden anhand der 8 Basisemotionen erfasst. Dabei stellte sich heraus, dass „Motion Capture“ einen großen Einfluss auf die Akzeptanz von Metahumans während einer Liveinteraktion hat. Der Einfluss auf die Akzeptanz durch das Facial Animation ist dabei hoch. Der Einfluss auf die Akzeptanz durch den szenischen Kontext ist im Sinne eines Umgebungsbewusstseins des Charakters hoch, im Sinne der bloßen Kulisse lässt sich die Akzeptanz jedoch nicht zusätzlich steigern, lediglich negative Effekte absenken. Es konnte festgestellt werden, dass in diesem Versuch die Stimme den größten Einfluss ausgemacht hat. Ein Einfluss der ausgespielten Emotionen auf die Akzeptanz konnte weder bestätigt, noch wiederlegt werden. Weiterführende Forschungen in diesem Bereich könnte die Ermittlung der Akzeptanz während einer Interaktion mit einer Künstlichen Intelligenz über einen ähnlichen Avatar sein.



Kuht, Linnea;
Real viewing distances in higher resolutions at home. - Ilmenau. - 60 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

Das Ziel dieser Arbeit ist es, die Betrachtungsabstände in häuslichen Umgebungen für Ultra High Definition (UHD) Videoinhalte zu untersuchen. Dies beinhaltet einen Überblick über die Anatomie des menschlichen Auges, die Entstehung und Eigenschaften von UHD und die Konzepte des optimalen Betrachtungsabstands und des bevorzugten Betrachtungsabstands. Um herauszufinden, ob die Wirkung von UHD in der häuslichen Umgebung umgesetzt wird, wurde eine Umfrage (n=235) durchgeführt, die das Ziel hatte, die Befragten über ihre Gewohnheiten beim Schauen von Videoinhalten in Bezug auf die am häufigsten verwendeten Geräte, das Set-up, die Auflösung, die Bildschirmgrößen und die am häufigsten angesehenen Inhalte zu befragen. Die daraus resultierenden Daten wurden in RStudio verarbeitet, visualisiert und mit der vorhandenen Literatur über reale Sehabstände verglichen. Die Ergebnisse der Umfrage deuten darauf hin, dass die am häufigsten genutzte Auflösung in Heimumgebungen Full HD ist, der höchste Anteil an UHD-Auflösungen tritt bei Fernsehern auf. Die wichtigsten Ergebnisse der Umfrage sind mittlere absolute Betrachtungsabstände von 260 cm für Fernsehgeräte, 50 cm für Laptops und Tablets und 30 cm für Smartphones. Die mittleren relativen Betrachtungsabstände, die sich aus den absoluten Betrachtungsabständen und den Bildhöhen (H) ergeben, liegen bei 4,7 H für Fernsehgeräte, 2,4 H für Laptops und Tablets und 2,6 H für Smartphones. 12,5 % der Befragten, die regelmäßig Videoinhalte auf Fernsehgeräten ansehen, sitzen näher als 3,2 H am Bildschirm und könnten von den Charakteristiken von UHD profitieren. Die Arbeit kann als Grundlage für künftige Qualitätstests dienen.



Wiesner, Josephin;
Development of a guideline to video quality in user-generated content for the integration into a broadcast environment. - Ilmenau. - 130 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Die Einbindung von User-generated Content (UGC) in die professionelle Broadcastumgebung erweitert die Möglichkeiten der schnellen Berichterstattung in Kombination mit einem geringen Kosten- und Equipmentaufwand. Neben der Integration in Nachrichtensendungen ermöglicht UGC die Beteiligung von Zuschauern und Reportern in weiteren Fernsehformaten in Echtzeit mithilfe von spezifischen Streaminganwendungen über Mobilgeräte. Diese Anwendungen basieren auf Streamingprotokollen, die eine sichere Übertragung über das Internet ohne sichtbare Qualitätsverlust aufgrund von Netzwerkfluktationen gewährleisten sollen. In dieser Arbeit wurden zwei dieser Anwendungen, Larix Broadcaster sowie vMix Call, mit ihren integrierten Protokollen, SRT und WebRTC, hinsichtlich ihrer Videoqualität und der Optimierung dieser untersucht. Das Ziel ist die Entwicklung eines Leitfadens für den Einsatz im professionellen Broadcastbereich. Für die Untersuchung wurden Parameter der Anwendungen variiert, die über die Streamingprotokolle Einfluss auf die Videoqualität nehmen. Zu diesen zählen Einstellungen bezüglich der Bitrate, des Videocodecs, der Latenz sowie der Auflösung der verwendeten Videosequenzen. Die Auswertung der aufgenommenen Videos hinsichtlich der Videoqualität erfolgte über die Messsoftwares Sentry und Aurora von Telestream, die Evaluierung mit dem Naturalness Image Quality Evaluator (NIQE) sowie einen Probandentest nach dem Mean Opinion Score (MOS). Die Ergebnisse für Larix Broadcaster weisen darauf hin, dass unter der Verwendung des High Efficiency Video Codec die höchste Videoqualität erreicht werden kann. Im Bezug auf diesen zeigen Videos, die mit einer geringen Bitrate von 0.1 und 1.5\,Mbps encodiert wurden, eine hohe Natürlichkeit hinsichtlich NIQE sowie eine hohe Quality of Experience nach Sentry. Des Weiteren ist die Qualität bei einer tendenziell großen Latenz von 120 und 250\,ms, die der Paket-Buffergröße am SRT-Encoder entspricht, sowohl nach den objektiven Metriken als auch nach dem MOS am höchsten. Die Betrachtung der Videoauflösung zeigt keine Wertetendenz nach den Messungen von Sentry, neigt jedoch nach MOS zu dem Maximum von 1080p. Für vMix Call ergibt sich durchschnittlich die beste Videoqualität nach Aurora und NIQE bei einer Peer-to-Peer Verbindung im Low Latency Modus mit einer Encodierungsbitrate von 2,000 und 4,000\,kbps.



Bachmann, Marvin;
Anwendung maschineller Lernverfahren zur Qualitätssicherung industrieller Fertigungsabschnitte. - Ilmenau. - 84 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Im Rahmen der geforderten Qualitätssicherung und Kosteneinsparung nimmt die Relevanz der schnellen Fehlerlokalisierung in industriellen Anwendungen zu. Eine frühzeitige Erkennung von Fehlproduktionen sorgt für einen geringeren Ausschuss und niedrigere Kosten. Die Aufnahme von Bild- und Prozessdaten während der Fertigung bietet den Vorteil, Methoden des unüberwachten und überwachten maschinellen Lernens darauf anwenden zu können. Innerhalb der vorliegenden wissenschaftlichen Arbeit wird untersucht, inwieweit sich verschiedene maschinelle Lernverfahren dazu eignen, um industrielle Fertigungsabschnitte möglichst automatisiert zu überwachen. Im ersten Hauptteil der Ausarbeitung werden die Grundlagen zur Analyse von Bilddaten aufgezeigt und ein Konzept zur Auswertung dieser vorgestellt. Daran anschließend werden die Einflüsse von komprimierten, verkleinerten und segmentierten Bildern sowie die Merkmalsextraktion und Datenanalyse mit Neuronalen Netzen experimentell untersucht. Der größte Einfluss auf die Analyseergebnisse kommt aus der Verkleinerung und Merkmalsextraktion der Bilder. Durch Anwendung der Verfahren zur Analyse der Bilddaten können, verglichen mit einem optischen Prüfsystem, mehr Bauteile korrekt klassifiziert werden. Der zweite Hauptteil beinhaltet die Grundlagen zur Analyse von Prozessdaten und ein Konzept zur Auswertung dieser. Anhand weiterer Versuchsdurchführungen werden die Auswirkungen unterschiedlicher Zielvorhersagewerte, die Umstrukturierung der Datenmatrizen und die Interpretationsfähigkeit eines Entscheidungsbaumverfahrens auf die Ergebnisse beobachtet. Ein Ausbalancieren der Klassen innerhalb des Trainingsdatensatzes liefert die besten Ergebnisse. Mit Hilfe einer Modell-Interpretation können sinnvolle Korrelationen zwischen einzelnen Prozessen entdeckt und zukünftig daraus schneller Rückschlüsse gezogen werden.



Menz, William;
The classification of small mammals by comparing different neural networks, with the data collection through a camera trap. - Ilmenau. - 93 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Die Intensivierung der landwirtschaftlichen Praktiken im letzten Jahrhundert ist ein Grund, weshalb sich die Struktur und die Zusammensetzung der Pflanzen- und Tiergemeinschaften verändert hat. Durch den Einsatz von Insektiziden und den vermehrten Anbau von Monokulturen kann eine veränderte Verteilung in den Populationsgrößen von Kleinsäugern festgestellt werden. Die Überwachung der Populationsgrößen erfolgt meist durch das Aufstellen von Fallen und das anschließende Auswerten der Erkenntnisse, welche durch und über die gefangenen Tiere erlangt werden konnten. Basierend auf den erhobenen Daten über die ungefähre Größe der Reviere der Tiere, kann eine Hochrechnung für die Populationsgröße erstellt werden. Unter den Tieren, die mit Hilfe von geschlossenen Fallen gefangen werden, befinden sich einige Arten, die nur wenige Stunden in einer solchen Falle überleben können. Diese Umstände ergeben eine aufwendige Überwachungsarbeit der Fallen. Um den Aufwand der Forscher zu minimieren und eine Stressreduzierung für die Tiere zu gewährleisten, wurden in dieser Arbeit offene Fotofallen entwickelt, die den Tieren erlauben die Falle zu betreten und anschließend selbstständig wieder zu verlassen. Ziel dieser Arbeit war es ein Verfahren zu entwickeln, welches eine automatisierte Artenbestimmung mittels eines „Convolutional Neural Network“ (CNN) durchführt. Somit wird der Aufwand, den Forscher zum Sichten der Bilder erbringen müssen verringert. In dieser Arbeit wurde ein Vergleich verschiedener CNNs durchgeführt, welche mittels „Transfer Learning“ (TL) darauf trainiert wurden, die Bilder einer von vier Klassen zuzuordnen. Dabei spiegeln drei der vier Klassen je einen Kleinsäuger-Genus wider, während die vierte Klasse aussagt, dass sich kein Tier auf dem Bild befindet. Der Vergleich der Netze hat ergeben, dass sich die Nutzung der sogenannten „Mobile Networks“, welche für die Anwendung auf mobilen Endgeräten optimiert wurden, nicht für diese TL-Aufgabe eignen. Als beste Netzstruktur stellten sich die „VGG“-Netze aus der Arbeit von Simonyan und Zisserman heraus. Die Netze wurden alle auf eigens entwickelten Datensätzen getestet und anhand der Metriken: „Loss“, „Accuracy“ und dem „Macro F1-Score“ ausgewertet. Die Klassifizierung netzfremder Bilder aus den gleichen Fallen konnte ebenfalls erfolgreich durchgeführt werden.



Voelz, Alexander;
Methoden zur Realisierung konoskopbasierter Reflexionsmessungen. - Ilmenau. - 97 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

Displays werden oftmals in beleuchteten Umgebungen eingesetzt. Insbesondere in Autos muss die Lesbarkeit von sicherheitskritischen Information sichergestellt werden, selbst bei Sonneneinstrahlung. Aus diesem Grund sind Fahrzeughersteller daran interessiert, die Reflexionscharakteristik von Displays zu vermessen. Derartige Messungen können durch Verwendung einer Kamera mit einem speziellen Objektiv, einem sogenannten Konoskop, durchgeführt werden. In dieser Arbeit wird ein Verfahren präsentiert, mit dem man die relative Lage eines bildgebenden Systems mit Konoskop zu einer Displayoberfläche bestimmen kann. Dies ist eine grundlegende Voraussetzung, wenn eine schnelle, konoskopbasierte One-Shot-Lösung erwünscht ist. Der Autor schlägt Methoden für die Lagebestimmung und für ein geometrisches Kalibrierverfahren vor. Zur Verifikation wird die prototypische Implementierung mit einem robotergestützten Verfahren aus dem Stand der Technik verglichen und Unsicherheiten werden mit Hilfe einer Raytracing-Simulation beurteilt, die vom Autoren eigens für diese Arbeit implementiert wurde. Insgesamt erreichen die vorgestellten Methoden eine relative Genauigkeit von bis zu ungefähr 0,3 Grad.



Vaidya, Purvaj Piyush;
Low Complexity Enhancement Video Coding (LCEVC) variant. - Ilmenau. - 75 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

In dieser Arbeit wird eine LCEVC-ähnliche Pipeline entwickelt, bei der ein unkomprimiertes Quellvideo kodiert wird, um verschiedene Videoformate wie herunterskalierte Videos, grundkodierte Videos, hochskalierte Videos und Residuen zu erzeugen, um eine endgültige verbesserte dekodierte Ausgabe zu berechnen, die im Vergleich zum unkomprimierten Quellvideo stark komprimiert ist und zusätzlich die Qualitäten des ursprünglichen Quellvideos ohne großen Informationsverlust beibehält und verbessert. Der Upscaling-/Downscaling-Faktor wird mit n angegeben, und in dieser Arbeit wurden drei verschiedene Werte für n verwendet: n = 2, 4 und 8. Die für diese Arbeit verwendeten Basis-Encoder sind libx264, libx265 und vp9. Für die Bewertung der Videoqualität wurde die objektive Metrik Video Multimethod Assessment Fusion (VMAF) verwendet. Für die Ergebnisse wurde ein Vergleich der Dateigröße zwischen den verschiedenen Videoformaten durchgeführt und auch ein VMAF-Vergleich zwischen den basiscodierten und den verbesserten decodierten Videos wurde berechnet. Die höchsten VMAF-Werte für alle drei Basis-Encoder wurden für n = 2 ermittelt. Daraus lässt sich schließen, dass das in dieser Arbeit verwendete Systemdesign die Ausgabe mit zunehmendem Downscaling-Faktor verbessert. Die Verbesserung hängt auch vom Inhalt des Videos in Bezug auf die räumliche und zeitliche Information ab. Darüber hinaus spielt auch der Einfluss des verwendeten Encoders eine wichtige Rolle bei der Verbesserung des Videos. In dieser Arbeit werden Werkzeuge wie FFMPEG und VMAF verwendet.



Siebenkees, Valentin;
Untersuchung des Einsatzes von AR/VR-Systemen für die Kalibrierung/Referenzierung einer fokusbasierten Abstandsmessung mit elektronisch fokussierbaren Objektiven. - Ilmenau. - 73 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

Abstandsmessung ist eine wichtige Thematik in der optischen Messtechnik. Häufig ist diese mit großen und komplexen Aufbauten verbunden. Um Zeit und Kosten zu sparen, ist es deshalb von Vorteil, Verfahren zu entwickeln, durch die solche Aufbauten vereinfacht werden können. Das Ziel der Arbeit ist herauszufinden, ob es möglich ist, virtuelle Bildanzeigesysteme für die Kalibrierung und Referenzierung eines Kamerasystems auf Basis des Zusammenhangs zwischen der Position der hinteren Hauptebene elektronisch fokussierbarer Objektive und der virtuellen Bilddistanz zu nutzen. Um diese Forschungsfrage zu beantworten, wurde zunächst anhand von Vortests analysiert, welche Anzeigesysteme für solch ein Verfahren genutzt werden können. Mit dem fokussierbaren optischen Kollimator wurde ein System gefunden, das den Anforderungen gerecht wird. Um den beschriebenen Zusammenhang nachzuweisen, wurde ein Messverfahren programmiert, in dem mit Hilfe des Kollimators virtuelle Bilder in verschiedenen Distanzen gemessen wurden. Für jede Distanz wurde, durch die Auswertung der Modulationsübertragungsfunktion des betrachteten Bildes, die Position der hinteren Hauptebene des Kameraobjektives gefunden, in der das virtuelle Bild maximal scharf auf dem Kamerasensor abgebildet wird. Durch kritische Analyse und Fehlerbetrachtung der Messergebnisse konnte ein Verlauf des Zusammenhangs mit kombinierter Unsicherheit ermittelt werden. Anhand der Ergebnisse der Arbeit lässt sich bestätigen, dass es möglich ist, virtuelle Bildanzeigesysteme für die Kalibrierung und Referenzierung eines Kamerasystems auf Basis des Zusammenhangs zwischen der Position der hinteren Hauptebene elektronisch fokussierbarer Objektive und der virtuellen Bilddistanz zu nutzen. Weiterführende Forschung kann an der Optimierung der Messautomatisierung oder der Brennweitenbestimmung und an der Betrachtung verschiedener Anzeigesysteme sowie von nicht betrachteten Einflüssen, wie dem der Objektivblende auf die Messung, durchgeführt werden.



Prenzel, Julius;
Enabling sharpness control with increasing sensor resolution in a motion picture camera system. - Ilmenau. - 92 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

Eine individuelle Anpassung der Bildschärfe innerhalb eines Kamerasystems ist bei hochauflösenden Bildern nur schwer zu erreichen. Durch den Einsatz digitaler Filter im Ortsbereich soll in dieser Arbeit eine gleichbleibend starke und individuell anpassbare Manipulation der Bildschärfe bei steigenden Sensorauflösungen gewährleistet werden, ohne dass mehr Ressourcen im FPGA der Kamera benötigt werden. Dazu soll zunächst das Auftreten visueller Unterschiede bei der Filterung verschieden aufgelöster Bilder mit demselben Filterkern technisch erklärt werden. Darauf aufbauend werden Methoden entwickelt, die dazu dienen bei der Filterung im FPGA Ressourcen zu sparen, um damit eine breitere Pixelumgebung beeinflussen zu können und so gleichbleibend starke Effekte bei steigender Sensorauflösung zu gewährleisten. Mit dem ersten Ansatz wird eine Ersparnis im Linebuffer des FPGAs erreicht, indem benachbarte Bildzeilen zusammengeführt werden, was in dieser Arbeit als HDF bezeichnet wird. Die zweite Methode basiert auf der Reduzierung der Bittiefe bestimmter Pixel im Filterprozess. Um die Performance dieser vorgestellten Methoden zu bewerten, werden sowohl eine subjektive Qualitätsbewertung durch Experten als auch eine objektive Bewertung mithilfe von Bildqualitätsmetriken durchgeführt. Obwohl die Qualitätsunterschiede zwischen dem ursprünglichen Ansatz und den neu entwickelten Methoden bei der getesteten Auflösung von 4k noch relativ gering sind, ermöglichen sie es bei einer weiter steigenden Auflösung eine gleichbleibende Flexibilität bei der Filterung, ohne die theoretisch benötigte höhere Menge an Ressourcen zu verwenden.



Paracha, Abdul Haq Azeem;
Assessment and application of machine learning methods to NVH related component data in the automotive R&D environment. - Ilmenau. - 118 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Ein multidisziplinäres Wissen über Signalverarbeitung, Strukturdynamik, mechanische Systeme und Psychoakustik und vor allem ein erfahrener Fachmann sind Voraussetzung für die NVH-Analyse von Fahrzeugen. Eine wachsende Datenmenge aufgrund des raschen industriellen und technologischen Wandels stellt eine Herausforderung für NVH-Ingenieure dar. Die Fortschritte und Erfolge auf dem Gebiet des maschinellen Lernens, insbesondere der tiefen neuronalen Netze, sind eine Hauptmotivation für diese Forschung. Ziel dieser Studie ist es erstens, Datensätze aus der Automobilbranche und Forschung und Entwicklung zu analysieren und die Anforderungen an zukünftige Anwendungen des maschinellen Lernens zu bewerten. Zweitens soll das Deep Neural Network Autoencoder-Modell zur Erleichterung der Fehlerdiagnose für NVH-Ingenieure bewertet werden. Der Ansatz zur Beantwortung der Forschungsfrage ist datengetrieben. Die Autoencoder-Anwendung umfasst drei Fälle. Im ersten Szenario wird der Unterschied des Rekonstruktionsfehlers zwischen normalen und fehlerhaften Daten analysiert. Der zweite Ansatz besteht darin, einen Autoencoder für die Erkennung von Anomalien zu verwenden, und schließlich wird er für die Visualisierung in reduzierten Dimensionen eingesetzt. Die Methode zur Visualisierung von NVH-Daten ist rein unüberwacht und neben einem Autoencoder werden auch T-SNE und DBSCAN verwendet, um die Beziehung zwischen den Datenpunkten zu finden. Der primäre Fokus dieser Forschung ist das Repräsentationslernen. Daher wird die Anwendung des Autoencoders in verschiedenen parametrischen Variationen im Vorverarbeitungsschritt evaluiert. Außerdem werden zwei Modelle verwendet, ein tiefes neuronales Netz (Multilayer Perceptron) und ein rekurrentes neuronales Netz mit Langzeitgedächtnis. Die Untersuchung schließt mit einem Vergleich der Leistung der Vorverarbeitungsparameter und der Modelle für die Fehlererkennung in den NVH-Industriedatensätzen ab. Außerdem werden die Einschränkungen bei der Verfügbarkeit von Daten und Kommentaren aufgrund der hohen Kosten untersucht. Die Ergebnisse dieser Forschung liefern nicht nur einen Mechanismus zur Fehlererkennung, sondern auch eine methodische Grundlage für die künftige Bewertung von Industriedatensätzen.



Pillai, Prateek Pradeep;
Loudspeaker configuration for immersive audio in cars using up-firing techniques. - Ilmenau. - 83 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Eine der Herausforderungen für Automobilhersteller und Hersteller von Car-Audio-Systemen ist die Entwicklung von Car-Audio-Systemen, die den wachsenden Bedarf an immersiven Unterhaltungserlebnissen für den mobilen Konsum von Multimedia-Formaten wie Dolby Atmos erfüllen. In dieser Arbeit wird versucht, Up-Firing-Technologien für einen Car-Audio-Anwendungsfall zu adaptieren, der solche immersiven Audioerlebnisse ohne Verwendung von Deckenlautsprechern ermöglicht. Eine 5.1.4 Lautsprecherkonfiguration mit Up-Firing-Lautsprechern wurde entwickelt und mittels objektiver und subjektiver Bewertungsmethoden mit Stereo, 5.1 und einer 5.1.4-Referenzkonfiguration mit Deckenlautsprechern verglichen. Objektive Bewertungsmethoden wie der Pearson-Korrelationskoeffizient (PCC) und die Perceptual Evaluation of Audio Quality (PEAQ) konnten minimal zwischen den spektralen, nicht aber den räumlichen Merkmalen verschiedener Lautsprecherkonfigurationen unterscheiden. Die Schätzung der Einfallsrichtung half dabei, die räumlichen Ähnlichkeiten zwischen der 5.1.4-Referenzkonfiguration mit Deckenlautsprechern und der vorgeschlagenen Up-Firing 5.1.4- Konfiguration zu ermitteln und zeigte die Grenzen der Lautsprecheraufstellung für Up-Firing-Lautsprecherchassis auf. Die subjektiven Bewertungstests ergaben eine klare Präferenz der Hörer für die 5.1-Lautsprecherkonfiguration, die in "Multiple Stimulus with Hidden Reference and Anchor (MUSHRA)"-Tests etwa 7 Punkte höher bewertet wurde als die 5.1.4-Lautsprecherkonfiguration mit Up-Firing. Allerdings erwies sich diese als deutlich besser als die Stereokonfiguration mit einer MUSHRA-Bewertungsdifferenz von etwa 14 Punkten. Diese Bevorzugung könnte auf mehrere Faktoren zurückzuführen sein, einschließlich, aber nicht beschränkt auf die Abstimmung des Fahrzeuginnenraums, den Zielfrequenzgang der Up-Firing 5.1.4-Lautsprecherkonfiguration, sowie auf die Klangfarbe der Up-Firing Lautsprecher selbst. Diese subjektiven Testergebnisse unterstützen die objektiven Ergebnisse, die darauf hinweisen, dass die vorgeschlagene Up-Firing 5.1.4-Lautsprecherkonfiguration einen weniger ausgeprägten Höheneindruck vermittelt als die 5.1.4-Referenzkonfiguration mit Deckenlautsprechern. Die nahe beieinander liegenden MUSHRA-Bewertungen der Up-Firing 5.1.4 Lautsprecherkonfiguration und der 5.1 Konfiguration bieten eine vielversprechende Grundlage für die Erforschung einer Alternative für den Einsatz von Deckenlautsprechern. Die wichtigste Anwendung einer solchen Lautsprecherkonfiguration ist für Unterhaltungszwecke, z.B. um auch den Insassen von Autos mit niedriger Deckenhöhe/Sonnendach, die keine dedizierte Deckenlautsprecher besitzen, die Möglichkeit zu geben, unterwegs ein virtuelles Konzert zu erleben. Weitere Verbesserungen der Up-Firing Lautsprecherkonfiguration könnten Anwendungen für Gefahren- oder Kollisionswarnungen, Einparkhilfen und Freisprecheinrichtungen für Mobiltelefongespräche, bei denen der Ton aus unterschiedlichen Bereichen des Fahrzeugs kommen soll, ermöglichen.



Ma, Hong;
Unity und 4K-PTZ Kameras als Produktionswerkzeuge für virtuelle Studios. - Ilmenau. - 91 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Das virtuelle Studiosystem ist eine Weiterentwicklung der Bluescreen Produktion von Fernsehinhalten. Es umfasst Schlüsseltechnologien wie Bluescreen-Aufnahme, Kamera-Tracking und -steuerung, Keying und Erstellung von 3D-Szenen. Die virtuelle Studiotechnologie verbessert die Effizienz der Fernsehproduktion, indem z.B. viel Zeit für den Umbau der Studiobühne gespart wird. Außerdem sind die Kosten für die Erstellung und den Platzbedarf bei der Lagerung durch die Nutzung eines virtuellen Studios zum größten Teil gelöst. Darüber hinaus weist das virtuelle Studio ein hohes Maß an Flexibilität auf. So lassen sich mit viel Kreativität der Designer überraschende Effekte bei den Fernsehinhalten realisieren. Diese kann die Qualität und Attraktivität von Fernsehsendungen deutlich verbessern. Inhalt und Aufgabe dieser Masterarbeit war zu untersuchen, ob neue, günstigere Kamerasysteme mit Sensorik (PTZ-Kameras) und neuste 3D-High-End Grafikkarten Potential bieten ein kompakteres virtuelles Studio System aufzubauen. Die Komponenten zur Umsetzung des neuen virtuellen Studio Systems sind dabei vorgegeben und bestehen aus einem High-End Computer, einer PTZ-Kamera, einem Remote-Controller und der Unity3D Software als Rendering-Engine. Mit diesen Komponenten wäre man in der Lage, das Rendering der 3D-Szene für den Hintergrund und das Chroma-Keying in der Bluebox, der High-End 3D-Grafikkarte, zu berechnen. Die Umsetzung der Masterarbeit beinhaltet die Implementierung bzw. Erweiterung von Unity, um die Funktionalitäten der Kamera-Synchronisation, dem Keying, von Filtern und der Kamerafernsteuerung zu realisieren. Das Ergebnis soll in einem Fallszenario demonstriert werden.



Suleman, Muhammad Sami;
Influence of haptic feedback and embodiment on the user experience in virtual reality conferencing and commissioning. - Ilmenau. - 88 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Haptische Rückmeldung und Verkörperung sind ein aktiv erforschter Bereich in der virtuellen Realität (VR). Ein VR-System, das es dem Benutzer ermöglicht, mit virtuellen Objekten so zu interagieren, als ob sie real wären, ist äußerst wünschenswert. Die massive Entwicklung der VR-Industrie hat zu einer Beschleunigung der Entwicklung der haptischen Handschuhtechnologie sowie der Selbstdarstellung des Nutzers in VR durch digitale Avatare geführt. Es gibt jedoch nur wenige Forschungsstudien, die den Einsatz von haptischen Handschuhen in Verbindung mit der Verkörperung in einer virtuellen Umgebung (VE) untersucht haben. Die Bedeutung dieser Forschung liegt darin, besser zu verstehen, wie haptisches Feedback und 3D-Avatarisierung die Benutzererfahrung beeinflussen. Das Hauptziel dieser Studie ist die Entwicklung eines Proof-of-Concept (POC) für eine immersive virtuelle Umgebung (IVE). Durch den Einsatz von Geräten mit haptischem Feedback und Embodiment wird die POC IVE zur Untersuchung von Forschungsfragen zu Präsenz und Immersion eingesetzt. Für das haptische Feedback wurde das SenseGloves Development Kit 1 (DK1) verwendet. Der SenseGloves DK1 ist eine gelenkige Exoskelett-Struktur mit kinästhetischem und vibrotaktilem Feedback. Außerdem wurden in diesem Projekt HTC Vive-Tracker verwendet, um den Körper des Benutzers zu verfolgen. In Unity 3D wurde die Ganzkörperbewegung in der virtuellen Realität mit Hilfe eines 3-Punkt-Trackingsystems, inverser Kinematik und Animationsrigging rekonstruiert. Subjektive Tests wurden von drei VR-Fachleuten durchgeführt, um einen Einblick in die oben gestellten Studienfragen zu erhalten und die Präsenz und Immersion in der virtuellen Realität einzuschätzen. Zwei Testfälle wurden als POC entwickelt. Im ersten Testfall wurde eine Demo für VR-Telekonferenzen entwickelt. Es gab drei verschiedene Szenarien. Die Szenarien enthielten unterschiedliche Einstellungen für haptisches Feedback und Verkörperung. In jedem Szenario musste der Benutzer eine Aufgabe lösen, gefolgt von einem Fragebogen. Im zweiten Testfall wurde eine virtuelle Inbetriebnahme-Demo entwickelt. Sie enthielt ebenfalls drei Szenarien für haptisches Feedback und Verkörperung. In jedem Szenario müssen Aufgaben erledigt und anschließend ein Fragebogen ausgefüllt werden. Schließlich werden die Daten in Gruppen aufgeteilt und mit einfachen Verfahren wie Mittelwert, Standardabweichung, Spearman-Korrelation, ANOVA und t-Test ausgewertet. Die Schlussfolgerungen bestätigten mehrere Ergebnisse früherer Studien über den Einfluss von Haptik und Verkörperung auf die Benutzerqualität und -leistung in VR. Schließlich zeigten die Ergebnisse auch die Bedeutung der Haptik und die Vorteile der Verkörperung für kleine Aufgaben, die in virtuellen Telekonferenzen durchgeführt werden, und die Herausforderung, Aufgaben zu bewältigen, wie zum Beispiel bei der virtuellen Inbetriebnahme.



Analysis of movie trailer composition for automatic trailer generation. - Ilmenau. - 77 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Filmtrailer sind der effektivste Weg, einen Film zu bewerben und das Publikum anzulocken. Heutzutage wächst der Einfluss von Trailern, da sie auf sozialen Medien und Video-Sharing- Plattformen weit verbreitet sind. Das Schneiden eines Filmtrailers gilt als innovativer Prozess, bei dem Profis stundenlanges Filmmaterial sichten, die Szenen auswählen, die am ehesten die Aufmerksamkeit des Publikums erregen, und diese dann schneiden und neu anordnen, um den Trailer zu erstellen. In dieser Arbeit wird ein Ansatz des überwachten Lernens vorgestellt, der automatisch Clips aus Filmen empfehlen kann, ohne dass menschliches Eingreifen oder manuelle Annotationen erforderlich sind, um die Erstellung von Trailern zu unterstützen. Die Methode verwendet ein Deep Convolutional Neuronal Netzwerk (CNN) in Kombination mit einem Long Short-Term Memory (LSTM), um die räumlich-zeitlichen Merkmale von Aufnahmen in Trailern zu modellieren. Das CNN-LSTM-Netzwerk besteht aus zwei Schichten: 1) visuelle Merkmalsextraktion, bei der das CNN-basierte Modell trainiert wird, um den Trailer in die entsprechenden Genres zu klassifizieren; und 2) Highlight-Erkennung, bei der das kombinierte CNN-LSTM-Modell trainiert wird, um Filmclips als Highlights oder Nicht-Highlights zu kategorisieren. Um das entworfene Modell zu trainieren und zu evaluieren, wird ein neuer Filmtrailer-Datensatz erstellt, der über 15K Trailer und 86 Filme mit entsprechenden Filmplots und Metadaten enthält. Der vorgeschlagene Ansatz wurde an mehreren Filmen in Spielfilmlänge getestet. Da es keinen allgemein akzeptierten Bewertungsmechanismus für die Erstellung von Filmtrailern gibt, wurden die erkannten Highlight-Clips als Empfehlungspool extrahiert und mit dem entsprechenden offiziellen Trailer für denselben Film verglichen. Die Ergebnisse zeigen, dass das vorgeschlagene System angemessene Empfehlungen für Filmtrailer gibt und die vom System ausgewählten Clips die zufällig ausgewählten Clips deutlich übertreffen können. Somit extrahiert das System alle notwendigen Informationen aus dem Eingabefilm ohne Vorwissen und empfiehlt den menschlichen Redakteuren automatisch hoch relevante Filmclips, wodurch die Produktionszeit reduziert wird.



Sinani, Luljeta;
Effect of latency on user perception in a mixed reality environment. - Ilmenau. - 70 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Volumetrisches Video (VV) ermöglicht es Zuschauern, hochrealistische 3D-Inhalte mit sechs Freiheitsgraden (6DoF) in Mixed Reality (MR) Umgebungen zu erleben. Das Rendern von volumetrischen Inhalten erfordert viel Rechenleistung, was besonders für mobile Geräte eine Herausforderung darstellt. Um dies zu entschärfen, wird oft das Auslagern des Renderings auf einen Cloud-Server als Lösung gesehen. In solchen Systemen rendert der Cloud-Server eine 2D-Ansicht des volumetrischen Inhalts und streamt ein 2D-Video an den Client (z.B. ein mobiles Gerät). Diese Lösung erhöht jedoch die Motion-to-Photon-Latenz (M2P) aufgrund der zusätzlichen Netzwerk- und Verarbeitungsverzögerungen. Die M2P-Latenz verursacht eine Fehlregistrierung zwischen virtuellen volumetrischen Objekten und der realen Welt. Obwohl verschiedene Techniken zur Minimierung der wahrgenommenen M2P-Latenz vorgeschlagen wurden, sind Techniken zur Messung und Bestimmung der Wahrnehmungsschwellen des Benutzers nicht weit erforscht. Daher wird in dieser Arbeit ein subjektives Testexperiment entworfen, das darauf abzielt, Schwellenwerte für die Latenzerkennung für statische volumetrische Objekte zu finden, die mit einem MR-Headset präsentiert werden. Zu diesem Zweck wird eine Methode entwickelt, um volumetrischen Objekten eine künstliche Latenz hinzuzufügen, es werden psychometrische Methoden zur Bestimmung von Wahrnehmungsschwellen der Latenz untersucht, und es wird eine Testumgebung zur Durchführung subjektiver Tests entwickelt. Für acht Probanden werden unter bestimmten Bedingungen Latenzschwellen gemessen. Die Ergebnisse für die Latenzdiskriminierung werden anhand des Point of Subjective Equality (PSE) und der Just Noticeable Difference (JND) berichtet, die aus den angepassten psychometrischen Funktionen jedes Benutzers extrahiert wurden. Die gefundenen mittleren JND und PSE betragen 16,1 ms bzw. 58,1 ms. Aus diesen Ergebnissen kann gefolgert werden, dass die JND für die Latenzunterscheidung durch trainierte Probanden im Durchschnitt ˜16 ms oder weniger beträgt, unabhängig von der Komplexität des Inhalts. Diese Werte beinhalten nicht die Grundlinienlatenz des Systems. Die Tests wurden unter bestimmten Bedingungen durchgeführt, und die Ergebnisse gelten möglicherweise nicht für alle MR-Bedingungen. Dennoch sind diese Ergebnisse ein Schritt, der es Wissenschaftlern und Ingenieuren ermöglicht, die Latenzanforderungen für die Übertragung von volumetrischem Video, das auf einem Remote-/Cloud-Server gerendert wird, zu bestimmen.



Jawid, Fahad;
Development and investigation of a system to measure influence factors for task performance in immersive virtual environments. - Ilmenau. - 105 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Heutzutage hat die virtuelle Realität aufgrund ihrer fortschrittlichen technischen Eigenschaften so viel Aufmerksamkeit erlangt. Es ist einfach, sie mit virtuellen Objekten auf die gleiche Weise wie in der realen Umgebung zu integrieren und verschiedene Aufgaben innerhalb der virtuellen Umgebung genau wie in der realen Umgebung durchzuführen. Es gibt noch einige Möglichkeiten, an denen noch viel geforscht wird und werden muss. Die Distanzwahrnehmung ist eine dieser möglichen Szenarien in der virtuellen Realität. Es ist ein aktives Forschungsgebiet, dass Benutzer die Entfernung eines Objekts in der virtuellen Realität näher zu sich sehen als in der realen Welt. Um dieses Problem besser zu bewältigen und zu verstehen, besteht die Aufgabe in dieser Arbeit darin, eine Umgebung zu entwerfen, die einige Objekte innerhalb der virtuellen Umgebung wie in der realen Umgebung enthält, und dann den Abstandsunterschied zwischen ihnen im Nahfeld durch einige subjektive Tests zu ermitteln und die messenden Einflussfaktoren für diese Aufgabe mit ihrer Leistung in der immersiven virtuellen Umgebung zu untersuchen. Bisher wurden einige Untersuchungen zu Abstandsunterschieden im Nahfeld durchgeführt, bei denen die Teilnehmer verwirrt waren und mehr Zeit benötigten, um die Aufgabe zu beenden, die 2 cm oder mehr betrug, um zwischen der virtuellen und der realen Umgebung zu wechseln. Das Ziel dieses Themas ist es, eine effizientere und genauere Untersuchung von Abstandsunterschieden im Nahfeld zu finden und die Auswirkungen der Einflussfaktoren auf die Aufgabenleistung zu messen. Es wurden verschiedene subjektive Tests in immersiven virtuellen Umgebungen durchgeführt und vier verschiedene Aufgaben mit dem HTC vive pro, einem Head-Mounted Display, dargestellt. Die virtuellen Umgebungen sind interaktiv, da alles, was die Testperson in der realen Umgebung tut, auch in der virtuellen Umgebung geschieht. Für die in diesem Thema definierten Aufgaben wird das Subjekt einige Aufgaben im Sitzen und andere Aufgaben in einer beweglichen Position ausführen. Nachdem die subjektiven Tests von den Teilnehmern durchgeführt wurden, mussten sie einige Fragen zu den Testszenarien beantworten. Diese Fragen bezogen sich auf die Abstandsdifferenzschätzung und Einflussfaktoren für die Aufgabenerfüllung im IVE. Aus diesen subjektiven Tests wurden die Auswertung und die Ergebnisse durchgeführt. Aus der Einschätzung der Teilnehmer wurde geschlossen, dass die Verwirrung und die Zeit für die Bearbeitung der Aufgaben für jede Aufgabe unterschiedlich war. Bedingungen wie haptisches Feedback, ohne haptisches Feedback, erraten der Zahl, immersive Umgebung und Einflussfaktoren beeinflussen diese Aufgabenleistungen. Aber auch die kombinierten Ergebnisse mit HTC vive pro Hand-Tracking und ohne Hand-Tracking wirken sich auf jede Aufgabe aus. Die frühere [Fre+20] und die neueste Forschung zeigt, dass ab 2cm - 2,5cm die Verwirrung zunimmt. Diese Punkte sind wahrscheinlich nur im Abstand von 2cm - 2,5cm spürbar. Da jedoch nur ein Teilnehmer für alle Aufgaben zur Verfügung stand und eine geringere Anzahl von subjektiven Aufgaben durchgeführt wurde, waren mehr subjektive Tests erforderlich, um bessere und genauere Ergebnisse zu finden.



García Romero, Ana;
Evaluation immersiver virtueller Umgebungen und Entwicklung einer prototypischen Umgebung für Virtual Reality Telekonferenzen. - Ilmenau. - 60 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

Diese Bachelorarbeit befasst sich mit der Entwicklung eines Prototyps einer anpassbaren immersiven virtuellen Umgebung (engl.: immersive virtual environment, kurz IVE) zum Zweck von Telekonferenzen mit VR-Technologie. Das allgemeine Ziel ist eine neue und innovative Benutzererfahrung zu bieten, indem der Nutzer vollständig in eine virtuelle Umgebung eintaucht und dabei die Möglichkeit hat, diese nach Empfinden anzupassen. Außerdem soll der virtuelle Raum idealerweise als virtueller Arbeitsraum genutzt werden können. Auf Basis einer Literaturrecherche wurde ein Einblick in Anwendungsmöglichkeiten der VR-Technologie gegeben. Daraufhin wurde analysiert, welche Technologien zur Implementierung einer immersiven virtuellen Umgebung erforderlich sind. Anhand einer detaillierten Untersuchung über immersive virtuelle Umgebungen wurde festgehalten, wie ein Prototyp einer IVE für VR-Telekonferenz aussehen soll und welche Anforderungen es für die Entwicklung gibt. Darüber hinaus wurde die Entwicklung der IVE durchgeführt und es auf einem HTC Vive Pro-System sowie auf einem Varjo VR-1-HMD ausführen können. Des Weiteren wurde im Rahmen dieser Arbeit entwickelte Prototyp der IVE durch einen kleinen informellen Test mit lediglich einem Teilnehmer bewertet.



Wang, Shuang;
Comparison of objective and subjective methods for assessing point clouds. - Ilmenau. - 71 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

3D Point Clouds bezeichnen eine der ausgereiftesten Technologien zur Darstellung von plenoptischen Inhalten, die in letzter Zeit rasch zunehmen. Praktische Methoden und Datenbanken zur Bewertung der Qualität von Point Clouds fehlen jedoch noch weitgehend. Daher wird in dieser Masterarbeit die Qualitätsbewertung von statischen 3D Point Clouds und dynamischen Point Clouds behandelt. Mittels einer gründlichen Analyse untersucht diese Studie: (1) den Einfluss von 3D Point Clouds mit verschiedenen Degradationstypen auf die visuelle Wahrnehmungsqualität, (2) den Vergleich von MPEG G-PCC- und V-PCC-Kompressionsmethoden, (3) die Genauigkeit der vorhandenen objektiven Qualitätsmetriken des Stand der Techniks. Zu diesem Zweck wird eine subjektive Methode mit einem einzigen Single-Stimulus-Protokoll (ACR) vorgeschlagen, um die Qualität von 3D Point Clouds mithilfe von Crowdsourcing zu bewerten. Ein Crowdtest ist im Vergleich zu einem Labortest eine zeit- und kostenfreundliche Methode, die mehr und vielfältigere Teilnehmer ermöglicht. Daher sind zwei Crowdsourcing-Experimente auf die Forschungsfragen ausgerichtet. In Experiment 1 werden Gaußsches Rauschen und Octree-basierte PCL-Komprimierung verwendet, um Positionsfehler bzw. Punkteverringerung nachzuahmen. MPEG G-PCC und V-PCC sind die in Experiment 2 verwendeten Komprimierungsmethoden nach dem Stand der Technik. Anschließend werden die erfassten subjektiven Bewertungen verwendet, um die aktuellen objektiven Qualitätsmetriken des Stands der Technik zu vergleichen. Schließlich werden die subjektiven und objektiven Ergebnisse analysiert und miteinander verglichen. Zur Unterstützung der Crowdtests wurde eine dynamische Website entwickelt, die die Visualisierung von Point Clouds und die Bewertungsfunktion integriert. Die Analyse und der Vergleich mit objektiven Metriken der Crowdtests zeigen, dass 3D Point Clouds in einer Crowd-Umgebung durchgeführt werden können, während in zukünftigen Arbeiten noch andere Komprimierungsmethoden und -parameter untersucht werden sollten.



Schäfer, Thorsten;
Live-conversion of HD and UHD material and their impact on dynamic range and color gamut. - Ilmenau. - 149 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

Der zunehmende Einsatz von neuen Technologien wie Ultra-High Definition und / oder dem erweiterten Farbraum Rec. 2020 bzw. eines größeren Dynamikumfangs (HDR) bietet viele Möglichkeiten und stellt gleichzeitig etliche neue Herausforderungen an Live-TV-Produktionen. Für eine effiziente Parallelproduktion von Standard-HD und HD/UHD mit eben diesen neuen Technologien ist eine ädequate Echtzeit-Konvertierung entscheidend für die Bildqualität. Daher soll diese Arbeit zunächst die Wahrnehmung von Bildqualität, die neuen Technologiestandards und verschiedene Live-Produktions-Workflows erörtern, um darauf aufbauend anhand von praktischen Beispielen den tatsächlichen Bedarf zu untersuchen. Anschließend werden vier Geräte, die diese Live-Workflows ermöglichen, analysiert und umfassend getestet. Dazu dient hauptsächlich ein umfangreicher subjektiver Test nach ITU-R BT.500-14 mit 32 Teilnehmern ergänzt von weiteren Metriken. Letztlich werden die kombinierten Ergebnisse aus diesem Test dargestellt und diskutiert.



Bachmann, Marvin;
Vergleich von Clusteranalysen zur Entdeckung von Ähnlichkeitsstrukturen in industriellen Prüf- und Messdaten. - Ilmenau. - 50 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2020

Die Analyse großer Datenmengen stellt eine Herausforderung dar. Forschungsschwerpunkt der vorliegenden Bachelorarbeit ist eine Anomalie-Detektion in industriellen Prüf- und Messdaten mittels maschineller Lernverfahren. Durch das Aufteilen von Messkurven in verschiedene Cluster sollen typische und davon abweichende Kurvenverläufe gefunden werden. Die Ergebnisse verschiedener Clusteranalysen werden in Bezug auf Qualität und Laufzeit miteinander verglichen und bewertet. Die mathematischen Zusammenhänge von partitionierenden, hierarchischen, dichtebasierten und biclust Verfahren sind in dem Grundlagenteil vorgestellt. Es werden drei Strategien zum Aufbau geeigneter Datensätze aufgezeigt und Methoden zur Messwertreduktion erläutert. Die Durchführung der Analysen mit mehreren Parameterpaaren auf reale und künstliche Datensätze dient als Grundlage zur Auswertung der Ergebnisse. Anhand der ausgewählten Parameter ist deren Auswirkung auf Qualität und Analysezeit zu sehen. Ebenfalls ist die Aussagekraft und Anwendbarkeit geeigneter Evaluierungsmöglichkeiten beschrieben. Ein Großteil der getesteten Algorithmen ist in der Lage, Objekte mit einem irregulären Kurvenverlauf von solchen mit einem typischen Verlauf zu trennen. Die auffälligen Messkurven deuten auf fehlerhafte Funktionen in der untersuchten Baugruppe hin. Es gibt ein Analyseverfahren, dessen Parameter zuverlässig abschätzbar sind und daher brauchbare Ergebnisse für reale und künstliche Daten liefert.



Scharmacher, Tim;
Detektion von Non-Seamless Linking in Hybridradio-Audiostreams. - Ilmenau. - 56 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2020

Das Radio ist ein weit verbreitetes Unterhaltungsmedium. Die mobile Anwendung im Automobil stellt die Entwickler vor größere Herausforderungen als bei einem stationären Hausradio. Sogenannte "Radio-Tuner" können mehrere Quellen für einen stetigen Empfang eines Senders verwenden. Das Hybridradio nutzt hierfür analoges FM, digitales DAB und Onlineradio. Der nahtlose Übergang, auch "Seamless Linking" genannt, zwischen zwei Quellen ist aufgrund zeitlicher Verzögerung die größte Herausforderung in der Entwicklung. Es erfordert ein umfangreiches und zeitintensives Testverfahren. Zur Automatisierung des aktuellen Testverfahrens wird in dieser Arbeit ein Konzept zur Detektion von hörbaren Übergängen entwickelt und algorithmisch umgesetzt. Der Algorithmus benötigt zusätzlich zu dem Ausgangssignal des zu testenden Hybridradio-Tuners ein Referenzsignal. Über einen Ausschnitt dieser Signale wird eine Kreuzkorrelation zur Berechnung des Delays zwischen den beiden Signalen durchgeführt. Durch stetiges Ausführen dieses Prozesses wird ein Delay-Verlauf aufgezeichnet. Über diesen Verlauf lassen sich Synchronierungs- und Timescaling-Fehler feststellen. Des Weiteren wird die Lautheit vor und nach dem Linking gemessen. Wenn die Differenz zwischen den beiden Pegeln zu groß ist, liegt ebenfalls ein Non-Seamless Linking vor. Zudem wird das Linking auf Mutes überpüft, denn ein Mute nach dem Linking stellt auch ein Fehlermerkmal dar. Wenn keiner dieser Fehler detektierbar ist, ist anzunehmen, dass das Linking seamless ist.



Vittappan, Sharvin;
Comparison of spectral envelope quantization and coding methods in MDCT based codec at low bitrate with low complexity constraints. - Ilmenau. - 111 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

Sprach- und Audiocodierer sind ein wichtiger Bestandteil von Anwendungen wie Mobilfunk, Rundfunk, Telefonkonferenzen oder Speicherung. Parameter wie Latenz, Wahrnehmungsqualität und Kompressionsfaktor entscheiden über die Anwendbarkeit eines Codecs in diesen Anwendungen. Die LPC-basierte spektrale Hüllkurvenmodellierung wird in dem bekannten Sprach- und Audiocodierer 3GPP EVS[26.14] verwendet, um den Maskierungsschwellenwert abzuleiten. Anschließend wurde das als spectral noise shaping(SNS) [Rav+19] bekannte Verfahren erfunden, das die Amplitudenhüllkurve bei einer Rechenkomplexität modelliert, die niedriger ist als die von LPC. SNS wird im Low Complexity Communication Codec(LC3) verwendet, um den Maskierungsschwellenwert und damit die Rauschformung im Frequenzbereich abzuleiten[63419]. In dieser Arbeit werden Quantifizierer, die für SNS-Parameter verwendet werden, mit einem Vollband-Sprach- und Audiocodierer mit Bitraten von 13.2kbps, 24.4kbps und 96kbps bewertet. Die Quantisierung der SNS-Parameter beeinflusst die wahrnehmbare Audioqualität basierend auf zwei Faktoren, nämlich der Quantisierungsgenauigkeit der SNS-Parameter und der Anzahl der Bits, die für das Restspektrum nach der Quantisierung der SNS-Parameter übrig bleiben. Aus den durchgeführten Experimenten zur Bewertung der Verschlechterung der Wahrnehmungsqualität mit Reduzierung der Anzahl der für die Kodierung des Restspektrums verwendeten Bits geht hervor, dass die Anzahl der für die Kodierung des Restspektrums verfügbaren Bits für die endgültige Wahrnehmungsqualität bei geringerer Bitrate entscheidender ist. Es wird auch experimentell festgestellt, dass ein SNR von 19.48dB ausreicht, um die SNS-Parameter zu quantisieren. In einem schrittweisen Auswertungsprozess werden die einheitlichen skalaren Quantifizierer, uneinheitlichen skalaren Quantifizierer und Vetorquantifizierer mit einer Bitrate von 13.2kbps verglichen. Es wird festgestellt, dass ein 8 Schritt einheitlicher, skalarer Quantizer besser ist als die getesteten skalaren Quantizer. Ein Mehrstufiger Vektorquantisierer mit 512 und 64 Codewörtern in der ersten bzw. zweiten Stufe, der die gleiche Komplexität wie der in LC3 verwendete Quantisierer aufweist, wird experimentell als besser unter den Quantisierern angesehen, die mit einer Bitrate von 13.2kbps getestet wurden. Ein mehrstufiger Vektorquantisierer mit 256 und 32 Codewörtern in der ersten bzw. zweiten Stufe, der die halbe Komplexität des LC3-Gegenstück aufweist, wird experimentell als besser befunden als der des Quantisierers in LC3. Bei einer Bitrate von 24.4kbps hat sich herausgestellt, dass ein mehrstufiger Vektorquantisierer mit 256 und 64 Codewörtern in der ersten bzw. zweiten Stufe, der eine halbe Komplexität wie das LC3-Gegenstück aufweist, experimentell eine gleiche Qualität wie der Quantisierer in LC3 ergibt. Aus den objektiven Messungen geht hervor, dass eine mehrstufige Vektorquantisierung mit 256 und 64 Codewörtern in der ersten bzw. zweiten Stufe, die eine halbe Komplexität wie die von LC3-Gegenstücken aufweist, zu einer ähnlichen Wahrnehmungsqualität führen kann wie die von LC3.



Reißmann, Frank;
Subjective evaluation of DNN based video enhancements. - Ilmenau. - 104 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Durch technische Fortschritte ist es seit den letzten Jahren möglich geworden, dass Bild- und Videoinhalte in hochwertiger Qualität auf Geräten wiedergegeben werden können. Dieser Qualitätsanstieg beinhaltet neben größeren Pixelauflösungen auch höhere Bildwiederholraten. Für Inhalte, deren technische Eigenschaften schlechter als die aktuellen Standards sind, bedarf es jedoch Prozesse einer nachträglichen Signalverarbeitung und der damit verbundenen, Interpolation von Pixeln oder Zwischenbildern. Neben der erhöhten Wiedergabequalität können diese Prozesse auch für automatisierte Anwendungen in der Industrie oder allgemein für eine bessere, menschliche Perzeption dienen. In dieser Arbeit wurden daher Methoden zur Qualitätsverbesserung, speziell Upscaling und Frameinterpolation diskutiert. Der Hauptteil beschäftigte sich dabei mit dem Vergleich von klassischen Methoden und Ansätzen mit Deep Neural Networks (DNNs). Dazu wurde ein einstündiger Labortest entworfen, indem Probanden die subjektive Qualität von unterschiedlichen Videosequenzen bewerten sollen. In Vorbereitung wurden diese Videos zuerst auf schlechtere Eigenschaften degradiert und anschließend mit ausgewählten Algorithmen interpoliert. Die Ergebnisse der Evaluation zeigen, dass DNNs zum Upscaling prinzipiell besser geeignet sind als zur Frameinterpolation. Bezüglich einem Vor- oder Nachteil gegenüber klassischen Methoden sind dabei jedoch sowohl die Bildinhalte, als auch technischen Eigenschaften der degradierten Videos maßgeblich entscheidend. Darüber hinaus stellt der höhere Ressourcenverbrauch und die Komplexität von DNNs aktuell noch ein Problem zur Nutzung in zeitkritischen Anwendungen dar. In dieser Arbeit wurde zum Abschluss auch der Einsatz einer objektiven Videoqualitätsmetrik (VMAF) für die Bewertung der Videos überprüft und mit den Testergebnissen des Labortests verglichen. Für Upscaling-Methoden konnte dabei eine hohe Korrelation zwischen dem Labortest und VMAF festgestellt werden.



Steger, Robert;
Video quality prediction and features for gaming QoE. - Ilmenau. - 92 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Quality of Experience (QoE) von Videos, die über das Internet gestreamt werden, ist ein häufig behandeltes Thema. In den letzten Jahren ist das Interesse an Videospielen in der modernen Mainstream-Kultur angekommen, mit Esports-Turnieren, die größere Ausmaße annehmen als einige traditionelle Sportveranstaltungen und auf Plattformen wie Twitch dauerhaft Millionen von Zuschauern anziehen. Dadurch ist auch das Interesse der Forschung an diesem Thema gestiegen und schafft mit der Gaming QoE eine ganz neue Kategorie. Ein neuer Blick auf die traditionellen Methoden der QoE im Umgang mit gaming-bezogenen Inhalten ist notwendig, da sich Spiele stark von traditionellen Videos unterscheiden. Diese Unterschiede zeigen sich sowohl in der räumlichen als auch in der zeitlichen Komplexität. Eine Videospielgrafik unterscheidet sich von der realen Welt durch die künstlerische Freiheit der Designer und die Limitierungen durch die darstellenden Hardware. Außerdem verwenden Spiele oft Kameratypen, die in konventionellen Videos aus technischen Gründen keine nennenswerte Verwendung finden (z.B. Top-Down oder First-Person-Kameras). Diese Arbeit beschäftigt sich mit den spezifischen Eigenschaften von Videospielen, indem ein pixelbasiertes Feature Set eingeführt wird, das die verschiedenen Spielegenres so genau wie möglich beschreibt. Diese Features werden durch das Training von, auf Machine Learning basierten, Algorithmen zur Klassifizierung der Spielegenres erfolgreich validiert. Um diese Klassifikatoren trainieren zu können, wird ein neuer Twitch-basierter Datensatz gesammelt, der die Streaming-Pipeline besser repräsentiert als herkömmliche Gaming-Datensätze. Die zweite Aufgabe, neben der Klassifizierung besteht darin, ein neues pixelbasiertes Videoqualitätsmodell speziell für gaming-bezogene Videos zu entwickeln. Dazu wurde ein subjektiver Test durchgeführt, um die Ground Truth aufzubauen, auf der das neue Modell validiert wird. Das neue Modell basiert ebenfalls auf Machine Learning, diesmal mittels Regression. Es berücksichtigt die oben genannten gaming-bezogenen Features in Kombination mit herkömmlichen Qualitätsfeatures. Dabei kann festgestellt werden, dass die Berücksichtigung gaming-spezifischer Merkmale die Qualität des gewählten Basismodells BRISQUE+NIQE verbessern kann.



Rana, Vijaykumar Singh;
Netflix like encoding optimization. - Ilmenau. - 91 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Diese Masterarbeit bietet einen alternativen Ansatz zur Generierung von Rate-Quality curves für die Transcodierung mit nur wenigen Bitratenpunkten und dann den verbleibenden Punkt unter Verwendung der logarithmischen Approximationsmethode im Vergleich zu Netflix erzeugen, das eine Brute-Force-Technik verwendet, um Rate-Quality curves für verschiedene Auflösungen unter Verwendung aller möglichen Bitrateneinstellungen zu erzeugen. Die Motivation besteht darin, die Anzahl der Transkodierungsvorgänge so weit wie möglich zu reduzieren und dennoch die gleichen Ergebnisse zu erzielen. Es wurden zwei Pipelines für die Videokodierung betrachtet, die auf einem Brute-Force- und einem logarithmischen Approximationsansatz basieren. Die Bisektionsmethode wurde verwendet, um die Schnittpunkte für aufeinanderfolgende Rate-Quality curves mit verschiedenen Auflösungen zu bestimmen, die die Grenzen für das Transkodieren von Bitratenpunkten für jede Auflösung einer bestimmten Videosequenz liefern. Die Qualitätsbewertungen wurden unter Verwendung einer Full-Reference Metrik namens Video Multimethod Assessment Fusion (VMAF) erstellt. Die Analyse wurde unter Verwendung der Kurven durchgeführt, die mit der Bitrate gegenüber dem VMAF-Modell erzeugt wurden. Die resultierenden Rate-Quality kurven aus dem logarithmischen Ansatz wurden mit den Ratenqualitätskurven des Brute-Force-Ansatzes verglichen, die einen vergleichsweise geringeren mittleren quadratischen Fehler ergaben. Der logarithmische Ansatz reduziert die Komplexität der Transkodierung im Vergleich zum BruteForce-Ansatz von Netflix mit mean squared error 1.4%. Der Ansatz kann unter Verwendung inhaltsbasierter Features, die in den logarithmischen Approximationsansatz integriert sind, weiter verfeinert werden. In dieser Arbeit werden Tools wie FFMPEG, PySceneDetect, VMAF und Libx265 Codec



Kumar, Gourav;
Video-liking prediction. - Ilmenau. - 75 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Youtube ist für viele ein fester Bestandteil der täglichen Internettätigkeit geworden. Stark variiert der Online-Videoinhalt und auch die Videoqualität schwankt sehr, von 144p bis 4K. Youtube bietet Nutzern mehrere Möglichkeiten, um ihre Meinung oder ihr Empfinden für das Video zu äußern. Anhand dieser Informationen und anderer verwandten Youtube-Statistiken kann ein sogenanntes Likeability-Measure für ein Video berechnet werden. Indem man das Likeability-Measure für Online-Videos kennt und es mit den Video-Metadaten, visuellen Merkmalen usw. in Beziehung setzt, werden mehrere auf maschinellem Lernen basierende Modelle trainiert und dann eingesetzt, um Likeability-Measure unbekannter Videos vorherzusagen. In dieser Arbeit wird eine geeignete Definition vom Likeability-Measure aus Youtube-basierter Statistiken erörtert. Das Likeability-Measure kann sowohl den Zuschauern als auch den Verlegern helfen, das gewünschte Video nach den Parametern der Würdigkeit und der Akzeptanz vorzufiltern. Diese Forschung zielt darauf ab, Einzelne oder Ensemble Machine-Learning-Modelle zur Vorhersage der Likeability unter Verwendung eines Datasets zu trainieren, dieses Dataset aus 1080p-Videos wird erstellt durch Featuresgewinnung aus den videobezogenen Informationen. Es werden in der Arbeit ebenfalls die Kriterien für die Erstellung des Datasets erörtert. In der Arbeit wird die Vorhersage-aufgaben geteilt in Teilaufgaben von Klassifizierung und Regression basierend auf der Eigenschaft der verwendeten Merkmale. Anschließend werden Einzelne und Ensemble Modelle verwendet, um die Likeability der Videos vorherzusagen. Darüber hinaus werden die implementierten Modelle mithilfe der verschiedenen Leistungsmetriken auf ihre Leistung hin bewertet. Die Arbeit ergab, dass Ensemble Modelle deutlich bessere Leistung erbringen als Einzelne Modelle. Abschließend wird der Spielraum für Verbesserungen diskutiert zur weiteren Forschung auf dem Bereich.



Hua, Jian;
Implementation and evaluation of an eye-tracking system for 360˚ videos. - Ilmenau. - 73 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

In den letzten Jahren ist das Interesse an der Virtuellen Realität gestiegen. Mit der simulierten Umgebung in VR-Systemen können Anwender ein nagezu perfektes Immersionserlebnis erleben. Eye-Tracking ist eine wichtige Komponente im Bereich der Untersuchung der menschlichen visuellen Aufmerksamkeit. Allerdings gibt es derzeit nur wenige integrierte HMD mit innen vormontiertem Eye-tracking-Systemen. Diese Arbeit zielt darauf ab, ein Eye-Tracking System mit dem Framework des Eye-Tracking Systems von Pupil Labs zu konstruieren, während man sich 360˚ Videos ansieht. Eye-Tracking-Daten werden aufgezeichnet, um festzustellen, ob ein Eye-Tracking-System in der 360˚ Videos benötigt wird. Eine Kombination aus gemessenen Kopfrotationsdaten und Eye-tracking-Daten zeigt dann die Gazepunkte der Nutzer im virtuellen 3D-Raum. Die Ergebnisse der Auswertung deuten darauf hin, dass die Kopf rotation Kombination mit Eye-Tracking-Daten einen genaueren Interessenbereich der Nutzer bietet als nur die beteiligten Kopfrotationsdaten. Auf dieser Grundlage deutet es darauf hin, dass das Eye-tracking System verwendet werden sollte, um die visuelle Aufmerksamkeit in der 360˚ Videos zu untersuchen.



Pachatz, Nicolas;
Untersuchungen zur Transkodierung von Next Generation Audio Inhalten basierend auf dem EBU Audio Definition Model Renderer. - Ilmenau. - 63 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Um die Komplexität und Kanalzahl von Next Generation Audio Inhalten zu reduzieren und Inkompatibilitäten zu vermeiden, ist es möglich, einen Teil des objektbasierten Audios bereits bei der Produktion kanalbasiert zu rendern. Dieser Prozess wird als "Vorrendern" bezeichnet. Diese Masterarbeit untersucht Möglichkeiten und Probleme, die sich daraus ergeben. Damit wird die Kanalanzahl begrenzt, und man kann mögliche Inkompatibilitäten der Renderer vorbeugen. Es wird untersucht, welche Auswirkungen dieses Vorrendern auf die Wiedergabe hat und inwiefern das subjektive Empfinden davon beeinflusst wird. Dazu wurden diverse Tests und analytische Untersuchen durchgeführt, die mit einem Hörversuch überprüft werden sollten. Es wurden spezielle Testsequenzen erzeugt, welche für ein objektbasiertes System abgemischt und dann mit verschiedenen Variationen von Kanalbetten auf unterschiedliche Kanalkonfigurationen vorgerendert und wiedergegeben wurden. Auf Basis der erzielten Ergebnisse wurden mögliche Probleme identifiziert und Ansätze zu deren Lösung diskutiert.



Fisahn, Julian;
Generierung geeigneter Inhalte für psychologische Behandlungen unter Verwendung von Virtual Reality Umgebungen. - Ilmenau. - 62 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2019

Die Körperdysmorphobie ist eine psychologische Erkrankung, die das Leben der Betroffenen stark einschränkt. Klassische psychologische Behandlungsmethoden, wie das Expositionstraining, werden von den Patienten häufig abgebrochen. Die folgende Arbeit stellt eine erfolgversprechende alternative Behandlungsmethode vor. Es wird eine virtuelle Realität erzeugt, die es den Patienten angstfrei ermöglicht, ihre Symptomatik und die damit verbundenen Einschränkungen zu erkennen und zu beheben. Auf dem Bahnhofsvorplatz von Ilmenau wurden verschiedene, gezielt auf die Therapie ausgerichtete 360-Grad-Videos erstellt, die von Psychologen erstellte Szenarien und Parameter enthielten. Im Rahmen eines subjektiven Tests mit 11 Probanden wurden die drei erstellten Sequenzen bezüglich ihrer Qualität und weiterer Faktoren evaluiert. Daraus ergab sich, dass die erstellten virtuellen Umgebungen von den Probanden als durchaus real empfunden werden. Somit stehen als Ergebnis dieser Arbeit neue Werkzeuge zur Verfügung, die von entsprechend ausgebildeten Psychologen auf ihre Tauglichkeit im Therapieansatz getestet werden können.



Leupold, Jonas;
Implementierung und Auswertung einer bildbasierten Produktsuche im Shopsystem SAP Hybris Commerce. - Ilmenau. - 60 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2019

Das Ziel der vorliegenden Arbeit war die Implementierung und Auswertung einer bildbasierten Produktsuche im Shopsystem SAP Hybris Commerce. Die Verwendung der bildbasierten Suche im Bereich des E-Commerce ist einer der am häufigsten erwähnten Anwendungsfälle für diese Suchtechnologie. Dabei existieren bereits verschiedene Einbindungen dieser Art der Suche in Onlineshops, deren Einsatz allerdings noch sehr schwach verbreitet ist. Auf welchen Grundlagen Systeme dieser Art aufbauen, was für Probleme sie in sich bergen, die einer verbreiteten Verwendung eventuell im Weg stehen, und wie diese gelöst werden können, sollte in dieser Arbeit sowohl praktisch als auch theoretisch erläutert werden. Die Umsetzung dieses prototypischen Content-based Visual Information Retrieval Systems (CBVIR) wurde in Zusammenarbeit mit der Jenaer Digitalagentur dotSource GmbH durchgeführt. Dabei sollten sowohl die Chancen, Möglichkeiten und Probleme dieser Art der Suche, als auch die Grundlagen eines solchen Systems und dessen Erstellung erforscht und ausgewertet werden. Mit Hilfe des Shopsystems SAP Hybris Commerce, der integrierten Suchmaschine Apache Solr und dem zugehörigen Plugin lire-solr wurde eine funktionale Implementierung verwirklicht. Die Auswertung erfolgte in einer quantitativen Art mit der Hilfe etablierter Auswertungsmetriken und dem DeepFashion Bilddatensatz für Kleidungsstücke. Als Resultat steht eine funktionstüchtige Umsetzung einer bildbasierten Produktsuche zur Verfügung, welche auf Grundlage der Auswertung und der flexiblen Struktur weiter verbessert werden kann. Der schriftliche Teil dieser Ausarbeitung bietet einen Überblick über die wichtigsten Grundlagen von Systemen dieser Art, dokumentiert und erklärt alle Entscheidungen und Vorgänge zu deren Erstellung und Auswertung und führt in verschiedene Problemstellungen, Lösungen und zukünftige Aspekte ein. Das Ergebnis dieser Arbeit ist in diesem Sinne die sowohl praktische als auch theoretische Beantwortung der Frage, wie ein System für eine bildbasierte Suche in einem Onlineshop implementiert, getestet und verbessert werden kann, wodurch sowohl eine Wissensgrundlage für künftige Projekte dieser Art als auch eine technologische Grundlage für eine einfache Einbindung dieser Suche in SAP Hybris Commerce geschaffen wurde.



Krämmer, Christopher;
Per frame based approximation of video quality metrics in the pixel domain. - Ilmenau. - 89 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Videoqualitätsmetriken bewerten und quantifizieren die wahrgenommene Qualität eines Videos, z.B. durch den Vergleich eines verlustbehaftet encodierten Videos mit einem verlustfreien Referenzvideo. Ein gängiges Anwendungsgebiet ist die Optimierung von Parametern während der Encodierung, mit dem Ziel eine hohe Videoqualität bei niedriger Bitrate zu erreichen. Jedoch steigt der Rechenaufwand der Metriken mit der Wiedergabezeit, Auflösung und Bildfrequenz des zu bewertenden Videos. Des Weiteren betrachten geläufige Analysemethoden bei der Evaluation die Videobilder in ihrer Gesamtheit. Eine Möglichkeit, Prozesszeiten bei der Videoqualitätsevaluation zu reduzieren, ist durch die Bewertung von Teilbereichen pro Frame gegeben. Dieser Ansatz wird in dieser Arbeit anhand von statischen, variablen und saliency-basierten Pattern verfolgt. Dafür wird ein neuartiges Verfahren entwickelt, welches anhand von Pattern Bildbereiche pro Frame ausschneidet, diese zu einem kompakten Video zusammenfügt und anschließend mit den Videoqualitätsmetriken BRINO, MSSIM, VIFP und VMAF evaluiert. Die dabei entstehenden Bewertungsungenauigkeiten in Relation zur Zeitersparnis werden pro Pattern und Metrik untersucht. Des Weiteren erfolgt eine Abbildung der Metrikergebnisse der herkömmlichen pattern-freien sowie der innovativen saliency pattern-basierten Evaluationsansätze auf MOS-Werte mit anschließender Korrelationsanalyse. Für die Untersuchungen werden zwei Datensets verwendet, eines mit 20 verschiedenen hochauflösenden Videos von 4k bis 8k und ein weiteres bestehend aus 150 mit MOS-Werten gelabelten Videos von 360p bis 4k. Für die betrachteten Datensätze kann die Auswirkung der verschiedenen Patternansätze auf die Genauigkeiten und Zeitersparnisse einzelner Metriken gezeigt werden, einschließlich der Effekte von Patternparameter wie Blocknummer, Größe und Abdeckung. Ferner werden für die Metrikergebnisse des saliency-basierten Patternansatzes in dieser Arbeit eine höhere Korrelation zu den MOS-Werten nachgewiesen als für die herkömmlichen pattern-freien. Somit wird trotz Zeiteinsparung eine Verbesserung der Genauigkeiten der Metrikergebnisse erreicht.



Berthold, Maximilian;
Aufbau und Evaluierung einer IP-Übertragungsstrecke für die professionelle Videostudiotechnik. - Ilmenau. - 60 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Bereits seit einiger Zeit gibt es die Bestrebung Videosignale mit Hilfe von Netzwerktechnik zu übertragen. Lange Zeit stellte die für eine solche Übertragung, insbesondere in einer Produktionsumgebung, benötigte Bandbreite ein unüberwindbares Hindernis dar, aber seit Switches und Router in der Lage sind Bandbreiten von 40 Gbit/s oder sogar 100 Gbit/s zu gewährleisten, ist das Konzept einer netzwerkbasierten Produktionsumgebung durchaus realistisch. Zwei Ansätze für die Realisierung eines solchen System stellen die Standardfamilien SMPTE 2022 und SMPTE 2110 dar. Im Rahmen dieser Arbeit wurde eine einfache Übertragungsstrecke aufgebaut und getestet. Desweiteren wurden Technologien betrachtet mit denen ein solches Netzwerk organisert werden kann, um den Anforderungen, die eine Produktionsumgebung stellt, gerecht zu werden. Der Fokus lag hierbei auf verschiedenen Routingmechanismen sowie dem Einsatz von softwaredefinierten Netzen.



Kaiser, Katharina;
Untersuchung der perzeptiven Audioqualität von lizenzfreien AAC-Encodern für den Bereich der Online-Distribution. - Ilmenau. - 67 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2019

Obwohl es viele Untersuchungen zur Qualität von professionellen Encodern gibt, fehlen solche Untersuchungen fast völlig für Open-Source-Encoder. Vor allem wenn es um die qualitativen Unterschieden zwischen beiden Varianten geht, können keine stichhaltigen Aussagen getroffen werden. Diese Arbeit präsentiert einen Vergleich vom Audiocodec AAC-LC aus dem Open-Source-Encoder FFmpeg und dem kommerziellen Encoder des Fraunhofer-Instituts. FFmpeg enthält eine Eigenimplementierung vom AAC und den FDK-AAC, der ebenfalls vom Fraunhofer-Institut entwickelt, aber mit Quellcode veröffentlicht wurde. Bei dem kommerzielle Encoder handelt es sich um den High-end Encoder FhG-AAC. Zur Evaluierung der perzeptiven Audioqualität wurden Hörversuche nach ITU-R BS.1534 zu Bitraten von 64 kBit/s bis 192 kBit/s durchgeführt. Die Ergebnisse zeigen, dass der FhG-AAC die besten Ergebnisse erzielt, dicht gefolgt vom FDK-AAC. Im Gegensatz dazu wies die Eigenentwicklung von FFmpeg die vergleichsweise schlechteste Ergebnisse auf. Jedoch werden bei FhG-AAC viele Einstellungen nicht unterstützt was in einigen Fällen die Verwendbarkeit einschränken kann.



Entwicklung eines Vokabulars für die multidimensionale Bewertung von kodiertem UHD Videomaterial. - Ilmenau. - 74 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Die vorliegende Arbeit hat das Ziel der Definition eines Vokabulars für die multidimensionale Bewertung von codiertem UHD Videomaterial. Dieses Ziel wurde durch einen subjektiven Qualitätstest erreicht, bei dem den 25 Probanden sieben unterschiedliche Videoinhalte in drei unterschiedlichen Konditionen gezeigt wurden. Die Videos waren alle mit dem HEVC Codec codiert und unterschieden sich in den Parametern Auflösung, Bitrate du Framerate. Die Testteilnehmer wurden zu diesen Videos interviewt und deren Aussagen mit Hilfe der Grounded Theory ausgewertet. Dabei kristallisierten sich neun unterschiedliche Kategorien heraus in die die Aussagen eingeordnet wurden. Im Anschluss wurde eine Häufigkeitsanalyse durchgeführt, die dazu diente Kandidaten für das Vokabular ausfindig zu machen. Zusätzlich wurden Aussagen aus den Interviews herausgezogen, die interessanten Ansatzpunkte oder Effekte beschreiben. Auf Basis dieser Daten werden im Ausblick zukünftige Forschungsarbeiten und Analysemethoden für eine weitere Evaluation des Vokabulars und der Untersuchung der beobachteten Effekte erläutert



Lastra Colorado, Gustavo Antonio;
Web Performance - Vergleich unterschiedlicher Single-Page-Application Frameworks. - Ilmenau. - 107 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Web-2.0-Applikationen wirken heutzutage auf zahlreiche Bereiche ein und dienen als Kanal für den Informationsaustausch, für den Handel und für Sozial- und Bildungsaktivitäten. Die Effizienz der Entwicklung von Web-2.0-Applikationen kann mit der Nutzung von Single-Page-Application Frameworks (SPA-Frameworks) verbessert werden. Entscheidend ist hierbei die Auswahl eines für das Projektziel geeigneten Frameworks. Diese Auswahl wird durch die Fülle von SPA-Frameworks am Markt und durch den Mangel an unterstützenden Auswahlmethoden erschwert. Die vorliegende Arbeit hat zum Ziel, die Performance von SPA-Frameworks zu vergleichen. Dazu wurden verschiedene aktuelle Methoden aus den Bereichen Softwarearchitekturen und Web-Performance kombiniert, um ein Verfahren zu entwickeln, mit dem die Performance von SPA-Frameworks gemessen und anschließend verglichen werden kann. Für den Vergleich selbst wurde eine geeignete Beispielapplikation entworfen und mit drei SPA-Frameworks (React, Vue und Angular) umgesetzt. Das Verfahren erwies sich als empfehlenswert, da verschiedene Bewertungskriterien, Metriken und Nutzungskontexte zur Evaluation der Performance berücksichtigt werden konnten. Im Vergleich der SPA-Frameworks React, Vue und Angular erwiesen sich alle drei als gleichermaßen performant, aber mit unterschiedlichen Stärken: React zeigte eine bessere Reaktionszeit auf Benutzereingaben und Vue hatte kürzere Ladezeiten. Angular stach zwar mit keinem Ergebnis hervor, zeigte aber eine konstant gute Performance. Die Ergebnisse zeigen, dass mit dem Verfahren eine gute Basis für zukünftige Vergleiche von SPA-Frameworks gestellt wurde. Für zukünftige Untersuchungen könnte die Betrachtung der Performance auf der Server-Seite ebenfalls von Interesse sein, um den Grad der Interaktionen der Client-Seite der Web-Applikation mit der Server-Seite zu messen. Da SPA-Frameworks nur Aufgaben auf der Client-Seite durchführen, wurde in dieser Arbeit nur die Performance auf der Client-Seite betrachtet.



Keller, Dominik;
Identifying and analysing texture dimensions in motion pictures using sensory evaluation techniques. - Ilmenau. - 124 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Die vorliegende Thesis hat das Ziel, die Anwendbarkeit von Methoden der sensorischen Evaluation im Bereich von hochqualitativen Filmaufnahmen zu überprüfen. Dazu werden die Methoden Degree of Difference Test, Free Choice Profiling und Acceptance Test verwendet um mit Hilfe von Bildqualitätsexperten Wahrnehmungsdimensionen für Textur im Kinofilm zu ermitteln. Textur bezieht sich in diesem Fall auf unterschiedliche Parameter, die die Wirkung von einer Landschafts- und einer Portraitszene in Hinblick auf Schärfe und Rauschen verändern. Bei der Auswertung, für die Multidimensionale Skalierung, Generalized Procrustes Analysis, sowie Internal und External Preference Mapping verwendet werden, werden zwei separierte Wahrnehmungsdimensionen erkannt, die mit Korrelationen auf die wahrgenommene Schärfe und Rauschmenge zurückgeführt werden können. Außerdem wird gezeigt, dass die Bildqualitätsexperten Stimuli mit keinem oder wenig Rauschen bei gleichzeitiger moderater Schärfe bevorzugen. Obwohl alle Methoden generell adaptiert werden können, offeriert das Free Choice Profiling den höchsten Grad an Erkenntnissen und kann durch Kombination mit einem hedonischen Test umfassende Einsichten in die objektiven und subjektiven Wahrnehmungsprozesse von Menschen zur Textur von Kinofilmen ermöglichen.



Wedel, Simon;
Identifying quality of experience features and their relation to technical implementations in the context of digital cinematography. - Ilmenau. - 113 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Diese Arbeit stellt eine Methode vor, mit der ein Vokabular zur Beschreibung und Bewertung der Wahrnehmungsqualität von Filmbildern entwickelt werden kann. Im Gegensatz zu klassischen Techniken zur Vokabular Entwicklung, in denen üblicherweise Evaluationstest mit Hilfe von repräsentativen Stimuli durchgeführt werden, wurde ein Ansatz auf Basis einer Expertenbefragung gewählt. Dabei wird davon ausgegangen, dass mit Hilfe der fachlichen Expertise auf aufwändige Evaluationstest verzichtet werden kann. In dieser Arbeit wurde eine Kombination aus verschiedenen Befragungsmethoden angewendet. Zu Beginn wurden Einzelinterviews mit Experten zum Thema Bildqualität im Kontext der Kinematografie durchgeführt. Ziel der Interviews war es zunächst, induktiv eine erste Liste mit vorläufigen Attributen zu erstellen sowie ihre Bedeutung zu analysieren. Im Anschluss wurde eine RT-Delphi-Befragung durchgeführt in der eine Gruppe von Experten einen Konsens zu einer bestimmten Fragestellung erarbeiten. Die Experten bekommen innerhalb der Umfrage die anonymisierten Ergebnisse der anderen Teilnehmer mitgeteilt, worauf sie ihre eigenen Einschätzungen anpassen können. Auf diese Weise wurden die aus den Interviews gesammelten Attribute im Rahmen eines Expertenpanels überprüft. Anhand der Ergebnisse der Delphi-Befragung wurde schließlich das finale Vokabular erstellt. In einem zweiten Teil der Arbeit wurde darüber hinaus die Beziehung der Attribute zu technischen Bildparametern untersucht. Dazu wurde mit Hilfe einer Fokusgruppendiskussion unter Ingenieuren ein Matrix-Plot erarbeitet, in dem die Beziehungen zwischen ausgewählten Attributen und den technischen Bildparametern dargestellt werden konnte. Ingenieure wurden zunächst mit den Ergebnissen der Delphi Befragung konfrontiert, während in der anschließenden durchstrukturierten und moderierten Diskussion die relevanten Bildparameter erarbeitet, sowie die Gewichtung der jeweiligen Beziehungen bestimmt wurde.



Saleh, Emad Mamdouh;
Comparison and evaluation of different projection schemes for 360-degree/VR videos. - Ilmenau. - 49 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Es war immer ein Problem, gekrümmte Formen auf flache Ebenen zu projizieren, ausgehend von alten Kartographen, die sich bemühten, genaue Karten der Erde zu zeichnen, aber es gab keine perfekte Lösung, da es einen Kompromiss zwischen der Bewahrung anderer Eigenschaften der Erde gab Kugel. Seitdem Youtube im März 2015 Unterstützung für die Veröffentlichung und Anzeige des 360-Grad-Videos und im September 2015 von Facebook veröffentlichte, war es notwendig, neue Projektionsschemata für 360-Videos zu finden, um einige Probleme in alten Projektionen in Bezug auf Dateien zu überwinden Größe und Videoqualität. In dieser Arbeit werden wir versuchen, verschiedene Projektionsschemata miteinander zu vergleichen, beginnend mit der equirektangularen Projektion, die zuvor bei der Kartenerstellung verwendet wurde. Es ist einfach und leicht zu erstellen, aber die Dateigröße und die schlechte Videoqualität um den Hauptbereich herum waren immer ein Problem Verschieben auf kubische Projektion, die die Dateigröße reduzieren, gleichwinklige Projektion, die mit der ungleichmäßigen Verteilung von Pixeln in kubischen Projektion hilft, Pyramidenprojektion, die nur auf Gesicht in hoher Auflösung und verschlechtern die Qualität in anderen Gesicht zu effizienteren Videodateigröße und schließlich mit Oktaeder und Ikosaeder mit Multiprojektionsflächen.



Schubert, Anton;
Implementierung eines komprimierten breitbandigen Audio Codecs für die Fahrerkommunikation im Motorsport. - Ilmenau. - 50 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Im Motorsport hängt die Güte der Kommunikation zwischen Fahrer und Team von der Qualität der Funkübertragung ab. Erfahrungen aus der Praxis zeigen, dass aktuelle Lösungen in dem Bereich nur schlechte Sprachverständlichkeit bei vergleichsweise hohen Latenzen bieten. Das Ziel dieser Arbeit ist die Umsetzung eines Audioübertragungssystems für hochqualitative Fahrerkommunikation im Motorsport. Zu diesem Zweck werden zwei verschiedene Fahrzeugsysteme in Tests an der Rennstrecke evaluiert und auf Basis dessen ein eigenes Hardwaresystem spezifiziert. Weiterhin werden Sender-, sowie Empfängerapplikationen und entsprechendes Monitoring für diese entwickelt. Zusätzlich wird ein MUSHRA-Hörversuch mit Aufnahmen aus dem Rennfahrzeug durchgeführt, um den optimalen Audiocodec für den Anwendungszweck zu finden. Bei 24kBit/s Bitrate erzielen EVS und AAC ELD die höchste Qualität im Test und sind signifikant besser als OPUS. Das entwickelte Übertragungssystem wurde in den produktiven Betrieb überführt und ist seit 3 Monaten bei der DTM im Einsatz.



Götzl, Christoph;
Markerloses Personen-Tracking zur automatisierten Kamerasteuerung für Lecture Capture Anwendungen. - Ilmenau. - 82 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

Trackingsysteme sind Anlagen, die eine automatisierte Ansteuerung einer Pan-Tilt-Zoom (PTZ) Kamera ermöglichen. Bei Vorlesungsaufzeichnungen können diese Systeme zur Verfolgung des Dozenten genutzt werden. Bestehende Systeme basieren in der Regel auf einem Bildanalyseansatz oder einem Markersystem. Bildanalysesysteme verursachen trotz vielfältiger Einstellungsmöglichkeiten in schwierigen Situationen falsche Kamerabewegungen. Markersysteme benötigen einen Sender, der vom Dozenten getragen werden muss. So wird eine Interaktion mit dem System vorausgesetzt, die den Dozenten von der hauptsächlichen Tätigkeit ablenken kann. Weiterhin ermöglichen diese Systeme nur die Aufnahme einer einzigen Person. In dieser Arbeit wird ein Ansatz für ein Trackingsystem vorgestellt, der auf einer Kombination von Positionsdaten verschiedener Sensoren basiert. Neben einer Übersichtskamera wird ein 2D-Laserscanner zur Positionserfassung eingesetzt. In verschiedenen Tests hat sich gezeigt, dass bereits mit dem alleinigen Einsatz eines 2D-Laserscanners zuverlässige Ergebnisse erzielt werden können. So sind mit dem vorgestellten Konzept zuverlässigere Positionsbestimmungen als mit herkömmlichen Bildanalysesystemen möglich. Gleichwohl wird der Dozent nicht durch Marker beeinträchtigt. Die Arbeit zeigt, dass für ein zuverlässiges Trackingsystem für den Einsatz in Hörsälen oder Seminarräumen ein 2D-Laserscanner optional in Kombination mit einer Bildanalysemethode verwendet werden kann. Die innerhalb der Arbeit erlangten Erkenntnisse können zur Weiterentwicklung des bestehenden Systems genutzt werden. So ist die Ansteuerung mehrerer PTZ-Kameras oder eine automatisierte Auswahl verschiedener Kameraperspektiven denkbar.



Murugesan, Dhinesh;
Classification of noise in natural and synthetic speech. - Ilmenau. - 78 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Sprache ist eines der häufigsten und wichtigsten Mittel bei der Interaktion von Menschen. Daher wäre es ideal, wenn die Menschen dieselbe Sprache verwenden könnten, um mit Maschinen zu kommunizieren, nicht wahr? Eine Reihe von internationalen Forschungs- und Entwicklungsinstituten hat auf den Gebieten der Spracherkennung und Sprachsynthese gearbeitet, um die Mensch-Maschine Interaktion zu erleichtern. Dank dieser Anstrengungen können Computer inzwischen sprechen, hören und sogar Sprache erkennen. Heutige Anwendungen von Sprache in der Mensch-Maschine-Interaktion umfassen Satellitennavigationssysteme, automatisierte Call-Center und intelligente persönliche Assistenten. Sprechen ist eine Fähigkeit des Menschen und Menschen können dies ohne darüber nachzudenken. Dennoch ist es für Computer schwierig, diese Aufgabe zu erfüllen. Forscher haben mehrere Ansätze vorgeschlagen, um Sprache zu synthetisieren. Die einfachste Art besteht darin, aufgezeichnete Klangsegmente aus einem Sprachkorpus in möglichen Kombinationen zu verketten. Der Erfolg eines Mensch-Maschine-Interaktionssystems hängt in hohem Maße von der Qualität einer synthetisierten Sprache ab, oder mit anderen Worten: Die synthetisierte Sprache muss verständlich sein. Der Standard des Sprachsynthesizers wird durch den Mangel an Natürlichkeit, dem Vorhandensein von Artefakten in der synthetisierten Sprache und Rauschen oder unerwünschten / nicht-semantischen Klangereignissen in der aufgezeichneten natürlichen Sprache beeinträchtigt. Daher ist es notwendig, einen hohen Standard der aufgezeichneten Sprache zu erhalten und einen Synthesizer mit möglichst wenigen Artefakten zu gestalten. Mit der Weiterentwicklung von Computertechnologie tritt auch das Gebiet der Künstlichen Intelligenz (KI) immer weiter in Erscheinung. In dieser Arbeit wurden KI-Techniken untersucht und vielversprechende Ansätze gefunden, um Artefakte in synthetisierter Sprache zu identifizieren und zu lokalisieren. Ein großer Korpus natürlicher und synthetischer Sprache wurde analysiert, um die Eigenschaften von menschlichen Sprachäußerungen und von Verkettungsartefakten zu untersuchen. Es wurden Listenexperimente mit Probanden durchgeführt, um menschliche Artefakte in natürlich aufgezeichneter Sprache zu untersuchen. Zwei verschiedene Algorithmen wurden zur Detektion von menschlichen und Verkettungsartefakten in natürlicher bzw. synthetischer Sprache vorgeschlagen. Zusätzlich wurde die Leistungsfähigkeit verschiedener Maschinenlernalgorithmen zusammen mit einem eindeutigen Satz von vorgeschlagenen Merkmalsvektoren verglichen. Die vorgeschlagen Algorithmen ermöglichen eine schnellere Validierung der Qualität von natürlich aufgezeichneter Sprache und auch von synthetisch erzeugter Sprache. Für Menschen hingegen ist eine solche Validierung sehr komplex und aufwändig. Die Ergebnisse der im Rahmen dieser Arbeit durchgeführten Experimente bestätigen, dass die vorgeschlagenen Algorithmen funktionieren. Die hier vorgestellten Algorithmen zur Erkennung von Artefakten können je nach Anwendungsfall herkömmliche Hörexperimente ergänzen oder ersetzen.



Vogel, Patrick;
Entwicklung eines Testaufbaus und Vergleichsanalyse zwischen realer Betrachtung und medialer Betrachtung mittels verschiedener Kameras einer Portraitaufnahme von unterschiedlichen Personen. - Ilmenau. - 83 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

Mit der Einführung von UHD konnte nachgewiesen werden, dass sich die Betrachtung einer Person bei UHD-Inhalten anders darstellt. Hier setzt die Arbeit ein. Es wird die Frage gestellt, inwieweit sich die reale und mediale Betrachtung von Gesichtern unterscheidet. Dafür wurde ein Testaufbau entwickelt mit dem zum einen die gleichzeitige Aufnahme mehrerer Kameras des selben Objekts ermöglicht wurde und zum anderen anderen die Durchführung eines Tests mit realer und medialer Komponente. Bei der Entwicklung des Tests wurden alle relevanten Parameter und Komponenten begründet und erläutert, um die Vergleichbarkeit und Wiederholbarkeit des Testaufbaus zu ermöglichen. Mittels Eye-Tracking wurden die Betrachtungen von Testpersonen aufgezeichnet und ausgewertet. Somit konnte aufgezeigt werden, dass sich reale und mediale Betrachtung in Hinblick auf die Vergleichbarkeit nicht relevant unterscheiden. Die festgestellten Unterschiede wurden genau benannt und innerhalb des Kontext des Testaufbaus begründet.



Melzer, Matthias Fritz;
Verifikation der Zusammenhänge von instrumentellen Messparametern und dem Gesamtqualitätseindruck in Konversationstests. - Ilmenau. - 86 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

Innerhalb dieser Bachelorarbeit wurde die Funktionsweise, eines seitens der Firma HEAD acoustics entwickelten Demonstrators zur Qualitätsanalyse von Ende zu Ende Telefonverbindungen verifiziert. Insbesondere wurde Wert auf die Qualitätsüberwachung dynamischer Verbindungsänderungen während des Gesprächs gelegt. Zur Verifizierung des Demonstrators wurde ein Konversationstests durchgeführt. Innerhalb dieses Konversationstests wurden zur Qualitätsänderung der Telefonverbindung Endgeräte genutzt, die gezielt in ihren akustischen Eigenschaften modifiziert wurden. Ebenfalls konnten während der Konversation Netzparameter (Packet Loss, Delay) und die Stärke eines im Signalweg eingespeisten Echos dynamisch verändert werden. Die Bewertungen des Konversationstests und die Kommentare der Versuchspersonen wurden mit den berechneten Ergebnissen des Demonstrators verglichen und analysiert. Daraus konnten zu einigen Eingangsgrößen des Demonstrators Verbesserungsvorschläge abgeleitet werden. Die Werte einer verbesserten, zweiten Version des Demonstrators konnten ebenfalls noch mit den Daten des Konversationstests verglichen werden.



Müller-Welt, Philipp;
Feasibility study and construction of a prototypical virtual reality head-mounted display. - Ilmenau. - 71 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Das Hauptziel dieser Arbeit ist die Erstellung einer Machbarkeitsstudie für die Konstruktion eines virtual reality-head mounted displays, welches dem aktuellen Stand der Technik entspricht. Hiefür wurden zunächst die Grundlagen über virtual reality (VR), head mounted displays (HMDs) und betreffende Eigenschaften des menschlichen visuellen Systems erläutert. Im Anschluss folgte eine Analyse des HMDs durch eine Beschreibung seiner einzelnen Bestandteile in Funktion und Wirkungsweise. Mit diesen Voraussetzungen wurde ein umfassender Überblick und eine Klassifizierung bestehender HMDs geschaffen sowie eine Analyse der vorhandenen Schwachpunkte des aktuellen Standes der Technik und der möglichen Verbesserungspotentiale. Anschließend ist ein Lastenheft erstellt worden, welches die notwendigen technischen Anforderungen an ein HMD darlegt. Ebenso konnte mit Hilfe der gewonnen Erkenntnisse aus der geometrischen Optik ein Modell erstellt werden, welches die grundsätzlichen optisch-geometrischen Eigenschaften eines HMDs widerspiegelt. Den Abschluss der Arbeit bildet ein Ausblick auf die nächsten Konstruktionsschritte und mögliche Optimierungspotentiale bestehender Systeme.



Dutta, Madhurjya Kumar;
Improved onset detection for non-percussive sounds. - Ilmenau. - 55 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Das extrahieren von zeitlicher Information aus Musikaufnahmen ist eine der kritischsten Aufgaben für viele Music Information Retrieval Systeme. Onset Erkennung ist eine Methode zur Erkennung der Startzeiten von Noten und wird in vielen Musikverarbeitungsaufgaben als ein erster Schritt genutzt. Beispiele dafür sind die automatische Musiktranskription, das Beat Tracking und die Abschätzung der Geschwindigkeit. Onset Erkennung kann, zum Beispiel im Fall von Schlaginstrumenten, sehr einfach sein. Allerdings gibt es auch Audiosignale welche für diesen Zweck eine deutlich größere Herausforderung darstellen. Die schwierigsten werden von harmonischen Instrumenten wie der Violine oder dem Cello erzeugt. Das Ziel dieser Arbeit ist die Entwicklung eines Systems zur Verbesserung der Onset Erkennung für nicht-perkussive, monophone Musiksignale auf Basis des aktuellen Stands der Forschung. Dafür werden Methoden, welche dem aktuellen Stand der Forschung entsprechen, untersucht und analysiert. Zwei angemessene Ansätze werden dabei als Vergleichsmethoden für die Implementierung und die Bewertung gewählt. Verbesserungen für die Vergleichsmethoden werden mithilfe der Gaussian mixture models ermittelt und abschließend werden die Resultate der Vergleichsmethoden und der neu erarbeiteten Methoden sorgfältig analysiert und miteinander verglichen.



Brückner, Jonas;
Editing the metadata of a broadcast transport stream for use in an automotive-infotainment system testing environment. - Ilmenau. - 78 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Die Entwicklungsumgebung eines Automotive-Infotainment Systems befindet sich im stetigen Wandel. Hierbei folgen die Automobilhersteller der Forschung und Entwicklung der Elektronikgeräte im Konsumerbreich, womit ein rapides Wachstum der Funktionalitäten im Automobil einhergeht. Zur Absicherung eben jener Systeme bedarf es Testketten, welche sich ebenfalls in einem stetigen Erneuerungs- und Erweiterungsprozess befinden. Zur Absicherung der TV Applikation im Automotive-Infotainment System und dem Ausbau der dafür benötigten Testumgebung wird in dieser Abschlussarbeit der Ansatz zum Editieren der Metadaten von Transportströmen zur Abdeckung von Testfällen für eine TV Testumgebung behandelt. Mit Hilfe der anfänglichen Analyse der im TV Signal befindlichen Metadaten und der Darstellung der Struktur einer Automotive-Infotainment System Testumgebung wird das Editieren von Metadaten eines TV Transportstroms und der Nutzen für das Testumfeld anhand der Entwicklung und dem Einbezug eines Tools beschrieben. Die Entwicklung des Tools hat Problemstellungen im Editiervorgang aufgezeigt und befasst sich mit den Erkenntnissen zur Lösung eben jener Komplikationen. Zum Einen fällt unter die genannten Erkenntnisse die Handhabung undokumentierter oder mangelhaft dokumentierter Softwarekomponenten mit Hilfe von TV Spezifikationen. Des Weiteren werden Schwierigkeiten in der Versionsanpassung von Softwarekomponenten dargestellt, welche sich zudem auf die Leistung, Stabilität und Benutzerfreundlichkeit des Editiervorgangs auswirken. Abschließend wird verdeutlicht, welche Testabdeckung durch die synthetisch hergestellten TV Signale erreicht werden kann. Die somit gewonnen Erkenntnisse stellen dar, wie stark die Testumgebung durch das Editieren von Metadaten in synthetisch erstellten Transportströmen die Testumgebung bzw. die Testfälle beeinflussen kann und welche Schwierigkeiten beim Editieren auftreten können.



Zhang, Chao;
3D-Audio telephone conferencing : impact and attribution of capture-related degradations on perceived quality. - Ilmenau. - 72 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

In dem Telefonkonferenzsystem kann das räumliche Audio oder das sogenannte 3D-Audio die wahrgenommene Qualität des Zuhörers verbessern, insbesondere für Mehrpersonengespräche. Mit der räumlichen Information ist es möglich, einzelne Sprecher zu identifizieren und zu unterscheiden. Dies ist insbesondere wichtig für den Fall, dass mehrere Sprecher gleichzeitig sprechen. In Bezug auf die Anwendung von Telefonkonferenzen spielen Beeinträchtigungen auf der Aufnahmeseite wie Lärm und Nachhall eine Rolle bei der Qualitätsbewertung. Die Interaktion von aufnahmeseitigen Beeinträchtigungen und die Vorteile des räumlichen Audio-Renderings werden jedoch nicht vollständig verstanden. Ob das 3D-Audio immer noch besser funktioniert als das nicht-räumliche Audio unter den Beeinträchtigungen, wurde noch nicht diskutiert. Daher ist es das Ziel dieser Arbeit, die Auswirkung und Zuordnung der aufnahmebedingten Beinträchtigungen auf die wahrgenommene Qualität aufzudecken. Um dieses Ziel zu erreichen, wurde ein Hörversuch entworfen, implementiert und durchgeführt. Das Hörmaterial wurde durch die Verarbeitung hochqualitativer Sprachaufnahmen mit verschiedenen Methoden erzeugt. Die Integration von PJSIP und SoundScape Renderer wurde implementiert, um 3D-Audio zu erzeugen. Und die ITU-T G.191 Toolbox wurde verwendet, um die Verschlechterungen zu simulieren. Der Vergleich von Gegensprechen, dem s.g. Double-Talk (zwei Sprecher sprechen gleichzeitig) und Wechselsprechen, dem s.g. Single-Talk (zwei Sprecher sprechen alternativ) ist ebenfalls in dieser Arbeit enthalten. Insgesamt werden vier Kategorien von Stimuli erzeugt und jede Kategorie enthält 25 experimentelle Bedingungen. Die Ergebnisse dieser Studie zeigen, dass das 3D-Audio immer besser als das 1D-Audio ist und das Single-Talk besser als das Double-Talk bei gleicher Beeinträchtigung ist. Das heißt, mit der Beeinträchtigung profitiert das 3D-Audio auch von der räumlichen Wirkung. Darüber hinaus verbessert 3D-Audio bei hochqualitativen Stimuli die Qualität für Double-Talk deutlich, aber für Single-Talk nur wenig. Wenn die Sprache durch Rauschen beeinträchtigt wird, erhöht das 3D-Audio die Qualität von Double-Talk und Single-Talk. Der Vorteil von 3D-Audio, der für ungestörte Sprachsignale bekannt ist, ist ebenfalls für verschiedene aufnahmebedingte Beeinträchtigungen erkennbar.



Peter, Julia;
Entwicklung eines Audio-Testplatzes zur Erkennung und Beurteilung von Störern verschiedenster Audiosysteme auf Radio-Wiedergabe im Kfz-Bereich. - Ilmenau. - 101 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Die Arbeit beschäftigt sich mit der Konzipierung und Umsetzung eines Audio-Testplatzes für Radiowiedergabe in Fahrzeugen. Im Speziellen handelt es sich um die Entwicklung einer Softwarelösung in Python zum Testen und Bewerten von Audioqualität bei Radiowiedergabe verschiedener Quellen für Fahrzeuge. Ihre Softwarearchitektur ist getrennt in Benutzeroberfläche (GUI, entwickelt mit PyQt) und Signalverarbeitung. Das Programm bietet umfassende Möglichkeiten Testszenarien zu bearbeiten und auszuführen und so Bewertungen zur Signalqualität zu erhalten. So werden Radiosignale für Fahrzeuge auf verschiedene Störer und deren Ursprünge untersucht und bewertet. Damit kann schon bei der Fahrzeugentwicklung sichergestellt werden, dass das Infotainmentsystem entsprechend abgestimmt ist und keine Kundenbeanstandungen hervorrufen wird. Im Programm werden die Signale in Zeit- und Frequenzbereich verarbeitet, analysiert und evaluiert. Dies geschieht anhand von Signalverarbeitungsprozessen wie Kreuz- oder Auto-Korrelation und Berechnungen von z.B. der SNR. Damit kann ein instrumenteller Bewertungsparameter zur Audioqualität des Fahrzeugradios abgeschätzt werden, der dem Tester bei einer perzeptiven Einschätzung der Signalqualität und Quality of Experience (QoE) als Referenz dienen kann. Die instrumentelle Bewertung der Audioqualität erfolgt dazu über Parameter, wie den Mean Opinion Score (MOS) und einen vorgegebenen Qualitätsindex. Dann hat der Tester die Möglichkeit, eine perzeptive Bewertung anzuschließen, indem er die Signale anhören kann, wie sie in Fahrzeugen klingen. Dafür wurden BRIRs aus Fahrzeugen und verschiedene Hintergrundgeräusche aufgenommen und eingearbeitet. Sie werden als räumliche Filter mit den Signalen gefalten oder additiv hinzugefügt. Als Ergebnis zeigt sich, dass Fahrzeugen keine optimalen Wiedergaberäume darstellen. Daher ist es wichtig das Fahrzeugaudiosystem und Signale dafür anzupassen. Der Fahrzeugwiedergaberaum kann in der Software durch räumliche Filter simuliert werden und so in die Bewertung der Signalqualität der Head Unit-Signale mit einfließen. Dies führt zu einer Senkung des Testaufwands und einer Ersparung unnötiger Tests oder Beanstandungen. Zusätzlich ergibt sich der Qualitätsindex als Referenzwert der instrumentellen Bewertung der Audioqualität und die Möglichkeit zur perzeptiven Evaluation der Fahrzeugradiowiedergabe in Realbedingungen.



Dobmeier, Verena;
Systemidentifikation eines aktiven Schwingungstilgers und Entwurf eines adaptiven Regelkonzepts. - Ilmenau. - 142 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

In der Automobilindustrie ist es ein stetiges Ziel, den Akustik-Komfort von Fahrzeugen zu optimieren. Dieser wird beispielsweise durch Störgeräusche vermindert, die infolge von antriebsstrang- oder fahrbahnerregten Karosserieschwingungen entstehen können. Die vorliegende Masterarbeit beschäftigt sich daher mit der Entwicklung eines aktiven, selbstsensierenden Schwingungstilgers, der diesen Phänomenen entgegenwirken soll. Während bisherige passive Tilger in Form von Feder-Masse-Systemen zahlreiche Nachteile aufweisen und damit beispielsweise einen hohen Abstimmungsaufwand verursachen, bietet der Einsatz aktiver Tilger hingegen einige Vorteile. Neben dem geringeren Gewicht können durch deren Adaptivität die Anpassungsmaßnahmen deutlich reduziert werden. Allerdings treten durch die Notwendigkeit zusätzlicher Sensoren höhere Kosten im Vergleich zu passiven Tilgern auf. Daher verfolgt die Masterarbeit den Ansatz, den Aktor zugleich auch als Sensor in einem Bauteil und damit selbstsensierend zu verwenden. Zur Trennung der Signalanteile müssen in diesem Fall die Aktorübertragungsfunktionen genau bekannt sein. Deshalb bestand der erste Schritt in der Systemidentifikation dieser Übertragungsfunktionen. Die Signaltrennung erfolgte daraufhin anhand eines realitätsnahen Störsignals, das an PKW-Heckklappen auftreten kann. Simulativ wurde zuletzt eine Feedback-Regelung mithilfe adaptiver FIR- und IIR-Filter aufgebaut, die zur Kompensation der detektierten Schwingungen einsetzbar ist. Schließlich fand eine Abschätzung statt, inwiefern sich Amplituden- und Phasenfehler in der Bestimmung der Aktorübertragungsfunktionen auf das Regelergebnis auswirken können.



Wahl, Alexandra;
Design und Prototypenentwicklung eines Editors zum Erstellen von Presets in objektbasierten Audioszenen. - Ilmenau. - 64 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2017

Das Ziel der Bachelorarbeit ist es ein prototypisches Produktionstool für objektbasiertes Audio zu entwerfen und zu implementieren. Objektbasiertes Audio beschreibt die Darstellung von Audioinhalten. Ein Audioobjekt, bestehend aus Metadaten und Audiorohdaten, beinhaltet alle nötigen Informationen, um von einem Renderer der Wiedergabesituation entsprechend prozessiert zu erden. Die fortlaufende Manipulation der Metadaten erlaubt Interaktionen des Konsumenten und der Umgebung mit dem Audioobjekt. Das in dieser Arbeit zu erstellende Produktionstool ermöglicht die Generierung von Audiocontent im 360˚-Video Umfeld. Audioobjekte sollen mit interaktiven Parametern versehen werden können. Das Tool verfügt über ein graphisches 360˚-Editionsumfeld und erzeugt eine Konfigurationsdatei, welche alle für den Renderer relevanten Informationen (Presets) beinhaltet. Zusammen mit den hinterlegten Audiodateien, welche in der Konfigurationsdatei mit den entsprechenden Metadaten verlinkt sind, wird der Rendererprozess gestartet. Das Produktionstool soll als eigenständiger Service in Cloud Computing Systemen integrierbar sein. Hiermit bekommen Kunden die Möglichkeit komplexen objektbasierten Content sogar auf einem schwachen Endgerät, wie Smartphones (in Besonderem in Verbindung mit einer Google Cardboard Brille) oder Tablets, zu erstellen.



Zebelein, Julian;
Features of 4K/UHD contents and relevance for video system technology evaluation. - Ilmenau. - 63 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Diese Arbeit stellt eine neue Methode zur automatischen Evaulierung von Videoqualität im Bereich HD und UHD vor. Dieser Ansatz setzt auf die Extraktion von vier Signal Features: Schärfe, Kontrast, Bewegung und Sättigung. Weiterhin werden inhaltsbasierte Eigenschaften ausgewertet, Gesichter werden erkannt und ein Algorithmus zum Erkennen von auffallenden und herausragenden Bildelementen wird verwendet. Die anfallenden Daten werden von drei unterschiedlichen machinellen Lernverfahren ausgewertet: Der Support Vector Machine, einem Random Forest Klassifikationsverfahren und dem k-nearest neighbor Algorithmus. Der gesamte Prozess wird mit einem eigens entwickelten Datensatz von 165 Testvideos untersucht. Für diesen Datensatz liefert das Random Forest Klassifikationsverfahren die besten Ergebnisse betreffend Accuracy, Precision, Recall und dem F-Maß. Die Visualisierung der Entscheidungsgrenze und die ROC Kurven bestätigen dieses Ergebnis weiterhin. Einige der Beschränkungen können durch den verwendeten Videodatensatz entstanden sein, welcher die Basis für das Klassifikationsverfahren bildet. Es wurde gezeigt, dass dieser Ansatz rentabel und stabil ist und sehr gute Ergebnisse liefert. Jedoch muss der als Basis benutzte Videodatensatz selbst evaluiert werden, da er qualitativ hochwertig und repräsentativ für den jeweiligen Einsatzzweck sein muss.



Selent, Daniel;
Entwurf und Validierung eines perzeptiven Testverfahrens zur analytischen Qualitätsbeurteilung von 4K/UHD-Technologie. - Ilmenau. - 52 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Das Ziel der vorliegenden Masterarbeit war es ein Training für die 4K/UHD-Technologie zu entwickeln, das erfahrene Nutzer zu Expertennutzern ausbildet. Dabei wurden vorhandene Trainings aus dem Audiobereich auf ihre Methodiken untersucht und versucht auf den Videobereich zu übertragen. Erstellt wurde ein Training, basierend auf einem two Forced Alternative Choice Design, das die Attribute Farbsättigung, Framerate, Auflösung und Bitrate trainiert. Anhand der statistischen Auswertung subjektiver Videotests vor und nach den Trainings ist zu erkennen, dass bei den Attributen ein Trainingseffekt stattgefunden hat. Ferner wurde großer Wert auf die Auswahl und Bearbeitung der Stimuli und die Einordnung der Probanden in Profile gelegt. Eine Besonderheit der Stimuli ist, dass diese aus unbekannten Quellen stammen und klassifiziert werden mussten. Die Probandenprofile orientieren sich an den aus dem Audiobereich bekannten Profilen von Bech und Zacharov.



Latus, Julius;
Implementierung von Algorithmen zur Synchronisierung und Verarbeitung von A/V-Signalen mittels FPGA-Schaltungen für die Übertragung in IP-basierten Netzwerken. - Ilmenau. - 101 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

In der Arbeit werden Verfahren zur Synchronisierung von Audio- und Videosignalen im professionellen Studio betrachtet. Hierbei werden periodische Synchronsignale generiert. Deren einzelne Abschnitte werden Bereichen der ebenfalls periodischen Mediensignale zugeordnet. Wird dieses Verhältnis für die Geräte im Studio eingehalten, arbeiten sie synchron zueinander. Die Synchronsignale werden zusammen mit den Audio- und Videodaten in Form von IP-Paketen in einem Netzwerk übertragen. Die Verfahren werden in den Standards IEEE Std 1588 -2008, SMPTE ST 2059-1:2015 und SMPTE ST 2059-2:2015 beschrieben. Ziel der Arbeit ist es, eine bestehende Implementierung der Standards an ein Zielsystem anzupassen und zu evaluieren. Die Implementierung liegt in Form von Schaltungen und Treibern für ein Entwicklungsboard mit FPGA vor. Durch die Evaluierung kann beantwortet werden, welche Anforderungen an eine Implementierung der Verfahren bestehen und wie diese in der Praxis erfüllt werden können. Dazu werden theoretische Analysen durchgeführt, mit denen u.a. die benötigte Genauigkeit der Synchronisierung in einem Studio bestimmt wird. Außerdem werden Messungen mit zwei Rechnern durchgeführt, um deren Genauigkeit der Synchronisierung bestimmen zu können. Die Ergebnisse werden mit der Genauigkeit des Referenzdesigns verglichen. Es kann gezeigt werden, dass die benötigten Anforderungen nur dann erfüllt werden können, wenn die zur Synchronisierung benötigten Zeitstempel in Hardware generiert werden. Das Referenzdesign erfüllt diese Anforderung. Es kann außerdem gezeigt werden, dass die Genauigkeit durch die Veränderung von Parametern der Regelschleifen der Geräte beeinflusst werden kann. Daher ist es sinnvoll, bestimmte Bereiche einer Implementierung zur Laufzeit modifizieren zu können. Es ist absehbar, dass im netzwerkbasierten Studio künftig auch Algorithmen für die Überwachung und Steuerung von Geräten eingesetzt werden sollen. Dies spricht ebenfalls für eine flexible Implementierung in einzelnen Bereichen.



Löber, Daniel;
Eine Open Source Audioengine für Virtual Reality Anwendungen. - Ilmenau. - 58 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Im Kompetenzzentrum Virtual Reality der TU Ilmenau wird in der \gls{cave} ein IOSONO-System verwendet, um räumlichen Klang mittels Wellenfeldsynthese zu erzeugen. Da dies ein poprietäres System ist, sind Anpassungen an der Sounderzeugung oder der Konfiguration nur in begrenztem Rahmen möglich. Der SoundScape Renderer ist ein Open-Source-Projekt zur räumlichen Klangerzeugung. Unterstützte Methoden sind neben dem vector-based amplitude panning auch Wellenfeldsynthese und Ambisonics. In dieser Arbeit wird das Audiosystem der CAVE untersucht um festzustellen, ob es möglich ist den SoundScape Renderer in die bestehenden Systeme zu integrieren. Nötige Änderungen werden herausgearbeitet und umgesetzt. Abgeschlossen wird die Arbeit mit einem Hörversuch, der die beiden Systeme miteinander vergleicht.



Fremerey, Stephan;
Measuring the exploration behaviour of people in omnidirectional videos. - Ilmenau. - 96 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Der Hauptschwerpunkt dieser Arbeit besteht darin, das Erkundungsverhalten von Personen innerhalb von 360˚ Videos zu untersuchen. Hierzu wird im Rahmen der Arbeit ein Framework entwickelt, welches in der Lage ist, die Kopfbewegungen von Personen, die ein Head-Mounted Display (HMD) tragen, zu verfolgen. Das Framework soll auch auf die Daten eines externen Motion Capturing Systems zugreifen können. Ziel der Arbeit ist unter anderem die Untersuchung der Nutzbarkeit und Genauigkeit der ermittelten Daten beider Systeme. Außerdem wird der Einfluss eines Kabels bei Head-Mounted Displays auf das Erkundungsverhalten von Personen untersucht, wobei auch Aspekte bezüglich der Simulationskrankheit beleuchtet werden. Weiterhin wird betrachtet, inwiefern der Inhalt und Häufigkeit der Wiedergabe eines Videos einen Einfluss auf das Erkundungsverhalten von Personen haben. Hierbei wird auch das interindividuelle Verhalten verglichen, wobei untersucht wird, ob ein typisches Sichtfeld bei 360˚ Videos vorhanden ist. Innerhalb des theoretischen Teils werden zuerst Grundlagen bezüglich Kopfbewegungsdaten dargelegt. Hiernach werden Faktoren genannt, die zum Erkundungsverhalten von Personen bei 360˚ Video beitragen können. Außerdem werden verschiedene Methoden zur automatisierten Extraktion des Ansichtsfensters bei 360˚ Video vorgestellt. Weiterhin werden Gründe und Messmethoden der Simulationskrankheit präsentiert. Zum Schluss werden aktuelle HMDs diskutiert. Innerhalb des folgenden Teils werden die Ziele, Anforderungen und Komponenten des Frameworks dargelegt. Hiernach wird das Setup und der Export von Daten des Motion Capturing Systems beschrieben. Danach wird die Architektur des Frameworks erläutert, wobei der Fokus auf die Wiedergabe der 360˚ Videos und synchrone Aufnahme der Daten bei beiden Systemen gelegt wird. Im Folgenden wird die Benutzung des Frameworks beschrieben. Zuletzt werden entwickelte Evaluationsskripte des Frameworks vorgestellt. Im folgenden Teil werden zuerst zwei Studien, welche mittels des Frameworks durchgeführt werden, präsentiert und diskutiert. Im Anschluss daran findet ein Proof of Concept Test statt, bei dem der Fokus auf die Beantwortung der oben genannten Forschungsfragen gelegt wird. Zum Schluss der Arbeit wird eine Anforderungsanalyse durchgeführt. Weiterhin werden mögliche Verbesserungen des Frameworks und Forschungsansätze angeführt.



Pricken, Robin;
Quality aspects of near-end listening enhancement approaches in telecommunication applications. - Ilmenau. - 71 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Um die Sprachverständlichkeit in lauten Umgebungen zu verbessern, wurden in den letzten Jahren viele Ansätze unter dem Namen Near-end-Listening Enhancement (NELE) veröffentlicht. Verschiedene Evaluationen haben sich des Themas angenommen und die Ansätze in umfangreichen Studien miteinander verglichen. Jedoch wurden dabei die Rahmenbedingungen, die sich in der Telekommunikation, einem der Haupteinsatzfelder, ergeben, vernachlässigt. In diesem Einsatzfeld wird das Signal immer auf der Sendeseite codiert und auf der Empfängerseite decodiert, was zu einer hörbaren Verschlechterung des Signals führt. Des Weiteren wurden die Algorithmen meist nur in Bezug auf die Verbesserung der Sprachverständlichkeit getestet. Aus diesem Grund ist wenig über die möglichen Einbußen in der Sprachqualität bei dem Einsatz dieser Algorithmen bekannt. Im Rahmen dieser Masterarbeit wurde der Algorithmus SSDRC von Zorila u.a. implementiert und modifiziert. Die Implementierung und vier weitere NELE Ansätze wurden in einem formalen Hörtest mit Blick auf die Sprachqualität miteinander verglichen. Hierbei wurden verschiedene Störgeräuschszenarien sowie die typische Hörsituation mit in Betracht bezogen. Die häufig eingesetzten Codecs ITU-T Rec. G.711, G.722 und G.726 wurden für die Anwendung auf die Sprachsignale ausgewählt. In den Ergebnissen der Hörtests zeigte sich, dass die meisten Ansätze die Sprachqualität in den untersuchten Störgeräuschsituationen im Vergleich zum Referenzsignal verbessern konnten. Der Anstieg der Sprachqualität zeichnete sich besonders deutlich in Kombination mit dem Breitband-Codec ITU-T Rec. G.722 ab.



Betz, Lorenz;
Compensation of nonlinear distortion in high frequency waveguides. - Ilmenau. - 139 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Die Arbeit behandelt Nichtlinearitäten in den Kompressionstreibern und Schallführungen von Hochton-Hornlautsprechern. Neben den elektrischen und mechanischen Ursachen entstehen nichtlineare Verzerrungen aufgrund der adiabatischen Eigenschaften von Luft und den hohen Schalldrücken im Inneren der Lautsprecher. Dies bewirkt eine Verschlechterung der Klangqualität. Da diese Verzerrungen prinzipbedingt sind, sind klanglichen Defizite unausweichlich mit Hochton-Hornlautsprechern verbunden. Zwar gibt es Veröffentlichungen über die Kompensation von Nichtlinearitäten auf der Basis einer elektrischen Vorverzerrung des Anregungssignals, jedoch wurde keine der Ansätze bislang in ein Produkt integriert. Diese Arbeit gibt einen Überblick über die verschiedenen Ursachen von Nichtlinearitäten und über die Modellbildung und Kompensation dieser nach dem Stand der Technik. Außerdem wird das nichtlineare Verhalten von aktuellen Hochton-Hornlautsprechern gemessen und neben klassischen Methoden anhand einer neuartigen Darstellungsform mittels Lissajous-Figuren aufgezeigt. Auf Basis dieser Darstellung wird eine Filterstruktur entwickelt, die es ermöglicht, Effekte der adiabatischen Kompression zu reduzieren. Der Kompensationsansatz wird anhand von Messungen mit Ein- und Zweitonsignalen evaluiert. Abhängig vom verwendeten Lautsprecher kann durch die Vorverzerrung die gesamte harmonische Verzerrung innerhalb von 950 Hz bis 10 kHz im Mittel knapp um den Faktor zwei reduziert werden. Dadurch soll die Klangqualität des Lautsprechers gesteigert und der maximale Schalldruckpegel erhöht werden.



Heinl, Tobias;
Methods for maintaining consistent target loudness for user-controlled component-balancing in diverse playback environments. - Ilmenau. - 100 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Die nächste Generation von Audio-Codecs wird es dem Nutzer ermöglichen, die Mix-Zusammensetzung von Sendeinhalten innerhalb definierter Limits zu anzupassen. Zugleich wurde innerhalb der letzten Jahre eine Vielzahl an Empfehlungen und Methoden zur Herstellung von Lautheits-Konsistenz über den Verlauf mehrerer Segmente eines Programms eingeführt. Ziel dieser Masterarbeit ist die Untersuchung von Methoden, mit denen die Einhaltung eines durchgängigen Lautheits-Niveaus auch dann gewährleistet werden kann, wenn das Mischverhältnis der Inhalte empfängerseitig an die Vorlieben des jeweiligen Konsumenten angepasst wird. Der entwickelte Lösungsansatz bestimmt die Lautheit des Programmsignals auf Basis der Lautheiten der einzelnen Mix-Komponenten. Die entsprechenden Werte können dabei entweder geschätzt oder gemessen vorliegen. Die Normalisierungsfaktoren werden so berechnet, dass die Lautheit nach Mix-Anpassung durch den Nutzer soweit möglich identisch zur Lautheit vor der Anpassung bleibt. Insgesamt wurden vier verschiedene Verfahren implementiert und anschließend im Rahmen eines interaktiven Hörversuchs evaluiert. Die beiden Lautheits-gesteuerten Verfahren lieferten Ergebnisse innerhalb des zulässigen Toleranzbereiches für Lautheits-Fluktuationen und schnitten ähnlich gut ab wie eine bereits existierende Lösung, bei der das bereits gemischte Ausgangssignal unabhängig von zuvor erzeugten Lautheits-Metadaten geregelt wird. Letzteres kann jedoch eine Verringerung des Dynamikumfangs mit sich bringen und verursacht einen verhältnismäßig hohen Rechenaufwand. Die Untersuchung hat deutlich gemacht, dass die Einhaltung eines konsistenten Lautheits-Niveaus nur schwer oder mitunter nicht möglich ist, wenn die Laustärke von Dialog als dominanter Anteil der Mischung gedämpft wird und die entsprechenden Hintergrund-Geräusche einen hohen Dynamikumfang aufweisen. Obgleich regelmäßige Aktualisierungen der Mix-Komponenten-Lautheit ein gewisses Maß an Robustheit gegen unvorhergesehene Schwankungen gewährleisten, kann zufriedenstellendes Verhalten auch mit statischen, vordefinierten Werten erreicht werden. In diesem Fall muss die Einhaltung der entsprechenden Grenzwerte für die einzelnen Komponenten senderseitig überwacht und sichergestellt werden.



Daschner, Anna-Maria;
Hochbandbreitige IP-Signale in virtualisierten Umgebungen. - 149 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Im Zuge der zukünftigen Einführung von Ultra High Definition Television (UHDTV) zeichnet sich im Broadcastbereich innerhalb der TV-Prozesskette ein Wandel in Bezug auf die Übertragungstechnologie ab. Die damit verbundene Übertragung mit hohen Datenraten soll anstatt mit dem etablierten Serial Digital Interface (SDI) mittels klassischer IT-Hardware über das Internet Protocol (IP) bewerkstelligt werden. Durch eine Verlagerung der bestehenden Infrastrukturen in ein Datenzentrum gewinnen Rundfunkanstalten eine höhere Flexibilität und erhalten zudem die Möglichkeit ihre Systeme zu virtualisieren und in eine Cloud zu verschieben. Diverse Forschungsgruppen zeigen jedoch, dass die derzeitig implementierte Strategie zur Paketverarbeitung im Standard-Betriebssystemkernel beim Empfang und Versand von Netzwerkdaten mit hohen Datenpaketraten eine schlechte Performance aufweist. Darüber hinaus kommt bei einer Virtualisierung ein zusätzlicher Overhead hinzu, der ebenfalls gehandhabt werden muss. Die vorliegende Masterarbeit beschäftigt sich daher mit der Verwendung virtualisierter Commercial-off-the-shelf (COTS)-Hardware für den Empfang hochbandbreitiger IP-Signale, die Audio/Video (AV)-Daten transportieren. Hierfür wird nach einer Betrachtung von Virtualisierung und den Möglichkeiten für eine High-Speed-Verarbeitung von Netzwerkdatenverkehr ein Lösungsansatz für ein virtualisiertes Monitoringsystem ausgewählt, welcher jeweils auf einem Typ-1- und Typ-2-Hypervisor getestet und ausgewertet wird. Schließlich kann gezeigt werden, dass eine fehlerfreie AV-Datenübertragung mit einer Bandbreite von bis zu 20 Gbit/s auf virtualisierter COTS-Hardware zu erreichen ist.



Heidtmann, Jan;
IP-basierte Übertragungen von Audio- und Videodaten in Playoutumgebungen. - 110 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

In der Broadcastindustrie nimmt die Verwendung von IT-Komponenten zu. Mit den zur Verfügung stehenden Datenraten bei Ethernet sind Echtzeitübertragungen von unkomprimiertem Video und Audio über solche Netze und Infrastrukturen möglich. Verschiedene Bereiche im Broadcastumfeld stellen jedoch unterschiedliche Anforderungen an diese Übertragungstechnologien. Diese Arbeit befasst sich mit dem Einsatz von IP-Übertragungstechnologien in Playoutumgebungen. Dazu werden in einer Analyse die speziellen Anforderungen innerhalb einer Playoutumgebung untersucht. Die möglichen Übertragungstechnologien werden in Funktionsumfang und Funktionsweise betrachtet, wobei auch Komprimierungsmöglichkeiten und zukünftige Standards Berücksichtigung finden. Für die Untersuchung werden drei Playout-Modelle vorgestellt, an denen die Voraussetzungen, die grundsätzliche Funktionsweise, Veränderungen der Systemstruktur durch die neuen Übertragungsmöglichkeiten sowie die Wirtschaftlichkeit analysiert und bewertet werden.



Pappenheim, Artur;
Entwicklung eines Frameworks zur automatisierten Bildanalyse von Videoclips. - 91 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Neben der Anwendung in der Postproduktion für Film und Fernsehen, gewinnt die automatisierte und dateibasierte Qualitätskontrolle von Video- und Audiodaten auch im Testprozess bei der Kameraentwicklung in der Firma ARRI zunehmend an Bedeutung. Das Ziel dieser Arbeit ist es ein grundlegendes Framework für eine solche automatisierte Bildanalyse zu entwickeln, welches in ein Clipanalyse-Framework integriert werden soll. Dabei werden Schnittstellen implementiert, über die es möglich ist, die Essenz von Videodaten zu analysieren. Zunächst werden gängige Werkzeuge und Metriken vorgestellt, die eine objektive Aussage über die Qualität und Komplexität von einem komprimiertem Videoclip bzw. dessen Bilddaten ermöglichen. Anschließend werden Videocodecs vorgestellt, die zur Komprimierung von Bildsequenzen in den ARRI-Kamerasystemen verwendet werden. Weiter werden verschiedene Decoder-Softwares in Bezug auf bestimmte Anforderungen und Kriterien analysiert und ausgewertet. Mithilfe einer Nutzwertanalyse wird eine Decoder-Software ausgewählt, die in das Framework integriert wird. Das Konzept und Design des implementieren Bildanalyse-Frameworks wird im Anschluss beschrieben. Danach wird das implementierte Framework anhand einer Freeze-Frame Detektion als beispielhafte Bildanalysefunktion validiert. Die Analyse der Decoder-Softwares ergibt, dass sich das Multimedia-Framework mpeg in diesem Kontext am besten für das Bildanalyse-Framework und für die Decodierung von Videoclips eignet. Die Validierung zeigt, dass mit dem Bildanalyse-Framework zuverlässig Freeze-Frame Artefakte detektiert werden können. Mit dem Konzept eines Ringbuers wird eine Struktur geschaffen, mit der es möglich ist, das Framework um weitere Module zur automatisierten Bildanalyse zu erweitern.



Lembach, Johann;
Detection of dynamic pixel defects in digital images. - 91 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Modern digital high-end cameras use CMOS sensors to capture images on a pixel array. Besides thermal and shot noise, impulsive noise, in the form of pixel defects, degrade the image quality to a large degree. Single pixels or clusters of pixels that behave significantly different than their surroundings are especially annoying in video sequences. They can attract the viewers attention and distract them from the important image content. Thus they need to be detected and removed during the recording process. The challenge of a detection method is to find a way of separating defective pixels from real image structure. This problem is addressed in this thesis. The author presents two different noise models for dynamic pixel defects that are used for evaluations. The first model is based on the standard Salt & Pepper noise, the second one uses more realistic data about noise distributions in real cameras. A selection of algorithms from the literature is chosen and compared. Optimized methods, developed by the author, are introduced and evaluated as well. Objective results and visual inspection show that the methods achieve a good performance in finding the defects for both noise types. The improvements introduced by the author can help to further enhance the performance while at the same time keeping the complexity low. Depending on the type of pixel defects, the detection can be a very challenging task. The author shows that different methods are suitable for different types of defects. The approaches presented in the thesis can be used for further refinements and evaluations.



Schubert, Anton;
Crowdsourced eye tracking based on WebRTC. - 54 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

The goal of the thesis is measuring visual attention for users watching videos in a crowdsourcing context. For this purpose an existing eyetracking platform is improved upon and a new video quality test introduced. It is used to show video samples to participants and measure their visual attention using the framework. The method employed is used in a crowdsourcing test on the microworkers site. The fixations from the eyetracking are transformed to saliency maps and compared to a ground truth from a previous experiment using KL-divergence. The results from the video quality test do not match those from the ground truth due to low fixation prediction accuracy. However general trends such as visual attention on the center/top/right/bottom/left parts of the screen can be derived from the data. The calibration approach with artificial calibration points does not have a high enough accuracy to improve the overall prediction quality, but has the main benefit of working without conscious user action in parts of the experiment where this might interrupt the user.



Aly, Alexander;
Integration von adaptiven Funktionen in ein Fahrzeug-Infotainment-System. - 83 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Moderne Fahrzeug-Infotainment-Systeme (FIS) bieten dem Nutzer in den Bereichen Radio, Medien, Navigation oder Telefonie eine große Menge an Funktionen und Einstellungen. Weiterhin kann der Fahrer auf Online-Informationen wie Nachrichten,Wetterdaten oder Online-Musikquellen zugreifen. Die Vielzahl an Funktionen und Einstellungsmöglichkeiten darf den Fahrer jedoch nicht überfordern und vom Verkehrsgeschehen ablenken. Besonders in Fahrsituationen, die eine hohe Konzentration erfordern, ist höchste Aufmerksamkeit auf die Fahrsituation geboten. Die Adaption der Benutzerschnittstelle im FIS stellt einen Ansatz zur Reduzierung der Fahrerablenkung dar. Hierbei wird die Darstellung von Funktionen und Informationen an Eigenschaften des Nutzers oder die entsprechende Fahrsituation angepasst. Zur Realisierung werden Bedienmuster und Präferenzen des Fahrers in einem persönlichen Profil hinterlegt, welches das System durch Analyse seines Nutzerverhaltens ständig aktualisiert. Nutzereigenschaften wie Interessen oder die Expertise werden dabei mittels Algorithmen aus vergangenen Interaktionen des Nutzers abgeleitet. Diese Arbeit befasst sich mit der Integration von adaptiven Funktionen in ein Fahrzeug-Infotainment-System zur Reduktion der Fahrerablenkung. Dafür werden die Grundlagen der Adaption interaktiver Systeme sowie der Prozess der Benutzermodellierung und Adaptionsausführung erläutert. Weiterhin werden bekannte Adaptionsmodelle und Anwendungsgebiete vorgestellt. Anschließend werden geeignete Anpassungsmöglichkeiten und Verfahren für eine Adaption an die individuellen Nutzereigenschaften sowie die aktuelle Fahrsituation ermittelt. Dabei liegt ein Schwerpunkt auf der Suche nach adaptierbaren Elementen und Funktionen sowie potentiellen Ablenkungsproblemen. Neben der Analyse von Anpassungsmöglichkeiten spielt auch die Frage nach einer praktikablen Integration von adaptiven Funktionen in ein FIS mit angemessenem Aufwand eine Rolle. Dafür wurde im Rahmen dieser Arbeit ein Framework entwickelt, das sich aus Komponenten der Benutzermodellierung und Adaptionsausführung zusammensetzt. Mit Hilfe des Frameworks ist es möglich, die Benutzerschnittstelle eines FIS an beliebige Nutzereigenschaften und unterschiedlichste Fahrsituationen anzupassen. Die Umsetzbarkeit des Frameworks wird durch verschiedenen Anwendungsfällen an einer prototypischen FIS-Benutzerschnittstelle, welche auf Web-Technologien basiert, nachgewiesen.



Herber, Philipp;
Implementierung einer Gitarrensteuerung auf Basis des Audio-Video-Bridging-Netzwerkstandards. - 75 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Die IEEE Audio-/Video-Bridging (AVB) Protokollfamilie beschreibt die synchronisierte und priorisierte Übertragung von Audio-/Videodatenströmen und Steuerdaten in lokalen Netzwerken. Diese Arbeit beleuchtet den Einsatz eines AVB Netzwerkes für elektrische Gitarren und deren Steuerung. Eine beispielhafte Implementierung zur Umschaltung von Tonabnehmern demonstriert eine Anwendung des P1722.1 Standards (AVDECC) zur Gerätesteuerung. Es wird zunächst eine Übersicht über die Gitarrentechnik und die verwendeten Netzwerkprotokolle zur Übertragung der Audiodatenströme und Steuerdaten gegeben. Das Konzept der Umschaltung wird aus den dargestellten Gegebenheiten heraus abgeleitet. Auf diesen Kentnissen aufbauend erfolgt die Beschreibung der Umsetzung. Die Funktionalität der Umschaltung wird ausgewertet und der Weg der Implementierung aufgezeigt. Abschließend wird die implementierte Lösung evaluiert und ein Ausblick auf weitere Anwendungsmöglichkeiten gegeben.



Meißner, Henri;
Implementierung eines AVDECC Controllers in die graphische Entwicklungsumgebung Max. - 104 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Systeme nach den Audio Video Bridging Standards erlangen im professionellen AV Markt zunehmend an Bedeutung, da sie die zeitsensitive Übertragung und Verteilung von Audio- und Videosignalen über Ethernet-Strecken erlauben. Da die Apple Macintosh Computer diese Standards auch unterstützen, können sie in Kombination mit einer geeigneten Software, wie der graphischen Entwicklungsumgebung Max von Cycling '74, als flexible und leistungsstarke Audiosignalverarbeitungssysteme im AVB Netzwerk eingesetzt werden. Allerdings fehlt der Kombination die Unterstützung des Audio Video Discovery, Enumeration, Connection Management and Control Protocol Standards. Dieser Standard definiert Datenstrukturen, Mechanismen und Nachrichtenformate zur Beschreibung, Konfiguration und Steuerung von AVB Geräten und Strömen. Es wird die Erstellung mehrerer Erweiterungen für Max beschrieben, die den Zugriff auf Bestandteile des AVB Netzwerkes über das AVDECC Protokoll erlauben. Die Implementierung eines AVDECC Controllers dient der Erkennung von AVB Geräten und die Sammlung und Bereitstellung von Informationen über deren Aufbau. Dies ermöglicht die Erstellung von Oberflächen zur Steuerung und Verbindungsverwaltung in Max. Die Implementierung eines AVDECC Entitys erlaubt die Bereitstellung ausgewählter Parameter und Elemente in Max zur Steuerung durch andere Controller.



Simbürger, Markus;
Entwicklung eines Konzepts zur Bewertung der Softwarequalität bei agiler Softwareentwicklung. - 34 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

In dieser Arbeit wurde ein Konzept vorgestellt, das die Bewertung von Softwarequalität nach der ISO-25000 (SQuaRE) Normensammlung bei agiler Softwareentwicklung, im Rahmen der Entwicklungsmethode "Scrum", ermöglicht. Grundlage des Konzepts sind zum Einen Die ISO-Normensammlung selbst, sowie darin referenzierte Normen der ISO. Zum Anderen werden die Ergebnisse bisheriger Arbeiten auf dem Gebiet der Softwarequalität in agilen Entwicklungsumgebungen bei der Anforderungsdefinition an das Konzept benannt und erläutert. Die Arbeit zeigt auf, dass die Integration eines ISO-basierten Qualitätsmesssystems innerhalb agiler Entwicklungsumgebungen möglich ist, wenn die Prinzipien der agilen Entwicklung beachtet werden und Metriken mit bedacht und in Zusammenarbeit mit dem Entwicklerteam ermittelt und angewendet werden.



Wein, Dominic;
Vergleichende Untersuchung zu einem software- und hardwarebasierten Konzept der SDI-embedded Audioübertragung. - 71 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

In vielen Bereichen kommen heutzutage Systeme aus dedizierter Hardware und Software zum Einsatz. Dabei wird die Partitionierung zwischen den zwei Plattformen häufig durch Abschätzungen und Erfahrungswerten der an den Projekten beteiligten Ingenieure bestimmt. Dies kann zu schlecht ausgenutzter oder überdimensionierter Hardware und dadurch zu unnötigen Mehrkosten führen. In der vorliegenden Masterarbeit wird ein Ansatz zur Partitionierung gesucht, der im Vergleich zu einer Abschätzung ohne erhöhten Aufwand bei der Ermittlung der Partitionierung auskommt. Dabei soll mit dem Partitionierungsansatz gleichzeitig ein besseres Ergebnis erzielt werden. Aus verschiedenen Modellen und Algorithmen zur Partitionierung wird ein Ansatz basierend auf einem Problem der kombinatorischen Optimierung gewählt: Das Rucksack- bzw. Kofferproblem. Dieser Ansatz wird am Beispiel eines SDI Audio Deembedders exemplarisch durchgeführt. Hierzu muss der Algorithmus zunächst an bestehende Vorgaben angepasst werden. Verschiedene Methoden werden untersucht um auf Basis einer gemeinsamen Codebasis für Hard- und Software die notwendigen Metriken zu ermitteln. Als geeignet zeigt sich hier die Ermittlung der Metriken mittels High-Level Synthesis. Eine Implementierung auf Basis der ermittelten Partitionierung bestätigt, dass die Hardwareressourcen im Vergleich zur bestehenden Lösung deutlich reduziert werden konnten. Der SD SDI Standard bietet bei der Audioübertragung keinen Fehlerschutz. Bei den HD Standards werden die Audiodaten über einen BCH-Code geschützt, mit dem bis zu acht einzelne Bitfehler oder Burstfehler mit einer maximalen Länge von 8 bit korrigiert werden können. Treten darüber hinaus Fehler auf, sind diese nicht korrigierbar. Aufgrund dessen wird im Anschluss an die Partitionierung als Zusatz ein Fehlererkennungs- und Korrekturverfahren auf Basis eines Least Square Autoregressive Algorithmus vorgestellt.



http://www.gbv.de/dms/ilmenau/abs/848718186wein.txt
Pusch, Alexander;
Konzeption und Implementierung eines Mikrofonarraycontrollers auf Basis von AVB Netzwerken. - 74 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Die in den letzten Jahren zunehmend an Interesse gewinnenden AVB Standards umfassen eine Vielzahl an Verfahren und Mechanismen für eine latenzarme Übertragung von Audio- und Videodaten über IT-basierte Netzwerke. Ein Teil davon behandelt auch die Kontrolle dieser Netzwerke sowie die Steuerung seiner einzelnen Teilnehmer. Diese Arbeit richtet den Fokus auf das AVB interne Steuerprotokoll AVDECC, wobei zunächst die wichtigsten Kernaspekte der Standardreihe zusammengefasst und mit ähnlichen Verfahren kurz verglichen werden. Im Anschluss daran erfolgt eine detaillierte Betrachtung des Steuerprotokolls sowie eine Evaluierung hinsichtlich der Parameterübergabemöglichkeiten für die Signalverarbeitung. Zur Demonstration entsteht der Entwurf eines Entity-Modells für Arraymikrofone sowie die Implementierung einer Steuerung am Beispiel einer "Mute Control". Die Arbeit zeigt, dass sich die programmiertechnische Implementierung aufgrund der Komplexität der AVB Standards als ein zeitintensiver Prozess gestaltet, der aber durchaus zuverlässige Ergebnisse liefert und viel Raum für zukünftige Implementierungen bzgl. der Steuerung offen lässt.



http://www.gbv.de/dms/ilmenau/abs/846563762pusch.txt
Rosenzweig, Sebastian;
Entwicklung eines HD-SDI/AC-4 Stream Analyzers. - 54 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

Im Rahmen dieser Bachelorarbeit wird auf Basis von aktuellen HD-SDI Analyzern und Anforderungen von Entwicklern ein Programm entwickelt, das einen in HD-SDI eingebetteten Dolby AC-4 Datenstrom analysiert und dekodiert. Zudem wird die Funktionsfähigkeit mit Hilfe von geeigneten Test-Signalen nachgewiesen. In einem Performance-Test wird die Echtzeitfähigkeit des Analyzers gezeigt.



Tittelbach, Tobias;
Implementierung und Evaluierung zweier Netzwerkinfrastrukturen basierend auf den Netzwerkstandards AVB und AES67. - 101 S. Ilmenau : Techn. Univ., Masterarbeit, 2015

Die Distribution von Audiosignalen in Computernetzwerken ist gegenüber bisherigen Lösungen flexibler bei reduziertem Aufwand und geringeren Kosten. Mit AVB und AES67 gibt es zwei offene Standards, welche die fehlerfreie Übertragung von Audiodaten mit geringer Latenz versprechen - auch parallel zu anderen Daten im Netzwerk. In der vorliegenden Arbeit werden die theoretischen Grundlagen der beiden Standards beschrieben und miteinander verglichen. Auch auf eine mögliche Kompatibilität beider Systeme zueinander wird eingegangen. Des Weiteren wird die Evaluierung und Implementierung einer Testumgebung, basierend auf dem Netzwerkstandard AES67, beschrieben. Verwendet wird hierfür das von Merging zur Verfügung gestellte Audio-Interface Horus. Eine Analyse und eine Auswertung der Implementierung, anhand der erhaltenen Testergebnisse, sind ebenfalls Teil dieser Arbeit.



Latus, Julius;
Übertragung von Steuerdaten mit AVDECC Protokoll in AVB Netzwerken. - 74 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

Die AVB-Standardreihe bietet Möglichkeiten für die Übertragung von Audio/Video- und Sensordaten in einem Netzwerk. Diese werden durch die Standards AVTP und AVDECC um Methoden für die Verbindung und Steuerung von Endgeräten innerhalb eines AVB-Netzwerks erweitert. Dadurch können u.a. etablierte Steuerungsverfahren innerhalb eines Netzwerks umgesetzt werden. Im Rahmen der Arbeit wird die Funktionsweise von AVTP und AVDECC analysiert. Dabei wird auf die Anwendungsmöglichkeiten und Implementierung der Standards eingegangen. Im Anschluss an eine Analyse des Implementierungsaufwands wird anhand eines modellhaften Aufbaus gezeigt, wie in AVDECC spezifizierte Steuerdaten übertragen werden können und wie ein eigenes Streamingprotokoll mit AVTP implementiert werden kann. Abschließend wird der ermittelte Implementierungsaufwand mit dem tatsächlichen Aufwand verglichen, um eine Aussage darüber treffen zu können, für welche Anwendungsszenarien die vorgestellten Verfahren geeignet sind.



Schnemilich, Marcel;
Experimentelle Untersuchung zur Optimierung der schwingungsmechanischen Eigenschaften von Elektret-Schallwandlern. - 101 S. Ilmenau : Techn. Univ., Masterarbeit, 2015

Fahrerassistenzsystemen wird ein großer Beitrag zugesprochen die Verkehrssicherheit auf den Straßen zu verbessern. Aus diesem Grund wird in der Automobilindustrie mit großem Interesse an diesen Systemen gearbeitet. Ein Fahrassistenzsystem mit einem sehr hohen Bekanntheitsgrad ist die Einparkhilfe. Diese Sensoren arbeiten nach dem Prinzip des Echolotes. Bei den aktuell am Markt verfügbaren werden piezokeramische Plättchen verwendet. Das Ziel der aktuellen Forschung bei der Robert Bosch GmbH ist ein neues Wandlerkonzept. Es wird ein neuartiger, folienbasierter Ultraschallwandler entwickelt. Durch den Einsatz etablierter Fertigungsverfahren kann dieser besonders kostengünstig produziert werden. Zusätzlich ist durch den einfachen Aufbau ebenfalls ein Einsatz des Wandlers als Ultraschallarray denkbar. Im Rahmen der Arbeit soll die Membran des Array-Wandlers dimensioniert werden. Dazu werden verschiedene Geometrien und Materialien betrachtet, unter anderem Faserverbundkunststoff. Für dieses Material wird ein Modell entwickelt mit dem die Eigenfrequenzen berechnet werden können. Das Modell soll mit Messungen an gefertigten Membranen validiert werden. Um die Robustheit der Materialien zu untersuchen sollen Beschussversuche durchgeführt werden. Mit diesen kann eine mechanische Krafteinwirkung von außen, wie beispielsweise durch Steinschläge, simuliert werden. Auf Grundlage der Untersuchungen muss sowohl eine Geometrie als auch ein Material bestimmt werden, welche bei dem Ultraschallsensor Verwendung finden kann.



Brückner, Arndt;
Untersuchungen zur Optimierung der Erfassung der wahrgenommenen Tiefe in Stereo-3D-Material. - 112 S. Ilmenau : Techn. Univ., Masterarbeit, 2015

In dieser Masterarbeit wird untersucht, ob die Unterscheidung der visuellen von der optischen Achse des Auges eine Optimierung bezüglich der Berechnung eines dreidimensionalen Blickpunktes ermöglicht. Hierfür werden zwei modellbasierte Algorithmen des videobasierten Eye-Tracking genutzt, die die Geometrie und Position des Auges im Raum nachbilden. Durch Anwendung der Algorithmen auf beide Augen können die zwei Sehachsen im Raum geschnitten und die wahrgenommenen Tiefe erfasst werden. Hinischtlich der Berechnung der visuellen Achse werden jeweils ein Stereokamerasystem und eine einzelne Kamera pro Auge verwendet. Dadurch benötigt das Stereo-Eye-Tracking-System kein a priori Wissen über den Aufbau des menschlichen Auges. Zur Beurteilung der Optimierung dient der Vergleich beider Algorithmen mit einem interpolationsbasierten Ansatz. Dafür werden synthetische Daten, bestehend aus einem Computermodell eines Kopfes mit beweglichen Augen, genutzt. Die besten Ergebnisse erzielt dabei der modellbasierte Ansatz mit einer Kamera, der eine deutliche Steigerung der Genauigkeit bezüglich der fixierten Tiefe ermöglicht.



Fremerey, Stephan;
Analyse und prototypische Implementierung von Testsequenzen für die S3D-Qualitätsuntersuchung. - 124 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2015

Der Schwerpunkt dieser Arbeit liegt darin, zu überlegen und beweisen, wie bestimmte, computergenerierte Testitems (\ac{S3D}-Testsequenzen) aufgebaut sein müssen, um fünf Fragestellungen bezüglich der Qualitätssicherung stereoskopischen Videomaterials zu untersuchen. Hierbei wird eine Testsequenz pro Forschungsfrage entstehen. Mit dem ersten Testitem wird untersucht, wo die maximal wahrnehmbare positive und negative Parallaxe im stereoskopischen Filmraum liegt. Außerdem wird analysiert, in welcher z-Richtung ein stereoskopisch aufgespannter Raum durch Probanden wahrgenommen wird. Es wird untersucht, unter welchen Umständen und ab welchen Stärken kissenförmige Verzerrungen im stereoskopischen Videobild wahrgenommen werden. Außerdem wird erforscht, ab welcher Intensität Tiefensprünge zwischen Schnitten im stereoskopischen Filmraum (als störend) wahrgenommen werden. Abschließend wird geprüft, ab welcher Dauer Schnitte in stereoskopischen Videomaterial als lästig oder gar unangenehm empfunden werden. In der vorliegenden Arbeit werden einleitend die Grundlagen der Stereoskopie behandelt. Danach findet eine Recherche zu den in der Literatur meist erwähnten \ac{S3D}-Fehlern statt. Anschließend werden diese Fehler bewertet und es wird festgestellt, welche Fehler die Zuschauer ab welcher Intensität besonders irritieren. Die Suche nach bereits existierenden Testsequenzen schließt die Recherche ab. Die im Anschluss folgenden, schrittweisen Überlegungen zu sinnvollen stereoskopischen Testitems begründen sich auf den vorher dargelegten Grundlagen. Die Vorgehensweise bei der Erstellung der computeranimierten Testsequenzen wird dokumentiert. Zum Abschluss der Arbeit werden die erstellten Testitems mittels einiger Probanden geprüft. Aus den Ergebnissen der Probandentests werden Rückschlüsse darauf gezogen, inwiefern die Testsequenzen ihre jeweilige Fragestellung beantworten konnten. Außerdem werden Verbesserungsvorschläge für die Testitems gemacht. Weitere Anregungen und Forschungsansätze werden angeführt.



Ajtai, Carmen Paula;
Planung einer Netzwerkarchitektur für den Einsatz im professionellen Fernsehstudio. - 78 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

Netzwerke finden im Bereich der Medienproduktion eine immer häufigere Anwendung. Als nächster Schritt soll nun die Netzwerktechnik auch im Studio eingeführt nehmen. In diesem Zuge wurden bereits zahlreiche Standards verabschiedet, sowie proprietäre Technologien entwickelt. Ziel ist das Ersetzen alter Standards durch eine neue Generation von Technologien, die eine höhere Flexibilität, sowie eine überschaubarere Bedienung gewährleisten sollen. Gleichzeitig entsteht allerdings ein Wettbewerb um die Etablierung dieser Technologien. In dieser Arbeit werden zuerst die Anforderungen an ein professionelles Fernsehstudio aufgestellt, um anhand dieser überprüfen zu können, ob Audio-Video-Netzwerke für diesen Anwendungsbereich geeignet sind und welcher der aktuellen Ansätze gemäß diesen Anforderungen zu bevorzugen ist. In einem zweiten Schritt wird eine beispielhafte Netzwerkarchitektur geplant, die die Funktionen eines Fernsehstudios von der Aufnahme bis zur Bereitstellung des Signals für die Sendung oder Speicherung übernimmt.



Bachmann, Maik;
Implementierung von automatisierten Systemtests in digitalen Kamerasystemen am Beispiel der ARRI AMIRA. - 63 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

Auf digitalen Filmkameras läuft Software, die immer leistungsfähiger und modularer wird. Systemtests solcher Softwareprodukte erlangen deshalb mehr Bedeutung und werden immer umfangreicher. Um den Aufwand der Tests niedrig zu halten, versucht man Systemtests mithilfe von Testframeworks weitgehend zu automatisieren. Diese Bachelorarbeit befasst sich mit der Einrichtung eines automatisierten Testframeworks für digitale Kamerasysteme der Arnold und Richter CineTechnik GmbH. Ziel dieser Arbeit ist es, die Arbeitsabläufe beim Testen zu verbessern, deutlich höhere Testabdeckung in kürzerer Zeit zu erreichen, sowie die Testautomatisierung auf alle aktuellen ARRI Kamerasysteme zu erweitern. Nach empirischer Auswahl eines geeigneten Systems, des Robotframeworks, wird dieses erläutert. Das Robotframework ist ein generisches Testframework zur Durchführung automatisierter Softwaretests. Es nutzt Keyword basierte Testskripte um deren Lesbarkeit und Benutzbarkeit zu vereinfachen. In dieser Arbeit werden die Ziele der Testautomatisierung mit dem Framework dargelegt und dessen Organisation in die ARRI Testumgebung veranschaulicht. Eigens erstellte Tests ausgewählter Kamerafunktionen werden implementiert um die Effektivität des Frameworks zu zeigen. Die Analyse sowie die Strukturierung der Testergebnisse bilden den Abschluss der Arbeit.



Dietz, Arno;
Analyse und prototypische Implementierung einer Pupillendetektion zur binokularen Blickerfassung. - 144 S. Ilmenau : Techn. Univ., Masterarbeit, 2015

Bereits seit einiger Zeit wird von verschiedenen Forschergruppen und Experten ein binokulares Blickerfassungssystem zur Qualitätsbeurteilung stereoskopischer Darstellungen als notwendig erachtet, da herkömmliche Systeme hierfür bislang nicht die benötigte Genauigkeit erreichen. Zur Entwicklung solch eines Systems wurde das Projekt BinoQ3D hervorgerufen, an dem die TU Ilmenau in Zusammenarbeit mit der Hochschule Furtwangen und der Firma Ergoneers GmbH arbeitet. Diese Masterarbeit befasst sich im Kontext dieses Projekts mit dem Teilgebiet der optischen Blickerfassung und der Evaluation verschiedener Pupillendetektionsalgorithmen sowie möglichen Störeinflüssen. Dazu wird ein computergeneriertes Testmodell geschaffen, mit dessen Hilfe synthetische Augenbilder mit verschiedenen Störparametern überlagert und hinsichtlich der Pupillendetektionsgenauigkeit analysiert werden. Der bedeutende Vorteil liegt in der Kenntnis der Szenengeometrie und der vollen Einflussparameterkontrolle, wodurch die wahren Blickkoordinaten berechenbar sind und so als ideale Referenzwerte zur Verfügung stehen. Anhand der simulierten Störeinflüsse werden zusätzlich Empfehlungen für die Anforderungen an die Augenkameras abgeleitet. Für eine vollständig sichtbare Pupille erweisen sich dabei zwei Detektionsverfahren am genauesten, wobei eine auf der Berechnung des Flächenschwerpunkts und die andere auf dem Einpassen von Ellipsen basiert. Findet die Pupillendetektion unter bestmöglichen Ausgangsbedingungen statt, wird eine sehr genaue Blickerfassung erreicht. Diese übertrifft die Fixationsgenauigkeit des menschlichen Auges deutlich und erreicht sogar die Grenze der Disparitätswahrnehmung. Wird das Augenmodell der Realität angenähert, liegt die erzielte Präzision trotzdem deutlich über der Leistungsfähigkeit aktueller Systeme.



Zetzmann, Rouven;
Implementierung und Evaluation von Algorithmen zur Detektion von Größenmanipulation in Bildern. - 60 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

Die Möglichkeiten der Bildverarbeitung und Manipulation werden immer vielfältiger und fortschrittlicher. Das Feststellen der Authentizität sowie das Nachweisen von Manipulationen in Bildern gewinnt damit immer mehr an Bedeutung. Die sogenante digitale Bildforensik widmet sich dieser Aufgabe, jedoch ist auch die Verschleierung von Manipulation durch Antiforensik ebenso gefragt. Diese Arbeit geht auf den Aspekt der Größenveränderung ein und gibt einen Überblick über den Stand der Forschung zu Detektionsalgorithmen. Ein solcher Algorithmus wird implementiert und die Ergebnisse im Hinblick auf Detektionsgenauigkeit sowie Fehlereinflüsse evaluiert.



Zabel, Anett;
Analyse und Konzeption einer automatische Qualitätskontrolle für Videoessenzen aus der Retrodigitalisierung. - 137 S. Ilmenau : Techn. Univ., Masterarbeit, 2015

In dieser Masterarbeit wird eine automatische Qualitätskontrolle (QC) in der Basisbandebene für die Anwendung im Retrodigitalisierungsprozess des MDR Fernsehen konzipiert und anschließend an einer Testreihe durchgeführt. Die Einstellung der Prüfparameter erfolgt dabei angelehnt an die im MDR geltenden und zusammengetragenen technischen Richtlinien und den Qualitätsbewertungsparametern einer manuellen Kontrolle. Neben der Auswertung der Funktionalität der Prüfparameter erfolgt ein Vergleich der Ergebnisse mit denen der, ebenfalls an der Testreihe durchgeführten, manuellen Kontrolle. Anschließend wird untersucht, inwieweit die automatische QC die manuelle Qualitätskontrolle ersetzen kann. Abschließend wird eine Empfehlung für die Anwendbarkeit der gewählten automatischen Qualitätskontrollsoftware für die Retrodigitalisierung gegeben.



Borutta, Christian;
Entwurf einer Middleware zur Audiosystemsteuerung mit AVB-Integration. - 69 S. Ilmenau : Techn. Univ., Masterarbeit, 2015

Die systemübergreifende Steuerung von Audiokomponenten wird im Zuge der fortschreitenden Vernetzung der Medienproduktion immer bedeutsamer. Es existiert eine Vielzahl zueinander inkompatibler Protokolle. In größeren Produktionsumgebungen müssen jedoch Komponenten der verschiedenen Systeme gekoppelt werden. Die Arbeit betrachtet die Grundlagen der Audiosystemsteuerung, sowie verschiedene netzwerkbasierte Systeme. Darunter auch die Steuerprotokolle des AVDECC-Standards. Im Rahmen dieser Arbeit ist der Entwurf einer Middleware entstanden, die verschiedene Steuerungssysteme verbinden soll. Dabei werden die zu steuernden Komponenten von Software-Proxys repräsentiert. Diese haben die Funktion eines Controllers im jeweiligen Zielsystem. Die Proxys müssen dabei sowohl die Schnittstellen des Zielsystems als auch die Schnittstellen der Middleware integrieren. Basis der Kommunikation in der Middleware ist das topic-basierte Publish/Subscribe-System MQTT (Message Queue Telemetry Transport). Des Weiteren wurde die Integration von AVDECC-Entitys in das Middlewaresystem untersucht. Eine prototypenhafte Implementierung der Middleware und der Integration ist auf Basis der JavaScript-Plattform Node.js entstanden.



Berthold, Maximilian;
Implementierung und Evaluierung eines embedded Linux Systems für den Einsatzt als Endstation in AVB Netzwerken. - 44 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

Es gibt viele Gründe die für die Nutzung von Audionetzwerken sprechen. Die Anwendungsmöglichkeiten reichen von der Verkabelung in einem Übertragungswagen bis zum Einsatz im Mediensystem eines PKWs. Die AVnu Alliance ist ein Zusammenschluss aus mehreren Firmen mit dem Ziel den AVB Standard zu verbreiten und die Kompatibilität zwischen den Geräten unterschiedlicher Hersteller zu verbessern. Das Ziel dieser Arbeit war es eine funktionsfähige AVB-Endstation auf Basis einer embedded-Linux Plattform mit Hilfe des AVnu Open-AVB-Softwarestacks zu realisieren. Nach einer kurzen Einführung in Audionetzwerke und insbesondere den AVB-Standard folgt eine Beschreibung der verwendeten Hard- und Software. Danach werden die durchgeführten Versuche sowie die dabei aufgetretenen Probleme beschrieben. Es wird der Versuch unternommen diese Probleme zu analysieren und die unerwartet hohe Komplexität zu erläutern. Zum Schluss wird ein Beispiel für eine funktionierende AVB-Endstation, auf Basis einer Linux-Plattform, vorgeschlagen.



Trenkle, Christopher;
Charakterisierung der winkelabhängigen Lichtempfindlichkeit von CMOS-Sensoren. - 50 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2014

Während die Empfindlichkeit von photographischem Film im Wesentlichen nicht von der Einfallsrichtung des Lichts abhängt, ist eine solche Abhängigkeit bei modernen CMOS-Sensoren bauartbedingt zu erwarten. Die Kenntnis einer solchen Richtungsabhängigkeit kann eine wichtige Rolle bei der Auslegung zukünftiger optischer Systeme spielen. Diese Bachelorarbeit umfasst die Entwicklung eines Verfahrens zur Messung dieser Winkelabhängigkeit mit dem Ziel, einen CMOS-Sensor hinsichtlich dieser Eigenschaft möglichst vollständig zu charakterisieren. Durch den Vergleich eines Sensors mit und ohne Farbfilterarray werden weitere spektrale Eigenschaften des Sensors charakterisiert und Artefakte ("optischer Crosstalk") untersucht.



Treybig, Lukas;
Implementierung von Mikrofoncontrolleralgorithmen in eingebetteten Systemen. - 101 S. : Ilmenau, Techn. Univ., Masterarbeit, 2014

Mikrofone sind ein wichtiges Element von Sprachkommunikationssystemen. In vielen Anwendungen werden dabei Freisprecheinrichtungen verwendet. Dies führt dazu, dass neben dem eigentlichen Sprechersignal auch Störgeräusche aufgenommen werden, welche die Qualität des Sprechersignals beeinträchtigen können. Digitale Signalverarbeitungsverfahren ermöglichen es Störungen zu unterdrücken und damit das Sprechersignal zu verbessern. Dabei werden unteranderem Mikrofonarrays, bestehend aus mindestens zwei Mikrofonen, eingesetzt. Ein Prinzip ist dabei das Beamforming, bei welchem die einzelnen Laufzeiten der Mikrofonsignale bezüglich des Sprechersignals synchronisiert werden, damit diese sich bei der anschließenden Signalmittelung unverzerrt überlagern. Gleichzeitig werden Störquellen aus anderen Richtungen und ungerichtete Störungen gedämpft. Im Rahmen dieser Arbeit wird eine dynamische Laufzeitsteuerung für zwei Mikrofonsignale entwickelt, welche die Laufzeitdifferenz zwischen den Signalen mittels Analyseverfahren bestimmt und ausgleicht. Die Grundlagen bilden die theoretische Betrachtung der Mikrofonsignale und verschiedener Laufzeitanalyseverfahren. Des Weiteren werden die Evaluation der Laufzeitanalyseverfahren, sowie die Implementierung einer Laufzeitsteuerung in ein eingebettetes System beschrieben. Als Zielplattform dient dabei das ADSP-21364 EZ-KIT Lite Evaluationsboard der Firma Analog Devices. Der Digitale Signalprozessor bietet dabei die Möglichkeit einer flexiblen und latenzarmen Verarbeitung der Audiosignale. In der Auswertung werden die Funktionalität der Laufzeitsteuerung und deren Grenzen aufgezeigt. Zudem werden zu lösende Probleme und mögliche Ansätze zur Weiterentwicklung dargelegt.



Klücken, Ben;
Untersuchung der Möglichkeiten des Ultra High Definition Formats für die Stereo 3D Produktion. - 79 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2014

Stereo 3D Bilder sind auf Grund der zahlreichen Einflussfaktoren und der vorausgesetzten Synchronität der Stereohalbbilder sehr empfindlich gegenüber Ungenauigkeiten im Kameraaufbau und Asynchronitäten im Bildinhalt. Im Rahmen dieser Arbeit wurden die Möglichkeiten des Ultra High Definition Videoformats zur Reduzierung und Korrektur möglicher Aufnahmefehler herausgestellt und abgewägt. Es wurde insbesondere die Extrahierung eines Teilbildausschnitts für die HD-Wiedergabe und die damit verbundenen Auswirkungen fokussiert. Orientiert an den dargestellten physikalischen Gesetzen und Einflussfaktoren, wurden die möglichen Manipulationen anhand von real und synthetisch aufgezeichnetem Bildmaterial qualitativ getestet und ausgewertet. Durch die Versuche konnte gezeigt werden, dass eine digitale Manipulation der Stereobasis in der Postproduktion nicht zu realisieren ist, aber typische Stereo-Irritationen durch eine geeignete Wahl des Bildausschnitts reduziert werden können. Des Weiteren hat sich eine gewisse Einschränkung des Verfahrens auf Grund des Zusammenhangs von Brennweite und Tiefenwirkung herausgestellt und die Möglichkeit eines digitalen Bildschwenks und -zooms wurde verifiziert.



Trier, Manuel;
Schätzung extrinsischer Kameraparameter mittels Quadrifokalem Tensor. - 72 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

In den letzten Jahren hat sich im Bereich der Film- und Fernsehproduktion der Trend des stereoskopischen 3D etabliert. Dieses Verfahren liefert aber nicht nur für den Konsumenten ein neues Seherlebnis, sondern bietet auch den Produzenten der Inhalte neue Möglichkeiten. So ist es nun möglich, anhand der reinen Videoaufnahmen den Kameraweg zu rekonstruieren, was für die Gestaltung der visuellen Effekte im Studio oder auch in Filmproduktionen einige Vorteile bietet. In dieser Arbeit werden zwei Verfahren zur Gewinnung extrinsischer Kameraparameter aus Bild- bzw. Videodaten untersucht. Während das erste Verfahren auf einer Kombination aus Triangulation und Rückprojektion basiert, macht sich das andere Verfahren das Quadrifocal Warping zu Nutze. Da Letztgenanntes einen Rechenschritt bei der Rekonstruktion überspringt, wird untersucht, ob sich dies auch positiv auf die Genauigkeit der Rekonstruktion auswirkt. Dazu werden für drei verschiedene Bildsequenzen die extrinsischen Kameraparameter ermittelt und mit einer Grundwahrheit verglichen. Die Resultate für beide Verfahren werden anschließend gegenübergestellt.



Krawetzke, Martin;
Relationale Objektbeschreibungen für die 3D-Szenenanalyse am Beispiel einer kamerabasierten Überwachung von Roboterarbeitsplätzen. - 129 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

In der modernen industriellen Produktion werden die meisten Arbeitsschritte in der Regel von Robotern durchgeführt. Der Aufenthalt im unmittelbaren Umfeld eines solchen Roboters birgt jedoch ein erhebliches Unfallrisiko. Deshalb gelten strenge Sicherheitsvorschriften, die in der Regel durch eine Absperrung des sicherheitskritischen Bereiches mittels einer Umzäunung umgesetzt werden. Sowohl der zusätzliche Platzbedarf einer solchen Umzäunung als auch die Behinderung des Produktionsprozesses bei kooperativen Arbeitsabläufen zwischen Mensch und Maschine senken die Wirtschaftlichkeit eines solchen Roboterarbeitsplatzes. Gefragt sind daher intelligente und barrierefreie Sicherheitslösungen für den industriellen Bereich, um eine Handlungsautomatisierung sicher und effizient durchführen zu können. Ein Ansatz ist eine kamerabasierte Überwachung von 3D-Arbeitsräumen. In dieser Arbeit wurden verschiedene Verfahren zum Support des kamerabasierten Überwachungssystems vorgestellt und ausgewählte Methoden in das bestehende System implementiert. Es wurde ein Verfahren zur Simplifizierung von dreidimensionalen Punktwolken angestrebt und hierfür die Ellipsoidmethode ausgewählt. Die Ellipsoidmethode trägt im Sinn dieser Arbeit zur Parametrisierung der Punktwolke und damit zur Objektüberwachung im dreidimensionalen Raum bei. Die im Folgenden durch Ellipsoide repräsentierten Objekte konnten zueinander in Relation gesetzt und die Bewegung aus den bekannten Parametern verfolgt werden. Es wurde ein Trackingszenario auf Basis des Kalman-Filters entworfen, welches die bekannten Objektdaten nutzt um die Objekte sicher identifizieren zu können. Die implementierten Verfahren wurden mit erzeugten Testdaten des existierenden Überwachungssystems getestet und evaluiert.



Kästner, Richard;
Integration von Qualitätsmanagement in die filebasierten Workflows des MDR. - 118 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

Die vorliegende Masterarbeit stellt ein Konzept für das Qualitätsmanagement in filebasierten Fernsehproduktionssystemen auf. Am Beispiel des Mitteldeutschen Rundfunks (MDR) wird die Integration von automatischen Qualitätskontrollen in bestehende Produktionsworkflows beschrieben. Die Qualitätssicherung auf Dateiebene stellt Rundfunkhäuser angesichts noch überwiegend manueller Kontrollprozesse und Interoperabilitätsproblemen vor neue Herausforderungen. Im Mittelpunkt der Arbeit steht daher eine Ist-Soll-Analyse, die Ansätze zu qualitätssichernden Maßnahmen bieten soll. In der Ist-Analyse werden Produktionssysteme und Arbeitsabläufe in relevanten Bereichen der filebasierten Fernsehproduktion des MDR untersucht. Auf Basis dessen werden in einem Soll-Konzept die Integrationsmöglichkeiten von automatischen Qualitätskontrollen betrachtet. Dabei werden unter anderem System-Schnittstellen, der Einsatz von Prüfprofilen und Maßnahmen zum Qualitätsmanagement beschrieben. Ebenso werden betriebliche Probleme wie die MXF-Interoperabilität untersucht. Geeignete Kontroll-Werkzeuge und ihre Integration in Produktionssysteme werden analysiert. Abschließend wird ein Ausblick auf künftige Möglichkeiten zur Umsetzung gegeben.



Matuschak, Melanie;
Methoden der 2D- zu 3D-Videokonvertierung auf Basis monoskopischer HD-Luftaufnahmen. - 116 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2014

Ziel dieser Arbeit ist es, den finanziellen, personellen und zeitlichen Aufwand einer 2Dzu 3D-Konvertierung von bestehenden Luftaufnahmen auf Basis ihrer Eigenschaften und Charakteristika zu reduzieren. Dazu wurden zunächst allgemein gültige Charakteristika und Eigenschaften von Luftaufnahmen definiert. Anschließend wurden Konvertierungsmethoden zusammengetragen und ihre Eignung für die Konvertierung von Luftaufnahmen überprüft. Ausgewählte Konvertierungsverfahren kamen testweise für vier Clipsequenzen zur Anwendung, deren Eigenschaftskombinationen repräsentativ für die vorliegenenden Luftaufnahmen standen. Mit Hilfe einer Probandenbefragung wurden die Ergebnisse bzgl. der 3D-Qualität bewertet und evaluiert. Qualitative Unterschiede der Konvertierungsmethoden in Verbindung mit den Eigenschaften der Luftaufnahmen wurden so herausgearbeitet. Abschließend konnten spezifische Eigenschaften von Luftaufnahmen benannt werden, die sich bei der Stereokonvertierung zur Reduzierung des Arbeitsaufwandes bestimmter Verfahren eignen.



Kasperek, René;
Bewertung der Genauigkeit videobasierter Stereo-Camera-Tracker. - 50 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2013

Die Fachbereiche Computer Vision und Computer Graphik beschäftigen sich seit jeher mit der Problematik, Kamerabewegungen und dreidimensionale Strukturen aus Realbildsequenzen zu rekonstruieren. Gerade die Wiedergewinnung der Position und Ausrichtung der ursprünglichen Kamera als virtueller Kamerapfad ist von großem Interesse. In wissenschaftlichen Ausarbeitungen ist dieses Bemühen unter der Structure from Motion Technik zu finden. Reale Einsatzgebiete sind vor allem Stereo Vision Lösungen in der Robotik oder im Automotive Bereich, aber auch in kommerziell erfolgreichen Software Lösungen der Visual Effects Industrie. Letztere haben ihr Feature Set aktuell um einen stereoskopischen Workflow erweitert, bei dem zwei Perspektiven zur Errechnung der Kameraposition bereit stehen. Der Vorteil der zweiten Kamerasicht könnte auch in der virtuellen Fernsehstudioumgebung bei 3DTV für videobasiertes Echtzeit Camera Tracking zum Tragen kommen. Ziel dieser Arbeit ist es, ein Maß zu finden, das die Genauigkeit stereo-basierter Software Camera Tracker numerisch bestimmt. Anhand eines selbst erstellten Workflows und mit Hilfe zuvor generierter Ground Truth Daten werden drei Software Tracker aus dem Visual Effects Bereich bezüglich ihrer Genauigkeit evaluiert. Dazu wurde ein MATLAB Skript geschrieben, das reale Kamerapfade mit den Ergebnissen der Software gegenüberstellt. Der Workflow soll allgemein einsetzbar sein, so dass weitere Software Tracker bewertet und in ein Ranking gebracht werden können.



Lucht, Maik;
Kommunikation mobiler Anwendungen mit Hilfe eines cloudbasierten Webdienstes. - 63 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2013

Die aktuelle Entwicklung im IT-Bereich hat bereits eine deutliche Tendenz zu mehr Mobilität und Vernetzung erfahren, und diese Wandlung hält weiter an. Mobile Anwendungen, und damit die Kommunikation zwischen einzelnen Anwendungsinstanzen, zentrale Datenlagerung und ihr Abgleich sind bedeutungsvoller geworden. Mit diesem Thema beschäftigt sich die vorliegende Arbeit. Es wird zunächst ein Einblick in Ausprägungen des Cloud-Computings gegeben und das Backend-as-a-Service-Modell näher betrachtet, welches, als noch relativ neuartiges Konzept, auf mobile Anwendungen spezialisiert ist und einen Schwerpunkt der Arbeit bildet. Anschließend werden cloudbasierte Webdienste für mobile Anwendungen vorgestellt und anhand der Eignung auf ein abgegrenztes Szenario ein Anbieter ausgewählt, der nähere Betrachtung findet. Es handelt sich dabei um die Windows Azure Mobile Services, die sich durch besonders flexible Einsetzbarkeit auszeichnen. Sie werden in einer als Proof of Concept im Rahmen der Arbeit entstandenen Anwendung genutzt. Letztere soll ein Beispiel für die Kommunikation von Apps über ein Cloud-Backend geben und implementiert dazu eine Notizverwaltung. Unterstützung der Zusammenarbeit mehrerer Benutzer, Push-Nachrichten und Synchronisation über mehrere Endgeräte gehören dabei zum Funktionsumfang. Mit der Arbeit wird gezeigt, dass eine Kommunikation zwischen Anwendungen mittels Backend as a Service möglich ist und wie dies umgesetzt werden kann.



Amruth, Arvind;
Temporale Detektion von Farb-Alias-Artefakten in digitalen Bildsequenzen. - 93 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2013

Digitale Filmkameras verwenden einen optischen Tiefpassfilter, um die Entstehung von Farb-Alias-Artefakten zu unterdrücken. Die nicht ideale Übertragungsfunktion des Filters führt zu einem Schärfeverlust im Bild. Ohne Tiefpassfilter wird das Bild zwar schärfer, allerdings verstärken sich die Farb-Alias-Artefakte im Bild. Um die Schärfe im Bild zu bewahren, wird die Kamera ohne optischen Tiefpassfilter verwendet und die Farb-Alias-Artefakte werden im Nachhinein reduziert. Da die Reduktion auch intakte Bildinhalte angreifen kann, ist eine verlässliche Artefakt-Detektion notwendig. Der Fokus dieser Arbeit liegt auf der Detektion der Farb-Alias-Artefakte anhand ihrer temporalen Charakteristik. Dazu werden sowohl existierende als auch neue Methoden implementiert und evaluiert. Um die Detektionsmethoden zu evaluieren, wird die Übereinstimmung der detektierten Regionen mit Beobachter-Markierungen im Bild gemessen. Es hat sich herausgestellt, dass eine temporale Verarbeitung höhere Detektionsraten erzielt, als die rein räumlichen Methoden. Während die Ergebnisse der auf Bewegungsschätzung basierenden Methoden nur schwach mit den Beobachter Markierungen übereinstimmen, zeigt die Verwendung temporaler Differenzen und Frequenzverläufe hohe Detektionsraten.



Braun, Fabian;
Evaluierung der XMOS xCORE Prozessorarchitektur hinsichtlich des Einsatzes in Produkten für den professionellen Beschallungsmarkt. - 100 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2013

Auf dem professionellen Beschallungsmarkt existieren bisher einige proprietäre Audionetzwerke, die unabhängig von verschiedenen Herstellern entwickelt wurden und nicht kompatibel sind. Mit AVB entsteht zum ersten Mal ein Standard, der auch eine herstellerübergreifende Kompatibilität ermöglichen soll. XMOS bietet Prozessoren an, die harte Echtzeitanforderungen erfüllen können, und unterstützt eine Open-Source-Bibliothek mit einem Referenzdesign für eine AVB-Implementierung sowie ein entsprechendes Evaluation-Board. Basierend auf dem AVB-Referenzdesign von XMOS wird in dieser Arbeit evaluiert, inwieweit die XMOS xCore Architektur für den Einsatz im professionellen Beschallungsmarkt geeignet ist. Dabei wird besonders im praktischen Teil auf die Integration von einer digitalen Signalverarbeitung eingegangen. Exemplarisch werden eine Audiomatrix und eine Pilotton-Überwachung implementiert. In diesem Zusammenhang werden auch verschiedene Filteralgorithmen inklusive Methoden zur Fehlerkompensation in einer Matlab-Simulation verglichen. Die Arbeit zeigt, dass es möglich ist, einen AVB-Endpoint entsprechend den Anforderungen an einen professionellen Endverstärker zu implementieren und zusätzliche digitale Signalverarbeitung zu integrieren. Bei der Umsetzung der digitalen Signalverarbeitung sind jedoch einige Eingrie notwendig, die in einem reinen Signalprozessor nicht anfallen würden. Die verfügbaren Ressourcen reichen nicht aus, um einen Signalprozessor aus einem professionellen Endverstärker vollständig zu ersetzen. Inwieweit ein XMOS-Prozessor in einem Produkt eingesetzt werden kann, ist anhand der in dieser Arbeit aufgezeigten Ergebnisse abzuwägen.



Kolditz, Kevin;
Erarbeitung von Lehrinhalten für den Einstieg in die JavaScript-unterstützte Entwicklung mobiler Websites. - 73 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2013

Diese Bachelorarbeit umfasst die Erläuterung und Untersuchung einer Möglichkeit zur Gestaltung einer studentischen Übung mit dem Ziel der Entwicklung einer Mobilwebsite, welche durch JavaScript-Frameworks unterstützt wird. Dabei werden die damit verbundenen Anforderungen erläutert, welche bei der Webentwicklung allgemein und speziell bei Mobilgeräten auftreten. Diese sind notwendig, um ein hohes Maß an Benutzerfreundlichkeit herzustellen. Weiterhin geht die Arbeit auf die Grundlagen ein, die für die technische Realisierung einer Website für Mobilgeräte ausschlaggebend sind. Dazu zählen Web-Technologien wie HTML5 und CSS3. Darüber hinaus folgt ein Vergleich der JavaScript-Frameworks jQuery mobile, Kendo UI und Sencha Touch zu der Eignung ihrer praktischen Anwendung in einer studentischen Übung. Neben einer erarbeiteten, studentischen Übung zu der Umsetzung einer mobilen Website mit dem Framework jQuery mobile werden die Aufgaben, welche in der Übung vorkommen, im letzten Abschnitt der Arbeit näher erläutert und in einen technischen Zusammenhang gebracht.



Sorg, Peter;
Untersuchung von Verfahren zur Tiefenrekonstruktion aus Stereovideos. - 63 S. Ilmenau : Techn. Univ., Diplomarbeit, 2013

Für den Anwendungsbereich der Bewegungs- und Tiefenschätzung mit Stereokameras werden verschiedene Verfahren zur Erlangung subpixelgenauer Korrespondenzen untersucht. Es wird gezeigt, dass Interpolation der Disparität jener der Intensitäten überlegen ist, zumindest in wenig kontrollierten Umgebungen mit hohen und diskontinuierlichen Disparitäten. Ergebnisse rektifizierter Bilder mit normalisierter Epipolargeometrie werden evaluiert anhand der Referenz-Datensets Teddy, Cones (Middlebury College; gewonnen mittels strukturiertem Licht) und Corridor (Universität Bonn; erzeugt durch CAD). Mehrere Detektoren und Deskriptoren werden verglichen und deren Merkmalskorrespondenz-Koordinaten für weiterführende Ansätze verwendet. MSER und BRIEF erzielten die besten Ergebnisse - bis etwa 0,05 px für Mittelwert und Standardabweichung des Differenzbetrags zu Referenz-Disparitäten - in Verbindung mit Block Matching, wobei für arealbasierte Korrespondenzsuche mit der Methode der kleinsten Quadrate lediglich die Verschiebung in x-Richtung in die Ausgleichsrechnung einbezogen wurde und die Lokalisation von Ableitungsextrema an Pixel-Zwischenpositionen nicht mit derselben Genauigkeit überprüft werden konnte.



Neundorf, Julian;
Untersuchung zur Vereinbarkeit von technischen und wahrnehmungsbasierten Grenzen für Stereo3D. - 96 S. Ilmenau : Techn. Univ., Masterarbeit, 2013

Ziel dieser Arbeit ist es zu untersuchen, inwiefern Stereo3D Filme wahrnehmungsbezogen analysiert werden können, um Richtlinien für die Produktion stereoskopischer Aufnahmen abzuleiten. Trotz der Etablierung des dreidimensionalen Filmerlebnisses im Kino und zu Hause beinhalten stereoskopische Aufnahmen oft noch viele Fehler, wie z.B. Scheinfensterverletzungen. Dies liegt zum einen an fehlendem Wissen über gute stereoskopische Aufnahmen, zum anderen basieren die existierenden Richtlinien für die Produktion von guten Stereo3D Filmen oft auf Erfahrungswerten und nicht auf wahrnehmungsbasierten Studien. Sinnvoll wäre es aber zu untersuchen, wie Stereo3D Filme vom Verbraucher wahrgenommen werden, um daraus Informationen für die Produktion guter Stereo3D Filme abzuleiten. So könnten mithilfe der Fixationspunkte des Betrachters zum Beispiel Informationen zum Szenenaufbau oder der Toleranz von Scheinfensterverletzungen ermittelt werden. Diese Arbeit beschäftigt sich mit der Frage, wie die Fixationspunkte eines Betrachters von Stereo3D Filmen ermittelt werden können. Weiterhin wird diskutiert wie hoch die Genauigkeiten für die Fixationspunktbestimmung zur Auswertung stereoskopischer Aufnahmen sein müssen. Zudem wird theoretisch und praktisch untersucht, ob herkömmliche Methoden der Blickrichtungsmessung zur wahrnehmungsbezogenen Auswertung von stereoskopischen Szenen geeignet sind.



Beining, Jannik;
Einfluss der Absorption durch Personen im Schulbetrieb. - 91 S. Ilmenau : Techn. Univ., Diplomarbeit, 2013

Die Leistungsfähigkeit von Schülern und Lehrern ist eng mit der akustischen Qualität des Klassenraums verbunden. Um die Akustik von Klasssenräumen planen oder verbessern zu können, werden Informationen zum Soll- und Ist-Zustand der akustischen Qualitätsparameter, sowie ein Vorhersagemodell für die Nachhallzeit benötigt. Zu diesen Punkten gibt es bereits eine Vielzahl von Untersuchungen, in Bezug auf die Eingangsdaten für die Vorhersagemodelle existiert jedoch eine Forschungslücke. Die Literatur gibt zwar Absorptionsdaten von Schülern an, jedoch streuen die Werte erheblich und es ist sehr wenig zum Thema bekannt. In der vorliegenden Arbeit wird dieser Sachverhalt anhand einer Literaturstudie zum Oberbegriff "Publikumsabsorption" belegt und ein Grundverständnis der Thematik vermittelt. Um die Wissenslücke zu schließen wurde die Schallabsorption von Schülern an Tischen im Hallraum und in realen Klassenräumen gemessen. Die Auswertung gibt Aufschluss über die herrschenden Zusammenhänge und widerlegt gleichzeitig einige der bisherigen Annahmen. Es wurde ein direkter Zusammenhang zwischen der Körperoberfläche eines Menschen und der zugehörigen äquivalenten Schallabsorptionsfläche festgestellt. Eine Umrechnungsformel wurde entwickelt, erfolgreich angewandt und anhand von Absorptionsdaten aus anderen Veröffentlichungen bestätigt. Wie gezeigt wird, lassen sich die Labordaten auf die reale Situation übertragen. Dank der vorgestellten Erkenntnisse und Daten ist es nun möglich, die äquivalente Schallabsorptionsfläche von Schülern an Tischen anhand des Alters und der Sitzanordnung zu berechnen.



Sloma, Ulrike;
Entwicklung und Evaluierung eines Algorithmus zur Integration von Reflexionen an Boden und Decke in bestehende 2D-Raumsimulationsmodelle. - 62 S. : Ilmenau, Techn. Univ., Masterarbeit, 2013

Die akustische Raumsimulation ist ein Teilgebiet der Raumakustik. Mit ihrer Hilfe wird die Möglichkeit geschaffen einen Raum und den Verlauf eines Schallfeldes in diesem nachzubilden. Hierbei wird über Betrachtungen der Ausbreitung des Schalls im Raum und dem Verhalten an Begrenzungsflächen eine Raumimpulsantwort für eine bestimmte Quell- und Empfängerkombination ermittelt. Es gibt vielfältige Möglichkeiten zur Realisierung der Raumsimulation, wobei immer ein Kompromiss zwischen Realitätsnähe und Rechenaufwand getroffen werden muss. Im Rahmen der vorliegenden Masterarbeit wird ein Algorithmus entwickelt und implementiert, welcher zu einem vorhandenen 2D Raumsimulationsmodell die spiegelnden Reflexionen erster Ordnung über die Begrenzungsflächen Boden und Decke ergänzt. Hierbei soll ermittelt werden, ob diese Beiträge zu einem Modell in der Ebene die Wahrnehmung des Raumes verändern. Dies ist anzunehmen, da eine Erweiterung der Ebene stattfindet. Die Umsetzung des Algorithmus erfolgt auf Grundlage der geometrischen Raumakustik. Die Raumimpulsantworten werden binaural ermittelt. Das Ergebnis wird analytisch betrachtet und mit einem Hörtest auf die Veränderung der Wahrnehmung des Raumes untersucht.



Brückner, Arndt;
Detektion unabhängig bewegter Features aus Stereobildern. - 97 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2013

In dieser Bachelorarbeit werden zwei Algorithmen vorgestellt, in denen diejenigen Features identifiziert werden sollen, die sich innerhalb einer Videosequenz unabhängig der verwendeten Kamera bewegen. Hierbei werden jeweils die unabhängig bewegten Features mit einem Stereokamerasystem und einer einzelnen Kamera detektiert. Hinsichtlich des Stereokamerasystems ist a priori Wissen über die Parameter des Stereosetups vorausgesetzt. Innerhalb des Verfahrens mittels einer Kamera beruht die Featureanalyse allein auf den ermittelten Features. Bei beiden Verfahren wird eine geometrische Transformation eingesetzt, die eine Projektion zwischen zwei Ansichten ermöglicht. Dadurch können die Features, die nicht der Projektion entsprechen, aus der Gesamtmenge aller Features entfernt werden. Die besten Ergebnisse bei einem synthetischen Datenset liefert der Algorithmus mittels eines Stereokamerasystems. In einer einfachen Bewegung von Objekt und Beobachter können hier 100% der unabhängig bewegten Features detektiert werden. Im Gegensatz dazu ist das Verfahren mittels einer Kamera für die bildbasierte Berechnung der Kameraposition sehr gut geeignet. Durch Einsetzen dieses Algorithmus kann die Genauigkeit bei der Schätzung der Kamerapose um ein Vielfaches erhöht werden.



Naumann, Tobias;
Definition und Umsetzung eines Workflows zur Stereokamerakalibrierung im Produktionsumfeld. - 79 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2013

Stereokameras müssen in ihrer Position und Orientierung bekannt sein. Wichtig für deren Einsatz ist es, zu wissen, wie groß der Basisabstand und der Winkel zwischen beiden ist. Für die Kamerakalibrierung, also die Ermittlung der extrinsischen und intrinsischen Parameter einer Kamera, existieren verschiedene Methoden und Algorithmen. Im Rahmen dieser Arbeit wurde die Camera Calibration Toolbox for Matlab auf die Erfüllung der Anforderungen einer unkomplizierten und effektiven Stereokamerakalibrierung untersucht und im weiteren Verlauf angepasst. Diese Anpassungen beinhalten eine modifizierte Version des Kalibrierobjektes zur automatischen Eckpunkterkennung und -markierung, eine Funktion zur Berechnung der Variablen, Basisabstand und Kamerawinkel, und eine Ausgabe dieser Werte in Meter und Grad. Mit Aufnahmen von realen und synthetischen Kameras wurden die Ergebnisse der Kalibrierung auf Glaubwürdigkeit und Zuverlässigkeit mit verschiedenen Messwerten und Voraussetzungen getestet. Die Versuche zeigten, dass die intrinsischen Kameraparameter mit der Toolbox zuverlässig ermittelt werden können. Die Anpassungen zur Ermittlung von Basisabstand und Kamerawinkel liefern unter bestimmten Bedingungen recht genaue Ergebnisse.



Borutta, Christian;
Evaluierung und Implementierung einer Übertragungsstrecke von Mikrofon- und Steuersignalen auf Basis des Audio-Video-Bridging Netzwerkstandards. - 86 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2013

Die Distribution von Audiosignalen in Computernetzwerken bietet gerade im professionellen Umfeld Vorteile gegenüber herkömmlichen Verbreitungswegen. Mit RAVENNA und dem auf IEEE-Standards basierenden AVB stehen zwei Systeme zur Verfügung, die die technischen Anforderungen für den professionellen Einsatz erfüllen, offen standardisiert sind und eine parallele Nutzung des Netzwerks mit anderen Diensten zulassen. Die vorliegende Arbeit beschreibt die theoretischen Hintergründe der beiden Systeme und vergleicht diese miteinander. Des Weiteren wird die Evaluierung und Implementierung einer Übertragungstrecke für Mikrofon- und Steuersignale auf Basis des AVB-Standards beschrieben. Als Zielplattform dient dabei das AVB Low-cost End Point Kit der Firma XMOS. Die für AVB benötigte Netzwerkschnittstelle wird zur Steuerung mikrofontypischer Parameter verwendet. So können die Parameter von einem Remote-Rechner aus kontrolliert werden. Die Evaluierung und Implementierung der Remote-Software sowie der Entwurf des Kommunikationsmodells ist ebenfalls Teil dieser Arbeit.



Spandel, Matthias;
Entwicklung eines Spiegelquellenverfahrens für die dynamische Raumsimulation. - XX, 56 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

Raumakustische Simulationen ermöglichen es, die akustischen Eigenschaften von Räumen virtuell zu untersuchen und gezielte Maßnahmen zur Verbesserung ihres Klangs bezüglich spezieller Anwendungsfälle zu ergreifen. Darüber hinaus können entworfene Raummodelle bereits vor der baulichen Umsetzung für bestimmte Quellen- und Empfängerpositionen auralisiert werden und Fehler noch in der Planungsphase erkannt und behoben werden. Hierbei werden neben wellentheoretischen Simulationsansätzen meist Verfahren der geometrischen Raumakustik eingesetzt. Bei Letzteren wird der Wellencharakter von Schall vernachlässigt und Schallwellen zu Schallstrahlen reduziert. Im Rahmen der vorliegenden Ausarbeitung wird ein Spiegelschallquellenverfahren für die dynamische Raumsimulation in MATLAB entwickelt. Dies wird bezüglich optionaler Quellen- und Empfängercharakteristiken erweitert. Durch einen Hörtest wird untersucht, ob eine Kombination von zweidimensionalem Raytracing und dreidimensionaler Spiegelschallquellensimulation zu einer authentischeren Auralisation des subjektiv wahrgenommenen Raumeindrucks führt.



Maggi, Johannes;
Nachhallalgorithmen - Untersuchung der Richtungsabhängigkeit von spätem Nachhall. - 82 S. Ilmenau : Techn. Univ., Masterarbeit, 2012

Für die Hallerzeugungen können verschiedene Verfahren angewendet werden. Durch die Faltung eines Audiosignals mit einer Raumimpulsantwort kann der Nachhall eines Raumes exakt reproduziert werden. Mithilfe rückgekoppelter Filterstrukturen kann eine große Anzahl an Reflexionen ressourcenschonend generiert und dadurch der Nachhall eines Raumes simuliert werden. Beide Verfahren haben aber sowohl Vorteile, als auch Nachteile. Um die Vorteile beider Verfahren nutzen zu können, können hybride Nachhallalgorithmen als drittes Verfahren eingesetzt werden. Dort werden der Direktschall und die frühen Reflexionen einer realen Impulsantwort mit dem Audiosignal gefaltet und der späte Nachhall durch eine Filterstruktur erzeugt. Dem späten Nachhall wird dabei aber nicht sehr viel Beachtung geschenkt. Er dient meistens nur dazu, die erwünschte Nachhallzeit zu erzeugen. Bei mehrkanaligen Audioaufnahmen wird meistens auch nur eine Filterstruktur für alle Kanäle gemeinsam verwendet, um den späten Nachhall aller Kanäle zu erzeugen. Der späte Nachhall könnte aber bei der Richtungswahrnehmung eine Rolle spielen. Diese Arbeit dokumentiert die Entwicklung eines hybriden Nachhallalgorithmus und die Untersuchung der Richtungsabhängigkeit des späten Nachhalls.



Schneider, Sebastian;
Untersuchung und Vergleich von verschiedenen Ansätzen zur Beurteilung des emotionalen Charakters von Musikbestandteilen. - III, 71 S. Ilmenau : Techn. Univ., Diplomarbeit, 2012
Enth. außerdem: Thesen

Die zeitgenössische Emotionsforschung verfügt über eine Vielzahl verschiedener Methoden um wahrgenommene Emotionen zu messen. Es existiert jedoch kein Konsens bezüglich dieser Methoden, da die Messung von Emotionen schwierig ist und an bestehenden Methoden Kritik geäußert wird. Im Rahmen des DFG-Forschungsprojektes "Grundlagenuntersuchungen zur Entwicklung von Algorithmen zur tonraumbasierten Analyse emotionspsychologischer Eigenschaften aus Musiksignalen" werden in dieser Arbeit verschiedene Ansätze zur Beurteilung des emotionalen Charakters von Musikbestandteilen untersucht. Hierfür wurden verschiedene Nutzertests durchgeführt, analysiert, und die Ergebnisse miteinander verglichen. Diese Tests sollen die Tauglichkeit des sogenannten "Free Choice Profiling" (FCP), einer auf dem Gebiet der Lebensmittelforschung und seit einigen Jahren auch der Qualitätsforschung etablierten Methode, für die Messung von Emotionen untersuchen. Zu diesem Zweck wurde ein FCP-Nutzertest durchgeführt, sowie ein weiterer Test mit einer in der Emotionsforschung etablierten Untersuchungsmethode, dem sogenannten Self-Assessment-Manikin (SAM). Anhand des Vergleichs beider Methoden werden Schlüsse auf die Aussagekraft und Tauglichkeit der Untersuchungsmethode "Free Choice Profiling" für die Messung von Emotionen gezogen, die für das weitere Vorgehen im genannten DFG-Projekt relevant sind.



Aulinger, Matthias;
Vergleich von Kompressionsalgorithmen. - 143 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

Die vorliegende Arbeit beschäftigt sich mit der Bildqualität der Kompressionsalgorithmen von Apple ProRes 4444, Avid DNxHD 444, Apple ProRes 422 HQ und Avid DNxHD 220x/185x/175x unter der Berücksichtigung eines in der Kinofilmproduktion üblichen Workflows. Der Schwerpunkt der Untersuchung liegt dabei auf den Auswirkungen von Bildtransformationen im Bereich der Postproduktion. Die Qualitätsbetrachtung erfolgt anhand der Verfahren Peak Signal-to-Noise Ratio (PSNR) und Structural Similarity Index (SSIM) und mithilfe eines Double-Stimulus Continuos Quality Scale (DSCQS) Probandentests.



Löhr, Christin;
Tag-basierte Workflowsteuerung in einem Dokumentenmanagementsystem (DMS). - 63 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

Arbeitsabläufe ("Workflows") werden schon seit geraumer Zeit von Computertechnik (Hard- und Software) unterstützt. Dabei ist der traditionelle Ansatz der Softwaretechnik, Arbeitsabläufe zuerst zu analysieren, um sie dann zu modellieren und zu implementieren. Dieses Vorgehen hat sich bewährt, allerdings führt es in jedem Fall dazu, dass der Arbeitsablauf in der Software mehr oder weniger fest verankert ist. Änderungen im Ablauf erfordern fast immer, dass die Software angepasst werden muss. Das ist zeitaufwendig und oft auch teuer. Mit dieser Bachelorarbeit wird deshalb ein alternativer Ansatz getestet. Es wird ein allgemein gültiger Ablaufplan entwickelt, mithilfe dessen Nutzer eines Dokumentenmanagementsystems selbst Workflowsteuerungen erstellen können. Als auslösendes Element soll dabei die Vergabe von Tags dienen. Es wird auf den Aufbau von Contentmanagemenstsystemen und die Grundlagen von Metadaten und dem Taggen eingegangen. Zwar wird ein fester Workflow als Beispiel genommen und umgesetzt, doch anhand der in der Arbeit definierten Workflowanalyse kann der Ablauf auf andere Workflows angewandt werden. Für die praktische Arbeit wird das Contentmanagementsystem Alfresco v3.4.0 verwendet, der Test-Workflow stammt aus der redaktionellen Arbeit im hsf Studentenradio e.V.



Arlt, Sascha;
Robuste Merkmalsverfolgung in stereoskopischen Videosequenzen. - 117 S. Ilmenau : Techn. Univ., Diplomarbeit, 2012

In dieser Arbeit wird die Merkmalsverfolgung in stereoskopischen Videosequenzen untersucht in Hinblick auf die Möglichkeit einer robusten Tiefenschätzung. Dies soll die Bewegungsschätzung eines Kamerasystems auf Grundlage des Bildinhaltes ermöglichen. Dabei werden zwei Teilprobleme bewältigt: Die Merkmalsverfolgung über einen zeitlichen Verlauf und das Erkennen von korrespondierenden Merkmalen zwischen linker und rechter Ansicht. Es wurden verschiedene Detektoren in Hinblick auf ihre initiale Merkmalsextraktion untersucht und mit dem optischen Fluss über einen zeitlichen Verlauf verfolgt. Darüber hinaus wurden verschiedene Kostenmaße des Korrespondenzanalyseverfahrens unter Verwendung von Heuristiken eingesetzt und zusätzlich Ausreißereliminierungsverfahren angewendet. Das Programmiergerüst zur Implementierung und Evaluierung stellt der Softwareprototyp CamTracker dar, der zu Beginn der Arbeit bereits über grundsätzliche Funktionen zur Merkmalsverfolgung verfügte. Es konnte gezeigt werden, dass durch die angewendeten Methoden eine robuste Merkmalsverfolgung ermöglicht werden kann, jedoch die Genauigkeit der Tiefenschätzung noch nicht ausreicht. Einzelne Merkmale erzeugten dabei stark unterschiedliche Rückprojektionen im 3D-Raum, was eine zuverlässige Kameraverfolgung verhindert.



Claashen, Immanuel;
Untersuchung der Klangeigenschaften unterschiedlicher Kondensatormikrofone. - 144 S. Ilmenau : Techn. Univ., Diplomarbeit, 2012

Die vorliegende Arbeit untersucht die Klangeigenschaften von unterschiedlichen Kondensatormikrofonen in Abhängigkeit von verschiedenen Membranparameter. Es wurden zwölf Druckgradientenempfänger mit nierenförmiger Richtcharakteristik untersucht, die sich hinsichtlich der Membranform, des Membranmaterials und der Ausführung der Mittenkontaktierung unterscheiden. Die Klangeigenschaften wurden anhand von evaluierten Attributen durch einen subjektiven Hörtest beurteilt. Hierzu wurden vergleichbare Stimuli produziert. Ziel und Inhalt dieser Arbeit ist, herauszufinden in welchen Klangeigenschaften sich Kondensatormikrofone unterscheiden und wie die Gestaltung der Membranparameter diese Klangeigenschaften beeinflussen. Um den Einfluss eines Membranparameters auf die Klangeigenschaft zu untersuchen, müssen möglichst alle anderen Parameter der Mikrofonkapsel konstant gehalten werden. Durch die Unterstützung der Firma Microtech Gefell wurden Mikrofone bereitgestellt, die sich weitestgehend nur in einem Parameter unterscheiden. Somit konnte der Einfluss der Membranmaterialien Nickel, PET und PVC, sowie der asymmetrischen und symmetrischen Kontaktierung auf die Klangeigenschaften untersucht werden. Des Weiteren wurden dreieck-, rechteck- und kreisförmige Membranen untersucht, sowie Groß- und Kleinmebranmikrofone von den Herstellern Ehrlund, Pearl, AKG, Neumann und Microtech Gefell. Es ist zu beachten, dass bei Druckgradientenempfängern die frequenzabhängige Richtcharakteristik und der Nahbesprechungseffekt starke klangbeeinflussende Faktoren darstellen, die zur Untersuchung der Membranparameter minimiert werden müssen. Durch die Verwendung von reproduzierbaren Schallquellen, vor denen die Mikrofone nacheinander, in derselben Position und innerhalb des Hallradius aufgestellt wurden, konnten vergleichbare Stimuli für den Hörtest produziert werden. Die Attribute zur Beurteilung der Klangeigenschaften für den Hörtest wurden mittels der Repertory Grid-Technik evaluiert.



Fei, Hui;
Individuelle Auswahl nicht individueller Außenohrübertragungsfunktionen. - Online-Ressource (PDF-Datei: II, 59 S., 3,35 MB) Ilmenau : Techn. Univ., Masterarbeit, 2012
Enth. außerdem: Thesen

Ein virtuelles Hörsystem (Virtual Auditory Display) dient der Erzeugung des räumlichen Schalls. Durch die Faltung der Außenohrimpulsantwort (AOIA) bzw. Außenohrübertragungsfunktion (AOÜF) mit den Audiosignale der Schallquellen kann die Richtungsdarstellung realisiert werden. Die AOÜFs, die im VAD verwendet werden, müssen für jeden Benutzer individualisiert werden. Fehler wie "Vorne-Hinten-Vertauschungen'', "Im-Kopf-Lokalisierung'' usw. würden häufig eintreten, wenn die AOÜFs nicht individualisiert würde. Obwohl die aktuelle Methode, die direkte Messung der AOÜFs, die die besten individualisieren AOÜFs liefert, erfordert sie für die Zuhörer eine besondere Messeinrichtung und eine lange Zeit für das Messen, die nicht für eine Client-Anwendung geeignet ist. In dieser Arbeit, wird ein zur Zeit neuer Trend der Individualisierung der AOÜFs - individuelle Auswahl nicht individueller AOÜFs diskutiert. Zwei Auswahlverfahren werden durch Matlab aufgebaut und programmiert. Außerdem werden beide Auswahlverfahren durch ein Lokalisierungstest ausgewertet. Die Ergebnisse zeigen die Durchführbarkeit der Methoden und die Optimierungsmöglichkeit für bessere Ergebnisse in der Zukunft.


http://www.db-thueringen.de/servlets/DocumentServlet?id=20828

Schäfer, Florian;
Entwicklung eines modularen Systems zur Auswertung von Kameramessungen. - 109 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

Der Kameraabgleich von verschiedenen Kameras innerhalb einer Fernsehsendung ist schon immer eine der wichtigsten Aufgaben in der Fernsehbranche gewesen. Zwar werden Automationen immer besser, aber die feinen Unterschiede sieht der Bildtechniker durch seinen Monitor und sein Messgeräte. Das Institut für Medientechnik der Technischen Universität Ilmenau betreibt deshalb ein Kameramesslabor für Forschung und Lehre, das es möglich macht, das Einmessen und Kalibrieren zu erlernen. Um den Bereich Forschung in diesem Segment zu erweitern, wurde durch diese Bachelorarbeit die Grundlage für ein modulares Kameramesssystem geschaffen. Dieses System wurde mit MATLAB programmiert und durch eine Datenbank erweitert. Die Modularität des Systems besteht in der Erweiterbarkeit durch weitere Testtafeln, aber auch durch das Hinzufügen von neuen Algorithmen. Das erleichtert das Erproben und Verbessern von neuen Auswertungsalgorithmen und bietet zusätzlich die Möglichkeit verschiedene Messungen zu vergleichen.



Seupel, Mara;
Untersuchung von Korrekturmöglichkeiten im Stereo-3D-Produktionsprozess. - 124 S. Ilmenau : Techn. Univ., Diplomarbeit, 2012

Mit der Digitalisierung des Kinos wurde die Grundlage für gute Qualität von Stereo-3D-Filmen geschaffen. Es bestehen jedoch hohe Anforderungen bezüglich der Handhabung mit der Aufnahmetechnik sowie der Nachbearbeitung des Materials. Qualitätsbestimmende Parameter werden oft vernachlässigt. Dadurch entsteht schlecht produziertes Stereomaterial, welches das 3D-Seherlebnis negativ beeinflusst. - Diese Arbeit gibt eine Übersicht über potentielle Fehlerquellen, die bei der stereoskopischen Produktion eine Rolle spielen. Auf dieser Basis wird ein Workflow definiert, der auch ohne professionelles Stereo-3D-Equipment eine gute Arbeitsweise ermöglicht. Entsprechende Rahmenbedingungen werden definiert, wie beispielsweise die Festlegung des Tiefenbereichs oder der Kameraparameter in Abhängigkeit von Aufnahmesituation und Wiedergabesystem. - Mit dem vorhandenen Equipment ist es nicht immer möglich, Aufnahmefehler wie zeitliche, geometrische und fotometrische Unterschiede zwischen den beiden Kamerabildern zu vermeiden. Daneben werden durch das Kamerasystem selbst Fehler wie Linsenverzerrung oder Sensorversatz verursacht. Für diese stereoskopischen Aufnahmefehler werden unterschiedliche Möglichkeiten der Korrektur durch gebräuchliche Postproduktionssoftware untersucht und die Qualität der Ergebnisse bewertet.



Reilich, Patrick;
Analyse von Datenstrukturen für die zyklische Übertragung von Dateien mit Hilfe von Broadcast-Datendiensten. - 97 S. Ilmenau : Techn. Univ., Diplomarbeit, 2012

In der modernen Informationsgesellschaft werden mehr und mehr Dienste angeboten, die Informationen zielgenau zu einem Nutzer bringen. Diese Dienste nutzten in der Regel das Internet als Verteilmedium. Aus den unterschiedlichsten Gründen verfügt allerdings nicht jeder Nutzer über eine Internetverbindung. Deshalb ist es sinnvoll, auch alternative Wege der Informationsverteilung zu finden. Eine mögliche Lösung bieten die digitalen Varianten von Hörfunk und Fernsehen. - Diese Arbeit erläutert grundlegende Eigenschaften, die es zu beachten gilt, um einen Datendienst für den rückkanallosen digitalen Datenrundfunk zu gestalten. Dabei werden Einschränkungen und Schwierigkeiten analysiert, die sich aus dieser Übertragungstechnologie ergeben, sowie Möglichkeiten erarbeitet, um sie zu lösen. - Als Grundlage für die Untersuchungen wird ein prototypischer Informationsdienst in Form eines Demonstrators erstellt. Die sich daraus ergebene Datenstruktur des Demonstrators wird an die Eigenschaften einer zyklischen Datenrundfunkübertragung angepasst. Dazu gehört auch die Unterbringung von Metadaten, die Aufarbeitung der Inhalte, um von einem Empfangsgerät verarbeitet werden zu können und die Datenstruktur dahingehend zu gestalten, dass dem Nutzer ein hohes Maß an Benutzerfreundlichkeit angeboten werden kann. Bei der Gestaltung des Demonstrators wird darauf geachtet, dass sich die Inhalte nicht nur auf reine Textnachrichten beziehen, sondern auch die Übertragung von visuellen Elementen, in Form von Bildern oder Grafiken, berücksichtigt wird. - Zur Unterstützung, wird für diese Arbeit eine Simulationssoftware erstellt, die eine Broadcast-Übertragung lokal auf einem PC simulieren kann und für die Erstellung und Analyse der Datenstrukturen zum Einsatz kommt. - Aufbauend auf den gewonnen Erkenntnissen stellte sich heraus, das unter Verwendung geeigneter Datenstrukturen und effektiver Ausnutzung der gegebenen Übertragungsressourcen komfortable Datendienste gestaltet werden können.



Miertschin, Mathias;
Konzeption einer zentralen Signalverteilung im MDR Landesfunkhaus Sachsen-Anhalt. - 86 S. Ilmenau : Techn. Univ., Diplomarbeit, 2012

Im MDR Landesfunkhaus Sachsen-Anhalt wird das tägliche Fernsehprogramm in einem SD-basiertem Workflow produziert. Mit den immer mehr steigenden Anforderungen an das audiovisuelle Medium Fernsehen, wachsen auch die Anforderungen an die Technik und das zugehörige Management. Die Media & Communication Systems (MCS) GmbH Sachsen-Anhalt ist der technische Dienstleister für das MDR Landesfunkhaus Sachsen-Anhalt in den Bereichen Hörfunk- und Fernsehproduktion sowie deren Sendeabwicklung. Perspektivisch soll der Bereich Fernsehen auf das neue Medienformat "Hochauflösendes Fernsehen" (HD) umgerüstet werden. Um die technischen Voraussetzungen zu schaffen, sind Neuplanungen und Investitionen im Fernsehsendekomplex unumgänglich. Zur Zeit übernimmt die Verteilung der Audio- und Videosignale und deren Management ein zentrale Kreuzschiene. Diese ist nur zum Teil HD-fähig und besteht aus zwei voneinander unabhängigen Hardwarekomponenten (Audio- und Videorouter), womit eine hohe Flexibilität erreicht wird. Aus dieser Konstellation ergibt sich eine diskrete Signalverteilung von Bild und Ton. Ziel dieser Diplomarbeit ist daher ein Konzept für den Umstieg auf HD in einer gewachsenen SD-Produktionslandschaft ohne Einbußen an der bisherigen Flexibilität und Funktionalität. Die somit zu erarbeitenden wesentlichen Besonderheiten und Anforderungen an ein HD-Studio sind dabei an die konkreten Bedingungen des Landesfunkhauses in Magdeburg anzupassen. Beim Umstieg auf HD liegt die Überlegungnahe, die separaten Router für Audio und Video durch eine einzige Komponente zu ersetzen. Dies erfordert aber eine Abkehr von der diskreten Video-Audioführung und den Wechsel zur Technologie des "Embedded Audio", was den Audiotransport im Videosignal bedeutet. Nach der Analyse der vorhandenen Signalverteilung folgt die Untersuchung der integrierten Komponente auf ihr HD-Tauglichkeit und ihre Unterstützung von embedded Audio. Anschließend erfolgt die Auswahl einer geeigneten Kreuzschiene unter Berücksichtigung der Aspekte Audiorouting und Audiosignalbeeinflussung, Anbindungsmöglichkeit an vorhandene Kontrollsysteme und Protokollkompatibilität. Ferner Multivieweroption mit dynamischer Untertitelung, Rotlichtsignalisierung und Timecode-Einblendung. Daraufhin wird eine Musterlösung für das Landesfunkhaus erstellt, sowie zu auftretenden Problemen werden Lösungsvarianten dargelegt.



Wenzel, Mario;
Plattformübergreifendes Berechtigungskonzept in der Medienproduktion. - 85 S. Ilmenau : Techn. Univ., Diplomarbeit, 2011

Die Hauptzielanforderung war die Lösung für die Adaptierung einer lokalen Benutzerverwaltung an den zentralen Verzeichnisdienst AD. Diese Forderung konnte durch die Schnittstellen zwischen AD und Applikation, den Rollenmodellierungsvarianten und durch das AD-RBAC-Modell umgesetzt werden. Praktisch konnte DABiS800 mit der Erstellung des Lastenheftes und der Erweiterung des AD02-Tools eine Schnittstelle zum AD bilden. Die Benutzerverwaltung kann nun über das AD geschehen. Für die Vergabe von Berechtigungen und Gruppen an Benutzer wurde ein Rollenkonzept erstellt. Die Zielanforderung erforderte einen Entwurf eines Rollenkonzepts, welches über Unternehmensgrenzen hinweg anwendbar ist und welches die Authentifizierung mittels SSO unterstützt. Das entwickelte AD-RBAC-Modell findet applikationsübergreifende Anwendung, d.h. es integriert mehrere Applikationen mit dem Ziel der zentralen Verwaltung durch das AD. Das Modell ist soweit allgemein gehalten, dass es auch über Unternehmensgrenzen hinweg Anwendung finden kann. Die praktische Umsetzung des Konzepts begrenzte sich auf die Applikation DABiS800. Rollen wurden somit nicht plattformübergreifend gebildet, sondern begrenzten sich auf die Anforderungen von DABiS, sowie von Share-Rechten. - Die Möglichkeit der Authentifizierung mittels SSO kann nur dadurch ermöglicht werden, wenn die Applikation selbst über eine Schnittstelle zum AD verfügt. Somit kann diese die Authentifizierung z.B. mittels Kerberos ermöglichen. Die praktische Umsetzung dieser Eigenschaft in DABiS800 konnte noch nicht zufriedenstellend erfüllt werden. Es wird zwar die Funktion an sich bereitgestellt, jedoch geschieht die Authentifizierung nur gegen die eigene DABiS-Datenbank. Für ein applikationsübergreifendes SSO-Verfahren muss diese Funktion dahingehend erweitert werden, dass bei SSO die Authentifizierung des Benutzers gegen das AD geschieht. Diese Eigenschaft wird bereits von anderen Anwendungen umgesetzt, sodass nur noch eine Nachbesserung auf Seiten von DABiS geschehen muss. Das Benutzerkonzept kann somit auf verschiedene Softwarekomponenten Anwendung finden, insofern die Applikationen selbst über eine Schnittstelle zum AD verfügen. Somit kann die Administration zentral vom AD übernommen werden. Nur die Zuweisung von Berechtigungen an Gruppen muss in der jeweiligen Anwendung selbst geschehen.



Heusinger, Udo;
Untersuchungen zur Wiedergabe räumlicher Audiosignale. - 106 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2011

In aktuellen Entwicklungen ist es gelungen die perzeptiven Effekte der Wellenfeldsynthese auch bei der Wiedergabe auf Lautsprechersystemen mit nicht geschlossenen Arrays und Systemen mit einer geringeren Anzahl von Einzellautsprechern zu realisieren. Zur Bewertung der Wiedergabequalität solcher Systeme wurde in dieser Arbeit die subjektive Qualität der neuen Systeme im Vergleich zu bekannten Referenzsystemen evaluiert. Als Wiedergabeverfahren wurden Wellenfeldsynthese (WFS), Vector Base Amplitude Panning (VBAP) sowie ein kommerzieller proprietärer Algorithmus genutzt. Die subjektive Qualität wurde mit Hilfe von Hörtests zur Ermittlung der Richtungslokalisation sowie zur Bewertung von Klangfarbenunterschieden untersucht. Es wurde eine Lichtzeigermethode entwickelt welche eine automatische Ergebnisermittlung für Lokalisationstests ermöglicht. Zur Ermittlung von Klangfarbenunterschieden wurden verschiedene Kombinationen aus Algorithmus und Quellposition mit dem Signal eines einzelnen Lautsprechers verglichen. Die Ergebnisse wurden statistisch ausgewertet, bewertet und mit den Ergebnissen der Literatur verglichen.



Zhong, Qian;
Entwicklung eines videobasierten Headtrackingsystems zur 3D-Hörerpositionsbestimmung . - 85 S. Ilmenau : Techn. Univ., Masterarbeit, 2011

Die binaurale Aufnahme ist eine besondere Aufnahmetechnik der Stereoakustik. Mittels dieser Methode kann ein natürlicher Höreindruck mit genauer Richtungslokalisation in 360 Grad durch Wiedergabe über nur zwei Lautsprecher erreicht werden. Zur Wiedergabe soll die Position des Hörers im Wiedergaberaum bekannt sein. Die Bestimmung der Position des Gesichts eines Hörers kann mit Hilfe einer Stereo-Kamera-Anordnung realisiert werden. Mittels Gesichtsdetektion und Gesichtsverfolgung wird die Position im Wiedergaberaum gefunden und verfolgt. Das Ziel dieser Arbeit ist es, ein videobasiertes System für die Hörer-Positionsbestimmung im Wiedergaberaum zu entwickeln. Da die Ohren-Detektion allerdings sehr schwer zu bewerkstelligen ist, machen wir nicht die direkte Ohren-Detektion, sondern die Gesichtspositionsbestimmung und die Kopfposenschätzung, um die Ohrenposition abzuschätzen. Für die Positionsbestimmung werden zwei Kameras benötigt. Zuerst müssen die Parameter der Kameras und der Zusammenhang zwischen ihnen bekannt sein. Dieser Schritt heißt Kamera Kalibrierung. Der zweite Schritt ist die Gesichtsdetektion in beiden Kamerabildern. Anhand der 2D-Position des Gesichts auf einem Bild und des Zusammenhangs der zwei Kameras wird die 3D-Position im Wiedergaberaum im dritten Schritt berechnet. Gleichzeitig kann die Position des Hörers ermittelt werden. Allerdings kann es passieren, dass die Gesichtsdetektion nicht genau funktioniert, wenn der Kopf sich auf eine Seite mit einem relativ großen Winkel (z. B. 45˚) dreht. Daher kann die Gesichtsverfolgung eine wichtige Rolle spielen, um dieses Problem zu lösen. Außerdem wird in der Arbeit ein Algorithmus zur Posenerkennung umgesetzt.



Schmidt, Karsten;
Untersuchung der Erweiterungsmöglichkeiten eines Raumsimulationsprogramms mit einem Modell für die Simulation von Beugung. - 110 S. Ilmenau : Techn. Univ., Diplomarbeit, 2011

Zur Beschreibung des Verhaltens der Schallausbreitung in Räumen nutzt man die experimentelle und immer mehr die rechnerische Simulation. Doch trotz der fortschreitenden Entwicklung der Rechnersysteme stellt die Simulation auf Grundlage numerischer Verfahren nach wie vor ein Problem dar. Vor allem für große Räume mit komplexer Geometrie und in Hinblick auf ein breitbandiges Ergebnis sind die Berechnungen bisher nicht in angemessener Zeit durchzuführen. Für diesen Fall bedient man sich weiterhin der geometrischen Raumakustik und ihrer Verfahren. Unter der Annahme, dass sich die Wellenausbreitung gleichfalls durch Strahlen annähern lässt, konnten schnellere und flexiblere Simulationsverfahren entwickelt werden. Diese teilweise rein probalistischen Verfahren unterliegen jedoch einer wesentlichen Einschränkung. Die Beugung in der Nähe und um Kanten herum kann damit nicht berechnet werden. Zur Lösung des Problems wurden zahlreiche Methoden entwickelt, die entsprechend ihres Modellansatzes den Beugungseffekt durch geometrische Verfahren annähern bzw. exakt berechnen können. Zwei dieser Entwicklungen werden in dieser Arbeit vorgestellt. Die erste Methode, benannt nach ihren Entwicklern Biot, Tolstoy und Medwin und später durch Svensson erweitert, ist die BTM-Methode zur Berechnung der Impulsantwort einer Kante. Die zweite Methode basiert auf dem Huygens-Fresnelschen Prinzip und berechnet den gebeugten, noch zu erwartenden Betrag der Schallenergie am Empfänger. Trotz besserer Algorithmen sind die damit berechneten Ergebnisse mit Vorsicht zu betrachten. Nicht zuletzt unterliegt die Simulation den Einschränkungen des zugrunde liegenden Modellansatzes. Die Qualität der Ergebnisse steht zudem im direkten Zusammenhang mit dem Vorwissen des Anwenders und dessen Kenntnis über den Funktionsumfang des Simulationsprogrammes. Entsprechende Untersuchungswerkzeuge und Methoden müssen also zur Überprüfung der Umsetzung auf der einen Seite und zur Qualitätsbeurteilung durch den Anwender auf der anderen Seite eingesetzt werden. Diese Arbeit stellt dabei verschiedene Methoden und Herangehensweisen dar, wie eine Vergleichsmessung durchzuführen ist und in wie weit welche Berechnungsschritte und Ergebnisse visuell aufbereitet dargestellt werden sollten.



Wülknitz, Julian;
Untersuchung und Optimierung von Flachlautsprechergehäusen. - 111 S. Ilmenau : Techn. Univ., Diplomarbeit, 2011

Gegenstand dieser Forschungsarbeit ist die Untersuchung und Optimierung eines am Fraunhofer IDMT entwickelten Flachlautsprechers, bezüglich der akustischen Wiedergabequalität. Der Lautsprecher grenzt sich, aufgrund seiner Arbeitsweise und der geringen Gehäusetiefe von 24 mm, deutlich von bisherigen Konzepten ab. Um den positiven Aspekt des Alleinstellungsmerkmals auszureizen, wird eine weitere Verringerung der Bautiefe des Gehäuses angestebt. Dies birgt jedoch die Gefahr von ausgeprägteren Störgeräuschen, hervorgerufen durch stärker schwingende Gehäuseflächen. Diesbezüglich erfolgt eine messtechnische Analyse des Gehäuses, hinsichtlich dessen mechanischer Schwingungseigenschaften. Darüber hinaus wird der damit verbundene akustische Störschall ermittelt. Aus den Ergebnissen können Problemstellungen abgeleitet werden, welche das Klangbild des Lautsprechers negativ beeinflussen. Anschließend kann gezielt, sowohl durch qualifiziertere Gehäusematerialien als auch durch konstruktive Ansätze, der Aufbau des Gehäuses optimiert werden. Zielstellung ist die Formulierung eines Konzeptes, womit die Bautiefe des Flachlautsprechers, bei verbesserten akustischen Eigenschaften, verringert werden kann.



Schmidt, Valentin;
Inertialsensorbasierte Bestimmung der Kameraorientierung. - 95 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

Die Aufgabe des im virtuellen Studio der Technischen Universität Ilmenau eingesetzten Trackingsystems ist die exakte Erfassung interner und externer Kameraparameter. Für die Bestimmung der Orientierung erfolgt die Analyse des Kamerabildes. Da mit diesem komplexen Algorithmus Verzögerungen im Bereich mehrerer Frames einhergehen, soll in dieser Bachelorarbeit der alternative Einsatz eines Inertialsensors evaluiert werden. Dabei steht die Frage nach Genauigkeit und Echtzeitfähigkeit des Systems im Vordergrund. Ausgehend von den Anforderungen lassen sich Ziele und Vorgehensweisen für Integration und Vermessung des Sensors ableiten. Die Einbettung des Systems setzt sich aus der Entwicklung eines spezifischen Programmcodes, der Montage und der Kalibrierung des Sensors zusammen. Für die Vermessung des Systems werden im Rahmen dieser Arbeit drei entwickelte Messungskonzepte vorgestellt, durchgeführt und diskutiert. Sie dienen der Bewertung von Genauigkeit und Praxistauglichkeit des Sensors. Die Echtzeitfähigkeit des Systems wird separat betrachtet. In der Zusammenfassung der Arbeit erfolgt eine Einschätzung der Eignung des Sensors für den Einsatz im virtuellen Studio zur Bestimmung der Kameraorientierung. Zudem dient ein Ausblick als Ansatzpunkt für weitere Forschungsfragen.



Laschka, Andreas;
Individualisierte Audioangebote unter Nutzung von Broadcast Datendiensten. - 82 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

Diese Bachelorarbeit umfasst die Erläuterung und Untersuchung einer Möglichkeit zur Gestaltung eines Radioprogrammes, dessen Audioinhalte individuell vom Nutzer zusammengestellt werden können. Dabei werden sowohl Audiodateien als auch dazugehörige Metadaten über einen Broadcast-Datenkanal übertragen. Die exakten Sende- und Empfangsstrategien sind Teil dieser Arbeit. Wie sich die Dateiverarbe-tung im Empfänger gestaltet, um das höchste Maß an Benutzerfreundlichkeit zu erzielen, wird ebenfalls gezeigt. Dazu werden auch Untersuchungen verschiedener Nutzungsszenarien angeführt. Weiterhin geht der Text auf Grundlagen ein, die für die Realisierung ausschlaggebend sind. Dazu zählen digitalen Übertragungsverfahren wie Digital Audio Broadcast (DAB) oder Digital Video Broadcasting (DVB), die Wahl des bestgeeigneten Audio- und Metadatenformats und rechtliche Grenzen. Neben den umfassenden Beschreibungen des individualisierten Audioangebots, wird die umgesetzte, prototypische Realisierung erläutert.



Gries, Fritz;
Transferpfadanalyse in der Praxis: Parameterstudien an Beispielstrukturen. - 100 S. Ilmenau : Techn. Univ., Diplomarbeit, 2011

Die Transferpfadanalyse (TPA) ist ein Verfahren, das in der Fahrzeugakustik eingesetzt wird, um zu analysieren, über welche Schnittstellen die meiste Energie in die Karosserie eingeleitet wird. Dazu ist es notwendig, die wirkenden Kräfte an diesen Punkten zu ermitteln. Dies kann über direkte und indirekte Verfahren erfolgen. Eine indirekte Methode, die in dieser Arbeit zur Anwendung kommt, ist das inverse Matrixverfahren. Dazu wird eine Inertanzmatrix invertiert und mit gemessenen Beschleunigungen aus einer Betriebsmessung multipliziert. Durch die Matrixinvertierung ist das System potentiell fehleranfällig gegenüber kleinen Messungenauigkeiten, wie zum Beispiel Rauschen der Sensoren. Daher werden in den nachfolgenden Versuchen zwei Parameter untersucht und deren Einfluss auf die Qualität der synthetisierten Beschleunigungen geprüft. Es zeigt sich, dass sowohl die Bedämpfung des Systems, als auch die Überbestimmung der Inertanzmatrix als gewählte Parameter verbesserte Prognosen der Zielgrößen ermöglichen. In einer weiteren Messreihe wird die TPA im Fahrzeug angewandt. An zwei Mikrofonpositionen im Fahrzeuginnenraum werden Schalldrücke prognostiziert. Das untersuchte Geräusch ist das Verzahnungsgeräusch eines PKW-Getriebes für Heck-Antrieb. Zusätzlich zu den Messungen wird in MATLAB ein Softwaretool entwickelt, das die gewonnen Messdaten analysiert und die notwendigen Berechnungen zur TPA durchführt.



Müller, Julia;
Entwicklung und Evaluierung von Verfahren zur richtungsgerechten Raumsimulation im Zusammenhang mit Fraunhofer Richtungsmischer. - 100 S. Ilmenau : Techn. Univ., Diplomarbeit, 2011

In der vorliegenden Arbeit werden Untersuchungen realisiert, die es ermöglichen die richtungsgerechte Beschallung mit einer Raumsimulation zu vereinen. Es werden die wesentlichen Grundlagen der Raumakustik und von Beschallungsanlagen besprochen. Bestehende elektroakustische Systeme und Raumsimulationsverfahren werden vorgestellt, wobei der Richtungsmischer des Fraunhofer Instituts für Digitale Medientechnologie, als System zur richtungsgenauen Abbildung von Schallquellen, die Grundlage der Untersuchungen darstellt. Nach dem Prinzip der Spiegelschallquellenmethode werden raumakustische Simulationen durchgeführt. Dabei werden unterschiedliche Anforderungen berücksichtigt, die sich im Rahmen der Diplomarbeit bezüglich der Reflexionsordnung oder der Integration der Reflexionen in den Richtungsmischer ergeben haben. Ausgehend von verschiedenen Simulationsversuchen werden Konfigurationsansätze gewählt und umgesetzt. Zur Evaluierung der verschiedenen Ansätze wird ein Hörtest in einem institutseigenen Testraum konzipiert und durchgeführt. Die Auswertung des Hörversuches erbringt keine eindeutigen Ergebnisse. Es lassen sich jedoch Aussagen bezüglich der für eine Simulation notwendigen Reflexionsordnungen treffen. Eine eindeutige Tendenz zu einem Konfigurationsansatz kann innerhalb dieser Arbeit nicht gezeigt werden. Weitere Untersuchungen und Hörtests sind nötig, um die gezeigten Ansätze auszubauen und die Ergebnisse zu validieren.



Heinemann, Andreas;
Gewinnung von Tiefenkarten aus Stereo-Video. - 165 S. Ilmenau : Techn. Univ., Diplomarbeit, 2011

Informationen über die dreidimensionale Szenengeometrie eines Raumes können in vielen Bereichen der Informationstechnik und besonders im Bereich von Computer Vision der Grundbaustein für komplexe Systeme sein, die zur Lösung eines speziellen Problems ein- gesetzt werden. Die Gewinnung von Informationen über die Struktur einer Szene ist ein komplexes und gut untersuchtes Themengebiet. Es gibt eine Vielzahl an Möglichkeiten, die gewünschten Informationen zu erhalten. Eine Variante ist die Stereobildanalyse und die Tiefenberechnung mit Hilfe der Disparitätsanalyse. Inwieweit es möglich ist, aus zweidimensionalen Stereobildern die Tiefenstruktur einer Szene mit Hilfe der Disparität zu berechnen, zeigt die vorliegende Diplomarbeit auf. In der Arbeit werden die Grundlagen der Stereobildanalyse betrachtet und es wird die Dis- paritätsanalyse mit Hilfe des Block Matchings erforscht. Aufgezeigt wird, dass das Block Matching Verfahren ein sehr leistungsstarkes Werkzeug ist, um der anspruchsvollen Aufga- be der Korrespondenzanalyse entgegen zu treten. Ein weiterer Schwerpunkt der Untersu- chungen liegt in der Optimierung von Disparitätskarten. Neben theoretischen Reflexionen wird praktisch ein Algorithmus entwickelt, der auf dem Block Matching Verfahren basiert und verschiedene Korrelationsmetriken realisiert. Zur Anwendung kommen die SAD- und NCC-Metrik sowie nicht-parametrische Transformationen in Form von Rank und Census. Als ein Optimierungsverfahren wird die Verwendung adaptiver Fenster implementiert. Im Rahmen der praktischen Entwicklung des Algorithmus in C++ und der anschließenden Evaluation hat sich herausgestellt, dass die Verwendung adaptiver Fenster zur Dispari- tätsanalyse die besten Ergebnisse liefert. Im Endergebnis wird gezeigt, dass der entwickel- te Algorithmus gute Disparitäts- und Tiefenkarten gewinnen kann. Als Anwendungsfall wird das Segmentieren von Videomaterial beim Keying betrachtet. Es stellte sich heraus, dass die Qualität der gewonnenen Tiefenkarten für diesen Anwendungsfall nicht ausreicht. Dennoch können die gewonnenen Tiefenkarten für eine Vielzahl anderer Anwendungsfälle, wie z. B. der Hinderniserkennung oder der Steuerung autonomer Roboter, genutzt werden.



Friebe, Sebastian;
Äquivalente Dauerlautheit von Kindergeräuschen im Vergleich zu konventionellen Bewertungsverfahren. - 115 S. Ilmenau : Techn. Univ., Diplomarbeit, 2011

Diese Arbeit untersucht die gehörgerechte Beurteilung von Kindergeräuschen gegenüber Baustellenlärm. Dazu wurden Kinder- und Baustellengeräusche aufgezeichnet und nach Methoden der klassischen Akustik sowie der Psychoakustik analysiert. Weiterhin wurde ein Hörversuch entworfen und durchgeführt. Aufgrund der binauralen Aufnahme für den Hörversuch war es notwendig, ein geeignetes Filter für die messtechnische Untersuchung zu entwerfen. Im Hörversuch galt für die Versuchspersonen, die Lautstärkeempfindung synchron zur Wiedergabe abzutragen und anschließend ein globales Lautstärkeurteil abzugeben. Die Ergebnisse aus der messtechnischen Analyse wurden mit denen aus dem Hörversuch verglichen. Dabei hat sich gezeigt, dass die mittlere Lautheit die tatsächlich empfundene Lautstärkewahrnehmung gut annähert. Im direkten Vergleich mit Baustellenlärm wurden Kindergeräusche trotz einem höheren A-bewerteten Dauerschallpegel als gleich laut empfunden. Im Umkehrschluss würde dies bedeuten: Kindergeräusche werden bei gleichem A-Pegel leiser empfunden als Baustellengeräusche.



Stüber, Christoph;
Vergleichende Untersuchungen zur Raumakustik von Sporthallen anhand gemessener und berechneter Raumimpulsantworten. - 68 S. Ilmenau : Techn. Univ., Diplomarbeit, 2011

Die Raumakustik hat das Ziel, für jeden Raum eine angemessene akustische Umgebung zu schaffen. Es existieren verschiedene Herangehensweisen, mit deren Hilfe Parameter für eine akustische Beschreibung eines Raumes berechnet werden können. Zu den wichtigsten Parametern zählt die Nachhallzeit. Sie ist als die Abklingdauer nach dem Abschalten eines akustischen Signals in einem Raum definiert. Die vorliegende Arbeit befasst sich mit einer raumakustischen Analyse von Sporthallen. Während der raumakustischen Projektierung treten häufig kleine Abweichungen der Nachhallzeit zwischen Prognose und Endzustand auf. Bei Sporthallen ist jedoch die erwartete Nachhallzeit immer deutlich kürzer als die gemessene Nachhallzeit. Es wird vermutet, dass Sporthallen durch ihre Bauform Schallenergie besser speichern können, als durch die Prognose angesetzt wird. Aus diesem Grund wurden verschiede raumakustische Messungen durchgeführt. Durch diese Messungen sollte ein Nachweise über die Existenz eines Nachhallreservoirs geführt werden. Des Weiteren wurden Ansätze für die Anpassung der statistischen Berechnungen nach Fitzroy an die typische Bauform einer Sporthalle untersucht. Hierbei wurden die Verhältnisse zwischen Länge, Breite und Höhe als Ausgangspunkt für die Verbesserung genutzt. Die Messungen ergaben, dass Unterschiede in Längs- bzw. in Querrichtung auftreten. Jedoch sind diese nur minimal und für einen Beweis nicht hinreichend eindeutig. Die Anpassung der Berechnung nach Fitzroy zeigt eine Verbesserung und ist durch weitere Objekte zu validieren.



Liebscher, Tim;
Untersuchungen zur Verständlichkeit von bearbeiteten Sprachsignalen unter verschiedenen Störeinflüssen. - 130 S. Ilmenau : Techn. Univ., Diplomarbeit, 2010

Um an öffentlichen Plätzen Informationen wie z.B. Warnhinweise oder Zeitdurchsagen akustisch zu übermitteln, werden häufig Public Address (PA) Systeme verwendet. Situation und Umgebung können die Sprachverständlichkeit dieser Durchsagen für Passanten negativ beeinflussen. Gerade in Notfallsituationen gilt es dies zu vermeiden. Arbeiten auf diesem Gebiet haben bereits gezeigt, dass unter Verwendung von verschiedene Algorithmen die Verständlichkeit eines Sprachsignal verbessert werden kann. Ziel dieser Arbeit ist es herauszufinden, wie die Störparameter Rauschen, Bandbreitenbegrenzung und Nachhall die Wirkungsweise von fünf unterschiedlichen Algorithmen auf Sprachverständlichkeit beeinflussen. Als Messmethode wird der "Oldenburger Satztest" gewählt, mit welchem die 50% Sprachverständlichkeitsschwelle der Probanden evaluiert wird.



Ma, Chao;
Konzeption und Realisierung einer Video on Demand und Streaming Plattform. - 85 S. Ilmenau : Techn. Univ., Diplomarbeit, 2010

Um das Videosignal im Studio per Video on Demand und Livestream im Internet veröffentlichen zu können, muss eine Plattform konzipiert und gebaut werden, die das Videosignal konvertiert, die Videodateien in einem Videoarchiv aufzeichnet und die Videoinhalte in Echtzeit zur Broadcast überträgt. - Diese Arbeit stellt den Zugriff und die Aufnahme des Videosignals durch die Anwendung von DVS Videoboard unter Zuhilfenahme von DVS SDK und C++ vor und implementiert eine Streaming-Plattform durch die Entwicklung von Webserver, Datenbanken und Streaming-Server. In diesem Entwicklungsprojekt werden Java, ActionScript und SQL verwendet. Anschließend werden die Funktionen der Plattform bzw. das Video on Demand- und Streaming-Portal auf einer Webseite integriert.



Boegel, Martin;
Weiterentwicklung und Implementierung eines Gestenerkennungsverfahrens. - 69 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2010

Im Rahmen dieser Arbeit wurde ein Verfahren entwickelt, welches die Erweiterung einer Gestenerkennung auf dem Prinzip der Hautfarbendetektion ermöglicht. Durch eine Abwägung der Möglichkeiten zu Beginn wurde sich für die Verwendung eines Chain-Codes entschieden. In vielen Entwicklungsschritten wurde zuerst ein Algorithmus entwickelt, der effizient aus der Kontur eines Objektes einen Chain-Code erstellt. Der Algorithmus erfasst die Kontur, in dem er sich immer am Rand entlang arbeitet. Dabei wird das jeweilige Bezugssystem adaptiv zum vorhergehenden Pixel geändert. Das ermöglicht ein effektives Vorgehen des Algorithmus und verhindert das Wechseln von der Außen- in die Innenseite der Kontur, und somit mögliche Endlosschleifen. Die Richtungsänderung zwischen den einzelnen Pixeln wird jedoch nicht adaptiv gespeichert, um so in einer späteren Auswertung Informationen über die Lage der Hand im Raum ermitteln zu können. Nach dem die gesamte Kontur eines Objektes durch einen Chain-Code beschrieben wurde, erfolgt die Auswertung. In dieser wird sich zu Nutzen gemacht, dass die Finger einer Hand durch bestimmte Merkmale im Chain-Code zu detektieren sind. Es wurde ein weiterer Algorithmus entwickelt der diese Merkmale detektiert und daraufhin die Stellen im Chain-Code als Fingerkuppen markiert. Um wirklich alle Finger zu erkennen, erfolgt die Überprüfung des Chain-Codes in Blöcken die sich überlappen. Da es dadurch zu Mehrfachdetektionen kommt, und da auch Fingerzwischenräume als Fingerkuppen markiert werden, wurde ein weiterer Algorithmus entwickelt, der die detektierten Stellen auswertet. Der Algorithmus trennt die als Fingerkuppen markierten Stellen in Fingerkuppen, Fingerzwischenräume, Fehldetektionen und Daumen. Das Vorgehen beruht auf der Tatsache, dass sich die Zahlen der verschiedenen Optionen unterscheiden. Damit lässt sich aus der Anzahl der Stellen, deren Zahlen bestimmte Eigenschaften teilen, ermitteln ob es sich um einen Finger handelt oder nicht. Nach der Auswertung des Chain-Codes wird ausgegeben, wie viele Finger auf dem Bild zu sehen sind. Die Auswertung der Algorithmen zeigt, dass es möglich ist eine Geste mit einer Erkennungsrate von 90% zu detektieren. Bei einer anderen Messreihe lag die gesamte Erkennungsrate der Finger bei 74%. Es fällt auf, dass der Daumen sehr selten erkannt wird. Wenn man den Daumen daher an dieser Stelle nicht betrachtet, wird eine Erkennungsrate von 86% erreicht. Die Evaluierung der Algorithmen bringt die Erkenntnis, dass durch die richtige Anpassung der Parameter eine sichere Erkennung der Merkmale gewährleistet ist. Jedoch bedarf es in Zukunft noch einiger Verbesserungen, um die Auswertung des Chain-Codes praxistauglich zu gestalten. Dazu gehört die Möglichkeit zur flexiblen Anpassung der wichtigsten Parameter sowie eine verbesserte Funktion zum Erkennen von Fingerkuppen, vor allem im Bezug auf die Erkennung des Daumens. Abschließend lässt sich sagen, dass das entwickelte Verfahren eine gute Möglichkeit bietet, ein Gestenerkennungssystem , dass auf Hautfarbendetektion basiert, zu verbessern.



Wasserberg, Kristoffer;
Untersuchungen an Kantenabsorbern im dreidimensionalen Raum. - 116 S. Ilmenau : Techn. Univ., Diplomarbeit, 2010

Eines der wesentlichen Probleme in der Raumakustik ist die Absorption von tieffrequenter Schallenergie. Speziell in kleinen Räumen, in denen sich durch Überlagerung des Quellsignales mit den von den Raumbegrenzungsflächen reflektierten Schallwellen unterhalb der Schröderfrequenz ein modales Schallfeld bildet, das durch erhebliche ortsabhängige Schalldruckmaxima und -minima (stehende Wellen) geprägt ist, sind kontrollierte Bedingungen, wie sie beispielsweise in Tonstudios notwendig sind, nur durch den gezielten Einsatz von Absorbern möglich. In letzter Zeit wird der Einsatz von Kantenabsorbern, die aus porösen Materialien bestehen, immer populärer. Obwohl sie der Theorie nach ihre maximale Wirkung im Abstand von einer Viertel Wellenlänge vor der Wand erzielen sollten, also für die Absorption von tiefen Frequenzen große Schichtdicken bzw. entsprechend große Abstände vor der Wand notwendig sind, zeigen erste Untersuchungen, dass diese Absorber in Raumkanten einen wesentlich tieffrequenteren Wirkbereich aufweisen, als dies der Theorie nach zu erwarten wäre. Da für die Gründe dieser zunächst aus der Theorie nicht ersichtlichen Effekte bislang keine wissenschaftlichen Erklärungen vorliegen und nur wenig Messdaten verfügbar sind, wurden im Rahmen dieser Arbeit Messungen an Kantenabsorbern durchgeführt. Es wurde sowohl die Abhängigkeit von Materialeigenschaften als auch der Einfluss unterschiedlicher Positionierung und Ausrichtung im Raum untersucht.



Zhuo, Ying;
Entwicklung eines Verfahrens zur Ermittlung von Kameraparametern aus Videosequenzen. - 67 S. Ilmenau : Techn. Univ., Diplomarbeit, 2010

Um eine präzise und zuverlässige 3D-metrische Informationen aus 2D Bildern zu extrahieren um daraufhin 3D rekonstruieren zu können, muss im Allgemeinen eine Kalibrierung der verwendeten Kamera durchführt werden. Die Arbeit stellt theoretische und experimentelle Untersuchungen zur Kalibrierung auf Basis von Zhang's Methode vor und entwickelt ein automatisches Verfahren zur Selbstkalibrierung unter Zuhilfenahme der OpenCV-Bibliothek. Bei Zhang's Methode wurde schwarzweiss-übergänge Schachbrettmuster verwendet und ein Sequenzabschnitt von 10 Bildern ausgewertet. Auf Grundlage des Vergleiches der Ergebnisse der Camera Calibration Toolbox für Matlab und der OpenCV-Bibliothek kann die Stabilität der Ergebnisse bestätigt werden. Bei der Selbstkalibrierung werden natürliche Bilder verwendet, welche aus verschiedenen Positionen zeitnah nacheinander aufgenommen werden. Das resultierende Programm läuft vollautomatisch ab.



Hirzel, Felix;
Entwicklung eines interaktiven Musikinstrumentes für mobile Endgeräte. - 105 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2010

Die vorliegende Arbeit widmet sich der Entwicklung eines interaktiven Musikinstrumentes für mobile Endgeräte. Ziel ist es, eine bereits für den Computer existierende Technologie zur Erzeugung von Akkord-Folgen - das Fraunhofer HarmonyPad - auf einem mobilen Endgerät zu realisieren. Dabei sollen die charakteristische Eigenschaften des HarmonyPads übertragen und Lösungen gefunden werden, die den Voraussetzungen mobiler Endgeräte gerecht werden. Ausgehend von einer Kategorisierung mobiler Endgeräte wird das Smartphone als Zielsystem für die zu entwickelnde Anwendung gewählt. Neben der Darstellung dessen Hard- und Software-technischen Eigenschaften sowie der Erläuterung gängiger Betriebsysteme, wird ein Fokus auf die Bedienung von Smartphones gelegt. Ebenfalls werden bestehende Musikinstrumente für mobile Endgeräte beschrieben und die, für diese Arbeit wichtigen Eigenschaften des HamonyPads erläutert. Im Rahmen der Konzeption wird auf die vorgenommene Adaption der HarmonyPad-Technologie eingegangen. Hierzu wurden Parameter des HarmonyPads analysiert und die relevanten herausgearbeitet. Danach wurden verschiedene, alternative Bedienkonzepte entwickelt, analysiert und getestet. Hieraus ist das finale Konzept entstanden. Die nachfolgende Implementierung der konzipierten Applikation fand auf einem iPod touch statt, welcher im wesentlichen dem iPhone, gleicht. Den Abschluss bildete eine Evaluation, die in Form einer Feldstudie durchgeführt wurde. Mit ihr wurden Eigenschaften des entwickelten Musikinstrumentes sowie deren Einfluss auf den Anwender untersucht. Im Ergebnis konnte eine positive Resonanz bei den Testpersonen wahrgenommen und Erkenntnisse auf die Weiterentwicklung des vorgestellten Musikinstrumentes gewonnen werden. Somit ist gezeigt worden, dass das HarmonyPad auch auf einem mobilen Endgerät zu realisieren ist.



Maggi, Johannes;
Binaurale Wiedergabe über Lautsprecher in Stereoanordnung. - 64 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2010

Die meisten derzeitigen binauralen Wiedergabesysteme werden mit Kopfhörern realisiert, dabei können aber Phänomene wie eine Im-Kopf-Lokalisation und eine Vorne-Hinten-Vertauschung auftreten und der Entfernungseindruck kann verloren gehen. Im Rahmen dieser Arbeit wurde deshalb eine binaurale Wiedergabe über Lautsprecher in Stereoanordnung untersucht. Das Wiedergabesystem wurde als statisch angenommen, d.h. zusätzlich zur bekannten Stereoanordnung sind die Abhörposition und die horizontale und vertikale Ausrichtung Kopfes bekannt. Zusätzlich wurde die Wiedergabe nicht unter Freifeld- sondern unter Diffusfeldbedingungen durchgeführt, um sich von bisherigen Arbeiten zu diesem Thema abzugrenzen. Dabei kommt es zu Reflektionen des Schallfeldes an Boden, Decke und Wänden, die sich am Ohr zum Originalsignal hinzuaddieren. Bei einer normalen Stereowiedergabe kommt es zu einem Übersprechen vom linken Lautsprecher zum rechten Ohr und umgekehrt. Bei einer binauralen Wiedergabe sind Übersprechsignale nicht erwünscht, da sie einen räumlichen Höreindruck verhindern. Aus diesem Grund wurden für die Wiedergabe kopfbezogener Aufnahmen zwei Übersprechkompensationsverfahren realisiert und in das Wiedergabesystem implementiert. Zusätzlich zur Realisierung der beiden Übersprechkompensatoren wurden die Einflüsse des Mess- und Abhörraums kompensiert.



Neukam, Christian;
Kompensation nicht optimaler Stereoanordnungen für die Wiedergabe von stereophonen/binauralen Signalen. - 84 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2010

Der stereophone Höreindruck bei der Wiedergabe von Audiomaterial über zwei Lautsprecher begrenzt sich auf eine enge Zone. Außerhalb dieses Bereichs fällt die Illusion der künstlichen Stereobasisbreite in sich zusammen und die korrekte Lokalisation der Schallquellenphantome ist nicht mehr möglich. Derselbe Effekt tritt auf, wenn ein Lautsprecherpaar den Anforderungen einer Stereoanordnung nicht entspricht. Es ist daher notwendig, die Fehler, die aus einer nicht optimalen Stereoanordnung resultieren, zu untersuchen und darauf basierend ein Verfahren zur Kompensation dieser Fehler zu entwickeln. In dieser Arbeit wird ermittelt, welche Technologien geeignet sind, den so genannten "Sweet Spot" an die momentane Position des Hörers zu verschieben. Es zeigt sich, dass neben der einfachen Pegel- und Laufzeitkorrektur noch viele andere Faktoren eine wichtige Rolle spielen, darunter der Lautsprecherfrequenzgang und die Blickrichtung des Hörers. Um alle Einflüsse untersuchen und bewerten zu können, wird ein geeignetes Messverfahren gesucht und dieses kurz vorgestellt. Gerade die aus diesen Daten erzeugten Lautsprecherentzerrungsfilter sind ein oft unterschätzter Faktor für die Kompensation der Aufstellungsfehler. Daher setzt sich diese Arbeit intensiv mit der Generierung von FIR-Filtern zur Lautsprecherentzerrung auseinander. Der Kern des erstellten Systems zur Kompensation nicht optimaler Stereoanordnungen basiert auf einem zwei-dimensionalen Vektorraum. Die durchgeführten Simulationen bestätigen die aufgestellte Vermutung, dass die in diesem Vektorsystem eingebetteten Modelle zur Korrektur der auftretenden Fehler sich sowohl schnell als auch einfach berechnen lassen. Die Evaluation der gewonnenen Ergebnisse findet durch eine messtechnische Auswertung statt.



Sindran, Fadi;
Combine an auditory model with Hidden Markov Model Speech recognizer. - 75 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2010

Studien im Bereich der Spracherkennung zeigen, dass die Verwendung eines auditorischen Modells, das die Verarbeitung von Sprache im menschlichen Ohr simuliert, in verschiedenen Umgebungen mit Geräuschen die Erkennungsleistung und -stabilität verbessert. Eine Methode zur Klassifizierung der Vokale ohne die Verwendung von spektralen Informationen, sind die Merkmale, die aus den Hough-transformierten Cochlea Verzögerung Trajektorien (Hough-Transformed Cochlear Delay Trajectories, HCDTs) extrahiert werden, welche ich in meiner Arbeit präsentieren werde. - Es wird gezeigt, dass die Information im Zeitbereich von 3 ms liegt. Mit anderen Worten, die Delaytrajektorien haben eine aufeinanderfolgende Zeitfolge von ca. 3 ms. Die Hough-Transformation wird auf die Ausgangsdaten der Basilarmembran eines auditorischen Modells angewendet. Die praktische Vokalerkennung verschiedener Sprecher mit Hilfe dieser Transformation wird untersucht und die Ergebnisse werden diskutiert.



Hudarew, Benjamin;
Entwicklung eines Systems zur Berechnung und Visualisierung von Akkordübergängen. - 103 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2010

Das Ziel dieser Arbeit besteht darin, Vorschläge für Folgeakkorde auf der grafischen Oberfläche des HarmonyPads, zu visualisieren und damit bisher nicht oder nur schwer zugängliche Akkordübergänge bei intuitiver Bedienbarkeit zu ermöglichen. Das HarmonyPad stellt durch die Gestaltung von Benutzerschnittstelle und Tonraum ein digitales Musikinstrument dar, das sogar für Nutzer ohne musikalische Erfahrungen und Vorwissen leicht zugänglich ist. Dabei ermöglicht das bisher bestehende Konzept ein äußerst benutzerfreundliches Spiel der sogenannten Haupt- und Nebendreiklänge. Dies sind die elementaren Akkorde aller Tonarten des Zwölftonsystems. Durch diese Funktionalität sind bereits Akkorde und Akkordverbindungen spielbar, deren Beherrschung auf einem konventionellen Musikinstrument einen enormen Aufwand an Übung erfordert. Allerdings stellen die zum derzeitigen Stand der Technik auf dem HarmonyPad intuitiv umsetzbaren Akkorde eine gewisse Einschränkung dar. Besonders zur Gestaltung des harmonischen Verlaufs einer Komposition fehlen Möglichkeiten, diesen auch durch Spannung und Reiz abwechslungsreich zu prägen. In Bezug auf dieses Kriterium fallen die ansonsten vorteilhaften fast uneingeschränkten Kombinationsmöglichkeiten von Haupt- und Nebendreiklängen eher negativ ins Gewicht. Die auf dem HarmonyPad vorprogrammierte hauptsächliche Verwendung dieser Akkorde kann schnell zu einer gewissen harmonischen Monotonie führen. Der Schwerpunkt des in dieser Arbeit entwickelten Systems liegt daher auf Akkorden und Akkordübergängen, die dieser Problematik Abhilfe verschaffen. Solche Akkorde, speziell auch ihre angemessene Fortführung, sind jedoch aus musiktheoretischer Sicht nicht trivial, weshalb sie auch im bisherigen Konzept des HarmonyPads wenig Berücksichtigung fanden. Konkret werden dazu auf der grafischen Oberfläche Vorschläge für mögliche Folgeakkorde visualisiert, und gleichzeitig durch simples Auswählen spielbar gemacht. Das Ergebnis dieser Arbeit erweitert die Funktionalität des HarmonyPads in sofern, das sich für den Nutzer neue bedienerfreundliche Gestaltungsmöglichkeiten komplexer Akkordverbindungen eröffnen. Durch die intuitive Spielweise können vor allem Nutzer erreicht werden, die nur über wenig oder keine Erfahrung auf konventionellen Musikinstrumenten verfügen. Darüber hinaus soll das nun ermöglichte Spiel komplexerer Akkorde jedoch auch Musiker mit größerem Vorwissen faszinieren und zum Experimentieren anregen.



Hahlweg, Christoph;
Entwicklung eines Systems zur akustischen Positionsbestimmung der Position eines Schallobjekts. - 78 S. Ilmenau : Techn. Univ., Diplomarbeit, 2010

Die akustische Bestimmung der Position eines Schallobjektes ist für viele Anwendungen wichtig. Durch Ermittelung des Laufzeitunterschieds zwischen Mikrofonen kann die Einfallsrichtung einer Schallquelle geschätzt werden. Der Effekt des Cone of Confusion erlaubt aber keine genaue Lokalisation eines Schallobjektes. In dieser Arbeit wird aufgezeigt, wie durch die Kombination mehrerer Lokalisationskegel die Position eines Schallobjektes eindeutig bestimmt werden kann. Zudem werden Möglichkeiten zur Erhöhung der Genauigkeit der Positionsbestimmung getestet. Eine Untersuchung unterschiedlicher Gruppen an Lokalisationskegeln zeigt den Einfluss der Mikrofonanordnung auf die Messergebnisse auf. Neben der Untersuchung der gegebenen Mikrofonanordnungen wird auch auf die Möglichkeiten der Modifikation des Messsystems eingegangen.



Füg, Simone;
Untersuchung von Verfahren zur Bildsegmentierung mit Hilfe von Tiefeninformationen. - 107 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2010

Aufgrund der bekannten Problematiken bei Chroma-Keying (zum Beispiel Farbsäume und der Einfluss von Farbunterabtastung auf die Stanzmaske) sowie der starken Studioreglementierung ist es nötig, alternative Keying-Technologien für den Film und Fernsehbereich zu untersuchen. Ein Ansatz dazu ist die tiefenbasierte Bildsegmentierung, mit der es möglich ist, die Einschränkungen von farbbasierter Bildsegmentierung zu überwinden und in weitaus weniger eingeschränkten Szenen zu arbeiten. In dieser Arbeit wird ermittelt, welche Technologien geeignet sind, Tiefeninformationen zu generieren, die den Anforderungen für das Keying genügen und welche Darstellungs- und Speicherformen für Tiefeninformationen sich anbieten, sodass die Berechnung einer Stanzmaske einfach und effizient geschehen kann. Zudem wird untersucht, inwiefern es möglich ist, Tiefeninformationen in geringerer Auflösung als das Videosignal zu generieren und diese dann zu interpolieren, um Zeit bei der Erzeugung zu sparen. Es erfolgt dazu ein Vergleich der Verfahren und Speicherformate hinsichtlich bestimmter Kriterien sowie die Entwicklung einer Simulation anhand Bildmaterials aus künstlichen 3D-Szenen. Geeignete Generierungsverfahren sind die Stereo-Rekonstruktion, Lichtlaufzeitverfahren, Depth from Defocus und Lichtmusterprojektion. Als Speicherformat bietet sich die Tiefenkarte an, beachtet werden muss aber, dass erweiterte, in ihrer Erzeugung aufwändige Formate einen gewissen Mehrwert bieten. Bei Toleranz einer gewissen Fehlerquote an den Objektkanten ist es möglich, Tiefeninformationen oder Stanzmasken zu interpolieren. Über einfache Kantenkorrekturalgorithmen kann zudem die Fehlerquote noch einmal reduziert werden. Das Verfahren der tiefenbasierten Bildsegmentierung umgeht also die Probleme der farbbasierten Bildsegmentierung und bietet sich bei geeigneter technischer Realisierung als Alternative für die farbbasierte Bildsegmentierung an.



Burkard, Armin;
Plug-in Entwicklung für eine Echtzeitgrafik-/virtuelle Studio Anwendung. - 38 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2010

Durch den Einsatz von Computern zur Erzeugung von Fernsehgrafiken ergaben sich viele neue Möglichkeiten. Inzwischen sind Computer aus der Fernsehgrafikproduktion nicht mehr wegzudenken. Bauchbinden und virtuelle Aufsteller werden im Produktionsalltag von Sendeanstalten wieder und wieder erstellt. Durch Automatisierung können hier Ressourcen eingespart aber vor allem die Fehlerrate gesenkt und damit die Qualität erhöht werden. Diese Automatisierung kann durch ein Geometrie Plug-in erfolgen, das durch Kombination mehrerer einfacher Geometrien eine komplexe Form erzeugt. Durch einstellbare Parameter kann die Form der Geometrie verändert und damit für verschiedene Zwecke eingesetzt werden. In dieser Arbeit wurde ein solches Plug-in erstellt. Der komplette Produktionsprozess und die benötigten Grundlagen wurden beschrieben. Im Anhang befindet sich ein Tutorial zur Unterstützung bei der Erstellung solcher Plug-ins.



Schneider, Philipp;
Konzeption, Modifikation und Integration einer LED Beleuchtungsquelle zur Beurteilung optischer Parameter von Kamerasystemen. - 127 S. Ilmenau : Techn. Univ., Diplomarbeit, 2010

Ziel dieser Arbeit ist die Untersuchung der Einsatzmöglichkeit von LEDs als Messinstrument zur Beurteilung optischer Parameter von Kamerasystemen. In diesem Zusammenhang werden zunächst grundlegende Testsituationen näher erläutert und eine Einführung in Auswertungen und Speicherung von Bilddaten digitaler Kameras gegeben. Für eine Systemneuentwicklung werden Grundlagen von Leuchtmitteln und derzeitigen Beleuchtungssystemen dargelegt. Der Fokus liegt auf der Konzeption und Umsetzung eines neuen Beleuchtungssystems. Hierzu wurden eigens entwickelte Ansteuerungsroutinen geschrieben, Lichtsimulationen und photo- sowie farbmetrische Messungen durchgeführt. Probleme von derzeitigen Systemen und Schwierigkeiten bei der Entwicklung des eigenen Konzepts sowie die Notwendigkeit von genauen Referenzlichtquellen werden deutlich. Die im Rahmen dieser Arbeit vorgestellte Ulbricht-Kugel mit LEO-LED-Beleuchtung ermöglicht eine Erweiterung bestehender Testverfahren und somit eine umfassendere Einschätzung der Bildgüte von Digitalkameras.



Harnisch, Susanne;
Konzeption und Realisierung einer Softwarelösung für die zentrale Überwachung von Fernsehproduktionssystemen. - 211 S. Ilmenau : Techn. Univ., Diplomarbeit, 2010

Die Überwachung von Broadcast-Technik ist unerlässlich, um einen störungsfreien Produktions- und Sendeablauf in Fernsehsendern zu gewährleisten. Der fortschreitende Umstieg auf vernetzte Produktion ermöglicht übergreifende Managementlösungen, die jedoch meist mit erhöhtem Kostenaufwand verbunden sind. Ob eine vergleichbare Überwachung der Broadcast-Technik auch mit Hilfe kostengünstigerer Alternativen möglich ist, sollte mit dieser Arbeit ermittelt werden. Ansatzpunkt waren Open Source Lösungen aus dem IT-Bereich, die in Bezug auf einen Einsatz im Broadcast-Umfeld untersucht werden sollten. Es zeigte sich, dass eine mit proprietären Systemen vergleichbare Überwachung mit einer angepassten Variante der Open Source Lösung Zenoss zu erreichen ist. Hierbei muss jedoch ein erhöhter Implementierungs- und Wartungsaufwand eingeplant werden, wie bei der Implementierung eines entsprechenden Managementsystem in der Sendeabwicklung des Norddeutschen Rundfunks deutlich wurde. Da auf längere Sicht eine steigende Nachfrage nach umfangreichen Überwachungslösungen wahrscheinlich ist, wird auch in Hinblick auf sinkende Budgets eine zunehmende Nutzung von Open Source Lösungen als Alternative erwartet.



Marquardt, Daniel;
Signalsegmentierung für die automatische Spracherkennung. - 75 S. Ilmenau : Techn. Univ., Diplomarbeit, 2010

Spracherkennung im Kraftfahrzeug ermöglicht den Fahrzeuginsassen eine komfortable Bedienung verschiedener Komponenten wie etwa des Mobiltelefons, der Audioanlage oder des Navigationssystems. Vor der eigentlichen Spracherkennung wird das aufgenommene Mikrofonsignal zunächst auf Sprachaktivität überprüft. Durch eine Sprachsegmentierung werden dabei nur Signalausschnitte, die Sprachanteile enthalten, dem Spracherkenner zugeführt. Störsignale beeinträchtigen dabei die Segmentierung. In dieser Arbeit wird, basierend auf einer statistischen Mustererkennung, eine Methode zur Sprachaktivitätserkennung entwickelt und in C implementiert. Ein Modell-basierter, eines Cepstral-Distance-basierter sowie ein SNR-basierter Ansatz zur Erkennung von Sprachsignalen in stationären Rauschumgebungen werden vorgestellt und miteinander verglichen. Durch eine Detektion der harmonischen Struktur von Sprache, wird ein Sprachsignal von einem instationären Störsignale abgegrenzt. Die Methoden wurde unter verschiedenen Randbedingungen getestet und weisen ein gutes Segmentierungsergebnis, auch in stark gestörten Umgebungen, auf.



Ley, Sebastian;
Entwicklung eines Verfahrens zur Verbesserung des Richtungshörens in digitalen Hörsystemen. - 99 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2010

Die Lokalisation von Schallquellen in Hörgeräteanwendungen ermöglicht es dem Hörgerätenutzer Schallereignisse aus verschiedenen Richtungen wahrnehmen zu können. Somit wird eine Verbesserung des Richtungshörens erzielt. Mit Hilfe der binauralen Signalverarbeitung zwischen linkem und rechtem Hörsystem kann durch die Auswertung des Laufzeitunterschiedes die Einfallsrichtung (DOA- Direction of Arrival) geschätzt werden. Dabei müssen die durch den Kopf entstehenden Beugungen und Reflexionen Berücksichtigung finden. In diesem Zusammenhang werden innerhalb dieser Arbeit mehrere Verfahren zur Schallquellenlokalisation vergleichend gegenübergestellt. Es wird gezeigt, dass mit Hilfe eines Kopfmodells die Einflüsse des Kopfes kompensiert werden können. Durch die reine Laufzeitauswertung zwischen linkem und rechtem Signal kann jedoch nicht unterschieden werden, ob sich eine Schallquelle vor oder hinter dem Hörgeräteträger befindet. Für die Bestimmung der korrekten Halbebene wird durch die Erzeugung einer Richtcharakteristik am jeweiligen Hörsystem ein Lösungsansatz vorgestellt. Neben dem Vergleich der Verfahren auf Grundlage von Simulationen, werden die verschiedenen Algorithmen und die eingeführten Modelle anhand praktischer Messungen verifiziert.



Hollosi, Danilo;
Expressive musical features and its efficient extraction from HE-AAC compressed domain. - 186 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2010

In dieser Diplomarbeit wird die Möglichkeit von Music Information Retrieval auf Basis von HE-AAC kodiertem Audiomaterial in der komprimierten Ebene und der Transformationsebene untersucht. Die zugrunde liegenden Applikationen sind dabei automatische Genre and Emotionsklassifizierung. Zu Beginn wird eine Bestandsaufnahme musikalischer Merkmale aus der komprimierten Ebene und Transformationsebene durchgeführt und im Anschluss deren Eignung für das HE-AAC Audiokodierverfahren untersucht. Dazu wird ein Verfahren vorgeschlagen das es ermöglicht Aussagen über die Qualität musikalischer Merkmale für automatische Genre- und Emotionsklassifizierung zu treffen ohne eigentliche Klassifizierungsberechnungen vorzunehmen. Dies reduziert den Aufwand zur Merkmalsbewertung und Evaluierung geeigneter Merkmalssätze unter verschiedenen Gesichtspunkten erheblich da auf iterative Verfahren zur Datengewinnung verzichtet werden kann. Die Bestandsaufnahme und Bewertung wird durch neue, an die auditive Wahrnehmung des Menschen anpasste, musikalische Merkmale niedriger Komplexität ergänzt, welche aus zeitlicher Modulationsanalyse von Mel-Frequenz skalierten Spektren hervorgegangen sind. Unter Berücksichtigung dieser neuen Merkmale und dem Fakt das Musiktempo die einfachste und eine der wichtigsten semantischen Informationen im Zusammenhang mit Musik ist wird des Weiteren ein komplexitätsskalierbares Temposchätzverfahren mit wahrnehmungsbasierter Tempokorrektur vorgeschlagen. Das Verfahren kann in Verbindung mit unkomprimierten PCM-Daten (PCMD), MDCT Koeffizienten aus der Transformationsebene (TD) des HE-AAC/AAC Audiokodierverfahrens und mit parametrischen Seiteninformation aus der komprimierten Ebene (CD) direkt auf den HE-AAC Bitstream angewendet werden. Es wird gezeigt dass das Verfahren robust gegenüber Bitratenveränderungen ist und kommerzielle Temposchätzverfahren in Genauigkeit übertrifft. Aufbauend auf den Erkenntnissen aus den Qualitätsbetrachtungen aller hier betrachteten und neuen musikalischen Merkmale werden im Anschluss Merkmalssätze generiert die zur Genre und Emotionsklassifizierung herangezogen werden. In Kombination mit hierarchisch strukturierten GMM Klassifizierern werden damit Genauigkeiten von 88% für die Klassifikation von vier Genres und 62% für die Klassifizierung von vier Emotionen erreicht. Die Ergebnisse zeigen das Music Information Retrieval direkt auf Basis von komprimierten Audiodaten, im speziellen HE-AAC, möglich ist.



Klink, Paul Nikolaus;
Erweiterung des Raumsimulationsprogramms Staccato2 hinsichtlich gerichteter Schallquellen. - 52 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Die Zielsetzung dieser Arbeit, die Erweiterung des akustischen Raum- simulationsprogramms αStaccato 2± um gerichtete Schallquellen, wurde erfüllt. - Mit dem erweiterten, neuen Programm ist es möglich, die Richtcharakteristik einer Quelle vorzugeben. Die Form der Abstrahlcharakteristik kann auf zwei verschiedenen Wegen ausgewählt werden: Entweder wird das Modell einer beliebigen Richtcharakteristik importiert oder das im Programm hinterlegte Modell einer αidealen Niere± genutzt. Die Annahme, dass es für die Simulation gerichteter Schallquellen genügt, die Eingangsparameter zu verändern, konnte bestätigt werden. Auch die dreidimensionale Vermessung eines Lautsprechers konnte erfolgreich durchgeführt werden. Dabei ist es gelungen, die Richtcharakteristik des Studiolautsprechers 1030A der Firma Genelec ohne die Gegebenheiten eines reflexionsarmen Raumes zu vermessen. Die Evaluationsmessungen blieben aus technischen Gründen ergebnislos. Die Validierung erfolgte daher anhand der Simulationsergebnisse.



Bube, Sebastian;
Auralisation von Ergebnissen der akustischen Raumsimulation. - 62 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

In der Raumakustik gibt es die Möglichkeit, durch mathematische Modellierung die akustischen Eigenschaften von Räumen darzustellen. Im Fachgebiet Audiovisuelle Technik wurde die Software Staccato2 entwickelt, welche durch Kombination aus Spiegelquellenverfahren und Strahlenverfolgungsverfahren (Raytracing) eine Raumimpulsantwort (Echogramm) aus den geometrischen und materiellen Daten für einen Raum erstellt. - Das Ziel der Diplomarbeit ist die Erweiterung dieser Software um den Baustein der Auralisation, der Simulation eines akustischen Signals in einem modellierten Raum. Dies ermöglicht das Hörbarmachen der akustischen Eigenschaften eines Raumes, z.B. zur Optimierung der Positionen von Schallquellen oder einer gezielten Anpassung eines Audiosignals an die Raumeigenschaften durch Verstärkung oder Dämpfung einzelner Frequenzen, d.h. einer Kompensation negativer akustischer Raumeigenschaften. Diese Simulation soll mittels Faltung der mit Staccato2 erstellten Raumimpulsantwort mit einem beliebigen Audiosignal realisiert werden. - Das zu entwickelnde System soll auch eine Faltung mit mehreren Impulsantworten ermöglichen, um die zukünftige Umsetzung einer binauralen Auralisation zur Verfeinerung der akustischen Raumsimulation, d.h. zur Steigerung deren Leistungsfähigkeit und Qualität, zu überprüfen.



Oeckler, Tobias;
Untersuchungen zur Wiedergabe von räumlichen Klangszenen in variablen Audiowiedergabesystemen. - 135 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2009

Das Ziel akustisch räumlicher Wiedergabe ist vielseitig umsetzbar. Einerseits ist dies mithilfe variabler Audiowiedergabesysteme realisierbar, wobei die Anzahl der eingesetzten Lautsprecher als auch die Art der ansteuernden Signale variiert. Der Hörer wird in diesen Fällen auf eine bestimmte ideale Abhörposition beschränkt. Es wird zudem lediglich eine akustische Abbildung in selbiger Entfernung der Lautsprecher erreicht. Ein anderer Ansatz ermöglicht die Synthese eines realen Wellenfelds in guter Näherung. Die sogenannte Wellenfeldsynthese verarbeitet dazu räumliche Szenenbeschreibungen, in denen lediglich Position und Art der Schallquellen in der räumlichen Szenerie angegeben sind. Die Wellenfronten werden dabei entsprechend der Quellpositionen synthetisiert. Im Rahmen dieser Arbeit wird der Versuch unternommen, variable Audiowiedergabesysteme zur Verarbeitung derartiger Szenenbeschreibungen zu adaptieren. Die dementsprechend erarbeitete Methodik wird in MATLAB simuliert. Zum Zweck einer objektiven Beurteilung werden binaurale Merkmale modelliert. Die Ergebnisse der Testreihen werden dargestellt und diskutiert. Dabei kann gezeigt werden, dass die hier eingesetzten Adaptionsmethoden bei einigen Systemen durchaus Verbesserungen der räumlichen Wiedergabe erreichen.



Sand, Fabian; van de
Auswertung raumakustischer Parameter in Schulen. - 115 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Mittelpunkt dieser Arbeit bildet die Auswertung raumakustischer Parameter in Schulen. Anhand dieser gewonnenen Daten und einer Umfrage unter den Lehrern und Lehrerinnen der Schulen soll ein Zusammenhang zwischen schlechter Raumakustik und den physischen und psychischen Auswirkungen auf die Schüler, sowie die physischen Auswirkungen auf das Lehrpersonal untersucht werden. Neben diesen Untersuchungen soll auch ermittelt werden, ob die Vorgaben der DIN 18041 ausreichend und sinnvoll sind, um in Schulen eine förderliche Akustik zu erhalten. Die Frage geht dabei in die Richtung, ob die Richtwerte und Auswahl der verwendeten Parameter sinnvoll festgelegt sind und ob weitere Parameter mit einbezogen werden sollen. Die Diskussion um die Bedeutung des 125 Hz Bereichs ist dabei ebenfalls Bestandteil der Untersuchung.



Wang, Xiao;
Entwicklung eines Instrumentariums zur Bewertung der Usability von Hardware. - 110 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Die Diplomarbeit beinhaltet die Entwicklung eines Instrumentariums, das die Evaluation der Usability von Hardware für Designer, Ingenieuere, ergonomische Experten, Usability-Experten und Interessierte ermöglicht und vereinfacht. Vorgabe war, dieses Instrumentarium mit Hilfe eines Datenbanksystems aufzubauen. - Um ein effektives Instrumentarium zu erstellen, wird im Entwicklungsprozess ein Usability-Engineering Lifecycle eingesetzt. Die Inhalte werden zuerst durch Sammlung und Klassifizierung der Richtlinien vorbereitet und in eine Datenbank eingebunden. Nachdem eine Recherche über die Zielgruppen und Aufgaben durchgeführt wird, werden Nutzerprofile und Aufgaben erstellt. Diese Ergebnisse fließen in die Gestaltung der Benutzeroberfläche ein. Um einen reibungslosen Arbeitsablauf zu gewährleisten, werden die Eigenschaften der Plattform der Software und der Hardware angesehen. Gleichzeitig werden die allgemeinen Gestaltungsrichtlinien bezüglich der Webanwendung aufgezeigt. Ausgehend von diesen Vorbereitungen wird ein Konzept entworfen und mittels bestimmter Software mit verschiedenen Programmiersprachen entwickelt. Sobald der aus dem Konzept entwickelte Prototyp bereit steht, wird eine Reihe von Usability-Tests durchgeführt. Mit Hilfe der aus diesen Tests erhalteten Informationen erfolgt ein Redesign.



Fricke, Julius Tobias;
Untersuchung von Quellenlokalisationsverfahren unter Nutzung von Schnelle- und Druckempfängern. - 86 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Die in dieser Diplomarbeit vorgestellte Lokalisationsmethode nutzt dreidimensionale Schnellesonden ('acoustic vector sensor' - AVS) der Firma Microflown Technologies. Dadurch kann die richtungsbezogene Schallschnelle zur Quellenlokalisation ausgewertet werden. Als Lokalisationsalgorithmus wird die Multiple Signal Classification (MUSIC) verwendet. MUSIC trennt mit einer Hauptkomponentenanalyse die Signalkomponenten ('Signal Subspace') von den Rauschkomponenten ('Noise Subspace'). Es werden die Rauschkomponenten verwendet, die dann den theoretisch möglichen Einfallsrichtungen ('direction of arrival' DOA) zugeordnet werden. Die Rauschkomponenten werden in Richtung der Quellen vom Quellsignal verdeckt und liefern dadurch mit ihrem Kehrwet einen scharfen Peak in Richtung der Quellen. In dieser Arbeit wurden die qualitativen Unterschiede zwischen Druckarrays und AVS-Arrays zur Quellenlokalisation messbar gemacht. Als Maß der Verbesserung dienten dabei die Genauigkeit und die Auflösung des Lokalisationsergebnisses. Die Genauigkeit beschreibt die Korrektheit der ermittelten Richtung und die Auflösung wie gut sich das Ergebnis von der Umgebung abhebt. Die Vergleichsmessungen zeigten eine Verbesserung des AVS-Arrays gegenüber dem Druckarray in Genauigkeit und Auflösung. Zusammenfassend ist festzuhalten, dass mit dem AVS-Array in Kombination mit einer Richtungskalibrierung ein funktionierendes Lokalisationssystem zur Verfügung steht. Für die Zukunft ist die Erprobung weiterer Lokalisationsalgorithmen mit AVS-Array zu empfehlen.



Ruf, Daniel;
Erweiterung einer Geräuschdatenbank und Entwurf eines effizienten und transparenten Mustererkennungsverfahrens zur Messdatenanalyse. - 85 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

In dieser Arbeit wurde die Klassifizierbarkeit von Fahrzeuginnenraumgeräuschen untersucht. Dazu wurden im ersten Schritt Akustikmessungen geplant und im Fahrbetrieb mit einem Volkswagen durchgeführt. Diese Messungen hatten das Ziel, verschiedene Fahrzeuginnenraumgeräusche mittels akustischer Messtechnik zu erfassen. Im zweiten Teil der Arbeit wurden Mustererkennungsverfahren auf Basis der Fuzzy-Logik und dem Satz von Bayes umgesetzt, durch welche die gemessenen Geräusche anhand geeigneter Merkmale klassifiziert wurden.



Büttner, Michael;
Charakterisierung vokaler Anteile in Musik. - 105 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2009

Diese Diplomarbeit befasst sich mit der automatischen Klassifikation vokaler Anteile in Musikstücken. In den Genres Metal und Urban treten mehrere Arten von Gesangsstilen bei ähnlicher Begleitmusik auf. Deshalb wird für diese Genres ein nach vokalem Anteil annotierter Trainings- und Testdatensatz erstellt, um die Ergebnisse der Klassifikation evaluieren zu können und eine Unabhängigkeit von der Begleitmusik zu schaffen. - Es wurden verschiedene Merkmale eingebunden und implementiert, die für diese Aufgabe in Frage kommen. Neben typischen Merkmalen aus Zeit- und Frequenzbereich werden auf Basis von Klassifikationswahrscheinlichkeiten sogenannte Likelihood-Merkmale extrahiert, um bestimmte Gesangscharakteristiken besser beschreiben zu können. Die Auswirkungen durch die Einbindung dieser neuartigen Merkmale in das System werden evaluiert. Als Klassifikator wird ein Gauß'sches Mixtur Modell (GMM) benutzt. - Als Gütemaße der Klassifikationen verschiedener Experimente werden Precision, Recall und F-Measure berechnet sowie die Häufigkeit detektierter Klassen in Konfusionsmatrizen dargestellt.



Münstermann, Tim;
Konzeption und Umsetzung eines GPU-basierten Produktionsmischers. - 88 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Grafikprozessoren oder GPUs sind auf jeder Consumergrafikkarte zu finden und leisten normalerweise Berechnungen für die Ausgabe von 3D-Bildern auf dem Monitor. GPUs sind aber auch sehr leistungsstarke Parallelprozessoren und werden daher immer öfter auch für andere Anwendungen verwendet, welche große Mengen an Daten zu verarbeiten haben. Das macht die Benutzung der GPU für Anwendungen der Videoverarbeitung interessant. In dieser Arbeit wird ein Konzept und eine mögliche Umsetzung vorgestellt, um einen Produktionsmischer mit Grafikprozessoren zu realisieren. - Dazu wurden generelle Konzepte und Designs von Videomischern untersucht und die Arbeitsweise von Grafikkarten als auch die Programmierung dieser dargestellt. Die Konzeption und Implementierung geht detailliert auf die Ein- und Ausgabe von SDI-Signalen mittels Videokarten der Firma DVS ein und beschreibt die Verarbeitung von Bildsignalen durch NVIDIA CUDA. Anschließend wurde das entwickelte System zur Bestimmung von Verzögerungszeiten an essentiellen Punkten der Verarbeitungskette ausgemessen und die Untersuchungsergebnisse dargestellt und analysiert.



Döpping, Christian;
Untersuchungen zur Auralisation von Arraymessungen unter Berücksichtigung realer Messbedingungen. - 102 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2009

Um akustische Wellenfelder in Bezug auf ihre räumliche Zusammensetzung hin untersuchen zu können, werden Raumimpulsantworten heutzutage über eine ganze Reihe von Mikrofonpositionen gemessen. Die Qualität der dafür verwendeten Mikrofonarraytechnologie ist dabei eingeschränkt durch die begrenzte räumliche Auflösung und Ungenauigkeiten während der Messung. Diese Diplomarbeit behandelt die Untersuchung von Kreisarraysystemen bezogen auf ihre Eignung für die Anwendung im Realfall. Aus einer Kreisarraymessung können mehrere virtuelle Mikrofone mit unterschiedlicher Richtcharakteristik und Positionierung im aufgenommenen Schallfeld erzeugt werden. In diesem Zusammenhang werden die einzelnen Schritte der Arraysignalverarbeitung vorgestellt und analysiert. Darauf aufbauend werden die möglichen auftretenden Fehler diskutiert. Um die Qualität der Auralisation einer mit dem Kreisarray gemessenen raumakustischen Umgebung bewerten zu können, steht anschließend der Vergleich von ausgewählten virtuellen Mikrofonsetups mit den dazu äquivalenten realen Mikrofonsetups im Mittelpunkt. Ausgehend von der Simulation der Arraysignalverarbeitung, unter Berücksichtigung idealer und realer Messbedingungen mittels eines einfachen raumakustischen Modells, werden die Auswirkungen der charakteristischen Eigenschaften von Kreisarrays auf die Auralisation in einem vergleichenden Hörtest analysiert. Die Erstellung, Verarbeitung und Analyse der Simulationsmodelle erfolgt in MATLAB.



Klewitz, Kristian;
Personalisiertes Fernsehen: Entwicklung eines metadatengestützten Ansatzes zur Erstellung personalisierter Fernsehempfehlungen. - 93 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Diese Diplomarbeit beinhaltet eine wissenschaftliche Analyse der Möglichkeiten und Potentiale von Empfehlungssystemen für Fernsehprogramme. In diesem Zusammenhang wurden Begriffsdefinitionen eingeführt, um die vergänglichen Fernsehinhalte für Empfehlungssysteme greifbar zu machen. Die Grundlage der Untersuchung bildet ein konzipiertes System, welches auf der Basis des Nutzerverhaltens zukünftige Inhalte vorschlägt. Dabei wurde auf Metadaten zurückgegriffen, welche die Programme genauer beschreiben. Hierbei wurde untersucht inwiefern Service Informationen aus dem DVB-Transportstrom als Datengrundlage dienen können. Die Ergebnisse zeigen, dass die Quantität und Qualität der derzeit gelieferten Informationen nicht als Grundlage für Empfehlungssysteme genügen. Weiterhin konnte durch Verwendung von Verlagsdaten gezeigt werden, dass ein metadatengestüzter Ansatz genügt, um nutzerspezifische Programmempfehlungen bereitzustellen.



Ueberschaer, Andreas;
Creative LED - Licht der neuen Generation : Grundlagen der LED-Technologie sowie deren Applikationsfelder im Unterschied zu herkömmlichen Beleuchtungstechniken im Entertainmentbereich. - 142 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Diese Diplomarbeit beinhaltet eine wissenschaftliche Analyse der Eigenschaften und Potentiale von Creative LED Systemen. In diesem Zusammenhang wurden Begriffsdefinitionen eingeführt, um die LED Technologie im Bereich der Entertainmentbeleuchtung eindeutig abzugrenzen. Die Grundlage der Untersuchung bildet ein konzipiertes Testverfahren für Creative LED Systeme, das drei unterschiedliche Kategorien an Qualitätskriterien definiert. Zusätzlich wird die Problematik von Messungen an LED Modulen und die Notwendigkeit einheitlicher Messverfahren verdeutlicht. Die praktische Umsetzung der Testkonzeption fokusiert sich auf die Erhebung photo- und farbmetrischer Parameter. Die Messreihen wurden unter Labor- und Feldbedingungen durchgeführt, wobei für die Feldmessung eine eigens konstruierte Messkammer verwendet wurde. Die Ergebnisse zeigen, dass Abstrahlcharakteristik und spektrale Eigenschaften der LED Module sowohl durch die LED Anordnung als auch die Beschaffenheit der Moduloberfläche beeinflusst werden. Weiterhin konnte gezeigt werden, dass die wesentlichen objektiven Qualitätskriterien eines Creative LED Systems mit einem vereinfachten Messverfahren unter Feldbedingungen erhoben werden können.



Lehmann, Sven;
Untersuchung von Technologien zur Videoprojektion für den Einsatz im professionellen Fernsehstudio. - 95 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Diese Diplomarbeit stellt Technologien für die Bilderzeugung in unterschiedlichen Hochleistungs-Videoprojektoren vor. Die damit verbundenen Vorteile, Nachteile sowie technische Probleme werden ausführlich und im Bezug auf die Ansprüche in einem professionellen Fernsehstudio dargestellt. Die Projektorarten werden theoretisch und messtechnisch miteinander verglichen. Aus diesen Ergebnissen werden Rückschlüsse auf den Einsatz im Studio gezogen. Als Resultat wird eine Empfehlung für die sinnvollste Technologie, im Bezug auf den Studiogebrauch, gegeben.



Matheja, Timo;
Geräuschreduktion für Freisprecheinrichtungen mit mehreren Mikrofonen. - 118 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

In dieser Diplomarbeit wird die Verbesserung der Sprachqualität für Freisprecheinrichtungen durch eine Geräuschreduktion auf Basis mehrerer im Kraftfahrzeug verteilter Mikrofone untersucht. Bisher werden solche verteilten Mikrofonsysteme im Kraftfahrzeuginnenraum einer einkanaligen Verarbeitung unterzogen, bevor sie schließlich durch einen Mischer kombiniert werden. - Innerhalb der vorliegenden Arbeit sollen die verfügbaren zwei Mikrofone des mehrkanaligen Systems gemeinsam betrachtet werden. Es wird ein Verfahren entwickelt, das einen Überschätzfaktor bei der Filterung zur Geräuschreduktion auf Basis einer vorangehenden Sprachdetektion und Sprecherlokalisation steuert. Das Mikrofonsignal in dem lokalisierten Nutzkanal wird durch die aus beiden Kanälen gewonnenen Informationen optimiert. - Um eine Sprachdetektion und Sprecherlokalisation zu ermöglichen, werden Merkmale wie Signal-zu-Rauschleistungsverhältnis (SNR), Kohärenz oder Sprachgrundfrequenz für die Sprachdetektion und verallgemeinerte Kreuzkorrelation und SNR-Differenz für die Sprecherlokalisation extrahiert. - Speziell für das mehrkanalige Merkmal Kohärenz werden verschiedene Optimierungen entwickelt, durch die eine robustere Sprachdetektion im Gegensatz zu standardmäßigen Kohärenzschätzverfahren ermöglicht wird. Diese Optimierungen werden vergleichend gegenübergestellt und ihre Anwendung bestätigt. - Es kann schließlich gezeigt werden, dass durch die Kombination der Merkmale der Sprachdetektion und lokalisation eine robuste Sprach- und Stördetektion vorgenommen werden kann. Die darauf basierende Steuerung des Überschätzfaktors bei der Wiener-Filterung stellt das entwickelte modifizierte Verfahren zur Geräuschreduktion dar. Auch instationäre Geräusche lassen sich durch dieses dämpfen, wobei Sprachabschnitte hingegen nahezu unbeeinträchtigt bleiben. Außerdem können Störgeräusche und Störsprecher aus anderen Richtungen als der Nutzrichtung verstärkt unterdrückt werden. - Innerhalb dieser Arbeit wird das Verfahren zunächst in Matlab entwickelt und analysiert, bevor durch die Implementierung in eine vorhandene Echtzeitumgebung eine echtzeitfähige Umsetzung erfolgt. Auch hier lassen sich die in Matlab gewonnenen Ergebnisse bestätigen.



Schade, Sebastian;
Empirische Bewertung der aktiven Lichtfunktionen "blendfreies Fernlicht" und "markierendes Licht" anhand des Gütemerkmals. - 108 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Die vorliegende Arbeit beinhaltet eine Untersuchung zur Empfehlung von Mindestlichtstärken für DMD-basierte aktive Scheinwerfersysteme. Sie beinhaltet weiter einen Vergleich der damit verbundenen Lichtfunktionen "blendfreies Fernlicht" und "markierendes Licht" anhand des Gütemerkmals Objekterkennung. Zusätzlich wurde im Rahmen der Untersuchung der Ansatz einer pulsierenden Objektmarkierung im Falle des "markierenden Lichts" mit einbezogen. Die Grundlage der Empfehlung bilden im Rahmen eines Feldversuches ermittelte Perzentile der Objektdetektion. Dieser Versuch wurde auf einer unbeleuchteten, ebenen und langen Fahrbahn statisch durchgeführt. Vorausfahrender und entgegenkommender Verkehr wurden nachgebildet. Die Aufgabe der Probanden bestand in der Erkennung verschiedener Objekte. Sowohl die explorative Datenanalyse wie auch die inferenzstatistischen Auswertungen ergaben keine hohen Effektstärken des Einflusses einer Variation der Lichtfunktion oder einer Änderung der Blinkfrequenzen im Falle der Lichtfunktion "markierendes Licht". Die so gewonnenen Schwellenkontraste wurden zudem mit den theoretischen Ansätzen von Adrian und Kokoschka zur Berechnung des Schwellenkontrastes verglichen. Es stellte sich heraus, dass sich die theoretischen Berechnungen nach Adrian und Kokoschka im Rahmen des Versuches nicht zur Berechnung der realen Schwellenkontraste im Feld eigneten.



Altmann, Christian;
Bereitstellung von Geometriedaten für ein bestehendes Programm zur akustischen Raumsimulation. - 171 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Um Räume akustisch an die menschlichen Bedürfnisse anzupassen mussten früher aufwändige Messungen in den realen Räumlichkeiten oder anhand von maßstabsgetreuen Modellen vorgenommen werden. Heutzutage können solche akustischen Messungen simuliert werden. Ein Programm zur akustischen Simulation ist Staccato2. Ziel dieser Diplomarbeit war es, die Eingabe der Geometriedaten für das Programm Staccato2 hinsichtlich Effizienz und Benutzerfreundlichkeit zu verbessern. - Hierfür wurde im Rahmen dieser Diplomarbeit das Programm Maya2Staccato entwickelt. Dieses Programm kann Geometriedaten aus der 3D-Modellierungs- und Animationssoftware Maya 8.5 auslesen und in das Staccato2-konforme .rmd-Format umwandeln. - Der Nutzer kann somit alle Werkzeuge, die Maya ihm bietet, nutzen, um die realen Räume nachzumodellieren. Es können dadurch ohne größeren Zeitaufwand detailliertere Modelle entstehen. Dieser höhere Detailgrad wirkt sich auch positiv auf die anschließende Simulation aus und führt zu besseren Messergebnissen. - Im Rahmen des Entwicklungsprozesses wurde eine Anforderungsanalyse erstellt und auf Basis dieser das Programm implementiert. Das Programm setzt sich aus zwei Komponenten zusammen; der in MEL geskripteten GUI und einem Plug-in für Maya, welches für den Exportierprozess zuständig ist. - Abschließend wurde das Programm in einer Testreihe verifiziert. Ebenfalls wurde es in einem Compare-Usability-Test auf seine Effizienz und Benutzerfreundlichkeit getestet.



Nowak, Johannes;
Anwendung erweiterter Methoden zur Schallfeldanalyse in MATLAB. - 106 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2008

Thema dieser Arbeit ist die Anwendung von Methoden zur Schallfeldanalyse, die sich der Fourier- und Radon-Transformation als mathematische Werkzeuge bedienen. Sie ermöglichen es ein Schallfeld richtungs- und frequenzabhängig in seine Elementarwellen zu zerlegen und zu untersuchen. Dabei steht vor allem deren Anwendung auf den Realfall im Mittelpunkt. Ausgehend von Beispielen, die mit einer Schallfeldsimulation erstellt wurden, werden die einzelnen Methoden vorgestellt und deren Eigenschaften zur Analyse der Schallausbreitung diskutiert. Darauf aufbauend werden sie auf Messdaten angewandt, die im praktischen Teil dieser Arbeit in einem PKW-Innenraum erfasst wurden. Hier interessiert die Qualität mit der die Analysemethoden ein Schallfeld unter solch komplizierten raumakustischen Bedingungen bewerten können, um Rückschlüsse auf die Raumbeschaffenheit ziehen zu können. Dies geschieht unter dem Aspekt unterschiedlicher Quellpositionen sowie direkter bzw. indirekter Abstrahlung des Lautsprechers. Die Verarbeitung und Analyse der Daten erfolgt in MATLAB.



Rewig, Thomas;
Optimierung eines Mess-systems zur Reziprozitätskalibrierung von Labor-Normalmikrofonen. - 100 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Diese in der Arbeitsgruppe Hörschall der Physikalisch-Technischen Bundesanstalt Braunschweig (PTB) entstandene Diplomarbeit beschäftigt sich mit der Modernisierung eines Mess-Systems zur Druckkammer-Reziprozitätskalibrierung von Labor-Normalmikrofonen. - Das System wird in der PTB zur Darstellung der Einheit des Schalldruckes verwendet. Realisiert wird diese Einheit durch die Bestimmung des Druck-Leerlauf-Übertragungsmaßes von Labor-Normalmikrofonen, die mit akustischen Kupplern paarweise verbunden werden. Durch Messung des Verhältnisses zwischen Leerlaufspannung des Empfangsmikrofons und Strom durch das Sendemikrofon, der so genannten elektrischen Transferimpedanz, kann bei bekannter akustischer Koppelimpedanz das Übertragungsmaß berechnet werden. Das zu optimierende System misst dafür vier durch Störungen beeinflusste Wechselspannungen. - Bei der Optimierung des Messablaufes wird besonderen Wert auf die Verkürzung der erforderlichen Messzeit gelegt. Ein wichtiger Faktor für die Geschwindigkeit der Messung ist die Beurteilung der Signalqualität bzw. Signalstabilität bei der Messung der Wechselspannungen durch eine Signalanalyse. - Der inkonsistente originale Algorithmus wurde durch eine optimierte Stabilitätskontrolle ersetzt, die Methoden aus der statistischen Prozess-Kontrolle einsetzt, um die Stabilität des Mess-Signals zu detektieren. Die Funktionsfähigkeit wurde durch Validierungsmessungen bestätigt. - Zur Messung der elektrischen Transferimpedanz wird ein nahezu stufenlos einstellbarer binärer Widerstand verwendet. Durch eine detaillierte Analyse der Messunsicherheit in verschiedenen Konfigurationen wurden in dieser Diplomarbeit theoretische Grundlagen geschaffen, um die Anzahl der notwendigen Einstellstufen zu verringern ohne dabei die Messunsicherheit inakzeptabel zu erhöhen.



Otero Aguilar, Steve;
Konzeption und Realisierung einer netzwerkbasierten Architektur für die Anwendung im Fernsehproduktionsstudio. - 115 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Mit der zunehmenden Leistungsfähigkeit von IT-Hardware hat deren Nutzung vermehrt Einzug in die Fernsehproduktionshäuser gehalten. Gewöhnlich werden Standard-Netzwerkkomponenten für die Übertragung von Inhalten in der zeitunkritischen Postproduktion eingesetzt. Ziel dieser Diplomarbeit war es, für den Bereich der echtzeitkritischen Live-Produktion eine Architektur zu entwerfen, die die etablierten Verbindungstechniken durch ein generisches Netzwerk ersetzt. Unter anderem wurde die Tauglichkeit von MXF als Übertragungsformat untersucht. Neben der Übertragung der Daten steht dabei auch die Entwicklung einer Datenfluss-Steuerung im Mittelpunkt. Dabei werden mehrere Konzepte der Oberflächengestaltung vorgestellt, die die Möglichkeiten einer softwarebasierten Steuerung aufzeigen. . Im Zuge der Arbeit wurden Prototypen für die verschiedenen Komponenten des Systems entwickelt, auf deren Basis Messungen erfolgten, um die Praxistauglichkeit einer solchen Architektur zu überprüfen. Dabei wurde herausgearbeitet, bei welchen Komponenten man Standard-Hardware einsetzen kann und an welchen Stellen man auf professionelle Geräte zurückgreifen muss.



Schuster, Michaela;
Entwicklung eines zeitoptimierten Messplatzes zur präzisen Bestimmung von Kalibrierdaten und Richtcharakteristiken von Messmikrofonen mit breitbandigen Prüfsignalen. - 169 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Zur Sekundärkalibrierung von Messmikrofonen nach der Substitutionsmethode und für die Bestimmung von Richtcharakteristiken von Messmikrofonen und Schallpegelmessern im Freifeld wird ein Verfahren mit Sinustonanregung verwendet. Dieses Verfahren gewährleistet eine hohe Genauigkeit, braucht aber auch viel Zeit. - Zusätzlich zum hohen zeitlichen Aufwand, resultierend aus der sinusförmigen Anregung ausgewählter Messfrequenzen, ergeben sich weitere Einschränkungen. Die Sinustonanregung einzelner Frequenzen hat zur Folge, dass die spektrale Auflösung direkt proportional zum zeitlich Aufwand steht. So ergibt sich ein Kompromiss zwischen spektraler Auflösung und zeitlichem Aufwand. Weiterhin führt das aufwendige Messverfahren zu einem hohen technischen Aufwand, der der Forderung nach einer geringen Messunsicherheit und einfachen Fernsteuerbarkeit Rechnung trägt. - Aufgrund der aufgeführten Einschränkungen wurde in dieser Diplomarbeit ein Messverfahren entwickelt, das durch eine breitbandige Anregung Grundlage für eine Optimierung bietet. Mit einer breitbandigen Anregung kann eine deutlich höhere spektrale Auflösung bei gleichzeitiger Minimierung des zeitlichen Aufwands erreicht werden. Weiterhin konnte auch hier eine geringe Messunsicherheit gewährleistet werden. - Die Diplomarbeit beschreibt die Entwicklung eines zeitoptimierten Messplatzes zur präzisen Bestimmung von Kalibrierdaten und Richtcharakteristiken von Messmikrofonen mit breitbandigen Prüfsignalen. Ausgehend von der Beschreibung des entwickelten Messverfahrens wird der Messaufbau und die zur Fernsteuerung nötige Software vorgestellt. Im Weiteren werden Einflussfaktoren wie Stativform und Mikrofonposition auf die Messergebnisse untersucht. Es folgen eine Messunsicherheitsanalyse nach GUM und eine Rückführung des Messplatzes auf SI-Einheiten.



Schaffrath, Sebastian;
Konzeptvergleich von Hochtonsystemen - Zusammenhang von Klangbeurteilung und akustischen Parametern. - 155 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Die Diplomarbeit liefert eine Analyse von Hochtonkonzepten in Beschallungslautsprechern in Verbindung mit einem Modell, das eine Prädiktion einer subjektiven Klangbeurteilung eines Lautsprechers leistet. - Zunächst werden anhand von Messungen die verschiedenen Typen von Beschallungshochtönern beschrieben und die relevanten physikalischen Parameter bestimmt. Für eine komplette Analyse der Lautsprecher wird für jeden Lautsprechertyp eine Simulation mittels analytische Methoden durchgeführt und in MathCad implementiert. - Die Analyse mit Schwerpunkt auf Abstrahlverhalten und Impulstreue liefert die Basis für die Evaluation im Prädiktionsmodell. - Im weiteren Verlauf der Arbeit werden Grundlagen der Psychoakustik aufbereitet und die für die Klangrezeption bei Beschallungslautsprechern relevanten Eigenschaften detailliert betrachtet. Die in der Bewertung von Lautsprechern anerkannten Modelle (PEAQ, PAQM) werden für den Vergleich von Hochtonlautsprechern evaluiert und auf ihre Anwendbarkeit überprüft. Für die Simulation eines Gehörmodells werden die in der Simulation und den Messungen ermittelten akustischen Parameter in einem Modell in Matlab implementiert. - Basierend auf Messungen im Akustiklabor werden Simulationsdaten von Hochtönern mit Messdaten realer Hochtonlautsprecher verglichen. Daraus abgeleitet wird ein Modell entwickelt, das basierend auf den akustischen Daten des Lautsprechers eine Prädiktion einer Klangbewertung liefert. Die Modellierung basiert auf psychoakustischen Hörtests, die im Hörlabor der TU Ilmenau durchgeführt wurden. Vergleichsmessungen zeigen eine sehr gute Korrelation der Modellprädiktion mit den durchgeführten Vergleichshörtests.



Zhao, Ting;
Vergleich von Tonraummodellen für die Akkorderkennung. - 95 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2008

Das Ziel dieser Arbeit war die Implementierung eines Erkennungsalgorithmus zur Klassifikation von Akkorden in polyphonen Audiosignalen. Dabei wurden verschiedene Tonraummodelle für die Akkorderkennung verglichen und bewertet. In Kapitel 2.1 wurden die Prinzipien von fünf Klassifikationsverfahren erläutert: Hidden Markov Modell (HMM), K nächste Nachbarn (KNN), Support Vector Machines (SVM), Artificial Neural Networks (ANN) und Gaussian Mixture Models (GMM). Zusätzlich wurde beschrieben, wie jedes Verfahren mit vorhandenen Trainingsdaten trainiert wird, und wie die Klassifikation der Testdaten durch jedes Verfahren ausgeführt wird. Anschließend wurden Vor- und Nachteile jedes Klassifikators gegenübergestellt. Am Ende des Kapitels wurden die fünf Klassifikationsalgorithmen miteinander verglichen. Die Grundlagen der 3 Tonraummodelle mit den entsprechenden Gleichungen wurden in Kapitel 2.2 vorgestellt. Desweiteren wurde die Art und Weise der Signalverarbeitung, sowie die Anpassung des Toncharakters erläutert. Für die in Kapitel 2 vorgestellten Klassifikatoren wurde der Stand der Technik in einem Überblick in Kapitel 3 beschrieben. Vorgestellt wurde die Anwendung der Klassifikatoren in der Tonartdetektion und Akkordstrukturanalyse. Desweiteren wurde Literatur zu anderen Klassifikationsverfahren für die Akkorderkennung und ein Dokument zum Vergleich der häufig verwendeten Klassifikationsalgorithmen anhand der Akkordstrukturanalyse untersucht. In Kapitel 4.1 wurde ein Konzept für die Implementierung des HMMs vorgestellt. Zuerst wurde ein Beispiel für das Erzeugen der Übergangsmatrix A für die versteckten Zustände gezeigt. In dieser Arbeit wurden 24 versteckte Zustände ausgewählt, welche den 12 Dur- und 12 Mollakkorden entsprechen. Danach wurde das Verfahren zum Erstellen der 24?24 Übergangsmatrix beschrieben und diskutiert. Anschließend wurde die Vorgehensweise zur Berechnung anderer Parameter (Mittelwerte æ und Kovarianzmatrix S) und die Initialwahrscheinlichkeiten p beschrieben. Zum Schluss wurden die Parameter A, p, æ, S berechnet und die Akkorderkennung durchgeführt. Dabei fand der Viterbi-Algorithmus die höchstwahrscheinliche Akkordfolge. Die Implementierung des KNN Verfahrens wurde in Kapitel 4.2 erklärt. Insgesamt 24 Gruppen (Zustände) wurden verwendet. Jeder Zustand wurde durch eine definierte Anzahl von Punkten (n Punkte pro Zustand) beschrieben. Dabei wurden die n Mittelwerte aus den entsprechend segmentierten Trainingsdaten berechnet. Die Summe von n*24 ist die Gesamtzahl an möglichem Nachbarn. Die Testvektoren wurden anschließend klassifiziert. An dieser Stelle wurde die Anzahl von K (zu groß, zu klein) diskutiert. Anschließend wurden verschiedene Parametervariationen für die Vorhersage einer Klasse untersucht: die Auswirkung verschiedener Distanzen, die Verteilung der Punktdichte und die Form von unterschiedlichen Gruppen (Zuständen), die Anzahl von verschiedenen Gruppen, die Position des Testvektors und die Dimension der Daten. Nach der Erstellung aller Trainingspunkte wurde die Akkorderkennung mit KNN durchgeführt. Durch die Mehrheitsentscheidung unter den K nächsten Nachbarn wurde eine Akkordfolge Schritt für Schritt klassifiziert. - In Kapitel 5 wurden vier Experimente zur Akkorderkennung durch HMM und durch KNN vorgestellt. Insgesamt wurden 8 Datentypen verwendet: Centroid_1 (4TR), Centroid_2 (4TR + 4FR), Centroid_3 (3TR), Centroid_4 (3FR + 3TR), Centroid_5 (2TR), Centroid_6 (2TR + 2FR), Centroid_HSG (6D-Centroid) und der Chromavektor. Die Erkennung der Akkorde fand in der zeitlichen Reihenfolge automatisch statt. Die originale Akkordfolge wurde dann mit der vom Klassifikator erkannten Akkordfolge gegenübergestellt. Dabei wurden die Ergebnisse und Randbedingungen diskutiert. Im ersten Versuch (Experiment A) wurden 16 Lieder der Gruppe The Beatles als Trainingsdaten und Testdaten für die HMM-Klassifikation verwendet. Beim Test haben HSG die beste, der Chromavektor die zweitbeste und Centroid_4 die drittbeste Erkennungsrate erreicht. Im zweiten Versuch (Experiment B) wurden dieselben Trainings- und Testsongs verwendet, jedoch wurden die Trainingsdaten eines Akkords über den Mittelwert ihrer Merkmalsvektoren parametrisiert. Dieses Experiment wurde mit KNN und weiteren distanzbasierenden Verfahren durchgeführt. Die Anzahl von K wirkt sich auf die Ergebnisse aus. Für nicht gewichtete und gewichtete Distanzen sind die entsprechenden Zahlen der nächsten Nachbarn K unterschiedlich. Die Manhattan Distanz in Verbindung mit dem Chromavektor erzielten bessere Ergebnisse als die anderen Verfahren. Im Experiment C wurde mit manuell erstellten Chromavektoren trainiert. Getestet wurden die 16 Beatlessongs aus Experiment A und B. In den Ergebnissen gab es zwei Tendenzen: Bei geringem Rauschen war die Erkennungsrate von der Wahl des Parameters K unabhängig. Mit stärkerem Rauschen wurde die Erkennungsrate kleiner. Im letzten Versuch (Experiment D) wurden die gleichen Trainings- und Testdaten wie in Experiment A und B verwendet. Die Anzahl der Trainingspunkte pro Zustand wurde variiert mit 5, 10, 20, 30, 50, 70. Centroid_2 zeigte nach dem Chromavektor die besten Akkorderkennungsraten. Der Vergleich der Tonraummodelle bei den durchgeführten Experimenten zeigt, dass der Chromavektor sich am besten eignet, wobei die Ergebnisse des Symmetriemodells von Gatzsche und Mehnert nur knapp dahinter sind. Der 6D-Centroid von Harte, Sandler und Gasser war nur bei HMM besser geeignet als die anderen beiden Tonraummodelle. Die Untersuchungsergebnisse lassen darauf schließen, dass mit der Erweiterung der Klassifikationsalgorithmen bessere Akkorderkennungsraten ermöglicht werden. Ein Vorschlag wäre die Erweiterung der Trainingsdatenbank in einer zukünftigen Arbeit, weil die Klassifikatoren durch eine erhöhte Anzahl von Trainingsdaten optimiert werden können. Ein weiterer Schritt wäre die Erweiterung der zu erkennenden Akkordklassen. Dabei würde die Sensitivität zur Erkennung in Bezug auf die Tonraummodelle zunehmen. Die Kombination der unterschiedlichen Klassifikationsverfahren miteinander könnten ebenfalls untersucht werden. Dabei eignen sich einige Verfahren in der Regel besser für eine Strukturvorhersage als andere Verfahren, so dass sich mit Hybrid-Verfahren auf Grund des Charakters unterschiedlicher Klassifikationsalgorithmen die Effizienz steigern lässt. Dies zu untersuchen bleibt vorerst offen und ist Aufgabe weiterführender Projekte.



Lohmann, Timo;
Transferpfadanalyse an einem ABS-System auf Basis multidimensionaler Erfassung der Ausbreitungswege und Erstellung eines Übertragungsmodells. - 152 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Die vibro-akustische Produktqualität in der Automobilindustrie betrifft zunehmend auch Nebenaggregate, da diese verstärkt die Innengeräuschkulisse moderner Kraftfahrtzeuge prägen. Während eines starken Bremsvorganges kommt es auf Grund der Aktivität von Antiblockiersystem (ABS) bzw. des Elektronischen Stabilitätsprogramms (ESP) zu einer deutlich hörbaren und störenden Geräuschentwicklung. In der vorliegenden Arbeit werden zur Untersuchung der Fluid- und Körperschallausbreitung zwei unterschiedliche - Transferpfadanalyseverfahren an einem Serienfahrzeug mit ESP 8 angewandt. Die Reziproke Transferpfadanalyse (R-TPA) nutzt das Reziprozitätstheorem aus, wobei alle Übertragungsfunktionen durch Anregung mit einer Volumenschallquelle gemessen werden. Dagegen berechnet die Operationelle Transferpfadanalyse (O-TPA) die Übertragungsfunktionen direkt aus unkorrellierten Betriebsmessungen. Für die Transferpfadanalysen wird ein Übertragungsmodell erarbeitet, das die Körperschallausbreitung über 27 Pfade (Beschleunigungen bzw. Kräfte) und die Fluidschallausbreitung über 6 Pfade (Hydraulikdrücke) berücksichtigt. Für den objektiven Vergleich beider Transferpfadanalyseverfahren wird ein objektives Prädiktionsgütemaß (Gamma) vorgeschlagen. Die Transferpfadsynthese im Frequenzbereich bis 5 kHz ergibt für die Reziproke Transferpfadanalyse teilweise starke Abweichungen über große Frequenzbänder. Die Operationelle Transferpfadanalyse schneidet deutlich besser ab. Im Bereich von 200 Hz bis 2 kHz wird für die Reziproke Transferpfadanalyse ein Gamma=9,5 dB und für die Operationelle Transferpfadanalyse ein Gamma=2,8 dB erreicht. Die Klassifizierung der Übertragungswege ergibt, dass die Fluidschallpfade für den untersuchten Betriebszustand kaum Relevanz besitzen und somit das Innengeräusch hauptsächlich durch die Körperschallbeiträge der 6 Bremsleitungen, als auch speziell für tiefere Frequenzbereiche durch die Lagerpunkte des Hydraulikaggregates bestimmt wird.



Jahr, Michael;
Verbesserung der Tieftonwiedergabe von Flachlautsprechern durch Eliminierung bzw. Nutzung der rückwärtigen Schallanteil. - 107 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Die Diplomarbeit mit dem Thema "Verbesserung der Tieftonwiedergabe von Flachlautsprechern durch Eliminierung bzw. Nutzung der rückwärtigen Schallanteile" befasst sich mit verschiedenen Ansätzen, die den Frequenzgang von einem flachen Lautsprecher verbessern soll. Dabei liegt das Hauptaugenmerk auf der Erweiterung des Frequenzbereiches zugunsten tiefer Frequenzen. Außerdem werden die verschiedenen Effekte, die den Frequenzgang beeinflussen, beschrieben und untersucht. Dabei wird auf Effekte wie den akustischen Kurzschluss, die Verstärkung dessen in Wandnähe und die Diffrakten an Gehäusekanten eingegangen. Im Rahmen der Untersuchung wird versucht, die Phase des rückwärtigen abgestrahlten Schalls anzupassen und somit nutzbar zu machen. Dazu dienen Ansätze wie die Transmission-Line, das Bassreflex sowie die Einbringung von akustisch wirksamen Material. Durch die Kombination von diesen Ansätzen und mit einer zusätzlichen elektronischen Entzerrung konnte die Tieftonwiedergabe letztendlich erheblich verbessert werden.



Schneidereit, Dirk;
Möglichkeiten eines individualisierten Hörfunk-Programms auf der Basis eines Broadcast-Datendienstes. - 93 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Diese Diplomarbeit erläutert die Erhebung und Übertragung von Metadaten im Bereich der Audio-Produktion. Digitale Übertragungsstandards wie Digital Audio Broadcast (DAB), Digital Video Broadcast - Terrestrial (DVB-T), MediaFLO und andere werden auf Eignung für Interaktivität untersucht. Auf Basis der Ergebnisse wurde das Java-Programm StreamCast entwickelt. Durch die Erfassung eines Profils erlaubt die Software die automatische Auswahl von Beiträgen für den Nutzer.



Thiergart, Oliver;
Sound field analysis on the basis of a spherical microphone array for auralization applications. - 175 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2008

Diese Arbeit behandelt die Zerlegung von Schallfeldern in ebene Wellen auf der Basis eines Kugelarrays für Auralisationsanwendungen. Die Schallfeldzerlegung erlaubt es, Raumreflexionen zu identifizieren. Diese Reflexionen beinhalten essentielle Informationen für die akustische Reproduktion eines Raumeindrucks, was als Auralisation bezeichnet wird. Da die Schallausbreitung in einem Raum üblicherweise nicht auf eine Ebene beschränkt ist, müssen für eine realistische Auralisation Raumreflexionen für alle Richtungen im 3D-Raum bestimmt werden. Kugelarrays sind für diese Aufgabe gut geeignet. Ihre Anwendung für die Schallfeldzerlegung wird untersucht, die Robustheit gegenüber Messfehlern evaluiert und die gewonnenen Erkenntnisse mittels einer komplexen Simulation verifiziert. Zu diesem Zweck werden zwei Ansätze zur Schallfeldzerlegung ausgehend von der Wellengleichung hergeleitet und an zwei grundlegende Array-Konfigurationen angepasst: offene Kugelarrays und geschlossene Kugelarrays. Es wird der Einsatz von Mikrofonen mit Nierencharakteristik als eine praktikable Methode zum Überwinden der numerischen Probleme offener Arrays untersucht. Dies ermöglicht es, von der hohen Flexibilität dieser Arrays zu profitieren. Weiterhin wird eine mathematische Beschreibung entwickelt, um die Einflüsse von Mikrofonrauschen, Positionierungsfehlern des Arrays, räumlichen Aliasing und nicht-idealer Nierencharakteristiken auf die Schallfeldzerlegung zu evaluieren. Eine realistische Simulation wird präsentiert, welche die verschiedenen Messfehler berücksichtigt. Es zeigt sich, dass mit Hilfe der Schallfeldzerlegung die zeitlichen, räumlichen und spektralen Eigenschaften von Raumreflexionen bestimmt werden können. In diesem Zusammenhang wird das gleichzeitige Messen auf zwei unterschiedlichen Radien diskutiert, welches eine viel versprechende Methode darstellt, die nutzbare Frequenzbandbreite zu vergrößern. Die Ergebnisse werden mit Hilfe eine praktischen Messung bestätigt. Zu diesem Zweck wird eine Messung auf zwei Radien über 2030 Mikrofonpositionen in einem reflexionsfreien Raum unter Verwendung eines offenen Arrays mit Mikrofonen mit Nierencharakteristik realisiert. Abschließend wird ein einfacher, aber effektiver Ansatz zur Auralisation der Ergebnisse präsentiert, welcher auf virtuellen Mikrofonen basiert.



Fabris, Christian;
Funktionstest eines Personalisierten Miniaturisierten Lärmdosimeters für die Individualprävention lärmexponierter Arbeitnehmer. - 121 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Das Personalisierte Miniaturisierte Lärmdosimeter (PMD) ist die Kombination eines Lärmdosimeters mit einem Messgerät für otoakustische Emissionen. Die Messwerte des PMD sollen komplexe und verlässliche Aussagen zur individuellen Lärmschädigung eines Probanden treffen lassen. Dieses Gerät wird vom Fachgebiet Biomechatronik an der TU Ilmenau entwickelt. Die Realisierung eines Prototyps des PMD lag dieser Arbeit zu Grunde. Der Leser wird, ausgehend von Grundlagen der physikalischen Schallausbreitung und physiologischen Schallwahrnehmung des Menschen, über Lärm allgemein und dessen messtechnische Erfassung im Besonderen informiert. Anschließend wird der Prototyp des PMD im Vergleich mit handelsüblichen Messgeräten zur Lärmerfassung vorgestellt. Der folgende Teil der Arbeit beschreibt das vom Autor entwickelte Messkonzept zur Überprüfung der Funktionalität des PMD mittels eines Referenzmessverfahrens. Relevante nationale und internationale Normen und Gesetze werden dabei ebenso berücksichtigt wie die Beschreibung der verwendeten Referenzgeräte. Die Auswertung und Diskussion der nach dem beschriebenen Konzept durchgeführten Messungen schließt sich an und bietet Aussagen über die unerwartet hochwertige Qualität des PMD. Aufgrund quantitativer Grenzen der Bandbreite und Auflösung werden im Folgekapitel Ansätze zur Optimierung des Aufbaus und der Funktionalität das PMD beschrieben. Im Ausblick sind neben der Vision eines optimierten PMD und dem Szenario eines künftigen Messvorgangs auch mögliche Themen für dorthin zielende Arbeiten aufgezählt.



Arndt, Daniel;
Entwicklung eines Systems zur tonraumbasierten Extraktion von Midlevel-Features aus Audiodaten. - 106 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2008

Die Aufgabe dieser Diplomarbeit war die Extraktion von Midlevel-Features aus Audiodaten auf Basis des Symmetriemodells. Das Symmetriemodell ist ein geometrisches Tonmodell entworfen von G. Gatzsche, M. Mehnert und D. Gatzsche. Im ersten Teil der Arbeit wurden die entsprechenden Grundlagen zusammengefasst. Die Eigenschaften und Fähigkeiten dieses Modells hinsichtlich der harmonischen Musikanalyse wurden im Hauptteil dieser Arbeit untersucht. Für die Übertragung von Musik in das Symmetriemodell ist zunächst die Bestimmung eines 12-dimensionalen Pitch Class Profiles (PCP) aus dem Audiosignal erforderlich. In einem ersten Ansatz wurde gezeigt, wie Pausen und Geräusche im PCP erkannt und extrahiert werden können. Die Entfernung atonaler Signalanteile erweist sich als Hilfsmittel für weitere harmonische Analysen. Die Wirkungsweise des mit Pausen-Geräusch-Detektion umschriebenen Verfahrens wurde stichprobenartig überprüft. In einem weiteren Kapitel wurde das Prinzip einer tonartunabhängigen Akkordstrukturanalyse erläutert. Mit dieser Teilaufgabe wird die vollständige Akkorderkennung in ihrem Aufgabenbereich entlastet, da die Pitchhöhe des Akkords unberücksichtigt bleibt. Eine umfassende Evaluierung der Akkordstrukturanalyse in Bezug auf Audiomaterial fand nicht statt. Die Wirkungsweise des Algorithmus wurde durch eine Analyse von 14 verschiedenen Trainingssätzen gezeigt, die jeweils verschiedenste Ausprägungen einer Akkordklasse beinhalten. Im letzten Teil der Arbeit wurde ein Konzept für eine Harmoniegrenzendetektion auf Basis des Symmetriemodells untersucht. Kernaufgabe des Algorithmus war zunächst das Zusammenfassen von harmonieeigenen Einzeltönen. Die Wirkungsweise der daraus entstandenen Harmoniegrenzendetektion wurde mit der Harmonic Change Detection Function (HCDF) von Harte, Sandler, Gasser verglichen. Das Niveau dieser Referenz wurde im Rahmen dieser Diplomarbeit jedoch nicht erreicht. Die Schwächen und das Potential des neuen Verfahrens wurden abschließend diskutiert. Alle vorgestellten Prozesse wurden in ein Analyseprogramm auf Basis des Symmetriemodells integriert. Die Herstellung von Interaktionen zwischen den Bereichen Harmonieerkennung, Akkordstrukturanalyse, Harmoniegrenzendetektion und Pausen-Geräusch-Detektion können entscheidend zur Effizienz der einzelnen Algorithmen beitragen. Dies bleibt vorerst offen und ist Aufgabe weiterführender Projekte.



Wawerek, Aileen;
Potentialanalyse eines Verfahrens zur objektiven Unterstützung der subjektiven Bewertung von Störgeräuschen. - 88 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

In der Fahrzeugproduktion spielt die Geräuschqualität eine wichtige Rolle. Da durch die Geräuschempfindungen unmittelbar auf die Fahrzeugqualität geschlossen werden kann, wird das Thema der Störgeräuschakustik in der Fahrzeugindustrie immer wichtiger. Das Ziel der Störgeräuschuntersuchung ist die Optimierung der Analyse und die Beseitigung der auftretenden Fehlerbilder. Die Erfassung und die Beurteilung von Störgeräuschen erfolgt derzeit ausschließlich durch die subjektive Wahrnehmung, die allerdings keine einheitlichen Ergebnisse hervorbringen kann. Objektive Verfahren gibt es derzeit aufgrund der instationären Eigenschaften und der komplexen Wahrnehmung der Störgeräusche nicht. - Zur objektiven Unterstützung der subjektiven Bewertung von Störgeräuschen wurde ein spezieller Sinussweep entwickelt. In dieser Diplomarbeit wird untersucht, inwieweit die spezielle Sinussweepanregung als alternatives Analysewerkzeug in der Störgeräuschuntersuchung eingesetzt werden kann. Mit Hilfe eines Hörversuchs wird bestätigt, dass mit dem Sinussweep alle vorhandenen Störgeräusche in derselben Intensität angeregt werden können, wie es mit den herkömmlichen Verfahren möglich ist. Durch eine objektive Schalldruckpegelmessung werden anschließend die subjektiven Störgeräuschempfindungen bestätigt.



Müller, Stefan;
Realisierung einer positionsabhängigen Filterung für Wellenfeldsynthese. - 103 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Die praktisch notwendigen Vereinfachungen der mathematisch idealen Bedingungen der Wellenfeldsynthese verursachen Klangverfärbungen im reproduzierten Wellenfeld. - In der Diplomarbeit wird eine Methode zur Verminderung dieser Frequenzgangfluktuationen untersucht. Die Idee besteht darin, quellenpositionsabhängige Frequenzgänge zu modellieren und daraus Filterkoeffizienten zu erstellen, die bei Veränderung der Position der virtuellen Quelle dynamisch angepasst werden. - Die Modellierung erfolgt zum Einen anhand realer Messungen der einzelnen Lautsprecher-Impulsantworten und zum Anderen auf Basis eines idealisierten geometrischen Ansatzes. Die Filterung auf Basis realer Messungen berücksichtigt Raum- und Lautsprechereinflüsse, wodurch die positionsabhängigen Frequenzgänge beliebig positionierter virtueller Quellen mit hoher Genauigkeit nachgebildet werden und die Fluktuationen mit diesem Ansatz am besten kompensiert werden können. Das idealisierte geometrische Modell vernachlässigt in seiner jetzigen Form Raum- und Lautsprechereinflüsse. Dementsprechend fallen die Ergebnisse der Filterung schlechter aus. Jedoch führt auch dieser Ansatz zu einer Verminderung der Fluktuationen. Hierfür werden Bewertungsmaße abgeleitet, die eine objektive Einschätzung der Fluktuationen vieler Frequenzgänge sowohl vor als auch nach der Filterung erlauben.



Müller, Kristin;
Untersuchungen zur Wahrnehmung von Timbre. - 161 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2008

Die vorliegende Diplomarbeit beschäftigt sich mit Untersuchungen zur Wahrnehmung von Timbre. Mittels der Klangfarbe können Instrumente oder auch die Stimme identifiziert und von anderen Instrumenten bzw. Stimmen separiert werden. Die Klangfarbe und einige auf diese einen Einfluss besitzende Faktoren wurden im Zusammenhang mit der auditory scene analysis, im Speziellen mit der sequentiellen Segregation von Strömen, untersucht. Dies erfolgte innerhalb von drei Experimenten, mittels derer zunächst eine Grundlagenforschung vorgenommen und letztendlich der Einfluss spektraler und zeitlicher Faktoren auf die Klangfarbe festgestellt wurde. Es zeigte sich, dass die Wahrnehmung von Sequenzen aus Tönen auf unterschiedliche Weise erfolgen kann. Die Töne können dabei in einem oder in zwei Strömen gehört werden. In einem gewissen Bereich ist das abwechselnde Hören beider Wahrnehmungen möglich. Bezüglich der Einflussfaktoren auf die Klangfarbe erwiesen sich Veränderungen im spektralen, durch Veränderungen der Intensitäten der Harmonischen, und zeitlichen, durch Veränderungen der Hüllkurve, Muster als die Klangfarbe formende Faktoren. Dabei zeigte sich, dass Veränderungen im spektralen Muster einen größeren Klangfarbenunterschied erzeugen als Veränderungen im zeitlichen Muster.



Pape, Sebastian;
Untersuchung zur Verwendung von Upmix-Verfahren in Wellenfeldsynthese - Audiowiedergabesystemen. - 138 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

In dieser Diplomarbeit werden verschiedene Upmix-Verfahren in einem Wellenfeldsynthese-Audiowiedergabesystem untersucht. Als Versuchsaufbau dient dabei ein Wellenfeldsynthese System in einem kleinen Raum. Auf dem Weg zur Untersuchung verschiedener Upmix-Verfahren in Hörtests wurden einige technische Besonderheiten eines solchen Systems untersucht, wie: Raumakustik, Lücken im Lautsprecherarray, Richtcharakteristik der Sekundärquellen, Entzerrung virtueller Quellen und fehlerhafte Lautsprecherkoordinaten - Bei den Upmix-Verfahren wurde nach einer Möglichkeit gesucht herkömmliche Musikproduktionen mittels Wellenfeldsynthese möglichst gewinnbringend wiederzugeben. Dabei wurden Ansätze der Quellseparierung verwendet, aber auch verschiedene Wiedergabeszenen entwickelt.



Singer, Mario;
Entwicklung eines Messverfahrens zur Ermittlung der Eigenschaften von DAB Empfängern durch Analyse des Audiokanals. - 152 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Das Ziel der Diplomarbeit ist es, ein Testverfahren zu entwickeln, um die Empfängerempfindlichkeit eines DAB-Tunerns beurteilen zu können. Die dabei schon genormten Messsysteme sollen so modifiziert werden, dass eine schnelle, unabhängige und effiziente Messung durchgeführt werden kann. Die so gewonnenen Messergebnisse sollen eine möglichst genaue Aussageüber die Empfindlichkeit des DAB-Empfängers zulassen. Zur Ermittlung der Empfindlichkeit wird nicht auf den auslesbaren Wert der Bitfehlerrate eines DAB-Empfängers zurückgegriffen. Es wird versucht durch Analyse der Störungen im Audiokanal eine Abhängigkeit zu ermitteln, die Rückschlüsse auf die eigentliche Bitfehlerrate zulässt. Der entwickelte Aufbau soll automatisiert alle Frequenzen des Digitalradios vermessen, und für jede einzelne eine Auswertung über das gehörte Audiosignal erstellen. Dabei wird besonders auf einfache Bedienung, Genauigkeit der Messergebnisse und Modularität des Gesamtsystems Wert gelegt.



Henning, Valentin;
Entwicklung eines interaktiven Spielemediums auf den DVD-Nachfolgeformaten Blu-ray Disc bzw. HD DVD. - 103 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2008

Die DVD brachte nach ihrer Einführung 1996 als Nachfolgerin der CD-ROM und der VHS-Kassette auch zahlreiche Anknüpfungspunkte für die Spieleindustrie, um den Fernseher, als Ort der DVD-Rezeption, zur wiederentdeckten Basis für Video-Spiele zu etablieren. Solche DVD-basierten Fernsehspiele gibt es bereits einige auf dem Markt. Die Vorteile dabei liegen vor allem in der einfachen Installation und Bedienung solcher Spiele, die sie vor allem für Gelegenheitsspieler interessant machen. Aufgrund der strengen Vorgaben des DVD-Video Standards, sind die Interaktionsmöglichkeiten dabei aber stark eingeschränkt. - Durch die Ende 2006 vorgestellten DVD-Nachfolgeformate HD DVD und Blu-ray Disc, ergeben sich auf dem Gebiet der DVD-basierten Fernsehspiele viele neue Möglichkeiten. Neben einer höheren Speicherkapazität, zeichnen sich die beiden DVD-Formate vor allem durch den gestiegenen Umfang an Gestaltungsmöglichkeiten innerhalb der Interaktionsangebote gegenüber der klassischen DVD aus. Besonders im Bereich der interaktiven Spiele kann durch die neuen Funktionen die Bandbreite der Involvierung des Anwenders erhöht werden und somit ein deutlicher Mehrwert gegenüber Standard DVD-Spielen geschaffen werden. - In dieser Arbeit wird, gestützt auf ein vertieftes Verständnis der Funktionsweise von interaktiven DVD-Spielen und einer Analyse der interaktiven Möglichkeiten der Formate HD DVD und Blu-ray Disc, ein Konzept für ein interaktives HD DVD-Spiel entwickelt und prototypisch realisiert.



Großmann, Sebastian;
Entwicklung eines psychoakustischen Modells zur instrumentellen Bewertung der Rauigkeit von Fahrzeuginnengeräuschen und Implementierung eines Messalgorithmus in ein Messsystem für Akustikprüfstände. - 65 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

In dieser Arbeit wird die subjektiv empfundene Rauigkeit des Innengeräusches von Fahrzeugen untersucht. Es wird ein psychoakustisches Modell der wahrgenommenen Rauigkeit vorgestellt, welches mittels Hörversuchen entwickelt und validiert wurde. Mit Hilfe des Modells ist es möglich, die mittlere Rauigkeitsempfindung während der Beschleunigung zu prognostizieren. Ferner wurde das Modell an standardisierte Messverfahren angepasst sowie in die vorhandene Messstruktur integriert. Dadurch können auch routinemäßige Auswertungen von bereits archivierten Messdaten vorgenommen werden.



Wiesner, Christian;
Beurteilung von Verfahren zur Jittermessung an einer AES3 Übertragungsstrecke mit abschließender hardwareseitiger Implementierung. - 99 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Die möglichen Auswirkungen von Jitter auf ein digitales Audiosignal nach dem AES3-Standard reichen von minimaler Klangbeeinflussung bis hin zu einem Versagen der Datenübertragung. - Für einen zu projektierenden Jitteranalysator wird ein Messverfahren vorgestellt, welches eine hohe Genauigkeit besitzt und zudem geringe Hardwarekosten verursacht. Die systemtheoretischen Rahmenbedingungen des Verfahrens werden in diesem Dokument ebenso beleuchtet wie deren Einfluss auf den Messfehler. Weiterhin werden die wichtigsten Eckpunkte der hardwareseitigen Implementation erläutert.,



Krake, Alexander;
Transferpfadanalyse am Common Rail System. - 82 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Die Arbeit hatte das Ziel eine Methode zu finden, mit der eine Transferpfadanalyse am Common Rail System mit Fokus auf der Hochdruckpumpe in Zukunft überhaupt durchgeführt werden kann. Da die Messung der Körperschallausbreitung eine große Herausforderung darstellt, sollte dieses Thema vorangetrieben werden. - Die CP4 wurde auf dem Akustikprüfstand in Betrieb genommen und eine Vielzahl der wirkenden Wechselgrößen, wie Luftschall, Körperschall, Drehmoment, Koppelkräfte etc. konnten bestimmt werden. - Drei verschiedene Methoden zur indirekten Kraftmessung sind zum Einsatz gekommen und konnten im Vergleich zu einer verlässlichen Referenzgröße geprüft und bewertet werden. Die ScheinmasseMethode erzielte bei den Untersuchungen die besten Ergebnisse. Sie kam, um dem Versuch unter realen Bedingungen näher zu kommen, zudem an einem Motor zum Einsatz. Die Messung der von der Pumpe hervorgerufenen Beschleunigungen stellte sich jedoch als schwierig heraus und führte zu keinem nutzbaren Ergebnis. Der Einfluss der zusätzlichen Motorkomponenten war an dieser Stelle zu hoch, was ein Identifizieren der Beschleunigungen der Pumpe verhinderte. - Mit einer in der Arbeit entwickelten und konstruierten so genannten Kraftmessschraube wurden erste Untersuchungen durchgeführt, um Kräfte zu messen. Diese Ergebnisse sollen Basis für die Weiterentwicklung des Bauteiles sein und liefern aufschlussreiche Erkenntnisse. - Es konnte festgestellt werden, dass über das Drehmoment der Pumpenantriebswelle die tangential wirkenden Kräfte sehr genau bestimmt werden können. Diese Kräfte stellen ein Drittel der insgesamt auftretenden Kräfte dar.



Hollmann, Martin;
Videobearbeitung und -präsentation mit Hilfe der AJAX-Technologie - Realisierungsmöglichkeiten und prototypische Implementation. - 139 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Die Diplomarbeit beschreibt die Ausarbeitung eines Konzepts zur interaktiven Darstellung von Videodaten innerhalb einer Webpräsenz und die Entwicklung einer eigenen PHP/JavaScript-basierten Programmbibliothek zur Optimierung von Videodarstellungen im Internet. - Dazu werden zunächst das Thema "internetbasiertes Video" und aktuelle Technologien zur interaktiven Darstellung von Webinhalten untersucht, sowie bereits auf dem Markt existierende Programmbibliotheken zur Webentwicklung analysiert. - Die Analysen der Arbeit ergeben, dass interaktive Darstellungen von Videodaten mit dem AJAX-Konzept realisierbar sind. Im Rahmen der Weiterentwicklung des World Wide Web zum sogenannten Web 2.0 spielen AJAX-Anwendungen eine zentrale Rolle. AJAX steht dabei für Asynchronous JavaScript and XML. Damit werden Web-Applikationen interaktionsreicher und insgesamt in der Usability verbessert. - Zur Entwicklung des Funktionsprinzips der Programmbibliothek wird der Aspekt der asynchronen Client/Server-Kommunikation näher untersucht: AJAX ermöglicht, aus dem Clientsystem Prozesse auf Servern anzustoßen und auszuführen, während der Webseitenbesucher weiterhin die jeweilige Internetseite nutzt. - Zur Bearbeitung von Videodaten, so dass diese clientseitig interaktiver darstell- und handhabbar sind, bieten sich die Ressourcen von Servern an. Ein serverseitiges System aus Programmmodulen, Datenbanken und Videobearbeitungsprogrammen wird konzeptioniert und beschrieben. - Die entwickelte Programmbibliothek organisiert nun das Zusammenspiel von Client- und Serverseite und integriert und definiert Funktionen und Programme zur Modifikation und Darstellung von Videos im Internet. Mit der AJAX-Video-Programmbibliothek ist es möglich, komplexe Videobearbeitungsprozesse eventgesteuert auf dem Server zu veranlassen und deren Ergebnisse beliebig in die Webseite zu implementieren. Über JavaScript-Funktionsaufrufe sind die Methoden der Programmbibliothek aus (X)HTML-Code heraus ansprechbar. - Die Diplomarbeit beschreibt die Konzeption, Entwicklung und Integration der AJAX-Video-Programmbibliothek sowie die Optimierung der Reaktionsgeschwindigkeit, Lastverteilung und die Priorisierung wichtiger Daten. - Im Folgenden wird die Verwendung der Programmbibliothek in einer Internetpräsenz der Firma Jung von Matt/next dargestellt und anschließend eine Zusammenfassung und ein Ausblick mit Empfehlungen für zukünftige Webentwicklungen mit AJAX gegeben.



Niemann, Kai-Uwe;
Detektion von Regionen auf postalischen Sendungen. - 125 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Diese Arbeit untersucht die Entwicklung von neuartigen Algorithmen zur Bestimmung von Regionen auf postalischen Sendungen. Unter Regionen werden u. a. typische Aufdrucke einer Postsendung wie Briefmarken, Adressen, Freistempel, Logos und Werbung verstanden. Im Rahmen der Arbeit wurden zwei Detektionsverfahren entwickelt, die ohne Verwendung von Vorwissen über die zu erwartenen Regionen auskommen. Die Verfahren ermöglichen die Trennung der angesprochenen Regionen vom Bildhintergrund. Anschließend findet eine Auswahl statt, welche der extrahierten Regionen von Interesse für weiterverarbeitende Systeme sind. Die Anforderung in der Entwicklung eines Detektionsverfahrens stellt die deckungsgleiche Detektion von Regionen auf zwei unterschiedlichen Aufnahmen der gleichen postalischen Sendung dar. Die Verifikation der Deckungsgleichheit von Regionen führt zu einem Maß, mit dessen Hilfe sich die Qualität der Detektionsverfahren beschreiben lässt.



Ley, Nicolas;
Echtzeit-Bildverarbeitung mit Graphic Processing Units. - 124 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2007

In dieser Arbeit wird ein Konzept zum Einsatz der GPU für Broadcastanwendungen entwickelt und gleichzeitig dazu ein funktionsfähiges Framework zur Echtzeit-Videoverarbeitung implementiert werden. Zusätzlich werden Ideen für eine GUI - deren Besonderheiten und Anforderungen - aufgezeigt und in einem Prototypen umgesetzt. Andererseits wird ein Ansatz zur Vorverarbeitung für den Keyingprozess und zwei Möglichkeiten für das Keyen im Blue-/Greenscreen entwickelt, umgesetzt und deren Leistungsfähigkeit mit aktuellen Systemen verglichen. Desweiteren sollen die möglichen Aufgabengebiete eines GPU basierten Systems skizziert, beispielhaft einige Anwendungen umgesetzt und möglicher Zusatznutzen aufgezeigt werden.



Hamm, Peter;
Videobasierte Erkennung von Fahrzeugrückansichten durch Tracking Haar-ähnlicher Merkmale. - 97 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Im Rahmen dieser Diplomarbeit wurde ein System zur videobasierten Erkennung von Fahrzeugrückansichten unter Verwendung von Radarinformationen entwickelt. - Die Detektion und Klassifzierung von Fahrzeugen unterteilt sich dabei in zwei Teilschritte. - Im ersten Schritt erfolgt die Initialisierung von in die Szene neu eintretenden Fahrzeugen durch den Haar-Detektionsalgorithmus. Während der Initialisierungsphase wird das Vorhandensein eines Fahrzeugs verifiziert und ein zugehöriges Fahrzeugmodell erstellt, das über ein Fahrzeug-Tracking aufrechterhalten wird. Das genaue Wissen über ein konkretes Objektmodell ermöglicht im zweiten Schritt die Erkennung des Fahrzeugs in den Folgeframes über ein einfaches Template Matching an der prädizierten Position. - Aufgrund des Tracking ist es möglich, Beziehungen zwischen den in einer Bildfolge detektierten Objekten herzustellen. Die Ergebnisse der Arbeit haben gezeigt, dass dieser Ansatz entscheidend ist, um fälschlich als Fahrzeug klassifizierte Bildbereiche fast völlig auszuschliessen. In diesem Zusammenhang konnte die Falsch-Positiv-Rate im Vergleich zum ursprünglichen Haar-Detektionsverfahren um über 12% auf durchschnittlich unter 0,2% verringert werden. - Darüber hinaus bereichert das Tracking das Gesamtsystem um weitere Informationen. - Im Gegensatz zur bloßen Einzelbildinterpretation ist es möglich, die Trajektorie eines Fahrzeugs zu bestimmen und damit dessen Bewegungsablauf aufzuzeichnen. - Für die zweite Stufe der Fahrzeugerkennung wurden insgesamt drei Verfahren untersucht. - Dabei erzielte das einfache korrelationsbasierte Template Matching gegenüber der Methode der skaleninvarianten Merkmalstransformation und auch gegenüber dem Verfahren der Eigenwertbetrachtung grundsätzlich bessere Ergebnisse. - Die Auswertung des Gesamterkennungssystems brachte eine Steigerung der Erkennungsrate um durchschnittlich 13% im Vergleich zum einfachen Haar-Detektionverfahren, wobei die Erkennungsroutine bei sinnvoll gewählten Systemparametern eine Verarbeitung von 12 bis 19 Frames pro Sekunde gewährleistet. Dabei arbeitet das Template-Matching-Verfahren im direkten Vergleich mit dem Haar-Algorithmus etwa 40% schneller.



Steinwede, Kai-Henner;
Spezifikation einer Rendercluster-Infrastruktur für Echtzeit-Rendering von 2K-Bilddaten bei digitaler Film Post Production. - 108 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Die Ansprüche an die Möglichkeiten der Bildnachbearbeitung und die gewünschte Bildqualität in der digitalen Film Postproduktion sind die höchsten der gesamten Medienindustrie. So wird während der Nachbearbeitung des digitalen Filmmaterials vollkommen auf verlustlose oder gar verlustbehaftete Datenkompression verzichtet. Um diesen hohen Ansprüchen gerecht zu werden, ist es notwendig sehr komplexe Algorithmen anzuwenden. Diese wiederum erfordern ein hohes Maß an Rechenleistung des verwendeten Bearbeitungssystems. Da die erforderlichen Berechnungen möglichst in Echtzeit durchgeführt werden sollen, ist es nötig, entweder speziell entwickelte Hardware einzusetzen oder aber die Rechenkapazitäten mehrerer Computersysteme zu bündeln. In der Diplomarbeit soll letztere Herangehensweise untersucht werden.



Probst, Holger;
Erweiterung eines akustischen Raumsimulationsalgorithmus für variable Raumgeometrien. - 87 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Raumakustische Simulationen ermöglichen bereits in der Planungsphase Aussagen über die Hörsamkeit eines Raumes. Die Raumimpulsantwort einer Sender-Empfänger-Konstellation in einem virtuellen Raummodell wird hierzu nach psychoakustisch relevanten Kriterien ausgewertet. Die vorliegende Diplomarbeit befasst sich mit der Erweiterung von bereits am IMT während vorheriger Arbeiten implementierten Raumsimulationsalgorithmen. Als Ergebnis ist Ray-Tracing nun in elf Frequenzbändern bei variabler Raumgeometrie möglich. Modifiziertes Ray-Tracing ("RAYSSQ") ermöglicht außerdem gegenüber der klassischen Variante effizienteres Auffinden von Spiegelquellen höherer Ordnung und in detailliert modellierten virtuellen Räumen. Die Verbindung beider Simulationsmethoden ist möglich. Detaillierte und mehrere Sekunden lange Impulsantworten können nun simuliert und ausgewertet werden. Das während der Diplomarbeit entstandene Programm ist auf Standard-PCs ausführbar. Die Parameter der Simulation werden wahlweise über eine grafische Benutzeroberfläche oder Kommandozeilenparameter eingestellt. Werkzeuge erleichtern den Bau und die Kontrolle virtueller, dreidimensionaler Raummodelle. Vergleiche mit in Vorläuferarbeiten implementierten Algorithmen belegen effizientere Ressourcenausnutzung und höhere zeitliche Auflösung der Simulationsergebnisse.



Li, Di;
MXF - Implementierungshilfen und deren prototypischer Einsatz. - 110 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Von Herstellern von High-End-Geräten digitaler Videotechnik für Film, Fernsehen, Post-Produktion, wird häufig gefordert, MXF-Features in ihre Produkte einzubringen. Ziel dieser Diplomarbeit ist es, die Anforderungen an die MXF-SDKs, die für die Implementierung aller im Broadcast-Bereich üblichen MXF-Varianten nötig sind, zu evaluieren und die vorhandene SDKs zu untersuchen, inwieweit sie diese Anforderungen erfüllen. Durch eine prototypische Implementierung soll untersucht werden, ob und wie das ausgewählte SDK in Libavus integriert werden kann, wie aufwendig die Implementierung ist und mit welchen Einschränkungen zu rechnen ist.



Kiefner, Lorenz;
Entwicklung und Implementation eines DAB-Audio-Encoders mit der Möglichkeit zur Eintastung von PAD-Datendiensten. - 100 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Im Rahmen dieser Diplomarbeit wird die Nutzung von Programme Associated Data (PAD)-Datendiensten im Digital Audio Broadcasting (DAB)-System durch open-source-Software ermöglicht. - Dazu wird der open-source Audioenkoder toolame um ein Datenkarussell erweitert und ein PAD-Enkoder programmiert. Dieser PAD-Enkoder bietet eine offengelegte SOAP-Schnittstelle, um Daten von externen Datenquellen zu empfangen. Nach der Aufbereitung und Kodierung der Daten werden diese an das Datenkarussell geschickt, um von dort aus in den Audiodatenstrom eingetastet zu werden. Der so entstehende Datenstrom lässt sich über einen DAB-Sender aussenden. Der in der leicht erlernbaren Skriptsprache Python geschriebene PAD-Enkoder stellt über eine einfach anzuwendende SOAP-Schnittstelle seine Dienste zur Verfügung, die der Umsetzung der Eingaben in standardkonforme Dateneinheiten und der Steuerung des Datenkarussells sowie des Audioenkoders dienen. Durch die Implementation des PAD-Dienstes Dynamic Label wird es Programmanbietern ermöglicht, dem Hörer durch geringen Aufwand großen Mehrwert zu bieten. Eine Aufteilung der Aufgabe in verschiedene Module ermöglicht die einfache Weiterentwicklung.



Möbius, Rico;
MXF-Schnittstelle für Teleprompteranwendungen. - 88 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Auf Grund der fortschreitenden Entwicklung werden die Audio- und Videodaten zunehmend auf dateibasierten Plattformen gespeichert. Diese bieten den Vorteil, dass die so aufgezeichneten Daten sehr schnell über Netzwerke transportiert werden können. Die Archivierung wird vereinfacht und das Auffinden so gespeicherter Materialien wird erleichtert. Außerdem lassen sich die Videodateien leichter bearbeiten, da es nicht mehr nötig ist, das Audio- und Videomaterial auf einer Kassette zu transportieren - ("Turnschuhnetzwerk") und in Echtzeit in ein Schnittsystem einzuspielen und nach der Bearbeitung auszuspielen. - Durch diese Speicherung fallen aber auch Metadaten an, also Daten die die Audio- und Videodaten beschreiben. Zusätzlich bieten sich durch die Metadaten die Möglichkeiten weitere Daten, wie z. B. Orts- und Zeitangaben, Namen von beteiligten Personen oder Texte, die vor der Kamera gesprochen werden, zu speichern. - Diese Metadaten werden in der Regel in einem eigenen Format gespeichert, das je nach Software sehr verschieden sein kann. Das führt zu dem Problem, dass diese Metadaten meist beim Austauschen der Audio- und Videodateien mit anderen Rundfunkanstalten unbrauchbar sind und aufwändig umgewandelt werden müssen. - In dieser Diplomarbeit wird auf der Basis von MXF (Material eXchange Format) und BMF (Broadcast Metadata exchange Format) der Produktionsablauf in einem Fernsehsender beleuchtet. Dabei wird von der Erstellung der Sprechertexte in der Redaktion, über die Produktion im Studio und das automatisierte Weiterleiten der Texte an das Telepromptersystem, bis hin zur automatischen Generierung eines Mehrwertes aus den Textinformationen ein Überblick gegeben. Für die Speicherung der Daten wird das MXF-Format benutzt. Die Metadaten werden BMF formatiert in MXF gespeichert. Damit wird eine universelle Verwertbarkeit der Daten, unabhängig von der verwendeten Plattform und Software sicher gestellt.



Templin, Andreas Bernd;
Entwicklung, Übertragung und Visualisierung von Service- und Programm-Informationen für DAB/DMB-Dienste. - 99 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Die vorliegende Diplomarbeit erläutert die Verarbeitungskette von Metadaten in der Fernsehproduktion bis zu einem elektronischen Programmführer (EPG) auf einem mobilen Endgerät. Dazu wird die Bedeutung von Metadaten in den verschiedenen Phasen der Fernsehproduktion anhand des Metadaten-Lebenszyklus erläutert. Auch die Rolle der Metadaten für den Endnutzer wird anhand typischer Beispiele aufgezeigt. - Die verschiedenen Verfahren für Fernsehen auf mobilen Endgeräten (Handy TV), wie Digital Mobile Broadcasting (DMB), Digital Video Broadcasting - Handhelds (DVB-H), MediaFLO und andere sowie ihre jeweiligen Besonderheiten werden vorgestellt. Typische Nutzungsszenarien von mobilem Fernsehen im Hinblick auf mobile Programmführer (EPG) werden anhand erster Ergebnisse aus Pilotprojekten untersucht und rechtliche Rahmenbedingungen für EPGs aufgezeigt. - Für das Digitalradio DAB gibt es elektronische Programmführer nach dem Standard ETSI 102 818. Dieser beschreibt die Kodierung von Metadaten in der Extendend Markup Language (XML) anhand von XML-Schemadateien. Die Eignung des Standards für DMB wird untersucht und Anpassungsmöglichkeiten vorgeschlagen. Die Anforderungen an Server und mobile Endgeräte werden untersucht. Ausgehend davon wird das Java Programm DmbMobileEpg entwickelt, dass Programm- und Servicedaten für DAB und DMB nach dem angepassten Standard auswertet und als elektronische Programmzeitschrift darstellt.



Wagner, Andreas;
Analysis of drumbeats concerning the interaction of player, striking tool and instrument. - 73 S. Ilmenau : Techn. Univ., Diplomarbeit, 2006

Diese Arbeit untersucht den Moment, in welchem der Trommelstock auf die Membran einer Trommel trifft. Hierzu wurden Experimente durchgeführt, die einen Einblick in die Interaktion zwischen Schlagzeuger, Trommelstock und Trommel gewähren. Unter Verwendung eines präparierten Trommelstocks wurden die Kraft auf den Stock, die Beschleunigung der Stockspitze, die Dauer des Kontakts zwischen Trommelstock und Trommelfell sowie der Klang der Trommel aufgezeichnet. Für die einzelnen Trommelschläge wurden Dynamik des Schlages, Schlagposition auf dem Fell sowie die Fellspannung variiert. Darüberhinaus wurden mögliche Einflüsse des Trommelstockmodells sowie des Schlagzeugers ansatzweise untersucht. - Drei Faktoren wurden identifiziert, welche während der Kontaktdauer von 36 ms die Interaktion zwischen Trommelstock und Trommelfell beeinflussen: die Auslenkung der Membran, die Vibration des Trommelstocks und eine sich ausbreitende Welle auf der Membran. Durch die Variation der einzelnen Parameter konnte der Einfluss jeder dieser drei Komponenten auf den Prozess des Trommelschlags untersucht und veranschaulicht werden.



Distel, Arno;
Entwurf und prototypische Fertigung der Hardware eines Kommunikationsendgerätes für die netzwerkbasierte Sprachkommunikation. - 120 S. Ilmenau : Techn. Univ., Diplomarbeit, 2006

Gegensprechanlagen (Intercoms) kommen zum Einsatz, wo ein hohes Kommunikationsaufkommen in eingeschränktem Zeitrahmen gefordert wird. In der Arbeit werden zunächst auf dem Markt vorhandene Intercom-Systeme evaluiert. Auf einem Anforderungskatalog basierend erfolgt der schaltungstechnische Entwurf eines "Embedded System" zur Sprachkommunikation über IP-Netzwerke. Einige Funktionen werden dabei mittels CPLD realisiert, dessen Programmierung mit VHDL ebenfalls Thema der Arbeit ist.