Abschlussarbeiten

Anzahl der Treffer: 203
Erstellt: Wed, 27 Mar 2024 23:04:27 +0100 in 0.1116 sec


Wahl, Alexandra;
Design und Prototypenentwicklung eines Editors zum Erstellen von Presets in objektbasierten Audioszenen. - Ilmenau. - 64 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2017

Das Ziel der Bachelorarbeit ist es ein prototypisches Produktionstool für objektbasiertes Audio zu entwerfen und zu implementieren. Objektbasiertes Audio beschreibt die Darstellung von Audioinhalten. Ein Audioobjekt, bestehend aus Metadaten und Audiorohdaten, beinhaltet alle nötigen Informationen, um von einem Renderer der Wiedergabesituation entsprechend prozessiert zu erden. Die fortlaufende Manipulation der Metadaten erlaubt Interaktionen des Konsumenten und der Umgebung mit dem Audioobjekt. Das in dieser Arbeit zu erstellende Produktionstool ermöglicht die Generierung von Audiocontent im 360˚-Video Umfeld. Audioobjekte sollen mit interaktiven Parametern versehen werden können. Das Tool verfügt über ein graphisches 360˚-Editionsumfeld und erzeugt eine Konfigurationsdatei, welche alle für den Renderer relevanten Informationen (Presets) beinhaltet. Zusammen mit den hinterlegten Audiodateien, welche in der Konfigurationsdatei mit den entsprechenden Metadaten verlinkt sind, wird der Rendererprozess gestartet. Das Produktionstool soll als eigenständiger Service in Cloud Computing Systemen integrierbar sein. Hiermit bekommen Kunden die Möglichkeit komplexen objektbasierten Content sogar auf einem schwachen Endgerät, wie Smartphones (in Besonderem in Verbindung mit einer Google Cardboard Brille) oder Tablets, zu erstellen.



Zebelein, Julian;
Features of 4K/UHD contents and relevance for video system technology evaluation. - Ilmenau. - 63 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Diese Arbeit stellt eine neue Methode zur automatischen Evaulierung von Videoqualität im Bereich HD und UHD vor. Dieser Ansatz setzt auf die Extraktion von vier Signal Features: Schärfe, Kontrast, Bewegung und Sättigung. Weiterhin werden inhaltsbasierte Eigenschaften ausgewertet, Gesichter werden erkannt und ein Algorithmus zum Erkennen von auffallenden und herausragenden Bildelementen wird verwendet. Die anfallenden Daten werden von drei unterschiedlichen machinellen Lernverfahren ausgewertet: Der Support Vector Machine, einem Random Forest Klassifikationsverfahren und dem k-nearest neighbor Algorithmus. Der gesamte Prozess wird mit einem eigens entwickelten Datensatz von 165 Testvideos untersucht. Für diesen Datensatz liefert das Random Forest Klassifikationsverfahren die besten Ergebnisse betreffend Accuracy, Precision, Recall und dem F-Maß. Die Visualisierung der Entscheidungsgrenze und die ROC Kurven bestätigen dieses Ergebnis weiterhin. Einige der Beschränkungen können durch den verwendeten Videodatensatz entstanden sein, welcher die Basis für das Klassifikationsverfahren bildet. Es wurde gezeigt, dass dieser Ansatz rentabel und stabil ist und sehr gute Ergebnisse liefert. Jedoch muss der als Basis benutzte Videodatensatz selbst evaluiert werden, da er qualitativ hochwertig und repräsentativ für den jeweiligen Einsatzzweck sein muss.



Selent, Daniel;
Entwurf und Validierung eines perzeptiven Testverfahrens zur analytischen Qualitätsbeurteilung von 4K/UHD-Technologie. - Ilmenau. - 52 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Das Ziel der vorliegenden Masterarbeit war es ein Training für die 4K/UHD-Technologie zu entwickeln, das erfahrene Nutzer zu Expertennutzern ausbildet. Dabei wurden vorhandene Trainings aus dem Audiobereich auf ihre Methodiken untersucht und versucht auf den Videobereich zu übertragen. Erstellt wurde ein Training, basierend auf einem two Forced Alternative Choice Design, das die Attribute Farbsättigung, Framerate, Auflösung und Bitrate trainiert. Anhand der statistischen Auswertung subjektiver Videotests vor und nach den Trainings ist zu erkennen, dass bei den Attributen ein Trainingseffekt stattgefunden hat. Ferner wurde großer Wert auf die Auswahl und Bearbeitung der Stimuli und die Einordnung der Probanden in Profile gelegt. Eine Besonderheit der Stimuli ist, dass diese aus unbekannten Quellen stammen und klassifiziert werden mussten. Die Probandenprofile orientieren sich an den aus dem Audiobereich bekannten Profilen von Bech und Zacharov.



Latus, Julius;
Implementierung von Algorithmen zur Synchronisierung und Verarbeitung von A/V-Signalen mittels FPGA-Schaltungen für die Übertragung in IP-basierten Netzwerken. - Ilmenau. - 101 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

In der Arbeit werden Verfahren zur Synchronisierung von Audio- und Videosignalen im professionellen Studio betrachtet. Hierbei werden periodische Synchronsignale generiert. Deren einzelne Abschnitte werden Bereichen der ebenfalls periodischen Mediensignale zugeordnet. Wird dieses Verhältnis für die Geräte im Studio eingehalten, arbeiten sie synchron zueinander. Die Synchronsignale werden zusammen mit den Audio- und Videodaten in Form von IP-Paketen in einem Netzwerk übertragen. Die Verfahren werden in den Standards IEEE Std 1588 -2008, SMPTE ST 2059-1:2015 und SMPTE ST 2059-2:2015 beschrieben. Ziel der Arbeit ist es, eine bestehende Implementierung der Standards an ein Zielsystem anzupassen und zu evaluieren. Die Implementierung liegt in Form von Schaltungen und Treibern für ein Entwicklungsboard mit FPGA vor. Durch die Evaluierung kann beantwortet werden, welche Anforderungen an eine Implementierung der Verfahren bestehen und wie diese in der Praxis erfüllt werden können. Dazu werden theoretische Analysen durchgeführt, mit denen u.a. die benötigte Genauigkeit der Synchronisierung in einem Studio bestimmt wird. Außerdem werden Messungen mit zwei Rechnern durchgeführt, um deren Genauigkeit der Synchronisierung bestimmen zu können. Die Ergebnisse werden mit der Genauigkeit des Referenzdesigns verglichen. Es kann gezeigt werden, dass die benötigten Anforderungen nur dann erfüllt werden können, wenn die zur Synchronisierung benötigten Zeitstempel in Hardware generiert werden. Das Referenzdesign erfüllt diese Anforderung. Es kann außerdem gezeigt werden, dass die Genauigkeit durch die Veränderung von Parametern der Regelschleifen der Geräte beeinflusst werden kann. Daher ist es sinnvoll, bestimmte Bereiche einer Implementierung zur Laufzeit modifizieren zu können. Es ist absehbar, dass im netzwerkbasierten Studio künftig auch Algorithmen für die Überwachung und Steuerung von Geräten eingesetzt werden sollen. Dies spricht ebenfalls für eine flexible Implementierung in einzelnen Bereichen.



Löber, Daniel;
Eine Open Source Audioengine für Virtual Reality Anwendungen. - Ilmenau. - 58 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Im Kompetenzzentrum Virtual Reality der TU Ilmenau wird in der \gls{cave} ein IOSONO-System verwendet, um räumlichen Klang mittels Wellenfeldsynthese zu erzeugen. Da dies ein poprietäres System ist, sind Anpassungen an der Sounderzeugung oder der Konfiguration nur in begrenztem Rahmen möglich. Der SoundScape Renderer ist ein Open-Source-Projekt zur räumlichen Klangerzeugung. Unterstützte Methoden sind neben dem vector-based amplitude panning auch Wellenfeldsynthese und Ambisonics. In dieser Arbeit wird das Audiosystem der CAVE untersucht um festzustellen, ob es möglich ist den SoundScape Renderer in die bestehenden Systeme zu integrieren. Nötige Änderungen werden herausgearbeitet und umgesetzt. Abgeschlossen wird die Arbeit mit einem Hörversuch, der die beiden Systeme miteinander vergleicht.



Fremerey, Stephan;
Measuring the exploration behaviour of people in omnidirectional videos. - Ilmenau. - 96 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Der Hauptschwerpunkt dieser Arbeit besteht darin, das Erkundungsverhalten von Personen innerhalb von 360˚ Videos zu untersuchen. Hierzu wird im Rahmen der Arbeit ein Framework entwickelt, welches in der Lage ist, die Kopfbewegungen von Personen, die ein Head-Mounted Display (HMD) tragen, zu verfolgen. Das Framework soll auch auf die Daten eines externen Motion Capturing Systems zugreifen können. Ziel der Arbeit ist unter anderem die Untersuchung der Nutzbarkeit und Genauigkeit der ermittelten Daten beider Systeme. Außerdem wird der Einfluss eines Kabels bei Head-Mounted Displays auf das Erkundungsverhalten von Personen untersucht, wobei auch Aspekte bezüglich der Simulationskrankheit beleuchtet werden. Weiterhin wird betrachtet, inwiefern der Inhalt und Häufigkeit der Wiedergabe eines Videos einen Einfluss auf das Erkundungsverhalten von Personen haben. Hierbei wird auch das interindividuelle Verhalten verglichen, wobei untersucht wird, ob ein typisches Sichtfeld bei 360˚ Videos vorhanden ist. Innerhalb des theoretischen Teils werden zuerst Grundlagen bezüglich Kopfbewegungsdaten dargelegt. Hiernach werden Faktoren genannt, die zum Erkundungsverhalten von Personen bei 360˚ Video beitragen können. Außerdem werden verschiedene Methoden zur automatisierten Extraktion des Ansichtsfensters bei 360˚ Video vorgestellt. Weiterhin werden Gründe und Messmethoden der Simulationskrankheit präsentiert. Zum Schluss werden aktuelle HMDs diskutiert. Innerhalb des folgenden Teils werden die Ziele, Anforderungen und Komponenten des Frameworks dargelegt. Hiernach wird das Setup und der Export von Daten des Motion Capturing Systems beschrieben. Danach wird die Architektur des Frameworks erläutert, wobei der Fokus auf die Wiedergabe der 360˚ Videos und synchrone Aufnahme der Daten bei beiden Systemen gelegt wird. Im Folgenden wird die Benutzung des Frameworks beschrieben. Zuletzt werden entwickelte Evaluationsskripte des Frameworks vorgestellt. Im folgenden Teil werden zuerst zwei Studien, welche mittels des Frameworks durchgeführt werden, präsentiert und diskutiert. Im Anschluss daran findet ein Proof of Concept Test statt, bei dem der Fokus auf die Beantwortung der oben genannten Forschungsfragen gelegt wird. Zum Schluss der Arbeit wird eine Anforderungsanalyse durchgeführt. Weiterhin werden mögliche Verbesserungen des Frameworks und Forschungsansätze angeführt.



Pricken, Robin;
Quality aspects of near-end listening enhancement approaches in telecommunication applications. - Ilmenau. - 71 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Um die Sprachverständlichkeit in lauten Umgebungen zu verbessern, wurden in den letzten Jahren viele Ansätze unter dem Namen Near-end-Listening Enhancement (NELE) veröffentlicht. Verschiedene Evaluationen haben sich des Themas angenommen und die Ansätze in umfangreichen Studien miteinander verglichen. Jedoch wurden dabei die Rahmenbedingungen, die sich in der Telekommunikation, einem der Haupteinsatzfelder, ergeben, vernachlässigt. In diesem Einsatzfeld wird das Signal immer auf der Sendeseite codiert und auf der Empfängerseite decodiert, was zu einer hörbaren Verschlechterung des Signals führt. Des Weiteren wurden die Algorithmen meist nur in Bezug auf die Verbesserung der Sprachverständlichkeit getestet. Aus diesem Grund ist wenig über die möglichen Einbußen in der Sprachqualität bei dem Einsatz dieser Algorithmen bekannt. Im Rahmen dieser Masterarbeit wurde der Algorithmus SSDRC von Zorila u.a. implementiert und modifiziert. Die Implementierung und vier weitere NELE Ansätze wurden in einem formalen Hörtest mit Blick auf die Sprachqualität miteinander verglichen. Hierbei wurden verschiedene Störgeräuschszenarien sowie die typische Hörsituation mit in Betracht bezogen. Die häufig eingesetzten Codecs ITU-T Rec. G.711, G.722 und G.726 wurden für die Anwendung auf die Sprachsignale ausgewählt. In den Ergebnissen der Hörtests zeigte sich, dass die meisten Ansätze die Sprachqualität in den untersuchten Störgeräuschsituationen im Vergleich zum Referenzsignal verbessern konnten. Der Anstieg der Sprachqualität zeichnete sich besonders deutlich in Kombination mit dem Breitband-Codec ITU-T Rec. G.722 ab.



Betz, Lorenz;
Compensation of nonlinear distortion in high frequency waveguides. - Ilmenau. - 139 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Die Arbeit behandelt Nichtlinearitäten in den Kompressionstreibern und Schallführungen von Hochton-Hornlautsprechern. Neben den elektrischen und mechanischen Ursachen entstehen nichtlineare Verzerrungen aufgrund der adiabatischen Eigenschaften von Luft und den hohen Schalldrücken im Inneren der Lautsprecher. Dies bewirkt eine Verschlechterung der Klangqualität. Da diese Verzerrungen prinzipbedingt sind, sind klanglichen Defizite unausweichlich mit Hochton-Hornlautsprechern verbunden. Zwar gibt es Veröffentlichungen über die Kompensation von Nichtlinearitäten auf der Basis einer elektrischen Vorverzerrung des Anregungssignals, jedoch wurde keine der Ansätze bislang in ein Produkt integriert. Diese Arbeit gibt einen Überblick über die verschiedenen Ursachen von Nichtlinearitäten und über die Modellbildung und Kompensation dieser nach dem Stand der Technik. Außerdem wird das nichtlineare Verhalten von aktuellen Hochton-Hornlautsprechern gemessen und neben klassischen Methoden anhand einer neuartigen Darstellungsform mittels Lissajous-Figuren aufgezeigt. Auf Basis dieser Darstellung wird eine Filterstruktur entwickelt, die es ermöglicht, Effekte der adiabatischen Kompression zu reduzieren. Der Kompensationsansatz wird anhand von Messungen mit Ein- und Zweitonsignalen evaluiert. Abhängig vom verwendeten Lautsprecher kann durch die Vorverzerrung die gesamte harmonische Verzerrung innerhalb von 950 Hz bis 10 kHz im Mittel knapp um den Faktor zwei reduziert werden. Dadurch soll die Klangqualität des Lautsprechers gesteigert und der maximale Schalldruckpegel erhöht werden.



Heinl, Tobias;
Methods for maintaining consistent target loudness for user-controlled component-balancing in diverse playback environments. - Ilmenau. - 100 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Die nächste Generation von Audio-Codecs wird es dem Nutzer ermöglichen, die Mix-Zusammensetzung von Sendeinhalten innerhalb definierter Limits zu anzupassen. Zugleich wurde innerhalb der letzten Jahre eine Vielzahl an Empfehlungen und Methoden zur Herstellung von Lautheits-Konsistenz über den Verlauf mehrerer Segmente eines Programms eingeführt. Ziel dieser Masterarbeit ist die Untersuchung von Methoden, mit denen die Einhaltung eines durchgängigen Lautheits-Niveaus auch dann gewährleistet werden kann, wenn das Mischverhältnis der Inhalte empfängerseitig an die Vorlieben des jeweiligen Konsumenten angepasst wird. Der entwickelte Lösungsansatz bestimmt die Lautheit des Programmsignals auf Basis der Lautheiten der einzelnen Mix-Komponenten. Die entsprechenden Werte können dabei entweder geschätzt oder gemessen vorliegen. Die Normalisierungsfaktoren werden so berechnet, dass die Lautheit nach Mix-Anpassung durch den Nutzer soweit möglich identisch zur Lautheit vor der Anpassung bleibt. Insgesamt wurden vier verschiedene Verfahren implementiert und anschließend im Rahmen eines interaktiven Hörversuchs evaluiert. Die beiden Lautheits-gesteuerten Verfahren lieferten Ergebnisse innerhalb des zulässigen Toleranzbereiches für Lautheits-Fluktuationen und schnitten ähnlich gut ab wie eine bereits existierende Lösung, bei der das bereits gemischte Ausgangssignal unabhängig von zuvor erzeugten Lautheits-Metadaten geregelt wird. Letzteres kann jedoch eine Verringerung des Dynamikumfangs mit sich bringen und verursacht einen verhältnismäßig hohen Rechenaufwand. Die Untersuchung hat deutlich gemacht, dass die Einhaltung eines konsistenten Lautheits-Niveaus nur schwer oder mitunter nicht möglich ist, wenn die Laustärke von Dialog als dominanter Anteil der Mischung gedämpft wird und die entsprechenden Hintergrund-Geräusche einen hohen Dynamikumfang aufweisen. Obgleich regelmäßige Aktualisierungen der Mix-Komponenten-Lautheit ein gewisses Maß an Robustheit gegen unvorhergesehene Schwankungen gewährleisten, kann zufriedenstellendes Verhalten auch mit statischen, vordefinierten Werten erreicht werden. In diesem Fall muss die Einhaltung der entsprechenden Grenzwerte für die einzelnen Komponenten senderseitig überwacht und sichergestellt werden.



Daschner, Anna-Maria;
Hochbandbreitige IP-Signale in virtualisierten Umgebungen. - 149 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Im Zuge der zukünftigen Einführung von Ultra High Definition Television (UHDTV) zeichnet sich im Broadcastbereich innerhalb der TV-Prozesskette ein Wandel in Bezug auf die Übertragungstechnologie ab. Die damit verbundene Übertragung mit hohen Datenraten soll anstatt mit dem etablierten Serial Digital Interface (SDI) mittels klassischer IT-Hardware über das Internet Protocol (IP) bewerkstelligt werden. Durch eine Verlagerung der bestehenden Infrastrukturen in ein Datenzentrum gewinnen Rundfunkanstalten eine höhere Flexibilität und erhalten zudem die Möglichkeit ihre Systeme zu virtualisieren und in eine Cloud zu verschieben. Diverse Forschungsgruppen zeigen jedoch, dass die derzeitig implementierte Strategie zur Paketverarbeitung im Standard-Betriebssystemkernel beim Empfang und Versand von Netzwerkdaten mit hohen Datenpaketraten eine schlechte Performance aufweist. Darüber hinaus kommt bei einer Virtualisierung ein zusätzlicher Overhead hinzu, der ebenfalls gehandhabt werden muss. Die vorliegende Masterarbeit beschäftigt sich daher mit der Verwendung virtualisierter Commercial-off-the-shelf (COTS)-Hardware für den Empfang hochbandbreitiger IP-Signale, die Audio/Video (AV)-Daten transportieren. Hierfür wird nach einer Betrachtung von Virtualisierung und den Möglichkeiten für eine High-Speed-Verarbeitung von Netzwerkdatenverkehr ein Lösungsansatz für ein virtualisiertes Monitoringsystem ausgewählt, welcher jeweils auf einem Typ-1- und Typ-2-Hypervisor getestet und ausgewertet wird. Schließlich kann gezeigt werden, dass eine fehlerfreie AV-Datenübertragung mit einer Bandbreite von bis zu 20 Gbit/s auf virtualisierter COTS-Hardware zu erreichen ist.