Abschluss- und Projektarbeiten

Das Fachgebiet bietet zahlreiche Themen für Bachelor- und Masterarbeiten an. Aktuell ausgeschriebene Themen

Sie können sich auch mit einem eigenen Thema an unsere Mitarbeiter:innen wenden. Nachstehend sind im Fachgebiet abgeschlossene, betreute Abschlussarbeiten aufgelistet. In vielen Fällen sind die Themen immernoch relevant. Zögern Sie also nicht mit uns in Kontakt zu treten, wenn  Sie dort für Sie interessant Themen finden.

Abgeschlossene Masterarbeiten
Anzahl der Treffer: 129
Erstellt: Mon, 22 Apr 2024 23:02:16 +0200 in 0.0735 sec


Seyfferth, Constantin;
Automatisierte Charakterisierung der Wiedergabeumgebung von Lautsprechern mittels Hörschall. - Ilmenau. - 77 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Die vorliegende Arbeit beschäftigt sich mit der Ermittlung von Raumgeometrie auf der Grundlage von Hörschallmessungen eines Lautsprecherpaares in einem Wohnraum über zwei verschiedene Ansätze. Der erste Ansatz untersucht die axialen Raummoden, da sie Aufschluss über die Abmessungen eines Raumes geben. Der zweite Ansatz erforscht die Ableitung von Raumgeometrien anhand der Ankunftszeiten von Raumreflexionen in der Impulsantwort. Es werden Methoden vorgestellt, um störende Faktoren wie Reflexionen an Objekten aus den Messungen weitestgehend zu entfernen und um die oberen, unteren, vorderen und hinteren Reflektoren sowie die Position der Lautsprecher in einem rechteckigen Raum zu lokalisieren. Die Ergebnisse beider Ansätze werden mittels eines Raummessdatensatzes bewertet, der sowohl virtuelle als auch reale Messungen enthält.



Warmuth, Kenneth;
Der Einfluss des Mikrofonarrays auf die Coloration und räumliche Audioqualität in einem Binauralsynthesesystem. - Ilmenau. - 77 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Das Ziel der vorliegenden Arbeit im Rahmen einer Masterarbeit war es, den Einfluss von verschiedenen Mikrofonarrays auf die Coloration und räumliche Audioqualität in einem Binauralsynthesesystem zu untersuchen. Nach der Aufnahme von Raumimpulsantworten mit je einem Kunstkopf-, Motion-Tracked Binaural- sowie Spatial Decomposition Method-Mikrofonarray wurde mit 19 Probanden ein Hörtest durchgeführt. Unter Verwendung des Py Binaural Simulators (PyBinSim) sowie eines Trackingsystems konnte die Binauralsynthese, beruhend auf KEMAR-HRTFs für den KEMAR und das SDM-Array, umgesetzt werden. Die MTB-Signale wurden ohne HRTFs verwendet. Auf dieser Basis wurde ein Colorations- und Lokalisationstest durchgeführt. In den Ergebnissen zeigt sich, dass die untersuchten Mikrofonarrays einen unterschiedlichen Einfluss auf die räumliche Audioqualität haben. In der Gesamtbetrachtung von Signalcoloration sowie Signallokalisation als Teil der räumlichen Audioqualität zeigte sich die geringste Beeinflussung beim KEMAR. Eben dieser ist für die Binauralsynthese angesichts der untersuchten Aspekte am besten geeignet. Die größte Wirkung auf die Auralisation wurde durch das MTB-Array erzeugt. Dieses nimmt einen starken Einfluss auf die Signalcoloration, überzeugt aber bei der Einschätzung der Externalisation. Der Elevationsaspekt stellt sich bei allen Mikrofonarrays als schwierig heraus. Die ermittelten Daten zeigen, dass die auf die horizontale Bewegung des Kopfes begrenzte dynamische Binauralsynthese die Elevation ermöglicht, jedoch nicht herausragend ist.



Möller, Fabian;
Konzept für eine minimale und flexible Messanordnung für die objektive Sicherung der Audioqualität von professioneller Beschallungstechnik. - Ilmenau. - 127 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Lautsprecher für anspruchsvolle Beschallungsaufgaben sind verschiedensten Beanspruchungen ausgesetzt, wodurch sie mechanische oder elektrische Beschädigungen erleiden können und somit die Wiedergabequalität nachlässt. Eine kritische Qualitätskontrolle nach jedem Einsatz findet allerdings nur selten statt, da die Hürden von objektiven Messsystemen für viele Veranstaltungstechnikbetriebe zu hoch sind. Die vorliegende Arbeit befasst sich daher mit der Konzeptionierung eines minimalen und universellen Messsystems für die Qualitätskontrolle von professionellen eschallungslautsprechern. Ziel ist ein praxisgerechtes und zuverlässiges Konzept, basierend auf dem Klippel QC System, welches durch robuste und effiziente Prüfsequenzen eine objektive Qualitätssicherung und Defekterkennung ermöglicht. Dafür wurden bisherige Verfahren der Qualitätssicherung in der Veranstaltungstechnik gesichtet, deren Stärken und Schwächen identifiziert, um darauf aufbauend Konzepte in unterschiedlichen Ausprägungen zu formulieren. Diese wurden unter Realbedingungen getestet und evaluiert, um daraus universelle und robuste Prüfgrenzen abzuleiten. Ausgelegt sind die Konzepte dabei sowohl auf akustische als auch auf elektrische Messungen im Klein- und Großsignalbereich, um über verschiedene Messmethoden eine möglichst breite Analyse von Defektcharakteristiken zu erzielen. Dabei werden stets die Anforderungen und Bedürfnisse von Veranstaltungstechnikbetrieben berücksichtigt, um ein praxisnahes und praktikables Messsystem zu konzeptionieren.



Chauhan, Jaydeep;
Multi-scale sound event detection. - Ilmenau. - 124 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Die Aufgabe der Erkennung von Schallereignissen (Sound Events Detection, SED) zielt darauf ab, Schallereignisse und ihre zeitliche Position in kontinuierlichen Audiosegmenten vorherzusagen. SED-Algorithmen werden in Anwendungen wie Audio-Tagging, Verkehrsüberwachung, Sicherheitsanwendungen usw. eingesetzt. Datenmangel und die Verschiedenartigkeit der Schallquellen machen die SED-Aufgabe zu einer großen Herausforderung. Auf der Grundlage des von Ding et al. vorgeschlagenen adaptive multiscale sound event detector (AdaMD) wird in dieser Arbeit eine modifizierte Version des Modells (AdaMD-M) untersucht. Dieses Modell verwendet ein neuronales hourglass Netzwerk und Gated Recurrent Unit Module. Darüber hinaus haben wir das AdaMD-M-Modell zur Unterstützung von Klassifizierungsaufgaben modifiziert und ein leichteres SED-Modell für Low-End-Geräte vorgeschlagen. Um das vorgeschlagene Modell mit anderen State-of-the-Art-Modellen (SOTA) zu vergleichen, verwenden wir die Detection and Classification of Acoustic Scenes and Events (DCASE) Herausforderung als Referenz. Wir untersuchten auch zwei Methoden zur Datenerweiterung (DA), d.h. MixUp und Random erase. Für die Bewertung verwendeten wir die F1-Score- und Fehlerraten (ER)-Metriken. Das AdaMD-M Modell zeigt eine geringere ER als die DCASE zweite und dritte rangierten Teilnehmer für DCASE 2016 Task 3 Herausforderung. In DCASE 2017 Task 3 zeigt AdaMD-M eine niedrigere ER als das DCASE-Basismodell bleibt aber knapp hinter den anderen SOTA-Ergebnissen zurück. Wenn AdaMD-M mit Standarddaten trainiert wird, bleibt es in der monophonen SED-Aufgabe deutlich hinter SOTA zurück. Wird jedoch mit einem benutzerdefinierten Datensatz trainiert, verbessern sich die Ergebnisse von AdaMD-M um etwa 50 %. Das Klassifikatormodell liefert einen durchschnittlichen F1-Wert von 0,229 bzw. 0,236 mit und ohne DA. Die leichtere Version des SED-Modells zeigt einen ER von 0,821 und übertrifft damit unsere Erwartungen.



Flemming, Sebastian;
Erweiterung eines Systems zur automatischen Evaluation von A/V-Analysekomponenten. - Ilmenau. - 60 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Im Fraunhofer-Institut für Digitale Medientechnologie (IDMT) wurde ein Framework zur automatischen, verteilten und vergleichenden Evaluation von Audio/Video-Analysekomponenten entwickelt. Dessen letzter Status setzte jedoch das Vorhandensein von anwendungsspezifisch annotiertem Content voraus, wobei die Datenhaltung in der Form von XML-Dokumenten erfolgte. Ziel dieser Arbeit ist die Erarbeitung von Möglichkeiten, wie das Framework um anwendungsübergreifende Annotationen, eine flexiblere Datenhaltung und mitunter die gezielte Erstellung von Test-Content erweitert werden könnte. Dafür wird sich hinführend mit dem Konzept der Evaluation beschäftigt und auf das vorhandene Framework und eine existierende Weiterentwicklung eingegangen. Der Schwerpunkt richtet sich anschließend auf die Untersuchung des Resource Description Frameworks (RDF) und möglicher, darauf aufbauender Schemasprachen. Diese werden als plausible Basis für die Bereitstellung flexibler Daten- und Annotationsstrukturen gesehen. Im Rahmen dessen erfolgt die Beschreibung möglicher Modell-Strukturen und eine Sammlung von für die Bearbeitung, Speicherung und Verwendung von RDF ausgelegter Software. Des Weiteren wird eine theoretische Herangehensweise an automatische Test-Content-Generierung diskutiert. Der abschließende Teil beschreibt die Durchführung zweier Testfälle unter Nutzung von Content-Annotationen im RDF-Format mittels des dementsprechend angepassten Frameworks.



Ribecky Arroyo, Sebastian;
Disentanglement representation learning for music annotation and music similarity. - Ilmenau. - 122 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Die Automatisierung von Musikannotationen und ähnlichkeitsbasierte Suchabrufen ist in den letzten Jahren im Zentrum der Musikinformatik-Forschung platziert. Die Entwicklung solcher Systeme ermöglicht die Strukturierung der ständig wachsenden digitalen Sammlungen, sowie die Entwicklung von Anwendungen, die den Benutzern helfen, sich darin zurechtzufinden. Moderne Ansätze verwenden tiefe neuronale Netzwerken: miteinander verbundener Recheneinheiten, die in Schichten organisiert sind, und Architekturen zur hierarchisch Verarbeitung von Daten bilden. Die schichtweise Verarbeitung durch diese Systeme führt zu komprimierten codierten Darstellungen der Eingabedaten, die einen abstrakten latenten Netzwerksraum widerspiegeln, in dem die semantischen Einflussfaktoren des Systems verteilt sind. Gleich wie viele andere Bereiche unserer Welt kann Musik in eine Reihe von semantisch bedeutsamen Variationsfaktoren zerlegt werden. Normalerweise werden diese Faktoren vom Netzwerk ohne Überwachung aus den Eingabedaten abgeleitet, was zu einer geringen Interpretierbarkeit beziehungsweise eine "Black-Box"-Behandlung führt. Aktuelle Repräsentationslernstrategien versuchen, die in tiefen Repräsentationen vorhandenen Variationsfaktoren zu entwirren, und zielen darauf ab, die Leistung modernster Ansätze der künstlichen Intelligenz zu verbessern. In dieser Arbeit wird eine umfangreiche Studie zum Repräsentationslernen vorgestellt, die auf die Entwirrung musikalischer Konzepte fokussiert wird. Dafür wurde einen Tiefenmodell implementiert, das Ähnlichkeiten zwischen Proben innerhalb jedes entwirrten Konzepts lernt. Es wird mit eine Vielfalt von Konfigurationen des implementierten Modells experimentiert, einschließlich einer in dieser Arbeit vorgeschlagenen neuartigen tiefen Architektur, die mehrere Eingabedarstellungen parallel verarbeitet. Um die erzeugten entwirrten Darstellungen zu bewerten, wird ein perzeptueller Musiähnlichkeitsansatz verwendet, wobei gezeigt wird, dass die vorgeschlagene Architektur den Stand der Technik für die Triplett-Vorhersageaufgabe übertrifft. Um den Einfluss jedes entwirrten Konzepts auf die Wahrnehmung von Musikähnlichkeit weiter zu untersuchen, wird eine neuartige multi-dimensionale Analyse vorgestellt. Die Darstellungen werden auch in einem Musikannotationskontext für die "Auto-Tagging"-Aufgabe getestet. Anhand der Ergebnisse werden zukünftige Optimierungs- und Entwicklungsvorschläge präsentiert und diskutiert.



Surdu, Ileana-Tatiana;
Influence of different room properties on distance perception. - Ilmenau. - 82 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Ein Ziel für Augmented-Reality-Audiosysteme besteht darin, durch die Kombination virtueller Elemente mit der Realität, authentische Hörszenarien zu erzeugen. Für ein erfolgreiches Ergebnis sollte die gewählte Technologie entsprechend angepasst werden, um die notwendigen Anforderungen des menschlichen Hörsystems zu erfüllen. Dazu gehört ein Verständnis dafür, wie sich unterschiedliche Umgebungen und ihre entsprechenden beschreibenden Parameter konkret auf die Wahrnehmung des Hörers auswirken. Im Rahmen von Augmented Reality soll dem Nutzer eine plausible und externalisierte virtuelle Schallquelle zur Verfügung gestellt werden, die in der reellen Umgebung passend platziert werden kann. Dies erfordert die Einbeziehung von ausreichenden Informationen, damit die Richtungs- und Entfernungsschätzungen genau durchgeführt werden können. Das Ziel dieser Arbeit ist es zu untersuchen, wie und in welchem Ausmaß akustische Parameter die Distanzwahrnehmung in Räumen beeinflussen. Zu diesem Zweck wurde ein Reshaping-Algorithmus auf eine Reihe von binauralen Raumimpulsantworten (BRIRs) angewendet, die in verschiedenen Räumen im gleichen Abstand gemessen wurden. Für die Signalanpassung wurde ein akustisches Referenzmuster eines anderen Raumes verwendet, das über den BRIR-Datensatz unter Verwendung einer Manipulation der Energieabfallkurven angewandt wurde. Die Signale wurden, sowohl einer Breitband-, als auch einer Subband-Anpassung unterzogen. Außerdem wurden zwei verschiedene Anfangszeitpunkte für die Signalanpassung ausgewählt. Ein Ansatz umfasste das gesamte Signal nach dem Direktschall. Die Alternative bezieht sich auf dem späten Nachhall, wobei die Komponente des Signals 50 ms nach dem Direktschall berücksichtigt wurde. Der Bewertungsprozess ergab eine starke Korrelation zwischen dem Anfangszeitpunkt der Signalmanipulation und der Wahrnehmung der nachgebildeten Hörszene. Eine Anpassung der Nachhallkomponente lieferte als Endergebnis eine bessere räumliche Darstellung für die virtuelle Schallquelle. Die Rolle der Filterbankverwendung konnte auch beobachtet werden. Die Umsetzung hat dazu beigetragen, die Wahrnehmung des BRIR-Sets, in gewissem Maße zu verbessern.



Hock, Kevin;
Konzeption und prototypische Umsetzung akustischer Eventdetektion mittels Drohnentechnologie. - Ilmenau. - 111 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Dank verschiedener Drohnensysteme ist es möglich, komplexe Aufgaben unterschiedlichster Bereiche deutlich zu vereinfachen. Dazu nutzen Drohnen individuell anpassbare Sensoren. Hauptsächlich sind dies Kameras. Akustische Sensoren hingegen sind bisher noch nicht etabliert, obwohl diese vielfältige Anwendungsmöglichkeiten in Kombination mit KI-basierten Algorithmen bieten. Diese Arbeit liefert ein Konzept eines Multikopters zur akustischen Eventdetektion. Hierzu wird in die Grundlagen der Mikrofontechnik sowie in Methoden des maschinellen Lernens eingeführt. Zur Realisierung akustischer Eventdetektion mittels Drohnentechnologie können mehrere Systemkomponenten im Rahmen der Konzeption abgeleitet werden. Neben dem Drohnensystem werden die akustischen Bedingungen zur Mikrofonierung analysiert. Die Implementierung der Eventdetektion beruht auf linearen Support Vector Machines in Verbindung mit OpenL3-Embeddings. Dabei wird ein Datensatz der DCASE2020 Challenge um Regenwald- sowie Drohnengeräusche erweitert. Ein akustischer Sensor an einer Drohne ist zwangsläufig Störeinflüssen wie dem Rotorabstrahl oder den Betriebsgeräuschen ausgesetzt. In diesem Kontext werden diverse Hochpassfilter und die Magnitude Spectral Substraction betrachtet. Obwohl die Verfahren den SNR nur geringfügig verbessern, erweisen sich Hochpassfilter als geeigneter. Zusätzlich wird ein Mikrofongehäuse zur Windabschirmung entworfen und messtechnisch evaluiert. Bei einer nur geringen Abschirmwirkung verschlechtert sich die Richtcharakteristik des Mikrofons merklich. Basierend auf den bisherigen Erkenntnissen werden alle Komponenten in einer prototypischen Umsetzung zusammengeführt. Unter kontrollierten Bedingungen zeigt sich, dass der Klassifikator mit einer höheren Wahrscheinlichkeit einige Klassen korrekt zuordnen kann. Wobei die Berücksichtigung von Drohnengeräuschen bereits im Trainingsdatensatz die Performance verbessert. Hingegen führt die Anwendung der Hochpassfilter zu deutlichen Beeinträchtigungen. Infolgedessen werden diese Filter unter Realbedingungen nicht berücksichtigt. Die Auswertung eines durchgeführten Drohnenflugs gibt Hinweise, dass auch unter realen Voraussetzungen teils ein hoher Recall erreicht wird. Die Ergebnisse der Arbeit sollten weitergehend bei unterschiedlichen Wetterbedingungen und Umgebungsgeräuschen validiert werden. Weiterhin sind Verbesserungen der einzelnen Systemkomponenten für einen zuverlässigen und praktikablen Einsatz erforderlich. Einige Möglichkeiten hierzu werden abschließend präsentiert.



Melzer, Matthias;
Validierung und Integration der Spatial Decomposition Method in ein positionsdynamisches Binauralsynthesesystem. - Ilmenau. - 62 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

In vorliegender Masterarbeit wurden binaural room impulse repsonse (BRIR) unter Nutzungder spatial decomposition method (SDM) synthetisiert. In einem ersten Schritt wurden hierfür mit einem speziellen, Mikrofonarray mehrkanalige Audio Aufnahmen von Raumimpulsantworten erzeugt. Anhand dieser Aufnahmen und der SDM Toolbox wurde eine direction of arrival (DOA) Matrix erzeugt, welche jedem Sample der gemessenen Raumimpulsantwort eine Schalleinfallsrichtung zuweist. Das Verhalten der DOA Matrix wurde untersucht und es konnten Richtwerte zur Analyse Fensterlänge des DOA Einschätzungs Algorithmus getroffen werden. Zur weiteren Verbesserung der Einschätzung, der Schalleinfallsrichtung durch die DOA Analyse wurde die Berechnung eines gleitenden Mittelwertes vorgestellt. Mithilfe der SDM Toolbox und der CIPIC Head related transfer functi-on (HRTF) Datenbank konnten auf Grundlage der DOA Matrix und der Raumimpulsantwortmessung ein Datensatz von BRIRs für eine Aufnahmeposition im Raum synthetisiert werden. Dieser Datensatz wurde f ur eine komplette 360 Grad Drehung der Azimutwinkelin 5 Grad Schritten erzeugt. Der Mess- und Zeitaufwand f ur die Herstellung eines solchen Datensatzes konnte dabei im Vergleich zu einer Kunstkopfmessung um ein vielfaches verringertwerden. Es wurden die Spektren, T30 Werte und inter aural cross correlation (IACC) Werte der synthetisierten BRIRs mit gemessenen BRIRs des Kunstkopfes verglichen. Der genutzte HRTF Datensatz zur Synthetisierung wurde dabei mit dem gleichen Kunstkopfmikrofon erzeugt, mit dem auch gemessen wurde. Alle berechneten Werten zeigten abhängig vom Fall oftmals hörbare Unterschiede, aber auch Ähnlichkeiten zwischen den synthetisierten und gemessenen Werten.Auf Grundlage der gewonnenen Erkenntnisse konnte Optimierungsvorschläge getroffen werden und die SDM Synthese als Alternative zur Kunstkopfmessung vorgestellt werden.



Dietrich, Stefan;
Entwurf und Implementierung eines semi-automatischen Prüfsystems zur verlässlichen Artefakt-Detektion bei drahtloser Audioübertragung in digitalen Hörsystemen. - Ilmenau. - 70 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Digitale Hörgeräte verfügen heute über eine Vielzahl an Funktionen, um ihren Trägern das bestmögliche Hörerlebnis in verschiedenen alltäglichen Situationen zu bieten. Dazu gehört auch die Einbindung externer Peripheriegeräte, etwa Smartphones, zur drahtlosen Übertragung von Audioinhalten. Die Akzeptanz dieser Technologie setzt jedoch eine konstante und möglichst fehlerfreie Verbindung voraus. Fehler in der Übertragung oder der Decodierung des Signals beeinträchtigen den potenziellen Mehrwert dieser Funktion. Die vorliegende Arbeit befasst sich mit der Beschreibung und Detektion solcher Streamingartefakte. In einer Reihe von Vortests wurden solche zunächst ausgemacht und klassifiziert. Für den nächsten Schritt wurde ein bestehendes Aufnahmesystem adaptiert, über welches die übertragenen Signale für vier Hörgerätepaare zur gleichen Zeit aufgezeichnet werden können. Die damit erzeugten Aufnahmen, sollten dann auf die nun bekannten Arten von Artefakten untersucht werden. Zu diesem Zweck wurde ein Prüfsystem in den Programmiersprachen Matlab/GNU Octave entwickelt. Dieses ist in der Lage, Artefakte automatisch zu detektieren und zu zählen. Vor dem Hintergrund einer zukünftig geplanten Implementierung in ein eingebettetes System, ist das Programm auf eine ressourcenschonende und echtzeitbasierte Auswertung der Daten ausgelegt. Die Detektion basiert auf einer Betrachtung der Signalenergie und spektralen Eigenschaften. Mit Hinblick auf letztere, konnte eine interessante Entdeckung zum Ursprung der Artefakte gemacht werden. Es hat sich gezeigt, dass diese über den eigentlich übertragenen Frequenzbereich hinausgehen. Somit können diese nicht Teil Übertragung selbst sein, sondern entstehen offenbar bei der Decodierung auf der Empfängerseite. Die Befunde über Art, Häufigkeit und Eigenschaften auftretender Artefakte, werden fortlaufend mit dem Chiphersteller der verwendeten Hörgeräte diskutiert. So können diese bei der Arbeit an zukünftigen Versionen mit berücksichtigt werden.