Abschluss- und Projektarbeiten

Das Fachgebiet bietet zahlreiche Themen für Bachelor- und Masterarbeiten an. Aktuell ausgeschriebene Themen

Sie können sich auch mit einem eigenen Thema an unsere Mitarbeiter:innen wenden. Nachstehend sind im Fachgebiet abgeschlossene, betreute Abschlussarbeiten aufgelistet. In vielen Fällen sind die Themen immernoch relevant. Zögern Sie also nicht mit uns in Kontakt zu treten, wenn  Sie dort für Sie interessant Themen finden.

Abgeschlossene Masterarbeiten
Anzahl der Treffer: 129
Erstellt: Thu, 18 Apr 2024 23:03:12 +0200 in 0.0698 sec


Tawfik, Hany;
Automatic generation of monophonic melodies with complexity constraints using deep neural networks. - Ilmenau. - 56 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Eine Methode zur Erzeugung monophoner Übungsmelodien für Musiker unterschiedlicher Komplexität wird in dieser Arbeit vorgeschlagen. Ein Datensatz von monophonen Melodien, die in ABC-Notation kodiert sind, wurde für das Training zweier generativer tiefer neuronaler Netzwerke verwendet. Beide Netzwerke beinhalten wiederkehrende Long Short-term Memory-Schichten (LSTM), um den zeitlichen Kontext in Melodien zu modellieren. Der Datensatz wurde entsprechend der rhythmischen Komplexität jeder enthaltenen Melodie in fünf Gruppen von Melodien unterteilt. Danach wurde jede Gruppe für das Training der einzelnen Netzwerke genutzt. Schließlich wurde ein statistischer Vergleich zwischen der durchschnittlichen rhythmischen Komplexität der Melodien der ursprünglichen Datensatzebenen und den entsprechenden Melodien der Netzwerke durchgeführt. Die Ergebnisse zeigen eine statistisch signifikante positive Korrelation zwischen der Komplexität der Trainingsdaten und der Komplexität der erzeugten Melodien.



Gabb, Timo;
Automatisierte Parametererzeugung für richtungsbasierte Tonwiedergabe bei Multikanal-Lautsprechersystemen. - Ilmenau. - 74 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Die vorliegende Arbeit beschäftigt sich mit der Frage, ob eine automatisierte Auswahl geeigneter Lautsprecher innerhalb eines Multikanal-Lautsprechersystems sowie die individuelle Erzeugung der Signalverarbeitungsparameter für eine richtungsbasierte Audiowiedergabe möglich ist. Die Basis für diese Lautsprecherselektion und die Parametererzeugung sind Positionskoordinaten der Einzellautsprecher sowie deren Ausrichtung, der Hörpositionen und des Richtungsgebietes. Anhand von Daten existierender großer Lautsprecher-Installationen wurde ein Algorithmus entwickelt und prototypisch in der Programmiersprache Python umgesetzt. Dieser Algorithmus enthält zusätzlich eine Optimierung der Signalverarbeitungsparameter, so dass die Spektren der Übertragungsfunktionen an den einzelnen Hörpositionen einen möglichst flachen und homogenen Frequenzverlauf haben. Die Funktionsfähigkeit des Algorithmus wurde im Rahmen eines Lokalisationshörtests mit 18 Probanden für drei Richtungsgebiete mit zwei Musikstücken und einem Sprachsignal untersucht. Die Ergebnisse des Lokalisationshörtests zeigen, dass die Lokalisation eines Richtungsgebietes bei Verwendung von mit dem Algorithmus ausgewählten Lautsprechern mit jeweils individuell erzeugten Signalverarbeitungsparametern stabil bleibt und das Richtungsgebiet korrekt lokalisiert wird. Gegenüber von nur einem einzelnen Lautsprecher als Richtungsgebiet zeigte sich in der Lokalisation eine minimale Abweichung an bestimmten Hörpositionen.



Bangalore Parappa, Brijesh;
Development and evaluation of an adaptive binaural synthesis system on the screen size. - Ilmenau. - 81 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Mit Hilfe der binauralen Synthese ist es möglich, eine realistische oder virtuelle akustische Umgebung plausibel nachzubilden oder zu synthetisieren. Diese Arbeit konzentriert sich auf die Entwicklung einer Methode zur Anpassung der durch das binaurale Synthesesystem dargestellten Audioobjektpositionen an die optische Wiedergabe über einen Bildschirm. Die aus der binauralen Synthese für das linke und rechte Ohr generierten Audiosignale wurden über Kopfhörer wiedergegeben und mit der Wiedergabe über Lautsprecher verglichen. Eine wesentliche Einschränkung solcher Systeme ist, dass die Divergenz von akustischer und visueller Lokalisationauftritt, wenn die Positionen der Objekte aufgrund der Größe und Position der Anzeige variieren. In dieser Arbeit wurde die Vector Base Amplitude Panning (VBAP)-Technik verwendet, eine Amplituden-Panning-Methode zur Positionierung virtueller Quellen in einem beliebigen 2D-Lautsprecher-Setup. Der VBAP wird in eine bestehende paarweise Panning-Technik umformuliert, um die virtuellen Quellpunkte auf dem Bildschirm zu erzeugen. Ein N-Punkt-VBAP-Algorithmus wurde entwickelt, um sich an verschiedene Punktquellen auf einer gegebenen horizontalen Linie auf drei verschiedenen optischen Bildschirmgrößen (klein, mittel und groß) anzupassen. Das entwickelte System wurde hinsichtlich der Lokalisierung der Objekte anhand verschiedener Bedingungen der akustischen und visuellen Szenenwiedergabe bewertet. Um dieses System zu bewerten, wurde die Wirkung der gerichteten Wahrnehmung von Audio und Video (Bauchredeneffekt) berücksichtigt. Hörtests wurden an 25 Teilnehmern durchgeführt, um den Einfluss des Re-Targeting auf die Bildschirmgröße zu untersuchen. Gemessen wurde die absolute Positionsabweichung in Bezug auf die beabsichtigte Zielposition bezogen auf den Re-Targeting-Fehler bei einer gegebenen Bildschirmgröße. Ein nicht-parametrischer statistischer Test, der auf die von den Probanden aufgezeichneten Re-Targeting-Fehler angewendet wurde, ergab, dass die Bildschirmgröße den Re-Targeting-Fehler beeinflusste. Diese Beziehung wurde durch die bloße Einführung eines visuellen Hinweises noch verstärkt. Dieses Phänomen war für die Fälle auffällig, in denen Sprache das Ziel-Audioobjekt war, das entweder binaural oder über ein Lautsprecher-Wiedergabesystem wiedergegeben wurde. Bei diesen Wiedergabesystemen war dieses Phänomen stärker ausgeprägt, wenn das Lautsprecher-Wiedergabesystem verwendet wurde.



Mahdi, Reem Haider Mahdi;
Investigation on individual differences in sound localization tasks description : study inter-individual difference in audio sound localization. - Ilmenau. - 66 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Das menschliche Wahrnehmungssystem weist vor allem im räumlichen Hören große individuelle Unterschiede auf. Untersuchungen haben individuelle Unterschiede in der Lokalisation von Hörereignissen beim Hören in realen und virtuellen Hörumgebungen ergeben. Für das Hören in realen Hörumgebungen konnten dafür individuelle Unterschiede in den akustischen Ohrsignalen verantwortlich gemacht werden. Diese Unterschiede resultieren aus den höchst individuellen kopfbezogenen Übertragungsfunktionen (HRTF). Für das Hören in virtuellen Umgebungen stehen die größeren individuellen Unterschiede im Zusammenhang mit den Unterschieden in der Wahrnehmungsempfindlichkeit bei der Analyse von nicht-individuellen oder künstlich HRTFs. Diese Unterschiede konnten nicht als vernachlässigbar oder als Messungenauigkeiten charakterisiert werden. Insbesondere führten einige dieser Hörunterschiede zu Verwirrung oder Mehrdeutigkeit in der Richtungswahrnehmung von vorne nach hinten oder oben nach unten. Einige dieser Unterschiede sind unabhängig von individuellen anthropometrischen menschlichen Merkmalen und von dem auditorischen System, das für die wird auralisierung . Die Gründe hierfür können im Bereich der Kognitionspsychologie liegen, die sich mit individueller Wahrnehmung, Aufmerksamkeit, Gedächtnis und Lernprozessen beschäftigt. Die vorliegende Arbeit untersucht individuelle Unterschiede im räumlichen Hören unter Berücksichtigung des Einflusses kognitionspsychologischer Parameter auf die individuellen Unterschiede der Schalllokalisation. Die Studie beinhaltet eine Untersuchung der Veränderung der Lokalisationsfähigkeit von 21 Hörern in zwei verschiedenen Hörversuchen hinsichtlich des auditorischen Trainingseffekts. Hierfür ist ein Hörtest zur Messung der Höhenwahrnehmung in der Medianebene beim Hören in realen und virtueller Umgebung realisiert. Das Training wird durch ein auditorisches Gedächtnisspiel mit künstlichen HRTFs durchgeführt. Dieses dient auch zur Überprüfung der akustischen Aufmerksamkeit und des Gedächtnisses des Hörers. Der sich anschließende psychologische Test beinhaltet einen McGurk Wahrnehmungstest und einen Fragebogen zur Selbstauskunft. Die Ergebnisse zeigen große individuelle Unterschiede zwischen den Teilnehmern in der Lokalisierungsleistung hinsichtlich des Test- und Signaltyps. Allerdings ist die Verbesserung der Höhenwahrnehmung nach einem auditorischen Training bei Verwendung künstlicher HRTFs und eines Sprachsignals nicht signifikant. Der Lernfortschritt korreliert teilweise mit der durchschnittlichen Lernzeit bei Verwendung künstlicher HRTFs. Die interindividuellen Unterschiede im Wahrnehmungslernen werden durch die Unterschiede in der Lernzeit, der Lernmethode und der Audioaufmerksamkeit beeinflusst. Die Unterschiede in der Hörwahrnehmung hängen nicht mit den Unterschieden in der Lokalisationsfähigkeit oder dem Lernfortschritt zusammen. Es erhöht jedoch die Vielfalt der akustischen Abhängigkeit zwischen den Individuen. Die Selbstberichterstattung über die tägliche Leistung konnte einige weitere Informationen über die Unterschiede in der Lokalisierungsleistung liefern.



Schneiderwind, Christian;
Analyse von Raumakustik in kleinen Räumen mit Hilfe von Eigenmike-Aufnahmen. - Ilmenau. - 90 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Die vorliegende Arbeit beschäftigt sich mit dem Gebiet der positionsabhängigen Raumakustik in kleinen Räumen. In diesem Rahmen wurden verschiedene Positionen innerhalb eines Konferenzraums der Technischen Universität Ilmenau auf physikalische und wahrnehmungsbezogene Unterschiede untersucht. Die Schallfeldaufzeichnung an den einzelnen Positionen erfolgte dabei mit einem sphärischen Kugelarray. Es folgte eine Untersuchung eines zweiten Beschallungsszenarios mit einer Drehung des Lautsprechers bei den Messanordnungen um 180 Grad. Aus den Messdaten ergab sich sowohl ein Vergleich der Werte der raumakustischen Parameter Direct-to-Reverberant Ratio, Early Decay Time und Initial Time Delay Gap, als auch der spektralen Zusammensetzungen. Plane Wave Decompositions erlaubten außerdem eine räumliche und zeitliche Betrachtung des Bereichs der frühen Reflexionen. Ein Hörtest diente dazu, die verschiedenen Positionen auf wahrnehmbare Klangunterschiede zu untersuchen. Dabei mussten Probanden in Paarvergleichen die Richtungslokalisation, Distanzwahrnehmung, Halligkeit, Quellbreite und Klangfarbenunterschiede bewerten. Die Auralisationen für den Hörtest basierten auf bereits vorhandenen Datensätzen von binauralen Raumimpulsantworten, die an den gleichen Positionen mit einem Kunstkopf gemessen wurden. Es konnte festgestellt werden, dass zwischen den einzelnen Positionen Klangunterschiede auftreten, die zudem stark von der Ausrichtung der Schallquelle abhängen. Das Beschallungsszenario mit gedrehtem Lautsprecher wies hierbei häufiger signifikante Unterschiede auf als die frontale Beschallung. Die wahrgenommenen Klangunterschiede konnten nur teilweise mit gemessenen physikalischen Parametern erklärt werden.



Ritter, Robin;
Entwicklung eines modellbasierten Peak-Limiters für elektrodynamische Lautsprecher. - Ilmenau. - 101 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Die vorliegende Arbeit beschäftigt sich mit der intelligenten Begrenzung der Membranauslenkung elektrodynamischer Lautsprecher. Durch diesen Schutzalgorithmus können unerwünschte Effekte wie Clipping, nichtlineare Verzerrungen und Schäden durch zu hohe Membranauslenkungen unterbunden werden, wobei die Lautheit des wiedergegebenen Audiosignals maximiert wird. Die Implementierung arbeitet mit Hilfe eines prädizierten Auslenkungssignals. Dieses Auslenkungssignal wird analysiert und anschließend frequenzabhängig auf Basis einer A-bewerteten Gewichtungskurve so korrigiert, dass die Membranauslenkung eine vorgegebene Grenze nicht überschreitet. Durch die individuelle Frequenzbandanpassung nach der A-Bewertung werden bei der Korrektur solche Frequenzen, die vom menschlichen Gehör leiser wahrgenommen werden, stärker gedämpft als solche, die lauter empfunden werden. Der Algorithmus arbeitet blockweise und berücksichtigt Attack- und Release-Zeiten. Eine Evaluation mechanischer Messungen zeigt, dass die Membranauslenkung bei Erhöhung der Eingangsspannung erfolgreich limitiert wird. Eine anschließende akustische Betrachtung führt zu der Erkenntnis, dass die frequenzabhängige Korrektur tatsächlich zu einem Anwachsen des A-bewerteten SPL-Pegels bei gleichbleibender Membranauslenkung führt.



Quintero, Christian;
Prototype implementation of content processing components for privacy-enhanced audio classification. - Ilmenau. - 120 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Heutzutage kann die Audioklassifikation in diversen Einsatzgebieten z.B. bei der akustischen Maschinenüberwachung, industriellen Qualitätskontrolle in Produktionsprozessen, akustischen Ereignisdetektion mittels Sensornetzwerken angewendet werden. Allerdings entsteht ein ernsthaftes Problem in all diesen Fällen, weil eine Aufzeichnung, Speicherung und Verarbeitung von Umgebungsgeräuschen benötigt wird, die vielleicht private Konversationen beinhalten. Sofern diese Inhalte in Besitz von nichtberechtigten Dritten gelangen, könnten die Daten zur Personenidentifikation, Enthüllung von Privatinformationen oder Firmengeheimnisse missbraucht werden. Das Transportieren, Verarbeiten und Speichern der Audioinformationen als Klardaten, kann zu Sicherheitsbrüchen und Privatsphärenverletzung durch Zugriff auf das Material von unberechtigten Dritte führen. Wichtig ist, dass die Datenschutzbestimmungen der europäischen und deutschen Gesetze eingehalten werden. Daher müssen sich die Bemühungen nicht nur auf die Signalverarbeitung, sondern auch auf den Datenschutz konzentrieren. Diese Arbeit stellt eine Inhaltsverarbeitungskomponente vor, die neuronale Netzwerke verwendet. Diese Komponente ist in der Lage den Datenschutz der Audioklassifikationsanwendungen zu verbessern und zugleich die negativen Einflüsse auf die Abbildungsleistung zu minimieren.



Tarale, Avinash;
Perception of simplified representations of a wall in a virtual acoustic environment. - Ilmenau. - 81 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Interaktive Erkundung ist auf dem Gebiet der Virtuellen Realität (VR) in jüngster Zeit zunehmend relevant geworden. Die neuen Anwendungen von VR erfordern interaktive und immersive Umgebungen. Darüber hinaus ermöglichen fortgeschrittene Tracking Geräte und Head Mounted Displays den Anwendern ein aktiveres Eintauchen und Erkunden virtueller Räume. Diese erfordern den Entwurf innovativer Anwendungen und Interaktionskonzepte. Das Erkunden virtueller Räume unter Zuhilfenahme künstlich erzeugter Geräusche könnte ein interessanter Interaktionsansatz sein. Dazu ist eine Technik erforderlich, welche die erzeugten Klänge in Echtzeit verarbeitet und ein plausibles akustisches Abbild der Szene mittels echtzeitfähiger Auralisation erzeugt. Diese Art von Interaktion kann durch Technologien wie Echoortung realisiert werden. Sie ermöglichen Menschen physikalische Hindernisse und Begebenheiten akustisch wahrzunehmen und zu orten, indem reflektierte Schallwellen analysiert werden. Studien haben bereits das Potential der menschlichen Echoortung als neue Interaktionstechnik gezeigt. Die vorliegende Arbeit handelt von der Frage, ob akustische Effekte die durch das Vorhandensein virtueller Charaktere in der Nähe von reflektierenden Oberflächen synthetisiert werden können um ein Echtzeiterlebnis zu ermöglichen. In diesem Kontext präsentiert diese Arbeit ein vereinfachtes analytisches Modell, implementiert in MATLAB, um die Impulsantwort reflektierender Oberflächen im Rahmen der Echoortung zu synthetisieren. Ein besonderes Merkmal dieses Modells ist, dass es nur dominante akustische Eigenschaften synthetisiert die zur Oberflächenortung benötigt werden. Das Modell wurde mit einem informellen Hörversuch auf seine Genauigkeit und die akustische Plausibilität hin untersucht. Ferner werden die synthetisierten Impulsantworten mit den gemessenen Impulsantworten der Wandortung verglichen. Darüber hinaus wurden Teilnehmer gebeten zwischen simulierten, gemessenen, und modellierten Datensätzen zu unterscheiden. Allerdings beantworten die Ergebnisse des Hörversuches zur Wandlokalisierung nicht alle motivierenden Fragen dieser Arbeit vollständig. Jedoch werden die Ergebnisse und Beobachtungen aus diesem Experiment ein wichtiger Schritt hin zur Entwicklung einer angemessenen Methodik für einen formalen Test sein.



Kotanayakanahalli Banashankarappa, Abhijatha;
Noise-robust speaker identification in cars. - Ilmenau. - 80 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Sprache ist eines der wichtigsten Kommunikationsmittel zwischen Mensch und Maschine im Auto. Neben der Spracherkennung ist die Sprecheridentität eine wichtige Information, die aus dem Sprachsignal extrahiert werden kann. Durch Detektieren der Sprecher könnte beispielsweise das Infotainmentsystem automatisch an ihre Präferenzen personalisiert werden und die Information könnte auch für eine sprecherabhängige Spracherkennung verwendet werden. Der Schwerpunkt dieser Arbeit liegt auf der audiobasierten Sprecheridentifikation in Fahrzeugen mit Freisprecheinrichtung. Viele verschiedene Merkmale wie Gammatone Frequency Cepstral Coefficients (GFCC), Mel-Frequency Cepstral Coefficient (MFCC), Linear Predictive Cepstral Coefficients (LPCC), Linear Prediction Coefficients (LPC) und entsprechende Delta und Delta-Delta-Merkmale werden aus den Sprachdaten zur Sprechererkennung extrahiert. Mithilfe Lineare Diskriminanzanalyse (LDA) wird die Dimensionalität der Merkmale reduziert. Gaußsche Mischmodelle werden als Klassifikator verwendet. Das System ist so implementiert, dass es in Echtzeit arbeitet. Die Sprachdaten werden von 11 verschiedenen Sprechern mithilfe der integrierten Freisprechmikrofone erfasst. Das Fahrgeräusch bei den Geschwindigkeiten 60 & 120 km/h gemessen, wird zu den Signalen addiert. Eine Klassifizierungsgenauigkeit von 99%, 99,8% und 97,7% wird im Leerlauf, 60 & 120 km/h erreicht.



Jurgeit, Kai-Peter;
Investigations on the parametric description of spatial sound fields. - Ilmenau. - 60 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Im Rahmen dieser Masterarbeit wurde ein System für die parametrische Kodierung von richtungsabhängigen Raumimpulsantworten (DRIR, engl. direcitonal room impulse response), die mit einem sphärischen Mikrofonarray gemessen wurden, entwickelt. Es basiert auf einer Zerlegung des Schallfelds in ebene Wellen und auf Signalverarbeitung im Zeit-Frequenz-Bereich. Das System soll das Schallfeld effizient und flexibel abbilden und eine immersive binaurale Wiedergabe ermöglichen. Hierfür nutzt es die Grenzen der auditven Wahrnehmung aus und bietet dem Anwender die Möglichkeit die zeitliche, spektrale und räumliche Auflösung des Systems einzustellen. Die Analyse von Direkt- und Diffusschall basiert auf einer Raum-Zeit-Energie-Matrix und linearer Regression. Die jeweiligen Direktschallanteile werden durch die Zeit und Schalleinfallsrichtung, sowie den Pegel und die Indizes der zugehörigen Subbänder (optional) repräsentiert. Der Diffusschallanteil wird durch den Achsenschnittpunkt, die Neigung und Energie der Abklingkurve dargestellt. Die Synthese der Direktschallanteile basiert auf der Generierung idealer ebener Wellen. Diffusschall wird mittels Rauschformung synthetisiert. Die Leistung des Systems wird in einem MUSHRA-Hörtest mit unterschiedlichen Kodiereinstellungen evaluiert. Die Ergebnisse des Tests ergaben, dass es keine klare Präferenz für eine bestimmte Einstellung gibt. Mehr Aussagekraft könnten Testmethoden liefern, in denen die Bewertung anhand von wahrnehmungsspezifischen Eigenschaften erfolgt, die dem räumlichen Hören direkt zuzuordnen sind. Die Implementierung des Systems veranschaulicht die Machbarkeit und das Potential von parametrischem DRIR Rendering. Es zeigt, dass der Ansatz hohe Kompressionraten und hohe Flexibilität bezüglich des Wiedergabesystems, sowie eine dynamische Auralisation ermöglichen könnte. Allerdings muss das zugrundeliegende physikalische und perzeptive Modell optimiert werden, um ein Schallfeld immersiv abbilden zu können.