http://www.tu-ilmenau.de

Logo TU Ilmenau


INHALTE

Hauptseminar Medientechnologie

Hinweis

Willkommen auf der Webseite zum Hauptseminar Medientechnologie im Wintersemester 2020/2021. Dieses Hauptseminar wird gemeinsam von den Fachgebieten Audiovisuelle Technik und Elektronische Medientechnik veranstaltet.

Auf dieser Seite finden Sie Informationen zu Ihrem Hauptseminar sowie eine Übersicht über die Themen mit den Terminen für die Präsentation. Weiterhin finden Sie unter LINKS nützliche Informationen und Material zur Erstellung Ihrer Präsentation und Ausarbeitung.

Die Moodel-Seite finden Sie hier: Moodle-Kurs 

 

### Aktuelles ###

Aufgrund der durch die SARS-CoV-2 Pandemie verursachten Erfordernisse wird das Hauptseminar als eine Hybrid-Veranstaltung durchgeführt. Zu den jeweiligen Terminen befinden sich in Präsenz vor Ort der/die Vortragende, die Themenbetreuer*innen, Professoren sowie weitere wissenschaftliche Mitarbeiter*innen. Die Anzahl an Personen richtet sich dabei nach der zulässigen Anzahl für den jeweiligen Raum. Der Vortrag wird für alle anderen Studierenden live über eine WebEx-Konferenzschaltung zur Verfügung gestellt.

#############

 

Die Wahl Ihres Themas geschieht über die elektronische Einschreibung des Instituts.

Einschreibezeitraum: 30.09.2020 18:00 Uhr bis 14.10.2020 18:00 Uhr

Link zur Einschreibung: e-Einschreibung

 

Ihr Hauptseminar besteht aus einem 30 minütigen Vortrag zum gewählten Thema mit anschließender Diskussion. In dem Vortrag sollen Sie das Thema einführen und Details der Ihnen gestellten Aufgabe präsentieren. 

Zusätzlich zum Vortrag wird von Ihnen eine schriftliche Ausarbeitung in Form einer wissenschaftlichen Arbeit erwartet. Der Umfang der Arbeit soll bei 20 Seiten liegen. Für die Erstellung der schriftlichen Ausarbeitung können Sie rechts unter Links stehende LaTeX-Vorlagen oder auch ein Schreibprogramm Ihrer Wahl verwenden. 

Es wird von Ihnen erwartet, dass Sie sich aktiv und selbstständig in das jeweilige Themengebiet einarbeiten. Dies umfasst das Studium der gestellten Literatur sowie zusätzlich der eigenständig recherchierten Literatur. Sie sollen das gestellte Thema sowie das dazugehörige Forschungsgebiet soweit verstehen, dass Sie einen Vortrag mit anschließender Diskussion und eine schriftliche Ausarbeitung dazu erstellen können. Selbstverständlich steht Ihnen der Betreuer des jeweiligen Themas für Konsultationen bereit. Nutzen Sie diese Möglichkeit!

Beachten Sie bitte, dass bei dieser Lehrveranstaltung eine Anwesenheitspflicht besteht. Die Art und der Ablauf der Veranstaltung erfordert Ihre Anwesenheit. Sollten Sie aus wichtigen Gründen dennoch nicht teilnehmen können, haben Sie die Möglichkeit an bis zu zwei Terminen nicht am Hauptseminar teilzunehmen. Geben Sie dies bitte vorher bekannt.

Weitere Informationen zum Ablauf erhalten Sie am ersten Termin.

Für Fragen und Hinweise kontaktieren Sie bitte:

Stephan Werner (stephan.werner@tu-ilmenau.de) oder Prof. Alexander Raake (alexander.raake@tu-ilmenau.de)

Terminübersicht

Bitte beachten Sie, dass die Einführungsveranstaltung am 14.10.2019 von 13:00-14:30 im SrK2003B oder als Online-Angebot in einem WebEx-Raum stattfindet. Die Entscheidung dazu kann leider erst nach Abschluss der elektronischen Einschreibung erfolgen, wenn die Anzahl der Teilnehmerinnen und Teilnehmer bekannt ist. In der K2003B finden elf Personen platz. Wir werden Sie hier auf der Webseite dazu informieren. 

In der Einführungsveranstaltung werden die organisatorischen Belange besprochen. Weiterhin werden die Betreuerinnen und Betreuer für die einzelnen Themen anwesend sein. Gerne können Sie sich aber schon vorher mit Ihrem Themensteller in Verbindung setzen!

Weiterhin bieten wir Ihnen in Zusammenarbeit mit der Universitätsbibliothek eine strukturierte Einführung in das wissenschaftliche Arbeiten an. Hierzu werden zwei Seminare veranstaltet, die sich mit der Bibliotheks- und Datenbanknutzung, mit LATEX als Schriftsatzprogramm sowie mit dem richtiges Zitieren und der Literaturverwaltung beschäftigen. Eine Angabe der Termin wird hier nachgereicht sobald diese bekannt sind.

 

Nachstehend finden Sie eine Übersicht der geplanten Termine. (last updated: 29.09.2020)

Nr KW Termin Thema A Thema B
1 42 14.10.2020 Einführungsveranstaltung
2 43 21.10.2020 Vorbereitungszeit und/oder Einführung wissenschaftliches Arbeiten
3 44 28.10.2020 Vorbereitungszeit und/oder Einführung wissenschaftliches Arbeiten
4 45 04.11.2020 Vorbereitungszeit und/oder Einführung wissenschaftliches Arbeiten
5 46 11.11.2020 Vorbereitungszeit
6 47 18.11.2020 Thema 1 Thema 2
7 48 25.11.2020 Thema 3 Thema 4
8 49 02.12.2020 Thema 5 Thema 6
9 50 09.12.2020 Thema 7 Thema 8
10 51 16.12.2020 Reserve Reserve
11 1 06.01.2021 Thema 9 Thema 10
12 2 13.01.2021 Thema 11 Thema 12
13 3 20.01.2021 Thema 13 Reserve
14 4 27.01.2021 Bewertung Ausarbeitungen
15 5 03.02.2021 Nachbesprechung Betreuer und Studierende

Themen

Nachstehend finden Sie die in diesem Durchgang gestellte Themen für Ihr Hauptseminar als Übersicht.

Gerne können Sie aber auch ein eigenes Thema bearbeiten. Kontaktieren Sie dazu bitte stephan.werner@tu-ilmenau.de .

 


Thema 1

XR based conferencing: Technology, chances, and challenges (Topic can be done in German or English)

Supervisor: M. Sc. Stephan Fremerey (stephan.fremerey@tu-ilmenau.de)

Communication plays a big role in our daily life and is characteristic for humans. In the last few years, teleconferencing became more popular, especially in course of the COVID-19 pandemic. One possible application scenario is home office: Due to Statista, the potential of home office is increasing and not yet fully exploited (cf. https://de.statista.com/statistik/daten/studie/1140049/umfrage/corona-krise-homeoffice-nutzung-und-potenzial/). Several conferencing solutions are available at the market, mostly based on a typical webcam and audio implementation like e.g. Microsoft Teams, Cisco WebEx or Jitsi. Due to recent advances made in the area of Virtual, Augmented and Mixed reality (VR/AR/MR) – summarized under the term “XR” – teleconferencing using these technologies is a hot topic. It is expected that – assuming a good and reliable implementation – the usage of such technologies could improve the productivity and presence of humans, e.g. at their tele working space.

Within this topic, after introducing the topic at first an overview on the factors defining telepresence has to be created. Then, considering the technical implementation, available XR based conferencing technologies need to be compared to each other. While doing so, it is desired to take a look as well on the existing literature as on very recent studies and findings in this area. As a next step, it is desired to point out chances and challenges in this domain, while the student should as well take a deep look into the literature as also include his or her own thoughts about this topic. At the end of the work, a conclusion summarizing the findings of the work and an outlook is required.

Papers [1] and [2] could be used as an entry point for getting an overview, which factors are defining telepresence. Further recent papers in this area are e.g. [3] or [4]. Paper [5] describes an implementation of life-size telepresence not using recent XR technologies like Head-Mounted Displays or AR glasses.

 

Literature:

[1] Steuer, Jonathan. "Defining virtual reality: Dimensions determining telepresence." Journal of communication 42.4 (1992): 73-93.

[2] Sheridan, Thomas B. "Musings on telepresence and virtual presence." Presence: Teleoperators & Virtual Environments 1.1 (1992): 120-126.

[3] Dijkstra-Soudarissanane, Sylvie, et al. "Multi-sensor capture and network processing for virtual reality conferencing." Proceedings of the 10th ACM Multimedia Systems Conference. ACM, 2019.

[4] Gunkel, Simon NB, et al. "Virtual reality conferencing: multi-user immersive VR experiences on the web." Proceedings of the 9th ACM Multimedia Systems Conference. ACM, 2018.

[5] Pejsa, Tomislav, et al. "Room2room: Enabling life-size telepresence in a projected augmented reality environment." Proceedings of the 19th ACM conference on computer-supported cooperative work & social computing. ACM, 2016.

 


Thema 2

Web Audio API

Betreuer: Dr. Eckhardt Schön (eckhardt.schoen@tu-ilmenau.de)

Die Web Audio API bietet die Möglichkeit, Sound und Musik in Web-Applikationen zu erzeugen und zu bearbeiten. Stellen Sie das Konzept der Audio Graphen vor! Wie ordnet sich die Web Audio API in den Gesamtkontext der HTML5-basierten Web-Applikationen ein? Erläutern Sie, welche Anwendungsmöglichkeiten es gibt! Vergleichen Sie die Web Audio API mit den Ansätzen der Web Speech API! Demonstrieren Sie einige Möglichkeiten mit Hilfe von Beispielen - möglichst selbst geschriebenen!

 

Literatur:

Boris Smus: Web Audio API: Advanced Sound for Games and Interactive Apps, O'Reilly and Associates 2013

S. W. Lee, B. Taylor, G. Essl: Interactive Music on the Web, in.: Foundations in Sound Design for Interactive Media: A Multidisciplinary Approach (Ed.: M. Filimowicz), Verlag Routledge 2019

Web Audio API - W3C Candidate Recommendation, 11 June 2020; https://www.w3.org/TR/webaudio/

Mozilla Web Audio API Website; https://developer.mozilla.org/en-US/docs/Web/API/Web_Audio_API

 


Thema 3

On the utilization of expert and naïve subjects in media quality tests (Topic can be done in German or English)

Supervisor: M. Sc. Dominik Keller (dominik.keller@tu-ilmenau.de)

To ensure customer satisfaction, all kinds of service providers and manufacturers have a need for quality control. In the field of media technology, where audio, image, and video elements are being consumed, all participating companies of the media creation, processing, distribution, and playback chain are interested in their impact on quality and the respective perceptive results of the settings of the devices and services. For this, usually human test participants are asked for their ratings. Evaluations can be done in both a hedonic manner (asking how well participants like a stimulus) and descriptive way (asking for differences, commonalities, or descriptions of media).

In practice, there are two different types of subjects selected for such tests: experts and untrained / regular people, so called naïves. In addition, the general approach of performing quality and media evaluation shifted from focusing on quality to getting a more holistic view on why and how ratings are the way they are. Therefore, more advanced rating questions are given to the subjects.

One task is to work out the differences between expert and naïve subjects. Another task is to research, in which testing context what kind of test subjects are to be used. Furthermore, what methods can be used with each group of participants. Additionally, it is useful to find out, how the questions and task should be designed to have best suitability for each group of participants. Finally, an estimate of what the different efforts and expenses are shall be given.

The overall goal is to include all these types of information in some kind of handy look up table that can be used for designing test methodologies. Initial reading can be found the sources below.

 

Literature:

[1] Renzo Shamey, Lina M. Cárdenas, David Hinks, and Roger Woodard: "Comparison of naïve and expert subjects in the assessment of small color differences"

[2] Anna M Horwood, Patricia M Riddell: "Differences between naïve and expert observers’ vergence and accommodative responses to a range of targets."

[3] Luke Chengwu Cui: "Do experts and naive observers judge printing quality differently?"

[4] Dominik Keller; Tamara Seybold; Janto Skowronek ; Alexander Raake: ”Assessing Texture Dimensions and Video Quality in Motion Pictures using Sensory Evaluation Techniques”

[5] Nick Zacharov, Chris Pike, Frank Melchior, Thierry Worch:  “Next generation audio system assessment using the multiple stimulus ideal profile method”

[6] Nick Zacharov ; Torben Pedersen ; Chris Pike: “A common lexicon for spatial sound quality assessment - latest developments”

[7] D. Strohmeier, S. Jumisko-Pyykko, and K. Kunze: “Open profiling of quality: A mixed method approach to understanding multimodal quality perception”

[8] S. Bech, R. Hamberg, M. Nijenhuis, et al.: “Rapid perceptual image description (RaPID) method”

 


Thema 4

Comparison between airborne and structure-borne noises from various acoustic events in the context of partial discharge (PD)

Supervisor: M. Sc. Saichand Gourishetti (saichand.gourishetti@idmt.fraunhofer.de)

The high-voltage industries are regularly confronted with the problem of partial discharge (PD), which occurs due to failure of the insulation between the conductor materials and causes system faults. There are different types of partial discharges (e.g. corona, arcing, tracking, etc.) that occur in different equipment/materials, some of which are internal and others external. The occurrence of PD is related to the number of physical effects such as electromagnetic radiation, heating, acoustic, optical signal radiation and chemical conversions.

We focus on the acoustic emission during the PD event. Each PD type has different acoustic properties with respect to the equipment type (e.g., transformers, switchgears, high-voltage conductors, etc.), frequency range and the type of acoustic emission (airborne and structure-borne).

You will study the characteristics/properties of two different types of acoustic emissions of partial discharge and their frequencies ranging from audible to ultrasonic. In this seminar work, you will have to find the existing measurements of PD in the industries (example: acoustic condition monitoring, predictive maintenance, detection of anomalies, etc.)

Your presentation of results will contain the comparison based on the characteristics of mentioned PD types, acoustic emission type, frequency ranges related to different equipment types.

 

Literature:

[1] Patrick Jonas, KTH electrical engineering, Stockholm (Master Thesis 2012) Acoustic Emission Properties of Partial Discharges in the time-domain and their applications

[2] Malcolm Smith, (a) ISVR Consulting, University of Southampton, UK Prediction methodologies for vibration and structure borne noise ()

[3] Controlling air-borne and structure-borne sound in buildings Inter-Noise 2009 [Proceedings], pp. 1-15, 2009-08-23 NRC Publications Archive Archives des publications du CNRC

Note: Further literature research is still required, and we will provide some papers.

 


Thema 5

Tile-based streaming of 360°/VR Videos

Supervisor: M. Sc. Ashutosh Singla (ashutosh.singla@tu-ilmenau.de)

In recent years, there has been a lot of advancement in hardware and rendering technologies which has led to an increase in the consumption of Virtual Reality applications. 360° video streaming is an example of such an application. With a resolution increase of 360° videos beyond 4K, many streaming service providers propose different solutions for the so-called tile-based 360° video streaming. Here, the video frame is decomposed into tiles, streaming and presenting only that part to the viewer that is currently shown in her/his viewport of the Head Mounted Display (HMD).

The seminar talk and paper should deal with the following tasks:

1.      Need for a tile-based streaming solution over full frame streaming

2.      Major challenges in tile-based 360° video streaming technology

3.      Role of different factors in determining the QoE of tile-based streaming technology

4.      Benefits and trade-offs of tile-based streaming

As a starting point, papers [1] and [2] can serve. The student is expected to do a more extensive survey of the existing literature.

 

Literature:

[1] R. van Brandenburg et. al. CDN optimization for VR streaming, Oct 2017. https://www.ibc.org/tech-advances/cdn-optimisation-for-vr-streaming-/2457.article

[2] Raoul Monnier et. al., Streaming UHD-Quality VR at Realistic Bitrates: Mission Impossible? 2017 NAB Broadcast Engineering and Information Technology Conference (BEITC) (2017)

 


Thema 6

Analysis and Evaluation of Cybersickness in Virtual Environment

Supervisor: M. Sc. Ashutosh Singla (ashutosh.singla@tu-ilmenau.de)

Cybersickness is an undesirable phenomenon that is caused by the sensory conflict between visual and vestibular system. Some persons may experience the symptoms of cybersickness while watching 360°/Virtual Reality (VR) videos with Head-Mounted Displays (HMDs). At present, practically no solution/technique exists that can effectively and efficiently eradicate the symptoms of cybersickness from virtual environments. Therefore, in the absence of such a solution, it has become indispensable to find out the origin of sickness and analyze different ways of evaluating sickness.

The objective of the seminar is to find out different theories related to the onset of cybersickness. Also, a comparison should be made to find out the most appropriate theory. There are different techniques of measuring and reporting symptoms of cybersickness. A literature research should be conducted to investigate the different methods for the assessment of the symptoms. In the end, the goal is to compare the merits and demerits of the methods. If possible, it is sought to recommend which of the assessment methods should be used to report symptoms.

As a starting point, papers [1] and [2] can serve. The student is expected to do a more extensive survey of the existing literature.

 

Literature:

[1] L. Rebenitsch et. al., Review on cybersickness in applications and visual displays, In Virtual Reality, pp. 101–125, June. 2016. 

[2] J. LaViola et. al., A Discussion of Cybersickness in Virtual Environments, In SIGCHI Bull, pp. 47–56, January 2000.

 


Thema 7

Verwendung von KI-Methoden in Hörmodellen

Kontakt: Dr.-Ing. Stephan Werner, stephan.werner@tu-ilmenau.de

In der Hörforschung kommen oft Computermodelle zu den Vorgängen des Hörens zur Anwendung. Die Modelle reichen von der Abbildung der Bewegung der Basilarmembran bis hin zur Modellierung von komplexen neurologischen Vorgängen im Gehirn. Diese Modelle finden ihre Anwendung in der Grundlagenforschung aber auch in der Signalverarbeitung für Hörgeräte und Cochlea-Implantate oder in der Binauralsynthese zur Erzeugung einer virtuellen und/oder augmentierten Hörumgebung. Eine Herausforderung für den Einsatz in Geräten und Anwendungen ist die Echtzeitfähigkeit derartiger Modelle. In jüngster Zeit wird versucht die Ausgaben der Modelle durch künstliche neuronale Netze und andere Methoden des machine learnings abzubilden. Die Aufgabe des Hauptseminars ist die Vorstellung von aktuellen KI-basierten Hörmodellen und deren Verwendung. 

 

Literatur:

Bert de Vries and Andrew Dittberner, „Is hearing-aid signal processing ready for machine learning?“: https://pdfs.semanticscholar.org/39c6/3a9857e03e27050c253f3833f74697e58868.pdf?_ga=2.135698481.1858692956.1568651397-675086437.1568651397

Josef Schlittenlacher, Richard E. Turner, and Brian C. J. Moore, “Fast computation of loudness using deep neural network”, https://arxiv.org/pdf/1905.10399.pdf

 


Thema 8

The Role of Media Technology in Climate Protection (the topic can be done in German or in English)

Supervisor: M. Sc. Claudia Stirnat (claudia.stirnat@tu-ilmenau.de)

Climate protection has become a major challenge recently to minimize effects caused by climate change. Thus, sustainability is more important than ever. Media technology as one of many disciplines uses electricity and consequently contributes to CO2 emissions on the one hand. On the other hand, media technology can be used to efficiently reduce the impact on nature by preventing from the employment of even more CO2 emitting technology such as flights.

The task is to get familiar with the role of media technology within the CO2 emission and how efforts in sustainability can be put into practice. Therefore, the task is exemplary to find current solutions how to positively contribute to climate protection in audio/video/ audio-visual technology and what current or future research efforts are.

The following questions and literature serve as an orientation and starting point.

-          How much is the CO2-emission in digital technology?

-          How much is the CO2-emssion compared to other CO2-emission (E.g. caused by air-, vehicle traffic or coal-fired power station)

-          What approaches exist to reduce CO2 emission in media technology? (E.g. energy efficient products, use of products in media technology (in the field of audio/ video and audio-vision) to reduce or avoid higher CO2 emissions?

-          When is it worth it to use media technology to avoid other emissions and when is the emission caused by the use of media technology even higher? (E.g. by the emission caused by servers)

 

Literature:

[1] Ökoinstitut, list of publications, online. Available: https://www.oeko.de/publikationen?tx_kesearch_pi1%5Bsword%5D=&id=42&tx_kesearch_pi1%5Bpage%5D=1&tx_kesearch_pi1%5BresetFilters%5D=0&tx_kesearch_pi1%5BsortByField%5D=&tx_kesearch_pi1%5BsortByDir%5D=asc&tx_kesearch_pi1%5Bfilter%5D%5B21%5D%5B12220%5D=Gr%C3%B6ger+J[Accessed: 10.09.2020].

[2] Gröger, J., ‚Die grüne Cloud – Gestaltungsansätze zur ökologischen Optimierung‘, 2018. Online. Available: https://www.oeko.de/fileadmin/oekodoc/Gruene-Cloud.pdf. [Accessed: 10.09.2020].

[3] Marina Köhn, Jens Gröger, Lutz Stobbe, „Energie- und Ressourceneffizienz digitaler Infrastrukturen - Ergebnisse des Forschungsprojektes ‘Green Cloud-Computing‘“. Umweltbundesamt (Editor), pp. 1 – 13. Available: https://www.umweltbundesamt.de/publikationen/energie-ressourceneffizienz-digitaler [Accessed: 11.09.2020].

 


Thema 9

Ways towards model robustness and different kinds of robustness checks

Supervisor: Dr. David Johnson (david.scott.johnson@idmt.fraunhofer.de)

Not only in critical areas it is mandatory to apply robust AI models. In this seminar work the student will have to answer the question about how robustness in the context of deep learning (DL) models is defined and which different ways towards robust models are available. Furthermore, different kinds of robustness tests will be investigated.

 

Literature:

Szegedy, C., Zaremba, W., Sutskever, I., Bruna, J., Erhan, D., Goodfellow, I., & Fergus, R. (2014). Intriguing properties of neural networks. 2nd International Conference on Learning Representations, ICLR 2014 - Conference Track Proceedings, 1–10. https://arxiv.org/abs/1312.6199

Johnson, D. and Grollmisch, S., “Techniques Improving the Robustness of Deep Learning Models for Industrial Sound Analysis,” in Proceedings of the European Signal Processing Conference (EUSIPCO), (Amsterdam, The Netherlands), 2020 Accepted. (Email for a copy)

 


Thema 10

A Comparison of Traditional Machine Learning and Deep Learning for Acoustic Condition Monitoring and Quality Control.

Supervisor: Dr. David Johnson (david.scott.johnson@idmt.fraunhofer.de)

As manufacturing organizations work to automate their production lines improved, methods for the monitoring of the machine condition and production quality are increasingly important. Often times, workers rely on their hearing to monitor machine and product quality, but with less workers on the production floor other methods are needed.  Machine learning using acoustic signals is a common approach to address this challenge. In the past, acoustic experts were needed carefully hand-craft features that could be used as input into a machine learning model, however, this was expensive, time-consuming and unreliable. Modern machine learning, i.e. deep learning, addresses this challenge by learning a feature representation. For this project, you will be researching the use of machine learning in acoustic condition monitoring (ACM) and quality control (AQC). The main goal is to compare traditional methods with deep learning methods, identifying where each method excels or falls short to provide a clear direction for future research to improve ACM and AQC.

 

Literature:

LeCun, Y., Bengio, Y. & Hinton, G. "Deep learning," Nature 521, 436–444 (2015). https://doi.org/10.1038/nature14539

Grollmisch, S., Abeβer J., Liebetrau, J., and Lukashevich H. "Sounding Industry: Challenges and Datasets for Industrial Sound Analysis," 2019 27th European Signal Processing Conference (EUSIPCO). https://doi.org/10.23919/EUSIPCO.2019.8902941

He, M., & He, D. (2017). "Deep Learning Based Approach for Bearing Fault Diagnosis," IEEE Transactions on Industry Applications. https://doi.org/10.1109/TIA.2017.2661250

 


Thema 11

A Review of Machine Learning for Acoutistic Based Online Fault Detection in Welding

Supervisor: David Johnson (david.scott.johnson@idmt.fraunhofer.de)

Welding processes are increasingly being automated and therefore require automated methods for identifying the quality of the welded objects. In manual processes, welders are often able to hear the quality of their weld and modify their technique to obtain a proper weld. Furthermore, the spark created by the welding process makes it difficult at times to see the resulting weld. Instead, the acoustic emission of the weld can be automatically analyzed using machine learning to identify quality of the weld. The main goal of this project, it is to analyze existing machine learning methods, including deep learning, and identify some ideas to improve online fault detection.

 

Literature:

Ren, W., Wen, G., Liu, S., Yang, Z., Xu, B., & Zhang, Z. (2018). Seam Penetration Recognition for GTAW Using Convolutional Neural Network Based on Time-Frequency Image of Arc Sound. IEEE International Conference on Emerging Technologies and Factory Automation. https://doi.org/10.1109/ETFA.2018.8502478

LeCun, Y., Bengio, Y. & Hinton, G. "Deep learning," Nature 521, 436–444 (2015). https://doi.org/10.1038/nature14539

Johnson, D. and Grollmisch, S., “Techniques Improving the Robustness of Deep Learning Models for Industrial Sound Analysis,” in Proceedings of the European Signal Processing Conference (EUSIPCO), (Amsterdam, The Netherlands), 2020 Accepted. (Email for a copy)

 


Thema 12

Synthetische Daten: Methoden zur Erzeugung und Einsatzmöglichkeiten am Beispiel der Detektion akustischer Events

Betreuerin: Dr.-Ing. Sara Kepplinger (sara.kepplinger@idmt.fraunhofer.de)

Für eine robuste Schallanalyse mittels Deep Learning (DL) Verfahren im Industriebereich mangelt es meist an ausreichend Daten zum Modelltraining. Weiterhin sind DL-basierte Verfahren oft auf die akustischen Bedingungen der Trainingsdaten hin optimiert und sind oft wenig robust, wenn neue Daten mit unbekannten akustischen Eigenschaften untersucht werden sollen [1]. Das bedeutet, es werden generell viele Daten gebraucht, um gute Modelle zu erhalten. Zusätzlich sind zur Sicherstellung von Robustheit gegenüber veränderten akustischen Bedingungen und Datenverteilungen noch weitere, gezielt definierte Daten von Vorteil. Beide Herausforderungen können mit der Erzeugung synthetischer Daten adressiert werden. Im Rahmen des Hauptseminars soll der Frage nachgegangen werden welche Möglichkeiten es gibt synthetische Daten zu erzeugen (z.B. [2]-[4] und weitere) zur DL-basierten Detektion und Klassifikation akustischer Events. Des Weiteren sollen die Einsatzmöglichkeiten erzeugter synthetischer Daten genauer betrachtet, spezifiziert und gegenübergestellt werden. Welche Probleme in genanntem Anwendungsbereich können durch das Erzeugen synthetischer Daten gelöst werden?

 

Literatur:

[1] Grollmisch, Sascha et al. (2017). Sounding Industry: Challenges and Datasets for Industrial Sound Analysis.

EUSIPCO 2019. 27th European Signal Processing Conference, 2019. A Coruña, Spain, 02.09.-06.09.2019.

[2] Patki, N., Wedge, R., Veeramachaneni, K., The Synthetic data vault. 2016 IEEE International Conference on Data Science and Advanced Analytics.

Online available (last seen on 29th July 2020): https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7796926

[3] Nikolenko, S. I., Synthetic Data for Deep Learning. arXiv:1909.11512v1 [cs.LG] 25 Sep 2019.

Online available (last seen on 29th July 2020): https://arxiv.org/pdf/1909.11512.pdf

[4] Ruiz, N., Schulter, S., Chandraker, M., Learning to Simulate. In: ICLR 2019.

Online available (last seen on 29th July 2020): https://cseweb.ucsd.edu/~mkchandraker/pdf/iclr19_learningtosimulate.pdf

 


Thema 13

Quantencomputing in der Medientechnik

Betreuer: Dipl.-Inf. Thomas Köllmer (thomas.koellmer@idmt.fraunmhofer.de)

Ziel dieses Hauptseminars ist es zu recherchieren, welche Fortschritte Quantencomputer in der Medientechnik bringen könnten, beginnend beim aktuellen Stand der Technik. Es wird explizit dazu aufgefordert, auch mögliche Zukunftsszenarien in Betracht zu ziehen.

Quantencomputer gelten bereits seit Jahrzehnten als nächster großer Schritt in der Entwicklung der Algorithmik, aber lange nur als theoretisches Konstrukt. Gerade in den letzten Jahren hat sich in den praktischen Anwendungen allerdings viel bewegt: Quantencomputer stehen der Öffentlichkeit zur Verfügung [2], auch in Deutschland wird der erste Quantencomputer installiert [1].

Mit klassischen Rechnerarchitekturen praktisch unlösbare Probleme werden mit Quantencomputern zumindest theoretisch möglich (z.B. das Faktorisieren großer Zahlen mit Shor's Algorithmus [3]). Dies ist Segen und Fluch zugleich, so können viele asymmetrische kryptografische Verfahren unter der Existenz von Quantencomputern nicht mehr als ausreichend sicher angesehen werden, es müssen Alternativen entwickelt werden ("Post Quantum Cryptography") [4].

Dieses Hauptseminar verfolgt zwei Ziele: Zum einen soll in groben Zügen das Grundprinzip von Quantencomputern dargestellt und somit vermittelt werden, worin ihr Potential besteht.

Zum anderen soll ein vorsichtiger Blick in die Zukunft gewagt werden. Mögliche Anwendungen von Quantencomputern (z.B. in den Bereichen Big Data, Machine Learning oder Kryptografie) sollen recherchiert und sich abzeichnende neue Möglichkeiten in der Medientechnologie (z.B. Audio. und Videoanalyse) dargestellt werden.

 

Literatur:

[1] https://www.datacenter-insider.de/fraunhofer-sichert-sich-zugriff-auf-ibm-quantencomputer-a-913665/

[2] https://www.ibm.com/quantum-computing/technology/experience

[3] https://de.wikipedia.org/wiki/Shor-Algorithmus

[4] ww.bsi.bund.de/DE/Themen/Kryptografie_Kryptotechnologie/Kryptografie/PostQuantenKryptografie/postquantenkryptografie_node.html

 

Aktuelles

Hauptseminar Medientechnologie wird regulär immer im Wintersemester angeboten

Einschreibezeitraum: 30.09.2020 18:00 Uhr bis 14.10.2020 18:00 Uhr

Link zur Einschreibung: e-Einschreibung

Links

Nützliche Weiterleitungen zur Erstellung Ihrer Präsentation und Ausarbeitung:

Unterlagen des Lehrgangs "wissenschaftliches Arbeiten" der Uni-Bibliothek aus dem letzten Durchgang:

Hinweis: Für einige Downloads ist ein vorheriger LogIn - siehe rechts oben - erforderlich.