Theses

Here you can see the German abstract first. If you click on the link to a paper, you will be taken to a page from the library catalogue.
There you can view the English-language abstract under the item "Further information:".

Results: 191
Created on: Sat, 28 Jan 2023 23:03:05 +0100 in 0.0682 sec


Kuht, Linnea;
Real Viewing Distances in Higher Resolutions at Home. - Ilmenau. - 60 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

Das Ziel dieser Arbeit ist es, die Betrachtungsabstände in häuslichen Umgebungen für Ultra High Definition (UHD) Videoinhalte zu untersuchen. Dies beinhaltet einen Überblick über die Anatomie des menschlichen Auges, die Entstehung und Eigenschaften von UHD und die Konzepte des optimalen Betrachtungsabstands und des bevorzugten Betrachtungsabstands. Um herauszufinden, ob die Wirkung von UHD in der häuslichen Umgebung umgesetzt wird, wurde eine Umfrage (n=235) durchgeführt, die das Ziel hatte, die Befragten über ihre Gewohnheiten beim Schauen von Videoinhalten in Bezug auf die am häufigsten verwendeten Geräte, das Set-up, die Auflösung, die Bildschirmgrößen und die am häufigsten angesehenen Inhalte zu befragen. Die daraus resultierenden Daten wurden in RStudio verarbeitet, visualisiert und mit der vorhandenen Literatur über reale Sehabstände verglichen. Die Ergebnisse der Umfrage deuten darauf hin, dass die am häufigsten genutzte Auflösung in Heimumgebungen Full HD ist, der höchste Anteil an UHD-Auflösungen tritt bei Fernsehern auf. Die wichtigsten Ergebnisse der Umfrage sind mittlere absolute Betrachtungsabstände von 260 cm für Fernsehgeräte, 50 cm für Laptops und Tablets und 30 cm für Smartphones. Die mittleren relativen Betrachtungsabstände, die sich aus den absoluten Betrachtungsabständen und den Bildhöhen (H) ergeben, liegen bei 4,7 H für Fernsehgeräte, 2,4 H für Laptops und Tablets und 2,6 H für Smartphones. 12,5 % der Befragten, die regelmäßig Videoinhalte auf Fernsehgeräten ansehen, sitzen näher als 3,2 H am Bildschirm und könnten von den Charakteristiken von UHD profitieren. Die Arbeit kann als Grundlage für künftige Qualitätstests dienen.



Wiesner, Josephin;
Development of a guideline to video quality in user-generated content for the integration into a broadcast environment. - Ilmenau. - 130 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Die Einbindung von User-generated Content (UGC) in die professionelle Broadcastumgebung erweitert die Möglichkeiten der schnellen Berichterstattung in Kombination mit einem geringen Kosten- und Equipmentaufwand. Neben der Integration in Nachrichtensendungen ermöglicht UGC die Beteiligung von Zuschauern und Reportern in weiteren Fernsehformaten in Echtzeit mithilfe von spezifischen Streaminganwendungen über Mobilgeräte. Diese Anwendungen basieren auf Streamingprotokollen, die eine sichere Übertragung über das Internet ohne sichtbare Qualitätsverlust aufgrund von Netzwerkfluktationen gewährleisten sollen. In dieser Arbeit wurden zwei dieser Anwendungen, Larix Broadcaster sowie vMix Call, mit ihren integrierten Protokollen, SRT und WebRTC, hinsichtlich ihrer Videoqualität und der Optimierung dieser untersucht. Das Ziel ist die Entwicklung eines Leitfadens für den Einsatz im professionellen Broadcastbereich. Für die Untersuchung wurden Parameter der Anwendungen variiert, die über die Streamingprotokolle Einfluss auf die Videoqualität nehmen. Zu diesen zählen Einstellungen bezüglich der Bitrate, des Videocodecs, der Latenz sowie der Auflösung der verwendeten Videosequenzen. Die Auswertung der aufgenommenen Videos hinsichtlich der Videoqualität erfolgte über die Messsoftwares Sentry und Aurora von Telestream, die Evaluierung mit dem Naturalness Image Quality Evaluator (NIQE) sowie einen Probandentest nach dem Mean Opinion Score (MOS). Die Ergebnisse für Larix Broadcaster weisen darauf hin, dass unter der Verwendung des High Efficiency Video Codec die höchste Videoqualität erreicht werden kann. Im Bezug auf diesen zeigen Videos, die mit einer geringen Bitrate von 0.1 und 1.5\,Mbps encodiert wurden, eine hohe Natürlichkeit hinsichtlich NIQE sowie eine hohe Quality of Experience nach Sentry. Des Weiteren ist die Qualität bei einer tendenziell großen Latenz von 120 und 250\,ms, die der Paket-Buffergröße am SRT-Encoder entspricht, sowohl nach den objektiven Metriken als auch nach dem MOS am höchsten. Die Betrachtung der Videoauflösung zeigt keine Wertetendenz nach den Messungen von Sentry, neigt jedoch nach MOS zu dem Maximum von 1080p. Für vMix Call ergibt sich durchschnittlich die beste Videoqualität nach Aurora und NIQE bei einer Peer-to-Peer Verbindung im Low Latency Modus mit einer Encodierungsbitrate von 2,000 und 4,000\,kbps.



Bachmann, Marvin;
Anwendung maschineller Lernverfahren zur Qualitätssicherung industrieller Fertigungsabschnitte. - Ilmenau. - 84 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Im Rahmen der geforderten Qualitätssicherung und Kosteneinsparung nimmt die Relevanz der schnellen Fehlerlokalisierung in industriellen Anwendungen zu. Eine frühzeitige Erkennung von Fehlproduktionen sorgt für einen geringeren Ausschuss und niedrigere Kosten. Die Aufnahme von Bild- und Prozessdaten während der Fertigung bietet den Vorteil, Methoden des unüberwachten und überwachten maschinellen Lernens darauf anwenden zu können. Innerhalb der vorliegenden wissenschaftlichen Arbeit wird untersucht, inwieweit sich verschiedene maschinelle Lernverfahren dazu eignen, um industrielle Fertigungsabschnitte möglichst automatisiert zu überwachen. Im ersten Hauptteil der Ausarbeitung werden die Grundlagen zur Analyse von Bilddaten aufgezeigt und ein Konzept zur Auswertung dieser vorgestellt. Daran anschließend werden die Einflüsse von komprimierten, verkleinerten und segmentierten Bildern sowie die Merkmalsextraktion und Datenanalyse mit Neuronalen Netzen experimentell untersucht. Der größte Einfluss auf die Analyseergebnisse kommt aus der Verkleinerung und Merkmalsextraktion der Bilder. Durch Anwendung der Verfahren zur Analyse der Bilddaten können, verglichen mit einem optischen Prüfsystem, mehr Bauteile korrekt klassifiziert werden. Der zweite Hauptteil beinhaltet die Grundlagen zur Analyse von Prozessdaten und ein Konzept zur Auswertung dieser. Anhand weiterer Versuchsdurchführungen werden die Auswirkungen unterschiedlicher Zielvorhersagewerte, die Umstrukturierung der Datenmatrizen und die Interpretationsfähigkeit eines Entscheidungsbaumverfahrens auf die Ergebnisse beobachtet. Ein Ausbalancieren der Klassen innerhalb des Trainingsdatensatzes liefert die besten Ergebnisse. Mit Hilfe einer Modell-Interpretation können sinnvolle Korrelationen zwischen einzelnen Prozessen entdeckt und zukünftig daraus schneller Rückschlüsse gezogen werden.



Menz, William;
The classification of small mammals by comparing different neural networks, with the data collection through a camera trap. - Ilmenau. - 93 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Die Intensivierung der landwirtschaftlichen Praktiken im letzten Jahrhundert ist ein Grund, weshalb sich die Struktur und die Zusammensetzung der Pflanzen- und Tiergemeinschaften verändert hat. Durch den Einsatz von Insektiziden und den vermehrten Anbau von Monokulturen kann eine veränderte Verteilung in den Populationsgrößen von Kleinsäugern festgestellt werden. Die Überwachung der Populationsgrößen erfolgt meist durch das Aufstellen von Fallen und das anschließende Auswerten der Erkenntnisse, welche durch und über die gefangenen Tiere erlangt werden konnten. Basierend auf den erhobenen Daten über die ungefähre Größe der Reviere der Tiere, kann eine Hochrechnung für die Populationsgröße erstellt werden. Unter den Tieren, die mit Hilfe von geschlossenen Fallen gefangen werden, befinden sich einige Arten, die nur wenige Stunden in einer solchen Falle überleben können. Diese Umstände ergeben eine aufwendige Überwachungsarbeit der Fallen. Um den Aufwand der Forscher zu minimieren und eine Stressreduzierung für die Tiere zu gewährleisten, wurden in dieser Arbeit offene Fotofallen entwickelt, die den Tieren erlauben die Falle zu betreten und anschließend selbstständig wieder zu verlassen. Ziel dieser Arbeit war es ein Verfahren zu entwickeln, welches eine automatisierte Artenbestimmung mittels eines „Convolutional Neural Network“ (CNN) durchführt. Somit wird der Aufwand, den Forscher zum Sichten der Bilder erbringen müssen verringert. In dieser Arbeit wurde ein Vergleich verschiedener CNNs durchgeführt, welche mittels „Transfer Learning“ (TL) darauf trainiert wurden, die Bilder einer von vier Klassen zuzuordnen. Dabei spiegeln drei der vier Klassen je einen Kleinsäuger-Genus wider, während die vierte Klasse aussagt, dass sich kein Tier auf dem Bild befindet. Der Vergleich der Netze hat ergeben, dass sich die Nutzung der sogenannten „Mobile Networks“, welche für die Anwendung auf mobilen Endgeräten optimiert wurden, nicht für diese TL-Aufgabe eignen. Als beste Netzstruktur stellten sich die „VGG“-Netze aus der Arbeit von Simonyan und Zisserman heraus. Die Netze wurden alle auf eigens entwickelten Datensätzen getestet und anhand der Metriken: „Loss“, „Accuracy“ und dem „Macro F1-Score“ ausgewertet. Die Klassifizierung netzfremder Bilder aus den gleichen Fallen konnte ebenfalls erfolgreich durchgeführt werden.



Voelz, Alexander;
Methoden zur Realisierung konoskopbasierter Reflexionsmessungen. - Ilmenau. - 97 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

Displays werden oftmals in beleuchteten Umgebungen eingesetzt. Insbesondere in Autos muss die Lesbarkeit von sicherheitskritischen Information sichergestellt werden, selbst bei Sonneneinstrahlung. Aus diesem Grund sind Fahrzeughersteller daran interessiert, die Reflexionscharakteristik von Displays zu vermessen. Derartige Messungen können durch Verwendung einer Kamera mit einem speziellen Objektiv, einem sogenannten Konoskop, durchgeführt werden. In dieser Arbeit wird ein Verfahren präsentiert, mit dem man die relative Lage eines bildgebenden Systems mit Konoskop zu einer Displayoberfläche bestimmen kann. Dies ist eine grundlegende Voraussetzung, wenn eine schnelle, konoskopbasierte One-Shot-Lösung erwünscht ist. Der Autor schlägt Methoden für die Lagebestimmung und für ein geometrisches Kalibrierverfahren vor. Zur Verifikation wird die prototypische Implementierung mit einem robotergestützten Verfahren aus dem Stand der Technik verglichen und Unsicherheiten werden mit Hilfe einer Raytracing-Simulation beurteilt, die vom Autoren eigens für diese Arbeit implementiert wurde. Insgesamt erreichen die vorgestellten Methoden eine relative Genauigkeit von bis zu ungefähr 0,3 Grad.



Vaidya, Purvaj Piyush;
Low Complexity Enhancement Video Coding (LCEVC) variant. - Ilmenau. - 75 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

In dieser Arbeit wird eine LCEVC-ähnliche Pipeline entwickelt, bei der ein unkomprimiertes Quellvideo kodiert wird, um verschiedene Videoformate wie herunterskalierte Videos, grundkodierte Videos, hochskalierte Videos und Residuen zu erzeugen, um eine endgültige verbesserte dekodierte Ausgabe zu berechnen, die im Vergleich zum unkomprimierten Quellvideo stark komprimiert ist und zusätzlich die Qualitäten des ursprünglichen Quellvideos ohne großen Informationsverlust beibehält und verbessert. Der Upscaling-/Downscaling-Faktor wird mit n angegeben, und in dieser Arbeit wurden drei verschiedene Werte für n verwendet: n = 2, 4 und 8. Die für diese Arbeit verwendeten Basis-Encoder sind libx264, libx265 und vp9. Für die Bewertung der Videoqualität wurde die objektive Metrik Video Multimethod Assessment Fusion (VMAF) verwendet. Für die Ergebnisse wurde ein Vergleich der Dateigröße zwischen den verschiedenen Videoformaten durchgeführt und auch ein VMAF-Vergleich zwischen den basiscodierten und den verbesserten decodierten Videos wurde berechnet. Die höchsten VMAF-Werte für alle drei Basis-Encoder wurden für n = 2 ermittelt. Daraus lässt sich schließen, dass das in dieser Arbeit verwendete Systemdesign die Ausgabe mit zunehmendem Downscaling-Faktor verbessert. Die Verbesserung hängt auch vom Inhalt des Videos in Bezug auf die räumliche und zeitliche Information ab. Darüber hinaus spielt auch der Einfluss des verwendeten Encoders eine wichtige Rolle bei der Verbesserung des Videos. In dieser Arbeit werden Werkzeuge wie FFMPEG und VMAF verwendet.



Siebenkees, Valentin;
Untersuchung des Einsatzes von AR/VR-Systemen für die Kalibrierung/Referenzierung einer fokusbasierten Abstandsmessung mit elektronisch fokussierbaren Objektiven. - Ilmenau. - 73 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

Abstandsmessung ist eine wichtige Thematik in der optischen Messtechnik. Häufig ist diese mit großen und komplexen Aufbauten verbunden. Um Zeit und Kosten zu sparen, ist es deshalb von Vorteil, Verfahren zu entwickeln, durch die solche Aufbauten vereinfacht werden können. Das Ziel der Arbeit ist herauszufinden, ob es möglich ist, virtuelle Bildanzeigesysteme für die Kalibrierung und Referenzierung eines Kamerasystems auf Basis des Zusammenhangs zwischen der Position der hinteren Hauptebene elektronisch fokussierbarer Objektive und der virtuellen Bilddistanz zu nutzen. Um diese Forschungsfrage zu beantworten, wurde zunächst anhand von Vortests analysiert, welche Anzeigesysteme für solch ein Verfahren genutzt werden können. Mit dem fokussierbaren optischen Kollimator wurde ein System gefunden, das den Anforderungen gerecht wird. Um den beschriebenen Zusammenhang nachzuweisen, wurde ein Messverfahren programmiert, in dem mit Hilfe des Kollimators virtuelle Bilder in verschiedenen Distanzen gemessen wurden. Für jede Distanz wurde, durch die Auswertung der Modulationsübertragungsfunktion des betrachteten Bildes, die Position der hinteren Hauptebene des Kameraobjektives gefunden, in der das virtuelle Bild maximal scharf auf dem Kamerasensor abgebildet wird. Durch kritische Analyse und Fehlerbetrachtung der Messergebnisse konnte ein Verlauf des Zusammenhangs mit kombinierter Unsicherheit ermittelt werden. Anhand der Ergebnisse der Arbeit lässt sich bestätigen, dass es möglich ist, virtuelle Bildanzeigesysteme für die Kalibrierung und Referenzierung eines Kamerasystems auf Basis des Zusammenhangs zwischen der Position der hinteren Hauptebene elektronisch fokussierbarer Objektive und der virtuellen Bilddistanz zu nutzen. Weiterführende Forschung kann an der Optimierung der Messautomatisierung oder der Brennweitenbestimmung und an der Betrachtung verschiedener Anzeigesysteme sowie von nicht betrachteten Einflüssen, wie dem der Objektivblende auf die Messung, durchgeführt werden.



Prenzel, Julius;
Enabling sharpness control with increasing sensor resolution in a motion picture camera system. - Ilmenau. - 92 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

Eine individuelle Anpassung der Bildschärfe innerhalb eines Kamerasystems ist bei hochauflösenden Bildern nur schwer zu erreichen. Durch den Einsatz digitaler Filter im Ortsbereich soll in dieser Arbeit eine gleichbleibend starke und individuell anpassbare Manipulation der Bildschärfe bei steigenden Sensorauflösungen gewährleistet werden, ohne dass mehr Ressourcen im FPGA der Kamera benötigt werden. Dazu soll zunächst das Auftreten visueller Unterschiede bei der Filterung verschieden aufgelöster Bilder mit demselben Filterkern technisch erklärt werden. Darauf aufbauend werden Methoden entwickelt, die dazu dienen bei der Filterung im FPGA Ressourcen zu sparen, um damit eine breitere Pixelumgebung beeinflussen zu können und so gleichbleibend starke Effekte bei steigender Sensorauflösung zu gewährleisten. Mit dem ersten Ansatz wird eine Ersparnis im Linebuffer des FPGAs erreicht, indem benachbarte Bildzeilen zusammengeführt werden, was in dieser Arbeit als HDF bezeichnet wird. Die zweite Methode basiert auf der Reduzierung der Bittiefe bestimmter Pixel im Filterprozess. Um die Performance dieser vorgestellten Methoden zu bewerten, werden sowohl eine subjektive Qualitätsbewertung durch Experten als auch eine objektive Bewertung mithilfe von Bildqualitätsmetriken durchgeführt. Obwohl die Qualitätsunterschiede zwischen dem ursprünglichen Ansatz und den neu entwickelten Methoden bei der getesteten Auflösung von 4k noch relativ gering sind, ermöglichen sie es bei einer weiter steigenden Auflösung eine gleichbleibende Flexibilität bei der Filterung, ohne die theoretisch benötigte höhere Menge an Ressourcen zu verwenden.



Paracha, Abdul Haq Azeem;
Assessment and application of machine learning methods to NVH related component data in the automotive R&D environment. - Ilmenau. - 118 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Ein multidisziplinäres Wissen über Signalverarbeitung, Strukturdynamik, mechanische Systeme und Psychoakustik und vor allem ein erfahrener Fachmann sind Voraussetzung für die NVH-Analyse von Fahrzeugen. Eine wachsende Datenmenge aufgrund des raschen industriellen und technologischen Wandels stellt eine Herausforderung für NVH-Ingenieure dar. Die Fortschritte und Erfolge auf dem Gebiet des maschinellen Lernens, insbesondere der tiefen neuronalen Netze, sind eine Hauptmotivation für diese Forschung. Ziel dieser Studie ist es erstens, Datensätze aus der Automobilbranche und Forschung und Entwicklung zu analysieren und die Anforderungen an zukünftige Anwendungen des maschinellen Lernens zu bewerten. Zweitens soll das Deep Neural Network Autoencoder-Modell zur Erleichterung der Fehlerdiagnose für NVH-Ingenieure bewertet werden. Der Ansatz zur Beantwortung der Forschungsfrage ist datengetrieben. Die Autoencoder-Anwendung umfasst drei Fälle. Im ersten Szenario wird der Unterschied des Rekonstruktionsfehlers zwischen normalen und fehlerhaften Daten analysiert. Der zweite Ansatz besteht darin, einen Autoencoder für die Erkennung von Anomalien zu verwenden, und schließlich wird er für die Visualisierung in reduzierten Dimensionen eingesetzt. Die Methode zur Visualisierung von NVH-Daten ist rein unüberwacht und neben einem Autoencoder werden auch T-SNE und DBSCAN verwendet, um die Beziehung zwischen den Datenpunkten zu finden. Der primäre Fokus dieser Forschung ist das Repräsentationslernen. Daher wird die Anwendung des Autoencoders in verschiedenen parametrischen Variationen im Vorverarbeitungsschritt evaluiert. Außerdem werden zwei Modelle verwendet, ein tiefes neuronales Netz (Multilayer Perceptron) und ein rekurrentes neuronales Netz mit Langzeitgedächtnis. Die Untersuchung schließt mit einem Vergleich der Leistung der Vorverarbeitungsparameter und der Modelle für die Fehlererkennung in den NVH-Industriedatensätzen ab. Außerdem werden die Einschränkungen bei der Verfügbarkeit von Daten und Kommentaren aufgrund der hohen Kosten untersucht. Die Ergebnisse dieser Forschung liefern nicht nur einen Mechanismus zur Fehlererkennung, sondern auch eine methodische Grundlage für die künftige Bewertung von Industriedatensätzen.



Pillai, Prateek Pradeep;
Loudspeaker configuration for immersive audio in cars using up-firing techniques. - Ilmenau. - 83 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Eine der Herausforderungen für Automobilhersteller und Hersteller von Car-Audio-Systemen ist die Entwicklung von Car-Audio-Systemen, die den wachsenden Bedarf an immersiven Unterhaltungserlebnissen für den mobilen Konsum von Multimedia-Formaten wie Dolby Atmos erfüllen. In dieser Arbeit wird versucht, Up-Firing-Technologien für einen Car-Audio-Anwendungsfall zu adaptieren, der solche immersiven Audioerlebnisse ohne Verwendung von Deckenlautsprechern ermöglicht. Eine 5.1.4 Lautsprecherkonfiguration mit Up-Firing-Lautsprechern wurde entwickelt und mittels objektiver und subjektiver Bewertungsmethoden mit Stereo, 5.1 und einer 5.1.4-Referenzkonfiguration mit Deckenlautsprechern verglichen. Objektive Bewertungsmethoden wie der Pearson-Korrelationskoeffizient (PCC) und die Perceptual Evaluation of Audio Quality (PEAQ) konnten minimal zwischen den spektralen, nicht aber den räumlichen Merkmalen verschiedener Lautsprecherkonfigurationen unterscheiden. Die Schätzung der Einfallsrichtung half dabei, die räumlichen Ähnlichkeiten zwischen der 5.1.4-Referenzkonfiguration mit Deckenlautsprechern und der vorgeschlagenen Up-Firing 5.1.4- Konfiguration zu ermitteln und zeigte die Grenzen der Lautsprecheraufstellung für Up-Firing-Lautsprecherchassis auf. Die subjektiven Bewertungstests ergaben eine klare Präferenz der Hörer für die 5.1-Lautsprecherkonfiguration, die in "Multiple Stimulus with Hidden Reference and Anchor (MUSHRA)"-Tests etwa 7 Punkte höher bewertet wurde als die 5.1.4-Lautsprecherkonfiguration mit Up-Firing. Allerdings erwies sich diese als deutlich besser als die Stereokonfiguration mit einer MUSHRA-Bewertungsdifferenz von etwa 14 Punkten. Diese Bevorzugung könnte auf mehrere Faktoren zurückzuführen sein, einschließlich, aber nicht beschränkt auf die Abstimmung des Fahrzeuginnenraums, den Zielfrequenzgang der Up-Firing 5.1.4-Lautsprecherkonfiguration, sowie auf die Klangfarbe der Up-Firing Lautsprecher selbst. Diese subjektiven Testergebnisse unterstützen die objektiven Ergebnisse, die darauf hinweisen, dass die vorgeschlagene Up-Firing 5.1.4-Lautsprecherkonfiguration einen weniger ausgeprägten Höheneindruck vermittelt als die 5.1.4-Referenzkonfiguration mit Deckenlautsprechern. Die nahe beieinander liegenden MUSHRA-Bewertungen der Up-Firing 5.1.4 Lautsprecherkonfiguration und der 5.1 Konfiguration bieten eine vielversprechende Grundlage für die Erforschung einer Alternative für den Einsatz von Deckenlautsprechern. Die wichtigste Anwendung einer solchen Lautsprecherkonfiguration ist für Unterhaltungszwecke, z.B. um auch den Insassen von Autos mit niedriger Deckenhöhe/Sonnendach, die keine dedizierte Deckenlautsprecher besitzen, die Möglichkeit zu geben, unterwegs ein virtuelles Konzert zu erleben. Weitere Verbesserungen der Up-Firing Lautsprecherkonfiguration könnten Anwendungen für Gefahren- oder Kollisionswarnungen, Einparkhilfen und Freisprecheinrichtungen für Mobiltelefongespräche, bei denen der Ton aus unterschiedlichen Bereichen des Fahrzeugs kommen soll, ermöglichen.