Studienabschlussarbeiten des FG Elektronische Messtechnik und SignalverarbeitungStudienabschlussarbeiten des FG Elektronische Messtechnik und Signalverarbeitung

Studienabschlussarbeiten

Anzahl der Treffer: 205
Erstellt: Mon, 29 Apr 2024 13:07:54 +0200 in 0.0705 sec


Elgarhy, Ahmed;
Performance analysis of MTC technologies in LTE networks. - 87 Seiten
Technische Universität Ilmenau, Masterarbeit 2015

Connected devices and mobile broadband are transforming our life to be a networked society where every device can benet from the network, will be connected. Ericsson estimates that by year 2020 there will be 50 Billion connected devices. This big transformation will change every industry and the way we are living and doing business. LTE as the most advanced and the fastest growing cellular network is playing a major role in this transformation. LTE was designed to serve the need of human usage of data with high throughput and data rate for video and web applications. But the Internet of Things or the Machine Type Communication which will need to be connected via LTE add enormous challenges on the network to be able to deal with huge amount of devices with totally different behaviour and protocols. A lot of new standards and new features have been added to LTE new releases of release 12 and 13 which are referred to as LTE-M or LTE for machine type communication which can adapt to the new requirements for new connected devices. In the context of this thesis, the performance of LTE network has been studied for different machine type communication applications. Different MTC use cases are studied such as smart charging stations for electric vehicles, smart meters communication and wearable devices like watches healthcare monitoring and e-bikes. Evaluating the system level performance of LTE to handle different connected machines behaviour and communication requirements. Also evaluating new categories of devices category 0 standardised in release 12, for low cost and low complex devices. Latency reduction technique has been studied and applied in all scenarios to reduce the latency of messages from the low cost devices which user high delays of sending packets because of the new low complexity requirements. This latency reduction will be standardised in LTE release 14 and will be a critical feature for the future 5G networks. These simulations have been carried out using an Ericssons radio simulation tool which simulates large scale real life network scenarios.



Beuster, Niklas;
Development of calibration procedures for a satellite communication test range. - 99 S. : Ilmenau, Techn. Univ., Masterarbeit, 2015

In dieser Arbeit geht es um die Entwicklung und Anwendung von Kalibrierungsvorschriften für eine Satellitenkommunikations-Testanlage für SatCom-on-the-move Systeme. Zunächst wird auf theoretische Aspekte bei Kalibrierungen eingegangen, indem Begrifflichkeiten und Konzepte erläutert werden. Der "Guide to the Expression of Uncertainties in Measurement" (GUM) (in deutscher Fassung DKD-3) wird vorgestellt und in dieser Arbeit genutzt, um mit Messunsicherheiten korrekt umzugehen. Außerdem erfolgt ein Vergleich zu alternativen Methoden. Eine analytische Untersuchung von Komponenten der "Facility for Over-the-air Research and Testing" (FORTE) am Fraunhofer-Institut für integrierte Schaltungen IIS wurde mit Hilfe deren Datenblättern durchgeführt, um die Methoden des GUM dort anzuwenden. Alle Komponenten in FORTE, die von Interesse sind, wurden mit Hinblick auf ihre Unsicherheit nach den Methoden des GUM behandelt. Die Umsetzung der Kalibrierungsschritte erfolgte der einfachen Handhabung halber in einem teilweise interaktiven Tabellenblatt. In der Arbeit selbst wird das Vorgehen an einem Schritt-für-Schritt Beispiel für ein programmierbares Dämpfungsglied erläutert. Die analytisch ermittelten Resultate für die gesamten Signalwege sind ebenfalls aufgezeigt und werden mit echten Messdaten verglichen. Es gibt eine Übereinstimmung wenn die ermittelten Unsicherheiten in Betracht gezogen werden. Diese sind jedoch zu groß, um den Genauigkeitsanforderungen von Kunden zu genügen. Das liegt an den großzügigen Spezifikationen für Unsicherheiten in den Datenblättern der Komponenten. Um realistischere Unsicherheitswerte zu erlangen, wurden praktische Untersuchungen an Messinstrumenten und Komponenten der Anlage durchgeführt und ausgewertet. Ein Signalgenerator und ein Spektrumanalysator von Rhode und Schwarz dienten dabei als Messstandards. Mehrere Tests wurden durchgeführt, die zeigten, wie die Amplitudengenauigkeit von Frequenz, Zeit, Temperatur, der eingebauten Dämpfungsglieder und Messparametern abhängt. Manche Effekte, die normalerweise Messunsicherheiten hervorrufen, können vermieden werden, indem Messroutinen gezielt optimiert und/oder relative statt absolute Messwerte betrachtet werden durch Vergleich mit Referenzaufnahmen. Basierend auf den gesammelten Test- und Messdaten, wurden Empfehlungen für zukünftige Messungen und Kalibrierungen ausgestellt.



Krieg, Fabian;
Advanced image reconstruction techniques for ultrasonic imaging applications. - 136 S. Ilmenau : Techn. Univ., Masterarbeit, 2015

Diese Arbeit befasst sich mit der Synthetic Aperture Focusing Technique (SAFT) für Ultraschall Impuls Echo Messungen. SAFT ist eine wichtige Bildrekonstruktionsmethode, die im Ultraschall großflächig Anwendung findet. Sie erlaubt das korrekte Bestimmen und Bemessen von Rissen, Einschlüssen und anderen Fehlerstellen in Festkörpern. In der Literatur wurden eine Reihe verschiedener SAFT-Algorithmen entwickelt, die im Zeit oder Frequenzbereich arbeiten. Diese sind nicht äquivalent im Hinblick auf Bildgebungsqualität, Laufzeit und Anforderungen an die Rechenhardware. Diese Arbeit stellt die Algorithmen für kubische isotropische homogene feste Testkörper gegenüber. Es werden sowohl die Bildgebung als auch die Anforderungen an Rechenzeit und Arbeitsspeicher untersucht, so dass eine Grundlage für zukünftige angepasste Entwicklungen gelegt wird. Die Algoritmen wurden in einem einheitlichen Framework implementiert. Implementierungsdetails werden aufgeschlüsselt. Zwei Heuristiken für die Zeitbereichsprozessierung werden dargestellt. Zwei verschiedene Interpolationsmethoden für die Frequenzbereichsverfahren, die eine Stolt-Abbildung im Frequenzbereich nutzen, werden entwickelt. Es wird gezeigt, dass diese entweder die bestmögliche Rekonstruktionsqualität liefern oder einen Abgleich zwischen Qualität und Rechenzeit erlauben. Die asymptotische Komplexität der Algorithmen wird untersucht. Dabei stellt die Dimension der Messdaten den Haupteinfluss auf die Rechenzeit dar. Diese theoretischen Erkenntnisse werden durch Messungen fundiert. Die Arbeitsspeicheranforderungen der Algorithmen wird theoretisch untersucht. Darauf basierend werden in der Praxis beobachteten Spitzenwerte für eine Reihe von Messungen diskutiert. Auf Grundlage eines einfachen Vorwärtsmodells werden Messdaten synthetisiert, die eine Untersuchung der Fokusierung durch die Algorithmen erlauben. Es werden drei Messszenarien betrachtet, wobei der Einfluss der Wellenlänge des Sendesignals sowie schattierter Messdaten beleuchtet werden. Schlussendlich werden die bisherigen Ergebnisse sowie deren Praxistauglichkeit anhand von Messdaten, die vom Fraunhofer-Institut für Zerstörungsfreie Prüfverfahren IZFP bereitgestellt wurden, verifiziert.



Kirchhof, Jan;
Compressed sensing and sparse recovery methods for ultrasonic non-destructive material testing. - 111 S. : Ilmenau, Techn. Univ., Masterarbeit, 2015

Diese Masterarbeit untersucht die Anwendung von Sparse Signal Reconstruction (SSR) und Comressed Sensing (CS) zur Verbesserung der Echotrennung sowie der Nachbearbeitung anderer verschlechternder Effekte für bildgebende Verfahren in der Zerstörungsfreien Prüfung (ZfP) mit Ultraschall. Dabei werden Fehlerstellen, z.B. Lufteinschlüsse oder Ungänzen, durch Einschallen eines Ultraschallpulses in den Testkörper erkannt, da diese aufgrund des Impedanzunterschieds ein Echo erzeugen. Ein Problem dieser Technik ist, zwei dicht beieinander liegende Echos zu unterscheiden. Die Trennauflösung kann durch Erhöhung der Trägerfrequenz des Pulses verbessert werden, aber dadurch sinkt dessen Eindringtiefe. SSR ist eine empordringende Technik, die der linearen Inversion, einer Form der Parameterschätzung, entstammt. Da die Anzahl der zu detektierenden Fehler als gering angenommen werden kann, ist SSR ein valider Ansatz zur Verbesserung der Trennauflösung. Allerdings basiert SSR auf der Annahme, dass das gemessene Echo eine Linearkombination bekannter Bestandteile ist. Zudem setzen konventionelle SSR Untersuchungen additives weißes Gauß-verteiltes Rauschen (AWGN) als Fehlerquelle voraus. Sich in Festkörpern ausbreitender Ultraschall wird jedoch von sog. ''speckle noise", welches von der Materialstruktur abhängt, überlagert. Dieses hat einen multiplikativen Einfluss auf das Signal. Beide Annahmen sind im Falle von ZfP mit Ultraschall nicht erfüllt. Deshalb wird in der Arbeit ein Modell vorgestellt, dass die Einbeziehung von Nichtlinearitäten ermöglicht. Als Beispiel dafür wird die akustische Schattierung verwendet. Es wird ein SSR Framework beschrieben, dass in der Lage ist, iterativ die Schattierungen einzubeziehen. Der Einfluss von AWGN sowie von zwei speckle-noise-Modellen, sowohl auf lineare SSR, als auch auf SSR mit nicht linearem Modell wird untersucht. Es werden Löungsansätze für das Off-Grid Problem gegeben. Schließlich wird noch gezeigt, wie man mit Hilfe von CS die Menge der Messdaten verringern kann. Alle Ergebnisse werden mit numerischen Simulationen, basierend auf der Implementierung der beschriebenen Funktionen in Matlab, erlangt. Dabei wurde auch ein Graphical User Interface erstellt, mit dem man effektiv das Zusammenspiel der einzelnen Simulationsparameter nachvollziehen kann. Es kann auch für künftige Untersuchungen verwendet werden.



Philipp, Felix;
Detektion und Klassifizierung von Bewegungen im Heckbereich eines Fahrzeuges mittels UWB-Radarsensorik. - 90 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2015

Die vorliegende Bachelorarbeit gibt einen Überblick über die Grundlagen von Radarsystemen und befasst sich anschließend mit der Funktionsweise eines Korrelationsradars auf UWB-Basis. Ziel der Arbeit ist die Entwicklung eines Algorithmus zur Detektion und Klassifizierung von im Sensorbereich eines solchen Systems ausgeführten Bewegungen, um die Nutzung von Steuerungsgesten im Automobilbereich, z.B. für das Öffnen des Kofferraums, zu ermöglichen. Für die Datengewinnung wird ein Testaufbau entwickelt, der ein an einer Fahrzeugheckstoßstange befestigtes auf Ultra-Breitband-Technik basierendes Radarsystem enthält. Damit werden verschiedene Bewegungsszenarien erfasst und die hierbei erhaltenen Messdaten mit Hilfe von Matlab analysiert und ausgewertet. Dafür werden die Daten mittels digitaler Signalverarbeitung zunächst entsprechend vorverarbeitet. Basierend auf physikalischen Eigenschaften werden daraus Merkmale bestimmter Bewegungen ermittelt und mit den Daten abgeglichen. Hieraus wird ein Algorithmus entworfen, mit dessen Hilfe die während der Messungen durchgeführten Bewegungen detektiert und klassifiziert werden können. An einem konkreten Beispiel wird der Ablauf des Algorithmus dargestellt und basierend auf sämtlichen während der Arbeit aufgenommenen Daten die Erfolgsrate für verschiedene Varianten der Klassifizierung untersucht. Dabei wird auch auf die Klassifizierungsschwierigkeiten und die Möglichkeiten zur Optimierung eingegangen.



Henze, Volker;
Research on performance evaluation metrics for mobile satellite communication networks. - 48 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

Gerade die schnelle Einsatzfähigkeit macht Satelliten Kommunikationssysteme interessant für mobile Anwendungen. Immer mehr Hersteller stellen Produkte bereit um Satelliten Kommunikation auch auf mobilen beweglichen Systemen zu ermöglichen. So finden auch immer mehr Kommunikationsanwendungen ihren Weg in die Satelliten Kommunikation. Das führt zur Notwendigkeit dieses neue Equipment bewerten zu können und eine Aussage über Verwendbarkeit und Leistung zu treffen. Dazu müssen Metriken gefunden werden mit deren Hilfe diese Bewertung und Vergleichbarkeit hergestellt werden kann. Besonders im Bereich der mobilen Satelliten-Terminals sind externe Einflussfaktoren wie Fading durch Wetter, De-pointing oder Abschattungen wichtig für die Leistungsfähigkeit des Systems. Aber auch systeminterne Parameter wie Antennengüte, Modulation und Quality-of-Service unterscheiden sich bei jedem System und können durch eine Metrik in einer übersichtlichen Form dargestellt werden. Diese Arbeit beschäftigt sich mit den Parametern und der Bestimmung von Metriken zur Bewertung von mobilen IP-basierten Satelliten Kommunikationssystemen. Dabei werden die Einflussfaktoren identifiziert und Profile für externe Einflussfaktoren vorgeschlagen. Diese Profile können kombiniert und dem Anwendungszweck des Systems angepasst werden. Als Resultat werden Metriken entstehen die die Vergleichbarkeit unterschiedlicher Systeme aus dem Bereich der mobile IP-basierte Satelliten Kommunikation verwendbar sind. Dabei werden alle Layer der Kommunikation beleuchtet, also von der physikalischen Mobilität bis zur Anwenderschicht.



Damm, Robert;
Entwicklung und Implementierung eines MIMO-OTA-Kalibrationsverfahren. - 81 S. Ilmenau : Techn. Univ., Masterarbeit, 2015

Diese Arbeit befasst sich mit dem Entwurf und der Implementierung eines geeigneten Kalibrationsalgorithmus zur Erzeugung einer ebenen Welle mithilfe der MIMO-OTA-WFS. Zur Beschreibung der Wellenfelder realer Funkkanäle werden geometrische Kanalmodelle verwendet, welche mittels Superposition ebener Wellen ein Ausbreitungsszenario beschreiben. Over-the-Air-Testsysteme sind hierfür besonders geeignet, da diese mithilfe einer Vielzahl von Antennen ebene Wellen aus beliebigen Richtungen erzeugen. Für die WFS ist es nötig, die Signale der OTA-Antennen in Betrag und Phase exakt zu bestimmen. Dementsprechend ist ein Kalibrationsalgorithmus, welcher mit möglichst geringem Hardware- und Zeitaufwand eine ebene Welle erzeugt, das Ziel dieser Arbeit. Die Kalibration besteht aus der Hardwarekalibration sowie der Berechnung der WFS-Signale. Die Hardwarekalibration kompensiert die Frequenzgänge der verwendeten Geräte, sodass diese keinen Einfluss auf das OTA-System haben. Zur Berechnung der WFS-Koeffizienten existieren der High- sowie der Basic-Performance-Mode. Der HPM berechnet die WFS-Koeffizienten über der kompletten Bandbreite im Frequenzbereich. Aufgrund der vollständigen Berechnung sowie der blockweisen Verarbeitung im Frequenzbereich besitzt der HPM eine große Grundlaufzeit und ist somit nicht für Szenarien mit kurzen Signallaufzeiten geeignet. Der BPM, welcher in den meisten derzeitig verfügbaren kommerziellen Systemen implementiert ist, berechnet die WFS-Koeffizienten im Zeitbereich und nutzt lediglich einige wenige Koeffizienten zur Synthese des Wellenfeldes. Diese Methode resultiert in sehr geringen Grundlaufzeiten und eignet sich besonders für kurze Signallaufzeiten. Der Nachteil des BPM liegt in der geringen Anzahl der Koeffizienten, welche gegebenenfalls fehlerbehafteten Wellenfelder erzeugen und nur Kanalmodelle mit wenigen Ausbreitungspfaden abbilden können. In dieser Arbeit werden die aus dem HPM und BPM resultierenden Wellenfelder verglichen und analysiert. Darüber hinaus besteht die Hauptaufgabe dieser Arbeit in der Entwicklung eines geeigneten Algorithmus, welcher im BPM ein möglichst genaues Wellenfeld mit wenigen Koeffizienten erzeugt. Der vorgestellte Algorithmus wird erläutert und sowohl durch Simulationen und Messungen verifiziert. Es wird gezeigt, dass der Algorithmus trotz Unzulänglichkeiten im Testsystem gute Wellenfelder synthetisiert.



Herrmann, Martin;
Phase transition diagrams in compressive sensing - computation and analysis. - Ilmenau : ilmedia. - Online-Ressource (PDF-Datei: III, 78 S., 14,66 MB) Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

Compressive Sensing (CS) ist ein relativ neues Forschungsgebiet der digitalen Signalverarbeitung und ermöglicht, unter bestimmten Bedingungen, die fehlerfreie Rekonstruktion von Signalen, die weit unterhalb der Shannon-Nyquist-Rate abgetastet wurden. Das Verfahren ist komplizierter als bisherige und es gibt bis heute keine hinreichenden Schranken, die eine konkrete Vorhersage des Erfolgs von CS ermöglichen. Um solche Aussagen dennoch treffen zu können, wurden sogenannte Phasendiagramme (engl. Phase Transition Diagrams, Abk. PTD) eingeführt. Diese tragen die Erfolgswahrscheinlichkeit als Funktion von der Anzahl der Abtastwerte und der Anzahl der von Null abweichenden Koeffizienten des Signals ab. Es zeigt sich, dass sich zwei Bereiche mit den Wahrscheinlichkeiten 0 und 1 bilden, getrennt durch einen relativ scharfen Übergang, welcher den Namen der Diagramme begründet. Diese Arbeit enthält neben theoretischen Grundlagen zu CS und PTDs zwei wesentliche Teile. Zum einen die Konzeption und Implementierung eines verbesserten MATLAB-basierten Algorithmus zur Schätzung von PTDs und zum anderen dessen Anwendung, zur Untersuchung CS-basierter Algorithmen, um deren Leistungsfähigkeit und Abhängigkeit gegenüber bestimmter Modellparameter systematisch zu untersuchen. In diesem Teil wird gezeigt, dass sich die Algorithmen deutlich hinsichtlich ihrer Leistungsfähigkeit, Geschwindigkeit und Zuverlässigkeit unterscheiden. Außerdem zeigen die Untersuchungen, dass die Wahl der verwendeten Modellparameter großen Einfluss auf bestimmte Algorithmen hat. Diese Informationen sind sowohl für Wissenschaftler als auch Ingenieure, die sich mit compressive sensing befassen, enorm wichtig.


http://www.db-thueringen.de/servlets/DocumentServlet?id=26006

Yacob, Ahmad;
Clustering of multipath parameters without predefining the number of clusters. - 129 S. : Ilmenau, Techn. Univ., Masterarbeit, 2015

In diesem Projekt haben wir verschiedene nicht überwachte Algorithmen ausgeführt, um die Cluster von MIMO -Mehrwegekomponenten (MPCs) zu erkennen, ohne Vorgabe der Clusteranzahl. Improved Subtractive ist ein Initialisierungsalgorithmus, der wir anhand des Subtractive Algorithmus entwickelt haben, welcher sehr empfindlich auf einen spezifischen Parameter ist. Unsere Methode benötigt keine Vorkenntnisse über den Datensatz. Im Anschluss haben wir den Algorithmus erweitert, und ihn somit zu einem vollständigen Cluster-Algorithmus weiterentwickelt. Wir führten psSubtractive ein, was eine Vereinfachung des "Improved Subtractive" ist. Er wählt MPCs aus dem Datensatz, und sendet nur wenige dieser Proben zum "Improved Subtractive" Algorithmus, was die Komplexität vermindert. Chameleon ist ein hierarchischer Graph-Cluster-Algorithmus. Unser Ansatz ermöglicht nun die Clusterbildung ohne vorherige Informationen über den Datensatz, so dass wir seine Empfindlichkeit durch die Reduzierung der Parameteranzahl verringern konnten. Wir führten Denclue2.0 ein, und haben es derart optimiert, dass die Clusterbildung ohne Wiederholungen des Algorithmus durchzuführen ist. Es ist ein dichte-basierter Algorithmus, welcher die Cluster in unterschiedlichen Größen und Formen erkennen kann. Des Weiteren verbesserten wir MR-DMS durch Vermeiden des Problems des Ausschneidens einiger MPCs. Auch optimierten wir IG-CS + K-Means durch Verwendung des Mittelwerts aller Fusionen anstatt wie bisher XB. Wir verwendeten die Algorithmen auf unterschiedliche WINNER Szenarien und verglichen die Ergebnisse mit MR-DMS, IG-CS+KMeans+MoF und IG-Czink. Dabei konnten wir feststellten, dass unsere Algorithmen verglichen mit den bisher verwendeten besser bezüglich Genauigkeit der Ergebnisse und Komplexität sind oder in einem von beiden Punkten die bisherigen Algorithmen übertrafen. Es zeigt sich, dass psSubtracitve den wenigsten Rechenaufwand benötigt, während Chameleon und Denclue2.0 die genauesten Algorithmen sind. Der ausgewogenste Algorithmus, der die besten Ergebnisse bei geringster Komplexität gibt, ist der Improved Subtractive. Er ist ein automatischer Algorithmus, der sowohl für eine Ausgangsabschätzung als auch eine vollständige Clustering-Prozedur verwendet werden kann. Er gibt bessere Ergebnisse als die anderen Algorithmen und das bei sehr geringer Komplexität.



Steinmetz, Christian;
Entwurf einer GSM-R-Gruppenantenne zur Richtungsschätzung. - 83 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2014

Das Thema der Arbeit umfasst den Entwurf einer GSM-R Gruppenantenne zur Positionsbestimmung von Zügen. Die Antenne ist dabei für einen dual-linear polarisierten Empfang in der horizontalen Ebene ausgelegt. Die Arbeit beinhaltet den Entwurf einer geeigneten Einzelantenne sowie die Integration des Einzelelements in eine Gruppenantennenanordnung. Eine Methode zur Dimensionierung eines Antennenverbundes anhand von spezifizierten Funkszenarien unter Berücksichtigung von Mehrwegeausbreitung wird vorgestellt. Anhand der Cramér-Rao Schranke wird eine Abschätzung über die maximale Genauigkeit der Richtungsschätzung gegeben. Der Einfluss des Zugdaches auf die Antennenrichtcharakteristik und die Richtungsschätzung wird abgeschätzt. Die Antennensimulationen werden in einem elektromagnetischen Simulator durchgeführt und anhand von charakteristischen Antennenkenngrößen ausgewertet. Drei exemplarische Mehrwegeszenarien (Land, Stadt, Tunnel) entlang einer Zugstrecke werden definiert und simuliert. Anhand der generierten komplexen polarimetrischen Pfadgewichte, der Ein-und Ausfallswinkel (DoA, DoD), und der analytischen Beschreibung der Antennenrichtcharakteristiken von Sender (GSM-R Basissationen) und Empfänger (simulierte Gruppenantenne) über die Methode der EADF, werden die Szenarien deterministisch beschrieben, sodass eine Analyse der Auflösbarkeit der Szenarien möglich ist.