Doctoral Theses by Electronic Measurements and Signal Processing Research GroupDoctoral Theses by Electronic Measurements and Signal Processing Research Group

Doctoral Theses

Anzahl der Treffer: 26
Erstellt: Fri, 27 May 2022 23:01:33 +0200 in 0.0686 sec


Semper, Sebastian;
Efficient algorithms and data structures for compressive sensing. - Ilmenau, 2022. - xxxiv, 276 Seiten
Technische Universität Ilmenau, Dissertation 2022

Wegen der kontinuierlich anwachsenden Anzahl von Sensoren, und den stetig wachsenden Datenmengen, die jene produzieren, stößt die konventielle Art Signale zu verarbeiten, beruhend auf dem Nyquist-Kriterium, auf immer mehr Hindernisse und Probleme. Die kürzlich entwickelte Theorie des Compressive Sensing (CS) formuliert das Versprechen einige dieser Hindernisse zu beseitigen, indem hier allgemeinere Signalaufnahme und -rekonstruktionsverfahren zum Einsatz kommen können. Dies erlaubt, dass hierbei einzelne Abtastwerte komplexer strukturierte Informationen über das Signal enthalten können als dies bei konventiellem Nyquistsampling der Fall ist. Gleichzeitig verändert sich die Signalrekonstruktion notwendigerweise zu einem nicht-linearen Vorgang und ebenso müssen viele Hardwarekonzepte für praktische Anwendungen neu überdacht werden. Das heißt, dass man zwischen der Menge an Information, die man über Signale gewinnen kann, und dem Aufwand für das Design und Betreiben eines Signalverarbeitungssystems abwägen kann und muss. Die hier vorgestellte Arbeit trägt dazu bei, dass bei diesem Abwägen CS mehr begünstigt werden kann, indem neue Resultate vorgestellt werden, die es erlauben, dass CS einfacher in der Praxis Anwendung finden kann, wobei die zu erwartende Leistungsfähigkeit des Systems theoretisch fundiert ist. Beispielsweise spielt das Konzept der Sparsity eine zentrale Rolle, weshalb diese Arbeit eine Methode präsentiert, womit der Grad der Sparsity eines Vektors mittels einer einzelnen Beobachtung geschätzt werden kann. Wir zeigen auf, dass dieser Ansatz für Sparsity Order Estimation zu einem niedrigeren Rekonstruktionsfehler führt, wenn man diesen mit einer Rekonstruktion vergleicht, welcher die Sparsity des Vektors unbekannt ist. Um die Modellierung von Signalen und deren Rekonstruktion effizienter zu gestalten, stellen wir das Konzept von der matrixfreien Darstellung linearer Operatoren vor. Für die einfachere Anwendung dieser Darstellung präsentieren wir eine freie Softwarearchitektur und demonstrieren deren Vorzüge, wenn sie für die Rekonstruktion in einem CS-System genutzt wird. Konkret wird der Nutzen dieser Bibliothek, einerseits für das Ermitteln von Defektpositionen in Prüfkörpern mittels Ultraschall, und andererseits für das Schätzen von Streuern in einem Funkkanal aus Ultrabreitbanddaten, demonstriert. Darüber hinaus stellen wir für die Verarbeitung der Ultraschalldaten eine Rekonstruktionspipeline vor, welche Daten verarbeitet, die im Frequenzbereich Unterabtastung erfahren haben. Wir beschreiben effiziente Algorithmen, die bei der Modellierung und der Rekonstruktion zum Einsatz kommen und wir leiten asymptotische Resultate für die benötigte Anzahl von Messwerten, sowie die zu erwartenden Lokalisierungsgenauigkeiten der Defekte her. Wir zeigen auf, dass das vorgestellte System starke Kompression zulässt, ohne die Bildgebung und Defektlokalisierung maßgeblich zu beeinträchtigen. Für die Lokalisierung von Streuern mittels Ultrabreitbandradaren stellen wir ein CS-System vor, welches auf einem Random Demodulators basiert. Im Vergleich zu existierenden Messverfahren ist die hieraus resultierende Schätzung der Kanalimpulsantwort robuster gegen die Effekte von zeitvarianten Funkkanälen. Um den inhärenten Modellfehler, den gitterbasiertes CS begehen muss, zu beseitigen, zeigen wir auf wie Atomic Norm Minimierung es erlaubt ohne die Einschränkung auf ein endliches und diskretes Gitter R-dimensionale spektrale Komponenten aus komprimierten Beobachtungen zu schätzen. Hierzu leiten wir eine R-dimensionale Variante des ADMM her, welcher dazu in der Lage ist die Signalkovarianz in diesem allgemeinen Szenario zu schätzen. Weiterhin zeigen wir, wie dieser Ansatz zur Richtungsschätzung mit realistischen Antennenarraygeometrien genutzt werden kann. In diesem Zusammenhang präsentieren wir auch eine Methode, welche mittels Stochastic gradient descent Messmatrizen ermitteln kann, die sich gut für Parameterschätzung eignen. Die hieraus resultierenden Kompressionsverfahren haben die Eigenschaft, dass die Schätzgenauigkeit über den gesamten Parameterraum ein möglichst uniformes Verhalten zeigt. Zuletzt zeigen wir auf, dass die Kombination des ADMM und des Stochastic Gradient descent das Design eines CS-Systems ermöglicht, welches in diesem gitterfreien Szenario wünschenswerte Eigenschaften hat.



https://doi.org/10.22032/dbt.51729
Soleymani, Dariush M.;
Radio resource allocation for overlay D2D-based vehicular communications in future wireless networks. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (xiv, 128 Seiten)
Technische Universität Ilmenau, Dissertation 2022

Mobilfunknetze der nächsten Generation ermöglichen einen weitverbreiteten Einsatz von Device-to-Device Kommunikation, der direkten Kommunikation zwischen zellularen Endgeräten. Für viele Anwendungsfälle zur direkten Kommunikation zwischen Endgeräten sind eine deterministische Latenz und die hohe Zuverlässigkeit von zentraler Bedeutung. Dienste zur direkten Kommunikation (D2D) für in der Nähe befindliche Endgeräte sind vielversprechend die hohen Anforderungen an Latenz und Zuverlässigkeit für zukünftige vertikale Anwendungen zu erfüllen. Eine der herausragenden vertikalen Anwendungen ist die Fahrzeugkommunikation, bei der die Fahrzeuge sicherheitskritische Meldungen direkt über D2D-Kommunikation austauschen, die dadurch zur Reduktion von Verkehrsunfällen und gleichzeitig von Todesfällen im Straßenverkehrt beiträgt. Neue Techniken zur effizienteren Zuweisung von Funkressourcen in der D2D-Kommunikation haben in letzter Zeit in Industrie und Wissenschaft große Aufmerksamkeit erlangt. Zusätzlich zur Allokation von Ressourcen, wird die Energieeffizienz zunehmend wichtiger, die normalerweise im Zusammenhang mit der Ressourcenallokation behandelt wird. Diese Dissertation untersucht verschiedener Ansätze der Funkressourcenzuweisung und Energieeffizienztechniken in der LTE und NR V2X Kommunikation. Im Folgenden beschreiben wir kurz die Kernideen der Dissertation. Meist zeichnen sich D2D-Anwendungen durch ein relativ geringes Datenvolumen aus, die über Funkressourcen übertragen werden. In LTE können diese Funkressourcen aufgrund der groben Granularität für die Ressourcenzuweisung nicht effizient genutzt werden. Insbesondere beim semi-persistenten Scheduling, bei dem eine Funkressource über einen längeren Zeitraum im Overlay D2D festgelegt wird, sind die Funkressourcen für solche Anwendungen nicht ausgelastet. Um dieses Problem zu lösen, wird eine hierarchische Form für das Management der Funkressourcen, ein sogenanntes Subgranting-Schema, vorgeschlagen. Dabei kann ein nahegelegener zellularer Nutzer, der sogenannte begünstigte Nutzer, ungenutzten Funkressourcen, die durch Subgranting-Signalisierung angezeigt werden, wiederzuverwenden. Das vorgeschlagene Schema wird bewertet und mit "shortening TTI", einen Schema mit reduzierten Sendezeitintervallen, in Bezug auf den Zellendurchsatz verglichen. Als nächster Schritt wird untersucht, wie der begünstigten Benutzer ausgewählt werden kann und als Maximierungsproblem des Zellendurchsatzes im Uplink unter Berücksichtigung von Zuverlässigkeits- und Latenzanforderungen dargestellt. Dafür wird ein heuristischer zentralisierter, d.h. dedizierter Sub-Granting-Radio-Ressource DSGRR-Algorithmus vorgeschlagen. Die Simulationsergebnisse und die Analyse ergeben in einem Szenario mit stationären Nutzern eine Erhöhung des Zelldurchsatzes bei dem Einsatz des vorgeschlagenen DSGRR-Algorithmus im Vergleich zu einer zufälligen Auswahl von Nutzern. Zusätzlich wird das Problem der Auswahl des begünstigten Nutzers in einem dynamischen Szenario untersucht, in dem sich alle Nutzer bewegen. Wir bewerten den durch das Sub-Granting durch die Mobilität entstandenen Signalisierungs-Overhead im DSGRR. Anschließend wird ein verteilter Heuristik-Algorithmus (OSGRR) vorgeschlagen und sowohl mit den Ergebnissen des DSGRR-Algorithmus als auch mit den Ergebnissen ohne Sub-Granting verglichen. Die Simulationsergebnisse zeigen einen verbesserten Zellendurchsatz für den OSGRR im Vergleich zu den anderen Algorithmen. Außerdem ist zu beobachten, dass der durch den OSGRR entstehende Overhead geringer ist als der durch den DSGRR, während der erreichte Zellendurchsatz nahe am maximal erreichbaren Uplink-Zellendurchsatz liegt. Zusätzlich wird die Ressourcenallokation im Zusammenhang mit der Energieeffizienz bei autonomer Ressourcenauswahl in New Radio (NR) Mode 2 untersucht. Die autonome Auswahl der Ressourcen wird als Verhältnis von Summenrate und Energieverbrauch formuliert. Das Ziel ist den Stromverbrauch der akkubetriebenen Endgeräte unter Berücksichtigung der geforderten Zuverlässigkeit und Latenz zu minimieren. Der heuristische Algorithmus "Density of Traffic-based Resource Allocation (DeTRA)" wird als Lösung vorgeschlagen. Bei dem vorgeschlagenen Algorithmus wird der Ressourcenpool in Abhängigkeit von der Verkehrsdichte pro Verkehrsart aufgeteilt. Die zufällige Auswahl erfolgt zwingend auf dem dedizierten Ressourcenpool beim Eintreffen aperiodischer Daten. Die Simulationsergebnisse zeigen, dass der vorgeschlagene Algorithmus die gleichen Ergebnisse für die Paketempfangsrate (PRR) erreicht, wie der sensing-basierte Algorithmus. Zusätzlich wird der Stromverbrauch des Endgeräts reduziert und damit die Energieeffizienz durch die Anwendung des DeTRA-Algorithmus verbessert. In dieser Arbeit werden Techniken zur Allokation von Funkressourcen in der LTE-basierten D2D-Kommunikation erforscht und eingesetzt, mit dem Ziel Funkressourcen effizienter zu nutzen. Darüber hinaus ist der in dieser Arbeit vorgestellte Ansatz eine Basis für zukünftige Untersuchungen, wie akkubasierte Endgeräte mit minimalem Stromverbrauch in der NR-V2X-Kommunikation Funkressourcen optimal auswählen können.



https://dx.doi.org/10.22032/dbt.51719
Häfner, Stephan;
Parameter estimation for broadband mm-wave FMCW MIMO radars - a model-based system identification perspective. - Ilmenau : Universitätsbibliothek, 2021. - 1 Online-Ressource (xviii, 244 Seiten)
Technische Universität Ilmenau, Dissertation 2021

Radaranwendungen für das tägliche Leben haben in den letzten Jahrzehnten immer mehr an Bedeutung gewonnen. Radarsensoren werden in verschiedensten Bereichen eingesetzt, z.B. in Autos, in der industriellen Automatisierung, in medizinischen Anwendungen usw. FMCW-Radare sind hierbei populär. Ihre architektonische Einfachheit und die jüngsten Entwicklungen im Bereich integrierter Schaltkreise erleichtern die System-on-Chip-Realisierung von FMCW-Radaren. Darüber hinaus sind MIMO-Radare ein aufkommender Technologietrend zukünftiger Radarsysteme. Solche Radare bieten neben der Entfernungs- oder Dopplerbestimmung eine Vielzahl neuartiger Möglichkeiten. Kombiniert mit der Einfachheit der Hardware von FMCW-Radaren werden somit neue Anwendungsfelder adressierbar. Neben der Radar-Hardware ist die Signalverarbeitung ein elementarer Bestandteil einer jeden Radaranwendung. Ein wesentlicher Teil der Radarsignalverarbeitung ist die Zielerfassung und die Schätzung der zugehörigen Parameter aus den Radarbeobachtungen. Die geschätzten Parameter dienen als Eingangsdaten für alle nachfolgenden Verarbeitungsschritte. Die Radarsignalverarbeitung ist hierbei untrennbar mit der Hardware und dem Anwendungszweck verbunden. Breitbandige Radare, d.h. Radare mit großer Signalbandbreite und räumlicher Apertur, bieten eine hohe räumliche und zeitliche Auflösung. Klassische Methoden der Schätzung von Zielparametern beruhen auf Annahmen bezüglich der Radararchitektur oder der Bandbreite. Diese Annahmen sind bei breitbandigen Radaren nicht erfüllt. Daher sind neuartige Signalverarbeitungsmethoden notwendig um einerseits die Möglichkeiten des Radarsystems voll auszuschöpfen, sowie Verarbeitungsproblemen, die durch das Radar selbst verursacht werden, zu bewältigen. In dieser Arbeit wird die Signalverarbeitung für ein breitbandiges FMCW-MIMO-Radar dargestellt, welches im mm-Wellen-Frequenzbereich arbeitet. Die Entwicklung geeigneter Signalverarbeitungsmethoden erfordert hierbei einen Paradigmenwechsel in der Betrachtung der Radaranwendung. Im Gegensatz zu der klassischen Betrachtung von Radar, bei der Radar hauptsächlich vor dem Hintergrund der hardwarebedingten Zielerkennung betrachtet wird, soll hier ein anderer Gesichtspunkt herangezogen werden. Radar wird als eine Anwendung der Systemidentifikation im Bereich der drahtlosen Wellenausbreitung betrachtet. Die Parameter eines Modells beschreiben die Ausbreitung elektromagnetischer Wellen in Raum-, Frequenz- und Zeitbereich. Diese Parameter können Radarzielen zugeordnet, und deren Auswertung zur Zielortung ausgenutzt werden. Daher wird das Radar in Verbindung mit der Schätzung von Modellparametern als ein Problem der modellbasierten Systemidentifikation betrachtet. Die modellbasierte Systemidentifikation aus verrauschten Messungen ist ein stochastisch inverses Problem. Aus der Literatur ist eine Vielzahl von Verfahren zur Lösung solcher Probleme bekannt, welche hinsichtlich des Modells sehr flexibel sind. Diese Flexibilität ermöglicht die Entwicklung von dedizierten Methoden der Signalverarbeitung, welche auf die Radar-Hardware zugeschnitten, und nicht auf dedizierte Annahmen über z.B. die Signalbandbreite beschränkt sind. Die Betrachtung von Radarsignalverarbeitung als modellbasierte Systemidentifikation ermöglicht es somit, geeignete Signalverarbeitungsmethoden für das betrachtete Radar zu entwickeln.



https://dx.doi.org/10.22032/dbt.50286
Sousa, Marcelo Nogueira de;
Multipath exploitation for emitter localization using ray-tracing fingerprints and machine learning. - Ilmenau : Universitätsverlag Ilmenau, 2021. - 1 Online-Ressource (xix, 245 Seiten)
Technische Universität Ilmenau, Dissertation 2021

Die präzise Lokalisierung von Hochfrequenz (HF)-Sendern im Außenbereich ist seit einigen Jahren ein wichtiges Forschungsthema in den verschiedensten Bereichen. Heutzutage basieren die Funktionsweisen vieler elektronischer Geräte auf den Positionsdaten eines HF-Senders unter Einsatz eines drahtlosen Sensornetzwerks (Wireless Sensor Network). Räumlich getrennte Sensoren können das Signal des Senders messen und seinen Standort mit Parametern wie Ankunftszeit (Time Of Arrival), Ankunftszeitdifferenz (Time Difference Of Arrival, TDoA), empfangene Signalstärke (Received Signal Strength) oder Ankunftsrichtung (Direction Of Arrival) abschätzen. Jedoch können bestimmte Hindernisse in der Umgebung Reflexion, Beugung oder Streuung des Signals verursachen. Dieser sogenannte Mehrwegeffekt beeinträchtigt die Messungen für die präzise Lokalisierung des Senders. Frühere Studien haben die Mehrweginformationen verworfen und sie nicht als wertvoll für die Lokalisierung des Senders angesehen. Einige Studien verwendeten Ray-Tracing (RT), um in einem simulierten Szenario Positions-Fingerprints, ohne Bezug zu realen Messungen, zu erstellen. Andere wiederum testeten dieses Konzept mit realen Messdaten, was sich jedoch aufgrund der praktischen Probleme im Außenbereich als umständlicheres Verfahren herausstellte. Diese Doktorarbeit befasst sich mit dem Problem der präzisen Lokalisierung von HF-Sendern in Außenbereichen, welche von Mehrwegeffekten betroffen ist, unter Verwendung der Kanalimpulsantwort (Channel Impulse Response). Die Arbeit zielt darauf ab, die Forschungslücke zu schließen, indem die Mehrweginformationen aus der Simulation mit realen Messungen in einem maschinellen Lernrahmen kombiniert werden. Die Fragestellung war, ob die Lokalisierung durch die Verknüpfung realer Messungen mit Simulationen verbessert werden kann. Wir schlagen eine Methode vor, die die Mehrweg-Fingerprint-Informationen aus der RT-Simulation mit Referenzsendern nutzt, sodass die Standortbestimmung verbessert werden kann. Um die Wirksamkeit der vorgeschlagenen Methode zu validieren, haben wir ein TDoA Lokalisierungssystem in einem Außenbereich-Szenario implementiert. Im Rahmen dieser Dissertation untersuchten wir vorstädtische und ländliche Gebiete unter Verwendung von wohldefinierten reflektierenden Komponenten zur Charakterisierung des Mehrwegmusters. Die Ergebnisse bestätigen die Möglichkeit, Mehrwegeffekte mit realen Messdaten zu nutzen, um die Lokalisierung im Außenbereich zu verbessern. Statt die Mehrweginformationen zu verwerfen, können wir sie konkret nutzen.



https://doi.org/10.22032/dbt.49241
Jovanoska, Snezhana;
Localisation and tracking of people using distributed UWB sensors. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (xxx,180 Seiten)
Technische Universität Ilmenau, Dissertation 2020

In vielen Überwachungs- und Rettungsszenarien ist die Lokalisierung und Verfolgung von Personen in Innenräumen auf nichtkooperative Weise erforderlich. Für die Erkennung von Objekten durch Wände in kurzer bis mittlerer Entfernung, ist die Ultrabreitband (UWB) Radartechnologie aufgrund ihrer hohen zeitlichen Auflösung und Durchdringungsfähigkeit Erfolg versprechend. In dieser Arbeit wird ein Prozess vorgestellt, mit dem Personen in Innenräumen mittels UWB-Sensoren lokalisiert werden können. Er umfasst neben der Erfassung von Messdaten, Abstandschätzungen und dem Erkennen von Mehrfachzielen auch deren Ortung und Verfolgung. Aufgrund der schwachen Reflektion von Personen im Vergleich zum Rest der Umgebung, wird zur Personenerkennung zuerst eine Hintergrundsubtraktionsmethode verwendet. Danach wird eine konstante Falschalarmrate Methode zur Detektion und Abstandschätzung von Personen angewendet. Für Mehrfachziellokalisierung mit einem UWB-Sensor wird eine Assoziationsmethode entwickelt, um die Schätzungen des Zielabstandes den richtigen Zielen zuzuordnen. In Szenarien mit mehreren Zielen kann es vorkommen, dass ein näher zum Sensor positioniertes Ziel ein anderes abschattet. Ein Konzept für ein verteiltes UWB-Sensornetzwerk wird vorgestellt, in dem sich das Sichtfeld des Systems durch die Verwendung mehrerer Sensoren mit unterschiedlichen Blickfeldern erweitert lässt. Hierbei wurde ein Prototyp entwickelt, der durch Fusion von Sensordaten die Verfolgung von Mehrfachzielen in Echtzeit ermöglicht. Dabei spielen insbesondere auch Synchronisierungs- und Kooperationsaspekte eine entscheidende Rolle. Sensordaten können durch Zeitversatz und systematische Fehler gestört sein. Falschmessungen und Rauschen in den Messungen beeinflussen die Genauigkeit der Schätzergebnisse. Weitere Erkenntnisse über die Zielzustände können durch die Nutzung zeitlicher Informationen gewonnen werden. Ein Mehrfachzielverfolgungssystem wird auf der Grundlage des Wahrscheinlichkeitshypothesenfilters (Probability Hypothesis Density Filter) entwickelt, und die Unterschiede in der Systemleistung werden bezüglich der von den Sensoren ausgegebene Informationen, d.h. die Fusion von Ortungsinformationen und die Fusion von Abstandsinformationen, untersucht. Die Information, dass ein Ziel detektiert werden sollte, wenn es aufgrund von Abschattungen durch andere Ziele im Szenario nicht erkannt wurde, wird als dynamische Überdeckungswahrscheinlichkeit beschrieben. Die dynamische Überdeckungswahrscheinlichkeit wird in das Verfolgungssystem integriert, wodurch weniger Sensoren verwendet werden können, während gleichzeitig die Performanz des Schätzers in diesem Szenario verbessert wird. Bei der Methodenauswahl und -entwicklung wurde die Anforderung einer Echtzeitanwendung bei unbekannten Szenarien berücksichtigt. Jeder untersuchte Aspekt der Mehrpersonenlokalisierung wurde im Rahmen dieser Arbeit mit Hilfe von Simulationen und Messungen in einer realistischen Umgebung mit UWB Sensoren verifiziert.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000116
Röding, Matthias;
Polarimetrische Analyse breitbandiger Radar-Signale für bildgebende Anwendungen. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (V, 171 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Wie Systeme ihre Umwelt erfassen und Umgebungen wahrnehmen ist in den letzten Jahren in nahezu allen Lebensbereichen in den Fokus technischer Entwicklungen gerückt. Es sind Anwendungen der Assistenz oder Automatisierung im privaten Raum (Smart Home), in der Produktion (Industrie 4.0) oder in Mobilitätssystemen der Logistik bzw. des Verkehrs (autonomes Fahren), welche möglichst qualitativ hochwertige und von Umgebungseinflüssen unabhängige Sensorinformationen für ihre korrekte Funktionsweise benötigen. Radar-Sensoren bieten die Möglichkeit von der Umgebung zurückgestreute Signale zu erfassen und durch räumlich verteilte Messungen eine Abbildung der Umwelt vorzunehmen. Unter Nutzung einer synthetischen Apertur und Radar-Signalen großer Bandbreite entstehen dabei Kartierungen, welche räumliche Informationen von Rückstreuobjekten bereitstellen. Die Auswertung des Polarisationszustands gesendeter und empfangener Signale, bietet außerdem eine detailliertere Aussage über deren Interaktion mit der Umgebung und ursächliche Streumechanismen. In der klassischen Radar-Fernerkundung sind die Aufgaben der Bildgebung und der Polarimetrie voneinander getrennte Verarbeitungsschritte, da erst nach der Bildgebung die notwendige Auflösung zur Trennung einzelner Mechanismen zur Verfügung steht. Informationen der Objekte wie Form oder Ausrichtung im Raum werden entsprechend durch Auswertung des polarimetrischen Streumechanismus im Bildbereich gewonnen. Ziel dieser Arbeit ist die Erweiterung wissenschaftlicher Ausgangspunkte der bildgebenden UWB-Radar-Sensorik durch Methoden der Radar-Polarimetrie der Fernerkundung. Durch die Erschließung polarimetrischer Signalanalyse breitbandiger Radar-Signale als Vorverarbeitung bildgebender Verfahren, können polarimetrische Mechanismen bereits im Zeitbereich identifiziert und ausgewertet werden. Die daraus gewonnenen Informationen dienen der Zerlegung der Radar-Daten in einzelne Rückstreukomponenten, wodurch bildgebende Verfahren die Umgebung des Sensors mit höherer Genauigkeit und Interpretierbarkeit erfassen. Dazu werden zwei neuartige Methoden detailliert diskutiert und mit bestehenden polarimetrischen Verfahren in Bezug gesetzt. Es handelt sich dabei, um einen modellbasierten Ansatz für die Zerlegung im Zeitbereich und ein Verfahren der statistischen Analyse in Zeit- und Bildbereich. Die Funktionsweise der Methoden wird in dieser Arbeit mit Simulationsdaten veranschaulicht und mithilfe von Messungen in realitätsnaher Umgebung verifiziert.



https://www.db-thueringen.de/receive/dbt_mods_00040525
Ibrahim, Mohamed;
Applications of compressive sensing to direction of arrival estimation. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (xii, 154 Seiten)
Technische Universität Ilmenau, Dissertation 2018

Die Schätzung der Einfallsrichtungen (Directions of Arrival/DOA) mehrerer ebener Wellenfronten mit Hilfe eines Antennen-Arrays ist eine der prominentesten Fragestellungen im Gebiet der Array-Signalverarbeitung. Das nach wie vor starke Forschungsinteresse in dieser Richtung konzentriert sich vor allem auf die Reduktion des Hardware-Aufwands, im Sinne der Komplexität und des Energieverbrauchs der Empfänger, bei einem vorgegebenen Grad an Genauigkeit und Robustheit gegen Mehrwegeausbreitung. Diese Dissertation beschäftigt sich mit der Anwendung von Compressive Sensing (CS) auf das Gebiet der DOA-Schätzung mit dem Ziel, hiermit die Komplexität der Empfängerhardware zu reduzieren und gleichzeitig eine hohe Richtungsauflösung und Robustheit zu erreichen. CS wurde bereits auf das DOA-Problem angewandt unter der Ausnutzung der Tatsache, dass eine Superposition ebener Wellenfronten mit einer winkelabhängigen Leistungsdichte korrespondiert, die über den Winkel betrachtet sparse ist. Basierend auf der Idee wurden CS-basierte Algorithmen zur DOA-Schätzung vorgeschlagen, die sich durch eine geringe Rechenkomplexität, Robustheit gegenüber Quellenkorrelation und Flexibilität bezüglich der Wahl der Array-Geometrie auszeichnen. Die Anwendung von CS führt darüber hinaus zu einer erheblichen Reduktion der Hardware-Komplexität, da weniger Empfangskanäle benötigt werden und eine geringere Datenmenge zu verarbeiten und zu speichern ist, ohne dabei wesentliche Informationen zu verlieren. Im ersten Teil der Arbeit wird das Problem des Modellfehlers bei der CS-basierten DOA-Schätzung mit gitterbehafteten Verfahren untersucht. Ein häufig verwendeter Ansatz um das CS-Framework auf das DOA-Problem anzuwenden ist es, den kontinuierlichen Winkel-Parameter zu diskreditieren und damit ein Dictionary endlicher Größe zu bilden. Da die tatsächlichen Winkel fast sicher nicht auf diesem Gitter liegen werden, entsteht dabei ein unvermeidlicher Modellfehler, der sich auf die Schätzalgorithmen auswirkt. In der Arbeit wird ein analytischer Ansatz gewählt, um den Effekt der Gitterfehler auf die rekonstruierten Spektra zu untersuchen. Es wird gezeigt, dass sich die Messung einer Quelle aus beliebiger Richtung sehr gut durch die erwarteten Antworten ihrer beiden Nachbarn auf dem Gitter annähern lässt. Darauf basierend wird ein einfaches und effizientes Verfahren vorgeschlagen, den Gitterversatz zu schätzen. Dieser Ansatz ist anwendbar auf einzelne Quellen oder mehrere, räumlich gut separierte Quellen. Für den Fall mehrerer dicht benachbarter Quellen wird ein numerischer Ansatz zur gemeinsamen Schätzung des Gitterversatzes diskutiert. Im zweiten Teil der Arbeit untersuchen wir das Design kompressiver Antennenarrays für die DOA-Schätzung. Die Kompression im Sinne von Linearkombinationen der Antennensignale, erlaubt es, Arrays mit großer Apertur zu entwerfen, die nur wenige Empfangskanäle benötigen und sich konfigurieren lassen. In der Arbeit wird eine einfache Empfangsarchitektur vorgeschlagen und ein allgemeines Systemmodell diskutiert, welches verschiedene Optionen der tatsächlichen Hardware-Realisierung dieser Linearkombinationen zulässt. Im Anschluss wird das Design der Gewichte des analogen Kombinations-Netzwerks untersucht. Numerische Simulationen zeigen die Überlegenheit der vorgeschlagenen kompressiven Antennen-Arrays im Vergleich mit dünn besetzten Arrays der gleichen Komplexität sowie kompressiver Arrays mit zufällig gewählten Gewichten. Schließlich werden zwei weitere Anwendungen der vorgeschlagenen Ansätze diskutiert: CS-basierte Verzögerungsschätzung und kompressives Channel Sounding. Es wird demonstriert, dass die in beiden Gebieten durch die Anwendung der vorgeschlagenen Ansätze erhebliche Verbesserungen erzielt werden können.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2018000490
Alazab Elkhouly, Mostafa;
Standardized testing conditions for satellite communications on-the-move (SOTM) terminals. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (xii, 123 Seiten)
Technische Universität Ilmenau, Dissertation 2018

Von Beginn an haben Satelliten Kommunikationsdienste über große Distanzen bereitgestellt. Endgeräte für die mobile Satellitenkommunikation sind mit einer Nachführeinrichtung ausgestattet, um den verwendeten Satelliten bei Bewegung zu verfolgen. Für höchstmöglichen Datendurchsatz und um Störaussendungen zu benachbarten Satelliten zu vermeiden bedarf es akkurater Nachführalgorithmen. Die Prüfung solcher Satcom-On-The-Move (SOTM) Terminals wird dabei zunehmend wichtig, wie Betreiber von Satellitendiensten anhand des negativen Einflusses suboptimaler Geräte auf ihre Infrastruktur bemerken. Herkömmlich werden SOTM-Terminals im Rahmen von Feldtests mit operativen Satelliten geprüft. Solche Tests sind allerdings nicht exakt wiederholbar. Die Reproduzierbarkeit von Tests ist jedoch insbesondere beim Vergleichstest mehrerer Terminals wichtig. Dieser Beitrag widmet sich der Untersuchung eines umfassenden Qualifikationstests von SOTM-Terminals innerhalb einer Laborumgebung, welche Reproduzierbarkeit ermöglicht. Wesentlicher Vorteil der Laborumgebung ist die Möglichkeit, Terminals unter realitätsnahen Bedingungen zu testen - ohne dass reale Satelliten benötigt werden, was die Kosten reduziert. Diese Arbeit behandelt darüber hinaus die Testmethodik in der Fraunhofer-Testanlage Facility for Over-the-air Research and Testing (FORTE). Wichtige Leistungsparameter wie Nachführgenauigkeit (Antenna De-pointing) und Nachbarsatellitenstörung (Adjacent Satellite Interference, ASI) können akkurat gemessen und ausgewertet werden. Die verwendete Methodik zur Gewinnung der vorgeschlagenen Profile wird in der Arbeit ebenso behandelt wie Testergebnisse von Ka-Band-SOTM Terminals. Wesentlicher Beitrag dieser Arbeit ist die Entwicklung von Bewegungs- und Abschattungsprofilen für SOTM-Terminaltests. Bewegungsprofilen für die Landmobile und Maritime Umgebungen wurden entwickelt. Für jede Umgebung, zwei Klassen wurden definiert, Klasse A mit Profile die hohe Bewegungsdynamik haben und Klasse B mit Profile die relativ niedrige Bewegungsdynamik haben. Die vorgeschlagenen Bewegungsprofile wurden in der GVF-105 Standard des Global VSAT Forums berücksichtigt. Die Standardisierung solcher Profile ist notwendig, um einen fairen Leistungsvergleich verschiedener Terminals zu garantieren und solche Geräte sicher zu identifizieren, welche Interferenzen im Satellitennetz verursachen. Dies bedeutet im Ergebnis einen Gewinn für die gesamte Satellitenindustrie.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2018000470
Lavrenko, Anastasia;
Compressive acquisition and processing of sparse analog signals. - Ilmenau : Universitätsverlag Ilmenau, 2018. - 1 Online-Ressource (XV, 235 Seiten)
Technische Universität Ilmenau, Dissertation 2018

Seit dem Aufkommen der ersten digitalen Verarbeitungseinheiten hat die Bedeutung der digitalen Signalverarbeitung stetig zugenommen. Heutzutage findet die meiste Signalverarbeitung im digitalen Bereich statt, was erfordert, dass analoge Signale zuerst abgetastet und digitalisiert werden, bevor relevante Daten daraus extrahiert werden können. Jahrzehntelang hat die herkömmliche äquidistante Abtastung, die durch das Nyquist-Abtasttheorem bestimmt wird, zu diesem Zweck ein nahezu universelles Mittel bereitgestellt. Der kürzlich explosive Anstieg der Anforderungen an die Datenerfassung, -speicherung und -verarbeitung hat jedoch die Fähigkeiten herkömmlicher Erfassungssysteme in vielen Anwendungsbereichen an ihre Grenzen gebracht. Durch eine alternative Sichtweise auf den Signalerfassungsprozess können Ideen aus der sparse Signalverarbeitung und einer ihrer Hauptanwendungsgebiete, Compressed Sensing (CS), dazu beitragen, einige dieser Probleme zu mindern. Basierend auf der Annahme, dass der Informationsgehalt eines Signals oft viel geringer ist als was von der nativen Repräsentation vorgegeben, stellt CS ein alternatives Konzept für die Erfassung und Verarbeitung bereit, das versucht, die Abtastrate unter Beibehaltung des Signalinformationsgehalts zu reduzieren. In dieser Arbeit untersuchen wir einige der Grundlagen des endlichdimensionalen CSFrameworks und seine Verbindung mit Sub-Nyquist Abtastung und Verarbeitung von sparsen analogen Signalen. Obwohl es seit mehr als einem Jahrzehnt ein Schwerpunkt aktiver Forschung ist, gibt es noch erhebliche Lücken beim Verständnis der Auswirkungen von komprimierenden Ansätzen auf die Signalwiedergewinnung und die Verarbeitungsleistung, insbesondere bei rauschbehafteten Umgebungen und in Bezug auf praktische Messaufgaben. In dieser Dissertation untersuchen wir, wie sich die Anwendung eines komprimierenden Messkerns auf die Signal- und Rauschcharakteristiken auf die Signalrückgewinnungsleistung auswirkt. Wir erforschen auch Methoden, um die aktuelle Signal-Sparsity-Order aus den komprimierten Messungen abzuleiten, ohne auf die Nyquist-Raten-Verarbeitung zurückzugreifen, und zeigen den Vorteil, den sie für den Wiederherstellungsprozess bietet. Nachdem gehen wir zu einer speziellen Anwendung, nämlich der Sub-Nyquist-Abtastung und Verarbeitung von sparsen analogen Multibandsignalen. Innerhalb des Sub-Nyquist-Abtastung untersuchen wir drei verschiedene Multiband-Szenarien, die Multiband-Sensing in der spektralen, Winkel und räumlichen-Domäne einbeziehen.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018000167
Schirmer, Christopher;
Over-The-Air Testing using Wave-Field Synthesis. - Ilmenau : Universitätsverlag Ilmenau, 2018. - 1 Online-Ressource (211 Seiten)
Technische Universität Ilmenau, Dissertation 2018

Moderne Kommunikationsgeräte, z. B. Smartphones und GPS-Empfänger streben einen hohen Integrationsgrad an, um Kosten, Platz und Energie zu sparen. Es existieren auch große Geräte, wie zum Beispiel Fahrzeuge mit integrierten Long Term Evolution-Antennen. Um den Entwicklungsprozess zu beschleunigen, werden adäquate Testverfahren benötigt, die eine korrekte Funktionsweise aller Gerätekomponenten sicherstellen. Das Ziel dieser Arbeit ist es, Testverfahren einschließlich Kalibrierverfahren zu entwickeln, die reproduzierbare Testbedingungen erlauben, um vergleichbare Leistungstests von Kommunikationssystemen zu ermöglichen. Diese Arbeit besteht aus zwei Teilen. Der erste Teil beschäftigt sich mit Wellenfeldsynthese (WFS) für elektrisch kleine Geräte. Der zweite Teil präsentiert ein alternatives Testverfahren für elektrisch große Geräte, welches Wireless Cable (WLC) bezeichnet wird. Im WFS-Teil werden Simulationen durchgeführt, um die Anwendbarkeit der WFS für Over-The-Air-Tests in 2D und 3D zur Erzeugung ebener elektromagnetischer Wellen zu untersuchen. Ein Kalibrierverfahren wird für die 2D-WFS vorgestellt, um den Frequenzgang analoger Systemkomponenten zu entzerren. Das Kalibrierverfahren wird mit Hilfe der Metriken Error Vector Magnitude und Poynting Vector Angular Deviation verifiziert. Es werden zur Verifikation des gesamten WFS-Systems Messungen auf Basis von GPS durchgeführt, die mit kabelgebundenen Tests verglichen werden. Zur Demonstration der Vollständigen Mess- und Testprozedur werden verschiedene Mehrelement-Antennen unter identischen Messbedingungen verglichen. Einflüsse auf ein reales System durch Rauschen, Drift und Temperatureinfluss werden untersucht. Für 3D-WFS wird ein optimierender Algorithmus wird entwickelt und verifiziert, um Emulationsantennen auf einer Sphäre oder Hemisphäre optimal zu verteilen. Im Wireless Cable-Teil wird das gleichnamige Testverfahren vorgestellt, das als alternative Over-The-Air-Testmethode die Untersuchung großer Geräte erlaubt. Die Anwendbarkeit in nicht-reflexionsfreien Umgebungen wird demonstriert. Wie alle Over-The-Air-basierten Testverfahren berücksichtigt Wireless Cable auch Selbstinterferenz. Eine Langzeitstabilitätsanalyse wird durchgeführt, außerdem eine Verifikation der Anwendbarkeit eines realistischen Funkkanals für den Anwendungsfall Long Term Evolution.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018000061