Publikationen des InIT der TU IlmenauPublikationen des InIT der TU Ilmenau
Anzahl der Treffer: 3672
Erstellt: Sun, 19 May 2024 12:00:13 +0200 in 0.1824 sec


Altinel, Berk; Asghar, Ehtisham; Berlt, Philipp; Buddappagari, Sreehari; Bornkessel, Christian; Singh, Jasmeet; Hein, Matthias
Practical aspects of automotive measurements and virtual-drive testing. - In: Modern automotive antenna measurements, (2022), S. 221-246

Müller, Jens; Hein, Matthias; Supreeti, Shraddha; Stehr, Uwe
Compact, high-performance and highly integrated faint pulse source at 850 nm :
i-FPS - Kompakte, performante und hoch-integrierte Faint Pulse Source bei 850 nm; Teilvorhaben: E/O-Hardware-Plattform für Faint Pulse Sources : Abschlussbericht FKZ: 50 YH 2121 : Laufzeit: 01.08.2021-31.05.2022 (Phase 1). - Ilmenau : Technische Universität Ilmenau, [Institut für Mikro- und Nanotechnologien MacroNano]. - 1 Online-Ressource (12 Seiten, 1,10 MB)Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

https://edocs.tib.eu/files/e01fb24/187793934X.pdf
Sokal, Bruno;
Tensor-based signal processing with applications to MIMO-ODFM systems and intelligent reflecting surfaces. - Fortaleza, 2022. - 1 Online-Ressource (124 Seiten)
Universidade Federal do Ceará, Dissertation 2022

Der Einsatz von Tensor-Algebra-Techniken in der Signalverarbeitung hat in den letzten zwei Jahrzehnten zugenommen. Anwendungen wie Bildverarbeitung, biomedizinische Signalverarbeitung, radar, maschinelles Lernen, deep Learning und Kommunikation im Allgemeinen verwenden weitgehend tensorbasierte Verarbeitungstechniken zur Wiederherstellung, Schätzung und Klassifizierung von Signalen. Einer der Hauptgründe für den Einsatz der Tensorsignalverarbeitung ist die Ausnutzung der mehrdimensionalen Struktur von Signalen, wobei die Einzigartigkeitseigenschaften der Tensor-Zerlegung profitieren. Bei der drahtlosen Kommunikation beispielsweise können die Signale mehrere "Dimensionen" haben, wie Raum, Zeit, Frequenz, Polarisation, usw. Diese Arbeit ist in zwei Teile gegliedert. Im ersten Teil betrachten wir die Anwendung von Tensor-basierten Algorithmen für multiple-input multiple-output (MIMO) orthogonal frequency division multiplexing (OFDM) Systeme unter Berücksichtigung von Vorhandensein von Phasenrauschenstörungen. In diesem Teil schlagen wir einen zweistufigen tensorbasierten Empfänger für eine gemeinsame Kanal-, Phasenrausch- und Datenschätzung in MIMO-OFDM-Systemen vor. In der ersten Stufe zeigen wir, dass das empfangene Signal auf den Pilotunterträgern als PARAFAC-Tensor dritter Ordnung modelliert werden kann. Auf der Grundlage dieses Modells werden zwei Algorithmen für die Schätzung der Phasen- und Kanalrauschen in den Pilotton vorgeschlagen. In der zweiten Stufe werden die übertragenen Daten geschätzt. Zu diesem Zweck schlagen wir einen Zero Forcing (ZF)-Empfänger vor, der sich die Tensorstruktur des empfangenen Signals auf den Datenträgern zunutze macht, indem er den vorgeschlagenen selektiven Kronecker-Produkt-Operators (SKP) kapitalisiert. Die Simulationsergebnisse zeigen, dass der vorgeschlagene Empfänger sowohl bei der Symbolfehlerrate als auch beim normalisierten mittleren quadratischen Fehler des geschätzten Kanal- und Phasenrauschmatrizen eine bessere Leistung im Vergleich zum Stand der Technik erzielt. Der zweite Teil dieser Arbeit befasst sich mit der Anwendung der Tensormodellierung zur Reduzierung des Kontrollsignalisierungsoverhead in zukünftigen drahtlosen Systemen, die durch intelligent reconfigurable surfaces (IRSs) unterstützt werden. Zu diesem Zweck schlagen wir eine Annäherung an die nahezu optimalen IRS-Phasenverschiebungen vor, die sonst einen prohibitiv hohen Kommunikationsoverhead auf den BS-IRS-Kontrollverbindungen verursachen würde. Die Hauptidee besteht darin, den optimalen Phasenvektor des IRSs, der Hunderte oder Tausende von Elementen haben kann, durch ein Tensormodell mit niedrigem Rang darzustellen. Dies wird erreicht durch Faktorisierung einer tensorisierten Version des IRS-Phasenverschiebungsvektors, wobei jede Komponente als Kronecker-Produkt einer vordefinierten Anzahl von Faktoren mit kleinerer Größe modelliert wird, die durch Tensor Zerlegungsalgorithmen erhaltet werden können. Wir zeigen, dass die vorgeschlagenen Low-Rank-Modelle die Rückkopplungsanforderungen für die BS-IRS-Kontrollverbindungen drastisch reduzieren. Die Simulationsergebnisse zeigen, dass die vorgeschlagene Methode besonders in Szenarien mit einer starken Sichtverbindung attraktiv sind. In diesem Fall wird fast die gleiche spektrale Effizienz erreicht wie in den Fällen mit nahezu optimalen Phasenverschiebungen, jedoch mit einem drastisch reduzierten Kommunikations-Overhead.



https://doi.org/10.22032/dbt.56127
Chege, Joseph K.; Grasis, Mikus J.; Manina, Alla; Yeredor, Arie; Haardt, Martin
Efficient probability mass function estimation from partially observed data. - In: Conference record of the Fifty-Sixth Asilomar Conference on Signals, Systems & Computers, (2022), S. 256-262

Estimating the joint probability mass function (PMF) of a set of random variables from partially observed data is a crucial part of statistical learning and data analysis, with applications in areas such as recommender systems and data classification. Recently, it has been proposed to estimate the joint PMF based on the maximum likelihood (ML) of the data, fitted to a low-rank canonical polyadic decomposition (CPD) model of the joint PMF. To this end, a hybrid alternating-directions expectation-maximization (AD-EM) algorithm was proposed to solve the ML optimization problem, consisting of computationally expensive AD iterations followed by an EM refinement stage. It is well known that the convergence rate of EM decreases as the fraction of missing data increases. In this paper, we address the slow convergence of the EM algorithm. By adapting the squared iterative methods (SQUAREM) acceleration scheme to the context of PMF estimation, we propose the SQUAREM-PMF algorithm to speed up the convergence of the EM algorithm. Moreover, we demonstrate that running the computationally cheaper EM algorithm alone after an appropriate initialization is sufficient. Numerical results on both synthetic and real data in the context of movie recommendation show that our algorithm outperforms state-of-the-art PMF estimation algorithms.



https://doi.org/10.1109/IEEECONF56349.2022.10052047
Römer, Florian; Kirchhof, Jan; Krieg, Fabian; Pérez, Eduardo
Compressed Sensing: from big data to relevant data. - In: Handbook of Nondestructive Evaluation 4.0, (2022), S. 329-352

Though the ever-increasing availability of digital data in the context of NDE 4.0 is mostly considered a blessing, it can turn to a curse quite rapidly: managing large amounts of data puts a burden on the sensor devices in terms of sampling and transmission, the networks, as well as the server infrastructure in terms of storing, maintaining, and accessing the data. Yet, NDE data can be highly redundant so the storage of massive amounts of data may indeed be wasteful. This is the main reason why focusing on relevant data as early as possible in the NDE process is highly advocated in the context of NDE 4.0. This chapter introduces Compressed Sensing as a potential approach to put this vision to practice. Compressed Sensing theory has shown that sampling signals with sampling rates that are significantly below the Shannon-Nyquist rate is possible without loss of information, provided that prior knowledge about the signals to be acquired is available. In fact, we may sample as low as the actual information rate if our prior knowledge is sufficiently accurate. In the NDE 4.0 context, prior knowledge can stem from the known inspection task and geometry but it can also include previous recordings of the same piece (such as in Structural Health Monitoring), information stored in the digital product memory along the products’ life cycle, or predictions generated through the products’ digital twins. In addition to data reduction, reconstruction algorithms developed in the Compressed Sensing community can be applied for enhanced processing of NDE data, providing added value in terms of accuracy or reliability. The chapter introduces Compressed Sensing basics and gives some concrete examples of its application in the NDE 4.0 context, in particular for ultrasound.



Yeram, Chaithanya;
Joint Simulation of Josephson Junctions and Memristors in Standard Circuit Analysis Program. - Ilmenau. - 72 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Josephson-Kontakte sind in der Quantenwissenschaft und -technik weit verbreitet. Häufig werden sie als Schaltelemente mit sehr geringem Stromverbrauch verwendet und bilden die Grundlage von Schaltkreisfamilien für die Informationsverarbeitung/Signalverarbeitung. Darüber hinaus werden Josephson-Kontakte auch in der ultraschnellen Elektronik, den so genannten Rapid Single-Flux Quantum (RSFQ)-Schaltungen, in Detektorsystemen für hochempfindliche Magnetfeldmessungen oder bei Hochfrequenzstrahlung eingesetzt. Josephson-Kontakte weisen eine nichtlineare Strom-Spannungs-Kennlinie mit einem Schwellenwertverhalten auf. Memristoren sind ebenfalls nichtlineare Schaltungselemente. Die Tatsache, dass ein Memristor seinen Zustand auch dann beibehält, wenn er von der Stromversorgung getrennt wird, deutet darauf hin, dass er für die Schaffung von nichtflüchtigen Speichern mit ultrahoher Kapazität verwendet werden könnte. Neben der Nichtflüchtigkeit verfügen Memristoren über weitere attraktive Eigenschaften wie eine einfache physikalische Struktur, hohe Dichte, geringen Stromverbrauch und unbegrenzte Lebensdauer, die dieses Bauelement für eine breite Palette von Anwendungen geeignet machen. Die Hinzufügung ihrer Fähigkeit, einen Speicher zu bilden, zu Josephson-Schaltelementen eröffnet eine vielversprechende Option für kompakte Schaltungen zur Signal-/Informationsverarbeitung. Im Rahmen dieser Arbeit wird ein Memristor-Modell mit dem Simulationstool LTspice simuliert und verifiziert. Als nächstes wird das Resistively and capacitively Shunted Josephson junction model (RCSJ) implementiert und mit dem Schaltungsanalyseprogramm LTspice untersucht. Durch das Ersetzen des Widerstands im RCSJ-Modell durch einen Memristor wird ein neues Modell entwickelt und mit Hilfe mehrerer Analyse-Setups untersucht. Der besondere Fokus liegt darauf, wie sich die Modellparameter auf die Schaltgeschwindigkeit, die Schaltungskomplexität und den Einfluss des Memristors auf den Josephson-Kontakte auswirken.



Sitdikov, Damir;
Analysis of efficient PMF-based classification approaches with application to healthcare data. - Ilmenau. - 70 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Moderne Algorithmen zur Datenverarbeitung und -klassifizierung erleichtern die Analyse von Big Data in vielen Lebensbereichen. Eine solche Analyse umfasst die Modellierung der den Daten innewohnenden Statistiken und die Aufstellung von Hypothesen über das Auftreten eines Ereignisses auf der Grundlage dieser Statistiken. Die Schätzung der gemeinsamen Wahrscheinlichkeitsmassenfunktion (PMF) eines Satzes von Zufallsvariablen aus teilweise beobachteten Daten ist das Herzstück des statistischen Lernens und der Datenanalyse. Die gebräuchlichsten Methoden des maschinellen Lernens, wie z. B. neuronale Netze, lassen keine Interpretation des Ergebnisses zu und sind im Wesentlichen so genannte "black boxes''. PMF-Modelle hingegen haben die Eigenschaft, dass ihre Lösungen erklärbar sind und dass sie zusätzliche Informationen zwischen den Merkmalen liefern. Die mehrdimensionalen Daten erfordern die Verwendung von Tensor-Algebra, um die PMF-Schätzung zu erhalten, und es gibt eine große Anzahl von Arbeiten in diesem Zusammenhang. In der aktuellen Literatur wurde jedoch das Verhalten der Tensor-Methoden der PMF-Schätzung bei Klassifizierungsproblemen unter verschiedenen Bedingungen nicht im Vergleich zu traditionellen Klassifizierungsalgorithmen untersucht. In dieser Arbeit bieten wir eine gründliche Untersuchung der Algorithmen durch numerische Simulationen auf synthetisch erzeugten Beobachtungen in verschiedenen Szenarien. Für das Szenario fehlender Prädiktoren verwenden wir mehrfache Imputationen mit Datenauffüllung, um traditionelle Algorithmen mit PMF-Methoden zu bewerten. Darüber hinaus schlagen wir eine Erweiterung eines der PMF-Schätzverfahren namens EM vor, um einzelne Faktormatrizen zu optimieren und so die Berechnungskomplexität und die Anzahl der Iterationen weiter zu reduzieren. Zu diesem Zweck verwenden wir die Konvergenz der gegenseitigen Information (Transinformation) zwischen Prädiktoren und Zielen, die aus der geschätzten PMF abgeleitet werden, als neues Kriterium und zeigen, dass der resultierende Algorithmus eine vergleichbare Genauigkeit wie die in der Literatur beschriebene EM-Methode erreicht. Schließlich evaluieren wir die Algorithmen anhand eines Satzes von realen Gesundheitsdaten zur Identifizierung von Patienten mit Herzerkrankungen und wenden uns dem Problem der Wissensentdeckung zu. Wir erläutern die Vorhersageergebnisse der PMF-basierten Algorithmen sowie die verborgenen Informationen zwischen Prädiktoren und Zielen.



Zverev, Gennadii;
Entwurf eines kompakten, energieeffizienten Lärmdosimeters mit integrierter Szenenerkennung und dessen Erprobung in mobilen Anwendungssituationen. - Ilmenau. - 42 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

In dieser Arbeit werden das Konzept und die Implementierung eines Hardware-Software-Systems zur Audiosignalaufnahme, Schalldruckpegelbewertung und Szenenerkennung beschrieben. Die Schwerpunkte der Arbeit sind die Erstellung einer Datenbank von Audiodaten, die Merkmalsextraktion, die Reduktion der Anzahl der Merkmale, die Implementierung eines Klassifikators zur Szenenerkennung basierend auf den Audiodaten, die Auswahl und Optimierung der Parameter des Klassifikatormodells, die Zusammenführung der Pegelbewertung und der Szenenerkennung, die Softwareimplementierung der Algorithmen in einer Hardwareumgebung und die Erprobung dieser Implementierung im Feldversuch. Die Implementierung des Systems und die Ergebnisse der Erprobung des Mess- und Auswertesystems im praktischen Einsatz werden diskutiert und mögliche Verbesserungen abgeleitet. Die Arbeit ist wie folgt aufgebaut. Zu Beginn sind in der Einleitung die Motivation und Zielstellung der Arbeit beschrieben. Im anschließenden Kapitel „2. Grundlagen“ werden wesentliche Zusammenhänge der Grundlagen der Signalverarbeitung, der Pegelberechnung und der Szenenklassifikation erläutert. Im Kapitel „3. Methodik“ werden die Pegelberechnung, die Datensatzerstellung, die Szenenklassifikationsalgorithmen und ihre Implementierung beschrieben. Weiterhin wird auf Ansätze zu Optimierungen der Berechnungen eingegangen. Im Kapitel „4. Echtzeitplattform“ werden verschiedene Hardware-Plattformen hinsichtlich ihrer Eignung für die konkrete Implementierung ausgewertet und ein Entwurf der Systemarchitektur und der Softwarearchitektur erstellt. Im Kapitel „5. Testung in realer Umgebung“ wird auf den Kalibrierungsprozess der Pegelberechnung, den konzipierten und durchgeführten Feldexperiment und die Auswertung der Ergebnisse des Feldexperimentes sowie deren Erkenntnisse und Rückschlüsse eingegangen. Die Arbeit endet mit einer Zusammenfassung und Diskussion der Ergebnisse mit einer Bewertung und der Ableitung von Ansätzen für weiterführende Arbeiten.



Pflantz, Leonhard;
Datenübertragungsverfahren im Wandel : kabellose Kommunikation als echte Alternative?. - Ilmenau. - 83 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Im Zeitalter der Digitalisierung stieg die Relevanz der Thematik Ortsungebundenheit für Datenübertragungen immer weiter an, wodurch insbesondere Kommunikationstechnologien aus dem Bereich der kabellosen Kommunikation aktuell viel Fortschritt durch umfassende Forschung und Weiterentwicklungen erfahren. Die kabellose Kommunikation war jedoch bisher stets mit erheblichen Nachteilen bezüglich der Leistungsdaten gegenüber den kabelgebundenen Lösungen verknüpft, während die Anforderungen an die Datenübertragung für alle Kommunikationstechnologien auch weiterhin schnell ansteigen. Damit die kabellose Datenübertragung eine echte Alternative sein kann, muss diese auch abseits des Vorteils der Ortsungebundenheit konkurrenzfähig sein und darf keine für die Nutzung relevanten Nachteile aufweisen. Um dies zu prüfen, wurden für den Einsatz innerhalb eines Local Area Networks Zielgrößen für die relevantesten Leistungsmerkmale einer Datenübertragung innerhalb des privaten als auch des gewerblichen Bereichs herausgearbeitet. Diese wurden anschließend genutzt, um die aktuell relevantesten kabellosen (Wi-Fi 6; 5G) und kabelgebundenen (Ethernet über Kupferkabel; Ethernet über Glasfaserkabel) Kommunikationstechnologien anhand von theoretischen und auch praktischen, selbst gemessenen Leistungsdaten zu charakterisieren. Ziel dieser Arbeit war es somit, die Forschungsfrage „Kann die kabellose Kommunikation in unterschiedlichen Use Cases den Anforderungen an die Datenübertragung genügen?" zu beantworten. Im Rahmen der Arbeit wurde deutlich, dass die kabellosen Kommunikationstechnologien viel Potenzial bieten, jedoch zum aktuellen Zeitpunkt, im Rahmen der gestellten Anforderungen, noch keine wirklich Alternative sind.



Su, Chang-Yi;
Simulation and Performance Evaluation of Wireless Sensor Networks Based on Software-Defined Networking for the Internet of Things. - Ilmenau. - 75 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Wireless Sensor Networks (WSNs) werden mit dem Aufkommen des Internets der Dinge (IoTs) immer beliebter. Internets der Dinge haben in den letzten Jahren an Attraktivität gewonnen. Es ermöglicht die nahtlose Integration verschiedener Arten von Endgeräten und stellt viele Arten von lokalisierten Informationen bereit, die von verteilten Anwendungen analysiert werden können. Um die Verwaltbarkeit zu verbessern, wurde der Software-Defined Networking (SDN)-Ansatz kürzlich erfolgreich auf des Internets der Dinge-Netzwerke angewendet. Im vorgegebenen Thema einer Masterarbeit soll ein Simulationstool für SDN-basierte Wireless Sensor Networks (WSNs) identifiziert und angewendet werden, um den Nutzen dieses Ansatzes zu evaluieren.