Dissertationen ab 2018

Anzahl der Treffer: 224
Erstellt: Thu, 18 Apr 2024 23:17:03 +0200 in 1.5917 sec


Schäffer, Daniel;
Planar integrated asymmetric waveguide splitter devices in glass. - Ilmenau : Universitätsbibliothek, 2024. - 1 Online-Ressource (xvii, 122 Seiten)
Technische Universität Ilmenau, Dissertation 2024

Gegenstand dieser Arbeit ist die Untersuchung planar integrierter, asymmetrischer Multimode Wellenleiterverzweiger in Glas. Diese sind besonders interessant für Anwendungen in lokalen Datacom-Netzwerken, der Medizin und der Hochspannungstechnik. Als geeignetes Herstellungsverfahren wird der feldunterstützte Na+/Ag+ Ionenaustausch aus flüssigen Salzschmelzen untersucht. Hierbei werden Ag+ über die Oberfläche in das Glas eingebracht, um den Brechungsindex zu erhöhen. Durch die Verwendung von Masken, die via Photolithographie auf der Glasoberfläche aufgebracht werden, kann die Erhöhung des Brechungsindex lokal begrenzt werden, um optische Lichtwellenleiter herzustellen. Ein externes Feld beschleunigt den Ionenaustauschprozess, kann jedoch zu ungewünschten Verformungen der Wellenleiterprofile führen. Ein Simulationsmodell, basierend auf der Finite-Elemente-Methode, wird zur Berechnung der Lichtwellenleiterprofile entwickelt. Dieses bildet die Ionenaustauschprozesse anhand der Diffusionsgleichungen ab und erlaubt die Erstellung von dreidimensionalen planar integrierten Strukturen in Glas. Anschließend wird die Lichtausbreitung mittels wellenoptischer BPM-Simulation berechnet. Somit kann der experimentelle Aufwand signifikant reduziert werden und eine computergestützte Optimierung des Bauteildesigns erfolgen. Mit Hilfe des Modells werden vier verschiedene asymmetrische Multimode Verzweigervarianten entwickelt. Diese unterscheiden sich in ihrem Maskendesign und den gewählten Ionenaustauschparametern. Es wird untersucht, wie sich die Asymmetrie durch unterschiedliche Breiten der Verzweigerarme und deren Winkel steuern lässt. Ein neuartiger Ansatz, der ohne Maske und damit ohne Photolithographieprozess auskommt, wird vorgestellt. Hierbei wird ein Ultrakurzpuls-Laser genutzt, um Gräben in eine mit Silberionen angereicherte Schicht zu strukturieren. Der verbleibende Steg dient als Lichtwellenleiter. Für jede Verzweigervariante wird jeweils ein Funktionsmuster hergestellt. Die Wellenleiterprofile werden mittels eines Rasterelektronenmikroskops charakterisiert und anschließend werden die Ein- und Ausgänge der Verzweiger an optische Glasfaserkabel angekoppelt. Die Asymmetrie und die Verluste der Komponenten werden gemessen und mit den Simulationsergebnissen verglichen. Das Verhalten bei Datenraten von 28 Gbit/s wird experimentell bestimmt, um so die Eignung für den Einsatz in optischen Kommunikationsnetzwerken zu gewährleisten.



https://doi.org/10.22032/dbt.59865
Poroskun, Ivan;
Übertragung und Erweiterung des Konzepts des Virtuellen Koordinatenmessgerätes auf neue metrologische Anwendungen am Beispiel der Planck-Waage. - Ilmenau : Universitätsbibliothek, 2024. - 1 Online-Ressource (xiii, 111 Seiten)
Technische Universität Ilmenau, Dissertation 2024

Die Bestimmung der Messunsicherheit ist ein zentraler Aspekt jeder metrologischen Aufgabe. Mit fortschreitender Digitalisierung und bei immer komplexeren Messungen werden die Messunsicherheiten zunehmend in einer Simulation ermittelt. Die entsprechende Simulationssoftware wird dabei über Jahre oder sogar Jahrzehnte zusammen mit dem Experiment weiterentwickelt. Damit dieser Prozess möglichst effizient und nachhaltig gestaltet werden kann, bedarf es einer systematischen Vorgehensweise bei der Implementierung der physikalischen Zusammenhänge in einer Simulationssoftware. Dazu werden in dieser Arbeit die Konzepte einer etablierten Simulationssoftware für die Messunsicherheitsbestimmung verallgemeinert und für die Anwendung auf neue metrologische Aufgaben übertragen. Als Ausgangspunkt wird dafür das VCMM – das Virtuelle Koordinatenmessgerät – herangezogen. Um zu verstehen, wie das VCMM aufgebaut ist und was seinem Konzept zugrunde liegt, wird es von Grund auf neu implementiert. Dabei werden die Ansätze der Modellbildung des VCMMs erkannt und verallgemeinert. Demnach wird der gesamte Messprozess in einer Simulation nachgebildet. Weiterhin wird eine Softwarestruktur erarbeitet, mit der vergleichbare Simulationssoftware aufgebaut werden kann. Um schließlich die physikalischen Modelle einer Messung zu einer Software zu implementieren, wird eine unterstützende Softwarebibliothek entwickelt. Sie enthält die wiederkehrenden Komponenten einer Monte-Carlo-basierten Simulationssoftware und hilft bei der Umsetzung der Softwarestruktur. Zur Veranschaulichung der erarbeiteten Vorgehensweise wird als erstes Anwendungsbeispiel die Planck-Waage betrachtet. Dabei wird eine Simulationssoftware für die Bestimmung der Messunsicherheiten an der Planck-Waage erstellt. Die Software ist modular aufgebaut und bietet vielseitige Analysemöglichkeiten, die einen Einblick in die physikalischen Zusammenhänge der Messung ermöglichen. Die Erstellung der Simulationssoftware für weitere metrologische Anwendungen erfolgt äquivalent.



https://doi.org/10.22032/dbt.59707
Pabst, Markus;
Planck extension for a prototype vacuum mass comparator. - Ilmenau : Universitätsbibliothek, 2024. - 1 Online-Ressource (XI, 120 Seiten)
Technische Universität Ilmenau, Dissertation 2024

Diese Arbeit befasst sich mit der technischen Umsetzung zur Realisierung des Kilogramms nach der neuen Definition des Kilogramms von 2019. Im Stand der Technik wird die Geschichte des Kilogramms zurückverfolgt und es werden die wichtigsten Meilensteine der Wägetechnik vorgestellt. Anschließend werden verschiedene Ansätze zur Umsetzung der Realisierung des Kilogramms nach der neuen Definition aufgezeigt. Es werden die Grundlagen der hochpräzisen Massebestimmung einschließlich der Grenzen, Probleme und neuesten Entwicklungen auf dem Gebiet der Wägetechnik dargestellt. Darüber hinaus werden die Grundlagen der absoluten Massebestimmung mit einer Planck-Waage nach der neuen Definition des Kilogramms dargestellt. Im weiteren Verlauf wird die Entwicklung einer Planck-Waage als Erweiterung eines handelsüblichen Hochvakuum-Massekomparators beschrieben. Dies ermöglicht die Bestimmung des Kilogramms nach der neuen Definition auf der Grundlage von Massekomparatoren, die mit langjähriger Erfahrung entwickelt und getestet wurden. Darüber hinaus können die Massekomparatoren weiterhin zur Aufrechterhaltung der Kalibrierkette nach der alten Definition des Kilogramms verwendet werden. Im Rahmen der Entwicklung dieser Planck-Erweiterung für Massekomparatoren wird die Entwicklung von Magnetsystemen eingehend diskutiert. Im weiteren Verlauf wird die allgemeine Funktionsweise des Systems vorgestellt und beschrieben und die Messmethodik erläutert. Die aus dem Hauptexperiment gewonnenen Messergebnisse werden im Rahmen einer detaillierten Datenanalyse vorgestellt und diskutiert. In der Schlussfolgerung werden die Ergebnisse diskutiert, bewertet und mögliche Verbesserungsvorschläge aufgezeigt und vorgestellt.



https://doi.org/10.22032/dbt.59667
Schlag, Leslie;
Fundamentals and applications of gas phase electrodeposition. - Ilmenau : Universitätsbibliothek, 2024. - 1 Online-Ressource (147 Seiten)
Technische Universität Ilmenau, Dissertation 2024

In dieser Arbeit werden Grundlagen und Anwendungen der Gasphasen Elektrodeposition erarbeitet. Der Begriff steht für ein Zusammenspiel von Aerosolphysik und konventioneller Abscheidungstechnologie. Das aus einer Funkenentladung erzeugte Material wird durch einen Plasmastrahl direkt zu Punkten auf einem Substrat transportiert, wo sich das Material lokal oder in Mikrofilmen abscheidet. In dieser Arbeit wurden drei entscheidende theoretische Aspekte (i-iii) und drei praktische Aspekte (iv-vi) herausgearbeitet. (i) Die beiden Schlüsselparameter Funkenentladungsleistung und Trägergasfluss beeinflussen den von den geladenen Spezies getragenen elektrischen Strom, die erzeugte Masse/Größe der Nanopartikel und die resultierende Mikro-/Nanostrukturmorphologie. Langmuir-Sonden-Messungen zeigen mindestens zwei Transportzonen – eine vom Gasfluss dominierte und eine vom elektrischen Feld dominierte Zone. Die Gasströmung ist der Hauptfaktor, nicht nur für die Partikelgeschwindigkeit in der Transportzone, sondern auch für die Verteilung des elektrischen Potenzials und des elektrischen Feldes im Reaktor. In der Nähe des Substrats bildet sich ein elektrischer Feldgradient aus. Der Transport wechselt von der Gasströmung zum E-Feld. Die Komponente des elektrischen Feldes zeigt zur Oberfläche hin. (ii) Der elektrische Strom und die gravimetrische Analyse zeigen, dass die Stickstoff Ionen im Vergleich zu den erzeugten Metallpartikeln deutlich in der Überzahl sind. In Anbetracht der Mikro-/Nanostrukturmorphologie erweist sich die Leistung der Entladung als der wichtigste Parameter. Eine niedrige Funkenleistung in Verbindung mit einem geringen Gasfluss führt zu dendritischen Partikeln. Im Gegensatz dazu führt eine höhere Funkenleistung in Verbindung mit einem höheren Gasfluss zu kompakten Schichten. Dieses zweidimensionale Parameterfeld ermöglicht eine maßgeschneiderte Schichtmorphologie und Abscheiderate. (iii) Bei konstantem Gasdurchsatz führt ein kleinerer Reaktordurchmesser zu einem turbulenteren Strömungsverhalten. Dieses Verhalten ist unabhängig vom Gaseinlass, der die Partikelkonzentration im Plasmastrahl beeinflusst. Ein statistisches Modell führt zu einem besseren Verständnis der Gasphasen Elektrodeposition. Zusätzlich zur üblichen Standarddiffusion treten in eine bestimmte Richtung auch lange super-diffusive Flüge der erzeugten Teilchen auf, wenn ein zusätzliches elektrisches Feld vorhanden ist. Die gewonnenen theoretischen Erkenntnisse halfen bei der Gasphasen Elektrodeposition von (iv) Mikrofilmen, (v) lokalisierten selbstausrichtenden lateralen Metall-Nanobrücken und (vi) lokalisierten selbstausrichtenden vertikalen Leiterbahnen.



https://doi.org/10.22032/dbt.59621
Niehaus, Konstantin;
Experimentelle Untersuchung des Skalenverhaltens bei Kondensation und Verdampfen in einem generischen Fahrzeugscheinwerfer. - Ilmenau, 2024. - 1 Online-Ressource (xxiii, 178 Seiten)
Technische Universität Ilmenau, Dissertation 2024

Diese Promotionsschrift befasst sich mit der experimentellen Untersuchung des Wärmetransports und Stofftransfers feuchter Luft mit Phasentransition an einer Oberfläche. Eine Motivation hierfür gibt unter anderem das vermehrte Auftreten von unerwünschter Kondensation innerhalb von Automobilscheinwerfern. Hierzu wird ein experimenteller Aufbau vorgestellt, der die physikalischen Prozesse abbildet, die für die Tropfenkondensation und die Verdampfung von Tropfen relevant sind. Der in dieser Arbeit untersuchte Parameterbereich umfasst 200 < Re < 1300, bei 0 < Gr < 108 und relative Luftfeuchten von 0.19 < ϕein < 0.85 (bei 25 ◦C). Das Geschwindigkeitsfeld im Zellinneren wurde mittels tomografischer Particle Image Velocimetry gemessen. Die Ergebnisse einer probabilistischen Analyse und einer Hauptkomponentenanalyse werden präsentiert. Hierbei zeigt sich, dass die erzwungene Strömung den internen Wärme- und Stofftransport dominiert, höhere Temperaturgradienten jedoch zu einer Stabilisierung beziehungsweise Symmetrieerhöhung der großskaligen Strömung führen. Zur Bestimmung des Massentransfers beim Kondensieren und Verdampfen werden drei Messmethoden vorgestellt. Die erste bilanziert die Menge an Wasser an Ein- und Auslass, die zweite wiegt die Wassermasse direkt, während die dritte Konturen einzelner Tropfen mittels eines Mikroskops misst. Die ersten beiden liefern Aussagen über die globale Entwicklung der Masse auf der Kühlplatte. Die optische Methode eröffnet Einblicke in die lokale Tropfendynamik. Auf Basis dieser Messergebnisse wird die Skalierung der Sherwood-Zahl in Abhängigkeit von der Reynolds-Zahl und der relativen Luftfeuchte am Einlass untersucht. Zusätzlich wurde eine dimensionslose Beschreibung des Anwachsens und Schrumpfens von Einzeltropfen auf der Oberfläche formuliert. Die Messergebnisse des sensiblen und des latenten Wärmestroms werden abschließend in einem 1D-Modell reproduziert, validiert und auf den konkreten Betriebsfall eines Serienscheinwerfers angewendet.



https://doi.org/10.22032/dbt.59510
Tan, Aditya Suryadi;
Magneto- and electrorheological damper concepts with extended damping capabilities. - Ilmenau : Universitätsbibliothek, 2023. - 1 Online-Ressource (xxi, 152 Seiten)
Technische Universität Ilmenau, Dissertation 2023

Magnetorheologische (MR) und elektrorheologische (ER) Flüssigkeiten werden in der Dämpfertechnologie aufgrund ihrer Fähigkeit verwendet, die erzeugte Dämpfung und damit die Energiedissipation für eine gegebene Geschwindigkeit durch Variieren des angelegten Feldes einzustellen. An diesem Punkt setzt die vorliegende Arbeit an und untersucht potenzielle Erweiterungen der bisher bekannten Wirkmechanismen und Konstruktionen in verschiedene Zielrichtungen. Es geht dabei um Erweiterungen hinsichtlich der Dämpferfunktionalität, der Kennlinienanpassung und des Bauraumes. Die erste Erweiterung ist die konstruktive Änderung des ER-Steuerventils, die zu einer gesteuerten Kennlinienanpassung der Kraft-Geschwindigkeits-Charakteristik von ER-Dämpfern genutzt werden kann. Die Modifikation erfolgte durch Segmentierung der Feldquelle in paralleler Anordnung. Mit dieser Steuerventilkonstruktion kann die erzeugte Dämpfung schrittweise durch einen einfachen Ein-Aus-Schaltmechanismus geändert werden. Die zweite Erweiterung betrifft ein kompakteres Dämpferelement durch Erhöhung des Freiheitsgrades des Dämpfers. Bisherige Dämpferkonzepte basieren auf dem Freiheitsgrad 1. Durch die Kombination der Betriebsarten und Konstruktionsmechanismen wird in dieser Arbeit eine Erhöhung auf bis zu Freiheitsgrad 4 erreicht. Die dritte Erweiterung ist die Kombination mit einem anderen Material, um dem Dämpfer neue Funktionalität hinzuzufügen. In dieser Arbeit werden zwei Kombinationen untersucht, die Kombination mit Metallschaum und mit einem Formgedächtnislegierungsdraht (FGL). Die Kombination mit Metallschaum minimiert die parasitäre Dämpfung und ermöglicht den Einbau des Dämpfers in ein kleines Schwingungssystem. Die Kombination mit FGL eröffnet die Möglichkeit, die Konstruktion des MR-Dämpfers zu verkleinern. Es werden Untersuchungen der drei Erweiterungen durchgeführt, indem ihre Wirkung anhand von Laborprototypen überprüft wird. Die experimentellen Ergebnisse werden analysiert und mit mathematischen Modellen verglichen. Die Untersuchungsergebnisse in allen Erweiterungen zeigen vielversprechende Ergebnisse, bei denen neue Funktionalitäten oder Dämpfungseigenschaften eingeführt und durch Experimente verifiziert werden. Die vorgeschlagenen funktionalen und konstruktiven Erweiterungen für ER- oder MR-basierte Dämpfer bieten Entwurfsalternativen in der Dämpfertechnologie und neue Anwendungsmöglichkeiten.



https://doi.org/10.22032/dbt.59697
Khan, Asad;
Modeling and measuring the effects of individually optimized multi-channel transcranial direct current stimulation on the human brain. - Ilmenau : Universitätsbibliothek, 2023. - 1 Online-Ressource (xiii, 138 Seiten)
Technische Universität Ilmenau, Dissertation 2023

Die transkranielle Gleichstromstimulation (tDCS) ist eine nicht-invasive Technik zur Neuro-Modulation, bei der schwache Ströme durch Elektroden auf der Kopfhaut gesendet werden, um vorübergehend Eigenschaften des Gehirns zu verändern. Durch die gezielte Beeinflussung bestimmter kortikaler Bereiche haben Forscher tDCS eingesetzt, um Motorik, Emotionen, Gedächtnis, Sprachverarbeitung und verschiedene andere kognitive Funktionen zu beeinflussen. Konventionell wird bei der tDCS eine bipolare Standardmontage verwendet, um eine bestimmte Hirnregion von Interesse zu stimulieren, was in der Literatur zu unterschiedlichen Ergebnissen führte. In jüngster Zeit haben Optimierungsmethoden für die mehrkanalige tDCS (mc-tDCS) an Interesse gewonnen, die genau auf einen bestimmten Hirnbereich abzielen und das Potenzial haben, kontrolliertere und konsistentere Ergebnisse zu erzielen. In dieser Arbeit wird ein neuartiger mc-tDCS-Ansatz, der Distributed Constrained Maximum Intensity Approach (D-CMI), vorgeschlagen, um die somatosensorische P20/N20-Zielquelle des menschlichen Gehirns im Brodmann-Areal 3b zu stimulieren. Um die P20/N20-Zielquelle im Brodmann-Areal 3b für die tDCS genau zu rekonstruieren, wird eine integrierte und kombinierte Magnetoenzephalographie (MEG) und Elektroenzephalographie (EEG) Quellenanalyse mit individualisierter, auf die Leitfähigkeit des Schädels kalibrierter realistischer Kopfmodellierung vorgeschlagen. Die D-CMI-Methode wird für die somatosensorische P20/N20-Zielquelle im Brodmann-Areal 3b zunächst in einer Simulationsstudie und dann in einer experimentellen Validierungsstudie untersucht. In der Simulationsstudie wurden simulierte elektrische Felder (EF) für die neue D-CMI-Methode und die bereits bekannten, dem Stand der Technik entsprechenden Maximalintensitäts- (MI) und Standard-Bipolarmethoden erzeugt und für die individualisierten somatosensorischen P20/N20-Ziele verglichen. Die praktische Anwendbarkeit des D-CMI-Ansatzes wird in einer experimentellen Studie zur Stimulation der somatosensorischen P20/N20-Zielquelle im Brodmann-Areal 3b getestet und mit bipolaren Standard-TDCS- und Sham-TDCS-Bedingungen verglichen. Für den Vergleich werden die Daten der mit dem Finger elektrisch stimulierten somatosensorisch evozierten Felder (SEF) vor und nach der Anwendung der drei verschiedenen tDCS-Bedingungen (D-CMI, bipolare Standard- und Sham-Bedingungen) aufgezeichnet. Insbesondere werden die 20ms SEF-Spitzenamplituden vor und nach der Anwendung der drei tDCS-Bedingungen verglichen, um die Leistung von D-CMI im Vergleich zu Sham und bipolarer Standard-TDCS zu testen. Die in dieser Arbeit aus der Simulationsstudie gewonnenen Ergebnisse zeigten, dass die individualisierten D-CMI mc-tDCS-Montagen im Vergleich zur bipolaren Standardmethode hohe Stromintensitäten am Ziel zeigten. Ein weiterer Aspekt der individualisierten D-CMI-Montagen ist die potenzielle Reduzierung von Nebenwirkungen und Hautempfindungen. In dieser Hinsicht berücksichtigt die D-CMI die wichtigsten Stimulationsparameter, wie z. B. eine hohe Zielgerichtetheit (DIR) mit dem Potenzial geringerer Hautsensationen und elektrischer Feldamplituden in entfernten Hirnarealen. Die statistischen Vergleiche der 20ms SEF-Spitzenamplituden aus der experimentellen Studie in dieser Arbeit zeigten, dass der D-CMI-Ansatz den bipolaren Standard-TDCS-Ansatz, der auf das somatosensorische Brodmann-Areal 3b abzielt, übertrifft. Eine reduzierte Hautempfindung und Konsistenz während des gesamten Experiments mit D-CMI-basierter Scheinkonditionierung war ebenfalls erfolgreich. Die Ergebnisse dieser Arbeit deuten darauf hin, dass die D-CMI-Methode in Verbindung mit einer hochindividualisierten Schädelkonduktivität, die durch eine realistische Kopfmodellierung kalibriert wird, zu einer besseren Kontrolle der Stimulationsergebnisse führen kann als die Standard-TDCS-Methoden. Eine integrierte kombinierte MEG- und EEG-Quellenanalyse mit D-CMI-Montagen für die mc-tDCS-Stimulation kann möglicherweise die Kontrolle und Reproduzierbarkeit verbessern und die Empfindlichkeitsunterschiede zwischen Schein- und realen Simulationen verringern.



https://doi.org/10.22032/dbt.59595
Berlt, Philipp;
Messkonzepte für Funksysteme bei Mobilfunk-basierter Fahrzeugkommunikation. - Ilmenau : Universitätsbibliothek, 2023. - 1 Online-Ressource (ii, 171 Seiten)
Technische Universität Ilmenau, Dissertation 2023

Die vorliegende Arbeit beschäftigt sich in interdisziplinärer Weise mit Fragestellungen und anhand von over-the-air Tests mit Lösungsansätzen zur Antennenmesstechnik und Funkkanalemulation sowie mit Testverfahren bei LTE-basierter Mobilkommunikation im Kontext vernetzter Automobile. Die Herausforderung besteht darin, dass der Speisepunkt der Antennen aufgrund des Einbauzustandes im Fahrzeug sowie der fortschreitenden Integration von Antennen und Empfängern nur schwer oder gar nicht zugänglich ist. Durch Nutzung modulierter Kommunikationssignale gelingt es, direkt und ohne komplexe Algorithmen dreidimensionale Gewinn- und Phaseninformation von Fahrzeugantennen im Einbauzustand aus einfachen Leistungsmessungen zu ermitteln. Kenntnis des Phasendiagramms der Antennen ist insbesondere bei der Übertragung mit mehreren Antennen essenziell und wird außerdem für die Bestimmung der Position von Antennen anhand ihres Phasenzentrums benötigt. Nach der Charakterisierung der Strahlungseigenschaften der Antennen werden diese als Teil einer Funkumgebung betrachtet und in der Funkkanalnachbildung berücksichtigt. Für die Bestimmung der Leistungsfähigkeit von Fahrzeugantennen durch die Emulation drahtloser Ausbreitungskanäle wurden im Rahmen dieser Arbeit mittels programmierbarer Funkmodule Alternativen zu etablierten Kanalemulatoren sowie die Zahl und Anordnung von Beleuchtungsantennen für die Nachbildung räumlicher Eigenschaften erforscht. Im Bereich realer und virtueller Fahrtests mit vernetzten Automobilen bestehen die Ergebnisse dieser Arbeit aus einem Messkonzept für virtuelle Fahrtests mit dem Ziel der Nachbildung relevanter Ausbreitungseffekte aus realen Fahrtests. Als relevantes Testszenario wurden die Grenzbereiche zwischen Mobilfunkzellen, bzw. die Nachbarbasisstation als größter Störeinfluss, identifiziert. Anhand gezielter Regelung von Nutz- und Störsignalpegeln im virtuellen Test kann das Verhalten des Testgeräts an den kritischen Stellen in Nähe der Zellränder mit Schwankungen < 5 % nachgebildet werden. Dieses Konzept ermöglicht einen einfachen Test, ohne notwendigerweise detaillierte Kenntnis des Funkkanals haben zu müssen, indem der Fokus auf der Nachbildung von für die Übertragung kritischen Szenarien anstelle der Nachbildung eines spezifischen Funkkanals liegt.



https://doi.org/10.22032/dbt.59165
Behrens, Arne;
Plasma based 2.5D+ micro and nanostructuring for whispering gallery mode resonators. - Ilmenau : Universitätsbibliothek, 2023. - 1 Online-Ressource (xii, 172 Seiten)
Technische Universität Ilmenau, Dissertation 2023

Whispering gallery mode resonatoren werden für eine Vielzahl unterschiedlicher Anwendungen in der Industrie und im akademischen Bereich eingesetzt. Die Arbeit mit WGM ist mit Hürden wie die Herstellung, Charakterisierung und Anregung verbunden. Das Ziel dieser Arbeit ist es, neue Konzepte vorzustellen, um diese Hürden zu verringern. Die Herstellung von photonischen Strukturen beruht auf der Mikrofabrikationstechnik, die keine Kontrolle des Seitenwandwinkels erlaubt. Die Steuerung des Seitenwandwinkels in SiO2 bei gleichzeitig sehr geringer Oberflächenrauhigkeit würde einen neuen Freiheitsgrad ermöglichen und die Leistung photonischer Strukturen verbessern. Es wird eine systematische Untersuchung vorgestellt, die den riesigen Parameterraum des Ätzprozesses mit einem ”educated guessing”-Ansatz eingrenzt, bis DoE-Ansätze realisierbar werden. Dies geschieht in mehreren Schritten. Zur Untersuchung der verbleibenden Parameter wird eine Surface-Response-Methodology angewandt. Das erstellte Modell ist validiert und stimmt gut mit den Experimenten überein und kann daher zur Optimierung verschiedener Responsevariablen wie Seitenwandwinkel, Rauheit und Ätzrate verwendet werden. Die Substrattemperatur ermöglich die Kontrolle des Seitewandwinkels von 50&ring; bis 90&ring;. Die gewonnenen Erkenntnisse werden dann in Kombination mit dem bereits vorhandenen Wissen in der Community genutzt, um die Fertigungsmöglichkeiten der Gruppe Technische Optik im Reinraum zu erweitern. Das SiO2-Verfahren ist auch für das Ätzen von Si3N4 mit hervorragenden Ergebnissen geeignet. Diese Mikrofabrikationstechniken werden dann für die Herstellung von 2,5D+ WGMRs eingesetzt. Es wird eine neue Charakterisierungstechnik vorgeschlagen, die die emittierten Photonen für die Analyse von WGM nutzt. Dazu wird eine Einzelphotonentechnologie wie die zeitkorrelierte Einzelphotonenzählung verwendet, die neben klassischen Intensitätsbildern auch die Aufnahme von räumlich aufgelösten Lebenszeitbildern ermöglicht. Ein experimenteller Aufbau wird konzipiert und realisiert. Aus fluoreszierendem Material hergestellte WGMs werden mit den vorgeschlagenen Techniken angeregt und analysiert; durch die Analyse der Lebensdauern können die Q-Faktoren der WGMs bestimmt werden. Schließlich wird ein alternativer Weg zur Einkopplung von Licht in WGM vorgeschlagen, der monolithisch integrierte DOE auf WGM verwendet. Aufgrund eines fehlenden theoretischen Rahmens werden Simulationen durchgeführt, um DOE und WGM separat zu modellieren. Die vorgeschlagenen Elemente werden mit den entwickelten Mikrofabrikationsverfahren hergestellt und mit dem neuartigen Charakterisierungsaufbau analysiert.



https://doi.org/10.22032/dbt.59169
Hahm, Christoph;
Direkt abgeformte Betonbauteile für Präzisionsanwendungen im Maschinen- und Gerätebau. - Ilmenau : Universitätsverlag Ilmenau, 2023. - 1 Online-Ressource (XIII, 168 Seiten). - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; Band 40)
Technische Universität Ilmenau, Dissertation 2023

Präzisionssysteme können durch die Verwendung von Werkstoffen mit dem gleichen thermischen Ausdehnungskoeffizienten thermisch stabil realisiert werden. Häufig wird Naturstein für Präzisionsanwendungen verwendet, da dieser sehr fein bearbeitet werden kann, thermisch sowie mechanisch langzeitstabil und korrosionsbeständig ist. Die Gestaltungmöglichkeiten sind jedoch durch die kostspielige und zeitaufwendige Bearbeitung stark eingeschränkt. Ein vielversprechender Ansatz zur Herstellung von Präzisionsbauteilen für die gesamte Maschinenstruktur ist die Verwendung von speziellen selbstverdichtenden Betonen (SCC=Self Compacting Concrete). Mit Beton als Alternativmaterial können vergleichbare mechanische Eigenschaften erzielt und wesentliche Gestaltmerkmale urformend hergestellt werden. Durch die niedrigen Materialkosten amortisieren sich die Werkzeugkosten schon bei kleinen Losgrößen. Teile aus SCC weisen im Herstellungsprozess ein zeit- und klimaabhängiges Schrumpfen und Quellen auf, womit Änderungen in der Bauteilgestalt verbunden sind. Allerdings konnte die Stabilisierungszeit beim Aushärteprozess deutlich verkürzt werden. In einer Langzeitstudie über fast zehn Jahre wurde eine mit Naturstein vergleichbare Formstabilität belegt. Darüber hinaus wurde eine Simulationsmethode entwickelt, um die Formänderung komplexer Geometrien vorherzusagen. Mit diesem Werkzeug kann eine Schalungsgeometrie entwickelt werden, die zu einem Fertigteil führt, welches annähernd der idealen Geometrie entspricht. SCC kann auch als alternatives Material für Teile mit hoher spezifischer Steifigkeit in beweglichen Maschinenstrukturen eingesetzt werden. Um eine mit Stahl- oder Aluminiumleichtbauteilen vergleichbare Zuverlässigkeit zu gewährleisten, muss die Betriebsfestigkeit verbessert werden. Der Einsatz von Stahl– oder Kohlefasern als Bewehrung ist nicht sinnvoll, da diese zu inhomogenem thermischen Verhalten führen. Alternativ kann eine Armierung durch die Aufbringung von organo–funktionellen Beschichtungen mit erhöhter Zugfestigkeit erfolgen. Die Wirkungsmechanismen und Zusammenhänge mit der Dauerfestigkeit wurden analysiert, um eine experimentelle Methode zur Bestimmung des Beschichtungseinflusses zu entwickeln. Abschließend erfolgt die Übertragung der Ergebnisse auf ein Verfahren zur Vorhersage der Betriebsfestigkeitssteigerung von beschichteten Betonbauteilen mit beliebiger Geometrie.



https://doi.org/10.22032/dbt.59146
Bača, Martin;
Advanced 3D cell culturing and monitoring system. - Ilmenau : Universitätsbibliothek, 2023. - 1 Online-Ressource (213 Seiten)
Technische Universität Ilmenau, Dissertation 2023

Die vorgelegte Doktorarbeit stellt ein 3D-Zellkultursystem mit einem vollautomatisierten analytischen, biochemischen Assay und vollautomatisierter Kultivierung mit Mediumwechsel vor. Dieses integrierte Kultivierungs- und Analysesystem wurde in dieser Arbeit mit 3D-Hepatozytenkulturen in Polycarbonat-MatriGrid®-Gerüsten für das 3D-Wachstum von Zellkulturen prototypisiert. Das System perfundiert MatriGrid- Kulturen kontinuierlich mit Wirkstoff-ergänztem Medium und führt bei Bedarf eine Bewertung der Wirkstofftoxizität durch Beobachtung und Messung der Konzentration eines Indikators, des Biomarkers Albumin, durch. Das System kann die MatriGrid-Kultur mit unterschiedlichen Flussraten perfundieren, automatisierte Medienwechsel durchführen und mit dem mitgelieferten ELISA-Modul Proben des zu analysierenden Kulturmediums nach Bedarf untersuchen. Das System unterstützt die parallele Kultivierung von Zellen in mehreren Bioreaktoren. Das Fluidnetzwerk wurde aus Materialien konstruiert, die wenig Proteine und kleine Moleküle binden, absorbieren oder adsorbieren, um seine Anwendung für niedrige Biomarkerkonzentrationen und Langzeitexperimente zu erweitern. Die Doktorarbeit beschreibt das Systemdesign, den Aufbau, das Testen und die Verifikation unter Verwendung von 3D-gewachsenen HepaRG-Zellkulturen. Die zeitabhängige Wirkung von APAP auf die Albuminsekretion wurde über 96 h untersucht, wobei sowohl mit dem neu entwickelten System als auch konventionell in Mikrotiterplatten, gemessen wurde. Es zeigte sich, dass die Ergebnisse vergleichbar sind. Dieses Resultat belegt die Verwendung des Systems als eigenständiges Gerät, das in Echtzeit arbeitet und in der Lage ist, gleichzeitig Zellkultur- und Mediumanalyse in mehreren Bioreaktoren durchzuführen, mit erhöhter Zuverlässigkeit der 3D-Kultivierung, in einfacher Handhabung und Messung. Auf diese Weise soll das neu entwickelte 3D-Zellkultivierungs- und Analysesystem 3D-Zellkultivierungstechniken und -experimente für weitere Forschungsgruppen bekannt machen.



https://doi.org/10.22032/dbt.59056
Numssen, Ole;
Identification of causal structure-function relationships in the human motor cortex with non-invasive brain stimulation. - Ilmenau : Universitätsbibliothek, 2023. - 1 Online-Ressource (xxiii, 173 Seiten)
Technische Universität Ilmenau, Dissertation 2023

Transkranielle Magnetstimulation (TMS) ist ein nicht-invasives Hirnstimulationsverfahren, das im Klinik- und im Forschungsalltag eingesetzt wird, um kausale Struktur-Funktions-Beziehungen im menschlichen Gehirn zu identifizieren. Mittels eines induzierten elektrischen Feldes wird durch Depolarisierung kortikaler Neuronen aktiv in die Verarbeitung lokal begrenzter Hirnregionen eingegriffen. Allerdings beschränkt die hohe Autokorrelation des induzierten elektrischen Feldes eine präzise Lokalisation des TMS Effekts im kortikalen Gewebe. In dieser Arbeit präsentiere ich ein neues Paradigma, das aktuelle Entwicklungen im Bereich Feldmodellierung verwendet, um die räumliche Auflösung von TMS Lokalisation signifikant zu erhöhen. Stimulationsreaktionen auf verschiedene Stimulationsorte werden in einer Analyse kombiniert um die involvierten Neuronenpopulationen zu identifizieren. Die Stimulation wird quantifiziert mittels hochauflösender Feldberechnungen, um eine realistische Abschätzung der kortikalen Stimulation zu erzielen. Die Güte des funktionalen Zusammenhangs zwischen Feldexposition und modulierten Verhalten wird genutzt, um die involvierte Neuronenpopulation zu identifizieren. Als erste Annäherung verwende ich Input-Output-Kurven für eine Reihe von Stimulationsorten um Muskelrepräsentationen im primären Motorkortex zu lokalisieren. Ich validiere die Ergebnisse experimentell mit Hilfe der Ruhemotorschwelle um die praktische Relevanz einer präzisen Lokalisation aufzeigen. Anschließend entwickele ich einen generalisierten Ansatz, der Stimulationen an beliebigen Orten zulässt, um die praktische Durchführbarkeit und Effizienz zu erhöhen. Diese Implementierung ermöglicht eine robuste und präzise Lokalisierung mehrerer Muskelrepräsentationen zugleich. Um die Einsetzbarkeit dieser Methode zu gewährleisten ist die gesamte Routine, inklusive aller Auswertungsskripte und eines Beispieldatesatzes, im Detail beschrieben und veröffentlicht. Die Verwendung von Aktivierungsfunktionen zur Lokalisierung von Funktionen im Kortex ermöglicht die Verwendung einer Dosierungsmetrik, die auf individuellen, kortikalen Stimulationsschwellen basiert. Eine präzise, individualisierte Dosierungsmetrik kann dazu beitragen, die Sensitivität und Spezifität von TMS signifikant zu erhöhen.



https://doi.org/10.22032/dbt.59164
Schuler, Ramona;
Intraoperatives Neuromonitoring autonomer Beckennerven mittels Bioimpedanzmessung. - Ilmenau : Universitätsbibliothek, 2023. - 1 Online-Ressource (XXII, 137 Blätter)
Technische Universität Ilmenau, Dissertation 2023

Autonome Beckennerven sind bei viszeralchirurgischen Eingriffen im Bereich des kleinen Beckens wie beispielsweise Rektumresektionen bei Rektumkarzinom einem sehr hohen Risiko der intraoperativen iatrogenen Schädigung ausgesetzt. Die Folgen von Schädigungen der Beckennerven sind postoperativ auftretende Funktionsstörungen der Beckenorgane wie Harninkontinenz, Stuhlinkontinenz und sexuelle Funktionsstörungen, die zu einer Beeinträchtigung der Lebensqualität der Patienten führen können. Das autonome Nervengeflecht des Beckens ist hochkomplex, sehr filigran, innerviert glatte Muskulatur und kann in seiner topografischen Lage interindividuell verschieden sein. Da die Nerven rein visuell nur sehr schwer identifiziert werden können, ist deren Schonung im Verlauf der chirurgischen Präparation ohne technische Hilfsmittel und ohne fundierte Kenntnisse der pelvinen Neuroanatomie nicht möglich. Aufgrund der Unterschiede im Erregungs- und Reizreaktionsverhalten zwischen dem somatischen und dem autonomen Nervensystem können bekannte elektrophysiologische Neuromonitoring-Methoden nicht direkt auf das Monitoring autonomer Nerven übertragen werden, wodurch die Entwicklung neuer Methoden notwendig ist. Im Rahmen dieser Arbeit wurde eine neue Neuromonitoring-Methode zur Lokalisation autonomer Nerven mittels elektrischer Stimulation im OP-Gebiet und Impedanzmessung an glatter Muskulatur konzipiert und erforscht. Die bei der Durchführung einer präklinischen, wie auch einer klinischen Studie erzielten Ergebnisse weisen sowohl die technische als auch die klinische Machbarkeit der Impedanzmessung als Verfahren des intraoperativen Neuromonitorings nach und lassen darauf schließen, dass eine nervenschonende Präparation und eine damit verbundene Verminderung des Risikos für das Auftreten von postoperativen Funktionsstörungen der Beckenorgane möglich ist. Die klinische Machbarkeit wurde bei 28 der 30 Patienten (93,3 %) nachgewiesen. Darüber hinaus gehen erste klinische Daten zur klinischen Sicherheit und zum klinischen Nutzen der Methode aus der Auswertung des funktionellen Outcomes der Patienten der klinischen Studie hervor. Der auf der Basis der gewonnenen Messdaten der klinischen Studie realisierte softwaregestützte Automatic Muscle Impedance and Nerve Analyzer (AMINA) zur Beurteilung der abgeleiteten Impedanzsignale soll eine assistierte Signalinterpretation für eine einfache und schnelle Identifikation funktionaler Nerven während der OP möglich machen. Die Validierung des Verfahrens anhand erster Messdaten ergab eine Sensitivität der Signalbeurteilung von 96,3 % und eine Spezifität von 91,2 %.



https://doi.org/10.22032/dbt.59161
Pohl, Mario;
Vermeidung und Simulation der Entstehung von mittelfrequenten Fehlern im Schleifprozess für Präzisionsoptiken. - Ilmenau : Universitätsbibliothek, 2023. - 1 Online-Ressource (K, 101, XXVIII Seiten)
Technische Universität Ilmenau, Dissertation 2023

Die aktive Vermeidung mittelfrequenter Fehler (MSFE) ist eine Herausforderung in der modernen Optikfertigung von Asphären und Freiformen. Während Formfehler durch entsprechende lokale Korrekturverfahren beseitigt und auch die spezifizierten Oberflächenrauheiten über entsprechende Glättprozesse erreicht werden können, limitieren die MSFE die erreichbaren optischen Qualitäten. In der vorliegenden Arbeit werden deshalb insbesondere die Entstehungsmechanismen von MSFE systematisch erforscht und beschrieben. Ziel ist es, Entstehungsmechanismen von MSFE zu identifizieren und konkrete Vermeidungsstrategien für bestehende Produktionsprozesse von Präzisionsoptiken abzuleiten. Die Vorhersage beim Schleifen entstehender MSFE mittels Simulationsmodellen stellt einen weiteren Schwerpunkt der Arbeit dar. Das Schleifen im Punktkontakt ist bei der Herstellung asphärischer Geometrien und Freiformen aufgrund der lokalen Krümmungsänderungen technisch notwendig. Es ist somit für die Geometrien von Präzisionsoptiken der produktionstechnische Standard und stellt daher meist den ersten Schritt der Prozesskette dar. In der vorliegenden Dissertationsschrift werden die Entstehungsmechanismen von MSFE beim Schleifen im Punktkontakt experimentell untersucht und beschrieben. Die Experimente wurden unter realistischen Produktionsbedingungen mittels dem aktuellen Stands der Technik entsprechenden Prozessen im Bereich der Fertigung von Präzisionsoptiken hergestellt. Zur Auswertung der Ergebnisse wurden sowohl kommerziell verfügbare als auch eigens für diese Arbeit entwickelte Softwarelösungen verwendet. Auf Basis der aus den Experimenten abgeleiteten Erkenntnisse wird ein modellbasierter Ansatz zur Simulation der Entstehung von MSFE beim Schleifen im Punktkontakt entwickelt. Das Simulationsmodell wird anhand von real gemessenen MSFE und den zugehörigen Bearbeitungsparametern überprüft und verifiziert. Es werden neue Ansätze zur Auswertung von MSFE sowie der Charakterisierung von Polierwerkzeugen diskutiert. Der Entstehungsmechanismus von MSFE im Schleifprozess wird umfassend beschrieben und simulativ verifiziert.



https://doi.org/10.22032/dbt.59113
Nagel, Falk;
Einfluss zusätzlich induzierter Temperaturfelder beim Laserstrahlschweißen dünner Bleche. - Ilmenau : Universitätsverlag Ilmenau, 2023. - 1 Online-Ressource (XIII, 168 Seiten). - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 17)
Technische Universität Ilmenau, Dissertation 2023

Während des Laserstrahlschweißens entstehen thermisch induzierte Dehnungen und Spannungen, die zu Verschiebungen der Fügepartner im Prozess führen. Diese Verschiebungen werden durch den Einsatz von Spannsystemen in der Produktion unterbunden. Jedoch sind diese Systeme zumeist nur für eine einzelne Schweißaufgabe ausgelegt. Aufgrund der zumeist massiven Bauweise der Systeme und des anwendungsspezifischen Einsatzes dieser ergeben sich hohe Kosten. Somit ist man bestrebt, die Spannsysteme einfacher zu gestalten und damit Bewegungsfreiheiten der Fügepartner im Prozess zu akzeptieren. Um nun die auftretende Querverschiebung zu minimieren, können zusätzliche Wärmequellen oder Wärmesenken genutzt werden, um Einfluss auf das Temperaturfeld und damit auf das Dehnungsfeld zu nehmen. Im Rahmen dieser Arbeit wurde daher zunächst der Einfluss variierender Schweißparameter (Schweißgeschwindigkeit, voreingestellter Spalt) bei einer einseitig gespannten Fügekonfiguration am I-Stumpfstoß untersucht. Dazu erfolgten Untersuchungen vordergründig am hochlegierten Stahl 1.4301. Unter Verwendung eines Diodenlasers wurde der Einfluss einer zusätzlichen Wärmequelle auf die Verschiebung im Prozess und das gesamte Verzugsverhalten charakterisiert und bewertet. Der Abstand der beiden Wärmequellen zueinander, die Laserleistung und die Spotabbildung wurden dazu variiert. Die Untersuchungen wurden zunächst an einer Blechdicke von 1 mm durchgeführt und sie wurden im Anschluss an die Blechdicken 0,5 mm und 2 mm übertragen. Es ist festzuhalten, dass durch den Einsatz der zweiten Wärmequelle die Verschiebung minimiert und damit längere Schweißnahtlängen erzielt wurden. Jedoch trat ein höherer Beulverzug auf, der auf die vermehrten Längsspannungen im Bauteil zurückzuführen ist. Die Wirkungsweise der zweiten Wärmequelle wurde unter Anwendung der FE-Methoden und einer analytischen Beschreibung näher beleuchtet. Unter Anwendung einer CO2-Düse wurde die Wärmesenke abgebildet, um das sich ausbildende Temperaturfeld zu verkleinern. Ebenfalls wurde der Einfluss der Senke auf die Querverschiebung im Prozess und auf den globalen Verzug nach dem Schweißprozess charakterisiert und bewertet. Für die drei zuvor genannten Blechdicken zeigt sich dabei, dass die Verschiebung im Prozess minimiert und damit eine vollständige Durchschweißung erzielt wurde. Auch nimmt der Gesamtverzug der Bauteile ab. Darüber hinaus fanden vergleichende Untersuchungen an der Aluminiumlegierung EN AW 5754 statt. Es wurde festgestellt, dass die hier im Vergleich zum Stahl höhere Verschiebungen auftraten. Durch den Einsatz der Wärmequelle wurde keine Reduzierung der Verschiebung erzielt. Jedoch wurde unter Anwendung der Wärmesenke eine Minimierung der Verschiebung erreicht und damit längere Schweißnahtlängen realisiert.



https://doi.org/10.22032/dbt.57468
Schiele, Martin;
Nutzung verschiedener Methoden des maschinellen Lernens zur Regelung von Fahrzeugsystemen. - Ilmenau : Universitätsbibliothek, 2023. - 1 Online-Ressource (XX, 219 Blätter)
Technische Universität Ilmenau, Dissertation 2023

Die Steuerung fahrzeugtechnischer und nicht-fahrzeugtechnischer Systeme wird mit zunehmender Vernetzung und Digitalisierung in ihrer Komplexität weiter zunehmen. Die an vielen Stellen manuelle Parametrierung dieser Systeme stößt dabei zunehmend bezüglich Zeit und Kosten an ihre Grenzen. Seit 2010, als der Grafikkartenhersteller NVIDIA mit dem CUDA Toolkit eine Möglichkeit erschuf, Matrixrechenopperationen schnell und effizient auf Graphic Processing Units (GPUs) durchführen zu können, erhielt das maschinelle Lernen (konkreter - Deep Learnings) neue Möglichkeiten sich zu entwickeln. Seitdem hat sich die Nutzung künstlicher neuronaler Netze als Funktionsapproximator für verschiedene Bereiche der Wissenschaft und Technik enorm weiterentwickelt. Dabei wird es möglich real gemessene Daten zu verwenden, um Systemabbildungen (Simulationen) zu erzeugen, ohne den Umweg über eine analytische und/oder numerische Methode gehen zu müssen (welche nach Modellbildung immer mit realen Messwerten validiert werden muss). Ziel ist es ein System ohne Zuhilfenahme menschlicher Arbeitskraft vollautomatisch Regeln zu können. So soll es möglich sein, neu entwickelte und produzierte Maschinen schnell und effizient mithilfe von Aktuatoren und elektronischen Steuerelementen nach spezifischen Vorgaben einsatzfähig zu bekommen. Die vorliegende Arbeit beschreibt eine Methodik, durch überwachtes Lernen (Supervised Learning) datenbasierte Modelle, sogenannte digitale Zwillinge zu entwickeln. Mithilfe künstlicher neuronaler Netze werden stationäre und instationäre Modelle entwickelt und es werden statistischen Methoden zur Datenaufbereitung erläutert. Digitale Zwillinge sind nötig, da reale Umgebungen wie Prüfstände oder Maschinen teuer im Betrieb und langsam bei der Zustandsraumdurchschreitung sind. Nach erfolgreicher Generierung eines digitalen Zwillings wird bestärkendes Lernen (Reinforcement Learning) genutzt, autonom komplexe und mehrdimensionale Zustandsräume zu untersuchen und selbstständig Regelstrategien zu entwickeln. In Summe werden also digitale Zwillinge des Supervised Learnings auf Basis real gemessener Daten als Simulationsumgebungen genutzt, um mithilfe der Algorithmen des Reinforcement Learnings, selbstständig arbeitende Agenten zu trainieren. Drei Systeme werden dabei abgebildet. Ein Rohrsystem, ein semiaktiver Stoßdämpfer und ein Abgasturbolader. Am Beispiel des Abgasturboladers wird gezeigt, wie gut Reinforcement Learning im Vergleich zum klassischen PID Regler performt, dass die Methodik prinzipiell funktioniert, es aber noch weiterer Entwicklung bedarf, um tatsächlich direkt Verwendbare Regelalgorithmen zu erhalten, die denen klassischer Vorgehensweisen von heute ebenbürtig (oder gar überlegen) sind.



https://doi.org/10.22032/dbt.58650
Cheng, Pengfei;
Broadband solar energy harvesting enabled by micro and nanostructured materials. - Ilmenau : Universitätsbibliothek, 2023. - 1 Online-Ressource (IV, 145 Seiten)
Technische Universität Ilmenau, Dissertation 2023

In der kommenden Ära des "Carbon Peak und der Kohlenstoffneutralität" ist es besonders wichtig, neue Energietechnologien zu entwickeln, die kostengünstig, umweltfreundlich und im industriellem Maßstab herstellbar sind, um die herkömmlichen fossilen Brennstoffe zu ersetzen, die weithin als Verursacher des Treibhauseffekts und häufiger extremer Wetterlagen gelten. Solarenergie ist sozusagen eine unerschöpfliche Energieform, die jedem Land der Erde kostenlos zur Verfügung steht. Daher ist sie im Vergleich zu Kernenergie, Windenergie und blauer Energie die vielversprechendste Alternative zu fossiler Energie. In dieser Arbeit werden breitbandige Materialien zur Gewinnung von Solarenergie als Lichtabsorber für Anwendungen zur Umwandlung von Solarenergie, wie Stromerzeugung, Wasserdampferzeugung und Wasserstofferzeugung, vorgestellt. Zunächst wird schwarzes Silizium (b-Si) mit einer Vielzahl von Mikro-Nanostrukturen durch reaktives Ionenätzen (RIE) hergestellt. Die so hergestellten b-Si-Proben mit ultra-breitbandiger Lichtabsorption können für die photo-thermoelektrische (P-TE) Stromerzeugung, die photothermische (PT) Wasserverdampfung und die photoelektrochemische (PEC) Wasserreduktion verwendet werden, was die Leistung der Solarenergieumwandlung aufgrund ihrer hervorragenden Lichtabsorption im gesamten Sonnenspektrum verbessert. Darüber hinaus wurde eine metastabile Atomlagenabscheidung (MS-ALD) mit Selbstorganisation zur Herstellung großflächiger plasmonischer 3D-AgSiO2 Hybrid-Nanostrukturen entwickelt. Diese zeigen auch eine ultrabreitbandige sehr hohe Absorption im gesamten Sonnenspektrum. Wenn sie für die P-TE- und PT-Wasserverdampfung verwendet werden, verbessert sich die Leistung der Solarenergieumwandlung im Vergleich zu b-Si-Proben.



https://doi.org/10.22032/dbt.57584
Li, Feitao;
Nanometallurgical mechanisms during formation of Au-SiOx and Au-CuO nanostructures. - Ilmenau : Universitätsbibliothek, 2023. - 1 Online-Ressource (XXII, 98 Seiten)
Technische Universität Ilmenau, Dissertation 2023

Die Verbesserung der Metallurgie hält mit der Entwicklung der menschlichen Zivilisation Schritt. Aufstrebende Nanotechnologie-Industrien fördern kontinuierlich traditionelle metallurgische Untersuchungen bis hinunter in den Nanobereich. Daher wird ein neuer Begriff, Nanometallurgie, vorgeschlagen, um sich besser an die aufkommenden interdisziplinären Domänen anzupassen. Um die Mechanismen hinter verschiedenen nanometallurgischen Prozessen zu verstehen, sind zahlreiche Studien erforderlich, die für die maßgeschneiderte Herstellung von Nanostrukturen für unterschiedliche Anforderungen erforderlich sind. Die aktuelle Dissertation konzentriert sich auf das Wachstum zweier unterschiedlicher eindimensionaler Nanostrukturen: SiOx-Nanodrähte, katalysiert durch metallische Dünnfilme und CuO-Whisker, induziert durch thermische Oxidation. Die Bildung von SiOx-Nanodrähten basiert auf der Änderung des physikalischen Zustands der Si-Quelle ist gut etabliert. Es wurde jedoch nur wenig an der Existenz und Konkurenz mehrerer Si-Quellen geforscht. Nach dem schnellen hermischen Prozessieren von SiO2/Si-Systemen, die mit metallischen Einzel- oder Doppelschichten in einer reduzierenden Atmosphäre abgeschieden wurden, werden drei Si-Quellen, erstens Si-Diffusion aus dem Substrat, zweitens SiO-Gas aus der SiO2-Zersetzung und drittens aus der Si-Aktivoxidation identifiziert. Ihre relative Beteiligung und Einfluß hängt von dem Dicken der SiO2-Schichten ab. Zunehmende Dicke der SiO2-Schicht behindert die Si-Diffusion und die Zersetzung der SiO2-Schicht, was die Konzentrationen der zersetzten Bereiche verringert und wiederum die aktive Si-Oxidation schwächt. Außerdem werden die Einflüße verschiedener Si-Quellen durch die Glühzeit, Temperatur und Atmosphäre gesteuert. Daher wird eine kontrollierbare Bildung verschiedener Au-SiOx-Nanostrukturen erreicht, indem unterschiedliche Dicken der SiO2-Schicht und Temperparameter entworfen werden. Zwei nanometallurgische Prozesse, der Kirkendall-Effekt im Nanomaßstab und das Wachstum von Oxid-Nanodrähten während der Oxidation von Metallen, haben große Aufmerksamkeit erhalten. Ihre Entwicklung hängt stark von der Oxidationsgeschwindigkeit ab. In Anbetracht der Tatsache, dass die Oxidation normalerweise ein diffusionskontrollierter Prozess ist und das Legieren ein üblicher Weg ist, um die Diffusion verschiedener Metalle zu kontrollieren, werden gemischte und facettierte Au-Cu-Nanopartikel durch die Festkörperentnetzung der Au/Cu-Doppelschicht gebildet. Die Existenz von Kirkendall-Hohlräumen und CuO-Whiskern kann durch Oxidation bei unterschiedlichen Temperaturen beobachtet werden, was zur Bildung von Au-CuO-Nanostrukturen führt. Darüber hinaus wird das Oxidationsverhalten von Cu auf verschiedenen Facetten von Au-Cu-Nanopartikeln überprüft und mit den Oxidationsraten von Kristallebenen in Beziehung gesetzt.



https://doi.org/10.22032/dbt.58531
Broda, Tobias;
Bestimmung der Verbindungseigenschaften beim punktförmigen Schweißen von Aluminiumlegierungen mit Stahl. - Ilmenau : Universitätsverlag Ilmenau, 2023. - 1 Online-Ressource (XV, 153 Seiten). - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 18)
Technische Universität Ilmenau, Dissertation 2023

Stahl wird in Leichtbaustrukturen durch Aluminiumlegierungen ergänzt. Die Fügetechnik nimmt hierbei eine Schlüsselrolle ein. Die Werkstoffe weisen unterschiedliche thermophysikalische Eigenschaften auf, was die schweißtechnische Verarbeitung erschwert. Die Bildung intermetallischer Phasen während des Schweißens führt bei unkontrolliertem Wärmeeintrag und unzureichender Anbindung zu sprödem Verbindungsversagen bei geringen Lasten. Das Verfahren des Ultraschall-Element-Widerstandspunktschweißens ermöglicht den Einsatz des Widerstandspunktschweißens als Hauptfügeprozess. Dazu wird auf das Aluminiumblech an der Fügestelle mittels Ultraschallschweißen ein Fügehilfselement aufgeschweißt, welches die Verbindung zum Stahl durch eine Schweißlinse erreicht. Während der Widerstandserwärmung wachsen intermetallische Phasen in der Ultraschallschweißung über das prozessual einstellbare Temperatur-Zeitregime während des Widerstandsschweißprozesses an. Es gelang mit Hilfe einer eigens entwickelten Zugprobe die Fügezonenfestigkeit nach der Durchführung der Schweißprozesse zu bestimmen. So konnte nachgewiesen werden, dass ein Verbindungsversagen im Zusammenhang mit der intermetallischen Phase nur dann eintritt, wenn die Fügezonenfestigkeit kleiner ist als die Festigkeit des Aluminiumwerkstoffs. Als Grenze wurde eine Gesamtphasendicke von 8 µm herausgearbeitet. Es gelang, ein Prognoseverfahren für das Abgrenzen von Ausknöpfbrüchen zu Scherbrüchen bei Scherzugbelastung auf Stahl/Aluminium-Verbindungen unter Berücksichtigung intermetallischer Phasen anzuwenden. Zur Für die Scher- und Kopfzugverbindungen wurde ein Berechnungskonzept entwickelt, was die intermetallischen Phasen als Bemessungsgröße berücksichtigt. Die Erkenntnisse konnten auf bauteilähnliche Werkstücke angewendet und auf weitere Verbindungen übertragen werden.



https://doi.org/10.22032/dbt.58335
Hassan, Nina;
Extending TDL based non-WSSUS vehicle-to-everything channel model. - Ilmenau : Universitätsbibliothek, 2023. - 1 Online-Ressource (xiv, 152 Seiten)
Technische Universität Ilmenau, Dissertation 2023

In den vergangenen Jahrzehnten haben drahtlose Kommunikationssysteme eine rasante Entwicklung durchgemacht und es wurden viele Untersuchungen durchgeführt, seit Maxwell die Existenz von elektromagnetischer Wellen vorausgesagt hat. In den letzten Jahren hat die Forschung im Bereich der vehicle to X (V2X)-Kommunikation stetig zugenommen. V2X beschreibt die Fähigkeit, Daten zwischen einem Fahrzeug oder vehicle (V) und “allem” zu übertragen. In Zukunft könnten Fahrzeuge mit ihrer Umgebung kommunizieren, um Verkehrsunfälle zu vermeiden und Staus zu verringern. Dazu werden sie ihr Geschwindigkeits- und Positionsdaten über Ad-hoc-Fahrzeugnetze senden und empfangen können. Um die Verkehrssicherheit zu erhöhen, ist eine zuverlässige Kommunikationsverbindung notwendig. Die größte Herausforderung bei der Fahrzeugkommunikation besteht darin, dass sich die Eigenschaften des Physical Layers aufgrund der inhärenten Mobilität innerhalb des Kanals, der hohen Fahrzeuggeschwindigkeiten, der unterschiedlichen Antennenpositionen und der vielen Handover aufgrund kleinerer Zellen schnell ändern. Dies bringt eine Reihe von Herausforderungen in Bezug auf die Kanalcharakterisierung mit sich. Es handelt sich um einen Kanal mit starker Zeitvarianz und es treten viele Übergänge auf. Somit handelt es sich um einen nicht-stationärer (non-stationary) Kanal. Das Hauptziel dieser Untersuchung ist es, eine Methode zu finden, mit der der Kanal einer komplexen Umgebung in einer einfachen Form mit weniger strengen Beziehungen zur Geometrie dargestellt werden kann. Dabei werden die statistischen Eigenschaften ähnlich der Messdaten beibehalten. In dieser Arbeit werden nichtstationäre tapped delay line (TDL)-Modelle verwendet, um vehicle to infrastructure (V2I)-Kanäle zu beschreiben. Es wird eine neue Strategie zur Extraktion von TDL-Kanalmodellparametern aus Messdaten vorgeschlagen. Dieser Ansatz basiert auf einer bestehenden Methode zur Ableitung von Parametern für ein TDLModell. Es wird gezeigt, dass mit einer anderen Methode zur Auswahl der Taps die Anzahl der Abgriffe, die zur Rekonstruktion der root mean square delay spread (RMS-DS) eines Kanals erforderlich sind, erheblich reduziert werden kann. Ein neuer Ansatz zur überprüfen der Korrektheit der Ableitung der Kanalmodellparameter wird aufgezeigt. Die Durchführbarkeit der Methode wird anhand von Channel Sounding Messungen bestätigt. In dieser Dissertation wird ein Generator zur Erzeugung von Kanalimpulsantworten entwickelt und das nichtstationäre Verhalten der Kanäle durch die Verwendung eines ON/OFF-Prozesses beschrieben. Es werden Markov-Ketten unterschiedlicher Ordnung modelliert, um das nicht-stationäre Verhalten besser zu erfassen. Die Untersuchung zeigt, dass Markov-Ketten erster Ordnung mit zwei Zuständen vorzuziehen sind, um das häufige ON/OFF-Verhalten von Mehrwegpfaden darzustellen, und dass die Markov-Modelle zweiter und dritter Ordnung keine großen Auswirkungen haben. Eine Methode zur Erweiterung eines single input single output (SISO)-TDL-Modells auf multiple input multiple output (MIMO) unter der non-wide sense stationary uncorrelated scattering (non-WSSUS)-Annahme wird eingeführt, um TDL-Kanalmodelle für V2I MIMO-Systeme zu entwickeln. Die Analyse bewertet die SISO- mit der MIMO-Konfiguration in Bezug auf die Kanalkapazität. Es werden verschiedene MIMO-Konfigurationen untersucht, und es wird gezeigt, dass die Position der Antennen eine wichtige Rolle spielt. Die Verwendung von nur vier Antennen am transmitter (Tx) und receiver (Rx), die in unterschiedliche Richtungen abstrahlen, führt zu einem qualitativen Sprung in der Leistungsfähigkeit des Systems.



https://doi.org/10.22032/dbt.57974
Singh, Jasmeet;
Metal surface tolerant conformal low-profile plastic embedded antennas for automotive applications. - Ilmenau : Universitätsbibliothek, 2023. - 1 Online-Ressource (xiii, 110 Seiten)
Technische Universität Ilmenau, Dissertation 2023

Mit der rasanten Zunahme drahtloser Dienste und dem Einsatz von Antennendiversitätstechniken zur Erzielung höherer Datenraten oder Dienstzuverlässigkeit ist die Zahl der in Pkw zu installierenden Antennen nicht mehr unbedeutend und nimmt weiter zu. Gleichzeitig wird es immer schwieriger, geeignete Montageplätze für diese Antennen zu finden, da die Zahl der Montageplätze im Auto nicht parallel zur Zahl der zu installierenden Antennen gewachsen ist; Autos sind nach wie vor meist Metallkästen, mit einigen wenigen Kunststoffteilen und Glasscheiben die die Integration von Antennen ermöglichen. Die meisten dieser Teile wurden bereits zu diesem Zweck verwendet, die B-Säulen-Kunststoffabdeckungen wurden jedoch bisher nicht für die Antennenintegration berücksichtigt. In dieser Arbeit werden nicht nur die Vorteile der B-Säulen-Kunststoffabdeckungen als Antenneneinbauort gegenüber anderen Orten hervorgehoben, sondern auch die damit verbundenen Herausforderungen untersucht, insbesondere der begrenzte Platz für die Antennenintegration und die unmittelbare Nähe der eingebauten Antenne zum Metallchassis des Fahrzeugs. Letzteres führt zu einer starken elektromagnetischen Kopplung zwischen der Antenne und der Fahrzeugkarosserie, was sich auf die Antenneneigenschaften wie Impedanzanpassung und realisierten Gewinn auswirkt. In den folgenden Kapiteln werden die zugrundeliegenden Entwurfsprinzipien, die Theorie und die Messungen neuartiger, flacher, konformer und metalloberflächentoleranter Mobilfunkantennen vorgestellt, nämlich die Einzelband-Di-Patch-Antenne und eine koplanar gestapelte, mit Mikrostreifenleitungen gekoppelte Multibandantenne, die die oben genannten Herausforderungen adressieren und überwinden. Zusätzlich wird in der zweiten Hälfte dieser Arbeit eine high impedance surface basierte Dipolantennenlösung vorgestellt. Die Simulations- und Messergebnisse der nicht integrierten und der integrierten Versionen der vorgestellten Antennen, einschließlich der LTE-MIMO-Datenratenmessungen, die im vorletzten Kapitel vorgestellt werden, sprechen nicht nur für die Eignung dieser Antennen für flache, metallnahe Oberflächenanwendungen im Allgemeinen, sondern zeigen auch, dass die B-Säulen- Kunststoffabdeckungen einen sehr geeigneten neuen Antennenintegrationsort für mobile Kommunikationsanwendungen im Automobil darstellen.



https://doi.org/10.22032/dbt.57612
Alter, Lukas;
Porenbildung beim Schweißen von Kupferwerkstoffen unter Verwendung von Laserstrahlung im grünen Wellenlängenbereich. - Ilmenau : Universitätsverlag Ilmenau, 2023. - 1 Online-Ressource (153 Seiten). - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 16)
Technische Universität Ilmenau, Dissertation 2023

Der Einsatz von herkömmlicher, infraroter Laserstrahlung für das Schweißen von Kupfer ist mit zahlreichen Herausforderungen, wie der Bildung von Prozessporen, Spritzern und Materialauswürfen verbunden. Ein Optimierungsansatz stellt diesbezüglich die Verwendung von grüner und blauer Laserstrahlung dar. Aufgrund der höheren Absorption von Laserstrahlung in diesem Wellenlängenbereich lassen sich geringe Aspektverhältnisse der Dampfkapillare beim Schweißen realisieren (Verhältnis Tiefe zu Breite: < 5), was zur Stabilisierung der Dampfkapillare und zur Reduzierung auftretender Prozessinstabilitäten und Nahtdefekte führt. Jedoch tritt in diesem Zusammenhang eine Art der Porenbildung auf, die bisher für das Laserstrahlschweißen von Kupferwerkstoffen nicht beobachtet wurde. Im Rahmen dieser Arbeit wurden die zugrunde liegenden Wirkmechanismen dieser sogenannten Gasporenbildung untersucht. Durch die Applizierung definierter Umgebungsgasatmosphären während des Schweißprozesses konnte experimentell nachgewiesen werden, dass die Gasporenbildung auf zwei unterschiedlichen Wirkmechanismen beruht, die der metallurgischen Porenbildung und der Reaktionsporenbildung. Es wurde gezeigt, dass die Gasporenbildung im Zusammenhang mit der Existenz von Stickstoff und Sauerstoff im Umgebungsgas steht. Während die Aufnahme von Stickstoff zur metallurgischen Porenbildung führt, ist die gleichzeitige Aufnahme von Stickstoff und Sauerstoff, beispielsweise beim Schweißen unter atmosphärischer Luft, mit der Bildung von Reaktionsporen verbunden. Mittels der Methode der Heißgasextraktion konnte die Existenz dieser Elemente im Schweißgut nachgewiesen, und damit deren Aufnahme während des Schweißens im schmelzflüssigen Kupfer gezeigt werden. Das Auftreten von metallurgischer Porenbildung und Reaktionsporenbildung wurde im Rahmen dieser Arbeit in einer modellhaften Vorstellung zusammengeführt, welche durch die Ergebnisse unterschiedlicher experimenteller Untersuchungen gestützt wird. Ferner konnte gezeigt werden, dass zudem ein werkstoffseitiger Einfluss auf die Gasporenbildung besteht, der auf den Restsauerstoffgehalt des Grundmaterials zurückzuführen ist. Aufbauend auf diesen Erkenntnissen wurden zahlreiche Maßnahmen zur Reduzierung oder Vermeidung der Porenbildung abgeleitet.



https://doi.org/10.22032/dbt.57726
Werner, Denis;
Validierung der Schallleistungsberechnung bei PKW-Getrieben. - Ilmenau : Universitätsbibliothek, 2023. - 1 Online-Ressource (XIX, 234 Blätter)
Technische Universität Ilmenau, Dissertation 2023

In der vorliegenden Arbeit wird die experimentell gestützte Validierung der Schallleistungsberechnung für PKW-Getriebe dokumentiert. Dadurch soll ein Beitrag geleistet werden zur Verbesserung der strukturdynamischen und akustischen Simulation von Fahrzeuggetrieben. Für die experimentellen Untersuchungen wird ein Getriebeprüfstand mit einem eigens entwickelten zweistufigen Getriebe und komplexen Gehäuse verwendet. Eine Besonderheit stellen dabei die speziell entwickelten Sensoren zur Messung der Anregungskräfte an den Festlagern dar. Zugleich werden die Oberflächenbeschleunigungen des Gehäuses sowie die Schallleistung erfasst. Der Getriebeprüfstand wird als MKS-Modell in zwei verschiedenen Tools aufgebaut. Die einzelnen Komponenten (Lager-, Verzahnungs- und Strukturmodelle) werden zunächst isoliert betrachtet und verifiziert. Beim Vergleich des statischen Drehwegfehlers der Verzahnungsmodelle werden gemessene Flankentopologien berücksichtigt. Um die FE-Modelle der Wellen und des Gehäuses zu validieren, werden experimentell und rechnerisch ermittelte Eigenformen und Übertragungsfunktionen verglichen. Während für die Einzelteile ein sehr guter Abgleich über einen großen Frequenzbereich gelingt, zeigt sich bei der Gehäusebaugruppe, dass die Übereinstimmung mit der Messung stark von der jeweiligen Frequenz abhängt und ab ca. 3 kHz abnimmt. Durch den Einbezug der mit 3D-Scans ermittelten Realgeometrie sowie des Einflusses der Gehäusedichtung kann festgestellt werden, dass diese Faktoren nicht für die Unterschiede verantwortlich sind. Umfangreiche Untersuchungen mit den MKS-Gesamtmodellen für konstante Drehzahlen und Hochläufe erlauben einen gründlichen Abgleich mit gemessenen Lagerkräften und Beschleunigungen. Es wird nachgewiesen, dass fertigungsbedingte Flankenabweichungen der Verzahnungen möglichst vollständig in der Simulation berücksichtigt werden sollten, um gute Ergebnisse zu erhalten. Zur Beurteilung des Schwingungsverhaltens im Betrieb werden dabei die Betriebsschwingungs- und die Ordnungsbasierte Modalanalyse eingesetzt, letztere wird dabei auch auf Simulationsdaten angewandt. Der Vergleich zeigt, dass die mit der MKS berechneten Schwingungsantworten durch die numerische Dämpfung beeinflusst werden. Dies wird auch in der Akustiksimulation erkennbar. Diese wird basierend auf berechneten und gemessenen Lagerkräften mit drei unterschiedlichen Methoden (WBT, IBEM, FEM) durchgeführt. Unter Einbezug der Erkenntnisse zur Schwingungsanregung und -antwort sowie der gemessenen Schallleistungen werden sehr gute Übereinstimmungen erzielt. Außerdem können die Ursachen für Abweichungen sehr differenziert herausgearbeitet und bewertet werden. Dadurch werden Möglichkeiten zur Weiterentwicklung ersichtlich und die Akustikanalyse von Fahrzeuggetrieben entscheidend vorangebracht.



https://doi.org/10.22032/dbt.57696
Iqbal, Naveed;
Millimeter wave radio channels: properties, multipath modeling and simulations. - Ilmenau : Universitätsverlag Ilmenau, 2023. - 1 Online-Ressource (xxi, 145 Seiten)
Technische Universität Ilmenau, Dissertation 2022

In dieser Arbeit werden drei grundlegende Probleme der Modellierung von Drahtloskanälen für die Anwendung bei der Funkkanalmodellierung im Millimeterwellenbereich (mmWave) untersucht, nämlich (i) die Frequenzabhängigkeit der Ausbreitung, (ii) der Einfluss der Antennenrichtwirkung auf die Definition des Kanalmodells und (iii) der Einfluss der Systembandbreite auf die Funkkanalmodellierung. Die detaillierte Beschreibung dieser Probleme lautet wie folgt: (i) Frequenzabhängigkeit der Ausbreitung. Mehrband-Messkampagnen werden mit Richtantennen durchgeführt, die eine omnidirektionale Abtastung der Ausbreitungsumgebung vornehmen. Während der Messungen werden die Tx-Rx-Systeme an festen Positionen platziert und die Ausbreitungsumgebung bleibt so statisch wie möglich. Mit Hilfe von synthetisierten omnidirektionalen Verzögerungs-Leistungsprofilen soll untersucht werden, ob es eine Frequenzabhängigkeit in der Mehrwegeausbreitungsstatistik gibt, z.B. in der Verzögerung und der Winkelspreizung. (ii) Einfluss der Antennenrichtwirkung auf die Definition des Kanalmodells. Es werden Messungen des schnellen Schwunds durchgeführt, die ein Szenario emulieren, bei dem eine Funkverbindung über ein einzelnes Mehrwege-Cluster aufgebaut wird, das mit Antennen mit unterschiedlichen Strahlbreiten ausgeleuchtet wird. Das Hauptziel ist hier die Untersuchung des Einflusses der räumlichen Filterung auf den schnellen Schwund aufgrund der hohen Antennenrichtwirkung. Insbesondere wird die Auswirkung auf Variationen der Empfangssignalstärke und die Gültigkeit der Annahme der schmalbandigen Stationarität im weiteren Sinne (sowohl im Zeit- als auch im Frequenzbereich) untersucht. (iii) Einfluss der Systembandbreite auf die Funkkanalmodellierung. Messungen des schnellen Schwunds werden verwendet, um Mehrwege-Cluster in einem Hörsaal-Szenario auszuleuchten. Das primäre Ziel ist es, den Einfluss einer hohen Systembandbreite auf die Variationen der Empfangssignalstärke, die Zufälligkeit des Kreuzpolarisationsverhältnisses und die Reichhaltigkeit der Mehrwegstreuung zu untersuchen. Basierend auf der Charakterisierung realistischer Funkkanäle führen die in dieser Dissertation vorgestellten Ergebnisse zu dem Verständnis, dass beim Übergang zu höheren Frequenzen die Frequenz x selbst keine signifikante Rolle bei der Definition der Kanalmodellierungsmethodik spielt. Vielmehr ist es von grundlegender Bedeutung, wie ein Ausbreitungskanal ausgeleuchtet wird. Daher zeigt sich, dass mmWave-Systemeigenschaften wie eine hohe Antennenrichtcharakteristik und Systembandbreite einen hohen Einfluss auf die Definition des Kanalmodells haben. Im Allgemeinen ist die Skalierung der Schwundtiefe als Funktion der Systembandbreite ziemlich gut verstanden. Wir zeigen, dass die hohe Antennenrichtwirkung von mmWave-Systemen zu einer weiteren Reduzierung der Schwundtiefe führt. Zusätzlich erforschen wir einige neue Richtungen in diesem Forschungsbereich, die auf der Analyse der Statistik zweiter Ordnung des Kanalimpulsantwort-Vektors basieren. Unsere Ergebnisse unterstreichen, dass die Schwund-Statistiken der auflösbaren Kanalabgriffe in einem mmWave-Funkkanal nicht als Rayleigh-Rice-verteilte Zufallsvariablen modelliert werden können. Dies liegt vor allem daran, dass durch die hohe Antennenrichtwirkung und Bandbreite von mmWave-Systemen Kanäle mit spärlichen Streubedingungen ausgeleuchtet werden. Folglich ist die Annahme komplexer Gaus’scher Zufallsvariablen, die mit Rayleigh-Rice Schwundverteilungen verbunden ist, nicht mehr gültig. Des Weiteren wird gezeigt, dass die hohe Antennenrichtwirkung und Bandbreite von mmWave-Systemen auch die Gültigkeit der Annahme von Stationarität im weiteren Sinne im Slow-Time-Bereich von mmWave-Funkkanälen in Frage stellt. Die in diesem Beitrag vorgestellten Ergebnisse sind neuartig und bieten theoretisch konsistente Einblicke in den gemessenen Funkkanal.



https://doi.org/10.22032/dbt.56740
Schulz, Steffen;
Multivariate assessment of linear and non-linear causal coupling pathways within the central-autonomic-network in patients suffering from schizophrenia. - Ilmenau : Universitätsbibliothek, 2023. - 1 Online-Ressource (viii, 153 Seiten)
Technische Universität Ilmenau, Dissertation 2023

Im Bereich der Zeitreihenanalyse richtet sich das Interesse zunehmend darauf, wie Einblicke in die Interaktions- und Regulationsprozesse von pathophysiologischen- und physiologischen Zuständen erlangt werden können. Neuste Fortschritte in der nichtlinearen Dynamik, der Informationstheorie und der Netzwerktheorie liefern dabei fundiertes Wissen über Kopplungswege innerhalb (patho)physiologischer (Sub)Systeme. Kopplungsanalysen zielen darauf ab, ein besseres Verständnis dafür zu erlangen, wie die verschiedenen integrierten regulatorischen (Sub)Systeme mit ihren komplexen Strukturen und Regulationsmechanismen das globale Verhalten und die unterschiedlichen physiologischen Funktionen auf der Ebene des Organismus beschreiben. Insbesondere die Erfassung und Quantifizierung der Kopplungsstärke und -richtung sind wesentliche Aspekte für ein detaillierteres Verständnis physiologischer Regulationsprozesse. Ziel dieser Arbeit war die Charakterisierung kurzfristiger unmittelbarer zentral-autonomer Kopplungspfade (top-to-bottom und bottom to top) durch die Kopplungsanalysen der Herzfrequenz, des systolischen Blutdrucks, der Atmung und zentraler Aktivität (EEG) bei schizophrenen Patienten und Gesunden. Dafür wurden in dieser Arbeit neue multivariate kausale und nicht-kausale, lineare und nicht-lineare Kopplungsanalyseverfahren (HRJSD, mHRJSD, NSTPDC) entwickelt, die in der Lage sind, die Kopplungsstärke und -richtung, sowie deterministische regulatorische Kopplungsmuster innerhalb des zentralen-autonomen Netzwerks zu quantifizieren und zu klassifizieren. Diese Kopplungsanalyseverfahren haben ihre eigenen Besonderheiten, die sie einzigartig machen, auch im Vergleich zu etablierten Kopplungsverfahren. Sie erweitern das Spektrum neuartiger Kopplungsansätze für die Biosignalanalyse und tragen auf ihre Weise zur Gewinnung detaillierter Informationen und damit zu einer verbesserten Diagnostik/Therapie bei. Die Hauptergebnisse dieser Arbeit zeigen signifikant schwächere nichtlineare zentral-kardiovaskuläre und zentral-kardiorespiratorische Kopplungswege und einen signifikant stärkeren linearen zentralen Informationsfluss in Richtung des Herzkreislaufsystems auf, sowie einen signifikant stärkeren linearen respiratorischen Informationsfluss in Richtung des zentralen Nervensystems in der Schizophrenie im Vergleich zu Gesunden. Die detaillierten Erkenntnisse darüber, wie die verschiedenen zentral-autonomen Netzwerke mit paranoider Schizophrenie assoziiert sind, können zu einem besseren Verständnis darüber führen, wie zentrale Aktivierung und autonome Reaktionen und/oder Aktivierung in physiologischen Netzwerken unter pathophysiologischen Bedingungen zusammenhängen.



https://doi.org/10.22032/dbt.57589
Krause, Tim;
Dynamische Messung von sicherheitstechnisch relevanten Explosionsdrücken. - Braunschweig : Physikalisch-Technische Bundesanstalt, 2023. - xii, 127 Seiten. - (PTB-Bericht)
Technische Universität Ilmenau, Dissertation 2023

ISBN 978-3-944659-29-9
Literaturverzeichnis: Seite 120-127

Die Zündschutzart „druckfeste Kapselung“ ist ein im Bereich des Explosionsschutzes häufig verwendetes Schutzprinzip, bei dem verhindert werden soll, dass eine eventuell im Inneren eines Gerätes auftretende Explosion nach außen dringt, um eine dort potenziell vorhandene explosionsfähige Atmosphäre zu entzünden. Bei der Konformitätsbewertung solcher Geräte ist die dynamische Messung von Explosionsdrücken eine der wesentlichen Prüfungen und im Einzelnen von sicherheitstechnischer Relevanz. Im Kontext der gegenseitigen Anerkennung von Messergebnissen ist es darüber hinaus von sehr großer Bedeutung, eine vergleichbare Qualität bei der Messung zu gewährleisten. Ringvergleichsprogramme haben gezeigt, dass diese vergleichbare Qualität nicht durchweg gegeben ist. Die Identifizierung der relevanten Einflussgrößen bei der Messung von Explosionsdrücken, die daraus resultierenden Folgen für die Vergleichbarkeit und die Diskussion von Maßnahmen zum Umgang mit diesen Einflussfaktoren sind wesentlicher Gegenstand dieser Arbeit. Dafür wurden einerseits die Messungen und Prüfparameter der am Ringvergleich teilnehmenden Prüflaboratorien analysiert. Andererseits wurden eigene experimentelle Untersuchungen unter Verwendung unterschiedlicher Prüfmuster, Prüfaufbauten und Prüfparameter durchgeführt. Mit dem Einfluss von Anfangsdruck und -temperatur des explosionsfähigen Gemisches, dem Einfluss des Thermoschockes sowie der Beschleunigungsempfindlichkeit der Drucksensoren ergeben sich drei signifikante Einflussgrößen im Zuge dieser Studien. Im Ergebnis resultieren aus den Untersuchungen anwendbaren Korrekturrechnungsverfahren für die Messgröße, geeignete Präparationsmöglichkeiten für die Drucksensoren sowie Filter- und Verrechnungsverfahren für die Messdaten, um die Einflussgrößen zu reduzieren und die Vergleichbarkeit zu erhöhen. Darüber hinaus wird mittels einer Messunsicherheitsbetrachtung aufgezeigt, dass die üblicherweise verwendete Messkette eine hohe Genauigkeit aufweist und damit eine eher untergeordnete Rolle bezüglich einer Einflussgröße auf den Explosionsdruck einnimmt. Diese Arbeit trägt allgemein zum praktischen und metrologischen Verständnis bei der dynamischen Messung sicherheitsrelevanter Explosionsdrücke bei, nicht zuletzt dadurch, dass die resultierenden Erkenntnisse die internationale Normung im Bereich der druckfesten Kapselung aktiv unterstützen.



Gläser, Georg;
Invasive and parametric simulation methods for integrated circuit analysis. - Ilmenau, 2023. - 197 Seiten
Technische Universität Ilmenau, Dissertation 2023

Der Entwurf integrierter Schaltungen (ICs) und Systeme ist eine der großen Herausforderungen unserer Zeit. Durch neue Anwendungen werden immer komplexere ICs in Alltagsgegenständen wie z.B. Mobiltelefonen eingesetzt. Dazu werden nicht nur moderne Halbleitertechnologien sondern auch neue Entwurfsmethoden benötigt. Der Entwurf von Analog/Mixed-Signal (AMS) Schaltungen wird durch Low-Level Effekte beeinträchtigt, die die Leistungsfähigkeit der ICs beeinträchtigen. Im Systementwurf auf Blockebene werden Effekte wie z.B. Rauschen oder parasitäre Kopplungen nicht berücksichtigt. Diese Effekte werden meist nur für einzelne Komponenten untersucht, können jedoch im Systemkontext zu Fehlern führen. Die Kernidee dieser Arbeit ist die Nutzung von Modellerweiterungen, mit denen solche Effekte oder Prüfmodule eingewoben werden können. Diese Änderungen von Parametern oder Struktur werden dazu verwendet, ein System zu untersuchen. In dieser Arbeit werden dazu verschiedene Ansätze vorgestellt: Zur Vermeidung von falsch-positiven Verifikationsergebnissen wird das Konzept der Akzeptanzregionen auf Betriebsbedingungen genutzt. So können die Betriebsbedingungen einer Schaltung mit denen eines Modells im Sinne einer Metrik verglichen werden. Diese Regionen werden dazu verwendet, Prüfmodule zu erzeugen, die Risiko einer falsch-positiven Verifikation vermeiden. Diese Arbeit führt neue invasive Analysemethoden ein, d.h. Methoden, die die Modellerweiterungen nutzen. Die Performance von AMS-Komponenten wird durch Layout-Effekte, d.h. durch parasitäre Elemente, beeinträchtigt. Den daraus entstehenden Problemen wird mit erfahrungs-basiertem, iteratives Vorgehen begegnet. In dieser Arbeit wird eine Methode gezeigt, die parasitären Elemente anhand ihrer Kritikalität ordnet und damit die Optimierung stark vereinfacht. In diesem Kontext wird eine Methode vorgestellt, mit der Symmetriebedingungen für diese Elemente extrahiert werden. Manche Paare von parasitären Kopplungen können sich in einer Schaltung gegenseitig kompensieren. Die gezeigte Methode identifiziert diese Paare zur Optimierung des Layouts. Das Konzept der invasiven Analyse wird dazu genutzt, eine verallgemeinerte Sensitivitätsanalyse zu entwickeln. Durch das Einfügen von Störmodulen kann für verschiedene Angriffspunkte die gerade noch tolerierbare Störamplitude gefunden werden. Dadurch wird ein Sensitivitätsranking dieser Stellen erzeugt. Alle gezeigten Methoden werden anhand industrieller oder industrie-relevanter Beispiele wie einem RFID-Frontend, einer Abtaststufe eines Bildsensors oder einer Power-Management-Schaltungen demonstriert. Die Ergebnisse dieser Arbeit fließen in verschiedenen Forschungs- und Industrieprojekte ein.



Leicht, Markus;
Perception of Color Break-Up. - Ilmenau : Universitätsbibliothek, 2023. - 1 Online-Ressource (xxv, 232 Seiten)
Technische Universität Ilmenau, Dissertation 2023

Hintergrund. Ein farbverfälschender Bildfehler namens Color Break-Up (CBU) wurde untersucht. Störende CBU-Effekte treten auf, wenn Augenbewegungen (z.B. Folgebewegungen oder Sakkaden) während der Content-Wiedergabe über sogenannte Field-Sequential Color (FSC) Displays oder Projektoren ausgeführt werden. Die Ursache für das Auftreten des CBU-Effektes ist die sequenzielle Anzeige der Primärfarben über das FSC-System. Methoden. Ein kombiniertes Design aus empirischer Forschung und theoretischer Modellierung wurde angewendet. Mittels empirischer Studien wurde der Einfluss von hardware-, content- und betrachterbasierten Faktoren auf die CBU-Wahrnehmung der Stichprobe untersucht. Hierzu wurden zunächst Sehleistung (u. a. Farbsehen), Kurzzeitzustand (u. a. Aufmerksamkeit) und Persönlichkeitsmerkmale (u. a. Technikaffinität) der Stichprobe erfasst. Anschließend wurden die Teilnehmenden gebeten, die wahrgenommene CBU-Intensität verschiedener Videosequenzen zu bewerten. Die Sequenzen wurden mit einem FSC-Projektor wiedergegeben. Das verwendete Setup ermöglichte die Untersuchung folgender Variablen: die Größe (1.0 bis 6.0&ring;) und Leuchtdichte (10.0 bis 157.0 cd/m2) des CBU-provozierenden Contents, das Augenbewegungsmuster des Teilnehmenden (Geschwindigkeit der Folgebewegung: 18.0 bis 54.0 &ring;/s; Amplitude der Sakkade: 3.6 bis 28.2&ring;), die Position der Netzhautstimulation (0.0 bis 50.0&ring;) und die Bildrate des Projektors (30.0 bis 420.0 Hz). Korrelationen zwischen den unabhängigen Variablen und der subjektiven CBU-Wahrnehmung wurden getestet. Das ergänzend entwickelte Modell prognostiziert die CBU-Wahrnehmung eines Betrachters auf theoretische Weise. Das Modell rekonstruiert die Intensitäts- und Farbeigenschaften von CBU-Effekten zunächst grafisch. Anschließend wird die visuelle CBU-Rekonstruktion zu repräsentativen Modellindizes komprimiert, um das modellierte Szenario mit einem handhabbaren Satz von Metriken zu quantifizieren. Die Modellergebnisse wurden abschließend mit den empirischen Daten verglichen. Ergebnisse. Die hohe interindividuelle CBU-Variabilität innerhalb der Stichprobe lässt sich nicht durch die Sehleistung, den Kurzzeitzustand oder die Persönlichkeitsmerkmale eines Teilnehmenden erklären. Eindeutig verstärkende Bedingungen der CBU-Wahrnehmung sind: (1) eine foveale Position des CBU-Stimulus, (2) eine reduzierte Stimulusgröße während Sakkaden, (3) eine hohe Bewegungsgeschwindigkeit des Auges und (4) eine niedrige Bildrate des Projektors (Korrelation durch Exponentialfunktion beschreibbar, r2 > .93). Die Leuchtdichte des Stimulus wirkt sich nur geringfügig auf die CBU-Wahrnehmung aus. Generell hilft das Modell, die grundlegenden Prozesse der CBU-Genese zu verstehen, den Einfluss von CBU-Determinanten zu untersuchen und ein Klassifizierungsschema für verschiedene CBU-Varianten zu erstellen. Das Modell prognostiziert die empirischen Daten innerhalb der angegebenen Toleranzbereiche. Schlussfolgerungen. Die Studienergebnisse ermöglichen die Festlegung von Bildraten und Eigenschaften des CBU-provozierenden Content (Größe und Position), die das Überschreiten vordefinierter, störender CBU-Grenzwerte vermeiden. Die abgeleiteten Hardwareanforderungen und Content-Empfehlungen ermöglichen ein praxisnahes und evidenzbasiertes CBU-Management. Für die Vorhersage von CBU kann die Modellgenauigkeit weiter verbessert werden, indem Merkmale der menschlichen Wahrnehmung berücksichtigt werden, z.B. die exzentrizitätsabhängige Netzhautempfindlichkeit oder Änderungen der visuellen Wahrnehmung bei unterschiedlichen Arten von Augenbewegungen. Zur Modellierung dieser Merkmale können teilnehmerbezogene Daten der empirischen Forschung herangezogen werden.



https://doi.org/10.22032/dbt.57446
Hauschild, Peter;
Untersuchung bremseninduzierter niederfrequenter Schwingungs- und Geräuschphänomene an Kraftfahrzeugen. - Ilmenau : Universitätsbibliothek, 2023. - 1 Online-Ressource (XXXI, 244 Blätter)
Technische Universität Ilmenau, Dissertation 2023

Das Bremsenknarzen ist ein niederfrequentes Geräuschphänomen bei Personenkraftwagen, welches in die Teilbereiche Schwingungsanregung, -übertragung und -abstrahlung an die Umwelt zu unterteilen ist. Die Schwingungsübertragung im Fahrzeugfahrwerk wird von schwingungstechnischen Eigenschaften, wie der Übertragungsfunktion der gekoppelten Körper oder durch die Dämpfung in Gelenken, Buchsen und Festkörpern beeinflusst. Bei der Schwingungsentstehung spielen Reibzonenprozesse und die Bremsmaterialpaarung, die Anpressdruckverteilung zwischen Bremsbelag und -scheibe sowie Steifigkeiten des Bremssystems und des Fahrwerkes eine wichtige Rolle. Die Geräuschabstrahlung wird beispielsweise durch die Fahrzeugkarosserie beeinflusst. Einflüsse auf die Knarzgeräuschintensität können in allen aufgeführten Bereichen gefunden werden. In der vorliegenden Arbeit liegt der Fokus auf der Identifzierung und Bewertung von Einflussgrößen, die im Wesentlichen dem Teilbereich der Geräuschentstehung zuzuordnen sind. Anhand von Untersuchungen, die im Rahmen der vorliegenden Arbeit durchgeführt werden, kann bewertet werden, wie stark sich die unterschiedlichen Einflussgrößen entlang der Knarzwirkkette auf das niederfrequente Geräusch auswirken. Aus den Untersuchungen ergibt sich, dass die Effektivität von Geräuschgegenmaßnahmen im Bereich der Knarzanregung besonders hoch ist. Im Vergleich zu Maßnahmen, die auf die Knarzschwingungsübertragungskette oder die Knarzabstrahlung wirken, ist hier das Potenzial zur Verringerung oder Vermeidung der Knarzerscheinungen deutlich höher. Eine Literaturrecherche und die oben dargestellten Untersuchungen zeigen die Notwendigkeit der Fokussierung auf die Knarzschwingungsanregung und damit auf die Reibmechanismen. Zur Beschreibung dieser wird die Reibzone von Scheibenbremsen bei knarzrelevanten Betriebsbedingungen, also bei sehr niedrigen Geschwindigkeiten und Bremsdrücken, In-Situ betrachtet. Die In-Situ Betrachtung ist eine Methode, bei der Vorgänge unmittelbar am Ort und direkt während eines ablaufenden Prozesses beobachtet werden. Bezogen auf Reibprozesse im Kontaktbereich zwischen einer Bremsscheibe und einem Reibbelag bedeutet dies, dass die Reibzonenvorgänge direkt beobachtet werden. Zur Auswertung der Reibzonenprozesse werden in der vorliegenden Arbeit besondere Methoden entwickelt und angewandt.



https://doi.org/10.22032/dbt.56990
Feißel, Toni;
Beitrag zur analytischen und experimentellen Untersuchung des Reifen-Fahrbahnkontaktes in Bezug auf partikelförmige Emissionen. - Ilmenau : Universitätsbibliothek, 2023. - 1 Online-Ressource (XIX, 152 Blätter, Blatt XIX-XXXIX)
Technische Universität Ilmenau, Dissertation 2023

Im Zuge eines ständig wachsenden Umweltbewusstseins werden anthropogene Schadstoffemissionen zunehmend kritisch begutachtet. Dies betrifft insbesondere auch Emissionen, die mit dem Individualverkehr in Verbindung stehen. In der Vergangenheit hat besonders das Schädigungspotential von Abgasemissionen einen hohen Bekanntheitsgrad erlangt. Infolge der gesetzlichen Festlegung von Abgasgrenzwerten und den daraus resultierenden technischen Abhilfemaßnahmen, konnte die Schadstoffbelastung der Außenluft, trotz erheblich gestiegenem Fahrzeugaufkommen, deutlich reduziert werden. Abgasferne Feinstaubemissionen, die durch den Abrieb von Bremsen, Reifen und der Fahrbahn erzeugt werden, unterliegen hingegen keiner Regulierung. Es wird jedoch angenommen, dass diese bereits die größte fahrzeugbezogene Feinstaubquelle darstellen. Hieraus folgen Regulierungsbestrebungen, die in Bezug auf Bremsstaubemissionen bereits ein fortgeschrittenes Stadium erreicht haben. Die Regulierung von Reifenemissionen wird, aufgrund der Vielzahl der Einflussgrößen, gegenwärtig als zu komplex eingestuft. Im Zuge der Elektrifizierung des Antriebstranges ist damit zu rechnen, dass Abgas- und Bremsstaubemissionen an Bedeutung verlieren werden. Folglich könnte der Reifen als letzte fahrzeugbezogene Schadstoffquelle verbleiben. Der Reifenabrieb gilt zudem als insgesamt größte Mikroplastikquelle. Aufgrund dieser Vorrausetzungen ist mit einem erheblichen medialen und politischen Druck zu rechnen, der in Richtung einer Regulierung abzielt. Die vorliegende Arbeit leistet einen Beitrag zur Identifikation und Beschreibung von Einflussgrößen, die mit dem Emissionsprozess von Reifenpartikeln in Verbindung stehen. Dies umfasst die Entstehung und Messung von Reifenemissionen sowie deren Ausbreitung in der Umwelt. Hierfür wurden Methoden erarbeitet, die eine prozessübergreifende Einflussgrößenbewertung ermöglichen. Die Arbeit ist in drei Themenkomplexe untergliedert. Der erste Themenkomplex ist der Analyse der Partikel-Strömungs-Interkation gewidmet. Das Verständnis des Partikelverhaltens in Abhängigkeit der Partikelgröße und den Strömungseigenschaften ist insbesondere für die Bewertung der Messfähigkeit von Reifenemissionen sowie deren Ausbreitung in der Umwelt von Relevanz. Der zweite Themenkomplex behandelt die Messung von Reifenemissionen im Fahrversuch, wobei der Zusammenhang zwischen dem Fahrzustand und der Partikelentstehung im Vordergrund steht. Abschließend wird eine Simulationsmethode beschrieben, die es erstmalig erlaubt, die Entstehung von Reifenemissionen vorherzusagen und deren Ausbreitung in der Umwelt nachzuvollziehen. Das Ziel der Arbeit bestand darin, die wichtigsten Einflussgrößen, die sowohl die Emission von Reifenpartikeln als auch deren Immissionswirkung betreffen, qualitativ zu beschreiben.



https://doi.org/10.22032/dbt.56991
Bader, Nicki;
Ein Beitrag zur material- und werkstoffbezogenen Designakustik : Untersuchung der Zusammenhänge mechanischer und akustischer Materialeigenschaften und deren Auswirkungen auf die Attraktivität von Gebrauchsobjekten unter Berücksichtigung der Akzeptanz von nichtstationären Schädigungsgeräuschen bei Leichtbauwerkstoffen und -strukturen mittels designakustischer Werkstoffcharakterisierung. - Ilmenau : Universitätsbibliothek, 2023. - 1 Online-Ressource (241 Seiten)
Technische Universität Ilmenau, Dissertation 2023

Ziel der Arbeit ist die designakustische Charakterisierung von Materialien unter Berücksichtigung der Zusammenhänge mechanischer und akustischer Eigenschaften. Ausgehend von diesen sollen deren Auswirkungen auf die Attraktivität von Gebrauchsobjekten untersucht werden, indem die technischen Merkmale mit Gestaltungsprinzipien, wie sie im Industriedesign Anwendung finden, verkoppelt werden. Grund dafür ist die Intention ein Werkzeug zu entwickeln, welches Gestaltern im Ingenieur- und Designbereich bei der Auswahl, Bewertung und Generierung akustischer Gebrauchseigenschaften unterstützt. Ausgehend davon, dass die kleinsten, zeitlich beschränkten und nicht stationären Signalanteile, wie sie bei der Schädigung von Strukturen entstehen, die Ursachen für die harmonischen, wahrnehmbaren Nutzungsgeräusche von Gebrauchsgütern sind, wurde das Deformationsverhalten von kurz- und langfaserverstärkten Kompositwerkstoffen untersucht, welche mit Sicht auf deren Verbreitung im industriellen Bereich ausgewählt wurden. Die Experimente zur Untersuchung des zeitlichen und spektralen Verhaltens wurden dabei mittels eines standardisierter Biegeversuchs durchgeführt, welcher mit geeigneter Hard- und Software für die Datenakquisition instrumentiert wurde. Zur Definition dieser Methode wurden mehrere referenzielle Experimente mittels Schallemissionsanalyse, Akustischer Kamera, Hochgeschwindigkeitskamera und verschiedener Mikrofon- und Messhardware durchgeführt. Parallel wurden die entsprechenden signaltheoretischen und psychoakustischen Aspekte untersucht. So konnten die untersuchten Materialien aus akustischer Sicht charakterisiert und hinsichtlich entsprechender Merkmale gruppiert werden. Daraus ergab sich die Erkenntnis, dass die akustische bzw. designakustische Klassifizierung von Werkstoffen von der konventionellen, herkunfts- oder verfahrensorientierten Werkstoffklassifikation abweichen kann. Die Ergebnisse flossen mit Sicht auf diese Erkenntnis in die Entwicklung des Werkzeugs für die designakustische Analyse und Diagnose ein. Bei der vorgeschlagenen Methode wird aus einer repräsentativen Datenmenge einer materialspezifischen Versuchsreihe auf Basis eines eigens dafür entwickelten Modells ein designakustischer Archetyp synthetisiert, der die generelle Charakteristik der Einzelbruchereignisse und der Gesamtschädigung repräsentiert. Ausgehend von der These, dass visuelle und akustische Prinzipien in gleicher bzw. ähnlicher Form wirken und bei Kenntnis und Anwendung die Prognostizierbarkeit der Wirkung und Akzeptanz beim Nutzer ermöglichen, wurden die technischen Merkmale der Archetypen mit eigens eingeführten designakustischen Komplementärpaaren verkoppelt. Diese korrelieren mit entsprechenden gestalterischen Merkmalen aus der visuellen Kompositionstheorie, wie sie im Industriedesign Anwendung findet, wodurch die Übersetzbarkeit des Modells in technische und gestalterische Richtung gewährleistet wird. Die Ergebnisse wurden entsprechend visualisiert und anhand einer ersten Probandenbefragung validiert. Die Weiterentwicklung und Erweiterung der Datenbank zur gezielten Gestaltung von Gebrauchsakustik durch Ingenieure und Designer wäre perspektivisch sinnvoll. Die Ergebnisse liefern einen Beitrag zum noch jungen Feld der Designakustik und zum interdisziplinären Verständnis.



https://doi.org/10.22032/dbt.55770
Nandy, Manali;
Reduction of crystalline defects in III-V thin buffer layers grown on Si(100) and Ge(100) substrates by MOCVD for solar fuels. - Ilmenau : Universitätsbibliothek, 2023. - 1 Online-Ressource (XII, 145 Seiten)
Technische Universität Ilmenau, Dissertation 2023

Die Heteroepitaxie von III-V auf Si und Ge Substraten eignet sich für kostengünstige, qualitativ hochwertige Epitaxieschichten, die eine geeignete Bandlücke für Mehrfachsolarzellen aufweisen. Jedoch ist die III-V-Heteroepitaxie auf diesen Substraten aufgrund von Antiphasengrenzen, die durch polares III-V Wachstum auf den unpolaren Substraten entstehen, eine Herausforderung. Außerdem müssen Kristalldefekte, die sich an der Heterogrenzfläche III-V/Substrate bilden können und dann in den III-V-Schichten die solare Konversionseffizienz erheblich beeinträchtigen, unbedingt vermieden werden. Die vorliegende Arbeit untersucht die Präparation von Si- und Ge-Oberflächen mit wohldefinierten Heterogrenzflächen sowie das nachfolgende Wachstum von GaP- und III-P- Schichten mit geringen Defektdichten mittels metallorganischer chemischer Gasphasenabscheidung, die präzise kontrollierte, auf industriellen Maßstab skalierbare Epitaxie von III-V-Halbleitern mit hoher Reinheit ermöglicht. Für das Wachstum von GaP auf Si wurde die Ausbildung von Doppelstufen auf der Arsen-terminierten Si(100)-Oberfläche und die dazugehörige Dimerorientierung durch Variation der Prozessparameter (Temperatur, Druck, Arsenquelle) genau kontrolliert. Um die Kristallqualität der GaP-Pufferschicht zu verbessern, wurde die Pulsabfolge der Ga- und P-Präkursoren für die Nukleation modifiziert, indem die ersten fünf TEGa-Pulse durch TMAl ersetzt wurden. Die kristallinen Defekte wurden mittels “Electron channeling contrast imaging” (ECCI) untersucht. Die quantitative Analyse der Defekte zeigte, dass bei GaP, das auf einer GaP/AlP Nukleationsschicht gewachsen wurde, im Durchschnitt die Dichte von Durchstoß-versetzungen (engl. threading dislocations, TDs) und Stapelfehlern (engl. stacking faults, SFs) um eine bzw. zwei Größenordnungen reduziert werden konnte, verglichen mit Pufferschichten, die auf einer binären GaP Nukleationsschicht gewachsen wurden. Bei der Heteroepitaxie von III-P/Ge(100) ist ein erster Prozessschritt vor dem eigentlichen Wachstum entscheidend, bei dem die Ge(100):As-Oberfläche dem TBP-Precursor ausgesetzt wird, um die As-Atome durch P-Atome zu ersetzen. Unterschiedliche molare Flüsse des TBP-Precursors während dieses Prozessschritts beeinflussen die chemische Zusammensetzung sowie die Oberflächenrekonstruktion der Ge(100):As-Oberflächen; außerdem wirken sich die molaren Flüsse des TBP-Angebots auf die Bildung von Defekten in der III-P-Schicht aus. Diese Arbeit hat somit gezeigt, dass beim Wachstum von III-V-Verbindungshalbleitern auf Si und Ge eine genau kontrollierte Heterogrenzfläche erforderlich ist, um die hohe Kristallqualität der III-V-Schichten zu erreichen.



https://doi.org/10.22032/dbt.55641
Schober, Giovanni;
Aushärteüberwachung von Klebstoffen durch luftultraschallinduzierte und geführte Wellen. - Ilmenau, 2023. - 1 Band (verschiedene Seitenzählung)
Technische Universität Ilmenau, Dissertation 2023

Klebstoffsysteme finden zunehmend Anwendung in den verschiedensten Industriesegmenten und substituieren oder ergänzen oftmals konventionell angewandte Verbindungsverfahren wie das Schweißen und Nieten. Gleichzeitig bestehen zahlreiche, genormte Prüfverfahren, um die Aushärtung von Klebstoffen zu charakterisieren. Diese beschränken sich auf die Untersuchung von Probenkleinstmengen im Labor auf Basis von z. B. rheologischen und kalorimetrischen Verfahren. Die dabei erzielten Ergebnisse können aufgrund ungleicher Rahmenbedingungen nicht direkt auf die Gegebenheiten in einem industriellen Produktionsumfeld übertragen werden. Die zu Grunde liegenden Ursachen sind vielfältig. In den meisten Fällen ist etwa ein direkter Messzugang zum Klebstoff bedingt durch die vorhandenen Fügepartner nicht gegeben und Umgebungsbedingungen wie Temperatur und Luftfeuchtigkeit weichen gleichermaßen wie die betrachtete Menge an Klebstoff von den genannten Laborprüfungen ab. Im industriellen Umfeld kaum etabliert, aber im Stand der Technik und Wissenschaft beschrieben, sind hingegen zerstörungsfreie Methoden zur Prüfung von applizierten Klebstoffen. Zu diesen gehören beispielsweise die Terahertz-, berührende Ultraschall- und Kernspinresonanztechnik. Wesentliche Nachteile wie eine nicht berührungslose Arbeitsweise, die die Untersuchung klebriger Oberflächen behindert, eine geringe Eindringtiefe, aus der Informationen gewonnen werden können, einschränkende Anforderungen an die elektrische Leitfähigkeit der untersuchbaren Materialsysteme sowie letztlich hohe Systemkosten sind Gründe für eine geringe Anwenderakzeptanz. Diesen Verfahren steht ein neuer Prüfansatz auf Basis mittels Luftultraschall induzierter, geführter Wellen entgegen. Dieser erlaubt eine verhältnismäßig kostengünstige, wegintegrale Aushärteüberwachung von Klebstoffen über lange Strecken hinweg, ohne einen direkten Zugang zum Klebstoff zu erfordern. Die vorliegende Dissertation erforscht das Messprinzip und die damit verbundenen Vor- und Nachteile, demonstriert unmittelbar die Verfahrenseignung durch Betrachtung unterschiedlicher Klebstoffsysteme, untersucht den Einfluss wesentlicher Prüfrahmenbedingungen, zeigt Anwendungsmöglichkeiten sowie erkannte Limitationen auf und bietet anschließend Umgehungsstrategien zur Überwindung der genannten Limitationen z. B. durch Anwendung von sogenannten Pulskompressionsmethoden an.



Woyan, Felix;
Prozessmodell für das Hinterspritzen von Dekorfolien in der In-Mould-Labeling Technik. - Ilmenau : Universitätsverlag Ilmenau, 2023. - 1 Online-Ressource (XIV, 207 Seiten). - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 15)
Technische Universität Ilmenau, Dissertation 2022

Das Folienhinterspritzen ist ein spezielles Spritzgießverfahren zur Dekoration und Funktionalisierung von Kunststoffoberflächen. Dabei wird eine transparente Kunststofffolie bedruckt, verformt und hinterspritzt. Die Vorteile des Verfahrens liegen in der Oberflächenqualität und den zahlreichen Dekorationsmöglichkeiten. Nachteilig sind die hohen Investitionskosten, die sich meist nur durch hohe Stückzahlen und einer Vollauslastung der Maschine rechtfertigen lassen. Ansatzpunkte, die Wirtschaftlichkeit zu erhöhen, liegen in der Reduzierung der Zykluszeiten und der Ausschussraten. Typische Fehlerbilder beim Folienhinterspritzen sind die Auswaschung der aufgedruckten Dekore durch den Hinterspritzvorgang, Gestaltabweichungen wie Verzug und die Ablösung der Folie vom Träger. Der Arbeit liegt die These zugrunde, dass die Formteilqualität auf die Wechselwirkung zwischen thermischen und mechanischen Randbedingungen zurückgeführt werden kann. Basierend auf einer systematischen Verfahrensanalyse und einer analytischen Betrachtung der thermischen und mechanischen Einflussfaktoren, wird ein grundlegendes Prozessverständnis erarbeitet. Dies erfolgt unter Berücksichtigung von Prozess-, Material- und Geometriegrößen. Auswaschungen resultieren aus thermischen und mechanischen Folienbelastungen. Dabei können zwei wesentliche Entstehungsmechanismen abgeleitet werden, die von der Wandschubspannung und den Temperaturen abhängen. Es wird gezeigt, dass die Wirkungsweise von Schmelzetemperatur und Einspritzgeschwindigkeit von der Höhe der Wandschubspannung abhängt. Die Verbundfestigkeit wird anhand von bedruckten und unbedruckten Folien untersucht, wobei sich unterschiedliche Zusammenhänge zeigen. Während bei unbedruckten Folien die Verbundfestigkeit mit der thermischen Energie in der Grenzschicht steigt, liegt der Einfluss der Prozessparameter bei bedruckten Folien im Bereich der doppelten Standardabweichung. Ferner wird in der vorliegenden Arbeit erstmals die Orientierung betrachtet. Dabei zeigt sich ein vom Fließweg abhängiger Orientierungsverlauf sowie eine Abnahme der Orientierung mit den Temperaturen. Analog hierzu nimmt auch der Formteilverzug mit einem steigenden Temperaturniveau ab, da hohe Temperaturen zu einer Reduzierung der Schwindungsdifferenzen zwischen Folie und Träger führen. Abschließend werden die Erkenntnisse in einem qualitativen Prozessmodell zusammengefasst, das die Haupteinflussfaktoren auf die Formteilqualität beinhaltet und eine Prozessoptimierung zulässt.



https://doi.org/10.22032/dbt.53464
Issa, Esmail;
Novel reactor design and method for atmospheric pressure chemical vapor deposition of micro and nano SiO2-x films in photovoltaic applications. - Ilmenau : Universitätsverlag Ilmenau, 2022. - 1 Online-Ressource (241 Seiten). - (Werkstofftechnik aktuell ; Band 26)
Technische Universität Ilmenau, Dissertation 2021

In dieser Arbeit wurden ein kostengünstiges Verfahren und eine Anlage zur chemischen Gasphasenabscheidung von SiO2-x-Schichten bei Atmosphärendruck (atmospheric pressure chemical vapor deposition, APCVD) im Labormaßstab entwickelt. Dabei kommt die Hydrolyse von SiCl4 bei Raumtemperatur zum Einsatz. Der Anwendungsschwerpunkt für die SiO2-x-Schichten liegt im Bereich Photovoltaik (PV), speziell kristalline Siliziumsolarzellen. Dort ist die Reduzierung der Herstellungskosten von großer Bedeutung. Im Vergleich zu den bekannten Verfahren für die chemische Gasphasenabscheidung senkt der gewählte Ansatz die Kosten für die SiO2-x-Schichtabscheidung deutlich. Hauptziele der Entwicklungsarbeit waren einfaches Reaktordesign, geringe Sicherheitsmaßnahmen und Wartungszeiten, die Vermeidung von Gasphasenreaktionen und Staubbildung, eine für PV-Anwendungen geeignete Schichtqualität sowie die Möglichkeit, die Abscheideraten in einem weiten Bereich zu variieren. Es wurde ein neuartiger APCVD-Reaktor aus Polycarbonat und thermoplastischen Materialien aufgebaut, mit dem die SiO2-x-Schichten heterogen auf der Substratoberfläche unter Eliminierung von Gasphasenreaktionen synthetisiert werden können. Die Abscheiderate wurde in Abhängigkeit von der Konzentration der Rektanden im Trägergas untersucht. Dank der Entwicklung geeigneter Verdampferkonfigurationen für die Raktenden SiCl4 und H2O können deren Konzentrationen in den inerten Trägergasen vor der Durchmischung in einem Injektor genau eingestellt werden. Die Schlüsselfaktoren für die Kontrolle und Steuerung dieser Konzentrationen sind die Temperaturen und die Volumenströme der Reaktandengase in den Verdampern und im Injektor. Das APCVD-Injektordesign wurde mit Hilfe numerischer Strömungsmechanik optimiert. Für die Simulationen wurde die Software ANSYS verwendet. Als Ergebnis der Optimierung können die SiO2-x-Schichten auf einer Substratfläche von 156 × 156 mm2 gleichmäßig abgeschieden werden. Das ist die derzeitige Standardgröße industriell hergestellter kristalliner Siliziumsolarzellen. Die Design-Studien hatten auch das Ziel, einen Injektor zu entwickeln, der ohne bewegte Teile für eine homogene Durchmischung der Gase sorgt. Das letztendlich geeignete Design wurde aus thermoplastischen Werkstoffen mit Hilfe von 3D-Druck im Schmelzschichtungsverfahren hergestellt. Ferner wurde die Reduzierung der Gasphasen-reaktion in der Nähe des Substrats durch Einstellung des Molverhältnisses der Reaktanden und eine geeignete Führung der Injektorabgase erreicht. Die Kondensation von Reaktanden und die parasitäre Oxidabscheidung auf den Innenflächen des APCVD-Injektors wurden erfolgreich vermieden, ohne dass ein bei Inline-APCVD-Injektoren üblicher Gasvorhang erforderlich ist. Die resultierenden APCVD- SiO2-x-Schichten wurden hinsichtlich ihrer chemischen und optischen Eigenschaften sowie ihrer Zusammensetzung umfassend charakterisiert, um ihre Qualität und Kompatibilität mit PV- und anderen potenziellen Anwendungen zu beurteilen. Dabei zeigte sich, dass die Schichten nahezu stöchiometrisch sind. Deswegen wurde die Bezeichnung SiO2-x anstelle von SiO2 gewählt. Die Abscheiderate wurde in Abhängigkeit von den Volumenströmen, der Substrattemperatur und dem Molverhältnis der Reaktanden untersucht. Die Variation der Substrattemperatur nahe der Raumtemperatur und des Molverhältnisses der Reaktanden führt zu einer großen Bandbreite von Abscheideraten und Materialeigenschaften. Die Hydroxylgehalte in den SiO2-x-Schichten wurden bei verschiedenen Abscheidebedingungen bestimmt. Es wurde gefunden, dass die Kalzinierung für 1 min bei relativ niedrigen Temperaturen kleiner 300 &ring;C die Hydroxylgruppen in den abgeschiedenen Filmen deutlich reduziert. Die Nachteile der Kalzinierung bei hohen Temperaturen über 500 &ring;C nach der Schichtabscheidung wurden ebenfalls untersucht. Optimierte Werte für das Molverhältnis der Reaktanden, der Substrattemperatur sowie der Kalzinierungstemperatur und -dauer wurden gefunden, um APCVD-SiO2-x-Schichten ohne mikroskopisch kleine Löcher und Risse zu erhalten, so dass sie für die verschiedenen PV-Anwendungen geeignet sind. Verschiedene kostengünstige Prozesse für die Herstellung von kristallinen Silizium-Solarzellen unter Verwendung der APCVD SiO2-x-Schichten wurden entwickelt. So konnten nach einseitiger SiO2-x-Beschichtung und einer 1-minütigen Kalzinierung einkristalline Si-Wafer mit alkalischer Ätzlösung einseitig texturiert werden. Eine weitere Anwendung ist die Verwendung von APCVD SiO2-x als Maske für die lokale galvanische Abscheidung des Vorderseiten-Metallkontakts auf Solarzellen mit Heteroübergang. Dabei wurde eine Ag-Paste in Form eines linienförmigen Kontakts mittels Siebdruck auf das transparente leitfähige Oxid (transparent conducting oxide, TCO) der Solarzellen dünn aufgebracht und nach einer ganzflächigen APCVD SiO2-x-Beschichtung der Solarzell-Vorderseite mit Cu galvanisch verstärkt. In einer anderen Prozesssequenz wurde eine Polymerpaste in Form des späteren linienförmigen Metallkontakts mittels Siebdruck auf das Vorderseiten-TCO der Solarzellen aufgebracht und nach der ganzflächigen Beschichtung mit APCVD-SiO2-x mit Lösungsmittel wieder entfernt. In die entstandenen lokalen Öffnungen der SiO2-x-Maske erfolgte die lokale galvanische Metallabscheidung direkt auf dem TCO. In der letzten untersuchten Anwendung wurden APCVD-SiO2-x-Schichten als Schutz vor parasitärer galvanischer Metallabscheidung auf der Vorderseite von einkristallinen pn-Solarzellen sowie auf der Rückseite von multikristallinen bifazialen pn-Solarzellen untersucht.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2021000505
Rogge, Norbert;
Statische und dynamische Charakterisierung einer Planck-Waage. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (VIII, 142 Seiten)
Technische Universität Ilmenau, Dissertation 2022

Inhalt dieser Arbeit sind Untersuchungen zu den statischen und insbesondere dynamischen Eigenschaften von Wägesystemen nach dem Prinzip der elektromagnetischen Kraftkompensation (EMK). Für diesen Waagentyp ergeben sich aufgrund der im Jahr 2019 erfolgten Neudefinition des Kilogramm neue Anwendungsfelder, in denen die Definition in Form einer Kibble-Waage direkt in einem Kraftmess- oder Wägesystem umgesetzt wird. Eine derartige Entwicklung, die als Tischgerät konzipiert ist und daher auch als ”table top Kibble Balance” bezeichnet werden kann, stellt die Planck-Waage dar, die in einem gemeinsamen Forschungsprojekt der Physikalisch-Technischen Bundesanstalt (PTB) und dem Institut für Prozessmess- und Sensortechnik (IPMS) der TU Ilmenau auf Basis von kommerziellen EMK-Wägezellen umgesetzt wurde. Aufgrund der prinzipbedingten dynamischen Anregung der Wägezelle und der Notwendigkeit einer rückführbaren Messung der beteiligten elektrischen Größen ergeben sich neuartige Fragestellungen bei der Charakterisierung und metrologischen Bewertung von EMK-Wägezellen. Einen signifikanten Einfluss auf die erreichbare Unsicherheit haben Winkelschwingungen bei der dynamischen Anregung so wie die relative Ausrichtung der Messachsen der Waage zu derjenigen des verwendeten Interferometers. Aufbauend auf Erfahrungen aus Untersuchungen an dynamischen EMK-Wägesystemen werden die Eigenschaften der sogenannten PB2-Variante der Planck-Waage untersucht und deren Auswirkungen auf die Unsicherheit der Massebestimmung analysiert. Dazu kommen verschiedene optische und elektrische Messsysteme zum Einsatz, deren Unsicherheitsbeiträge wiederum selbst berücksichtigt werden. Weiterhin wird ein Messablauf vorgestellt, der die Korrektion von Drifteffekten und die Minimierung des Spulenstromeffekts ermöglicht. Nach dem derzeitigen Stand können mit dem PB2-System Massebestimmungen mit einer relativen Unsicherheit von bis zu 2,5 × 10^-6 in einem Messbereich von 1 mg bis 100 g erreicht werden. Aus den durchgeführten Untersuchungen können jedoch Ansatzpunkte abgeleitet werden, die eine weitere Reduzierung der Unsicherheiten in folgenden Entwicklungen der Planck-Waage ermöglichen.



https://doi.org/10.22032/dbt.55687
Kovácsovics, Iris;
A systematic approach for controlling electrodeposition based on studies of an acidic copper electrolyte. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (122 Seiten)
Technische Universität Ilmenau, Dissertation 2022

Bekannte akademische Erkenntnisse der Elektrochemie, wie die Butler-Volmer Kinetik, und deren Veränderungen ermöglichen unter anderem einen genaueren Einblick in den Mechanismus der Metallabscheidung. Aufgrund eines fehlenden Bindegliedes wurden diesen akademischen Erkenntnissen keine oder nur wenig Beachtung in der industriellen Prozessüberwachung geschenkt. Stattdessen wird die Hull-Zell-Abscheidung als indirekter Ansatz für die Analyse des Abscheidungsverhaltens benutzt. Durch die Entwicklung einer Methode, die die Randelemente-Methode als Grundlage für die Simulation verwendet, werden die kinetischen Parameter - die Austauschstromdichte j0 und der Transferkoeffizient α - aus experimentellen Hull-Zellen-Abscheidungen gewonnen (Rückwärtsbestimmung). Dieser Ansatz wird validiert, indem zyklische voltammetrische Daten eines sauren Kupferelektrolyten in die Simulation eingesetzt und die simulierten Hull-Zellkurven mit experimentellen Kurven verglichen werden. Darüber hinaus wird der Einfluss von Additiven auf das kinetische Verhalten untersucht, ohne die visuellen Informationen und die Möglichkeiten zu verlieren, die strukturellen und physikalischen Eigenschaften der Metallabscheidung zu erhalten. Dieser Ansatz kann zu einem tieferen elektrochemischen Verständnis von industriell benutzten Elektrolyten führen.



https://doi.org/10.22032/dbt.55223
Ley, Sebastian;
Differential ultra-wideband microwave imaging for medical applications. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (XI, 87, xxiv Blätter)
Technische Universität Ilmenau, Dissertation 2022

Elektromagnetische Ultrabreitband-Sensorik und -Bildgebung bieten vielversprechende Perspektiven für verschiedene biomedizinische Anwendungen, da diese Wellen biologisches Gewebe durchdringen können. Dabei stellt der Einsatz von leistungsarmen und nichtionisierenden Mikrowellen eine gesundheitlich unbedenkliche Untersuchungsmethode dar. Eine der Herausforderungen im Bereich der ultrabreitbandigen Mikrowellensensorik ist dabei die Extraktion der diagnostisch relevanten Informationen aus den Messdaten, da aufgrund der komplexen Wellenausbreitung im Gewebe meist rechenaufwändige Methoden notwendig sind. Dieses Problem wird wesentlich vereinfacht, wenn sich die Streueigenschaften des zu untersuchenden Objektes zeitlich ändern. Diese zeitliche Varianz der Streueigenschaften kann mit Hilfe einer Differenzmessung über ein bestimmtes Zeitintervall ausgenutzt werden. Im Rahmen dieser Arbeit wird der differentielle Ansatz mittels Ultrabreitband-Sensorik für zwei medizinische Anwendungsszenarien betrachtet. Die dabei genutzten Messsysteme basieren auf dem M-Sequenzverfahren, welches an der Technischen Universität Ilmenau entwickelt wurde. Die erste Anwendung bezieht sich auf das nicht-invasive Temperaturmonitoring mittels Ultrabreitband-Technologie während einer Hyperthermiebehandlung. Hyperthermie ist eine Wärmetherapie zur Unterstützung onkologischer Behandlungen (z. B. Chemo- oder Strahlentherapie). Während einer solchen Behandlung wird das Tumorgewebe um 4 &ring;C bis 8 &ring;C erhöht. Dabei ist es wichtig, dass die Temperatur die obere Grenze von 45 &ring;C nicht überschreitet. In diesem Zusammenhang bietet das differentielle Ultrabreitband-Monitoring eine vielversprechende Technik zur kontinuierlichen und nicht-invasiven Messung der Temperatur im Körperinneren. Der Ansatz basiert auf den temperaturabhängigen dielektrischen Eigenschaften von biologischem Gewebe. Dabei werden elektromagnetische Wellen mit einer geringen Leistung in das Untersuchungsmedium eingebracht, die sich gemäß den dielektrischen Eigenschaften von Gewebe ausbreiten. Wird eine Zielregion (bspw. Tumor) erwärmt, so ändern sich dessen dielektrische Eigenschaften, was zu einem sich ändernden Streuverhalten der elektromagnetischen Welle führt. Diese Änderungen können mittels Ultrabreitband-Sensorik erfasst werden. Für die Evaluierung der gemessenen Änderungen im Radarsignal ist es notwendig, die temperaturabhängigen dielektrischen Eigenschaften von Gewebe im Mikrowellenfrequenzbereich zu kennen. Aufgrund der wenigen in der Literatur vorhandenen temperaturabhängigen dielektrischen Eigenschaften von Gewebe über einen breiten Mikrowellenfrequenzbereich werden in dieser Arbeit die dielektrischen Eigenschaften für Leber, Muskel, Fett und Blut im Temperaturbereich zwischen 30 &ring;C und 50 &ring;C von 500 MHz bis 7 GHz erfasst. Hierzu wird zunächst ein Messaufbau für die temperaturabhängige dielektrische Spektroskopie von Gewebe, Gewebeersatz und Flüssigkeiten vorgestellt und die wesentlichen Einflussfaktoren auf die Messungen analysiert. Die Messdaten werden mit Hilfe eines temperaturabhängigen Cole-Cole Models modelliert, um die dielektrischen Eigenschaften für beliebige Werte im untersuchten Temperatur- und Frequenzbereich berechnen zu können. In einem weiteren Experiment wird die nicht-invasive Erfassung von Temperaturänderungen mittels Ultrabreitband-Technologie in einem experimentellen Messaufbau nachgewiesen. Die Ergebnisse zeigen, dass eine Temperaturänderung von 1 &ring;C zu Differenzsignalen führt, welche mit der genutzten Ultrabreitband-Sensorik (M-Sequenz) detektierbar sind. Die zweite Anwendung befasst sich mit der kontrastbasierten Mikrowellen-Brustkrebsbildgebung. Aufgrund des physiologisch gegebenen geringen dielektrischen Kontrastes zwischen Drüsen- und Tumorgewebe kann durch den Einsatz von Kontrastmitteln, im Speziellen magnetischen Nanopartikeln, die Zuverlässigkeit einer Diagnose verbessert werden. Der Ansatz beruht darauf, dass funktionalisierte magnetische Nanopartikel in der Lage sind, sich selektiv im Tumorgewebe zu akkumulieren, nachdem diese intravenös verabreicht wurden. Unter der Bedingung, dass sich eine ausreichende Menge der Nanopartikel im Tumor angesammelt hat, können diese durch ein äußeres polarisierendes Magnetfeld moduliert werden. Aufgrund der Modulation ändert sich das Streuverhalten der magnetischen Nanopartikel, was wiederum zu einem sich ändernden Rückstreuverhalten führt. Diese Änderungen können mittels leistungsarmen elektromagnetischen Wellen detektiert werden. In dieser Arbeit wird die Detektierbarkeit und Bildgebung von magnetischen Nanopartikeln mittels Ultrabreitband-Sensorik im Mikrowellenfrequenzbereich in Hinblick auf die Brustkrebsdetektion betrachtet. Dabei werden zunächst verschiedene Einflussfaktoren, wie die Abhängigkeit der Masse der magnetischen Nanopartikel, die Magnetfeldstärke des äußeren Magnetfeldes sowie die Viskosität des Umgebungsmediums, in das die Nanopartikel eingebettet sind, auf die Detektierbarkeit der magnetischen Nanopartikel untersucht. Die Ergebnisse zeigen eine lineare Abhängigkeit zwischen dem gemessenen Radarsignal und der Masse der magnetischen Nanopartikel sowie einen nichtlinearen Zusammenhang zwischen der Antwort der magnetischen Nanopartikel und der Feldstärke des äußeren Magnetfeldes. Darüber hinaus konnten die magnetischen Nanopartikel für alle untersuchten Viskositäten erfolgreich detektiert werden. Basierend auf diesen Voruntersuchungen wird ein realistischer Messaufbau für die kontrastbasierte Brustkrebsbildgebung vorgestellt. Die Evaluierung des Messaufbaus erfolgt mittels Phantommessungen, wobei die verwendeten Phantommaterialien die dielektrischen Eigenschaften von biologischem Gewebe imitieren, um eine möglichst hohe Aussagekraft der Ergebnisse hinsichtlich eines praktischen Messszenarios zu erhalten. Dabei wird die Detektierbarkeit und Bildgebung der magnetischen Nanopartikel in Abhängigkeit der Tumortiefe analysiert. Die Ergebnisse zeigen, dass die magnetischen Nanopartikel erfolgreich detektiert werden können. Dabei hängt im dreidimensionalen Bild die Intensität des Messsignals, hervorgerufen durch die magnetischen Nanopartikel, von deren Position ab. Die Ursachen hierfür sind die pfadabhängige Dämpfung der elektromagnetischen Wellen, die inhomogene Ausleuchtung des Mediums mittels Mikrowellen, da eine gleichmäßige Anordnung der Antennen aufgrund der Magnetpole des Elektromagneten nicht möglich ist, sowie das inhomogene polarisierende Magnetfeld innerhalb des Untersuchungsmediums. In Bezug auf den letzten Aspekt wird das Magnetfeld im Untersuchungsbereich ausgemessen und ein Ansatz präsentiert, mit dem die Inhomogenität des Magnetfeldes kompensiert werden kann. Weiterhin wurden die Störeinflüsse des polarisierenden Magnetfeldes auf das Messsystem untersucht. In diesem Zusammenhang werden zwei verschiedene Modulationsarten (eine Modulation mit den zwei Zuständen AN/AUS und eine periodische Modulation) des äußeren polarisierenden Magnetfeldes analysiert. Es wird gezeigt, dass mit beiden Modulationen die magnetischen Nanopartikel bildgebend dargestellt werden können. Abschließend werden die Ergebnisse in Hinblick auf die Störeinflüsse sowie ein praktisches Anwendungsszenario diskutiert.



https://doi.org/10.22032/dbt.55224
Park, Seongae;
Tailored electrical characteristics in multilayer metal-oxide-based-memristive devices. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (ii, 132 Seiten)
Technische Universität Ilmenau, Dissertation 2022

Auf Mehrlagen-Metalloxiden basierende memristive Bauelemente sind einer der vielversprechendsten Kandidaten für neuromorphes Computing. Allerdings stellen spezifische Anwendungen des neuromorphen Computings unterschiedliche Anforderungen an die memristiven Bauelemente. Eine ungelöste Herausforderung in der technologischen Entwicklung ist daher das maßgeschneiderte Design von memristiven Bauelementen für spezifische Anwendungen. Insbesondere die unterschiedlichen Materialien des Schichtstapels erschweren die Herstellungsprozesse aufgrund einer großen Anzahl von Parametern, wie z. B. der Stapelsequenzen und -dicken und der Qualität sowie der Eigenschaften der einzelnen Schichten. Daher sind systematische Untersuchungen der einzelnen Bauelementparameter besonders entscheidend. Darüber hinaus müssen sie mit einem tiefgreifenden Verständnis der zugrundeliegenden physikalischen Prozesse kombiniert werden, um die Lücke zwischen Materialdesign und elektrischen Eigenschaften der resultierenden memristiven Bauelemente zuschließen. Um memristive Bauelemente mit unterschiedlichen resistiven Schalteigenschaften zu erhalten, werden verschiedene Abfolgen und Kombinationen von drei Metalloxidschichten (TiOx, HfOx, und AlOx) hergestellt und untersucht. Zunächst werden einschichtige Oxidbauelemente untersucht, um Kandidaten für mehrschichtige Stapel zu identifizieren. Zweitens werden zweischichtige TiOx/HfOx Oxidbauelemente hergestellt. Anhand von systematischen Experimenten und statistischen Analysen wird gezeigt, dass die Stöchiometrie, die Dicke, und die Fläche des Bauelements die Betriebsspannungen, die Nichtlinearität beim resistiven Schalten und die Variabilität beeinflussen. Drittens werden TiOx/AlOx/HfOx-basierte Bauelemente hergestellt. Durch das Hinzufügen von AlOx in die zweischichtigen Oxidstapel weisen diese dreischichtigen Bauelemente optimale elektrische Eigenschaften für den Einsatz in neuromorpher Hardware auf, wie z. B. elektroformierungsfreies und strombegrenzungsloses Schalten sowie eine lange Lebensdauer. Die entwickelten memristiven Bauelemente werden in Systeme, wie Kreuzpunkt-Strukturen und Ein-Transistor-ein-Memristor-Konfigurationen integriert. Hier wird die Eignung für effizientes neuromorphes Computing bewertet. Außerdem werden Methoden zur stufenlosen analogen Einstellung des Widerstands der Bauelemente demonstriert. Diese Eigenschaft ermöglicht effiziente neuromorphe Rechenschemata. Diese umfassende Studie beleuchtet die Beziehung zwischen den Bauelementparametern und den elektrischen Eigenschaften von mehrschichtigen memristiven Bauelementen auf Metalloxidbasis. Auf dieser Grundlage werden maßgeschneiderte Methoden für spezifische neuromorphe Anwendungen entwickelt.



https://doi.org/10.22032/dbt.55210
Weidner, Andreas;
Entwicklung und Charakterisierung biokompatibler Kern-Schale-Hybridmaterialien anhand der gesteuerten Erzeugung einer Biomolekülcorona auf magnetischen Nanopartikeln. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (xv, 209, S95 Seiten)
Technische Universität Ilmenau, Dissertation 2022

Im Rahmen dieser Arbeit wurden Protokolle zur wiederholbaren Herstellung von Dispersionen aus biokompatiblen, gezielt mit einer Biomolekülcorona umgebenen magnetischen Hybrid-Partikeln entwickelt, die sich sowohl in dest. Wasser als auch biologischem Medium wie fetalem Kälberserum (FCS) stabil verhalten und praktisch nutzbare Eigenschaften wie eine Konzentration von β ≥ 1,0 mg/ml und eine enge Partikelgrößenverteilung (Polydispersitätsindex PDI ≤ 0,100) aufweisen. Für die Experimente wurde die wiederholbare Herstellung von vergleichbaren Partikelsystemen aus superferrimagnetischen Eisenoxid-Multikern-Partikeln mit einer Ankerhüllschicht aus Dextranen mit unterschiedlichen Funktionalisierungen, aber gleichem Rückgrat etabliert (Carboxymethyldextran (CMD) - negativ und Diethylaminoethyldextran (DEAE) - positiv), um Abhängigkeiten von der Oberflächenladung nachvollziehen zu können. Zusätzlich wurden Stärke-Kern-Hülle-Partikelchargen als Vertreter einer überwiegend sterisch stabilisierenden Hülle genutzt. Protokolle zur wiederholbaren Überführung der Kern-Hülle-Partikelchargen in Hybrid-Partikelchargen mit „harter“ Biomolekülcorona durch kontrollierte Inkubation in FCS, eine angepasste Waschprozedur sowie eine sich anschließende Fraktionierung mittels Zentrifugation, Überstandsnahme und Probenselektion wurden entwickelt und angewandt. Einschätzungen zu Verfahrensschritten sowie Ausbeuten wurden gegeben. Die hergestellten Kern-Hülle- und Hybrid-Partikelchargen wurden hinsichtlich ihrer Eigenschaften wie Konzentration, Partikelgrößenverteilung und Zeta-Potential charakterisiert und untereinander verglichen. Neben Standardmethoden wie dynamischer Lichtstreuung (DLS), elektrophoretischer Lichtstreuung (ELS) und Thermogravimetrieanalyse (TGA) kamen magnetische Messverfahren wie AC-Suszeptibilität (ACS) und Vibrationsmagnetometrie (VSM) zum Einsatz. Für mindestens eine Hybrid-Partikelcharge jeder Ankerhüllschicht konnten die Zieleigenschaften (β ≥ 1,0 mg/ml, PDI ≤ 0,100) eingehalten werden. Mithilfe der Kombination von TGA, VSM, DLS und ACS war es mit spezifischen Modellen (z. B. Multikern-Eindomänenmodell (MultiCore-SingleDomain-Model – MCSDM)) möglich für die meisten Partikelsysteme quantitative Abschätzungen zu den Schichtdicken der Ankerhüllschicht und der Biomolekülcorona, teilweise mit Unterscheidung zwischen „hartem“ und „weichem“ Anteil, vorzunehmen. Die entstandenen Biomolekülcoronen wurden mittels Gelelektrophorese (SDS-PAGE) mit anschließender Silberfärbung weiterhin auf ihre Proteinzusammensetzung untersucht. Ein Zusammenhang zwischen dem Betrag des Zeta-Potentials der Ankerhüllschicht und der entstehenden Schichtdicke der Biomolekülcorona, insbesondere durch die Anlagerung von Proteinen der kleinsten Molekulargrößenklasse (Mw < 30 kDa), wurde gefunden. Über UV-VIS-Spektrometrie und visuelle Beobachtung sowie ACS und DLS konnte die kolloidale Stabilität aller untersuchten Partikelchargen für mind. 1 d bei Verdünnung 1 zu 10 (v/v) in destilliertem Wasser nachgewiesen werden. Für die (Re-)Inkubation 1 zu 10 (v/v) in FCS zeigten sich teilweise starke Instabilitäten. Mittels ACS konnte eine quantitative Abschätzung der Menge sich kolloidal instabil verhaltender Partikel vorgenommen werden. Die DEAE-Hybrid-Partikel blieben als einziges Partikelsystem für mind. 7 d kolloidal stabil in destilliertem Wasser und FCS. Erste Experimente zu biologischen Wechselwirkungen zeigten in vitro mittels Celltiter Glo®-Test an BeWo-Zellen mit Testkonzentrationen bis zu 100 μg/cm^2 (entspricht β = 0,378 mg/ml) für die meisten Partikelchargen mäßige, schwache oder gar keine Toxizität. Die Unterschiede in der Toxizität konnten in allen Fällen mit einem Größeneffekt durch Agglomeration und Clusterbildung aufgrund der Interaktion mit Biomolekülen interpretiert werden. In vivo-Experimente mittels schalenlosem ex ovo Hühnerei-Modells (HET-CAV) mit Konzentrationen bis zu β = 1 mg/ml zeigten für alle hergestellten Partikelsysteme eine gute Biokompatibilität. Für die DEAE-Hybrid-Partikel wurden exemplarisch Experimente zur Haltbarmachung durch Gefrieren, Tiefgefrieren und Gefriertrocknung mit unterschiedlichen Additiven sowie zur Sterilisation durch Autoklavieren, Sterilfiltrieren und UV-Sterilisation durchgeführt. Die besten Resultate zeigten für Lagerzeiten bis zu 6 Wochen Gefriertrocknung mit Polyethylenglycol (PEG) als Additiv und zur Haltbarmachung Sterilisation mit UV-C-Licht.



https://doi.org/10.22032/dbt.55205
Omidian, Maryam;
Atomically resolved studies of quantum excitations and interactions in low-dimensional materials. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (v, 129 Seiten)
Technische Universität Ilmenau, Dissertation 2022

Diese Arbeit verwendet ein kombiniertes STM-AFM, das bei extremniedrigen Temperaturen und unter UHV betrieben wird. Im ersten Teil dieser Arbeit habe ich die strukturellen und elektronischen Eigenschaften von Graphen auf SiC(0001) untersucht. Die Korrelation zwischen den gebundenen Grenzflächenzuständen und den STM-Bildern wurde untersucht. Im nächsten Teil wurden diese Grenzflächenzustände durch Li-Interkalation von Graphen auf SiC(0001) unterdrückt. Die Interkalation wird durch Quenchen der charakteristischen Überstruktur von Graphen und weiterer Elektronendotierung entdeckt. Dabei werden die Li-Atome meist an der unteren Grenzfläche platziert: Pufferschicht-SiC. Im nächsten Teil dieser Studie wird eine weitere Li-Interkalation des Graphens durchgeführt, um beide darunter liegende Grenzflächen zu sättigen. Obwohl die vorhergesagte supraleitende Phase fehlte, konnten in den inelastischen Tunnelspektren interessante Merkmale festgestellt werden. In weitergehenden Untersuchungen wurden einzelne chemische Bindungen und elektrostatische Effekte in den Verbindungsstellen der vorherigen Proben bewertet. Zu diesem Zweck wird ein AFM verwendet, um auf kontrollierbare Weise eine Bindung zwischen dem Au-Atom, das die AFM-Spitze abschließt, und einem C-Atom von Graphen auf SiC(0001) zu bilden und zu brechen. Im letzten Teil dieser Dissertation habe ich das System Fe-Pb(111) mittels STM untersucht. Über ihre elektronischen und strukturellen Eigenschaften wurden hauptsächlich zwei unterschiedliche Materialklassen entdeckt. Die breite asymmetrische Lücke um die Fermi-Energie wird der stark verspannten zuerst abgeschiedenen Fe-Schicht zugeschrieben, die pseudomorph auf dem Pb(111)-Substrat wächst. Diese Materialklasse unterdrückt die Supraleitfähigkeit des Substrats. Im Gegensatz dazu zeigt die andere Materialgruppe das Metallische Eigenschaften mit den YSR-Bändern im Inneren der Inselregion.



https://doi.org/10.22032/dbt.54584
Dupleich, Diego;
Empirical multi-band characterization of propagation with modelling aspects for communications. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (xv, 243 Seiten)
Technische Universität Ilmenau, Dissertation 2022

Diese Arbeit präsentiert eine empirische Untersuchung der Wellenausbreitung für drahtlose Kommunikation im Millimeterwellen- und sub-THz-Band, wobei als Referenz das bereits bekannte und untersuchte sub-6-GHz-Band verwendet wird. Die großen verfügbaren Bandbreiten in diesen hohen Frequenzbändern erlauben die Verwendung hoher instantaner Bandbreiten zur Erfüllung der wesentlichen Anforderungen zukünftiger Mobilfunktechnologien (5G, “5G and beyond” und 6G). Aufgrund zunehmender Pfad- und Eindringverluste bei zunehmender Trägerfrequenz ist die resultierende Abdeckung dabei jedoch stark reduziert. Die entstehenden Pfadverluste können durch die Verwendung hochdirektiver Funkschnittstellen kompensiert werden, wodurch die resultierende Auflösung im Winkelbereich erhöht wird und die Notwendigkeit einer räumlichen Kenntnis der Systeme mit sich bringt: Woher kommt das Signal? Darüber hinaus erhöhen größere Anwendungsbandbreiten die Auflösung im Zeitbereich, reduzieren das small-scale Fading und ermöglichen die Untersuchung innerhalb von Clustern von Mehrwegekomponenten. Daraus ergibt sich für Kommunikationssysteme ein vorhersagbareres Bild im Winkel-, Zeit- und Polarisationsbereich, welches Eigenschaften sind, die in Kanalmodellen für diese Frequenzen widergespiegelt werden müssen. Aus diesem Grund wurde in der vorliegenden Arbeit eine umfassende Charakterisierung der Wellenausbreitung durch simultane Multibandmessungen in den sub-6 GHz-, Millimeterwellen- und sub-THz-Bändern vorgestellt. Zu Beginn wurde die Eignung des simultanen Multiband-Messverfahrens zur Charakterisierung der Ausbreitung von Grenzwert-Leistungsprofilen und large-scale Parametern bewertet. Anschließend wurden wichtige Wellenausbreitungsaspekte für die Ein- und Multibandkanalmodellierung innerhalb mehrerer Säulen der 5G-Technologie identifiziert und Erweiterungen zu verbreiteten räumlichen Kanalmodellen eingeführt und bewertet, welche die oben genannten Systemaspekte abdecken.



https://doi.org/10.22032/dbt.53613
Schmidl, Lars;
Konzeptentwicklung eines Speckle-Mikroskops zur Untersuchung pathophysiologischer Veränderungen durch humane Autoantikörper gegen den NMDA-Rezeptor. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (VI, 141, [28] Blätter)
Technische Universität Ilmenau, Dissertation 2022

Die vorliegende Arbeit befasst sich mit dem Krankheitsbild der NMDA-Rezeptor Enzephalitis und der Entwicklung neuartiger Technologien, mit dem Ziel weitere tiefgreifende Erkenntnisse im Zusammenhang mit dieser Autoimmunerkrankung zu gewinnen. Im ersten Abschnitt der Arbeit werden für die Untersuchungen etablierte höchstauflösende Fluoreszenz-Mikroskopieverfahren aus dem Bereich der Lokalisationsmikroskopie eingesetzt. Hierbei kommen spezielle rekombinante monoklonale Patienten aAK gegen die NR1-Untereinheit des NMDA-Rezeptors zur Anwendung. Durch die Lokalisationsmikroskopie wird die synaptische Rezeptordichte quantifiziert und somit die Auswirkung der aAK auf die Rezeptormorphologie untersucht. Zusätzlich dazu wurde die Messung mittels Lokalisationsmikroskopie in einen 10 µm coronalen Hirnschnitt einer Maus etabliert. Mit Hilfe der genutzten höchstauflösenden Mikroskopiemethoden konnte auch die Spezifität der rekombinanten monoklonalen Patienten aAK nachgewiesen werden. Der zweite Abschnitt der Arbeit befasst sich mit der Etablierung eines speziellen Mikroskopes der strukturierten Beleuchtungsmikroskopie, welches auf Basis von sogenannten Speckle arbeitet. Es konnte ein kosteneffizienter Aufbau realisiert werden, welcher im Bereich von wenigen Sekunden ein höchstaufgelöstes Bild aufnimmt. Die gezeigte Auflösung war im Bereich von etablierten Verfahren der strukturierten Beleuchtungsmikroskopie. Auf Grundlage des etablierten Mikroskops wurde ein Patent eingereicht und angenommen. Das Patent befasst sich mit der Möglichkeit die effektive Beleuchtungsfläche der Speckle durch die Nutzung von verschiedenen nichtlinearen physikalischen Effekten zu reduzieren. Somit kann der Detektionsbereich verkleinert und im Idealfall in einem Einzelmolekül-Regime genutzt werden. In einem letzten Punkt der Arbeit wird eine neuartige Kombinationsmöglichkeit von funktionellen Messungen in Form von MEA und morphologischen Messungen entwickelt. Das hier gezeigte ultradünne und hochtransparente MEA resultiert in einem Design und einer Materialkombination, so dass es für eine solche Verfahrenskombination eingesetzt werden kann. Es konnte gezeigt werden, dass es bei Untersuchungen mit der Lokalisationsbasierten Mikroskopiemethodik zu keinen Einflüssen auf die optischen Ergebnisse kommt und die Oberflächeneigenschaften durch ihre Spezifität Anwendungsvorteile bringen.



https://doi.org/10.22032/dbt.53194
Büker, Lisa;
Einfluss von Carbonsäuren auf den Abscheidungsprozess von Chrom aus Chrom(III)-Elektrolyten. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (xi, 115, LXVII Seiten)
Technische Universität Ilmenau, Dissertation 2022

Der Ersatz von hexavalenten Chromverbindungen in der galvanischen Industrie ist seit der Registrierung, Bewertung, Zulassung und Beschränkung chemischer Stoffe (REACH-Verordnung) der Europäischen Union ein zentrales Thema. In der dekorativen Verchromung ist die Substitution durch adäquate Alternativen sehr vielversprechend. Allerdings ist der Ersatz von CrVI-Verbindungen in der funktionellen Verchromung herausfordernd, denn Chromschichten aus trivalenten und hexavalenten Elektrolyten unterscheiden sich bspw. in der Farbe und Korrosionsbeständigkeit. In dieser Arbeit wird die Wirkungsweise verschiedener organischer Säuren auf die Abscheidung von dickeren Chromschichtdicken (> 1 µm) untersucht. Wichtige Instrumente, um die Reaktion und die Chromabscheidung zu untersuchen, sind zum einen die Hochleistungsflüssigkeits-Chromatographie (HPLC, engl. High performance liquid chromatography), elektrochemische Quarzmikrowaage (EQCM), Polarographie (DPP, engl. differential pulse polarography), die Zyklovoltammetrie (CV, engl. Cyclic voltammetry) und zum anderen Querschliffanalysen. Die Schichtcharakterisierung erfolgte über die Rasterelektronenmikroskopie (REM). Die Ergebnisse der Untersuchungen zeigten, dass Reaktionsgeschwindigkeit, Abscheideraten und der daraus resultierende Schichtaufbau, von der Art und Konzentration der Carbonsäuren abhängen. Es konnten Aussagen über die Wirkung der Carbonsäuren als Komplexbildner getroffen und mit dem Chelat-Effekt erklärt werden. Mit einer optimalen Elektrolytzusammensetzung konnten Schichtdicken von 25 bis zu 85 µm abgeschieden werden. Möglichkeiten, die eine gleichmäßige, rissarme Abscheidung unterstützen, wurden untersucht. Ein abschließender Vergleich der Chromschichten aus einem industriell genutzten sechswertigen Hartchromverfahren und dem hier beschriebenen dreiwertigen Elektrolyten zeigt gute Übereinstimmungen. Lediglich der Korrosionsschutz der Chromschicht aus dem trivalenten Elektrolyten ist nur mit Hilfe einer zusätzlichen Nickelschicht zu gewährleisten.



https://doi.org/10.22032/dbt.53060
Endrikat, Anna;
Elektrochemische Reduktion von Niob-Halogeniden in ionischen Flüssigkeiten. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (VIII, 98 Blätter, Blatt IX-LVII)
Technische Universität Ilmenau, Dissertation 2022

Metallische Überzüge aus Niob bieten aufgrund ihrer besonderen chemischen, thermischen und mechanischen Stabilität vor allem auf kostengünstigen Grundwerkstoffen, die extremen korrosiven und abrasiven Belastungen ausgesetzt sind, ein breites Anwendungsspektrum. Bis heute ist jedoch ein hoher verfahrenstechnischer Aufwand erforderlich, um haftfeste und hochreine Niob-Schichten in Niederdruck-Prozessen aus der Gasphase herzustellen. Elektrochemische Prozesse bieten eine kostengünstige Alternative, wobei die Reaktivität von Niob sowie das negative Standardpotential der meisten Niob-Reduktionsreaktionen den Einsatz wässriger Medien ausschließt. Die ionischen Flüssigkeiten (ILs) ermöglichen, durch ihre große elektrochemische und thermische Stabilität diese Lücke zu schließen und wurden daher als Medium für die elektrochemische Reduktion von Niob-Halogeniden intensiv untersucht. Im Rahmen meiner Arbeit wurden die Niob-Halogenide NbF5, NbCl5, NbBr5 und Nb(CH3cp)2Cl2 in vier ILs mit zyklischen Voltammetrie (CV), differentieller Pulsvoltammetrie (DPV), Infrarot- und Raman-Spektroskopie hinsichtlich ihrer Eignung als Elektrolyte untersucht. In Kombination mit potentiostatischen Abscheidungen zeigte sich, dass Niob-basierte Schichten abgeschieden werden konnten, dafür aber eine gute Löslichkeit des Niob-Halogenids, ein geringer Wassergehalt sowie eine erhöhte Temperatur des Elektrolyten essentiell sind. Analysen des Reduktionsmechanismus mit der rotierenden Ring-Scheiben-Elektrode (RRDE) belegen chemische Nebenreaktionen die auf Kom- und Disproportionierung der Niob-Spezies sowie Zersetzung der IL zurückgeführt werden. Mit Hilfe der elektrochemischen Quarzmikrowaage (EQCM) wurde die Einlagerung dieser Zersetzungsprodukte bestätigt. Die abgeschiedenen Schichten wurden mit Rasterelektronenmikroskopie (REM), energie-dispersiver Röntgenspektroskopie (EDX), Röntgenfluoreszenzanalyse (RFA), Photoelektronen-spektroskopie (XPS) sowie Röntgendiffraktometrie (XRD) charakterisiert. Diese Schichten weisen etwa 25 At.-% Niob auf. Die restlichen 75 At.-% sind Fremdelemente wie z.B. C, N, O, F, S, Cl bzw. Br, die auf Rückstände des Elektrolyten und der eingelagerten IL-Zersetzungsprodukte zurückgeführt werden. Die Niob-Spezies wurde nicht vollständig zum Metall reduziert und liegt in röntgenamorphen Verbindungen wie NbC, NbO bzw. gemischte NbC1-xOx (mit x ≤ 0,2) sowie NbO2 und Nb2O5 vor. NbCl5 in 1-Butyl-1-methylpyrrolidinium trifluoromethansulfonat ([BMP][OTf]) liefert die dicksten und homogensten Schichten und ist damit das aussichtsreichste System für die Niob-Reduktion. Die Schichteigenschaften können durch Substratvorbehandlung, Additiveinsatz, gepulste Potentialführung sowie Tempern weiter verbessert werden.



https://doi.org/10.22032/dbt.52026
Zhang, Chenglin;
Effective strategies to enhance electrochemical performance of carbon materials for non-aqueous potassium- and sodium-ion capacitors. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (XIV, 130 Seiten)
Technische Universität Ilmenau, Dissertation 2022


https://doi.org/10.22032/dbt.51557
Mendl, Alexander;
Miniaturisierte und markierungsfreie Analyse einzelner Mikrofluidsegmente unter Einsatz der oberflächenverstärkten Raman-Spektroskopie. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (vii, 156 Blätter)
Technische Universität Ilmenau, Dissertation 2022

Die Mikrofluidsegmenttechnik ermöglicht es, Reaktionen unter optimierten Strömungsverhältnissen und mit einer minimalen Substanzmenge durchzuführen. Besonders für mehrdimensionale Reaktionsscreenings, bei denen die Einflüsse mehrerer Effektoren gleichzeitig untersucht werden, eignet sich diese Technik, da die Segmente geordnet durch das System geführt werden, wodurch die Zusammensetzung jedes einzelnen Segments bekannt ist. Deshalb hat bei dieser meist sehr komplexen und technisch aufwendigen Verfahrensweise die Analyse der Segmente bzw. deren Inhaltsstoffe eine große Bedeutung. Neben der optischen Auswertung oder der Fluoreszenzmessung, bei der die Zielsubstanz mit einer fluoreszierenden Gruppe markiert werden muss, werden aktuell markierungsfreie Detektionsmethoden entwickelt. Diese Detektionsmethoden sind aber noch sehr aufwendig und sind ohne tiefgreifende Fachkenntnisse auf dem jeweiligen Gebiet nicht anzuwenden. Der Bedarf nach einer einfachen Analysemethode, mit der auch chemische Veränderungen in den Segmenten markierungsfrei detektiert werden können, ist die Grundlage für die Motivation der hier vorgestellten Arbeit. Diese beschreibt eine neue Methode für die markierungsfreie Analyse einzelner Fluidsegmente, die durch einen kompakten Aufbau und eine einfache Anbindung an beliebige Prozesse einen weitverbreiteten Einsatz der Analysetechnik ermöglicht. Die entwickelte Analysemethode beschreibt die erstmalige Kopplung der oberflächenverstärkten Raman-Spektroskopie (engl. surface enhanced Raman scattering/spectroscopy, SERS) mit einer Umsetzung der seriell erzeugten Segmente auf eine parallele Array-Struktur aus SERS-aktiven Messstellen (SERS-Array). Dieser Umsetzungsschritt entkoppelt die zeitlich kritische Messung von der schnellen Prozessierung der Segmente und ermöglicht zudem einen optimalen optischen Zugang zu den Messstellen, wodurch der Einsatz kompakter Spektrometersysteme ermöglicht wird. Zur Umsetzung des Konzepts wurde ein neuartiger SERS-aktiver Hydrogel-Film sowie ein Verfahren zum Auftragen des Films auf die Messstellen entwickelt. Bei der Entwicklung des Hydrogel-Films wurde eine Methode zur Herstellung quellbarer, SERS-aktiver Komposit-Sensorpartikel weiterentwickelt, indem die Haftung auf einem Glasträger, die Verdunstung des Lösungsmittels während der Applikation und die SERS-Verstärkung untersucht und angepasst wurden. Weiterhin wurde die Leistungsfähigkeit der entwickelten Analysemethode bestimmt, so zeigt das SERS-Array hervorragende Werte in Bezug auf die Langzeitstabilität. Das Gesamtsystem wurde im Vergleich mit anderen SERS-basierten Analysemethoden bewertet. Dabei zeigt sich, dass vergleichsweise hohe Frequenzen an Segmenten analysiert werden können und dass die Quantifizierung von Testsubstanzen in einem breiten Konzentrationsbereich, der etwas oberhalb derer der Vergleichssysteme liegt, möglich ist. Anhand einer Desaminierungsreaktion konnte gezeigt werden, dass in dieser Arbeit eine kompakte und einfach adaptierbare Methode für SERS-Messungen entwickelt wurde, die chemische Veränderungen innerhalb von Mikrofluidsegmenten detektieren kann.



https://doi.org/10.22032/dbt.51925
Schneckenburger, Max;
Machine learning Modell für die Abtragsvorhersage in der Roboter-Glaskeramik-Politur. - Ilmenau : Universitätsverlag Ilmenau, 2022. - 1 Online-Ressource (xxv, 162 Seiten, Seite xxvii-lx). - (Werkstofftechnik aktuell ; Band 24)
Technische Universität Ilmenau, Dissertation 2022

Im 21. Jahrhundert gehören optische Systeme zu den Schlüsseltechnologien und spielen eine entscheidende Rolle im technischen Fortschritt. Hochgenaue optische Linsen finden sich u. a. in Astrospiegeln, Lasergyroskopen oder Lithographie-Linsen und die Anforderungen an Stückzahl und Qualität steigen kontinuierlich. Einer der letzten Prozessschritte in der Fertigungskette von Glas Hochleistungsoptiken ist in der Regel die Politur. Von diesem Prozessschritt hängt maßgeblich die Bauteilqualität ab. Trotz langer Tradition und Verwendung in der Industrie herrscht immer noch kein umfassendes Prozessverständnis. Zwar sind empirische Parametersätze vorhanden, jedoch gibt es keine Erkenntnis, inwiefern sich eine Änderung einzelner Parameter auf den Materialabtrag auswirkt. Während zahlreiche Untersuchungen empirische Prozessmodelle betrachteten, blieb der Einsatz von datengetriebenen Poliermodellen bislang weitgehend unbeachtet. Ziel dieser Arbeit ist daher die Entwicklung eines datengetriebenen Poliermodells für die Robotergestützte-Politur von Optiken. Durch den Einsatz von Sensoren am Bearbeitungskopf werden alle relevanten Prozessparameter aufgezeichnet. Durch Datenanalyse können Anomalien und Muster im Prozess detektiert und darauf reagiert bzw. für weitere Analysen genutzt werden. Des Weiteren wird auf Grundlage der Daten ein maschinenlernendes Modell zur Vorhersage von Materialabtrag auf gekrümmten Flächen erstellt und validiert. Das vorliegende Machine learning Modell bildet den betrachteten Polierprozess ab und Einflüsse auf diesen werden durch den Sensoreinsatz abgebildet. Das Modell erreicht eine Vorhersagengenauigkeit des Abtrages von 99,22 % (R2-Wert), welches bei Prozessvorhersagen als sehr gut bewertet wird.



https://doi.org/10.22032/dbt.52077
Rösing, Wiebke;
Entwicklung und Charakterisierung einer membranlosen mikrofluidischen Brennstoffzelle. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (viii, 119 Blätter)
Technische Universität Ilmenau, Dissertation 2022

Membranlose mikrofluidische Brennstoffzellen (MFCs) stellen aufgrund der theoretisch höheren Energiedichte eine potenzielle Alternative zu konventionellen Batterien dar und sind für die Anwendung in tragbaren elektronischen Geräten von großem Interesse. MFCs werden mit flüssigem Brennstoff und Oxidant betrieben, die in zwei getrennte Eintrittsöffnungen, in einen mit Elektroden ausgestatteten Mikrokanal eingeleitet werden. Bedingt durch die laminare Strömung im Mikrokanal fließen die beiden Fluide parallel zum Kanal, ohne sich konvektiv zu durchmischen. Allerdings sind MFCs aufgrund von geringen Stromdichten bei gleichzeitig niedrigem Brennstoffumsatz noch nicht kommerziell im Einsatz. Ein wesentlicher Grund für die geringen Stromdichten ist die Entstehung von Verarmungsschichten an den Elektrodenoberflächen aufgrund des diffusionsbegrenzten Massentransports. Aus diesem Grund wird zur Entwicklung einer leistungsfähigeren MFC der Fokus in dieser Arbeit auf die Steigerung des konvektiven Massentransports im Mikrokanal in Richtung der Elektroden gelegt. Es wird eine MFC mit gekrümmten Mikrokanal entwickelt. Durch die Krümmung entstehen in der Kurve des Kanals zwei entgegengesetzte Wirbel, die sogenannten Dean-Wirbel, die einen konvektiven Massentransport der Reaktanden an die Elektrodenoberfläche hervorrufen. Neben der Entwicklung einer MFC, werden in dieser Arbeit numerische und experimentelle Untersuchungen zum Einfluss des durch die Krümmung hervorgerufenen konvektiven Massentransports auf die Leistung der entwickelten MFC durchgeführt. Die dreidimensionale Strömung in gekrümmten Mikrokanälen wird mit Hilfe von numerischen Simulationen charakterisiert und die Ergebnisse mittels Astigmatismus Particle Tracking Velocimetry-Messungen (APTV) erfolgreich validiert. Weiterhin wird durch Simulationen und elektrochemische Experimente unter Verwendung eines Modell-Redoxsystems die negative Wirkung der sich bildenden Verarmungsschicht auf die Stromdichte im geraden Abschnitt des Mikrokanals aufgezeigt. In der Kurve kann durch die Dean-Wirbel die Stromdichte dagegen gesteigert werden. Zudem gelingt es mittels Simulationen den Einfluss der Dean-Wirbel auf die Stromdichte und die Leistung der MFC nachzuweisen und zu analysieren. Schließlich wird anhand von APTV-Messungen im Einlassbereich der MFC eine der Hauptströmung überlagerten Strömung festgestellt. Um den daraus resultierenden Brennstoff-Crossover zu verhindern, wird ein neues System mit einer dünnen Lippe im Einlassbereich des Mikrokanals gefertigt, welches den parallelen Fluss der beiden Fluide gewährleistet. Dies schafft die ideale Voraussetzung für die Verwendung des optimierten Mikrokanals als MFC und ebnet den Weg für die weitere Erforschung der MFC mit gekrümmten Mikrokanal.



https://doi.org/10.22032/dbt.53021
Reum, Thomas;
Conformal electromagnetic wave propagation using primal mimetic finite elements. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (xxv, 135 Seiten)
Technische Universität Ilmenau, Dissertation 2022

Elektromagnetische Wellenausbreitung bildet die physikalische Grundlage für unzählige Anwendungen in verschiedenen Bereichen der heutigen Welt. Um räumliche Szenarien zu modellieren, muss der kontinuierliche Raum in geeigneter Weise in ein Rechengebiet umgewandelt werden. Üblich diskretisierte Modelle – welche auf verschiedenen Größen beruhen – berücksichtigen die Beziehungen zwischen Feldvariablen mittels Relationen, welche durch partielle Differentialgleichungen repräsentiert werden. Um mathematische Beziehungen zwischen abhängigen Variablen in zweckdienlicher Art nachzubilden, schaffen hyperkomplexe Zahlensysteme ein passendes alternatives Rahmenwerk. Dieser Ansatz bezweckt das Einbinden bestimmter Systemeigenschaften und umfasst zusätzlich zur Modellierung von Feldproblemen, bei denen alle Variablen vorkommen, auch vereinfachte Modelle. Um eine wettbewerbsfähige Alternative zur üblichen numerischen Behandlung elektromagnetischer Felder in beobachtungsorientierter Weise darzubieten, wird das elektrische und magnetische Feld elektromagnetischer Wellenfelder als eine zusammengefasste Feldgröße, eingebettet im Funktionenraum, verstanden. Dieses Vorgehen ist intuitiv, da beide Felder in der Elektrodynamik gemeinsam auftreten und direkt messbar sind. Der Schwerpunkt dieser Arbeit ist in zwei Ziele untergliedert. Auf der einen Seite wird ein umformuliertes Maxwell-System in einer metrikfreien Umgebung mittels dem sogenannten „bikomplexen Ansatz“ umfassend untersucht. Auf der anderen Seite wird eine mögliche numerische Implementierung hinsichtlich der Finite-Elemente-Methode auf modernem Wege durch Nutzung der diskreten äußeren Analysis mit Fokus auf Genauigkeitsbelange bewertet. Hinsichtlich der numerischen Genauigkeitsbewertung wird demonstriert, dass der vorgelegte Ansatz grundsätzlich eine höhere Exaktheit zeigt, wenn man ihn mit Formulierungen vergleicht, welche auf der Helmholtz-Gleichung beruhen. Diese Dissertation trägt eine generalisierte hyperkomplexe alternative Darstellung von gewöhnlichen elektrodynamischen Ausdrucksweisen zum Themengebiet der Wellenausbreitung bei. Durch die Nutzung einer direkten Formulierung des elektrischen Feldes in Verbindung mit dem magnetischen Feld wird die Rechengenauigkeit von Randwertproblemen erhöht. Um diese Genauigkeitserhöhung zu erreichen, wird eine geeignete Erweiterung der de Rham-Kohomologie unterbreitet.



https://doi.org/10.22032/dbt.52276
Halm, Cynthia;
Grundlagenuntersuchung zur ultraschallunterstützten Aufbautechnik für Elektronik. - Ilmenau, 2022. - 121 Blätter
Technische Universität Ilmenau, Dissertation 2022

Die Einpresstechnik ist ein gut entwickelter Prozess, um eine elektrische Kontaktierung zwischen Pin und Leiterplatte herzustellen. Ein Vorteil der Einpresstechnik ist das Herstellen der Verbindung ohne weitere Hilfsmittel wie Lotpaste oder Wärme. Nachteile des Verfahrens sind zum Teil hohe Einpresskräfte, die zu Beschädigungen an der Leiterplatte führen können oder die Verwendung von zusätzlichen Beschichtungen, um ausreichend hohe Festigkeiten zu erzielen. Im Rahmen der vorliegenden Arbeit wird ein neuer Prozess, ultraschallunterstützte Einpresstechnik, untersucht. Dabei wird die Leiterplatte während oder nach dem Einpressen mit Ultraschall angeregt. Das verwendete Materialsystem Kupfer- bzw. Aluminium-basierter Pin und Kupfer-Hülse weist keine zusätzliche metallische Beschichtung auf. Es werden verschiedene Einflussfaktoren des Prozesses auf Einpresskraft, Festigkeit und Qualität der Verbindungen untersucht. Der Prozess wird weiterentwickelt, um eine Reproduzierbarkeit der Ergebnisse zu gewährleisten und die Prozessparameter werden optimiert. Weiterhin wird eine neue geeignete Pingeometrie entwickelt und ihr Verhalten mit einer flexiblen Pingeometrie verglichen. Der Wirkmechanismus des Ultraschalls wird anhand der Verformung der Fügezone und Veränderungen im Werkstoff erläutert. Zu weiteren Erklärung werden statistische und thermische Modelle aufgestellt. Damit ist eine Voraussage der Auspresskraft und der Temperatur in der Fügezone möglich.



Deich, Tobias;
Optimierung der äußeren Druckbedingungen auf Li-Ionen Zellen zur Erhöhung der Lebensdauer. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (VI, 138 Seiten)
Technische Universität Ilmenau, Dissertation 2022

Li-Ionen Zellen dehnen sich während des Ladens aufgrund von Volumenänderungen der Aktivmaterialien bei der Lithium-Interkalation reversibel aus. Zusätzlich führen Alterungsmechanismen der Anode zu einem signifikanten und irreversiblen Wachstum der Zellen. Da die Zellen für ihren Einsatz in Elektrofahrzeugen in Modulen verspannt werden, führt diese Ausdehnung zu einem Anstieg des Drucks im Modul. Sowohl die Performance als auch die Alterung der Zellen sind abhängig vom äußeren Druck. Die Wechselwirkungen von Modulverspannung, Druckentwicklung und Alterung sind jedoch noch weitestgehend unbekannt, da in der Literatur bisher keine systematische Untersuchung von realistischen mechanischen Druckbedingungen durchgeführt wurde. Im Rahmen dieser experimentellen Arbeit wurden die Effekte der Modulsteifigkeit und der initialen Verspannung von Zellen auf die zyklische und kalendarische Alterung, das Zelldickenwachstum und die Druckentwicklung im Modul anhand von drei unterschiedlichen Zelltypen untersucht, die für den Einsatz in Elektrofahrzeugen entwickelt wurden. Auf Basis der statistischen Versuchsplanung konnten die Effekte modelliert und hinsichtlich ihrer statistischen Signifikanz bewertet werden. Im Anschluss wurden die dominanten Alterungsmechanismen und die limitierenden Alterungseffekte im Rahmen einer elektrochemischen Charakterisierung und Post-Mortem-Analyse identifiziert. Den größten Effekt auf die Druckentwicklung im Modul hat die Modulsteifigkeit, ein Einflussfaktor, der bisher in der Literatur weitestgehend vernachlässigt wurde. Der Einfluss der initialen Verspannung hängt stark von den mechanischen Eigenschaften der Zelle ab. Alle drei Zelltypen zeigen druckabhängige Alterungseffekte und -mechanismen, wie z. B. Kathoden-Aktivmaterialverluste aufgrund von Partikelbrüchen, eine zunehmend inhomogene Alterung oder Li-Plating an den Rändern der Anode. Im letzten Schritt wurde das mechanische Moduldesign hinsichtlich der volumetrischen Energiedichte über die Lebensdauer optimiert. Im Rahmen einer experimentellen Optimierung wurde der Einfluss des Designs von Pufferelementen auf die volumetrische Energiedichte bei zyklischer Alterung untersucht und ein optimales Design abgeleitet.



https://doi.org/10.22032/dbt.52195
Lietz, Henrik;
Super-Resolution-Techniken zur Steigerung des lateralen Auflösungsvermögens von 3D-PMD-Kameras. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (xii, 125 Seiten)
Technische Universität Ilmenau, Dissertation 2022

Literaturverzeichnis: 95-104

PMD-Kameras ermöglichen die 3D-Bilderfassung in Echtzeit und liefern robuste Aufnahmen auch bei schwierigen Lichtverhältnissen. Allerdings limitiert deren geringe Bildauflösung die Detektion kleiner Objekte erheblich. Unter dem Einsatz rechnergestützter Bildverarbeitung verschieben Super-Resolution-Techniken (SR) diese Grenze hin zu einem höheren lateralen Auflösungsvermögen, ohne dabei die spezifischen Eigenschaften des Sensors zu verändern. In der Literatur wird die Leistungsfähigkeit von SR-Methoden mit Rauschanalysen bewertet, indem die SR-Ergebnisse mit ihrem fehlerfreien Ground-Truth-Referenzbild (GT) verglichen werden. Dabei beschränken sich die SR-Methoden zumeist auf definierte Anwendungsfälle und deren Auswertungen auf synthetisch erzeugte Datensätze, ohne die Auflösungssteigerung am realen Aufbau zu verifizieren. Mit dieser Arbeit wird eine generische SR-Methode auf eine echte, niedrig auflösende PMD-Kamera appliziert, die für den Einsatz im Außenbereich konzipiert ist und eine Bildauflösung von lediglich 64 x 16 Bildpunkten aufweist. Zunächst erfolgen simulative Untersuchungen von drei aktuellen SR-Techniken hinsichtlich deren Eignung zur generischen Steigerung der lateralen Ortsauflösung einer PMD-Kamera: 1) KI-lernbasierte Single Image SR (SISR) 2) Inkohärente Fourier Ptychographie (FP) 3) Subpixel-Shift SR (SpS-SR). Ein Vergleich der Simulationsergebnisse zeigt Vorteile für die SpS-SR, sodass diese mit einem neuartigen Lens-Shift-Aufbau in die praktische Anwendung überführt wird. Die geringe Bildauflösung der eingesetzten PMD-Kamera schließt die Bewertung der SR-Ergebnisse nach einer klassischen Rauschanalyse aus. Stattdessen wird die erreichte Bildqualität im SR-Amplitudenbild nach dem optischen Auflösungsvermögen in Linienpaaren pro Pixel [LP/mm] bewertet. Dieses Absolutmaß gewährleistet eine Vergleichbarkeit der SR-Ergebnisse aus Simulation und Messung auch für Kameras, von denen keine hochauflösenden GT-Bilder existieren. Letztlich zeigt diese Arbeit die Möglichkeiten und Grenzen der Auflösungssteigerung mit SR-Methoden in der praktischen Anwendung für den spezifischen Anwendungsfall bei PMD-Kameras auf. Darüber hinaus bildet der hier vorgestellte Lens-Shift-Aufbau die Basis zur flexiblen und kostengünstigen Auflösungssteigerung digitaler Kameras im Allgemeinen, wie sie die bildverarbeitende Optik-Industrie immer häufiger fordert.



https://doi.org/10.22032/dbt.51968
Semper, Sebastian;
Efficient algorithms and data structures for compressive sensing. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (xxxiv, 276 Seiten)
Technische Universität Ilmenau, Dissertation 2022

Wegen der kontinuierlich anwachsenden Anzahl von Sensoren, und den stetig wachsenden Datenmengen, die jene produzieren, stößt die konventielle Art Signale zu verarbeiten, beruhend auf dem Nyquist-Kriterium, auf immer mehr Hindernisse und Probleme. Die kürzlich entwickelte Theorie des Compressive Sensing (CS) formuliert das Versprechen einige dieser Hindernisse zu beseitigen, indem hier allgemeinere Signalaufnahme und -rekonstruktionsverfahren zum Einsatz kommen können. Dies erlaubt, dass hierbei einzelne Abtastwerte komplexer strukturierte Informationen über das Signal enthalten können als dies bei konventiellem Nyquistsampling der Fall ist. Gleichzeitig verändert sich die Signalrekonstruktion notwendigerweise zu einem nicht-linearen Vorgang und ebenso müssen viele Hardwarekonzepte für praktische Anwendungen neu überdacht werden. Das heißt, dass man zwischen der Menge an Information, die man über Signale gewinnen kann, und dem Aufwand für das Design und Betreiben eines Signalverarbeitungssystems abwägen kann und muss. Die hier vorgestellte Arbeit trägt dazu bei, dass bei diesem Abwägen CS mehr begünstigt werden kann, indem neue Resultate vorgestellt werden, die es erlauben, dass CS einfacher in der Praxis Anwendung finden kann, wobei die zu erwartende Leistungsfähigkeit des Systems theoretisch fundiert ist. Beispielsweise spielt das Konzept der Sparsity eine zentrale Rolle, weshalb diese Arbeit eine Methode präsentiert, womit der Grad der Sparsity eines Vektors mittels einer einzelnen Beobachtung geschätzt werden kann. Wir zeigen auf, dass dieser Ansatz für Sparsity Order Estimation zu einem niedrigeren Rekonstruktionsfehler führt, wenn man diesen mit einer Rekonstruktion vergleicht, welcher die Sparsity des Vektors unbekannt ist. Um die Modellierung von Signalen und deren Rekonstruktion effizienter zu gestalten, stellen wir das Konzept von der matrixfreien Darstellung linearer Operatoren vor. Für die einfachere Anwendung dieser Darstellung präsentieren wir eine freie Softwarearchitektur und demonstrieren deren Vorzüge, wenn sie für die Rekonstruktion in einem CS-System genutzt wird. Konkret wird der Nutzen dieser Bibliothek, einerseits für das Ermitteln von Defektpositionen in Prüfkörpern mittels Ultraschall, und andererseits für das Schätzen von Streuern in einem Funkkanal aus Ultrabreitbanddaten, demonstriert. Darüber hinaus stellen wir für die Verarbeitung der Ultraschalldaten eine Rekonstruktionspipeline vor, welche Daten verarbeitet, die im Frequenzbereich Unterabtastung erfahren haben. Wir beschreiben effiziente Algorithmen, die bei der Modellierung und der Rekonstruktion zum Einsatz kommen und wir leiten asymptotische Resultate für die benötigte Anzahl von Messwerten, sowie die zu erwartenden Lokalisierungsgenauigkeiten der Defekte her. Wir zeigen auf, dass das vorgestellte System starke Kompression zulässt, ohne die Bildgebung und Defektlokalisierung maßgeblich zu beeinträchtigen. Für die Lokalisierung von Streuern mittels Ultrabreitbandradaren stellen wir ein CS-System vor, welches auf einem Random Demodulators basiert. Im Vergleich zu existierenden Messverfahren ist die hieraus resultierende Schätzung der Kanalimpulsantwort robuster gegen die Effekte von zeitvarianten Funkkanälen. Um den inhärenten Modellfehler, den gitterbasiertes CS begehen muss, zu beseitigen, zeigen wir auf wie Atomic Norm Minimierung es erlaubt ohne die Einschränkung auf ein endliches und diskretes Gitter R-dimensionale spektrale Komponenten aus komprimierten Beobachtungen zu schätzen. Hierzu leiten wir eine R-dimensionale Variante des ADMM her, welcher dazu in der Lage ist die Signalkovarianz in diesem allgemeinen Szenario zu schätzen. Weiterhin zeigen wir, wie dieser Ansatz zur Richtungsschätzung mit realistischen Antennenarraygeometrien genutzt werden kann. In diesem Zusammenhang präsentieren wir auch eine Methode, welche mittels Stochastic gradient descent Messmatrizen ermitteln kann, die sich gut für Parameterschätzung eignen. Die hieraus resultierenden Kompressionsverfahren haben die Eigenschaft, dass die Schätzgenauigkeit über den gesamten Parameterraum ein möglichst uniformes Verhalten zeigt. Zuletzt zeigen wir auf, dass die Kombination des ADMM und des Stochastic Gradient descent das Design eines CS-Systems ermöglicht, welches in diesem gitterfreien Szenario wünschenswerte Eigenschaften hat.



https://doi.org/10.22032/dbt.51729
Soleymani, Dariush M.;
Radio resource allocation for overlay D2D-based vehicular communications in future wireless networks. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (xiv, 128 Seiten)
Technische Universität Ilmenau, Dissertation 2022

Mobilfunknetze der nächsten Generation ermöglichen einen weitverbreiteten Einsatz von Device-to-Device Kommunikation, der direkten Kommunikation zwischen zellularen Endgeräten. Für viele Anwendungsfälle zur direkten Kommunikation zwischen Endgeräten sind eine deterministische Latenz und die hohe Zuverlässigkeit von zentraler Bedeutung. Dienste zur direkten Kommunikation (D2D) für in der Nähe befindliche Endgeräte sind vielversprechend die hohen Anforderungen an Latenz und Zuverlässigkeit für zukünftige vertikale Anwendungen zu erfüllen. Eine der herausragenden vertikalen Anwendungen ist die Fahrzeugkommunikation, bei der die Fahrzeuge sicherheitskritische Meldungen direkt über D2D-Kommunikation austauschen, die dadurch zur Reduktion von Verkehrsunfällen und gleichzeitig von Todesfällen im Straßenverkehrt beiträgt. Neue Techniken zur effizienteren Zuweisung von Funkressourcen in der D2D-Kommunikation haben in letzter Zeit in Industrie und Wissenschaft große Aufmerksamkeit erlangt. Zusätzlich zur Allokation von Ressourcen, wird die Energieeffizienz zunehmend wichtiger, die normalerweise im Zusammenhang mit der Ressourcenallokation behandelt wird. Diese Dissertation untersucht verschiedener Ansätze der Funkressourcenzuweisung und Energieeffizienztechniken in der LTE und NR V2X Kommunikation. Im Folgenden beschreiben wir kurz die Kernideen der Dissertation. Meist zeichnen sich D2D-Anwendungen durch ein relativ geringes Datenvolumen aus, die über Funkressourcen übertragen werden. In LTE können diese Funkressourcen aufgrund der groben Granularität für die Ressourcenzuweisung nicht effizient genutzt werden. Insbesondere beim semi-persistenten Scheduling, bei dem eine Funkressource über einen längeren Zeitraum im Overlay D2D festgelegt wird, sind die Funkressourcen für solche Anwendungen nicht ausgelastet. Um dieses Problem zu lösen, wird eine hierarchische Form für das Management der Funkressourcen, ein sogenanntes Subgranting-Schema, vorgeschlagen. Dabei kann ein nahegelegener zellularer Nutzer, der sogenannte begünstigte Nutzer, ungenutzten Funkressourcen, die durch Subgranting-Signalisierung angezeigt werden, wiederzuverwenden. Das vorgeschlagene Schema wird bewertet und mit "shortening TTI", einen Schema mit reduzierten Sendezeitintervallen, in Bezug auf den Zellendurchsatz verglichen. Als nächster Schritt wird untersucht, wie der begünstigten Benutzer ausgewählt werden kann und als Maximierungsproblem des Zellendurchsatzes im Uplink unter Berücksichtigung von Zuverlässigkeits- und Latenzanforderungen dargestellt. Dafür wird ein heuristischer zentralisierter, d.h. dedizierter Sub-Granting-Radio-Ressource DSGRR-Algorithmus vorgeschlagen. Die Simulationsergebnisse und die Analyse ergeben in einem Szenario mit stationären Nutzern eine Erhöhung des Zelldurchsatzes bei dem Einsatz des vorgeschlagenen DSGRR-Algorithmus im Vergleich zu einer zufälligen Auswahl von Nutzern. Zusätzlich wird das Problem der Auswahl des begünstigten Nutzers in einem dynamischen Szenario untersucht, in dem sich alle Nutzer bewegen. Wir bewerten den durch das Sub-Granting durch die Mobilität entstandenen Signalisierungs-Overhead im DSGRR. Anschließend wird ein verteilter Heuristik-Algorithmus (OSGRR) vorgeschlagen und sowohl mit den Ergebnissen des DSGRR-Algorithmus als auch mit den Ergebnissen ohne Sub-Granting verglichen. Die Simulationsergebnisse zeigen einen verbesserten Zellendurchsatz für den OSGRR im Vergleich zu den anderen Algorithmen. Außerdem ist zu beobachten, dass der durch den OSGRR entstehende Overhead geringer ist als der durch den DSGRR, während der erreichte Zellendurchsatz nahe am maximal erreichbaren Uplink-Zellendurchsatz liegt. Zusätzlich wird die Ressourcenallokation im Zusammenhang mit der Energieeffizienz bei autonomer Ressourcenauswahl in New Radio (NR) Mode 2 untersucht. Die autonome Auswahl der Ressourcen wird als Verhältnis von Summenrate und Energieverbrauch formuliert. Das Ziel ist den Stromverbrauch der akkubetriebenen Endgeräte unter Berücksichtigung der geforderten Zuverlässigkeit und Latenz zu minimieren. Der heuristische Algorithmus "Density of Traffic-based Resource Allocation (DeTRA)" wird als Lösung vorgeschlagen. Bei dem vorgeschlagenen Algorithmus wird der Ressourcenpool in Abhängigkeit von der Verkehrsdichte pro Verkehrsart aufgeteilt. Die zufällige Auswahl erfolgt zwingend auf dem dedizierten Ressourcenpool beim Eintreffen aperiodischer Daten. Die Simulationsergebnisse zeigen, dass der vorgeschlagene Algorithmus die gleichen Ergebnisse für die Paketempfangsrate (PRR) erreicht, wie der sensing-basierte Algorithmus. Zusätzlich wird der Stromverbrauch des Endgeräts reduziert und damit die Energieeffizienz durch die Anwendung des DeTRA-Algorithmus verbessert. In dieser Arbeit werden Techniken zur Allokation von Funkressourcen in der LTE-basierten D2D-Kommunikation erforscht und eingesetzt, mit dem Ziel Funkressourcen effizienter zu nutzen. Darüber hinaus ist der in dieser Arbeit vorgestellte Ansatz eine Basis für zukünftige Untersuchungen, wie akkubasierte Endgeräte mit minimalem Stromverbrauch in der NR-V2X-Kommunikation Funkressourcen optimal auswählen können.



https://doi.org/10.22032/dbt.51719
Kurniawan, Mario;
Preparation and characterization of cuprous oxide for improved photoelectrochemical performance. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (VI, 106 Seiten)
Technische Universität Ilmenau, Dissertation 2022

Die Photoelektrochemische (PEC) Wasserspaltung stellte eine nachhaltige und saubere Methode dar, um Wasserstoff zu erzeugen, ohne auf fossile Brennstoffe angewiesen zu sein. Der P-Typ Cu2O-Halbleiter ist ein vielversprechender Kandidat für die Verwendung als Photokathodenmaterial in Bezug auf Kosten, Verfügbarkeit, Lichtabsorption und Energiebandposition. Ein neuartiges und kostengünstiges Herstellungsverfahren für hochporöse Strukturen (55-80 Poren/mm2) von Cu2O-Photokathoden mit verbesserter PEC-Leistung unter ausschließlicher Verwendung der elektrochemischen Abscheidung wird vorgestellt. Dieses Verfahren beinhaltet drei Schritte, um ein stabiles und hochporöses Cu-Metallgerüst als Substrat für die Cu2O-Schichten herzustellen. Im ersten Schritt wurde ein Abscheideprozess unterstützt durch die dynamische Entwicklung von Wasserstoff-Blasen entwickelt, um poröse Cu-Strukturen mit feinen Porennetzwerken herzustellen. Die porösen Cu-Strukturen wurden durch Abscheidung homogener und kompakter Cu-Schichten auf den fein verästelten Porenwänden mechanisch verstärkt. Da die poröse Cu-Struktur nicht vollständig verstärkt war, wurde in einem dritten Schritt die teilweise verstärkte Struktur mit Hilfe von Ultraschall vom planaren Cu-Substrat abgelöst, um ein stabiles freistehendes poröses Netzwerk mit röhrenförmigen Durchgangsporen zu erhalten. Die Porengröße kann durch Veränderung der Abscheidezeit während des ersten Herstellungsschrittes leicht eingestellt werden. Cu2O-Schichten mit Dicken zwischen ˜0,5 und ˜3 [my]m wurden auf den freistehenden porösen Cu-Schichten durch Variation der Abscheidezeit elektrochemisch hergestellt. Die PEC-Wasserspaltung der Cu2O-Photokathoden wurde unter gepulser simulierter AM 1,5-Beleuchtung in einem wässrigen Elektrolyten aus 0,5 M Na2SO4 (pH 6) untersucht. Es wurde festgestellt, dass die Proben mit kleineren Poren den höchsten Photostrom von -2,75 mA cm-2 bei 0 V vs. RHE aufwiesen, gefolgt von -2,25 mA cm-2 für die Proben mit großen Poren, während ein niedriger Dunkelstrom beibehalten wurde. Diese Photoströme sind 120 % bzw. 80 % höher als die PEC-Leistung einer Cu2O-Schicht auf planarem Cu-Substrat, die mit den gleichen Abscheideparametern hergestellt wurde. Die hohe Leistung wird auf die vergrößerte Oberfläche durch die poröse Struktur, die dünne und homogene Bedeckung der Cu2O-Schicht mit kleiner Korngröße und die höheren Lochkonzentrationen zurückgeführt, wie die Mott-Schottky-Analyse zeigte. Die weitere Auswertung der freistehenden porösen Cu2O-Proben zeigte, dass sie eine direkte optische Durchlässigkeit von 14 % für die feinporigen Proben bzw. 23 % für die grobporigen Proben besitzen ([Lambda] = 400-800 nm). Die Herstellung des transluzenten Metallgerüsts mit Hilfe des elektrochemischen Abscheidungsprozesses wurde bisher nicht berichtet, sodass neue Innovationen für verschiedene Anwendungen, insbesondere im Bereich der Energiematerialien, ermöglicht werden.



https://doi.org/10.22032/dbt.51881
Strickstrock, Monika;
Oberflächenmodifizierung von dentalen Y-TZP Keramikimplantaten. - Ilmenau : Universitätsverlag Ilmenau, 2022. - 1 Online-Ressource (XVI, 308 Seiten). - (Werkstofftechnik aktuell ; Band 23)
Technische Universität Ilmenau, Dissertation 2021

Mehr als eine Million Dentalimplantate werden pro Jahr in Deutschland inseriert. Ästhetik und Verträglichkeit sprechen für keramisches Material statt für den Standardwerkstoff Titan. Für diesen Einsatz, der in Hinblick auf Festigkeit, Biokompatibilität, Be- und Verarbeitbarkeit komplexe Ansprüche stellt, ist Zirkoniumdioxid (ZrO2), genauer Yttriumoxid stabilisiertes ZrO2 (Y-TZP), geeignet. Schwachpunkt ist jedoch die geringere Toleranz von Keramik gegenüber Oberflächendefekten, die sich festigkeitsmindernd auswirken. Die Oberflächenaufrauung ist für eine bessere Einheilung in den Knochen allerdings unabdingbar. Durch Oberflächenmodifizierung im dichtgesinterten Zustand kann die Festigkeit sowohl erhöht als auch erniedrigt werden, da Strukturumwandlungen im polymorphen Y-TZP in Abhängigkeit der Herstellungsparameter stattfinden. Das Ziel dieser Arbeit ist durch holistische Analyse des Herstellungsprozesses eines Y-TZP Implantates diesen zu optimieren. Die Bewertung erfolgt in den drei Eigenschaftskategorien: Physikochemie, Mechanik, Topographie und schließt mit einer zellbiologischen Prüfung ab. Die Physikochemie wird mit drei Hydrophilierungsmethoden verändert (UV, UV-Ozon, Plasma) und optimale Behandlungsparameter werden mittels Kontaktwinkelmessungen gefunden. Die Plasmabehandlung stellt die effektivste Methode dar. Zur Konservierung der Hydrophilie wird die Lagerung unter Luftabschluss in Isopropanol (zum Erhalt der Sterilität) untersucht. Die mechanischen Eigenschaften werden durch Aufrauung im Weißzustand negativ beeinflusst. Durch Material- und Prozessanpassung wird eine Erhöhung der Festigkeit (˜30 %) und der Alterungsbeständigkeit erreicht. Um der nach Aufrauung bestehenden Festigkeitsreduzierung entgegen zu wirken, wird ein Prozess zur Oberflächenverstärkung mittels Festigkeitsstrahlen (SP) für raue Oberflächen erarbeitet. Neben der Umwandlung von tetragonal zu monoklin werden weitere Strukturen in der Literatur kontrovers diskutiert. Daher werden umfassende diffraktometrische Analysen durchgeführt, um zukünftig die Festigkeitsbeeinflussungen klarer vorhersagen zu können. Nach SP lassen sich statisch und dynamisch eine um ˜30% erhöhte Festigkeit am rauen Produkt belegen, während die Makrotopographie der osseointegrativen Oberfläche erhalten bleibt. Die topographischen Eigenschaften werden durch Profilmessung bestimmt und durch 3D-Oberflächenaufnahmen zur Charakterisierung von Hybridparametern für die abrundende zellbiologische Untersuchung betrachtet. In vitro schneiden alle ZrO2 Serien vergleichbar zur sandgestrahlt und geätzten Titan-Referenzoberfläche ab.



https://doi.org/10.22032/dbt.51524
Leimbach, Martin;
Charakterisierung der elektrochemischen Abscheidung von Chrom aus Chrom(III)-Elektrolyten für dekorative Anwendungen. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (XVI, 142 Seiten)
Technische Universität Ilmenau, Dissertation 2022

Dekorative Chromschichten sind im Alltagsleben omnipräsent, da sie Bauteiloberflächen ein ansprechendes Aussehen verleihen und zugleich Schutz vor Korrosion und Abrieb bieten. Verfahren zur elektrochemischen Abscheidung, welche bereits seit Jahrzehnten bekannt und gut verstanden sind, basieren auf sechswertigen Chromverbindungen. Eine zunehmend strengere Chemikaliengesetzgebung schränkt die Verwendung dieser Stoffe ein und macht eine langfristige Substitution bei industriellen Prozessen notwendig. Elektrolyte auf Basis von dreiwertigen Chromverbindungen haben sich dabei als Alternative erwiesen und drängen zunehmend auf den Markt. Chrom(III)-basierte Elektrolytsysteme sind jedoch bislang kein gleichwertiger Ersatz und zeigen unter anderem Schwächen in Bezug auf Abscheiderate und optisches Erscheinungsbild der Chromschichten. Diese Arbeit soll Beiträge zum Verständnis des Abscheideprozesses und der Schichtbildung aus Chrom(III)-Elektrolyten liefern, um darauf aufbauend Maßnahmen für die Optimierung ableiten zu können. So wurde der Abscheideprozess mittels in-situ Mikrogravimetrie, Messung des oberflächennahen pH-Wertes und Bestimmung des bei der Abscheidung entstehenden Wasserstoffes charakterisiert. Im Ergebnis wurde eine Theorie zum Abscheidemechanismus aufgestellt. Anhand von Farbmessungen, REM- und AFM-Aufnahmen konnte ein Zusammenhang zwischen Schichtmorphologie und Farbwerten der Schichten nachgewiesen werden, welcher anhand von Modellrechnungen bestätigt wurde. Chrom(III)- und Chrom(VI)-Elektrolyte zeigen markante Unterschiede im Schichtwachstum. Aufbauend darauf wurde die Nutzung von Pulsstrom mit niedriger Frequenz als Maßnahme zur Steuerung der Morphologie und damit des Farbtones der Chromschichten identifiziert und erfolgreich angewendet.



https://doi.org/10.22032/dbt.51591
Paffhausen, Michael;
Rührreibschweißen mit einem Industrieroboter unter Berücksichtigung der Einsatzkriterien für die automobile Großserienfertigung. - Ilmenau : Universitätsverlag Ilmenau, 2022. - 1 Online-Ressource (225 Seiten). - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 13)
Technische Universität Ilmenau, Dissertation 2021

Das Fügeverfahren "Rührreibschweißen" ermöglicht die Herstellung reproduzierbar hochwertiger Schweißverbindungen. Aufgrund der sehr hohen Prozesskräfte werden in der Produktion vorzugsweise Sonder- und Werkzeugmaschinen eingesetzt. In der automobilen Großserienfertigung wird jedoch der Einsatz von Standard-Industrierobotern für das Rührreibschweißen als kostengünstigere und flexiblere Alternative favorisiert. Im Rahmen der Arbeit werden die Leistungskenngrößen des Industrieroboters zunächst ohne Bearbeitungskräfte analysiert. In diesem Zusammenhang werden die Pose- und Bahn-Wiederholgenauigkeit des Industrieroboters an unterschiedlichen Referenzbahnen in der Ebene quantifiziert. Hier ist festzustellen, dass der Roboter den Genauigkeitsanforderungen des Schweißverfahrens genügt. Bei der Analyse der Wechselwirkungen zwischen Prozess und Roboterstruktur wird jedoch deutlich, dass die Arbeitsgenauigkeit des Industrieroboters durch die resultierenden Prozesskräfte beim Rührreib-schweißen signifikant beeinflusst wird; ohne ein "Nachteachen" oder eine Offline-Korrektur der programmierten Soll-Bahn werden die mechanischen Eigenschaften der Fügeverbindung durch die mangelnde Arbeitsgenauigkeit des Industrieroboters negativ beeinflusst. Bei der Analyse kann nachgewiesen werden, dass die Abdrängung des Werkzeugs nicht nur von den resultierenden Prozesskräften abhängt, sondern auch signifikant durch die Richtung des Vektors der Bahngeschwindigkeit beim Bahnschweißen beeinflusst wird. Bei der Analyse der statischen und dynamischen Systemeigenschaften des Roboters wird gezeigt, dass die nichtlinearen Steifigkeiten der Roboterstruktur maßgeblich von den Gelenkstellungen und der Belastungsrichtung abhängen. Aus den Erkenntnissen der Systemanalyse wird eine modellbasierte Offline-Bahnkorrektur, die Nachgiebigkeiten und Wechselwirkungen zwischen Prozess und Roboter berücksichtigt, entwickelt.



https://doi.org/10.22032/dbt.51592
Zárate Moya, José Luis;
Robustification of a biologically inspired flapping mechanism. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (XIX, 199 Seiten)
Technische Universität Ilmenau, Dissertation 2022

Autonom fliegende Roboter, die von der Biologie der Vögel oder Insekten inspiriert sind, haben ein breites Anwendungsspektrum, zum Beispiel als Wetter- und Umweltmessgerät in der Präzisionslandwirtschaft oder zur Überwachung bei Rettungseinsätzen. Diese Micro-Air-Vehicle-Roboter sind hoch manövrierfähig und können schnell zwischen verschiedenen Flugmodi wechseln. Sie sind kollisionssicher, indem sie sich ohne menschliches Eingreifen anpassen und ein koordiniertes Verhalten in großen Gruppen mit Unterstützung von Sensoren und Steuergeräten, die Informationen aus der Umgebung erhalten, und einer effizienten integrierten Energiequelle erreichen. Die Herausforderung besteht jedoch darin, Schlagflügel-MAVs zu entwerfen, die in der Lage sind, bei kleinen Abmessungen und begrenzter Nutzlast autonom zu fliegen. Der Entwurf eines anpassungsfähigen Systems zur Analyse der Eigenschaften der Flugdynamik in Schlagflügelsystemen hilft bei der Untersuchung ihrer Eigenschaften und ermöglicht den Einsatz verschiedener Steuerungstechniken zur Verbesserung ihrer Leistung. Die Software zur Identifizierung der Systemparameter, z.B. Schlagfrequenz, Position oder Geschwindigkeit, bietet die Möglichkeit, diese Komplexität zu beherrschen. Diese Art von Plattform ermöglicht die Untersuchung der mechatronischen Steuerung in kleinen Flugsystemen. Der Beitrag in dieser Dissertation stellt einen Prototyp eines Prüfstandes vor, der auf einem mathematischen Modell einer Balkenstruktur mit einem Schlagflügelroboter basiert. Die Vorrichtung besteht aus einem Balken, der einen rotatorischen Freiheitsgrad hat, der in einer vertikalen Ebene enthalten ist, an deren einem Ende sich der Schlagmechanismus befindet. Die gewonnenen Daten und die Anwendung der Regelungsmethode werden mit dem Tool MATLAB® SIMULINK® und einem Arduino®-Gerät als Schnittstelle zwischen dem System und dem PC durchgeführt. Die Modellparameter wurden experimentell ermittelt, die Steuerung wurde in Echtzeit implementiert und mit dem mathematischen Modell des Systems verglichen.



https://doi.org/10.22032/dbt.51541
Reiprich, Johannes;
Localized and programmable material transport and deposition by corona discharge. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (xiii, 133, XXIX Seiten)
Technische Universität Ilmenau, Dissertation 2022

Der Transport von Materialien und Gütern bestimmt unseren Alltag. Materialtransport passiert in globalen Logistikunternehmen, in Fertigungslinien, in alltäglichen Situationen wie dem Einkaufen und selbst in unserem menschlichen Körper. Zu jedem Zeitpunkt werden Materialien von A nach B transportiert, ohne dass uns dies in vielen Situationen bewusst wird. Mit dem Unterschreiten von Größenordnungen im Mikro- und Nanometerbereich wird ein gezielter Materialtransport zu einer Herausforderung, da eine manuelle Manipulation nicht mehr möglich ist. Dennoch wäre es wünschenswert, wenn wir gezielt Material an einen gewünschten Ort transportieren und dort abscheiden könnten, denn diese Lokalisierung wird in vielen Anwendungsfeldern benötigt, um z.B. physikalische Eigenschaften auszunutzen oder chemische oder biologische Reaktionen auszulösen. Daher soll in dieser Arbeit eine Methode zum lokalisierten Materialtransport im Mikro- und Nanometerbereich vorgestellt werden. Diese Methode basiert auf elektrischen Kräften. Einfach ausgedrückt, laden wir ein beliebiges Material elektrisch auf und können es dann in einem elektrischen Feld manipulieren. Negativ geladenes Material wird von negativ geladenen Flächen abgestoßen und von positiv geladenen Flächen angezogen. So lässt sich ein gerichteter Materialtransport erzeugen. Das Material wird mithilfe einer negativen DC Corona-Entladung aufgeladen. Durch die Strukturierung von isolierenden Flächen auf leitfähigen Substraten lassen sich sogenannte elektrodynamische Trichter erzeugen, die das geladene Material zu den gewünschten Orten führen, es dort konzentrieren und abscheiden. Die Nutzung von elektrischen Kräften ermöglicht zudem eine Programmierbarkeit, da durch das Ändern der elektrischen Felder oder durch An- und Ausschalten von Elektroden die Position der Abscheidung, die Abscheideart oder die Abscheiderate geändert werden kann. Die Nutzung der Corona-Entladung ermöglicht eine hohe Freiheit bei der Materialwahl. Die Abscheidung von Metallen, Halbleitern, Isolatoren und biologischen Materialien in einem Größenbereich von Mikropartikeln bis hin zu einzelnen Molekülen wird gezeigt. Die Anwendungsgebiete der vorgestellten Methode sind vielfältig: Sie reichen von Luftüberwachung, Nanodrahtwachstum, Gassensorik bis hin zur Kristallzucht. Die experimentellen Ergebnisse werden mit elektrischen, optischen und materialspezifischen Analysen verifiziert. Darüber hinaus werden Simulationen durchgeführt, um die Art der Lokalisierung zu demonstrieren.



https://doi.org/10.22032/dbt.51508
Bruchmüller, Matthias;
Berechnung des Elastizitätsmoduls von Verbundwerkstoffen unter Berücksichtigung der Adhäsion an der Faser-Matrix-Grenzfläche : ein Beitrag am Beispiel kurzfaserverstärkter Thermoplaste. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (xx, 216 Seiten)
Technische Universität Ilmenau, Dissertation 2021

In dieser Arbeit wird erstmalig ein Berechnungsmodell für Elastizitätsmoduln von kurzfaserverstärkten Kunststoffen unter Berücksichtigung der werkstoffspezifischen Haftbedingung in der Faser-Matrix-Grenzfläche vorgestellt und validiert. Dies erfolgt im Rahmen einer Modellerweiterung indem die Oberflächenspannungsanteile der Kontaktpartner herangezogen und Oberflächenrauheiten der Fasern vernachlässigt werden. Die Anwendung des Modells präzisiert die Vorhersagen des Elastizitätsmoduls des Verbundes, was direkte Auswirkungen auf die Eigenfrequenzen und Nachgiebigkeit von Bauteilen insbesondere unter Verwendung nahezu unpolarer Matrices hat. Ein einmaliger Vorteil der Modellerweiterung besteht in der Möglichkeit Kreuzvergleiche zwischen den zu kombinierenden Materialien durchzuführen. Kombinationsspezifische Untersuchungen, wie Einzelfaserauszugstests einer spezifischen Faser-Matrix-Kombination, sind nicht mehr notwendig. Die Messung der Oberflächenspannungsanteile der gewählten Materialien erfolgt unter Verwendung dreier Testflüssigkeiten: destilliertes Wasser, Dimethylsulfoxid und Ethylenglycol. Darüber hinaus ist die Messung unter Einsatztemperatur zu empfehlen, die in vielen Fällen im Bereich der Raumtemperatur und im Rahmen dieser Untersuchungen bei 23 &ring;C liegt. Zur Sicherstellung einer vollständig ausgeprägten Kontaktfläche zwischen Faser und Matrix muss ein Spreiten der Matrix auf der Faseroberfläche vorliegen. Hierbei muss die Gesamtoberflächenspannung der Matrix stets kleiner sein als die Gesamtoberflächenspannung der Faser oder gleichwertig. Die Modellerweiterung wird anhand geeigneter Faser- und Matrixwahl auf die Effekte der physikalischen Adhäsion reduziert, um dessen Einfluss klar herauszuarbeiten. Die eigenen Untersuchungen zeigen die Abweichungen der etablierten Modelle von bis zu 25 %, die mit der neuartigen Modellerweiterung stets im Bereich der Messunsicherheit des Elastizitätsmoduls des Verbundes aus den Zugversuchen liegen. Schließlich wird die Modellerweiterung an Daten aus der Literatur erprobt. Die Verbesserung der Vorhersage des Elastizitätsmoduls des Verbundes ermöglicht es, bereits in der Konzeptionsphase ein zuverlässiges elastisches Deformationsverhalten vorherzusagen und Materialwechsel oder Funktionsfaktoren im Entwicklungsprozess zu minimieren bis verhindern.



https://doi.org/10.22032/dbt.51472
Jotz, Matthias;
Kantenfestigkeitsoptimierte (Weiter-) Entwicklung eines Verfahrens zum Trennen von ultradünnem Glas. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (xv, 121 Seiten)
Technische Universität Ilmenau, Dissertation 2021

Der Einsatz von Gläsern, insbesondere von ultradünnen Gläsern, wird in zahlreichen innovativen Anwendungen durch deren Sprödbruchverhalten eingeschränkt. In der vorliegenden Arbeit wird ein neues, fertigungstaugliches Kantenfestigkeitsmessverfahren für ultradünne Glasproben beschrieben, mit etablierten Festigkeitsprüfverfahren verglichen und als einsatztauglich befunden. Im weiteren Verlauf der Arbeit wird ein auf Kantenfestigkeit optimiertes Ritz- und Bruchverfahren für ultradünnes Glas durch die Konstruktion neuer Maschinenbauteile unter der Verwendung einer hohen Anzahl getesteter Proben sowie fortschrittlicher statistischer Methoden entwickelt. Zudem wird nachgewiesen, dass sich die aus dem Verfahren resultierende Festigkeit mittels eines linearen Modells vorhersagen lässt, wenn eine Schneidflüssigkeit verwendet wird. Anhand einer großen Menge getesteter Proben wird sodann belegt, dass die resultierende Festigkeit einer 3-Parameter-Weibull-Verteilung folgt und daher eine Festigkeitsschwelle aufweist, unterhalb derer die Bruchwahrscheinlichkeit ingenieurtechnisch vernachlässigbar gering ist. Dies ermöglicht es Produktdesignern innovative Produkte zu entwickeln, die auf einer zuverlässig hohen Festigkeit von ultradünnem Glas basieren und damit den Anwendungsbereich von Gläsern signifikant zu erweitern.



https://doi.org/10.22032/dbt.51023
Hörtnagl, Arnulf;
Systembetrachtung der Korrosionsbeständigkeit an geschliffenen Oberflächen von metastabilen Austeniten. - Ilmenau : Universitätsverlag Ilmenau, 2022. - 1 Online-Ressource (VII, 202 Seiten)
Technische Universität Ilmenau, Dissertation 2021

Wegen ihrer Beständigkeit gegen Korrosion sowie der guten Umformbarkeit sind austenitische CrNi-Stähle in einer Vielzahl von Anwendungen anzutreffen. Die Fähigkeit zur Ausbildung einer stabilen Passivschicht beruht dabei insbesondere auf dem Anteil an Chrom in der jeweiligen Legierung. Der Einfluss weiterer einzelner Faktoren auf das Korrosionsverhalten von CrNi-Stählen wird in einer Vielzahl von wissenschaftlichen Arbeiten behandelt. Die vorliegende Arbeit befasst sich dabei explizit mit der Auswirkung einer erfolgten Kaltumformung und der erzeugten Bauteiloberfläche infolge unterschiedlicher Bearbeitungsverfahren auf das Korrosionsverhalten. Zur Betrachtung der Wechselwirkung dieser beiden Faktoren wurden zwei metastabile austenitische Stähle herangezogen, welche eine nahezu identische Korrosionsbeständigkeit (gem. PREN) aufweisen, aber deren Austenitstabilität (gem. Md30) unterschiedlich ist. Durch mehrstufiges Kaltwalzen wurden an Blechmaterial verschiedene Umformgrade erzielt. Die Differenzierung in den Oberflächenausführungen wurde anschließend durch metallografische Präparation oder durch Plan-Umfangs-Längsschleifen erzeugt. Die metallografische Präparation führte zu geschliffenen, polierten oder elektropolierten Oberflächenausführungen. Für den maschinellen Flachschleifprozess wurden jeweils Oberflächen mit Siliziumkarbid oder mit Korund als Schleifmittel bearbeitet. Die Bestimmung des Korrosionsverhaltens erfolgte mittels verschiedener elektrochemischer Messmethoden. Zur Charakterisierung der erzeugten Oberflächen wurden unterschiedliche Analysemethoden angewendet, insbesondere die taktile und optische Bestimmung der Oberflächenrauheit sowie die Untersuchung mittels REM-Aufnahmen. Der Einfluss der Kaltumformung auf das vorliegende Gefüge, die zu einer ausgeprägten Bildung von α'-Martensit führte, wurde durch konventionelle Metallografie, EBSD-Messungen und magnetinduktive Messungen erfasst. In Bezug auf das erzielte Korrosionsverhalten zeigt sich der Einfluss beider Faktoren deutlich. Die Veränderung der mechanischen Eigenschaften infolge der Kaltumformung kann dabei als dominanter Einfluss auf die erzeugte Oberflächentopografie nachgewiesen werden. Hieraus folgt für geschliffene Oberflächen ein entgegengesetzter Trend des Korrosionsverhaltens mit steigendem Umformgrad zu den polierten oder elektropolierten Oberflächen.



https://doi.org/10.22032/dbt.50169
Lutz, Irina;
Biologische Inspiration sensibler Funktionen in nachgiebigen technischen Grenzflächen. - Ilmenau : Universitätsbibliothek, 2021. - 1 Online-Ressource (XV, 153 Seiten)
Technische Universität Ilmenau, Dissertation 2021

Das Thema der hier vorgestellten Arbeit ist die Entwicklung einer flexiblen mehrschichtigen Sensorstruktur zur Erfassung mechanischer Größen, insbesondere von Kräften oder Drucken. Diese Schichtstruktur soll fähig sein, sich in ihrer Gestalt und Steifigkeit an exogene Einflüsse, die als mechanische Umgebungsbedingungen variieren können, anzupassen. Die menschliche Haut als komplexes Sinnesorgan dient hier als Inspirationsmodel für ein nachgiebiges adaptives technisches System. Die funktionsrelevanten morphologischen Bestandteile der Haut wie Schichtung, drei-dimensionale Geometrie der Grenzfläche der papillären Dermis und die Mechanorezeptoren spielen eine große Rolle bei der Wahrnehmung des auf die Körperoberfläche wirkenden mechanischen Reizes und dessen weiterer Interpretation. Die räumliche Verteilung der Mechanorezeptortypen innerhalb der mechanisch unterschiedlichen Gewebeschichten verleiht der Haut die Möglichkeit unterschiedliche Arten von Informationen aus der unmittelbaren Umgebung zu rezipieren. Eine Druckkraft auf die Hautoberfläche erzeugt einen messbaren Versatz der papillären Flankenflächen zwischen Epidermis und Dermis zueinander und bewirkt damit eine Vergrößerung des Dehnungsanteils des Reizes. Eine zusätzliche hydraulische Komponente stellt der subepidermale Venenplexus dar, dessen Gefäßsteifigkeit vom Innendruck abhängig ist. Die Integrationsstrategie des Sensor-Aktor-Systems der menschlichen Haut wird mit einer technischen Implementierung dieser Sensorperipherie umgesetzt. Die unter den verschiedenen äußeren Belastungen auf der Hautoberfläche entstandene Spannungsverteilung in den Gewebeschichten der Haut kann mithilfe analytischer und numerischer Methoden bestimmt werden. Ergebnisse aus der experimentellen Biologie sowie Modelle als Entsprechung zum natürlichen Objekt, welche bestimmte Eigenschaften (z.B. Papillenprofile, Materialeigenschaften oder Sensorposition) widerspiegeln, wurden in das biomimetische Erklärungsmodell übertragen. Die Sensoren innerhalb einer geeigneten Matrix können in dem nachgiebigen mehrschichtigen Funktionsmuster räumlich so verteilt sein, dass bei Oberflächendruck die begleitenden spezifischen Tangentialkraft-Komponenten aufgenommen und erfasst werden können. Die Struktur der Oberfläche der Grenzschicht kann als keilförmiges Profil analog der papillären Dermis hergestellt werden. Durch eine Implementierung der fluidischen Aktorik in die basale Schicht kann eine Steifigkeitseinstellung während der Messung realisiert werden. Diese Kombination von Sensor- und Aktorkomponenten versetzt das Gesamtsystem in die Lage, sich an die exogenen Einflüsse und variablen Messbedingungen in weitem Bereich anzupassen.



https://doi.org/10.22032/dbt.51569
Borowiec, Justyna;
Fabrication and characterization of microstructured scaffolds for complex 3D cell cultures. - Ilmenau : Universitätsbibliothek, 2021. - 1 Online-Ressource (XII, 140 Seiten)
Technische Universität Ilmenau, Dissertation 2021

In einem natürlichen Gewebe wird das zelluläre Verhalten durch Stimuli der Mikroumgebung reguliert. Verschiedene chemische, mechanische und physikalische Reize befinden sich in einem lokalen Milieu und versorgen die Zellen mit einem biologischen Kontext. Im Vergleich zur in vivo Situation, zeigen Standard 2D in vitro Zellkulturmodelle viele Unterschiede in der zellulären Mikroumgebung und können infolgedessen eine Veränderung der Zellantwort verursachen. Die Schaffung einer physiologisch realistischeren Umgebung auf künstlichem Substrat ist ein Schlüsselfaktor für die Entwicklung zuverlässiger Plattformen, die es den kultivierten Zellen ermöglichen, sich natürlicher zu verhalten. Daher sind neuartige Substrate auf Biomaterialbasis mit maßgeschneiderten Eigenschaften sehr gefragt. Die Mikrotechnik ist ein leistungsstarkes Werkzeug, das bei der Herstellung der Funktionsgerüste hilft, um verschiedene Eigenschaften der in vivo Umgebung zu reproduzieren und auf in vitro Bedingungen zu übertragen. Die Gerüstkonstruktionsparameter können manipuliert werden, um die für das jeweilige Gewebe spezifischen Anforderungen zu erfüllen. Eine der grundlegenden Einschränkungen bei aktuellen Herstellungsverfahren ist jedoch die Unfähigkeit, mehrere Gerüsteigenschaften auf vorgefertigte Weise in eine einzelne Gerüststruktur zu integrieren. Diese Dissertation befasst sich mit Gerüstmikrofabrikations- und Oberflächenmodifikations-techniken, welche die Mikrostrukturierungstechnologie verwenden und die gleichzeitige Kontrolle über verschiedene Gerüsteigenschaften ermöglichen. Diese Ansätze bei der Mikrofabrikation von Polymergerüsten werden verwendet, um physikalische und chemische Eigenschaften bereitzustellen, die für die Leberzellkultur optimiert sind. Die physikochemischen Aspekte, die die zelluläre Mikroumgebung von Lebergewebe in vivo ausmachen, werden diskutiert und anschließend werden relevante Technologien vorgestellt, mit denen einige dieser Aspekte in vitro reguliert werden können. Im ersten Teil dieser Arbeit wird ein neuartiges zweistufiges Verfahren zur Herstellung von Polymergerüsten mit mikroporöser Struktur und definierter Topographie gezeigt. Um 3D-Matrizen mit integrierter Porosität zu erhalten, wurde nach der Herstellung mikroporöser Folien ein Mikrostrukturierungsprozess unter Verwendung der Mehrschicht Polymer-Thermoformtechnologie durchgeführt. Diese Methoden wurden verwendet, um Substrate für die organotypische 3D-Hepatozytenkultivierung herzustellen. Poröse Gerüste mit Mikrokavitäten wurden aus lösungsmittelgegossenen und phasengetrennten Polymilchsäure (PLA) Folien gebildet. Die Proben wurden auf grundlegende mechanische und Oberflächenspezifische Eigenschaften sowie auf die Zellleistung untersucht. Um einen Bezugspunkt für die Bewertung der hergestellten Matrices bereitzustellen, wurden PLA-Gerüste mit zuvor beschriebenen Substraten auf Polycarbonat (PC)-Basis mit ähnlicher Geometrie verglichen. HepG2-Zellen, die in PLA-Gerüsten kultiviert wurden, zeigten eine gewebeartige 3D-Aggregation und eine erhöhte Sekretionsrate von Albumin im Vergleich zu PC-Gerüsten. Anschließend wurde dieses zweistufige Herstellungsverfahren verwendet, um schnell abbaubare Gerüste für die gerüstfreie Zellblatttechnik herzustellen. Gerüste mit kontrollierter Porosität und Topographie, die die Schlüsselmerkmale von Lebersinusoiden nachahmen, wurden aus Poly(milch-co-glykolsäure) (PLGA)-Copolymer hergestellt und für den in vitro Abbau in Zellkultur charakterisiert. Um die Beziehung zwischen dem Abbau des Gerüsts und der Organisation der Zellen in der PLGA-Matrix aufzudecken, wurde die Lebensfähigkeit und Morphologie der kultivierten Zellen zusammen mit der Morphologie des Gerüsts untersucht. Im zweiten Teil dieser Arbeit wurden verschiedene technische Lösungen für die gerichtete Strukturierung mikroporöser Polymergerüste bewertet und ihre Eignung zur Erzeugung einer benutzerdefinierten lebenswichtigen oligozellulären Morphologie auf künstlichem Substrat vorgestellt. Besonderes Augenmerk wurde auf das 3D-Mikrokontaktdruckverfahren (3DµCP) gelegt, das die Vorteile des Mikrothermoformens und des Mikrokontaktdrucks kombiniert und eine räumlich-zeitliche Kontrolle über morphologische und chemische Merkmale in einem einzigen Schritt ermöglicht. Um das Potenzial dieser Technik aufzuzeigen, wurden Gerüste mit bestimmten Mikrostrukturen wie Kanäle mit verschiedenen Tiefen und Breiten sowie komplexere Muster hergestellt und verschiedene ECM-Moleküle gleichzeitig in die vordefinierten Geometrien übertragen. Die Gültigkeit des 3DµCP-Prozesses wurde durch mikroskopische Messungen, Fluoreszenzfärbung und Testen der Substrate auf Zelladhäsionsantwort gezeigt. Schließlich wird in dieser Arbeit die Herstellungsmethode zur Erzeugung komplexer Gerüste für die 3D- und gesteuerte Co-Kultivierung von Leberzellen vorgestellt. Polymermatrizen, die die grundlegende Leberarchitektur replizieren und somit eine gut organisierte Leberzellzusammensetzung ermöglichen, wurden erfolgreich unter Verwendung der 3DµCP-Methode hergestellt. Auf der Polycarbonatoberfläche wurden gleichzeitig chemische und topografische Leitfäden in Form sinusförmiger Strukturen strukturiert. Um die 3D-Gewebemikrostruktur zu replizieren, wurden EA.hy926- und HepG2-Zellen auf beiden Seiten des strukturierten porösen Gerüsts Co-kultiviert und anschließend einander gegenüber gestapelt, wodurch zugehörige Kanäle zur Bildung einer Kapillare führen. Das Potenzial unseres 3DµCP-strukturierten Gerüsts für die gerichtete Co-Kultivierung von Zellen wurde unter statischen Zellkulturbedingungen demonstriert. Am Ende wurden Gerüste für die weiteren Anwendungen im perfundierten Bioreaktorsystem angepasst.



https://doi.org/10.22032/dbt.50717
Moller, Sebastian;
Experimental characterization of turbulent superstructures in large aspect ratio Rayleigh-Bénard convection. - Ilmenau : Universitätsbibliothek, 2021. - 1 Online-Ressource (xii, 187 Seiten)
Technische Universität Ilmenau, Dissertation 2021

Die Untersuchung von thermisch induzierten Strömungen hat in den letzten Jahrzehnten eine enorme Aufmerksamkeit erfahren, um geophysikalische und astrophysikalische Systeme besser verstehen zu können. Hierfür hat sich das sogenannte Rayleigh-Bénard Modell als eines der meist untersuchten fluidmechanischen Systeme etabliert, da es die kaum abzubildende Komplexität von natürlichen Systemen in ihrer Mannigfaltigkeit auf ein Fluidvolumen reduziert, welches von unten isotherm erwärmt und von oben isotherm gekühlt wird. Trotz dieser Reduzierung an Komplexität können mit diesem Modell die wesentlichen Eigenschaften von thermischer Konvektion abgebildet werden. Die Strömung in einem solchen System, welche als Rayleigh-Bénard Konvektion bekannt ist, weist Strömungsstrukturen auf unterschiedlichsten Längenskalen auf. In der vorliegenden Arbeit werden die sogenannten Superstrukturen untersucht. Diese sich in horizontaler Richtung weit erstreckenden Strukturen treten in Erscheinung, wenn die horizontale Dimension der Fluidschicht wesentlich größer als der vertikale Abstand zwischen der erwärmten Unterseite und der gekühlten Oberseite ist. Da die Superstrukturen bisher im Wesentlichen anhand von numerischen Simulationen untersucht wurden, soll in dieser Arbeit erstmals vom experimentellen Standpunkt ein besserer Eindruck gewonnen werden. Zur Untersuchung der Superstrukturen wird eine Rayleigh-Bénard Zelle mit den Abmessungen l × w × h = 700 mm × 700 mm × 28 mm und folglich mit einem Aspektverhältnis von [Gamma] = l/h =25 aufgebaut. Bei allen Experimenten wird diese Zelle mit Wasser als Arbeitsmedium befüllt. Um die Rayleigh-Bénard Strömung zu untersuchen, werden thermochrome Flüssigkristalle als Impfpartikel der Strömung beigefügt, sodass simultane Messungen des Temperatur- und Geschwindigkeitsfeldes in horizontalen Ebenen der Zelle vorgenommen werden können. Während das Geschwindigkeitsfeld mittels der Bewegung der thermochromen Flüssigkristalle im zeitlichen Verlauf anhand der etablierten Partikelbild-Geschwindigkeitsmessung (Particle Image Velocimetry) bestimmt wird, basiert die Messung des Temperaturfelds auf der farblichen Erscheinung der thermochromen Flüssigkristalle, welche unter der Beleuchtung von Weißlicht temperaturabhängig ist. Im Hinblick auf die genaue Bestimmung der Temperatur wird diese Messtechnik umfänglich charakterisiert, wobei die wesentlichen Einflussfaktoren auf die Messunsicherheit diskutiert werden. Da die Untersuchung der turbulenten Superstrukturen mittels dieser Messtechnik den optischen Zugang zur flachen Rayleigh-Bénard Zelle erfordert, ist der Aufbau speziell konstruiert und ermöglicht die Beobachtung der Strömung durch eine transparente Kühlplatte. Der Entwicklungsprozess wird in der Arbeit aus ingenieurstechnischer Sicht genauestens erklärt. Bei der Auswertung der Messungen kommen die großskaligen Strukturen sowohl im Temperaturfeld als auch im Geschwindigkeitsfeld zum Vorschein. Die Größe der Superstrukturen wird untersucht in Abhängigkeit der Rayleigh-Zahl Ra, welche den thermischen Antrieb der Strömung beschreibt und in der vorliegenden Arbeit etwa im Bereich 2 × 10^5 ≤ Ra ≤ 2 × 10^6 variiert wird. Auf der Basis dieser Messungen, welche jeweils einen großen Zeitraum abdecken, wird das Langzeitverhalten der Superstrukturen analysiert, womit deren langsam voranschreitende Umstrukturierung gezeigt wird. Da die kombinierte Messung des Temperatur- und Geschwindigkeitsfeldes in den horizontalen Messebenen die Berechnung des lokalen Wärmestroms ermöglicht, wird diese Möglichkeit ebenfalls demonstriert. Um die experimentellen Ergebnisse dieser Arbeit bewerten zu können, werden jene mit den Resultaten aus numerischen Simulationen verglichen.



https://doi.org/10.22032/dbt.51488
Regensburg, Anna;
Hybrid Friction Eutectic Bonding (HFEB) - stoffschlüssiges Fügen von Aluminium und Kupfer unter Nutzung der eutektischen Reaktion. - Ilmenau : Universitätsverlag Ilmenau, 2021. - 1 Online-Ressource (X, 177 Seiten). - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 12)
Technische Universität Ilmenau, Dissertation 2021

Ansätze des werkstofflichen Leichtbaus mit dem Ziel der Gewichts- und Ressourcenoptimierung in elektrischen Verbindungen haben das Fügen von Aluminium-Kupfer-Mischverbindungen zu einem stark verfolgten Forschungsschwerpunkt der letzten Jahre gemacht. Im Rahmen von Elektromobilität sowie allgemeiner Erhöhung von Komfort- und Sicherheitsstandards ergeben sich hierfür hohe Herausforderungen an die einzusetzenden Fügetechnologien. Der Zielzustand für elektrische Verbindungen besteht in großflächigen, duktilen Verbindungen mit geringem Kontaktwiderstand. Je nach Verfahren werden diese Ziele jedoch durch die Bildung spröder, intermetallischer Phasen oder erhöhte Grenzflächen- und Bauteilverformung nur zum Teil erreicht. In der vorliegenden Arbeit wurde gezielt die Bildung einer eutektischen Schmelze zwischen Aluminium und Kupfer genutzt, um den Lösungsraum zwischen Press- und Schmelzschweißverfahren zu nutzen. Während der Initialkontakt der Grenzflächen durch Fügedruck während des Rührreibpunktschweißens beschleunigt wird, findet die Vergrößerung und Benetzung der Fügefläche durch die Bildung einer eutektischen Schmelze statt. Diese bildet sich zwischen den Grundwerkstoffen, ohne dass diese in die flüssige Phase übergehen. In Abhängigkeit der Prozessführung kann der Pressschweißprozess hier erneut genutzt werden, um die Schmelze aus der Fügezone zu verdrängen. Somit kann das Erstarrungsverhalten gezielt beeinflusst werden, während sich weitere Vorteile durch den Abtransport von Einschlüssen und Verunreinigungen ergeben. Durch eine angepasste Prozessführung können vollflächige Anbindungen in kurzer Prozesszeit von weniger als 0,5 s erzielt werden. Die Bildung weiterer Sprödphasen außerhalb des eutektischen Systems wird durch die Limitierung der Spitzentemperatur und des Energieeintrags verhindert. Zusätzlich kann die Schmelzebildung als Reduzierung des Materialwiderstands während des kraftgeregelten Prozesses detektiert und diese für weitere Prozessansätze genutzt werden. Weitere Optimierungsansätze zeigen sich beim Übertrag auf weitere Pressschweißverfahren und Bauteilgeometrien.



https://doi.org/10.22032/dbt.50162
Rudloff, Johannes;
Modellbildung und Vorabschätzung für das Betriebsverhalten eines Planetwalzenextruders. - Ilmenau : Universitätsbibliothek, 2021. - 1 Online-Ressource (vi, 143 Seiten)
Technische Universität Ilmenau, Dissertation 2021

Der Planetwalzenextruder hat sich als Spezialist unter den Compoundierextrudern für die Aufbereitung von temperaturempfindlichen Kunststoffen etabliert. Im Vergleich zu anderen Extrusionssystemen ist der Kenntnistand zum Materialtransport, des Energieeintrags und des Aufschmelzens in der Maschine jedoch mangelhaft. Insbesondere analytische Modelle zur Beschreibung des Prozessverhaltens von Planetwalzenextrudern fehlen vollständig. Dies wird bei der Auslegung und Optimierung von Extrusionsprozessen mit dem Planetwalzenextruder durch die steigende Komplexität der Prozesse zunehmend zum Problem. Diese Arbeit zum Thema "Modellbildung und Vorabschätzung für das Betriebsverhalten eines Planetwalzenextruders" soll einen Beitrag zur Lösung dieser Herausforderung liefern. In der vorliegenden Arbeit wird eine mathematische Beschreibung der Geometrie- und Geschwindigkeitsverhältnisse im Planetwalzenextruder entwickelt. Darauf aufbauend werden Modellierungsansätze aus der Ein- und Doppelschneckenextrudertheorie an die Geometrie- und Prozessbedingungen des Planetwalzenextruders angepasst. Hierzu werden die Teilbereiche Materialförderung, Plastifizierung, Temperatur- und Leistungseintrag getrennt modelliert und anschließend gekoppelt. Experimentelle Betrachtungen werden dabei für die Modellbildung und Validierung genutzt. Damit steht ein Simulationswerkzeug zur Verfügung, das wichtige Prozesskenngrößen wie Druck, Temperatur, Aufschmelzgrad, Viskosität, Schergeschwindigkeit und Verweilzeit entlang des Planetwalzenextruders bestimmen und darstellen kann. Für die untersuchten Materialien wird in den Berechnungen eine Vorhersageunsicherheit von etwa 20 % erreicht. Die entwickelten Modelle stellen damit einen ersten Schritt für eine simulationsunterstützte Auslegung von Extrusionsprozessen mit dem Planetwalzenextruder dar.



https://doi.org/10.22032/dbt.50333
Kreismann, Jakob;
Three-dimensional optical microcavities: from geometric phases to tailored far-field emission. - Ilmenau : Universitätsbibliothek, 2021. - 1 Online-Ressource (iii, 204 Seiten)
Technische Universität Ilmenau, Dissertation 2021

Diese Arbeit behandelt dreidimensionale optische Mikrokavitäten in Bezug auf ihre Resonanzmoden. Die optischen Mikrokavitäten reichen dabei von Möbiusband-Kavitäten über zylindrische und kegelförmige Ringkavitäten sowie kegelförmige Tube-Kavitäten bis hin zu Arrays von Lima¸con-Kavitäten. Im ersten Teil werden flüstergalerieartige Moden von dielektrischen Möbiusband-Kavitäten mit Hilfe von FDTD-Simulationen untersucht. Die Topologie des Möbiusbands erlaubt die Entstehung einer geometrischen Phase und zwar der Pancharatnam-Phase. Darauf aufbauend wird untersucht, wie die Pancharatnam-Phase durch Verkürzung der Länge des verdrehten Anteils oder durch Erhöhung der Dicke des Möbiusbands manipuliert werden kann. Dabei untersuchen wir, wie die Polarisation und die Fernfelder der flüstergalerieartigen Moden beeinflusst werden. Außerdem wird die Nonagon-Möbiusband-Kavität - eine Möbiusband-Kavität mit Querschnittsform dreifacher Rotationssymmetrie - eingeführt, die ebenfalls eine Manipulation der Pancharatnam-Phase ermöglicht. Im zweiten Teil werden propagierende flüstergalerieartige Moden in zylindrischen Ringkavitäten, konischen Ringkavitäten und konischen Tube-Kavitäten mittels FDTD-Simulationen und vektorieller Beugungstheorie untersucht. Der propagierende Charakter der Moden ermöglicht die sogenannte Spin-Richtungs-Wechselwirkung des Lichts. Darauf aufbauend wird untersucht, wie die Fernfeldpolarisation durch die axiale Morphologie der flüstergalerieartigen Moden und durch geometrische Eigenschaften der Kavitäten wie die Öffnungswinkel von konischen Ring- und Tube-Kavitäten beeinflusst wird. Mit Hilfe vektorieller Beugungstheorie wird ein qualitativer Zusammenhang zwischen den lokalen Eigenschaften der Moden im Inneren der Kavität und der Fernfeldpolarisation beschrieben. Dabei wird die Rolle von Beugung und Präzession des elektrischen Feldvektors um die Kavitätenachse diskutiert. Es wird gezeigt, dass elliptische und zirkulare Polarisationszustände im Fernfeld unmittelbar durch propagierende flüstergalerieartige Moden auftreten, auch ohne inhomogenes oder anisotropes Kavitätenmaterial. Im dritten Teil wird die Fernfeldabstrahlung von linearen Arrays bestehend aus Lima¸con-Kavitäten mithilfe von FDTD-Simulationen untersucht. Während das Fernfeld einer einzelnen Lima¸con-Kavität gerichtete Emission aufweist, wird untersucht, wie sich diese gerichtete Emission in Abhängigkeit der Arrayeigenschaften wie dem Abstand zwischen den Kavitäten und der Anzahl der Kavitäten ändert. Es wird gezeigt, dass die Abstrahlung des Arrays entweder weiter verstärkt (Superdirektionalität) oder sogar umgekehrt Kavitäten werden kann (Richtungsumkehr).



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2021000314
Häfner, Stephan;
Parameter estimation for broadband mm-wave FMCW MIMO radars - a model-based system identification perspective. - Ilmenau : Universitätsbibliothek, 2021. - 1 Online-Ressource (xviii, 244 Seiten)
Technische Universität Ilmenau, Dissertation 2021

Radaranwendungen für das tägliche Leben haben in den letzten Jahrzehnten immer mehr an Bedeutung gewonnen. Radarsensoren werden in verschiedensten Bereichen eingesetzt, z.B. in Autos, in der industriellen Automatisierung, in medizinischen Anwendungen usw. FMCW-Radare sind hierbei populär. Ihre architektonische Einfachheit und die jüngsten Entwicklungen im Bereich integrierter Schaltkreise erleichtern die System-on-Chip-Realisierung von FMCW-Radaren. Darüber hinaus sind MIMO-Radare ein aufkommender Technologietrend zukünftiger Radarsysteme. Solche Radare bieten neben der Entfernungs- oder Dopplerbestimmung eine Vielzahl neuartiger Möglichkeiten. Kombiniert mit der Einfachheit der Hardware von FMCW-Radaren werden somit neue Anwendungsfelder adressierbar. Neben der Radar-Hardware ist die Signalverarbeitung ein elementarer Bestandteil einer jeden Radaranwendung. Ein wesentlicher Teil der Radarsignalverarbeitung ist die Zielerfassung und die Schätzung der zugehörigen Parameter aus den Radarbeobachtungen. Die geschätzten Parameter dienen als Eingangsdaten für alle nachfolgenden Verarbeitungsschritte. Die Radarsignalverarbeitung ist hierbei untrennbar mit der Hardware und dem Anwendungszweck verbunden. Breitbandige Radare, d.h. Radare mit großer Signalbandbreite und räumlicher Apertur, bieten eine hohe räumliche und zeitliche Auflösung. Klassische Methoden der Schätzung von Zielparametern beruhen auf Annahmen bezüglich der Radararchitektur oder der Bandbreite. Diese Annahmen sind bei breitbandigen Radaren nicht erfüllt. Daher sind neuartige Signalverarbeitungsmethoden notwendig um einerseits die Möglichkeiten des Radarsystems voll auszuschöpfen, sowie Verarbeitungsproblemen, die durch das Radar selbst verursacht werden, zu bewältigen. In dieser Arbeit wird die Signalverarbeitung für ein breitbandiges FMCW-MIMO-Radar dargestellt, welches im mm-Wellen-Frequenzbereich arbeitet. Die Entwicklung geeigneter Signalverarbeitungsmethoden erfordert hierbei einen Paradigmenwechsel in der Betrachtung der Radaranwendung. Im Gegensatz zu der klassischen Betrachtung von Radar, bei der Radar hauptsächlich vor dem Hintergrund der hardwarebedingten Zielerkennung betrachtet wird, soll hier ein anderer Gesichtspunkt herangezogen werden. Radar wird als eine Anwendung der Systemidentifikation im Bereich der drahtlosen Wellenausbreitung betrachtet. Die Parameter eines Modells beschreiben die Ausbreitung elektromagnetischer Wellen in Raum-, Frequenz- und Zeitbereich. Diese Parameter können Radarzielen zugeordnet, und deren Auswertung zur Zielortung ausgenutzt werden. Daher wird das Radar in Verbindung mit der Schätzung von Modellparametern als ein Problem der modellbasierten Systemidentifikation betrachtet. Die modellbasierte Systemidentifikation aus verrauschten Messungen ist ein stochastisch inverses Problem. Aus der Literatur ist eine Vielzahl von Verfahren zur Lösung solcher Probleme bekannt, welche hinsichtlich des Modells sehr flexibel sind. Diese Flexibilität ermöglicht die Entwicklung von dedizierten Methoden der Signalverarbeitung, welche auf die Radar-Hardware zugeschnitten, und nicht auf dedizierte Annahmen über z.B. die Signalbandbreite beschränkt sind. Die Betrachtung von Radarsignalverarbeitung als modellbasierte Systemidentifikation ermöglicht es somit, geeignete Signalverarbeitungsmethoden für das betrachtete Radar zu entwickeln.



https://doi.org/10.22032/dbt.50286
Fischer, David;
Computer generated holography for 3D lithographic illumination. - Ilmenau : Universitätsbibliothek, 2021. - 1 Online-Ressource (xv, 91 Seiten)
Technische Universität Ilmenau, Dissertation 2021

Maskenlose holographische Lithographiesysteme nutzen die Möglichkeiten der gezielten Lichtformung in Phase und Amplitude durch Holographie, die für die Projektion zwei- und dreidimensionaler Muster genutzt werden kann. Das Ziel ist die strukturierte Belichtung von Fotoresist, wodurch das Einbringen von Strukturen in den Resist ermöglicht wird. Die computergenerierten Hologramme (CGH) werden dabei mittels Algorithmen berechnet und auf einem räumlichen Lichtmodulator (SLM) dargestellt. In dieser Arbeit wird ein solches System entwickelt, bestehend aus geeigneten Algorithmen zur Hologrammberechnung, einem Lichtmodulator zur Darstellung der Hologramme, einem optischen Projektionssystem mit Laser als Lichtquelle, sowie einem Positionierungssystem für zu belichtende Fotoresists auf Substraten. Durch gezielte Optimierung der Parameter der Berechnungs- und Darstellungsmethoden sowie des optischen Projektionssystems werden Muster projiziert, welche ein Einbringen von mikrometergroßen Strukturen in Fotoresist ermöglichen. Das Erreichen guter Uniformität der Intensität der projizierten Muster ist bei holographischer Projektion eine besondere Herausforderung, da durch die Kohärenz der Lichtquelle in Verbindung mit der Hologrammberechnungsmethodik üblicherweise ein Specklekontrast entsteht, der ein Intensitätsrauschen verursacht. Da in der Mikrolithographie die Schärfentiefe üblicherweise stark begrenzt ist, sind bei Projektion auf unebenen Substraten Teile des Musters an der Substratoberfläche nicht im Fokus, somit werden verschwommene Strukturen in den Fotoresist einbelichtet. Um dies zu korrigieren, werden eine Oberflächenvermessung des zu strukturierenden Gebiets sowie eine abschnittsweise Refokussierung mittels Anpassung der Hologrammberechnung umgesetzt. Sowohl die Messung als auch die angepasste Belichtung werden parallelisiert in dem zu strukturierenden Feld durchgeführt. Für ersteres wird ein geeignetes Muster durch den Lichtmodulator projiziert, welches eine ortsaufgelöste Bestimmung der Oberflächenpositionen ermöglicht. Für letzteres werden Kurzdistanzpropagationsschritte in die Hologrammberechnung integriert, um eine gleichzeitige Projektion in mehrere Tiefenebenen zu ermöglichen. Zuletzt zeigen Belichtungstests die Leistungsfähigkeit des Systems.



https://doi.org/10.22032/dbt.50106
Wu, Yuhan;
Preparation and electrochemical properties of metal chalcogenide anode materials for potassium-ion batteries. - Ilmenau : Universitätsbibliothek, 2021. - 1 Online-Ressource (XI, 120 Seiten)
Technische Universität Ilmenau, Dissertation 2021

Unter den elektrochemischen Energiespeichersystemen der nächsten Generation werden Kalium-Ionen-Batterien (KIB) aufgrund des geeigneten Arbeitspotenzials, der hohen Sicherheit und der kostengünstigen Wettbewerbsfähigkeit für die bestmögliche Alternative zu den Lithium-Ionen-Batterien angesehen. Dennoch kann die aufstrebende Technologie noch nicht mit den Lithium-Ionen-Batterien mithalten, die umfangreiche Forschung und Kommerzialisierung besitzen. Eines der Haupthindernisse ist die unzureichende elektrochemische Leistung der KIB-Anode. Bisher wurden eine Vielzahl von Materialien als Kandidaten erforscht, darunter sind besonders Metall-Chalkogenide aufgrund ihrer einzigartigen Struktureigenschaften und hohen theoretischen Kapazitäten attraktiv. In dieser wurde das elektrochemische K+ Lagerungsverhalten von drei Metall-Chalkogenid als Anodenmaterialien untersucht. Zuerst wurde das kommerzielle Wolframdisulfidpulver zur Demonstration erprobt, um die Realisierbarkeit von WS2 als KIB-Anode zu erforschen. Als Ergebnis konnte ein ungewöhnlicher Reaktionsmechanismus zum ersten Mal beobachtet und verifiziert werden. Anschließend wurde eine Heterostruktur aus mehrlagigen KohlenstoffNanoröhren, die mit den hoch kristallisierten und ultradünnen MoSe2 Nanoblätter beschichtet sind, aufgebaut. Dabei wurde die synergetische Verstärkung des strukturierten Aufbaues, der Kohlenstoffmodifikation und der Kristallinitätsregelung für die K+ Speicherfähigkeit des zweidimensionalen Metall-Chalkogenid aufgedeckt. Schließlich wurde ein neuartiges kristallartiges Fe1-xS synthetisiert und als Anodenmaterial in KIBs angewendet. Dabei hat sich eine starke Wettbewerbsfähigkeit in Bezug auf Kosten und elektrochemischer Leistung herausgestellt. In dieser Arbeit wurden nicht nur drei vielversprechende KIB Anodenmaterialien hergestellt, sondern auch ein Einblick in die Entwicklung einer kostengünstigen elektrochemischen Energiespeichertechnologie gewährt.



https://doi.org/10.22032/dbt.50121
Hömmen, Peter;
Realization of current density imaging using ultra-low-field MRI. - Ilmenau : Universitätsbibliothek, 2021. - 1 Online-Ressource (xvii, 158 Seiten)
Technische Universität Ilmenau, Dissertation 2021

Stromdichtebildgebung (CDI) von Strömen, die dem menschlichen Kopf aufgeprägt werden, würde eine individuelle und ortsaufgelöste Abbildung der Gewebeleitfähigkeit ermöglichen. Diese ist für eine zuverlässige funktionale Bildgebung neuronaler Aktivität und für Neuromodulation von zentraler Bedeutung. Magnetresonanztomographie (MRT) ermöglicht CDI nicht-invasiv über die Erfassung des Magnetfeldes BJ, welches aus der Stromdichte J resultiert. Die konventionelle MRT im Hochfeld ist bei der Messung von BJ auf eine Raumrichtung limitiert, was die Rekonstruktion des vollen Stromdichtevektors deutlich erschwert. MRT im Ultra-Niedrigfeld (ULF) eröffnet neue Möglichkeiten für CDI. Magnetfelder, erzeugt von Raumtemperaturspulen, können innerhalb einer Pulssequenz beliebig geschalten werden. Dies ermöglicht zero-field encoding, eine Sequenz, bei der alle Komponenten von BJ im Nullfeld detektiert werden. Bisher konnte zero-field encoding mittels ULF MRT nicht realisiert werden, vorwiegend wegen Schwierigkeiten beim definierten Schalten der Magnetfelder. Darüber hinaus ist ein hohes Signal-Rausch-Verhältnis (SNR) erforderlich, weil die an einen Menschen angelegten Ströme durch Sicherheitsvorschriften begrenzt sind. Diese Arbeit beschreibt die Entwicklung und Charakterisierung eines ULF-MRT-Aufbaus, der in-vivo CDI ermöglicht. Hauptmerkmale sind die Möglichkeit zur definierten Manipulation der Magnetisierungsrichtung, die Fähigkeit alle MRT-Felder nahezu instantan zu schalten und eine sehr hohe Sensitivität. Außerdem wurde die Sequenz modifiziert, sodass durch ein Kalibrierverfahren Phasenverschiebungen, resultierend aus BJ, von den Effekten der Pulssequenz getrennt werden können. Die Methoden wurden erfolgreich in Phantommessungen validiert. BJ und J wurden für 2 mA Ströme in verschiedenen Richtungen zuverlässig rekonstruiert. Diese Demonstration ist die erste Rekonstruktion des vollen J-Vektors auf der Grundlage einer nicht-invasiven Methodik. Bei Stromdichteverteilungen im Bereich der in-vivo erwartbaren Größenordnungen zeigte sich jedoch eine weitere notwendige Verbesserung des SNR. Die Sensitivität wurde zusätzlich theoretisch untersucht, wobei eine Beziehung zwischen dem SNR im Bildbereich und der Unsicherheit der Feldrekonstruktionen zugrunde gelegt wurde. Die Erkenntnisse aus den Phantommessungen und der Sensitivitätsanalyse veranlassten eine Weiterentwicklung des ULF-MRT-Aufbaus. In MRT-Simulationen mit einem realistischen Kopfmodell konnte gezeigt werden, dass die Empfindlichkeit des Systems ausreichend ist um BJ intrakraniell mit einem SNR[BJ] > 10 darzustellen. Schließlich wurden zwei Demonstrationsmessungen durchgeführt, eine mit einem realistischen Kopfphantom und die andere an einem Freiwilligen, in einer tatsächlichen in-vivo Anwendung. Unter Berücksichtigung weiterer möglicher Verbesserungen stimmten die Rekonstruktionen gut mit den Simulationen überein.



https://doi.org/10.22032/dbt.49343
Sousa, Marcelo Nogueira de;
Multipath exploitation for emitter localization using ray-tracing fingerprints and machine learning. - Ilmenau : Universitätsverlag Ilmenau, 2021. - 1 Online-Ressource (xix, 245 Seiten)
Technische Universität Ilmenau, Dissertation 2021

Die präzise Lokalisierung von Hochfrequenz (HF)-Sendern im Außenbereich ist seit einigen Jahren ein wichtiges Forschungsthema in den verschiedensten Bereichen. Heutzutage basieren die Funktionsweisen vieler elektronischer Geräte auf den Positionsdaten eines HF-Senders unter Einsatz eines drahtlosen Sensornetzwerks (Wireless Sensor Network). Räumlich getrennte Sensoren können das Signal des Senders messen und seinen Standort mit Parametern wie Ankunftszeit (Time Of Arrival), Ankunftszeitdifferenz (Time Difference Of Arrival, TDoA), empfangene Signalstärke (Received Signal Strength) oder Ankunftsrichtung (Direction Of Arrival) abschätzen. Jedoch können bestimmte Hindernisse in der Umgebung Reflexion, Beugung oder Streuung des Signals verursachen. Dieser sogenannte Mehrwegeffekt beeinträchtigt die Messungen für die präzise Lokalisierung des Senders. Frühere Studien haben die Mehrweginformationen verworfen und sie nicht als wertvoll für die Lokalisierung des Senders angesehen. Einige Studien verwendeten Ray-Tracing (RT), um in einem simulierten Szenario Positions-Fingerprints, ohne Bezug zu realen Messungen, zu erstellen. Andere wiederum testeten dieses Konzept mit realen Messdaten, was sich jedoch aufgrund der praktischen Probleme im Außenbereich als umständlicheres Verfahren herausstellte. Diese Doktorarbeit befasst sich mit dem Problem der präzisen Lokalisierung von HF-Sendern in Außenbereichen, welche von Mehrwegeffekten betroffen ist, unter Verwendung der Kanalimpulsantwort (Channel Impulse Response). Die Arbeit zielt darauf ab, die Forschungslücke zu schließen, indem die Mehrweginformationen aus der Simulation mit realen Messungen in einem maschinellen Lernrahmen kombiniert werden. Die Fragestellung war, ob die Lokalisierung durch die Verknüpfung realer Messungen mit Simulationen verbessert werden kann. Wir schlagen eine Methode vor, die die Mehrweg-Fingerprint-Informationen aus der RT-Simulation mit Referenzsendern nutzt, sodass die Standortbestimmung verbessert werden kann. Um die Wirksamkeit der vorgeschlagenen Methode zu validieren, haben wir ein TDoA Lokalisierungssystem in einem Außenbereich-Szenario implementiert. Im Rahmen dieser Dissertation untersuchten wir vorstädtische und ländliche Gebiete unter Verwendung von wohldefinierten reflektierenden Komponenten zur Charakterisierung des Mehrwegmusters. Die Ergebnisse bestätigen die Möglichkeit, Mehrwegeffekte mit realen Messdaten zu nutzen, um die Lokalisierung im Außenbereich zu verbessern. Statt die Mehrweginformationen zu verwerfen, können wir sie konkret nutzen.



https://doi.org/10.22032/dbt.49241
Westphalen, Jasper;
Implementierung eines Moduls zur großflächigen In-Line Blitzlampentemperung von gesputterten ITO-Schichten. - Ilmenau : Universitätsverlag Ilmenau, 2021. - 1 Online-Ressource (x, 109 Seiten). - (Werkstofftechnik aktuell ; Band 22)
Technische Universität Ilmenau, Dissertation 2020

Die Blitzlampentemperung (Flash Lamp Annealing - FLA) zählt zu den Kurzzeittemperverfahren (Rapid Thermal Annealing - RTA), da die Erwärmung und Abkühlung der Schicht im Bereich von Millisekunden liegen. Die mit Hilfe von Blitzlampen durchgeführte Temperung dient zur oberflächennahen Erwärmung von Festkörpern. Hierbei handelt es sich um einen thermischen Prozess, der Materialeigenschaften verändern kann. Durch die Blitzlampentemperung kann der Schichtwiderstand von transparenten leitfähigen Oxidschichten (Transparent Conductive Oxides - TCO) reduziert und die Transmission im sichtbaren Wellenlängenbereich erhöht werden. In der vorliegenden Forschungsarbeit wird das Prozessverhalten von dynamischen FLA-Prozessen bei Indium-Zinn-Oxid (ITO) Schichten experimentell dargelegt. Dazu wurde der Einfluss von verschiedenen Prozessparametern wie Energiedichte und Pulszeit des Xenonlichtblitzes erforscht. Erste Versuche zur Untersuchung des Einflusses der Blitzwiederholrate und der Geschwindigkeit des Substrates ließen sich erfolgreich durchführen. Die Herstellung aller Schichten erfolgte am Fraunhofer-Institut für Organische Elektronik, Elektronenstrahl- und Plasmatechnik (FEP) in der In-Line Sputteranlage ILA 750. Für die Blitzlampentemperung wurde das Lampensystem Xenon Flash Lamp Modul FLA 2x360w der Firma ROVAK GmbH genutzt. Das Modul ist Bestandteil der Beschichtungsanlage ILA 900 am Fraunhofer FEP und erlaubt sowohl die statische als auch die dynamische FLA-Behandlung von Substraten bis zu einer Größe von 600 mm x 1200 mm. Die unterschiedlichen Einstellungen der Blitze ließen sich optisch vermessen. Für ITO-Schichten mit einer Schichtdicke von 150 nm konnte nach der FLA-Behandlung ein Widerstand von 14 [Ohm] erreicht werden. Für die Transmission im sichtbaren Wellenlängenbereich wurden 87 % erzielt. Diese Werte sind vergleichbar mit einer konventionellen Temperung von ITO-Schichten im Ofen. Erfolgreich ließ sich zeigen, dass der FLAProzess an eine bestehende In-Line Prozessanlage implementiert werden kann.



https://doi.org/10.22032/dbt.49068
Hunold, Alexander;
Transcranial electric stimulation : modeling, application, verification. - Ilmenau : Universitätsbibliothek, 2021. - 1 Online-Ressource (verschiedene Seitenzählungen)
Technische Universität Ilmenau, Dissertation 2021

Die Verwendung von Elektrizität zur Beeinflussung neuronaler Aktivität weckte das Interesse neurowissenschaftlicher Forschung und zeigt bereits seit einigen Jahrhunderten therapeutische Wirkungen. In den letzten Jahrzehnten fand die nicht-invasive Anwendung schwacher Ströme von wenigen Milliampere am Kopf, bezeichnet als transkranielle Elektrostimulation (tES), in den Neurowissenschaften und der klinischen Forschung vielfältige Anwendungen. Die konventionell aufwendige implementierte Elektrodenschnittstelle und eher unspezifische Verteilung der Stimulationsströme benötigen jedoch weitere Innovationen und Verifikationen. Die vorliegende Arbeit befasst sich mit der Modellierung des Stromflusses für die gezielte Elektrostimulation, mit der Entwicklung von Elektrodenkonzepten für die Stromeinprägung, sowie mit mess-technischen Ansätzen zur Verifikation von Stimulationskonfigurationen. Simulationen transorbitaler Stromstimulationen zeigten Stromdichteverteilungen in der Netzhaut, die in Abhängigkeit von der Elektrodenmontage deutlich unterschiedliche lokale Maxima aufwiesen. In ähnlicher Weise wurden orts- und orientierungsspezifische Ziele im Kortex mit Simulationen von Konfigurationen mehrerer Elektroden auf dem Kopf adressiert. Diese Simulationen zeigten die Realisierbarkeit zielgenauer Stimulationskonfigurationen für die Retina und Zielgebiete im Kortex. Für die Stimulationsanwendung wurden neue Konzepte auf Basis von textilen Elektroden mit integriertem Elektrolytreservoir und gedruckten Trockenelektroden eingeführt, die in flexiblen Hauben eingearbeitet sind. Diese neu entwickelten Elektroden zeigten ihre Funktionalität in Studien, die zuvor beschriebenen Effekte der Stromstimulation reproduzierten, wobei sie die Präzision und Reproduzierbarkeit der Stimulation erhöhten und den Vorbereitungsaufwand verringerten. Für technische Verifikationsexperimente wurden ein homogener Volumenleiter und ein realistisch geformtes dreischichtiges Kopfphantom physikalisch realisiert. Messtechnische Experimente an diesen Phantomen zeigten die Machbarkeit von Stimulationskonfigurationen mit mehreren Elektroden, insbesondere den Ansatz der zeitlichen Interferenz, und verifizierten die Stabilität der neuen Elektrodenkonzepte. Zusammenfassend trägt die vorliegende Arbeit zu Innovationen auf dem Gebiet der tES bei, indem ein neuer Multi-Elektroden-Ansatz für die Adressierung kortikaler Ziele, neuen angepassten Elektrodenkonzepte und physikalische Phantome für die metrologische Verifikation beschrieben werden.



https://doi.org/10.22032/dbt.49291
Zhang, Huanming;
Cost-effective methods for anodic aluminum oxide templates transfer and replication. - Ilmenau, 2021. - XVI, 93 Blätter
Technische Universität Ilmenau, Dissertation 2021

Zusammenfassung Geordnete Nanostruktur-Arrays zeigen immer eine überlegene Leistung gegenüber ihren ungeordneten Gegenstücken. Die templatgesteuerte Herstellung von AAO (anodisches Aluminiumoxidoxid) ist im Vergleich zu Lithographie und Selbstorganisation eine relativ kostengünstige Technik. Im Allgemeinen können AAO-Schablonen in normale Schablonen und ultradünne AAO-Membranen (UTAM) mit Durchgangsloch klassifiziert werden. Bei normalen AAO-Schablonen machen nicht wiederverwendbare AAO-Schablonen den gesamten Herstellungsprozess sehr ineffizient und haben Umwelt- und Energieprobleme, wenn man den aktuellen Prozess der Herstellung und Veredelung des für die Anodisierung verwendeten Aluminiums berücksichtigt. Bisher gibt es nur wenige Berichte über die zerstörungsfreie Replikation von AAO-Matrizen auf Metallbasis, da das Infiltrieren des Metalls in die Poren von AAO-Matrizen nur schwer möglich ist. Das UTAM wird häufig als Schablonenmaske verwendet. Die Übertragung von UTAMS auf Zielsubstrate ist schwierig. Obwohl die Übertragung von UTAM im Wafer-Maßstab auf hydrophile Substrate demonstriert wurde, stehen aktuelle Verfahren immer noch vor der großen Herausforderung, fehlerfrei auf beliebige Substrate zu übertragen. Bisher wurden fast keine Anstrengungen unternommen, um die Abhängigkeit von den hydrophilen Substraten zu überwinden, was die umfassendere Anwendung von UTAMS einschränkt. Daher ist es praktisch wichtig, eine universelle Übertragungsmethode zu entwickeln, um faltenfreies UTAM auf beliebigen Substraten zu erhalten. In dieser Dissertation konzentrieren wir uns auf die beiden Themen und schlagen entsprechende Lösungen vor. Zunächst wenden wir eine zweistufige Abscheidungsstrategie an, um die AAO-Poren mit Metallen zu filtrieren und anschließend mechanisch zu extrahieren. Wir haben diese Methode erfolgreich auf drei verschiedene Metallarten angewendet. Darüber hinaus wurden auch Kern-Schale-Metall-Nanostrukturen hergestellt. Überdies wird auch die Anwendung der Metallnanostruktur-Arrays bei der optischen Fälschungssicherheit demonstriert. Zweitens schlagen wir eine gasströmungsunterstützte Entnetzungsmethode vor, um faltenfreies UTAM im Zentimeterbereich auf beliebige Substrate zu übertragen. Dieses Verfahren kann leicht durchgeführt werden, indem Druckluft verwendet wird, um das eingeschlossene Tröpfchen zwischen dem UTAM und dem Zielsubstrat herauszudrücken, wodurch die Kontaktwinkelhysterese ausgenutzt wird, um das eingeschlossene Tröpfchen auszudehnen und gleichzeitig die Membran während einer schnellen Entnetzung zu dehnen, die durch den Gasstrom angetrieben wird. Darüber hinaus bleiben die ursprünglichen Oberflächeneigenschaften der Zielsubstrate nach dem Transfer im Vergleich zu anderen Verfahren unverändert. Überdies haben wir diese Methode auch erfolgreich auf gekrümmte Substrate angewendet.



Warda, Ahmad;
Sensor configuration for source localization by means of linear inverse methods. - Ilmenau, 2021. - xxiv, 96 Seiten
Technische Universität Ilmenau, Dissertation 2021

Sensornetzwerk-Systementwurf muss den Informationsgehalt der Messungen maximieren und gleichzeitig das Experiment mit einem minimalen Messaufwand durchführen zu ermöglichen. Deshalb ist die optimale Sensorkonfiguration für den Entwurf eines Sensorsystems unverzichtbar. Dies führt zu einer Reduzierung der Kosten, der Komplexität mit einer Gewährleistung der hohen Leistung des Sensorsystems. Eine allgemeine Methode dafür ist noch nicht bekannt. In dieser Dissertation ist eine neue Methode entwickelt worden, um eine hinreichende informative Anzahl der Sensoren zu bestimmen. Diese Methode basiert auf dem Informationsgehalt in der Systemmatrix eines linearen inversen Problems. Die linearen inversen Probleme tauchen in verschiedenen Anwendungen der Wissenschaft und Technik auf. Die entwickelte Methode lässt sich bei einer Vielzahl linearer inverser Probleme anwenden. Die entwickelte Methode wurde an zwei unterschiedlichen Anwendungen erprobt. Die erste Anwendung ist die drahtlose Innenraum-Lokalisierung. Sie wurde als Beispiel für ein unterbestimmtes lineares inverses Problem betrachtet. Die notwendige Anzahl der Sensoren ist auf der Basis des Informationsgehaltes in der Systemmatrix zu bestimmen. Diese Anzahl der Sensoren gewährleistet die korrekte und präzise Lösung des inversen Problems. Die zweite Anwendung ist die Rekonstruktion von magnetischer Nanopartikelverteilung mittels Magnetorelaxometrie, die als Beispiel für ein überbestimmtes lineares inverses Problem betrachtet wurde. Eine hinreichende Anzahl der Anregungsspulen wurde auch auf der Basis des Informationsgehaltes in der Systemmatrix bestimmt. Die entwickelte Methode bietet auch eine interessante Möglichkeit, um die Regularisierungsparameter der abgeschnittenen Singulärwertzerlegung zu ermitteln. Für die Aufgabe der drahtlosen Innenraum-Lokalisierung wurden zwei Methoden für die Lokalisierung einer Quelle eingeführt. Die Scanmethode verwendet drei Sensoren wie die Trilateration, um die Quelle in 2D zu lokalisieren. Diese Methode überwindet die Nachteile der Fingerprint-Methode abgebildet durch den Aufbau und Aktualisierung der Datenbanken. Die zweite Methode, benannt als die analytische Lösung, kann die Quelle mit nur zwei Sensoren lokalisieren. Diese Methode löst das Undeutigkeitsproblem der Lokalisierung bei der Verwendung von zwei Sensoren, indem sie die Sensoranordnung berücksichtigt.



Marin, Sebastian;
Entwicklung eines Temperatur-Blockkalibrators mit Temperaturabsolutwertbezug. - Ilmenau : Universitätsbibliothek, 2021. - 1 Online-Ressource (II, 155 Seiten)
Technische Universität Ilmenau, Dissertation 2021

Temperatur-Blockkalibratoren werden sehr häufig in der Industrie und in Kalibrierlaboratorien bei Vergleichskalibrierungen von Berührungsthermometern als Temperiereinrichtungen eingesetzt. Hierbei erfolgt die Temperierung der Thermometer in einem metallischen Ausgleichsblock, dessen Temperatur mit einem internen Referenzthermometer bestimmt wird. Für die Erzielung kleiner Messunsicherheiten stellen dabei die Ausbildung eines homogenen Temperaturfeldes im Ausgleichsblock sowie die Ermittlung dieser Temperatur mit rückführbar kalibrierten Referenzthermometern die größten Herausforderungen dar. In dieser Dissertation wird ein neues Konzept eines Temperatur-Blockkalibrators im Temperaturbereich von 80 &ring;C bis 430 &ring;C vorgestellt. Abweichend zum Stand der Technik besitzt der neue Blockkalibrator eine Mehrzonenheizung und Wärmestromsensoren im Ausgleichsblock. Beides sorgt für die Verbesserung der Temperaturhomogenität. Außerdem ist eine kompakte Mehrfachfixpunktzelle für die rückführbare in situ Kalibrierung des internen Referenzthermometers enthalten. Das Konzept des Temperatur-Blockkalibrators sowie seine konstruktive Realisierung werden mittels probabilistischer Berechnungen numerischer FEM-Simulationen untersucht und mit Zielrichtung bester Temperaturhomogenität im Ausgleichsblock optimiert. Auf dieses Modell gestützt werden die Heizleistungen für die Mehrzonenheizung abgeschätzt und ein Abkühlungskonzept erarbeitet. Zudem wird aus dem FEM-Modell ein Systemmodell in Zustandsraumdarstellung des Temperatur-Blockkalibrators hergeleitet. Dieses kann z.B. für eine Reglerauslegung verwendet werden. Die internationale Temperaturskala von 1990 nutzt Phasenumwandlungstemperaturen hochreiner Stoffe für ihre Definition. Diese Temperaturen FP sind idealerweise konstant, sehr gut reproduzierbar und international anerkannt. Die kompakte Mehrfachfixpunktzelle enthält die Fixpunktmaterialien Indium ([theta]FP = 156,5985 &ring;C), Zinn ([theta]FP = 231,928 &ring;C) und Zink ([theta]FP = 419,527 &ring;C). Anhand dieser Fixpunkttemperaturen kann das interne Referenzthermometer des Temperatur-Blockkalibrators in situ rückführbar zur internationalen Temperaturskala kalibriert werden. Der Entwicklungsprozess der kompakten Mehrfachfixpunktzelle wird in dieser Arbeit ausführlich beschrieben. Ihre Geometrie wird nach thermischen und mechanischen Kriterien entworfen und auf Grundlage von probabilistischen Berechnungen mit FEM-Modellen optimiert. Ausgehend von einer Langzeitmessung wurden Unsicherheiten für die drei Fixpunkttemperaturen von kleiner als 60 mK (k = 2) bestimmt.



https://doi.org/10.22032/dbt.49288
Antonakakis, Marios;
The effect of experimental and modeling parameters on combined EEG/MEG source analysis and transcranial electric stimulation optimization of somatosensory and epilepsy activity. - Ilmenau : Universitätsbibliothek, 2021. - 1 Online-Ressource (x, 126 Seiten)
Technische Universität Ilmenau, Dissertation 2021

Neue experimentelle und modellierende Parameter werden eingeführt, um die Auswirkungen auf die kombinierte Elektroenzephalographie (EEG) und Magnetenzephalographie (MEG) zu untersuchen - EMEG-Quellenanalyse und Optimierung der transkraniellen elektrischen Stimulation (TES) von somatosensorisch evozierter und epileptischer Aktivität. Es werden simultane Daten gemessen, einschließlich somatosensorisch evozierter Potentiale (SEP) und Felder (SEF), die durch verschiedene Stimulationstypen für gruppenbasierte Sensitivitätsuntersuchungen und spontane EEG- und MEG-Messungen für die präoperative Epilepsiediagnose hervorgerufen werden. Bei der Lösung des Vorwärtsproblems der Quellenanalyse werden individualisierte Finite-Elemente-Kopfvolumenleitermodelle konstruiert. Zu diesem Zweck wird ein quasi-automatisches Bildverarbeitungsverfahren eingeführt, das T1-gewichtete und T2-gewichtete MRTs kombiniert. Zur realistischen Modellierung der leitfähigen Eigenschaften des Gehirns wird die Diffusionstensor-Bildgebung verwendet. Die Leitfähigkeit des Schädels wird aufgrund ihrer hohen Variabilität zwischen den Probanden und ihres Einflusses auf EEG- und EMEG-Quellenrekonstruktionen individuell kalibriert. Es wird auch dargestellt, wie unterschiedliche Stimulationsarten, Kopfmodelle und Messmodalitäten (EEG, MEG oder EMEG) die Quellenrekonstruktion der SEP/SEF-Antwort bei 20 ms nach dem Stimulus (P20/N20) und das Targeting bei der mehrkanaligen TES-Optimierung beeinflussen. Die Inter-Subjekt-Variabilität der Schädel-Leitfähigkeit und -Dicke über das Alter wird nicht-invasiv untersucht. Schließlich wird die EMEG-Quellenanalyse mit realistischen Kopfmodellen, die Schädelgratlöcher beinhalten, für die präoperative Diagnose eines medikamentenresistenten Epilepsiepatienten evaluiert. Die optimierte TES wird als Alternative zur Operation zur Unterdrückung epileptischer Anfälle untersucht. Die Ergebnisse zeigen, dass das MEG die P20/N20-Lokalisation stabilisiert und das EEG zur Bestimmung der Quellenorientierung beiträgt. Die Komplementarität beider Modalitäten im EMEG kann auf der Basis von detaillierten und individualisierten Kopfmodellen ausgenutzt werden. Anschließend wird berichtet, dass optimierte TES-Elektrodenmontagen von der P20/N20-Orientierungskomponente beeinflusst werden. Für die Kopfmodellierung wird dargestellt, dass die Variabilität der Leitfähigkeit und der Dicke des Schädels zwischen den Probanden groß ist und bei der Quellenanalyse und TES berücksichtigt werden sollte. In dieser Hinsicht sind das Alter der Probanden und die Schädeldicke signifikant mit der Leitfähigkeit des Schädels verbunden. Bei der präoperativen Epilepsiebeurteilung weist die EMEG-Quellenanalyse mit kalibrierten und anisotropen Kopfmodellen auf eine fokale kortikale Dysplasie (FCD) zu Beginn der epileptischen Spike-Spitze hin. Vereinfachte Kopfmodelle, die Verwendung einer einzelnen Modalität oder Zeitpunkte in der Nähe des Spike-Peaks verursachen nicht zu vernachlässigende Einflüsse auf die Bestimmung der FCD. Schließlich spiegeln Änderungen an der Kopfmodellierung erhebliche Einflüsse auf die optimierte TES und den Fluss der injizierten Gleichströme zur FCD wider.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2021000093
Brandel, Oliver;
Methode zur Ansteuerung einer Multiplexausleseschaltung für kryogene Sensorarrays mittels supraleitender Digitalelektronik. - Ilmenau : Verlag ISLE, 2021. - xviii, 130, III Seiten. - (Forschungsberichte aus dem Institut für Informationstechnik ; Band 16)
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-948595-04-3

Für spektroskopische und bildgebende Anwendungen im Sub-Millimeter-Wellenlängenbereich sind supraleitende Strahlungssensoren aufgrund ihrer außergewöhnlichen Empfindlichkeit von besonderem Interesse. Dabei steigt die Anzahl der in einem Array integrierten Sensoren stetig. Dies erfordert Multiplexverfahren, um die Anzahl der Leitungen, die in die Kryostufe führen, zu reduzieren und damit den Wärmeeintrag zu verringern. Eine Implementierung des Codemultiplexverfahrens verwendet Stromsteuerungsschalter (CSS) als Polaritätsschalter, die auf supraleitenden Quanteninterferometern (SQUIDs) basieren. Die vorliegende Arbeit stellt ein Konzept vor, das eine supraleitende Digitalelektronik (RSFQ) zur Steuerung dieser Schalter verwendet. Die SQUIDs des CSS werden dafür jeweils induktiv mit der Speicherschleife eines RSFQ-Delay-Flip-Flops (DFF) gekoppelt. Eine Zustandsänderung in den DFFs erfolgt durch Speicherung eines magnetischen Flussquants, die wiederum eine Änderung des magnetischen Flusses in den gekoppelten SQUIDs bewirkt. Damit lässt sich der Signalweg durch den CSS beeinflussen und die Polarität des Schalters steuern. Über eine Kaskadierung mehrerer dieser RSFQ-gekoppelten Schalter in Reihe lassen sich CSS-basierte Multiplexerschaltungen aufbauen. Der Zustand des Multiplexers kann dadurch mittels digitaler RSFQ-Signale gesteuert werden. Die notwendigen Schritte zur Umsetzung des Konzepts sind ausführlich in der Arbeit beschrieben. Die Ausgangskomponenten sowie die neu entwickelten Schaltelemente wurden mit Hilfe von Simulationsrechnungen analysiert beziehungsweise entworfen und anschließend experimentell validiert. Dazu wird auch deren Leistungsfähigkeit miteinander verglichen. Die Schritte für eine Implementierung der neuen Bauelemente zu Multiplexerschaltungen werden vorgestellt. Darüber hinaus wurden Maßnahmen aufgezeigt und diskutiert, welche für einen Einsatz des Systems im sensornahen Betrieb erforderlich sind. Erste Umsetzungen wurden im Rahmen der Arbeit bereits realisiert.



Böttcher, René;
Elektrochemische Abscheidung von Aluminium und Aluminiumlegierungen aus ionischen Flüssigkeiten. - Ilmenau : Universitätsbibliothek, 2021. - 1 Online-Ressource (xiii, 100, LIX Seiten)
Technische Universität Ilmenau, Dissertation 2021

Die galvanische Abscheidung von Aluminium aus ionischen Flüssigkeiten (ILs) hat großes Potential für den Ersatz umweltbedenklicher Cd-Beschichtungen. Aufgrund der Ausbildung der natürlichen Al2O3 Schicht bei Kontakt mit Luftsauerstoff, ist Al nur bedingt für den kathodischen Korrosionsschutz geeignet. Um die Bildung der Oxidschicht einzuschränken, muss Al legiert werden. Trotz intensiver Forschung ist die Al-Abscheidung aus ILs noch nicht gänzlich verstanden. Der Einsatz löslicher Al Anoden ist weit verbreitet, die anodische Passivierung bei hohen Stromdichten ist aber ein limitierender Faktor, dessen Ursache noch nicht eindeutig geklärt wurde. Die Abscheidung von Al Legierungen wurde intensiv untersucht, ihre Eignung für den kathodischen Korrosionsschutz unter Umgebungsbedingungen wurde allerdings noch nicht ausreichend thematisiert. In dieser Arbeit wird die Abscheidung von Al, AlCr, AlZn und AlSn aus Chloraluminat-ILs untersucht. Die Elektrodenkinetik der Al Auflösung und Abscheidung sowie die Raten bestimmenden Schritte wurden mittels zyklischer Voltammetrie (CV), Impedanzspektroskopie und Chronopotentiometrie (CP) untersucht und Reduktions bzw. Oxidationsmechanismen wurden vorgeschlagen. Mittels linearer Polarisation (LSV), elektrochemischer Quarzmikrowaage (EQCM), CV und CP konnte die Ursache anodischer Passivierung ermittelt werden. Die Wirkungsweise der Vorbehandlung von Stahl mit anodischer Polarisation in der IL wurde untersucht und die Haftungsverbesserung wurde mit der mechanischen Verzahnung der Schicht im Substrat begründet. Die Abscheidung von AlCr, AlZn und AlSn auf Stahl wurde mittels CV, EQCM, REM, EDX und XRD charakterisiert. Ihr Korrosionsverhalten wurde in Hinblick auf den kathodischen Korrosionsschutz mittels LSV, neutralem Salzsprühnebeltest (NSS Test) und Freibewitterung (EE Test) untersucht. Al und AlZn bieten hervorragenden Korrosionsschutz im NSS Test. AlCr und AlSn versagen binnen weniger Tage. Im Gegensatz zu den anderen Beschichtungen, verzögert AlZn im EE Test die Bildung von Rotrost für mehr als ein Jahr, was es zu einer vielversprechenden Alternative zu Cd macht. Die Komplexierung der Metallionen in den Elektrolyten wurde mittels RAMAN Spektroskopie und DFT aufgeklärt. Es wurde gezeigt, dass sich Komplexe der Struktur [Me(AlCl4)3]- (Me = Zn, Sn) bilden.



https://doi.org/10.22032/dbt.48729
Mehler, Alexander;
Two-dimensional materials on metal surfaces: impact on molecular frontier orbitals, vibrons and the moiré effect. - Ilmenau : Universitätsbibliothek, 2021. - 1 Online-Ressource (viii, 127 Seiten)
Technische Universität Ilmenau, Dissertation 2021

In der vorliegenden Arbeit wird das Wachstum der zweidimensionalen Materialien Graphen und hexagonales Bornitrid (h-BN) auf den beiden metallischen Oberflächen Pt(lll) und Ru(000l), sowie die Interaktion eines organischen Moleküls mit diesen Probenoberflächen, mit Hilfe eines Rastertunnelmikroskops untersucht. Zuerst wird das Wachstum und die strukturellen Eigenschaften von Graphen und h-BN auf beiden metallischen Oberflächen beleuchtet. Dabei wird eine chemische Gasphasenabscheidungsmethode (CVD) mit dem Ausgangsstoff Ethen für das Graphenwachstum und eine alternative temperaturregulierte Wachstumsmethode (TPG) für das h-BN-Wachstum mit dem Ausgangsstoff Amminboran verwendet. Die beobachteten strukturellen Eigenschaften beider zweidimensionaler Materialen auf den jeweiligen Metalloberflächen werden diskutiert und verglichen. Auf Grundlage dieser Ergebnisse wird ein Verfahren zum Wachstum von Heterostrukturen bestehend aus Graphen und h-BN entwickelt. Die Heterostruktur wird analysiert und ein Modell mit festgelegter Rotation zwischen den einzelnen atomaren Lagen auf der Basis der experimentellen Beobachtungen erstellt. Während der Aufnahme von STM-Bildern mit verringertem Spitzen-ProbenAbstand kann eine zusätzliche hexagonale Struktur abgebildet werden. Zum Vergleich mit den experimentellen Daten wurden Dichtefunktionaltheorierechnungen (DFT) der Graphen/h-BN-Heterostruktur durchgeführt. Anschließend werden die spektroskopischen Signaturen der Molekülorbitale des organischen Moleküls Dibenzotetraphenylperiflanthen (DBP), welches auf Graphen bzw. h-BN auf Pt(lll) und Ru(00Ol) adsorbiert wird, miteinander verglichen. Veränderungen der Energie der Molekülorbitale von DBP werden genutzt, um Austrittarbeitsveränderungen auf verschiedenen Teilen des h-BNMoires zu beschreiben. Die Lücke der beiden Molekülorbitale bleibt auf verschiedenen Adsorptionsplätzen auf h-BN-bedecktem Pt(lll) unverändert, während sich die absolute Energie der Molekülorbitale gleichermaßen verschiebt. Im Gegensatz dazu ist die Energieveränderungen der Molekülorbitale auf h-BN-bedecktem Ru(000l) nicht gleichförmig, was mit einem möglichen Ladungstransfer zu begründen sein könnte. Die effiziente Reduzierung der Hybridisierung zwischen DBP und den Metalloberflächen mit Hilfe der zweidimensionalen Pufferschichten Graphen und h-BN wird weiter untersucht. Beide zweidimensionalen Materialen sorgen dafür, dass Franck-Condon-Anregungen in beiden Molekülorbitalen zu beobachten sind. Auf h-BN sind Schwingungsprogressionen mit zwei Vibrationsenergien mit verschiedenen Huang-Rhys-Faktoren und scharfen Vibrationsseitenbändern bis zur zweiten Vibrationsordnung zu sehen. Im Gegensatz dazu sind die Orbital- und Vibrationsspektrallinien auf Graphen breiter, wodurch die zweite Vibrationsprogression nicht mehr zu erkennen ist. In diesem Fall trägt also nur eine Vibrationsmode zum Franck-Condon-Spektrum bei.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2021000107
Beier, Marco;
Bestimmung der B(H)-Kennlinie an nicht genormten Proben. - Ilmenau : Verlag ISLE, 2021. - VIII, 122 Seiten
Technische Universität Ilmenau, Dissertation 2021

ISBN 978-3-948595-03-6

Die Anzahl von elektromagnetischen Aktoren ist in der Industrie und Endprodukten in der Vergangenheit stetig gestiegen. Durch technische Entwicklungen in den letzten Jahren und Jahrzehnten ist die Verknüpfung zwischen Konstruktion, Simulation, Produktion und Messtechnik stetig gewachsen und in zahlreichen wissenschaftlichen Arbeiten und technischen Richtlinien dokumentiert. Für eine effiziente und zuverlässige Vorhersage des physikalischen Verhaltens eines elektromagnetischen Aktors sind entsprechende Simulationsmodelle notwendig. Ein wichtiger Eingangsparameter in diese Modelle ist die B(H)-Kennlinie von Materialien, die nach Stand der Technik durch Messverfahren an genormten Proben bestimmt werden. In dieser Arbeit wird, aufbauend auf bekannter Messtechnik und bekannten Simulationswerkzeugen, eine neue Methode zur Bestimmung der B(H)-Kennlinien an nicht genormten Proben abgeleitet. Mit dieser Methode wird es möglich die B(H)-Kennlinie an einem Zielbauteil zu bestimmen und die Unsicherheiten aufgrund unterschiedlicher Fertigungsparameter zu Normproben zu umgehen. Die Besonderheit des hier beschriebenen Verfahrens ist, dass bestehende Messtechnik und Simulationswerkzeuge benutzt werden. Ein aufwendiger Messaufbau und zusätzliche Feldsensoren sind nicht notwendig. Das in dieser Arbeit beschriebene Verfahren wurde mit der Reluktanznetzwerkmethode theoretisch nachgewiesen. Durch die Validierung des Verfahrens an unterschiedlichen Testmodellen wurden erreichbare Genauigkeiten und deren Auswirkungen auf eine Verwendung in Simulationsmodellen beschrieben. Mit der Verifikation an einem Magnetschaltventil wurde die Übertragbarkeit auf reale Aufgabenstellungen nachgewiesen.



Caba, Stefan;
Qualitätsorientierte Prozessauslegung im Resin Transfer Molding. - Ilmenau : Universitätsverlag Ilmenau, 2021. - 1 Online-Ressource (257 Seiten). - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 11)
Technische Universität Ilmenau, Dissertation 2021

Resin Transfer Molding (RTM) als Herstellungsverfahren für Faserverbundbauteile bietet die Vorteile kurzer Zykluszeiten und niedriger Fehlstellengehalte in Form von Poren. Die Realisierung dieser beiden Ziele ist jedoch nur möglich, wenn der Einfluss der Prozesskenngrößen auf den Fehlstellengehalt bekannt ist. Hierzu wird in der vorliegenden Arbeit ein Beitrag geleistet. Die Bildung von Poren findet während der Benetzung der Faserbündel an der Fließfront des Harzes statt. Dabei entstehen aufgrund von Permeabilitätsunterschieden sowie der Wirkung des Kapillareffekts Ungleichmäßigkeiten, die zum Einschluss von Luft führen. In bisherigen Untersuchungen wurden zur Abschätzung des Porengehalts stets statische Kenngrößen verwendet und es erfolgte keine ausreichende Berücksichtigung der Bündelgeometrie. Daher können Ergebnisse nicht zur Prozessoptimierung auf konkret vorliegende Fälle übertragen werden. Mit Hilfe hier neu entwickelter Bündeltränkungsmodelle, in denen der dynamische Kontaktwinkel zwischen Harz und Faser erstmals rechnerisch erfasst wird, werden zunächst die Vorgänge an der Fließfront beschrieben. Es wird aufgezeigt, dass der Kapillareffekt bei hohen Tränkungsgeschwindigkeiten nicht mehr vorantreibend, sondern hemmend wirkt. Die Tränkungsmodelle werden in Fehlstellenentstehungsmodelle für sphärische und zylindrische Poren überführt. Ein neuartiges Weibull-Modell liefert dabei die Viskositätsentwicklung des Harzes während der Injektionsphase. Im anschließenden praktischen Teil werden Prozessversuche innerhalb eines Versuchsraums aus unterschiedlichen Preforms durchgeführt, in denen gezielt Poren erzeugt werden. Die vorliegenden Prozesskenngrößen werden in einem Glaswerkzeug in-situ erfasst. Die Gehalte der wesentlichen Fehlstellenarten werden analysiert. Hieraus ergeben sich empirisch ermittelte Anpassungsfaktoren für die Fehlstellenentstehungsmodelle, die von Faserhalbzeug oder Benetzungsrichtung abhängig sind. Die Modelle sind damit auf weitere Halbzeuge übertragbar. Abschließend wird ein Algorithmus zur Bestimmung der Injektionsparameter auf Basis des zu erwartenden Fehlstellengehalts anhand eines Beispielbauteils präsentiert. Dieser gestattet eine Prozessoptimierung, die sowohl eine kurze Zykluszeit als auch einen niedrigen Fehlstellengehalt zum Ziel hat. Somit wird ein kostengünstiger und qualitativ hochwertiger RTM-Prozess ermöglicht.



https://doi.org/10.22032/dbt.47951
Angermeier, Sebastian;
Energy-efficient operation of vapor compression systems applied to the battery thermal management of electric buses. - Düren : Shaker Verlag, 2021. - XIV, 187 Seiten. - (Schriftenreihe des MAHLE Doktorandenprogramms ; Band 8)
Technische Universität Ilmenau, Dissertation 2021

ISBN 978-3-8440-8009-4

In dieser Arbeit wird eine energieeffiziente Betriebsstrategie eines Batterie-Thermomanagementsystems von Elektrobussen untersucht. Dabei wird sowohl die flüssigkeitsbasierte Batterietemperaturregelung als auch der ideale Betrieb von Dampfkompressionssystemen im Allgemeinen betrachtet. Um das thermische Verhalten der Batterie und die erforderliche Kühllast zu untersuchen, wird eine neuartige transiente Berechnungsmethode des thermischen Batteriesystems vorgeschlagen. Die Ergebnisse zeigen eine ausreichende Temperierung der Zelltemperatur über eine quasistationäre Regelung. Folglich kann die Batteriekühlanlage unter stationären Bedingungen betrieben werden, um die Anforderungen an die Batterietemperatur zu erfüllen. Zur Optimierung der Energieeffizienz der Batteriekühlanlage wird eine detaillierte theoretische und experimentelle Analyse des idealen stationären Betriebs der Kompressionskältemaschine (KKM) für eine Serienkühleinheit der Mahle GmbH durchgeführt. Basierend auf den Ergebnissen wird eine neue modellbasierte Sollwertoptimierungsmethode vorgeschlagen, um die KKM bei idealen Einstellungen zu betreiben. Für quasistationäre Anwendungen stellt die vorgeschlagene Methode eine vielversprechende Alternative zur Extremwertoptimierung oder anderen fortschrittlichen Methoden dar, die zwar genauer sind, aber eine hohe Konvergenzzeit benötigen.



Mahboob, Atif;
Modelling and use of SysML behaviour models for achieving dynamic use cases of technical products in different VR-systems. - Ilmenau : Universitätsverlag Ilmenau, 2021. - 1 Online-Ressource (XXII, 241 Seiten). - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; Band 38)
Technische Universität Ilmenau, Dissertation 2020

Digitale Methode und Modellen ermöglichen den Produktdesignern eine frühzeitige Evaluierung des Produkts, damit sie das Verhalten des Produkts und seine Interaktionen mit benachbarten Systemen in seinen späteren Lebensphasen besser verstehen können. Virtual Reality (VR) ist eine Technologie, die zum frühen Evaluierungsprozess beitragen kann, indem spätere Lebenssituationen eines Produkts schon in der Entwurfsphase angezeigt werden können. Die Anwendung von VR in der Industrie ist jedoch derzeit aufgrund des hohen Modellaufbereitungsaufwands und der limitierten Wiederverwendbarkeit vorhandener Modelle begrenzt. Daher befasst sich diese Arbeit mit der Entwicklung einer Methode, die die frühzeitige Evaluierung des Produkts innerhalb von VR und die Verwendung von VR im Produktentwicklungsprozess erleichtern kann. Diese Methode befasst sich mit dem Prozess der Entwicklung allgemeiner Verhaltensbeschreibungen zur Verwendung in VR, die auch wiederverwendet werden können, um dynamische Anwendungsfälle eines Produkts in den verschiedenen VR-Systemen abzubilden. Der Fokus liegt auf der Reduzierung des gesamten Aufbereitungsaufwands von VR-Modellen und auf das Verwirklichen einer hohen Wiederverwendbarkeit bereits vorhandener Modelle. Die Kernkomponenten der Arbeit bestehen in der Verwendung von Model Based Systems Engineering (MBSE) zur Entwicklung allgemeingültiger Verhaltensmodellbeschreibungen, ihrer Verwendung beim Erstellen verschiedener Anwendungsfälle eines Produkts in einem VR-System und ihrer Wiederverwendung in den verschiedenen VR-Systemen. Die Systems Modeling Language (SysML) wird zur Beschreibung der Verhaltensmodelle verwendet, der Modellierungsprozess wird systematisch beschrieben und auch in Form allgemeiner Anwendungsrichtlinien für die spätere Verwendung zusammengefasst. Darüber hinaus wird eine dedizierte Physik-Engine verwendet, um die physikalischen Berechnungen für virtuelle Objekte in VR durchzuführen, welche auch mit SysML integriert ist. Diese SysML-Verhaltensmodelle zusammen mit der Physik-Engine bilden eine echtzeitfähige Produktanwendungssimulation in VR. Dieselben SysML-Verhaltensmodelle werden für verschiedene VR-Systeme verwendet, um Echtzeitsimulationen abzubilden und ihre Wiederverwendung zu validieren. Zwei VR-Prototypen wurden entwickelt, um die Wirksamkeit und Verwendung der vorgestellten Methoden zu demonstrieren. Schließlich wurde einer der Prototypen einer empirischen Untersuchung unterzogen, die mithilfe von Experten aus Wissenschaft und Industrie durchgeführt wurde.



https://doi.org/10.22032/dbt.47179
Bielenin, Martin;
Prozessstrategien zur Vermeidung von Heißrissen beim Schweißen von Aluminium mit pulsmodulierbaren Laserstrahlquellen. - Ilmenau : Universitätsverlag Ilmenau, 2021. - 1 Online-Ressource (185 Seiten). - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 10)
Technische Universität Ilmenau, Dissertation 2020

Das gepulste Laserstrahlschweißen ermöglicht die Vermeidung der Heißrissbildung beim Schweißen von 6xxx Aluminilegierungen ohne den Einsatz eines Schweißzusatzwerkstoffes. Im Rahmen der Arbeit wurden die Mechanismen und physikalischen Ursachen der Heißrissbildung beim gepulsten Laserstrahlschweißen untersucht und zusammenhängend beschrieben. Dafür wurde ein transientes thermomechanisches Simulationsmodell zur Abbildung des gepulsten Laserstrahlschweißprozesses mit zeitlich veränderlichem Pulsleistungsverlauf aufgebaut und experimentell validiert. Die zeit- und ortsaufgelöste Berechnung des gesamten Spannungs , Dehnungs- und Temperaturfeldes ermöglichte die Quantifizierung der wesentlichen Erstarrungsparameter an der Phasenfront zu jedem Zeitpunkt während Schmelzbadkristallisation. Die experimentellen Untersuchungen erfolgten repräsentativ an der industriell etablierten, aber heißrissanfälligen Legierung EN AW 6082-T6. Die grundlegenden experimentellen Untersuchungen wurden zunächst an modellhaften Einzelpunktschweißungen ausgeführt. Innerhalb der experimentellen Untersuchungen wurden drei Regime identifiziert, die sich in Abhängigkeit der Erstarrungsgeschwindigkeit des Schmelzbades ergeben und in denen unterschiedliche Mechanismen die Entstehung von Heißrissen dominieren. Wohingegen die Rissbildung bei hohen Erstarrungsgeschwindigkeiten auf die Dehnrate, die geringe Permeabilität des interdendritischen Netzwerks und die große Nachspeisedistanz zurückgeführt werden konnte, wurde bei langsamen Erstarrungsgeschwindigkeiten die Seigerung niedrigschmelzender Phasen an der Erstarrungsfront als Rissursache identifiziert. Punktüberlappende Nahtschweißungen sind durch das Umschmelzen rissbehafteter Bereiche des vorherigen Schweißpunktes weniger sensibel für die Bildung von Heißrissen als Punktschweißen. Auf Basis der gewonnenen Erkenntnisse wurden aus den prozesstechnischen und physikalischen Ursachen für die Prozessgrenzen Strategien zur Erweiterung abgeleitet, entwickelt und umgesetzt. Hierfür wurde das gepulste Laserstrahlschweißen mit räumlich überlagerter cw-Diodenlaserstrahlung im niedrigen Leistungsbereich untersucht. Mit dem entwickelten Prozessansatz können heißrissfreie Schweißnähte auch mit konventionellen Rechteckpulsen erzeugt werden. Darüber hinaus wird einerseits die Einschweißtiefe signifikant gesteigert. Anderseits wird durch die geringe Leistungszugabe des Diodenlasers die Schweißgeschwindigkeit um den Faktor 4 gegenüber dem derzeitigen Stand der Technik erhöht.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000609
Mosayebi Samani, Mohsen;
Optimizing the neuroplastic effects of cathodal transcranial direct current stimulation over the primary motor cortex and transferability to prefrontal cortex. - Ilmenau : Universitätsbibliothek, 2021. - 1 Online-Ressource (195 Seiten)
Technische Universität Ilmenau, Dissertation 2021

Die Behandlungsmöglichkeiten neurologischer und neuropsychiatrischer Erkrankungen haben sich in den letzten Jahrzehnten deutlich verbessert, sind aber immer noch eingeschränkt. Eine Dysregulation oder Störung der Neuroplastizität ist bei vielen psychischen und Hirnfunktionsstörungen beteiligt. Hier sind nicht-invasive Hirnstimulationstechniken relevant, die die Plastizität des Gehirns modulieren, ohne die physische Integrität des Schädels zu beeinträchtigen. Eine davon, die transkranielle Gleichstromstimulation (tDCS), hat in mehreren klinischen Pilotstudien vielversprechende Ergebnisse zur Verminderung von Symptomen auf der Grundlage von Störungen des Zentralnervensystems gezeigt. Diese Effekte sind jedoch häufig moderat, zeigen eine nichtlineare Dosisabhängigkeit und eine interindividuelle Variabilität. Um die Wirksamkeit dieses Verfahrens zu verbessern, sind länger anhaltende und homogenere Effekte erforderlich. Dies erfordert neuartige, verbesserte Interventionsstrategien. Darüber hinaus wurden die neuromodulatorischen Wirkungen von tDCS auf den primären motorischen Kortex bisher weitgehend als Grundlage für die Anwendung dieser Intervention auf andere Hirnregionen herangezogen, während eine direkte Untersuchung der physiologischen Wirkungen von tDCS auf nichtmotorische Regionen weitgehend fehlt. Die Arbeit zielt darauf ab, diese Herausforderungen durch den Einsatz innovativer neurophysiologischer und mathematischer Techniken anzugehen, um die Wirksamkeit des kathodalen tDCS über dem primären motorischen Kortex zu verbessern, aber auch die Übertragbarkeit der Ergebnisse auf den präfrontalen Kortex zu untersuchen. Zu diesem Zweck titrierten wir im ersten Schritt systematisch kathodale tDCS-Parameter für das humane motorische Kortexmodell mit unterschiedlichen Intensitäten (1, 2 und 3 mA) und Stimulationsdauern (15, 20 und 30 min). Die Ergebnisse zeigten intensitätsabhängige nichtlineare Effekte, bei denen die Stimulation mit 1 mA eine signifikante Verringerung der Amplitude der motorisch evozierten Potentiale (MEP) induzierte, während die Stimulation mit 2 mA zu einer signifikanten Erhöhung der kortikospinalen Erregbarkeit führte. Protokolle mit höherer Stimulationsintensität (insbesondere Stimulation mit 3 mA) induzierten erneut eine signifikante Verringerung der Erregbarkeit, die etwa eineinhalb Stunden nach der Stimulation andauerte, und waren daher effizienter als die anderen Protokolle. Im zweiten Schritt haben wir untersucht, ob wiederholte tDCS-Protokolle mit unterschiedlichen Intervallen die Nacheffekte verlängern können. Wir verglichen die Auswirkungen von Einzelinterventionen mit konventioneller (1 mA für 15 Minuten) und optimierter kathodaler tDCS (3 mA für 20 Minuten) mit den Auswirkungen einer wiederholten Anwendung in Intervallen von 20 Minuten und 24 Stunden auf die Erregbarkeit des primären motorischen Kortex, basierend auf tierexperimentellen Befunden, dass kurze, aber nicht lange Intervalle zwischen einzelnen Interventionen eine langanhaltende Plastizität erzeugen. Die Ergebnisse zeigten, dass die Dauer der Nacheffekte wiederholter konventioneller und optimierter Protokolle mit kurzen Intervallen im Vergleich zu den jeweiligen Einzelinterventionsprotokollen nahezu unverändert blieb. Für das lange Intervall (24 h) veränderte die Stimulation mit dem herkömmlichen Protokoll die jeweiligen Nachwirkungen nicht signifikant, während sie die Wirksamkeit des optimierten Protokolls im Vergleich zu den jeweiligen Einzelinterventionen verringerte. Ein wichtiges Ergebnis der ersten Studie waren die beobachteten nichtlinearen intensitätsabhängigen Effekte von tDCS, die eine Erklärung für teilweise heterogene Ergebnisse der kathodalen Stimulation bieten können, allerdings hinsichtlich ihrer neurophysiologischen Grundlagen bisher nur unzureichend untersucht waren. Im dritten Schritt haben wir daher die zugrunde liegenden Mechanismen dieser nonlinearen Effekte untersucht. Da tDCS eine NMDA-Rezeptor-abhängige Neuroplastizität erzeugt, die Kalzium-abhängig ist, kann eine solche Nichtlinearität möglicherweise durch unterschiedliche durch die Intervention induzierte Kalziumkonzentrationen erklärt werden, die die Richtung der Plastizität steuern. Wir verabreichten daher den Kalziumkanalblocker Flunarizin in niedrigen (2,5 mg), mittleren (5 mg) oder hohen (10 mg) Dosierungen vor der kathodalen tDCS des motorischen Kortex mit 3 mA für 20 Minuten. Die Ergebnisse zeigten, dass die durch kathodale tDCS hoher Intensität induzierten inhibitorischen Nachwirkungen bei niedrigen, mittleren bzw. hohen Dosierungen eines Kalziumblockers nicht verändert, verringert oder in eine Erregbarkeitserhöhung modifiziert wurden, was die Kalzium-abhängige Direktionalität von tDCS-induzierter Neuroplastizität bestätigt. Das Ergebnis der ersten und zweiten Studie zeigten eine relevante interindividuelle Variabilität der tDCS-Effekte, die eine weitere Quelle für die begrenzte Wirksamkeit dieser Intervention sein könnte. Jüngste In-vivo-Experimente und Computerstudien am Menschen zeigten, dass das tDCS-induzierte elektrische Feld (EF) stark von der individuellen Anatomie des Gehirns und den Leitfähigkeitseigenschaften des Gewebes abhängt. Die EF-Variabilität könnte daher ein wichtiger Faktor für heterogene Ergebnisse der tDCS sein. Im vierten Schritt, basierend auf neurophysiologischen Daten, die in früheren Studien unserer Gruppe erhoben wurden, die tDCS-induzierte MEP- (induziert durch transkranielle Magnetstimulation (TMS)) und zerebrale Blutfluss-Veränderungen (CBF; gemessen durch funktionelle Magnetresonanztomographie (MRT) über arterielles Spin-Labelling) erfaßten, untersuchten wir den Zusammenhang zwischen einzelnen anatomischen Faktoren, tDCS-induziertem EF und den jeweiligen physiologischen Parametern auf der Ebene des Individuums. Zu diesem Zweck wurde für jeden Teilnehmer ein MRT-basiertes realistisches Kopfmodell entworfen, um 1) anatomische Faktoren zu berechnen und 2) die tDCS- und TMS-induzierten elektrischen Felder (EF) zu simulieren. Anschließend untersuchten wir auf regionaler Ebene, welche einzelnen anatomischen Faktoren die simulierten EFs erklären. Schließlich untersuchten wir, welche spezifischen anatomischen und / oder EF-Faktoren die neurophysiologischen Ergebnisse der tDCS vorhersagten. Die Ergebnisse zeigten, dass von den untersuchten anatomischen Faktoren höhere EF-Werte mit einem geringeren Abstand zwischen Elektrode und Kortex (ECD) und einer geringeren Dicke des Liquor cerebrospinalis (CSF) verbunden waren. Zusätzlich waren CSF-Dicke und ECD negativ korreliert, während EFs positiv mit tDCS-induzierten physiologischen Veränderungen korreliert waren. Schließlich untersuchten wir im fünften Schritt die Übertragbarkeit der durch kathodale tDCS induzierten Neuroplastizität vom motorischen auf den präfrontalen Kortex. Die neurophysiologischen Wirkungen von tDCS auf den primärmotorischen Kortex wurden bereits in einer vielzahl von Studien untersucht. Viel weniger ist jedoch hinsichtlich physiologischer Effekte der tDCS auf nichtmotorische Bereiche wie den präfrontalen Kortex bekannt, der eine wichtige Basis für vielfältige kognitive Funktionen darstellt und dessen Dysfunktionen an neuropsychiatrischen Störungen beteiligt sind. Zu diesem Zweck wurde kathodale tDCS mit niedrigen, mittleren und hohen Dosierungen oder eine Placebo-Stimulation über dem primärmotorischen und dorsolateralen präfrontalen Kortex appliziert. Die Nacheffekte der tDCS wurden mittels TMS-Elektroenzephalographie (EEG) und TMS-MEP auf regionaler Ebene für die Ergebnisparameter TMS-evozierte Potentiale (TEP), TMS-evozierte Oszillationen und MEP-Amplitudenänderungen bewertet. Die Ergebnisse zeigten eine dosisabhängige nichtlineare neurophysiologische Wirkung der tDCS über dem motorischen Kortex, die nicht vollständig auf die Ergebnisse der tDCS über dem präfrontalen tDCS übertragbar war. Niedrige und hohe Dosierungen der tDCS über dem motorischen Kortex reduzierten frühe positive TEP-Peaks und MEP-Amplituden, während eine Erhöhung der Amplituden dieser Potentiale für primärmotorische tDCS mit mittlerer Dosierung beobachtet wurde. Im Gegensatz dazu reduzierte präfrontale tDCS mit niedriger, mittlerer und hoher Dosierung die frühen positiven TEP-Amplituden gleichermaßen. Darüber hinaus wurden für beide kortikalen Bereiche keine tDCS-induzierten neuromodulatorischen Effekte auf späte TEP-Amplituden (mit Ausnahme präfrontaler tDCS mit niedriger Dosierung) oder TMS-evozierte Oszillationen beobachtet. Zusammengenommen hat diese Arbeit unter Verwendung innovativer neurophysiologischer, Computergestützter und bildgebender Verfahren wichtige Aspekte in Bezug auf tDCS-induzierte neuroplastische Effekte untersucht, und liefert neue Erkenntnisse für zukünftige Anwendungen von tDCS in Grundlagen- und klinischen Studien.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2021000014
Supreeti, Shraddha;
Soft nanoimprint lithography on curved surfaces. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (vi, 67, XII Blätter)
Technische Universität Ilmenau, Dissertation 2020

Diese Arbeit befasst sich mit den Herausforderungen des Prägens auf gekrümmten Oberflächen. Die Prägung auf gekrümmten Oberflächen hat aufgrund der steigenden Nachfrage nach Anwendungen in der Optik, bei biomedizinischen Implantaten und Sensoren eine hohe Relevanz gewonnen. Gegenwärtig ist es aufgrund der begrenzten Tiefenschärfe des Projektionssystems eine Herausforderung, Strukturen auf gekrümmten Oberflächen mit Hilfe der konventionellen Photolithographie zu strukturieren. Daher wird zunehmend die Nanoimprint-Lithographie (NIL) eingesetzt. NIL ermöglicht die gleichmäßige Abformung von Strukturen auf stark gekrümmten Oberflächen. Sie ist im Vergleich zu herkömmlichen Methoden nicht durch optische Effekte wie Streuung, Beugung und Interferenz in einem Substrat begrenzt. In dieser Arbeit wird ein weicher UV-NIL-Prozess entwickelt, optimiert und für die Strukturierung auf nicht ebenen Oberflächen implementiert. Es handelt sich um einen mechanischen Prozess, der auf der Übertragung von Strukturen von einem flexiblen und transparenten weichen Polydimethylsiloxan (PDMS) Stempel auf das Substrat in Gegenwart von UV-Licht basiert. Die Entformung ist ein wichtiger Aspekt für einen erfolgreichen NIL-Prozess. Die induzierte Scherspannung während der Trennung des Stempels vom Substrat kann zu strukturellen Verzerrungen führen, insbesondere an den Rändern der gekrümmten Oberfläche, wo die Neigung hoch ist. Das weiche NIL wurde angewandt, da es im Vergleich zur konventionellen Lithographie nicht von komplexen Maschinen, strengen Umgebungsbedingungen und optischen Einschränkungen abhängig ist. Eine hochpräzise Nanopositionierungs- und Nanomessmaschine (NPMM) wurde eingesetzt, um eine kontrollierte Positionierung des Substrats zum Stempel zu ermöglichen. Ein kompakter und einstellbarer weicher UV-NIL-Prozess wurde entworfen, montiert und in die NPM-Maschine integriert. Die erfolgreiche Umsetzung des grundlegenden Prozesses im NPMM schuf die Grundlage für die Herstellung eines NIL-Werkzeugs, das mit einer Drehvorrichtung kombiniert und in das NPMM integriert wurde. Die Kombination ermöglicht fünf Bewegungsfreiheitsgrade für das orthogonale Formen und Entformen an den Kanten gekrümmter Substrate. Das rotierende NIL-Werkzeug spricht die allgemein übersehene Herausforderung der Strukturierung und Charakterisierung an den Kanten gekrümmter Substrate an. Unabhängig von den eingeschränkten Messmöglichkeiten bei hohen Neigungen für hochauflösende Nanostrukturen war es möglich, die Strukturen sowohl auf dem Linsensubstrat als auch bei einer Neigung von 45&ring; im REM abzubilden. Es hat sich gezeigt, dass es an der Kante eines gekrümmten Substrats mit einem Krümmungsradius von ca. 25 mm bei einer Oberflächennormalen, die um 45&ring; geneigt ist, ein Imprinting durchführen kann. Die Methode ermöglicht präzise Prägefähigkeiten bei hohen Neigungen und stellt damit einen neuartigen Ansatz von weichem NIL auf gekrümmten Oberflächen dar.



https://doi.org/10.22032/dbt.48830
Link, Steffen;
Aprotische Medien zur elektrochemischen Abscheidung von Silicium als neuartiges Anodenmaterial für Lithium-Ionen-Batterien. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (xii, 95, XLIX Seiten)
Technische Universität Ilmenau, Dissertation 2021

Die elektrochemische Abscheidung von Silicium ist eine aussichtsreiche Alternative zu den derzeitigen energieintensiven Herstellungsverfahren. Bisher ist der Reduktionsprozess jedoch kaum verstanden und die Schichten weisen starke Kohlenstoff- und Sauerstoffverunreinigungen auf. Für den Einsatz als hochkapazitive Anoden in Lithium-Ionen-Batterien ist deshalb die Anpassung der Schichteigenschaften und chemischen Zusammensetzung erforderlich. Diese Parameter werden durch das verwendete Substrat, die Stabilität des Elektrolyten und dem angelegten Potential beeinflusst. Daher wird in dieser Arbeit die Reduktion von SiCl4 in diversen aprotischen Medien, u.a. 1-Butyl-1-methylpyrrolidinium Bis(trifluoromethylsulfonyl)imid ([BMP][TFSI]) und Sulfolan (SL), untersucht. Als Hauptanalysewerkzeug dient dabei die elektrochemische Quarzkristallmikrowaage mit Dissipationsüberwachung. Die morphologische und chemische Charakterisierung erfolgt mittels Rasterelektronenmikroskopie bzw. Röntgenphotoelektronenspektroskopie. Die Ergebnisse zeigen unabhängig von Substrat und Potential eine starke Zersetzung von [BMP][TFSI] während der Abscheidung. Die Menge an Si(0) unterscheidet sich jedoch auf den einzelnen Substraten und reicht von 18,1 at.% (Glaskohlenstoff - GC) bis 7,5 at.% (Ni). Im Gegensatz dazu wird die Reduktion von SiCl4 auf den Metallelektroden in SL bei niedrigen Potentialen kaum durch die Nebenreaktionen beeinträchtigt, wodurch doppelt so hohe Anteile an Si(0) in den Schichten erreicht werden. Auf GC verhindert die Zersetzung von SL eine erfolgreiche Abscheidung von Si. In beiden Elektrolyten nehmen Rauheit und Viskoelastizität des Si mit zunehmender Abscheidezeit (t>1h) zu. Das (De-)Lithiierungsverhalten der Schichten wird mittels galvanostatischer Zyklisierung in EC/DMC (1:1, v/v) - LiPF6 Elektrolyten bei verschiedenen spezifischen Strömen untersucht. Die Daten zeigen eine schnelle Abnahme der Kapazität aufgrund der hohen Volumenexpansion während der Legierungsbildung. Durch Verwendung eines porösen Kupfer-Stromabnehmers konnten die Zyklenstabilität, Ratenfähigkeit und Coulomb-Effizienz von aus SL abgeschiedenem Si jedoch deutlich verbessert werden. Selbst nach 1200 Zyklen besitzt das Material noch eine Kapazität von ca. 1,5 Ah/g. Darüber hinaus konnten keine Risse in der Schicht festgestellt werden, was die hohe Stabilität der Elektrode belegt.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2021000088
Schindler, Christian;
Formabtrag an mineralischen Gläsern mit ultrakurz gepulster Laserstrahlung. - Ilmenau : Universitätsverlag Ilmenau, 2020. - 1 Online-Ressource (175 Seiten). - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 9)
Technische Universität Ilmenau, Dissertation 2020

In: Ilmenau : Universitätsverlag Ilmenau

Im Rahmen der vorliegenden Arbeit wurden Abtragsverfahren zur Formgebung optischer Komponenten aus mineralischem Glas mittels ultrakurz gepulster Laserstrahlung untersucht. Für diese Untersuchungen wurden ein experimenteller ps- und ein fs-Aufbau konzipiert, umgesetzt, optimiert und charakterisiert sowie Analysemethoden zur Probenbewertung entwickelt. Aus den Untersuchungen zu den ausgewählten Gläsern ergibt sich, dass mit Verwendung ultrakurzer Laserpulse prinzipiell das gesamte Materialspektrum bearbeitbar ist, wenngleich sich die Bearbeitungsergebnisse unterscheiden. Für einen schichtweisen Abtrag wurden plausible Parameterräume definiert, in denen der Ablationsprozess stabil in Bezug auf ausgewählte Zielgrößen beschrieben werden kann. Experimentell zeigten sich der glasspezifischen Bandlücke sowie der applizierten Wellenlänge nach steigende Grenzwerte für die zur Ablation notwendigen Fluenz. Beim Vergleich der Pulsdauerregime zeigte sich, dass für einen einsetzenden ps-Abtrag höhere Fluenzwerte als für einen fs-Abtrag appliziert werden müssen. Die Untersuchungen haben veranschaulicht, dass sich, in Relation zu einem spezifischen Vorbearbeitungszustand von Quarzglas, mit zunehmendem Abtrag, also mehreren Überfahrten, und unter Zuhilfenahme einer gezielten Partikelabfuhr ein Gleichgewicht der Rauheit auf der Oberfläche einstellte und man von einer Sättigungsrauheit sprechen kann. Für dieses Abtragsverhalten an Glas wurde ein Modell für den 2,5D-Formabtrag mit ausgewählten Parametern aufgestellt und Aussagen zum notwendigen Konditionierabtrag getroffen. Gleichzeitig ergab sich nach Erreichen des Sättigungswertes ein konstantes Ablationsregime, welches einen linearen Abtrag pro Überfahrt ermöglichte. Für eine an den Zielgrößen (Rauheit, induzierte optische Gangunterschiede, Abtragstiefe sowie Abtragsraten) ausgerichtete Auswahl von Bearbeitungsparametern sind Schädigungstiefen bestimmt worden. Es zeigte sich, dass die ermittelten Werte z. T. geringer sind als typische Schädigungen durch das Fein- und Feinstschleifen (< 15 [my]m) und somit dazu beitragen den folgenden Polierprozess zu verkürzen. Ein schichtweiser Abtrag mit ultrakurzen Pulsen kann als Substitutionstechnologie für den formgebenden Schleifprozess angesehen werden. Die ermittelten Zeitspanvolumina lagen im applizierten Laserparameterfeld mit < 14 mm^3/min deutlich über den Werten des Fein- und Feinstschleifens mit ≈ 2 mm^3/min. In weiteren Untersuchungen zum Laserabtrag mit Scanprofilen konnten funktionelle Zusammenhänge beschrieben und nachgewiesen werden, die einen ortsvariablen Glasabtrag ermöglichen.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000104
Baumer, Christoph;
Realisierung fähiger Prozesse in der Galvanotechnik. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (139 Seiten)
Technische Universität Ilmenau, Dissertation 2020

Die vorliegende Dissertation beschreibt den Einsatz von Qualitätsmanagementmethoden in der Galvanotechnik, um die geforderten Schichteigenschaften zu jeder Zeit gewährleisten zu können. Im Sinne einer Null-Fehler-Strategie müssen dazu die Prozessschwankungen möglichst minimiert werden. Die Dissertation ist an die DMAIC-Methode der Six Sigma Philosophie (Define, Measure, Analyze, Improve und Control) angelehnt. In der Definitionsphase werden die grundlegenden Zusammenhänge der Galvanotechnik und der untersuchten Prozesse der Nickel- und Nickel-Phosphorabscheidung beschrieben. Als Schlussfolgerung daraus rückt die chemische Badzusammensetzung ins Zentrum der Untersuchung, da diese die Schichteigenschaften wesentlich bestimmt und prozessimmanenten Schwankungen unterliegt. Ausgehend von der Messung und Analyse der Konzentrationsschwankungen lassen sich Regeln zur Festlegung von Analyseintervallen und Eingriffsgrenzen zur Steuerung der Prozesse definieren. Diese münden in eine Neukonzipierung der Badführung mit dem Ziel Schwankungen zu minimieren. Darauf aufbauend lassen sich durch Bilanzierung der Reaktionen und Stoffverbräuche die komplexen Konzentrationsänderungen makroskopisch durch einfache chemische und physikalische Zusammenhänge beschreiben, wodurch sich Prozessveränderungen im Voraus berechnen lassen. Dazu ist die Ermittlung charakteristischer Kenngrößen, wie Verschleppung, Stromausbeute und Reaktionsumsätze nötig, die mit Hilfe eines numerischen Lösungsverfahrens aus den Prozessdaten selbst gewonnen werden können. Durch die Simulation der Konzentrationsänderungen lassen sich Maßnahmen definieren um möglichst stationäre Bedingungen in den galvanischen Bädern einzustellen. In der Kontrollphase werden die beschriebene Systematik und Umsetzung anhand ausgewählter Prozesse überprüft. Die berechneten Prozesskennwerte und Konzentrationsverläufe wiesen dabei eine Abweichung von etwa 10% im Vergleich zu den gemessenen Werten auf. Für die elektrolytische und chemische Nickel-Phosphorabscheidung konnten kurzfristige Prozessfähigkeiten über 2 erreicht werden. Ebenso konnte flankierend mit weiteren Verbesserungen der Ausschussanteil bei der Beschichtung von MID-Bauteilen (molded interconnect devices) von 3% auf dauerhaft weniger als 0,1% gesenkt werden. Dies zeigt, dass ein galvanischer Serienprozess die heutigen industriellen Anforderungen erfüllen kann.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000674
Dyck, Tobias;
Untersuchungen zu den tribologischen und elektrischen Eigenschaften zinnbeschichteter Kontaktoberflächen. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (XIII, 130 Blätter)
Technische Universität Ilmenau, Dissertation 2020

An galvanisch beschichteten Kontaktgeometrien werden Kontaktwiderstandsmessungen, Reibversuche und Leiteranschlussuntersuchungen durchgeführt. Dabei werden hemisphärische, zylindrische und sickenförmige Geometrien mit unterschiedlichen Kontaktradien eingesetzt. Bei den Reibversuchen zeigen große Radien und zylindrische Kontaktgeometrien die günstigsten Verschleißeigenschaften. Dickere Zinnschichten führen zu einer höheren Verschleißbeständigkeit, allerdings auch zu erhöhten Reibkräften. Bei Zinnschichten führt die Relativbewegung zwischen zwei Kontaktpartnern bereits nach dem ersten Reibzyklus zu einer deutlichen Reduzierung des Kontaktwiderstands durch das Verdrängen der Oxidschicht aus dem Kontaktbereich. Nickel wird als Sperrschicht zwischen Kupfer und Zinn eingesetzt, zeigt aber auch bei den Verschleißversuchen günstige Eigenschaften. So steigt der Kontaktwiderstand weniger stark an als bei nicht unternickelten Kontakten. Eine signifikante Erhöhung der Verschleißbeständigkeit bei gleichzeitiger Reduzierung des Reibwerts kann durch den Einsatz von Schmieröl erreicht werden. Bei Kontaktwiderstandsmessungen ohne Relativbewegung zeigt sich für eine Hartgoldschicht, dass große Radien und zylindrische Kontaktgeometrien zu geringeren Kontaktwiderständen führen. Für Zinnschichten ist dieses Verhalten, je nach Schichtsystem, schwächer ausgeprägt oder nicht vorhanden. Unter Wärmeeinfluss zeigt sich eine Abnahme des Kontaktwiderstands mit zunehmender Temperatur für Hartgold- und Zinnschichten. Untersuchungen mit eindrähtigen Leitern zeigen für den betrachteten Kontaktkraftbereich bis 10 N ein elektrisch günstiges Verhalten bei kleinen Kontaktradien und dicken Zinnbeschichtungen. Für feindrähtige Leiter begünstigen breite Leiterpakete geringere Widerstandswerte. Durch die Entwicklung eines theoretischen Modells werden die mechanischen und elektrischen Vorgänge nachvollzogen. Es wird ein Modell für die Auslegung von Steckverbinderkontakten vorgestellt, welches auf einer analytischen Untersuchung der mechanischen, elektrischen und tribologischen Eigenschaften von Steckverbinderkontakten und daraus abgeleiteten Gleichungen basiert.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000642
Lissek, Fabian;
Beitrag zum Verständnis der Zerspanung nachgiebiger Strukturen aus kohlefaserverstärkten Kunststoffen: Charakterisierung, Modellierung und Bewertung instationärer Bohrprozesse. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (VII, 192 Seiten)
Technische Universität Ilmenau, Dissertation 2020

Die Forschungsarbeit zielt darauf ab einen Beitrag zum besseren Verständnis der Zerspanungsmechanismen nachgiebiger CFK-Strukturen zu leisten. Dies geschieht unter Berücksichtigung der Werkzeuggeometrie, des Werkzeugverschleißes sowie den spannsituationsspezifischen Einflussfaktoren. Es wird insbesondere die spanende Bearbeitung von endkonturnahen 3-dimensionalen Bauteilen adressiert, welche aktuell mit komplexen Spannsystemen realisiert werden muss. Im Gegensatz zur industriellen Praxis sieht der Forschungsansatz vor, eine gewisse Werkstücknachgiebigkeit an der Bearbeitungsstelle zuzulassen, welche eine ausreichende Bearbeitungsqualität gewährleisten kann. Dadurch schafft die Abhandlung eine Grundlage zur Auslegung und Optimierung von Spannsystemen. Durch die Reduktion der Komplexität von Spannsystemen können Kosten eingespart werden. Gleichzeitig verringert sich damit auch der Platzbedarf zur Lagerung der Spannsysteme. Obwohl sich ein Großteil der Arbeit mit elementaren Grundlagen der Zerspanung von nachgiebigen CFK-Strukturen befasst, ist der Fokus der Untersuchungen der angewandten Forschung zuzuordnen. Diesbezüglich werden als Zerspanungsmaterial CFK-Laminate aus dem luftfahrttypischen Prepreg HexPly® M21/T800S verwendet, welche mit VHM-Stufenbohrergeometrien nach aktuellem Industriestandard bearbeitet werden. Im experimentellen Teil erfolgt eine messtechnische Analyse der Werkstückkinematik relativ zur Werkzeugbewegung und in Abhängigkeit von der lokalen Werkstücknachgiebigkeit an der Bearbeitungsposition. Dabei steht die zeitliche Entwicklung des Spanungsquerschnittes und der Vorschubswerte des Bearbeitungsprozesses im Vordergrund. Diese werden hinsichtlich ihrer Auswirkungen auf die Austrittsdelamination bewertet. Werkzeugseitig werden dabei die Schneidkantenverrundung von 10 [my]m bis 50 [my]m sowie der Spitzenwinkel der Hauptschneiden zwischen 70&ring; und 130&ring; variiert. Die Erkenntnisse der Quantifizierung der Zerspanungsmechanismen gehen Hand in Hand mit der Neuentwicklung dreier unterschiedlicher Simulationsmodelle. Diese bilden die Entstehung von Maßabweichungen der Bohrungskontur, den zeitabhängigen Prozesskraftverlauf sowie die initiale Schädigungsentstehung beim Werkzeugaustritt aus dem CFK-Laminat nach.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000653
Li, Li;
Methoden des Soft Computing zur Regelung und Diagnose von Magnetlagern. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (267 Seiten)
Technische Universität Ilmenau, Dissertation 2020

Es besteht weltweit eine ausgeprägte Tendenz, durch Einsatz der aktiv geregelten Magnetlagerung die mechanische Reibung und Verschleiß zu vermeiden sowie die einstellbare Systemsteifigkeit und -dämpfung zu ermöglichen. Solche Systeme werden bis anhin über fixed-control-design oder lineare Strategie geregelt, verwenden also Frequenzfilter mit kleinem Wirkungsgrad, begrenzter Cutoff-Frequenz und Zuverlässigkeit im konventionellen Regelkonzept. Der industrielle Einsatz der aktiven Magnetlager in Verbindung mit dem technologischen Prozess insbesondere unter Belast-, Störfall und Einfluss vom starken Rauschen stellt heute hohe Aufforderung an die Stabilität der Positionierung, Funktionszuverlässigkeit und Laufruhe. Diese führen gegenüber konventionelles Regelkonzept zu einer wesentlichen Erneuerung des Regelkonzeptes. So werden die stabile Magnetlagerung bzw. Steuerbarkeit der dynamischen Eigenschaft bis hin zur technischen Grenze ermöglicht. In dieser Arbeit wird ein neuartiges Regelkonzept mithilfe Soft Computing erarbeitet und am Testanlage FLP 500 am Institut für Prozesstechnik, Prozessautomatisierung und Messtechnik der Hochschule Zittau / Görlitz umgesetzt. Dazu bietet sich vor allem die Integration von Soft Computing in der Regelung-, Filterung- und Online-Identifikationstechnik in das System an. Es werden das Führungsverhalten, Störverhalten, der Umdrehungsversuch bzw. Identifikationsversuch angestellt. Der Identifikationsversuch präsentiert die Ergebnisse aus Online-Identifikation mit ausreichender Schnelligkeit und Robustheit gegen Prozessrauschen. Die weiteren Versuchsergebnisse zeigen, dass die Stabilität der Positionierung mit einem variierenden Arbeitspunkt bzw. die Laufruhe, besonderes unter Bedingung vom starken Prozessrauschen, unter Einfluss von der elektronischen bzw. mechanischen Eigenschwingung, vom Messrauschen und von der Messstörung in Sensorik, deutlich optimiert sind. Durch die Adaptionsmöglichkeit ist die Magnetlagerung zudem wesentlich weniger anfällig für die Variation der Arbeitspunkte. Der Vorteil der Zustandsbeobachtung wird durch Anwendung des Kalman-Filters ausgenutzt. Auf diese Weise ist die nahezu vollständige Eliminierung der Störung und Signalverfälschung in Messsignale möglich. Im realen Versuchsstand durchgeführte Untersuchungen belegen die praktische Anwendbarkeit des Konzeptes.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000389
Esch, Lorenz;
Real-time estimation and visualization of functional connectivity in the human brain. - Düren : Shaker Verlag, 2020. - xi, 128 Seiten. - (Berichte aus der Medizintechnik)
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-8440-7773-5

Aus neurowissenschaftlicher Sicht sind die Möglichkeiten für die Echtzeitverarbeitung neuronaler Daten vielfältig. Echtzeit-Tools ermöglichen nicht nur einen schnelleren und intuitiveren Einblick in augenblickliche Gehirnfunktionen, sondern schaffen eine Grundlage für eine Vielzahl von Neurofeedback-Szenarien. Darüber hinaus ermöglichen sie eine frühzeitige Beurteilung der Datenqualität und des Versuchsaufbaus. Dies erlaubt ein frühes Eingreifen und Beheben von möglichen Fehlern. Aufgrund ihrer hohen zeitlichen Auflösung sind Magnetoenzephalographie (MEG) und die Elektroenzephalographie (EEG) geeignete Messverfahren für die Echtzeitdatenverarbeitung. Es existieren bereits Software-Toolboxen, welche in der Lage sind, M/EEG-Daten in Echtzeit zu überwachen und zu verarbeiten. Diese Arbeit stellt eine Reihe neuer Werkzeuge zur Erfassung und Verarbeitung elektrophysiologischer Datenströme vor. Die Methoden in dieser Arbeit ermöglichen die Schätzung und Visualisierung großer funktionaler Netzwerke in Echtzeit. Bereits existierende Arbeiten haben sich bisher stets auf Netzwerke mit wenigen Knoten konzentriert. Alle neuen Tools wurden in das Open-Source-Projekt MNE-CPP integriert, welches eine API und GUI-Anwendungen bereitstellt. Damit stehen die neuen Tools sowohl für Entwickler als auch Anwendern, welche keine oder nur wenig Programmiererfahrung besitzen, zur Verfügung. Die neuen Echtzeit-Tools sind in der Lage funktionale Netzwerke auf Sensor- und Quellebene zu verarbeiten. Im Rahmen dieser Arbeit wurde eine Proof-of-Principle-Messung durchgeführt, welche funktionale Netzwerke auf Quellniveau und evozierten Reaktionen, die durch eine Stimulation des sog. Nervus medianus ausgelöst wurden, geschätzt. Die Ergebnisse zeigen, dass die implementierten Echtzeit-Tools wie erwartet funktionieren und in der Lage sind, während einer laufenden Messung, Einblicke in funktionale Netzwerke zu geben. Die implementierten Tools ermöglichen es dadurch eine laufende Messung zu überwachen und Experiment- bzw. Einrichtungsprobleme frühzeitig zu erkennen. Weiterhin können die Echtzeitergebnisse genutzt werden, um neuartige Gehirn-Maschinen Schnittstellen zu entwerfen.



Hessler, Philipp;
Refraktionsänderungen in Dämmerung und Nacht. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (IX, 237, [23] Blätter)
Technische Universität Ilmenau, Dissertation 2020

Eine mögliche Ursache für Sehprobleme in Dämmerung und Nacht stellen Refraktionsänderungen mit abnehmender Leuchtdichte dar: Die Dämmerungs- bzw. Nachtmyopie. In der Literatur wird die Nachtmyopie über drei Effekte erklärt: Die Akkommodationsruhelage, die sphärische Aberration und die Purkinje-Verschiebung. Die vorliegende Arbeit beleuchtet im Rahmen von vier Studien diese möglichen Ursachen für Refraktionsänderungen in mesopischen Lichtverhältnissen und deren Auswirkung auf Visus und Kontrastempfindlichkeit. Die erste Studie untersuchte den Einfluss des Dark Focus of Accommodation auf den Refraktionsstatus. Dabei zeigte sich nach dem Übergang von photopischen zu skotopischen Lichtbedingungen eine klinisch unbedeutende Verschiebung des Refraktionsstatus in Richtung Myopie. Ferner stellte sich der Dark Focus sofort nach der Abdunklung ein und war unabhängig von der Dunkeladaptationszeit. Der Einfluss des Dark Focus auf das Sehen in mesopischen Lichtverhältnissen ist somit als gering einzustufen. In der zweiten Studie wurde der Einfluss der sphärischen Aberration auf die subjektive Refraktionsänderung untersucht. Die subjektive Refraktion änderte sich dabei mit abnehmender Leuchtdichte nicht umso mehr in Richtung Myopie, je positiver die sphärische Aberration war. Zur Untersuchung der Purkinje-Verschiebung wurde ein Versuchsaufbau zur Messung der spektralen Hellempfindlichkeit des menschlichen Auges erstellt und im Rahmen einer Evaluierungsstudie geprüft. Auf dieser Basis konnte in der dritten Studie festgestellt werden, dass die Purkinje-Verschiebung unmittelbar nach der Einstellung einer maximalen Leuchtdichte von 0,1 cd/m^2 eintritt und ebenfalls unabhängig von der Dunkeladaptationszeit ist. Des Weiteren zeigte sich, dass die Purkinje-Verschiebung nicht im Netzhautzentrum, sondern ausschließlich in der Peripherie (10&ring;) auftritt und wohl nicht zu einer Refraktionsverschiebung mit abnehmender Leuchtdichte beträgt. Die vierte Studie beschäftigte sich mit der Erstellung von Defokuskurven für Visus und Kontrast in Abhängigkeit von der Leuchtdichte. Dabei änderte sich der Refraktionsstatus nur in Einzelfällen in Richtung Myopie. Der Betrag der Myopisierung beträgt weniger als 1 dpt. Astigmatische Änderungen treten in der Regel nicht auf. Ebenso führt die Verordnung einer angepassten Korrektion für mesopische Lichtverhältnisse nur in Einzelfällen zu einer Verbesserung von Visus und Kontrastempfindlichkeit in dunkler Umgebung. Ferner geht aus dieser Arbeit hervor, dass eine Differenzierung zwischen Dämmerungs- und Nachtmyopie notwendig ist.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000630
Loracher, Stefanie;
Elektronisch abstimmbare transistorbasierte Induktivitäten für den Hochfrequenzbereich. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (v, 167 Seiten)
Technische Universität Ilmenau, Dissertation 2020

Die zur Verfügung stehenden Frequenzen stellen für eine zunehmende Anzahl von Anwendungen eine zentrale Ressource dar. Die effiziente Nutzung der verfügbaren Frequenzen ist erforderlich und damit die Entwicklung von frequenzagilen Sender- und Empfängerarchitekturen. Dafür können entweder mehrere Schaltungen für die jeweiligen Frequenzen parallel aufgebaut werden, oder im Sinne der fortschreitenden Miniaturisierung konfigurierbare Schaltungen verwendet werden. Die steuerbaren Bauelemente, die für konfigurierbare Schaltungen notwendig sind, sind auf vielfältige Weise realisierbar. Die vorliegende Arbeit beinhaltet den Funktionsbeweis der transistorbasierten Induktivitätsschaltung, zeigt das Potenzial des Ansatzes und stellt Richtlinien für die Dimensionierung beziehungsweise den Aufbau der Schaltung auf. Das Potenzial als symmetrische, variierbare und miniaturisierbare Induktivität im Hochfrequenzbereich für frequenzagile Anwendungen wird untersucht. Eine Literaturrecherche zum Stand der Technik beschreibt die bisher üblichen Methoden für abstimmbare Induktivitäten und ermöglicht einen Vergleich mit der Induktivitätsschaltung. Sie ist aufgrund der Möglichkeit der Integration und Miniaturisierung eine nützliche Ergänzung für die HF-Schaltungstechnik. Analytische Untersuchungen in Kombination mit numerischen Simulationsmethoden erlauben das Ableiten von präziseren Entwurfskriterien, die nach Wissen der Autorin das erste Mal auch transistorinterne Größen berücksichtigen. Die Richtlinien werden anschließend durch die Messung realisierter Schaltungen validiert, in denen symmetrisches Verhalten.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000628
Bichra, Mohamed;
Development of an innovative metrology technique for freeform optics based on a modified Talbot-wavefront-sensor. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (xvii, 112 Blätter)
Technische Universität Ilmenau, Dissertation 2020

Die Leistungsfähigkeit hochpräziser optischer Systeme mit sphärischer Optik ist im Allgemeinen durch Aberrationen begrenzt. Durch die Verwendung asphärischer und Freiform-Optiken können die geometrischen Aberrationen reduziert oder beseitigt werden. Gleichzeitig können die erforderliche Anzahl von Komponenten, die Größe und das Gewicht des Systems reduziert werden. Heutzutage existieren neue Produktionstechniken, die die Herstellung hochpräziser Freiformflächen ermöglichen. Eine geeignete Messtechnik (universell, hochgenau, berührungslos, kostengünstig und schnell/echtzeitfähig) ist jedoch der Schlüssel für die Herstellung, Entwicklung und Anwendung dieser Oberflächen. Diese Arbeit beschreibt die Ableitung, Implementierung und Erprobung eines neuen Wellenfront-Messprinzips für Freiformoptik. Eine der wichtigsten Eigenschaften des vorgestellten Wellenfrontsensors ist die Möglichkeit der gleichzeitigen Charakterisierung der Freiform im Transmissions- und Reflexionsmodus. Der neuartige Wellenfrontsensor basiert auf der Beugungstheorie und der Fourier-Analyse mit einem modifizierten Winkelspektrum-Propagator. Aus experimenteller Sicht wird die Ausbreitung einer Wellenfront hinter einem zweidimensionalen Gitter beobachtet. Dann wird ein universelles Verfahren verwendet, um den Phasengradienten direkt aus einem aufgezeichneten Intensitätsbild zu extrahieren. Hierzu wird die Intensitätsverteilung im Spektralbereich analysiert und die Verarbeitung durch eine entsprechende Zerlegung des Propagatorkerns vereinfacht. Diese Methode funktioniert für beliebige Abstände hinter dem Gitter. Unsere neue Formulierung wurde durch zahlreiche Simulationen getestet. Die von einer Freiformfläche erzeugte Wellenfront wird nach der neuen Methode gemessen und mit Messergebnissen eines handelsüblichen Shack-Hartmann-Sensors verglichen. Für die Messung reflektierender Oberflächen wurde der vorgestellte Aufbau leicht modifiziert. Somit können alle optischen Elemente auf einer optischen Achse platziert werden, ohne dass eine Verschattung zwischen der Beleuchtung und der Messeinheit auftritt. Das Fehlen einer seitlichen Beleuchtung oder eines Strahlteilers sowie die Möglichkeit der Verwendung einer partiell kohärenten Beleuchtung sind die Hauptmerkmale des im Rahmen dieser Dissertation erforschten Messsystems.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000589
Gorges, Stephan;
A lifting and actuating unit for a planar nanoprecision drive system. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (xxi, 112, XI Seiten)
Technische Universität Ilmenau, Dissertation 2020

Ein wesentlicher Treiber in vielen heutigen Technologiebereichen ist die Miniaturisierung von elektrischen, optischen und mechanischen Systemen. Mehrachsige Geräte mit großen Verfahrbereichen und extremer Präzision spielen dabei nicht nur in der Messung und Qualitätssicherung, sondern auch in der Fabrikation und Manipulation von Nanometerstrukturen eine entscheidende Rolle. Die vertikale Bewegungsaufgabe stellt eine besondere Herausforderung dar, da die Schwerkraft des bewegten Objektes permanent kompensiert werden muss. Diese Arbeit schlägt dafür eine Vertikalhub- und -aktuiereinheit vor und trägt damit zur Weiterentwicklung von Nanometer-Präzisionsantriebssystemen bei. Grundlegende mögliche kinematische Integrationsvarianten werden betrachtet und entsprechend anwendungsrelevanter Kriterien gegenübergestellt. Der gezeigte parallelkinematische Ansatz zeichnet sich durch seine gute Integrierbarkeit, geringe negative Einflüsse auf die umliegenden Systeme, sowie die Verteilung der Last auf mehrere Stellglieder aus. Folgend wird ein konstruktiver Entwicklungsprozess zusammengestellt, um diese favorisierte Variante weiter auszuarbeiten. Im Laufe dieses Prozesses wird die zu entwickelnde Einheit in das Gesamtsystem eingeordnet und ihre Anforderungen, Randbedingungen und enthaltenen Teilsysteme definiert. Die vertikale Aktuierung besteht dabei aus zwei Systemen: Einer pneumatische Gewichtskraftkompensation und einem elektromagnetischen Präzisionsantrieb. Das technische Prinzip der Hubeinheit wird erstellt und die Teilsysteme im verfügbaren Bauraum angeordnet. Daraus wird ein detailliertes Modell des pneumatischen Aktors abgeleitet, dieser dimensioniert und dessen Eigenschaften bestimmt. Die Ausdehnung dieses Teilsystems definiert die räumlichen Grenzen für den umliegenden Präzisionsantrieb. Zur Auslegung dieses Antriebs wird das Kraft-/Leistungsverhältnis als Zielgröße definiert. Mit Hilfe von numerischer Simulation und Optimierung werden Geometrien für verschiedenste Topologien entworfen und bewertet. Die geeignetste Variante wird mit allen Teilsystemen in eine Einheit integriert und auskonstruiert. Abschließend werden zukünftige Schritte für die Integration der Einheit in ein Präzisionsantriebssystem dargestellt und mögliche Anwendungsszenarien in der Nanofabrikation präsentiert.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000391
Dannberg, Oliver;
Entwicklung eines Prüfstandes zur rückführbaren Kalibrierung von Cantilevern. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (ii, 109 Seiten)
Technische Universität Ilmenau, Dissertation 2020

Zur rückführbaren Messung von Kräften im Bereich von Nanonewton werden typischerweise AFM Cantilever verwendet, deren Durchbiegung in guter Näherung proportional zur eingeleiteten Kraft ist. Die Proportionalitätskonstante zwischen den Größen wird durch die Steifigkeit des Cantilevers beschrieben. In dieser Arbeit wird die Konzeption, Entwickelung und Analyse eines Prüfstandes zur Vermessung der Steifigkeiten von Cantilevern beschrieben. Dazu wird der Cantilever an einem Halter befestigt und durch einen Piezoantrieb auf die Oberfläche eines Diamanttasters gedrückt. Die Auslenkung des Cantilevers wird durch ein Differenzinterferometer und die dafür notwendige Kraft mit einer neu entwickelten EMK-Wägezelle gemessen. Der Mechanismus der monolithischen Wägezelle ist durch die Verwendung eines einzelnen Drehgelenks sehr weich und ermöglicht dadurch eine hohe Kraftauflösung. Die Position des Wägebalkens wird durch ein weiteres Differenzinterferometer gemessen und mit einem PID-Regler zu Null geregelt. In zwei unabhängigen Verfahren wurde in guter Übereinstimmung die effektive Kraftkonstante der Wägezelle auf Bl = 25,9 mN/A bestimmt. Der Prüfstand wurde hinsichtlich seiner Eigenschaften untersucht und die Einflussgrößen auf die Messunsicherheit der Cantileversteifigkeit identifiziert. Die Kalibrierung eines weichen Cantilever ergab eine relative Messunsicherheit von 1,5 % (k = 2) bei einer Kalibrierkraft < 100 nN. Bei der anschließenden Untersuchung der Spitze waren keine Schäden festzustellen. Die Messung eines zweiten Cantilevers ergab eine gute Wiederholbarkeit der Kalibrierergebnisse. Außerdem wurden die durch diesen Prüfstand erzielten Ergebnisse mit den Resultaten eines an deren Prüfstandes verglichen und zeigten gute Übereinstimmung.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000578
Heinemann, David;
3D based analysis for PCB jet printing using ultra-close range photogrammetry. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (145 Blätter, Blatt a-p)
Technische Universität Ilmenau, Dissertation 2020

Das PCB Jet Printing ist eine innovative Methode um Lotpaste ohne die Verwendung von Schablonen auf Leiterplatten (PCB - printed circtuit board) zu applizieren. In Fertigungslinien enthaltene Inspektionssysteme sind in der Lage zu entscheiden, ob eine Leiterplatte korrekt bedruckt wurde und somit weiterverwendbar ist. Eine Korrektur fehlerhafter Platten ist in diesem Schritt mit vertretbaren Kosten und Aufwand jedoch nicht mehr möglich. Das Ziel dieser Arbeit ist daher die Entwicklung eines integrierbaren und online-fähigen Inspektionssystems um den Druckprozess zu überwachen. Dazu soll das Volumen der Lotpunkte ermittelt werden um dieses bei Bedarf zu korrigieren, bevor die Leiterplatte den Drucker verlässt. Somit können Unsicherheiten reduziert und die Effizienz des Systems erhöht werden. Für die Umsetzung wird eine photogrammertrische Rekonstruktion etabliert. Dies beinhaltet das Design und die Realisierung eines Demonstratorsystems. Es wurde ein neuartiger Ansatz für die Kamerakalibrierung im neu eingeführten Bereich der ultra-close range normal case photogrammetry vorgeschlagen und über den 2D Reprojektionsfehler sowie den 3D Rekonstruktionsfehler evaluiert. Um effizient Bildmerkmale zu extrahieren wurden bekannte Merkmalsextraktoren und -deskriptoren untersucht und beispielsweise in Bezug auf eine Skalenraumprozessierung angepasst. Für die Evaluierung wurde ein neuer Parameter eingeführt (Solder Joint Feature Coverage - SolFeC), welcher die Abdeckung der Lotpunkte mit Bildmerkmalen beschreibt. Das kalibrierte Kameramodell wurde neben der Rekonstruktion zur modellbasierten Punktkorrespondenzkorrektur verwendet, da dieser Schritt im Nahbereich aufgrund des identischen Erscheinungsbildes verschiedener Lotpunkte eine hohe Herausforderung darstellt. Die Ergebnisse des feature matchings wurde über die Parameter precision und recall sowie über das Rekonstruktionsergebnis bewertet. Mittels angepasster Kameramodelle wurden die Punktkorrespondenzen zur 3D Rekonstruktion einer Punktwolke verwendet. Diese wird in ein Clustering überführt. Anschließend wird jede Lotpunktwolke über eine konkave Hülle vermascht und gefiltert. Die Abweichung der berechneten Volumina innerhalb der Lotpunkte mit einem Volumen von mehr als 30 nl beträgt weniger als 12%, was mit der Schwankung des Lotpastendrucks korrespondiert. Die allgemeine Abweichung beträgt 14%.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000175
Cichon, Daniel;
Robuste Lokalisierung magnetischer Quellen mithilfe integrierter 3D-Hall-Sensor-Anordnungen. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (vii, 139 Seiten)
Technische Universität Ilmenau, Dissertation 2020

Magnetfeldsensoren erlauben die indirekte, berührungslose Bestimmung der Position bewegter Objekte und finden daher millionenfach Anwendung im Industrie- und Automobilbereich. Positionsmesssysteme in diesen Anwendungsbereichen haben die Aufgabe einen linearen Weg oder den Winkel der Rotationsbewegung eines Permanentmagneten zu erfassen. In Labor-Anwendungen wurde bereits gezeigt, dass das Feld magnetischer Quellen genutzt werden kann alle sechs mechanischen Freiheitsgrade zu bestimmen. Unter schwierigen Umgebungsbedingungen sind Auswertungen mit nur einem einzigen Freiheitsgrad jedoch alternativlos. Gründe hierfür sind der rechentechnische Aufwand komplexer Auswertealgorithmen, aber auch zu erwartende magnetische und temperaturbedingte Störungen. Zudem gibt es kaum Anhaltspunkte für die Auslegung magnetfeldbasierter Positionsmesssysteme, was den Einsatz erschwert. Ziel dieser Arbeit ist es daher, Methoden zu erarbeiten, die es ermöglichen die Vorteile integrierter Magnetfeldsensoren auch für schwierige Umgebungen nutzbar zu machen, und somit die Möglichkeiten der Technologie auszuschöpfen. Kompakte Hall-Sensor-Anordnungen, die am Fraunhofer Institut für Integrierte Schaltungen (IIS) entwickelt wurden, dienen als Ausgangspunkt. Sie ermöglichen es, den Magnetfeldvektor einer magnetischen Quelle an mehreren Stellen und auf engstem Raum zu messen. Um daraus die Position zu ermitteln, und somit das inverse Problem der Magnetostatik zu lösen, wird in dieser Arbeit ein analytisches Modell eines beispielhaften Messsystems entwickelt und verschiedene numerische Lösungsverfahren evaluiert. Das Unscented Kalman-Filter zeigt sich im Hinblick auf die Anforderungen industrieller Anwendungen als besonders geeignet. Von der stochastischen Modellierung des Systems ausgehend, werden Methoden und Richtlinien zum Entwurf magnetfeldbasierter Positionsmesssysteme abgeleitet und ein Verfahren vorgestellt, das es ermöglicht Permanentmagneten zu charakterisieren, und somit die Eigenschaften der Lokalisierung zu verbessern. Algorithmische Anpassungen des Unscented-Kalman-Filters, deren Wirksamkeit anhand von Messungen und Simulationen belegt wird, reduzieren die Empfindlichkeit gegenüber Störungen in schwierigen Umgebungen.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000502
Liu, Long;
Constructing pseudocapacitive electrodes for supercapacitors based on rationally designed nanoarchitectured current collectors. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (XIV, 130 Seiten)
Technische Universität Ilmenau, Dissertation 2020

Superkondensatoren sind als elektrochemische Energiespeicher von großer Bedeutung, was auf ihre hervorragende elektrische Leistung, ihre ausgezeichnete Reversibilität und ihre lange Lebensdauer zurückzuführen ist. Im Vergleich zu Batterien haben Superkondensatoren jedoch eine geringe Energiedichte, was ihre breite Anwendung einschränkt. Pseudokapazitive Materialien mit einer hohen theoretischen Kapazität sind sehr vielversprechend, um die Energiespeicherfähigkeit von Superkondensatoren zu erhöhen. Die Forschung an nanoarchitektonischen Stromspeichern zielt darauf ab, ihr volles Potenzial im Bereich der Ladungsspeicherung auszuschöpfen, indem man sich mit den herausfordernden Aspekten wie der inhärent niedrigen elektrischen Leitfähigkeit und dem trägen Lade- und Entladeverhalten der meisten pseudokapazitiven Materialien befasst. In diesem Zusammenhang wurden drei Arten von nanoarchitektonischen Stromkollektoren entworfen, um pseudokapazitive Elektroden zu konstruieren, die unter verschiedenen Aspekten untersucht werden sollten. Es handelt sich dabei um Nickel-Nanorod-Arrays (NN), geätzte poröse Aluminiumoxidmembranen (EPAM), die mit einer SnO2-Schicht beschichtet sind (EPAMSnO2), und in EPAM eingeschlossene Nickel-Nanodrähte (NiNWs-EPAM): Zunächst wird die Rolle von NN-Nanoarchitekten-Stromkollektoren in Superkondensator-Elektroden mit den pseudokapazitiven Materialien bei hoher Massenbelastung und dicker Schicht bewertet. Durch die elektrochemische Leistungs- und Impedanzanalyse der Elektroden mit und ohne die NN-nanoarchitektierten Stromkollektoren wird die Validierung des Designs von Dickschichtelektroden auf der Basis von nanoarchitektierten Stromkollektoren demonstriert. Zweitens werden EPAM@SnO2-Gerüste als nanoarchitektonische Stromkollektoren für Nanoelektroden entworfen und eingesetzt, um die Energiedichte des Mikro-Superkondensators (MSC) zu verbessern. Dank der orientierten und robusten Nanokanäle in EPAM@SnO2 können die daraus resultierenden Nanoelektroden sowohl die effektive Ionenmigration als auch die sehr große elektroaktive Oberfläche innerhalb des begrenzten Footprints synergetisch nutzen. Ein MSC wird schließlich konstruiert und weist eine rekordverdächtig hohe Leistung auf, was auf die Umsetzbarkeit des derzeitigen Designs für Energiespeichervorrichtungen hindeutet. Drittens wird der NiNWs-EPAM nanoarchitektierte Stromkollektor hergestellt, um nicht aggregierende und robuste eindimensionale (1D) Nanoelektroden-Arrays zu konstruieren. Das EPAM verhindert die Selbstaggregation von 1D-Nanoelektroden-Arrays und verleiht ihnen gleichzeitig eine hohe strukturelle Integrität und elektrochemische Stabilität während der Montage und des Betriebsprozesses der Geräte. MSCs, die mit diesen nicht aggregierenden und robusten 1D-Nanoelektroden bestückt sind, erreichen eine bemerkenswerte Energiespeicherleistung. Die im Rahmen dieser Arbeit zu nanoarchitektonischen Stromkollektoren für Superkondensatoren erzielten Ergebnisse geben einen Ausblick auf den Entwurf zukünftiger Energiespeicher und -wandler.



https://www.db-thueringen.de/receive/dbt_mods_00047350
Hesamedini, Sanaz;
Trivalent chromium based conversion coatings containing cobalt on the zinc plated steel. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (XVIII, 144 Blätter, Blatt XIX-XLVIII)
Technische Universität Ilmenau, Dissertation 2020

Im Zuge neuer EU-Direktiven wurde die Verwendung von Cr(VI)-Verbindungen stark reglementiert. In der Oberflächentechnik wurde daraufhin sechswertiges Chrom durch sicherere und gleichzeitig effektive Passivierungen auf Cr(III)-Basis ersetzt. Der Korrosionsschutz von Cr(VI)-Beschichtungen ohne Wärmebehandlung ist im Allgemeinen besser. In bisher durchgeführten Untersuchungen zeigte sich, dass durch Zusatz von Übergangsmetallionen der Korrosionsschutz der Cr(III)-Passivierungsschicht verbessert werden kann. In dieser Arbeit wird der Einfluss der Zusammensetzung von Cr(III)-Passivierung mit Kobaltanteil auf die Bildung und die Struktur von Konversionsschichten auf verzinkten Substraten untersucht. Auf den verzinkten Stahl wurden Modelllösungen mit zwei verschiedenen Komplexbildnern, nämlich Fluorid und Oxalat, mit und ohne Kobalt aufgetragen. Rasterelektronenmikroskopie (REM) und Rasterkraftmikroskopie zeigten Oberflächenmorphologien mit mikrostrukturellen Defekten. In Anwesenheit von Kobalt wurden die Schichten gleichmäßiger. Die elementare Zusammensetzung der Schichten wurde mit der Augerelektronenspektroskopie (AES) untersucht. Die Mengen an Cr und Co in den Beschichtungen wurden mit Hilfe der optischen Plasma-Emissionsspektroskopie (ICP-OES) bestimmt. Sowohl AES als auch ICP-OES zeigten Co-Gehalte in den Schichten. Mit Hilfe eines thermodynamischen Modells wurde die Konzentration von Cr(III)-, Zn(II)- und Co(II)-Spezies in der Behandlungslösung im pH-Bereich von 0,0 bis 14,0 und auch der minimale pH-Wert für die Abscheidung der Metallionen in der entsprechenden Lösung berechnet. Die Ergebnisse der Korrosionstests (Polarisationsmessung und elektrochemische Impedanzspektroskopie) legen nahe, dass die Bildung einer dichten Schicht für eine gute Korrosionsbeständigkeit entscheidend ist. Außerdem wurde der Bildungsmechanismus von Cr(VI) in den Schichten untersucht. Die Anwesenheit von Cr(VI) wurde mittels Spektrophotometrie nachgewiesen. Die Morphologie und Struktur der Filme wurden per REM beobachtet. Die Gesamtwassermenge in den Schichten wurde mittels Karl-Fischer-Titration gemessen. Es zeigte sich, dass die Morphologie des fluoridhaltigen Films mit einer hohen Dichte an Mikroporen die Wahrscheinlichkeit eines Wassereinschlusses erhöht. Dies führte zu einer Oxidation von Cr(III) zu Cr(VI) durch Sauerstoff in Gegenwart von Wasser bei erhöhten Temperaturen.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000368
Hofmann, Martin;
Feldemissions-Rastersondenlithographie mittels Diamantspitzen zur Erzeugung von sub-10 nm Strukturen. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (xxiii, 141 Seiten)
Technische Universität Ilmenau, Dissertation 2020

Die Strukturerzeugung im Einzelnanometerbereich stellt einen der kritischsten technologischen Aspekte der Nanofabrikation dar. Im Rahmen der vorliegenden Arbeit soll ein Fowler-Nordheim Feldemissionsprozess am Spitzenapex einer diamanthaltigen Rastersonde genutzt werden, um in Molekularglasresistsystemen lithographisch nutzbare Reaktionen auszulösen. Dabei bieten aktive Cantilever die Möglichkeit von Detektion und Lithographie mit der gleichen Rastersonde und vielversprechende Möglichkeiten für eine gezielte Strukturierung im Bereich weniger Nanometer. Gleichzeitig hängt die Herstellung von zukünftigen Quantenbauteilen zu einem größeren Teil von der Qualität der Musterübertragung in ein Siliziumsubstrat ab. Daher ist ein weiterer Bestandteil der vorliegenden Dissertationsschrift die Einführung und Charakterisierung eines reaktiven Ionenätzprozesses bei kryogenen Temperaturen. Im Rahmen der vorliegenden Arbeit erfolgt erstmalig die Strukturierung von Calixarenresist mittels Feldemissions-Rastersondenlithographie (FE-SPL) durch die Verwendung von Diamantspitzen. Dafür wurden zunächst aktive Cantilever mit diamantbeschichteten Siliziumspitzen und einkristallinen Diamantspitzen hergestellt. Es konnte gezeigt werden, dass (i) die Elektronenemissionsstabilität und (ii) die mechanische Stabilität dieser Materialien besser ist als die der standardmäßig genutzten Siliziumspitzen. Auch nach langer Nutzungsdauer einer einzelnen Diamantspitze ist die Strukturerzeugung im Bereich von sub-10nm möglich. Die Zukunftsfähigkeit dieser Materialien im Rahmen einer FE-SPL-Anwendung ist somit signifikant. In Verbindung mit einem reaktiven Ionenätzprozess bei kryogenen Temperaturen (cRIE) erfolgt zudem die Charakterisierung eines Ätzprotokolls für den erfolgreichen Musterübertrag im Bereich von sub-10nm. Weiterhin werden herausfordernde Aspekte bezüglich der Anwendbarkeit, des Durchsatzes und des Strukturübertrages untersucht und durch geeignete Techniken gelöst. Eine neuartige Kombination aus direktem Laserschreiben (DLW) und FE-SPL verbindet Strukturgrößen im Mikro- und Nanometerbereich durch eine sogenannte Mix & Match Lithographie. Eine maskenlose und gleichzeitig großflächige Strukturerzeugung ist möglich, woraus sich wiederum höhere Durchsätze ergeben. Die breit gefächerten Einsatzmöglichkeiten von FE-SPL werden im Abschluss der vorliegenden Arbeit durch die erfolgreiche Herstellung von Lift-Off-Strukturen unterstrichen. In Verbindung mit cRIE ist die Erzeugung von neuartigen und technisch vielversprechenden Bauelementen im Einzelnanometerbereich möglich.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000321
Schienbein, Ralf;
Grundlegende Untersuchungen zum konstruktiven Aufbau von Fünfachs-Nanopositionier- und Nanomessmaschinen. - Ilmenau : Universitätsverlag Ilmenau, 2020. - 1 Online-Ressource (XXIV, 176 Seiten). - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; Band 37)
Technische Universität Ilmenau, Dissertation 2020

Die vorliegende Arbeit beinhaltet Realisierungsmöglichkeiten des konstruktiven Aufbaus von Fünfachs-Nanopositionier-und Nanomessmaschinen für die Messung und Fabrikation makroskopischer Objekte mit Nanometerpräzision. Mit zusätzlichen rotatorischen Freiheiten wird die Limitierung etablierter, überwiegend kartesisch operierender Nanopositionier-und Nanomessmaschinen (NPMM) hinsichtlich der Adressierbarkeit stark gekrümmter Objektgeometrien überwunden. Es werden modular variierte Maschinenkonzepte im Hinblick auf die Realisierung mehrachsiger Bewegungen und unter der Voraussetzung der Erweiterbarkeit kartesischer NPMMs systematisch entwickelt und auf der Grundlage eines Klassifizierungssystems evaluiert. Ein hohes Potential zeigen Varianten mit drei unabhängigen linearen Bewegungen des Objektes in Kombination mit zwei unabhängigen Rotationen des Tools um einen gemeinsamen Momentanpol, der dauerhaft mit dem Arbeitspunkt des Tools (TCP) und dem Abbepunkt der kartesischen NPMM übereinstimmt. Insbesondere die Rotation des Tools um die Hochachse der NPMM mittels Drehtisch in Kombination mit einer Rotation in der horizontalen xy-Ebene unter Verwendung eines Goniometers zeigen einen hohen Erfüllungsgrad. Im Rahmen experimenteller Untersuchungen wird ein derartiger Aufbau innerhalb einer NPMM erprobt, der die Rotationen eines Tools mit einer Masse < 2 kg gewährleistet. Eine asymmetrische Anordnung des Goniometers entlang dessen Hauptdrehachse erlaubt den Einsatz von Tools, deren Gestalt das Arbeitsvolumen des Goniometers überschreitet. Es sind Rotationsbereiche des Tools von 360&ring; um die Hochachse der NPMM und Neigungen zur Hochachse von 90&ring; möglich. Die Integration ultrapräziser Rotationseinheiten in die NPMM erfolgt unter Zuhilfenahme finite Elemente gestützter Modellbildung und daraus abgeleiteter Strukturoptimierung der Koppelstellen. Unter Anwendung von Laserinterferometern in Kombination mit einem geeigneten Retroreflektor im TCP werden Einflüsse der zusätzlichen rotatorischen Positioniersysteme, wie Verformungen und Positionierwiederholbarkeiten, in der NPMM in situ gemessen. Wie beispielhaft mit der Anwendung eines entwickelten Nanoimprinttools gezeigt, erlauben die erreichten Positioniereigenschaften eine Adressierung und Bearbeitung dreidimensionaler Körper mit stark gekrümmter Oberfläche. Ein entwickelter neuartiger Aufbau der Gesamtstruktur, bei dem für die kombinierte Messung der Positionierabweichungen Fabry-Pérot-Interferometer zur Anwendung kommen, gewährleistet den Einbezug der Rotationen in den geschlossenen Regelkreis, wodurch die Mess-und Bearbeitungsgenauigkeit erhöht und die Prozesszeit verkürzt werden. Die Interferometer erfassen die Positionierabweichungen gegenüber einem halbkugelförmigen Konkavspiegel, der mit dem metrologischen Rahmen der NPMM direkt verbunden ist. Abschließend werden Konstruktionsrichtlinien für die Entwicklung von Fünfachs-Nanopositionier-und Nanomessmaschinen zusammengefasst.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000376
Stoffelshaus, Nicole;
Ein Beitrag zur Optimierung des Wissenstransfers in der Einzelfertigung. - Ilmenau : Universitätsverlag Ilmenau, 2020. - 1 Online-Ressource (XVI, 176 Seiten)
Technische Universität Ilmenau, Dissertation 2020

Wissen entwickelt sich immer mehr zur wichtigsten Ressource der Unternehmen. Besonders in der Einzelfertigung stellt das Wissen erfahrener Mitarbeiter ein kritisches Erfolgspotenzial zum Erhalt der Wettbewerbsfähigkeit sowie zu Auf- und Ausbau von Wettbewerbsvorteilen dar. Bedingt durch die charakteristischen Eigenschaften der Einzelfertigung, wie wenig detaillierte Arbeitsvorgaben, große Arbeitsinhalte und eine hohe Komplexität von Produkten und Prozessen, ist ein umfangreiches Spezial- und Erfahrungswissen zur qualitäts- und zielgerichteten Durchführung der Arbeitshandlungen unerlässlich. Zum Erhalt dieser wichtigen Ressource in der Einzelfertigung und zur Reduzierung des Risikos des Wissensverlustes bei Ausscheiden erfahrener Mitarbeiter bedarf es der Etablierung effizienter Lösungen. Übliche Methoden zum Wissenstransfer sind hierzu jedoch aufgrund der charakteristischen Eigenschaften der Einzelfertigung sowie zumeist fehlender Betrachtung der komplexen Wissensstruktur erfahrener Mitarbeiter zur Regulation der Arbeitshandlungen in der Einzelfertigung nur bedingt geeignet. In der vorliegenden Arbeit wird daher eine Methode entwickelt, die es ermöglicht, die Wissensinhalte der komplexen Wissensstrukturen erfahrener Mitarbeiter zur erfolgreichen Handlungsdurchführung in der Einzelfertigung zu heben und auf junge Mitarbeiter zu übertragen. Hierzu wird zunächst, basierend auf arbeitspsychologischen Theorien zur Handlungsregulation, die Beziehung zwischen dem Wissen des erfahrenen Mitarbeiters und dessen Handeln im Arbeitsprozess herausgearbeitet. Ausgehend von diesen Erkenntnissen werden die Anforderungen an die Methode definiert sowie eine allgemeingültige Referenzmethode zum Einsatz in der Einzelfertigung entwickelt. Anschließend wird, basierend auf der Referenzmethode, eine, an den Einsatzbereich adaptierte, spezifische Methode in einem systematisch geleiteten partizipativen Verfahren mit Mitarbeitern der Dampfturbinenfertigung der Siemens AG am Standort Mülheim an der Ruhr erarbeitet und angewandt. Die multifaktorielle Wirksamkeit der entwickelten Methode sowohl für die anwendenden Mitarbeiter, den Anlernprozess und die Organisation als Ganzes durch die erfolgreiche Übertragung des Spezial- und Erfahrungswissens erfahrener Mitarbeiter konnte anhand der Ergebnisse der Vorversuche sowie durch Expertenbefragungen bestätigt werden.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000201
Gizatullin, Bulat;
Dynamic nuclear polarization NMR fast field cycling study complex systems. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (117 Blätter)
Technische Universität Ilmenau, Dissertation 2020

Die dynamische Kernpolarisation (DNP) ist eine Methode zur Erzielung eines außerordentlich hohen hyperpolarisierten Kernspinzustands, welche aufgrund der erhöhten Empfindlichkeit ein zusätzliches Potenzial für Kernspinresonanz (NMR) -Techniken bietet. Zudem ist die DNP- Methode sowohl für Anwendungen in niedrigen, als auch in hohen Magnetfeldern geeignet und ermöglicht dabei für eine Vielzahl von Messbedingungen und Messsystemen eine Verbesserung der Empfindlichkeit. In dieser Arbeit werden die bisherigen Ansätze zur Kombination der DNP-Methode mit der Fast-Field-Cycling (FFC) NMR-Relaxometrie weiterentwickelt, um die Molekulardynamik in komplexen Systemen zu untersuchen. Die zugehörigen Maßnahmen zur Verbesserung der Datenqualität und die ausführliche Datenanalyse werden ebenso vorgestellt, wie der theoretische Hintergrund der Methode. Anhand einer Vielzahl unterschiedlicher Systeme werden die verschiedenen Kombinationen von DNP-Effekten und Interaktionstypen, sowie verschiedene Dynamikmodelle vorgestellt. Die Verteilung der transversalen Relaxationszeit (T2) wird zum Kodieren entsprechender Messungen der longitudinalen Relaxationszeit (T1) und der T2- aufgelösten DNP-Verstärkungsmessungen verwendet. Außerdem wird das Hauptproblem von DNP-FFC-Messungen, welches mit der radikalinduzierter Relaxivität zusammenhängt, mithilfe eines neu entwickelten Differenzenansatzes (Extrapolation) gelöst. Als ein Modellsystem für komplexe Systeme wird ein Blockcopolymer bestehend aus Polystyrol und Polybutadien untersucht, welches sich durch unterschiedliche Dynamiken, Relaxationseigenschaften und Polymer-Lösungsmittel-Wechselwirkungen der verschiedenen Blöcke auszeichnet. Es wird gezeigt, dass für in organischen Lösungsmitteln mit stabilen organischen Radikalen wie TEMPO und BDPA gelöste Blockcopolymere eine Kombination aus Overhauser-Effekt und Festkörper-DNP-Effekt mit einem bemerkenswerten Verstärkungsfaktor vorliegt. In einem nächsten Schritt wird die DNP-FFC-Methode auf einen Satz verschiedener schwerer Rohöle angewendet, die sich in Viskosität, Zusammensetzung und der Menge an freien Radikalen und Vanadylkomplexen unterscheiden. Die Verwendung eines fortschrittlichen Festkörper-DNP-Effekt-Modells liefert Informationen über die Kopplungsstärke und das relative Verhältnis von gekoppelten Elektronen und Kernspins. Das neue Potenzial der Methode wird anhand der Untersuchung von X-Kernsystemen wie 7Li, 13C und 2H demonstriert. Durch die Verwendung der DNP-Methode ist es erstmals möglich, die Relaxationseigenschaften von 13C bei ihrer natürlichen Konzentration in Flüssigkeiten zu untersuchen. Zusammenfassend präsentiert diese Arbeit fortschrittliche Entwicklungen und Anwendungen einer neuartigen DNP-FFC-Methode zur Untersuchung der Molekulardynamik und der Merkmale der Elektron-Kern-Wechselwirkung in einer Vielzahl komplexer Systeme, die an Beispielen von Polymeren, Lösungen, porösen Medien und Mehrkomponentenflüssigkeiten vorgestellt werden. Die meisten der in der vorliegenden Arbeit zum ersten Mal untersuchten Systeme wurden zur Entwicklung der kombinierten Analyse verwendet, einschließlich konventioneller Relaxationsdispersions- und DNP-Ansätze, die es ermöglichen, einzigartige detaillierte Informationen über Dynamik und Elektron-Kern-Wechselwirkungen zu erhalten.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000344
Hähnlein, Bernd;
Graphen - epitaktisches Wachstum, Charakterisierung und nicht-klassische elektrische Bauelementekonzepte. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (163 Blätter)
Technische Universität Ilmenau, Dissertation 2020

In der vorliegenden Dissertation wurden die Schwerpunkte des Wachstums auf semi-isolierendem 6H-SiC, der Schicht- als auch der Bauelementecharakterisierung auf Basis von epitaktischem Graphen behandelt. Die Schichten wurden mittels REM, AFM, LEED, XPS und ARPES untersucht. Anhand von REM Aufnahmen wurde durch einen neuartigen Ansatz die Qualität der Schichten über die Bildentropie mit den Wachstumsparametern korreliert. Für die Bestimmung der Schichtdicke mit Hilfe von XPS wurden (a-)symmetrische Fit-Funktionen und ihr Fehler bei der Dickenbestimmung betrachtet. Der zweite Schwerpunkt befasst sich mit der Charakterisierung der hergestellten Schichten durch Raman- und FTIR-Spektroskopie. Die Einflüsse von Verspannung, Fermi-Niveau und Lagenzahl auf das Raman-Spektrum des Graphen wurden klassifiziert und quantifiziert. Uniaxiale konnte von biaxialer Dehnung anhand des Unterschieds in der G/2D-Dispersion unterschieden werden, die Asymmetrie der G-Mode wird dabei maßgeblich von uniaxialer Dehnung, der Lage des Fermi-Niveaus als auch durch Transferdotierung bei Anwesenheit von Adsorbaten beeinflusst. Zunehmende Lagenzahl verursachte eine Blauverschiebung der 2D-Mode bei zunehmender Halbwertbreite. Mittels FTIR wurden Änderung des Reststrahlenbands des SiCs in Abhängigkeit des Wachstums durch Anregung eines Oberflächenplasmon-Polaritons im Graphen untersucht. Eine Auswertemethode wurde entwickelt, um die sich im Divisionsspektrum der Reflektivitäten ausbildende Fano-Resonanz zu beschreiben. Die Intensität der resultierenden Fano-Resonanz wird dabei maßgeblich von der Verschiebung der Modell-Oszillatoren zueinander beeinflusst. Der dritte Schwerpunkt befasst sich mit der Strukturierung und Charakterisierung von vollständig aus Graphen bestehenden, Three Terminal Junctions (TTJ) und Side-Gate-Transistoren (SG-FET). Für die Vermessung kleinster Strukturbreiten anhand von REM-Aufnahmen wurden Methoden zur Schwingungskorrektur und der Breitenbestimmung nahe/unterhalb der Auflösungsgrenze des REMs hergeleitet. Es konnte gezeigt werden, dass TTJs einen Gleichrichtungseffekt mit hoher Gleichrichtungseffizienz aufweisen. Des Weiteren wurden die auftretenden Stromverstärkungseffekte untersucht. Die realisierten SG-FETs zeigen vergleichbar gute Eigenschaften wie konventionelle Top-Gate-Transistoren auf bei Minimierung parasitärer Einflüsse.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000335
Chien, Shih-Cheng;
Brain network dynamics in deviance response and auditory perception. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (xi, 117 Seiten, Seite x-xxvi)
Technische Universität Ilmenau, Dissertation 2020

Neuronale Reaktionen auf plötzliche Veränderungen des sensorischen Inputs können in vielen Teilen der sensorischen Bahnen auf verschiedenen Organisationsebenen beobachtet werden. So können beispielsweise Abweichungen, die die Regelmäßigkeit auf verschiedenen Abstraktionsebenen verletzen, als einfache Ein-/Aus-Reaktionen einzelner Neuronen oder als kumulative Reaktionen neuronaler Populationen beobachtet werden. Aufgrund des relativ einheitlichen und selbstähnlichen Verdrahtungsmuster im Kortex scheint es unwahrscheinlich, dass die verschiedenen kortikalen Reaktionen, die unterschiedliche Funktionalitäten unterstützen (z.B. Lückenerkennung, Chunking, etc.), jeweils auf spezialisierten kortikalen Verschaltungsmustern beruhen. Darüber hinaus sprechen reziproke Verdrahtungsmuster (mit heterogenen Kombinationen von exzitatorischen und inhibitorischen Verbindungen) im Kortex für ein generisches Prinzip zur Erkennung von Abweichungen. Das vorgeschlagene generische Prinzip der Abweichungserkennung unterteilt die Erzeugung der Abweichungsreaktion in zwei Funktionsschritte: Regularitätsbildung und Änderungserkennung. Das Prinzip legt nahe, dass die im Kortex beobachteten Reaktionen, wie die kortikalen Ein/Aus-Antworten, die kortikale Auslassungsreaktion (OSR) und die Mismatch-Negativität (MMN), als Änderungsreaktionen auf verschiedenen Abstraktionsebenen betrachtet werden können. Das Netzwerkmodell, das auf diesem Prinzip basiert, reproduziert mehrere experimentell beobachtete Befunde, zu denen die unterschiedlichen zeitlichen Profile der Ein/Aus-Antworten, die lineare Beziehung zwischen OSR-Latenz und Input Stimulus Onset Asynchrony (SOA) und die langsamen und schnellen Reaktionen im Sequenz-MMN-Paradigma gehören. In Bezug auf die Erkennung von Veränderungen deuten die Simulationsergebnisse darauf hin, dass für das Auftreten von Veränderungsdetektoren ein Disinhibitionsmechanismus erforderlich ist. Eine Analyse der Verbindungsstärken im Netzwerk deutet weiterhin auf einen unterstützenden Effekt der synaptischen Anpassung und einen destruktiven Effekt von N-Methyl-D-Aspartat-Rezeptor- (NMDA-r)-Antagonisten auf die Änderungserkennung hin. In Bezug auf die Regularitätsbildung deuten die Simulationsergebnisse auf den Notwendigkeit für ein raumcodierenden Schema, eine größere Zeitkonstante der hemmenden Population und kurzfristige Plastizität hin, um eine stetige neuronale Repräsentation der Regularität zu unterstützen. Für die experimentelle Validierung können wir mehrere Vorhersagen aus dem Modell ableiten. Erstens sollten die verschiedenen kortikalen Abweichungsreaktionen ähnliche laminare Profile aufweisen, insbesondere bzgl. der Aktivität der inhibitorischen Neuronen, in denen die Änderungserkennung stattfindet. Zweitens würden die NMDA-r-Antagonisten im Allgemeinen die kortikale Aus-Reaktion, die kortikale OSR und die MMN dämpfen. Drittens könnte es unterschiedliche räumliche Verteilungen der Änderungserkennung und Regularitätsbildung geben, da die beiden Funktionen aus unterschiedlichen Netzwerkeigenschaften wie Zeitkonstanten und Verbindungsmustern entstehen. Diese Arbeit bietet einen neuen Blickwinkel auf die neuronalen Mechanismen, die der Detektion von Abweichungen zugrunde liegen. Zukünftige Forschungsthemen, wie der Aufmerksamkeitsmechanismus in der Wahrnehmung, die funktionelle Rolle verschiedener Arten von hemmenden Neuronen sowie höhere kognitive Funktionen wie Spracherwerb und -verständnis, können auf der aktuellen Implementierung des Modells basieren.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000120
Schädel, Sebastian;
Neuartiges Messverfahren zur 3D-Gewindekalibrierung unter Verwendung einer flächenhaften Messstrategie und eines ganzheitlichen Auswertealogorithmus. - Bremen : Fachverlag NW in der Carl Schünemann Verlag GmbH, 2020. - X, 152 Seiten. - (PTB-Bericht)
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-95606-529-3
Literaturverzeichnis: Seite 119-127

Das Gewinde zählt heutzutage zu den am häufigsten eingesetzten Maschinenelementen. Der Grund dafür ist die universelle Anwendbarkeit als Befestigungs-, Verbindungs-, Bewegungs-, Dichtungs- oder Zentrierelement. Dabei stellt die Funktion häufig höchste Anforderungen an die Genauigkeit der Gewindegeometrie. Demzufolge wächst der Anspruch an die technologischen Lösungen zur Fertigung und Prüfung von geometrischen Merkmalen am Gewinde stetig. Gewinde werden gemäß aktueller Normen und Richtlinien bislang nur stichprobenartig an bestimmten Punkten und in ausgewählten Schnitten gemessen und ausgewertet. Die wendelförmige Geometrie lässt sich hinsichtlich ihrer Funktionalität daher nur unzureichend bewerten. Der Einsatz einer flächenhaften Messstrategie und einer ganzheitlichen Auswertemethode revolutioniert die konventionellen Vorgehensweisen und ermöglicht zudem erstmals eine funktionsorientierte Prüfung von Gewinden. Die Gewindemetrologie steht deshalb in ihrer fast hundertjährigen Entwicklungsgeschichte im Zuge der vierten industriellen Revolution vor einem Paradigmenwechsel. Um diesem Rechnung zu tragen, beschäftigt sich die vorliegende Arbeit mit der Entwicklung eines fortschrittlichen messtechnischen Verfahrens zur Rückführung von Bestimmungsgrößen am Gewinde mit den höchsten Anforderungen an die Messunsicherheit im Umfeld eines nationalen Metrologie Instituts, der Physikalisch-Technischen Bundesanstalt (PTB). Das Messverfahren zielt auf den Einsatz von flächenhaften Messstrategien und ganzheitlichen Auswertemethoden im Sinne der im Jahre 2015 aktualisierten Technologie-Roadmap Fertigungsmesstechnik 2020 ab. Die messtechnische Erfassung der Werkstückgestalt eines Gewindes erfolgt auf einem Koordinatenmessgerät, welches in den letzten Jahrzehnten Einzug in viele Messlaboratorien gefunden hat. Die ganzheitliche Auswertung basiert auf dem erfassten dreidimensionalen Messdatensatz und einem geometrisch-idealen Modell eines Gewindes. Die bestmögliche Einpassung des Modells in den Messdatensatz erfolgt mit einem im Rahmen dieser Arbeit implementierten Approximationsalgorithmus. Das Messergebnis liefert eine umfassende Angabe der Abweichungen in Maß-, Form- und Lage der Istgeometrie bezüglich der Nenngeometrie. Im praktischen Teil der Arbeit erfolgt anhand werkstückähnlicher Normale von Gewinden der PTB die Verifikation der metrologischen Lösungsansätze.



Kirchner, Johannes;
Grundlegende Entwicklungen und Untersuchungen zur Mikro- und Nanostrukturierung durch Direct Laser Writing in Nanopositionier- und Nanomessmaschinen. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (II, 116 Seiten)
Technische Universität Ilmenau, Dissertation 2020

In dieser Arbeit werden Entwicklungen und Untersuchungen zum Direct Laser Writing, einem maskenlosen lithografischen Bearbeitungsprozess, vorgestellt. Diese hochauflösende lasergestützte Strukturierungstechnik wird mit einer am Institut für Prozessmess- und Sensortechnik entwickelten Nanopositionier- und Nanomessmaschine kombiniert, die sich durch eine extrem hohe Ortsauflösung über einen sehr großen Arbeitsbereich auszeichnet. Durch die synergetische Verbindung des lithografischen Verfahrens mit der hochpräzisen Nano-Koordinatenmessmaschine, wird deren Anwendungsbereich vom präzisen Positionieren und Messen um das Strukturieren zunächst auf planaren und später auch auf gekrümmten Oberflächen, erweitert. Dabei steht das Erreichen geringster lithografisch erzeugter Strukturbreiten in der Größe beugungsbegrenzender Limitationen im Vordergrund der Arbeit. Für die Einkopplung des Lithografielasers wird der Aufbau eines optischen Nanosensors verwendet. Die Sensorik dient der Antastung der Strukturierungsfläche und richtet die Probe auf wenige Nanometer genau zum Bearbeitungslaser aus. Frühere Untersuchungen haben gezeigt, dass der bisher verwendete Fokussensor für diese Zwecke nicht gut geeignet ist. Aus diesem Grund widmet sich die Arbeit zusätzlich der Entwicklung eines neuen, differentiellen, chromatisch konfokalen und fasergekoppelten Abstandssensors, von der Konzeptfindung bis hin zur Inbetriebnahme. Die messtechnischen Untersuchungen des neuen Sensors zeigen, dass eine laterale Auflösung von < 2 [my]m und eine axiale Auflösung von < 1 nm erreicht werden kann. Die Standardabweichung beträgt dabei weniger als 5 nm. Das Basiskonzept des Messsystems wird im Verlauf der Arbeit dahingehend entwickelt, eine hochpräzise lithografische Applikation zu ermöglichen. Durch die systematische Verbesserung der lithografischen Prozessparameter ist es in Kombination mit dem neuen Messsystem möglich, Strukturbreiten von 600 nm und darunter zu erzeugen. In Zukunft soll der neue Sensor auch zur Strukturierung von Linsen, Freiformen und Asphären genutzt werden. Erste Untersuchungen dazu zeigen eine Neigungsabhängigkeit optischer Sensoren, die zu systematischen Messabweichungen und erhöhten lithografischen Strukturbreiten führen. Um die Grundlage lithografischer Anwendungen auf geneigten Oberflächen zu schaffen, werden verschiedene Ansätze zur Kompensation vorgestellt. Basierend auf den grundlegenden Untersuchungen und Erkenntnissen wird eine Reihe von Vorschlägen entwickelt, die in weiterführenden Arbeiten das Messsystem, den Direct Laser Writing-Prozess sowie die Anwendbarkeit dieser Technik auf gekrümmten Oberflächen verbessert.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000188
Zyabkin, Dmitry;
Defect complexes interplay and its influence on the hyperfine structure of hydrogenated TiO2. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (xviii, 126 Seiten)
Technische Universität Ilmenau, Dissertation 2020

Im Titel ist "2" tiefgestellt

Die Bestimmung von Faktoren, welche die Kinetik von photokatalytischen Prozessen beeinflussen und das Nachvollziehen von deren Funktion in Übergangsmetalloxiden, ist das Hauptthema beim Design von effizienten Materialien. Vorhergehende Studien haben gezeigt, dass Punktdefekte wie zum Beispiel Substitutionsatome, Zwischengitteratome und Leerstellen einen wesentlichen Beitrag zur Bandstruktur und zu den chemischen Eigenschaften eines Materials beitragen. Die Veränderung dieser Eigenschaften beeinflusst die Performance von Materialien in gewissen Anwendungsbereichen stark. Die Erwartung, dass ein fundamentales Verständnis von solchen Gitterdefekten positiv zur Aufklärung von deren Wirkung auf die Eigenschaften eines Materials beiträgt, ist die treibende Kraft hinter theoretischer und praktischer Forschung an dotierten und reduzierten Materialien. Das Ziel dieser Dissertation ist die Veränderung der elektronischen Struktur von Rutil und Anatas TiO2, welche die Modellsysteme von Übergangsmetalloxiden darstellen, unter der Beeinflussung von niedrigen Dotierungen mit Wasserstoff, Eisen und Cadmium sowie den Einfluss von Punktdefekten, zu untersuchen. Hierfür wurden Untersuchungen mir der Gestörte y-y Winkelkorrelation (englisch: time-differential perturbed angular correlation oder PAC) Methode, gemeinsam mit Mössbauer Spektroskopie und Tracer Diffusionsexperimenten durchgeführt, welche durch theoretische Studien und Untersuchungen mit Standardmethoden ergänzt wurden. Des Weiteren präsentiert der Autor einen neuen Versuchsaufbau zur Durchführung von Emissions-Mössbauer Messungen (eMIL), welches während dieser Arbeit entwickelt und konstruiert wurde. Die beobachteten Ergebnisse zeigen, dass das Dotandenverhalten nicht leicht voraussehbar ist und das Cd als Dotand in monokristallinem Rutil nicht nur am Kationenplatz sitzt, sondern dass Anteile davon auch andere Umgebungen, die von Leerstellenkonfigurationen beeinflusst werden, besetzen. Beide entdeckten Probenumgebungen scheinen hohen Temperaturen zu wiederstehen, allerdings sind Änderungen im Anteilverhalten sichtbar. Bei Emissions-Mössbauer Messungen zeigen dünne Schichten von Anastase ein temperaturabhängiges Verhalten im gesamten Messbereich. Dies hat zur Folge, dass zwei Anlass Stufen entstehen, welche durch Leerstellenbewegung und deren Interaktion mit Ti Zwischengitteratomen hervorgerufen werden. Die Oxidationsstufe Fe3+, welche eine Spin-Gitter-Relaxation zeigt, ändert sich durch Hydrierung. Dies impliziert, dass Wasserstoff ein sogenannter flacher Donator ist. Experimente in einem bestimmten Temperaturbereich zeigen, dass Leerstellen und Leerstellenansammlungen die Wasserstoffbewegung beeinflussen. Weitere PAC Experimente an den Temperaturwerten, an denen die Wasserstoffbewegung startet, zeigen eine Abhängigkeit des Verhaltens des Dotanden (Wasserstoff), zum Beispiel eine Kopplung mit Cd, von der Hydrierungsstärke. Längere Hydrierungsdauern zeigen, dass nach Dotierungs- bzw. Reduktionsprozessen Erholungseffekte folgen können. Die vorliegende Arbeit zeigt deutlich, dass die Methoden der Hyperfeinwechselwirkungen Informationen über die Natur und das Verhalten von Defekten in Übergangsmetalloxiden bereitstellen können. Diese Ergebnisse können einfach evaluiert und mit detaillierten Dichtefunktionaltheoriesimulationen verglichen werden.



https://www.db-thueringen.de/receive/dbt_mods_00045679
Cao, Xinrui;
Innovative Beleuchtung für neuartige Abbildungs- und Lithographiesysteme. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (vi, 128 Seiten)
Technische Universität Ilmenau, Dissertation 2020

In dieser Arbeit werden innovative Beleuchtungssysteme in den Bereichen Mikroskopie und Lithographie untersucht. Dabei werden LEDs und LED-Arrays als Lichtquellen der Beleuchtungssysteme in zwei optischen Systemen eingesetzt, nämlich der Fourier-Ptychographie und dem Lau-Effekt. Es wird theoretisch analysiert und experimentell überprüft, wie sich die Kohärenzeigenschaften der Beleuchtung auf die zwei optischen Anwendungen auswirken. Der Einsatz der räumlich kohärenten Beleuchtung mittels eines LED-Arrays in der Fourier-Ptychographie ermöglicht es, die Auflösung zu erhöhen. In der Praxis wird ein kohärentes 4f-Abbildungssystem aufgebaut, in dem zwei unterschiedliche Beleuchtungskonzepte eingebracht werden. Sowohl die planare als auch die kugelförmige Anordnung der Beleuchtung bieten räumlich kohärentes Licht mit jeder LED. In Abhängigkeit von der Position der LEDs werden verschiedene Beleuchtungswinkel realisiert. Die LEDs werden sequentiell ein- und ausgeschaltet, somit werden einige niedrigaufgelöste Intensitätsbilder aufgenommen. Um ein hochaufgelöstes Intensitätsbild mittels der Informationen der niedrigaufgelösten Intensitätsbilder zu rekonstruieren, werden zwei iterative Phasenrückgewinnungsalgorithmen überprüft. Der Rekonstruktionsprozess entspricht einer verbreiterten Übertragungsfunktion oder synthetischen numerischen Apertur. Ein hochaufgelöstes Intensitätsbild kann zwar mittels des kFP-Algorithmus oder des EPRY-FPM-Algorithmus rekonstruiert werden, aber seine Qualität wird durch das fehlerbehaftete optische System beeinträchtigt. Der Einfluss der Wellenaberrationen des Beleuchtungssystems und die Beseitigung dieses Einflusses werden diskutiert. Eine Reduzierung dieser Wellenaberrationen wird durch das Einbringen einer kugelförmigen Anordnung der LED-Array-Beleuchtung realisiert. Der Einsatz räumlich kohärenter Beleuchtung in dem Versuchsaufbau zum Lau-Effekt führt zu Beugungsordnungen des Gitters in der Beobachtungsebene. Erst mit einer räumlich inkohärenten Beleuchtung, die jeweils mit einer einzelnen LED oder einem LED-Array realisiert ist, entstehen periodisch dreieckförmige Lau-Streifen. Aus dem Experiment ist herausbekommen, dass das LED-Array ca. 7-fach der optischen Leistung einer einzelnen LED erbringt. Das führt zu vergrößerten Intensitäten der Lau-Streifen und reduziert die Belichtungszeit im Belichtungsprozess der Lithographie. In Abhängigkeit von den Gitterparametern variieren die Intensitäten und Perioden der Lau-Streifen um die Beobachtungsebene. Durch den Einsatz der Lau-Streifen in der optischen Lithographie werden dreidimensionale Strukturen auf sowohl planarer als auch gekrümmter Oberfläche realisiert.



https://www.db-thueringen.de/receive/dbt_mods_00045678
Hofbauer, Peter J.;
In-situ-Messung und Simulation der Flüssigphasensilicierung. - Ilmenau : Universitätsverlag Ilmenau, 2020. - 1 Online-Ressource (xv, 295 Seiten). - (Werkstofftechnik aktuell ; Band 21)
Technische Universität Ilmenau, Dissertation 2020

Die Flüssigphaseninfiltration von porösen Kohlenstoffvorformen mit Silicium, im Allgemeinen als Liquid Silicon Infiltration (LSI) bezeichnet, ist eine der wirtschaftlichsten Technologien zur Herstellung von kohlenstofffaserverstärktem Siliciumcarbid (C/SiC). Trotz jahrzehntelanger Forschung sind die physikalischen Phänomene an der Infiltrationsfront noch nicht hinreichend verstanden worden. Folglich existiert bislang kein mechanistisches Modell, das helfen würde, den Produktionsprozess von C/SiC-Bauteilen zu optimieren. Die vorliegende Arbeit dient dazu, die Forschungslücken zu schließen und ein validiertes Simulationsmodell zur Prozessoptimierung zur Verfügung zu stellen. Inhaltlich wurde die Arbeit in drei Teile gegliedert, wobei sich der erste Teil zunächst mit den Herstellverfahren von C/SiC-Komponenten befasst. Anschließend werden die grundlegenden chemischen und physikalischen Vorgänge der Reaktion von Silicium und Kohlenstoff zu Siliciumcarbid erläutert. Gefolgt von dem bisherigen Verständnis der Infiltration von porösen, kohlenstofffaserverstärkten Kohlenstoffvorformen (C/C-Preforms) mit flüssigem Silicium, wird der Stand der Technik mit den bisweilen existierenden Infiltrations-und Diffusionsmodellen abgehandelt. Der zweite Teil befasst sich mit einem neu entwickelten Versuchsaufbau zur Untersuchung des LSI-Prozesses. Dieser ermöglicht eine In-situ-Beobachtung während der Infiltration einer Spaltkapillare aus Glaskohlenstoff mit Silicium. Ursprünglich war der Versuchsaufbau zur Validierung der bisher anerkannten Infiltrationsmodelle angedacht, die auf der allgemeinen Kapillartheorie beruhen. Allerdings zeigten die Versuche, dass sich die Infiltrationskinetik grundlegend von dem Verhalten unterscheidet, dass durch die bekannten Infiltrationsmodelle vorhergesagt wird. Weitere Untersuchungen führten zu neuen Erkenntnissen, die den Aufbau eines mesoskopischen Modells zur Vorhersage des tatsächlichen Infiltrationsverhaltens ermöglichten. Mit der Infiltration und Untersuchung von porösen C/C-Materialien, wird der Anwendungsbereich des Infiltrationsmodells auf kommerzielle C/C-Materialien erweitert. Der dritte und letzte Teil behandelt den Aufbau eines numerischen Modells zur Simulation des LSI-Prozesses. Erstmals wurde die reaktive Infiltration von porösen C/C-Preforms im Dreidimensionalen simuliert und das Modell mit In-situ-Messungen validiert. Eine neu entwickelte Infiltrationsgleichung und die Einführung eines zeitabhängigen Diffusionskoeffizienten führten zu einer guten Übereinstimmung von Simulations-und Messergebnisse sowie zu kurzen Rechenzeiten auch für komplexe Bauteile im Industriemaßstab.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000197
Kretzschmar, Björn Sten Mark;
Untersuchungen zur flammenpyrolytischen Abscheidung silikatischer Schichten mit definierter Porosität und Funktionalisierung. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (XVIII, 113 Seiten)
Technische Universität Ilmenau, Dissertation 2020

In dieser Arbeit wurde die Erzeugung von definiert porösen Siliciumoxidschichten unter Anwendung der Flammenpyrolyse sowie eine Funktionalisierung der porösen Matrix durch nachträgliches Beschichten mit Manganoxid bzw. gleichzeitige Abscheidung mit Gold untersucht. Um die Porosität und die funktionale Wirkung abschätzen zu können, wurden spektroskopische und mikroskopische Analysen durchgeführt. Untersuchungen der Morphologie zeigten eindeutig nicht kristalline offenporige Strukturen auf. Auf Grund der geringen Schichtdicken stellte die Bestimmung der Porosität eine besondere Herausforderung dar. Mit Hilfe der Gravimetrie, SE und RBS wurden für die Porosität der applizierten Schichten Werte ermittelt, die für den Großteil der Proben gut übereinstimmten. Die Schichtdicken lagen in einem Bereich von 18 - 165 nm und die ermittelten Porositätswerte umfassten einen Bereich von 21 - 93 %. Es wurden die bei den einzelnen Messmethoden auftretenden Unsicherheiten bei der Bestimmung der Porosität diskutiert. Die größte Messungenauigkeit lieferte adsorbiertes Wasser. Mit Hilfe von TEM und ellipsometrischer Porosimetrie konnten Makro- und Mikroporen ausgeschlossen werden. Mesoporen waren in geringer Anzahl mit Porenradien von 4 - 5, 7,5 und 10 -15 nm nachweisbar. Die statistische Versuchsplanung zeigte, dass die Haupteinflussparameter auf die Schichtporosität der Brenner-Substrat-Abstand und die Durchlaufanzahl sind. RMD- und MD-Simulationen lieferten einen wesentlichen Beitrag zum Verständnis von der Bildung chemischer Bindungen und der Netzwerkentstehung sowie dem Schichtwachstumsprozess. Die nachträglich abgeschiedenen Manganoxide wiesen in Abhängigkeit von den Prozessparametern (Brenner-Substrat-Abstand und Anteil an Sauerstoff in der Flamme; auf Silizium-Wafer) unterschiedliche Mangan/Sauerstoffverhältnisse auf. Insbesondere bei geringen Durchlaufanzahlen, geringem Brenner-Substrat-Abstand und wenig Sauerstoff in der Flamme konnten große Mn/O-Verhältnisse appliziert werden. Ein Einsatz der Manganoxidschichten als antibakterielle Schicht (Silicium-Wafer), als Elektrodenmaterial (ITO-Glas) und für transmissionserhöhende Schichten (Floatglas) wurde untersucht. Auf Grund von zu wenig haftfestem Material konnte ein Einsatz als antibakterielle Beschichtung und als Elektrodenmaterial ausgeschlossen werden. Eine Kombination aus SiO2-x- und MnOx-Schicht zeigte eine Erhöhung der Transmission über einen großen Wellenlängenbereich (VIS). Die gleichzeitig abgeschiedenen Dünnfilme zur Erzeugung von Gold-dotierten Siliciumoxidschichten besaßen eine zur Literatur vergleichbare katalytische Wirkung (beim Abbau von 4-Nitrophenol zu 4-Aminophenol).



https://www.db-thueringen.de/receive/dbt_mods_00045675
Mohr-Weidenfeller, Laura;
Kombination von zweiphotonenbasiertem direktem Laserschreiben mit großflächiger und hochpräziser Nanopositionierung. - Ilmenau : Universitätsverlag Ilmenau, 2020. - 1 Online-Ressource (xii, 121 Seiten)
Technische Universität Ilmenau, Dissertation 2020

Die Mikro- und Nanofabrikation verspricht für die nächsten Jahre ein enormes Wachstumspotenzial, insbesondere auch im Bereich der laserbasierten Fertigung. Die hochauflösende Technik des Laserschreibens mittels Zwei-Photonen-Absorption (2PA) kann zur Herstellung von dreidimensionalen Bauteilen mit minimalen Strukturbreiten von sub-100 nm verwendet werden. Mit der optischen Präzision gehen auch Forderungen an die Präzision der Mess- und Positioniersysteme einher, um den technischen Stand von zweiphotonenbasiertem Laserschreiben weiter voranzutreiben. Die an der TU Ilmenau entwickelten Nanopositionier- und Nanomessmaschinen (NPM-Maschinen) ermöglichen eine hochgenaue und metrologisch rückführbare Positionierung mit Positionierauflösungen von 0,1 nm und einer Wiederholbarkeit von unter von 1 nm. Dabei eröffnet der Positionierbereich von 25 mm × 25 mm × 5mm bzw. von 200 mm × 200 mm × 25 mm der NPM-Maschinen ganz neue Dimensionen der skalenübergreifenden Fabrikation, sodass mikro- und sub-mikrometergenaue Artefakte bei Bauteilen mit Millimeterabmessungen erzielt werden können. In der vorliegenden Arbeit wird die Erweiterung von NPM-Maschinen zu Fabrikationsmaschinen durch die Kombination mit 2PA-Laserschreiben thematisiert. Dazu wird zunächst ein Konzept zur Integration der Zwei-Photonen-Technologie in eine NPM-Maschine entwickelt und umgesetzt. Anschließend erfolgen eine Charakterisierung des Systems sowie gezielte Untersuchungen, um den Nachweis für die Synergie der beiden Techniken zu erbringen. Es konnten diverse erfolgreiche Experimente durchgeführt werden, sodass nach Untersuchungen zur Belichtungsdosis die Herstellung von großflächigen Justiermarken gezeigt wurde. Das Potential der genauen Positionierung wird durch bahnbrechende Ergebnisse zur Abstandsreduzierung zwischen zwei geschriebenen Linien, welche die Beugungsbegrenzung unterschreiten, demonstriert. Zudem zeigten erste Versuche zur dreidimensionalen Strukturierung von Hybridpolymeren das enorme Potential für zukünftige komplexe 3D-Anwendungen in einer bisher nicht möglichen Präzision. Im Fokus stand außerdem die Entwicklung und Untersuchung eines neuen Ansatzes zur Mikro- und Nanofabrikation mit hohem Durchsatz, der auf einer Verbindung von zweiphotonenbasiertem Laserschreiben mit Feldemissionslithographie zur Herstellung von Mastern für anschließende Nanoprägelithographie basiert.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000164
Jovanoska, Snezhana;
Localisation and tracking of people using distributed UWB sensors. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (xxx,180 Seiten)
Technische Universität Ilmenau, Dissertation 2020

In vielen Überwachungs- und Rettungsszenarien ist die Lokalisierung und Verfolgung von Personen in Innenräumen auf nichtkooperative Weise erforderlich. Für die Erkennung von Objekten durch Wände in kurzer bis mittlerer Entfernung, ist die Ultrabreitband (UWB) Radartechnologie aufgrund ihrer hohen zeitlichen Auflösung und Durchdringungsfähigkeit Erfolg versprechend. In dieser Arbeit wird ein Prozess vorgestellt, mit dem Personen in Innenräumen mittels UWB-Sensoren lokalisiert werden können. Er umfasst neben der Erfassung von Messdaten, Abstandschätzungen und dem Erkennen von Mehrfachzielen auch deren Ortung und Verfolgung. Aufgrund der schwachen Reflektion von Personen im Vergleich zum Rest der Umgebung, wird zur Personenerkennung zuerst eine Hintergrundsubtraktionsmethode verwendet. Danach wird eine konstante Falschalarmrate Methode zur Detektion und Abstandschätzung von Personen angewendet. Für Mehrfachziellokalisierung mit einem UWB-Sensor wird eine Assoziationsmethode entwickelt, um die Schätzungen des Zielabstandes den richtigen Zielen zuzuordnen. In Szenarien mit mehreren Zielen kann es vorkommen, dass ein näher zum Sensor positioniertes Ziel ein anderes abschattet. Ein Konzept für ein verteiltes UWB-Sensornetzwerk wird vorgestellt, in dem sich das Sichtfeld des Systems durch die Verwendung mehrerer Sensoren mit unterschiedlichen Blickfeldern erweitert lässt. Hierbei wurde ein Prototyp entwickelt, der durch Fusion von Sensordaten die Verfolgung von Mehrfachzielen in Echtzeit ermöglicht. Dabei spielen insbesondere auch Synchronisierungs- und Kooperationsaspekte eine entscheidende Rolle. Sensordaten können durch Zeitversatz und systematische Fehler gestört sein. Falschmessungen und Rauschen in den Messungen beeinflussen die Genauigkeit der Schätzergebnisse. Weitere Erkenntnisse über die Zielzustände können durch die Nutzung zeitlicher Informationen gewonnen werden. Ein Mehrfachzielverfolgungssystem wird auf der Grundlage des Wahrscheinlichkeitshypothesenfilters (Probability Hypothesis Density Filter) entwickelt, und die Unterschiede in der Systemleistung werden bezüglich der von den Sensoren ausgegebene Informationen, d.h. die Fusion von Ortungsinformationen und die Fusion von Abstandsinformationen, untersucht. Die Information, dass ein Ziel detektiert werden sollte, wenn es aufgrund von Abschattungen durch andere Ziele im Szenario nicht erkannt wurde, wird als dynamische Überdeckungswahrscheinlichkeit beschrieben. Die dynamische Überdeckungswahrscheinlichkeit wird in das Verfolgungssystem integriert, wodurch weniger Sensoren verwendet werden können, während gleichzeitig die Performanz des Schätzers in diesem Szenario verbessert wird. Bei der Methodenauswahl und -entwicklung wurde die Anforderung einer Echtzeitanwendung bei unbekannten Szenarien berücksichtigt. Jeder untersuchte Aspekt der Mehrpersonenlokalisierung wurde im Rahmen dieser Arbeit mit Hilfe von Simulationen und Messungen in einer realistischen Umgebung mit UWB Sensoren verifiziert.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000116
Fern, Florian;
Metrologie in fünfachsigen Nanomess- und Nanopositioniermaschinen. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (VIII, 120 Seiten)
Technische Universität Ilmenau, Dissertation 2020

Die vorliegende Arbeit stellt ein neuartiges Konzept für eine fünfachsige Nanomessmaschine zur Messung von Formabweichungen auf stark gekrümmten Asphären oder Freiform-Flächen vor. Bis zu einem Anstieg von bis zu 60&ring; der Messobjektoberfläche kann der Sensor orthogonal zu dieser ausgerichtet werden. Unter vollständiger Einhaltung des Abbe-Komparatorprinzips wird das Messobjekt translatorisch in einem Bereich von 25mm 25mm 5mm relativ zu dem um zwei Rotationsachsen drehbaren Sensor bewegt. Die Messachsen der translatorischen Positionsmessung schneiden sich im so genannten Abbe-Punkt. Dieser Abbe-Punkt ist gleichzeitig auch der Antastpunkt des Sensors und der konstante Momentanpol der beiden Rotationsachsen zur Sensorrotation, die sich rechtwinklig in dem Abbe-Punkt schneiden. Zur Bestimmung der zufälligen und systematischen Positionsabweichungen des Sensors in Folge seiner Rotation wird ein Referenzmesssystem vorgestellt. Dieses besteht aus drei fest mit dem Sensor verbundenen, kartesisch angeordneten Fabry-Pérot-Interferometern, die kontinuierlich den Abstand des Sensors zu der Innenfläche einer Referenzhemisphäre messen. Die Messstrahlen der Fabry-Pérot-Interferometer schneiden sich dabei virtuell im Abbe-Punkt. Um die Formabweichung dieser Referenzhemisphäre zu bestimmen, wird ein in-situ-Kalibrierverfahren beschrieben, das die Bestimmung der Formabweichung mit den im System vorhanden Sensoren im Einbauzustand erlaubt. Dazu wird der Sensor durch einen Kugelreflektor im Abbe-Punkt (Kugellinse n=2) ersetzt. Dessen Positionsabweichung wird während der Rotation gemessen und zur Bestimmung der Formabweichung der Referenzhemisphäre genutzt. Basierend auf diesen Erkenntnissen wurde ein Prototyp des vorgestellten Konzepts aufgebaut und die Funktion des Referenzmesssystems verifiziert. Über einen großen translatorischen Verschiebungsbereich von 80 [my]m, kann die Verschiebung des Antastpunktes mit Hilfe des Referenzmesssystems auf +-200nm erfasst werden. Eine Wiederholungsmessung zwischen zwei Stellungen des Rotationssystems zeigte, dass die Antastpunktposition mit einer maximalen Abweichung von 27nm bestimmt werden kann. Die ausführliche theoretische Messunsicherheitsbetrachtung auf Grundlage von sechs Untermodellen ergibt eine Messunsicherheit für die Bestimmung des Antastpunktes von maximal 18nm p = 68%.



https://www.db-thueringen.de/receive/dbt_mods_00045605
Tran, Ninh;
Numerical simulation of Lorentz Force Velocimetry in two-phase magnetohydrodynamic flow. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (xxiii, 113 Seiten)
Technische Universität Ilmenau, Dissertation 2020

Die Lorentzkraft-Anemometrie (LKA) ist eine berührungslose elektromagnetische Durchflussmesstechnik, mit der die Durchflussrate von aggressivem oder bei hohen Temperaturen geschmolzenem Metall, wie Stahl oder Aluminium, gemessen und Informationen über den lokalen Durchfluss gegeben werden. In dieser Arbeit wurde eine Erweiterung der LKA, basierend auf den Lorentzkraftsignalen, numerisch untersucht, um Partikel in einem leitenden flüssigen Metall zu erkennen. Die Ergebnisse werden durch das Magnetohydrodynamik-Finite-Volumen-Verfahren mit ANSYS FLUENT verifiziert und durch Messungen validiert. Die elektromagnetische Induktion in einer leitenden Flüssigkeit, die sich in einem äußeren Magnetfeld bewegt, wird zur berührungslosen Durchflussmessung verwendet. In der LKA bestimmt man die auf den Magneten wirkende Kraft, um die Geschwindigkeitsinformation zu erhalten. Dieses Messprinzip kann auch auf die Durchführung von Strömungen mit Gasblasen angewendet werden, wie sie bei metallurgischen Prozessen auftreten. Das Ziel dieser Arbeit ist, den Einfluss von einzelnen Blasen/Partikeln auf die Lorentzkraft in zweiphasigen LKA Strömungen zu untersuchen. Durch die Verwendung eines Permanentmagnets kann man nicht nur das Vorhandensein einer Blase/eines Partikels erkennen, sondern auch Informationen über seine Position und Geschwindigkeit erhalten. In dieser Arbeit wird mit Hilfe der Navier-Stokes-Gleichungen für inkompressible Strömungen ein elektrisch nicht leitendes, aufsteigendes Partikel in der Nähe eines kubischen Permanentmagneten im Flüssigmetall simuliert. Die numerische Simulation wird unter Verwendung einer Finite-Volumen-Methode, basierend auf dem SIMPLE-Algorithmus (Semi-Implicit Method for Pressure-Lined Equations), aufgrund seiner Robustheit gegen hohe Reynolds-Zahlen gelöst. Darüber hinaus wird der numerische Algorithmus erweitert, um das Ansteigen einzelner Blasen in flüssigem Metall zu simulieren. Das Ziel dieser Untersuchung ist, Experimente mit Argonblasen in einer GaInSn-Legierung zu reproduzieren und die elektromagnetische Induktion in der Strömung genauer zu betrachten. Für die dreidimensionalen und phasenauflösenden Simulationen wird die von ANSYS FLUENT bereitgestellte Volume-of-Fluid-Methode verwendet. Die Potentialgleichung in der quasistatischen Grenze ist ein elliptisches Problem für das elektrische Potential. Die Gleichung für das elektrische Potential, gekoppelt mit den Navier-Stokes-Gleichungen, wird in FLUENT mit einem benutzerdefinierten Skalar gelöst. Die elektrische Leitfähigkeit variiert zwischen den Phasen und das Magnetfeld wird durch einen analytischen Ausdruck für einen Permanentmagneten angegeben. Die numerischen Simulationen werden durch Vergleich mit den Experimenten validiert und zeigen die Fähigkeit des Modells zur Vorhersage der Interaktionsdynamik aufsteigender Blasen/Partikel in der LKA.



https://www.db-thueringen.de/receive/dbt_mods_00045597
Ortlepp, Ingo;
Mikrointerferometer auf Basis von interferenzoptischen Stehende-Welle-Sensoren. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (xi, 161 Seiten)
Technische Universität Ilmenau, Dissertation 2020

Seit dem Michelson-Morley-Experiment im Jahr 1887 werden Interferometer erfolgreich in Forschung und Industrie für verschiedenste Aufgaben eingesetzt. Laserinterferometer sind heute hochentwickelte und enorm leistungsfähige Geräte mit beachtlichen Parametern hinsichtlich Messauflösung und Messunsicherheit. Diese Leistungsfähigkeit jedoch beruht auf einem äußerst komplexen Aufbau mit einer großen Anzahl optischer Präzisionskomponenten, weshalb klassische Laserinterferometer kostenintensive Messmittel nahezu ausschließlich für Aufgaben der Präzisionsmesstechnik mit höchsten Anforderungen darstellen. Gemeinsam mit der begrenzten Miniaturisierbarkeit von diskret aufgebauten Interferometern resultiert daraus eine Einschränkung der möglichen Einsatzgebiete. Das Stehende-Welle-Interferometer stellt einen neuen Interferometeransatz dar, mit dem die genannten Einschränkungen überwunden werden können. Das Konzept basiert auf einer optischen stehenden Welle, welche im Raum vor einem Spiegel bei senkrechter Reflexion eines Laserstrahls in sich selbst entsteht. Die Intensitätsminima und -maxima der stehenden Welle sind räumlich an den Spiegel gekoppelt und können mit einem dünnen, transparenten Photosensor detektiert werden. Eine Zählung der den Sensor bei einer Spiegelverschiebung durchlaufenden Extrema ermöglicht bei bekannter Wellenlänge der Laserquelle eine Bestimmung des Verschiebewegs des Spiegels. Da sich der genannte Sensor im optischen Strahlengang befindet, beeinflusst dieser direkt die stehende Welle. Für den Sensor existieren daher besondere Anforderungen hinsichtlich dessen Dicke, Transparenz, Reflexionsgrad und Ebenheit. Im Rahmen dieser Arbeit werden entsprechende Stehende-Welle-Sensoren für hochdynamische Messungen und verschiedene optische Aufbauten entwickelt und untersucht. Die Sensoren basieren auf kommerziellen SOI-Wafern und können mit üblichen Halbleitertechnologien hergestellt werden. Bei der Entwicklung liegen die Schwerpunkte auf einer hohen Grenzfrequenz, auf der Entspiegelung der Sensoren und auf Verfahren zur mechanischen Stabilisierung der äußerst dünnen photoaktiven Schicht. Die elektrischen, optischen und elektrooptischen Eigenschaften der Sensoren werden umfangreich untersucht und deren Einsatz in Homodyn-, Heterodyn - und Interferometeraufbauten mit Phasenmodulation nachgewiesen.



https://www.db-thueringen.de/receive/dbt_mods_00045571
Thomae, Daniel;
Talbot-Lithografie und deren Anwendung zur Realisierung eines Kreuz-Echelle-Spektrometers. - Ilmenau, 2020. - X, 97 Seiten, Seite XI-LXX
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-9822352-0-2

Die optische Spektroskopie hat im Verlauf von 150 Jahren schrittweise Anwendungsfelder von den Grundlagenwissenschaften bis hin zur industriellen Messtechnik erschlossen. Diese Vielfalt zieht eine Spezialisierung verfügbarer Messgeräte auf einzelne Applikationen nach sich. Lücken bestehen jedoch noch im Bereich einiger Feldapplikationen, wo einerseits widriger Umgebungsbedingungen vor Ort als auch hohe Gerätekosten die Messwerterfassung in einem zentralen Analyselabor erzwingen. Dies bedeutet meist die Beschränkung auf Stichproben und ein zeitverzögertes Messergebnis, was zur Prozesskontrolle nur bedingt taugt. Die vorliegende Arbeit schlägt für den Bereich der Atomemissionsspektroskopie eine neue Variante des Echelle-Spektrometers vor: Durch Integration der beiden Dispersionsschritte, welche nach dem Stand der Technik mit zwei getrennten Elementen realisiert werden, in ein einziges Beugungsgitter kann das Gerätedesign deutlich vereinfacht und miniaturisiert werden. Potentiell erhöht dies die Robustheit und senkt die Fertigungskosten. Im Mittelpunkt der Arbeit steht die Bewertung des Konzepts von Kreuz-Echelle-Spektrometern im Vergleich zu typischen Kompaktspektrometern. Besonderes Augenmerk wird auf Kenngrößen wie spektrales Auflösungsvermögen und Beugungseffizienz gelegt. Es werden die Vor- und Nachteile verschiedener Fertigungstechnologien für das Gitter diskutiert. Für den experimentellen Prinzipnachweis wird ein Kreuz-Echelle-Gitter gefertigt und für dieses ein Prototypenspektrometer ausgelegt und realisiert. Letzteres wird anhand praktischer Beispielmessungen erprobt und es werden Optimierungspotentiale benannt. Das zu fertigende Kreuz-Echelle-Gitter als Kernkomponente zeichnet sich durch die Überlagerung einer sehr tiefen und groben mit einer relativ flachen und feinen Struktur aus. Gängige Gitterfertigungsmethoden versagen hier, sodass mit der Talbot-Lithografie ein Alternativverfahren zum Einsatz kommt. Für dieses wird ein modularer und flexibler Belichtungsaufbau samt zugehöriger Softwareinfrastruktur beschrieben, um damit maßgeschneiderte Profilformen fertigen zu können. Ferner werden die Abbildungsfehler des Talbot-Effekts eingehend analysiert und deren Minimierungsmöglichkeiten aufgezeigt. Ebenso wird die Übertragung von statistischen Defekten bei der Talbot-Lithografie untersucht und auch hierfür Optimierungsmöglichkeiten abgeleitet.



Ziegler, Mario;
Metastable atomic layer deposition. - Ilmenau, 2020. - XVII, 154 Seiten
Technische Universität Ilmenau, Dissertation 2020

Die vorliegende Arbeit befasst sich mit der Synthese von breitbandig absorbierenden dreidimensionalen Hybrid-Nanostrukturen unter Verwendung eines neuartiges Abscheideprozesses: Metastabile Atomlagenabscheidung (kurz MS-ALD). Klassischerweise wird die Atomlagenabscheidung für die Abscheidung von planaren, binären Dünnschichten verwendet. Dabei werden zwei Präkursoren abwechselnd in einen Reaktor eingelassen. Die Präkursoren reagieren jeweils mit der Substratoberfläche, wobei die Reaktionen selbstlimitierend sind. So bindet nur eine Monolage der Präkursoren an der Oberfläche an. Dadurch lassen sich Dünnschichten mit perfekter Schichtdickenkontrolle homogen und winkeltreu herstellen. Im Gegensatz dazu können mit MS-ALD 3D-Strukturen hergestellt werden. Essentiell für diesen Prozess ist die Auswahl des Substrates. Das Substrat reagiert, im Gegensatz zur klassischen ALD, mit einem der beiden Präkursoren und bildet eine metastabile Phase aus. Diese metastabile Phase zerfällt augenblicklich in ihren ursprünglichen Anfangszustand unter Freigabe des Präkursors. Die Reaktion führt zum einen zu einer morphologischen Veränderung der Substratoberfläche und zum anderen zu einer Anreicherung des freigegebenen Präkursors an der Substratoberfläche. Durch den Einlass des zweiten Präkursors kommt es zu weiteren Reaktionen mit dem freigegebenen Präkursor. Diese Nebenreaktionen bewirken die Entstehung der beobachtbaren 3D-Strukturen. Kern dieser Arbeit ist die Untersuchung des Einflusses der Prozessparameter der MS-ALD bei Verwendung zweier unterschiedlicher Substrate auf die Morphologie der resultierenden Strukturen. Da MS-ALD im Verlauf der Arbeit entwickelt wurde, wird zudem ein möglicher Wachstumsprozess diskutiert. Der zweite Teil der Arbeit untersucht die Absorptionseiegenschaften der Strukturen vom ultravioletten bis zum nahem Infrarotbereich. Die hergestellten Strukturen erscheinen matt-schwarz und weisen eine extrem hohe Absorption bei senkrecht einfallender Strahlung auf (mehr als 99 % im Bereich von 220 nm bis 1582 nm). Die hohe Absorption und die Möglichkeit der problemlosen Skalierbarkeit des MS-ALD-Prozesses können dazu beitragen, neue Lösungsansätze für die Nutzung von Solarenergie zur regenerativen Stromerzeugung zu entwickeln.



Meister, Andreas;
Ein Beitrag zur Modellbildung und Steuerung der Nanopositionier- und Nanomessmaschine 200. - Ilmenau, 2020. - XV, 112 Seiten
Technische Universität Ilmenau, Dissertation 2020

Stetiger Fortschritt im Bereich der Digitalisierung und Informationsverarbeitung erfordern immer feinere optische und Halbleiterstrukturen. Diese sind nur durch immer hochauflösendere Fertigungsverfahren herstellbar. Damit steigt die Bedeutung hochpräziser Nanopositionier- und Nanomesstechnik. Sie wird einerseits für die Überprüfung hergestellter Strukturen, als auch für die eigentliche Fertigung benötigt. Zusätzlich benötigen komplexere Strukturen mehr Bauraum. Somit steigt der Bedarf an Nanopositionier- und Nanomessmaschinen mit großem Bewegungsbereich in Kombination mit höchstmöglicher Präzision. Mit Arbeitsbereichen von mehreren hundert Millimetern sowie Mess- und Positionierauflösungen im Nanometerbereich schließen sie die Lücke zwischen Koordinatenmessmaschinen und Rastersondenmikroskopen. Die Nanopositionier- und Nanomessmaschine 200 ist einer der fortschrittlichsten Vertreter. Ihr einzigartiger Aufbau ermöglicht kleinste Messunsicherheiten von unter 30 nm in einem Arbeitsbereich von 200 x 200 x 25 mm^3. Mess- und Fabrikationsaufgaben können sowohl bei Umgebungsdruck, als auch im technischen Vakuum erfolgen. Das dafür realisierte Antriebskonzept stellt besondere Aufgaben an die Steuer- und Regelungsalgorithmen. In der vorliegenden Arbeit werden neue Modelle der Antriebssysteme und bewegten Achsen entworfen und weiterentwickelt. Durch die spezielle Anordnung der Baugruppen für die vertikale Bewegung führen Rotationen zu erheblicher Wechselwirkung mit allen anderen Messachsen. Ein präzises Bewegungsmodell ermöglicht eine signifikante Verbesserung der Regelgüte. Daher wird das bisherige plattformbezogene Reibungsmodell durch ein führungsbezogenes ersetzt. Restfehler zwischen mathematischer Beschreibung und Messung können somit deutlich reduziert werden. Weiterhin wird das Modell um verschiedene Ansätze erweitert, die einen Einfluss der Kippwinkel berücksichtigen. Diese werden mit Messdaten abgeglichen und bewertet. Aufgrund auftretender Rastkräfte sind positionsabhängig hohe Antriebsströme in den planaren Antrieben erforderlich. Die vorhandenen Kühlsysteme können nicht hinreichend schnell auf die Änderungen der in Wärme umgesetzten Verlustleistung reagieren. Dadurch entstehende Temperaturschwankungen sind beim Betrieb in Vakuum grundsätzlich zu vermeiden. Aufbauend auf einer Kompensation der Rastkräfte wird eine Strategie entwickelt, um die Leistungsaufnahme auf einem möglichst niedrigen Niveau zu stabilisieren. Hierfür werden verschiedene Methoden vorgeschlagen und untersucht. Zur Vermeidung von Störkräften werden minimale Schwankungen der Leistungsaufnahme zugelassen, die so kurzfristig ausgeglichen werden, dass keine relevanten Temperaturschwankungen entstehen.



Alsharef, Mohamed;
Design and performance analysis of Tri-gate GaN HEMTs. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (XIV, 126 Seiten)
Technische Universität Ilmenau, Dissertation 2020

HEMTs (high electron mobility transistors) auf GaN-Basis besitzen großes Potenzial für die HF- (Hochfrequenz) und Leistungselektronik und werden bereits in HF-Leistungsverstärkern und als Leistungsschalter verwendet. Üblicherweise sind GaN HEMTs Normally-On Transistoren (d.h. Transistoren, die sich bei einer Gatespannung von 0 V im Ein-Zustand befinden), was für Anwendungen wie Fail-Safe-Leistungsschalter und HF-Verstärker mit nur einer Versorgungsspannung nachteilig ist. Es schwierig, GaN HEMTs mit Normally-Off-Charakteristik (HEMTs mit positiver Schwellspannung) zu realisieren, da in diesen Transistoren die Dichte des sich an der Grenzfläche Barriere/Puffer ausbildenden 2DEG (zweidimensionales Elektronengas) auf Grund starker Polarisationseffekte erheblich größer als in GaAs und InP HEMTs ist. Die Realisierung schneller HF-HEMTs erfordert kurze Gates. Allerdings leiden Transistoren mit sehr kurzen Gates häufig unter Kurzkanaleffekten und einer reduzierten Steuerwirkung des Gates, was zu einer Verschlechterung des Verhaltens im Aus-Zustand (erhöhte Werte für den Subthreshold Swing und das Drain-Induced Barrier Lowering) und im Ein-Zustand (erhöhter Drainleitwert) führt. In jüngster Zeit wird bei MOSFETs und HEMTs das Tri-Gate-Design angewendet, um die Gatesteuerwirkung zu verbessern und Kurzkanaleffekte zu unterdrücken. So wurden bereits Tri-Gate-Transistoren mit ausgezeichnetem Skalierungsverhalten, verbesserten Eigenschaften und, speziell im Fall von GaN Tri-Gate-HEMTs, positiver Schwellspannung, demonstriert. Auf der anderen Seite leiden GaN Tri-Gate-HEMTs mit Normally-Off-Charakteristik jedoch unter großen Parasitäten, die das HF-Verhalten (insbesondere die Transitfrequenz) beeinträchtigen. Die Verbesserung des HF-Verhaltens und eine Reduzierung der Parasitäten von GaN Tri-Gate-HEMTs ist daher dringend nötig. Das erfordert jedoch ein tiefes Eindringen in die Physik dieser Bauelemente. In der vorliegenden Arbeit werden umfassende theoretische Untersuchungen und Bauelementesimulationen zu GaN Tri-Gate-HEMT beschrieben, die zu einem deutlichen verbesserten Verständnis der Wirkungsweise von GaN Tri-Gate-HEMTs führten. So konnten das Potential dieses Transistortyps bewertet, Designregeln erarbeitet und vorteilhafte Transistordesigns entwickelt werden. In der Arbeit wird gezeigt, dass eine Verringerung der Bodyweite bei gegebener Gatespannung zu einer Verringerung der Ladungsträgerdichte im 2DEG führt, dass die Schwellspannung maßgeblich von der Bodyweite bestimmt wird und dass bei hinreichend geringer Bodyweite der Übergang vom Normall-On- zum Normally-Off-Betrieb erfolgt. Es wird auch gezeigt, dass der Abstand zwischen benachbarten Bodies nur einen geringen Einfluss auf die Schwellspannung hat. Darüber hinaus wird demonstriert, dass im Fall weiter Bodies (> 200 nm) der Kanal sowohl durch das Top-Gate als auch durch die Seiten-Gates gesteuert wird, während bei schmaleren Bodies die Steuerwirkung durch das Top-Gate geringer wird und die Verhältnisse im Kanal im Wesentlichen durch das Seiten-Gates bestimmt werden. In der Arbeit wird weiterhin Rolle des Designs der AlGaN-Barriere (Al-Gehalt, Dicke) untersucht und demonstriert, dass die Gestaltung der Barriere bei schmalen Bodies nur einen begrenzten Einfluss auf die Schwellspannung hat. Die Untersuchungen zeigen deutlich, dass das mit dem Tri-Gate-Konzept Normally-Off-Transistoren realisierbar sind, dass das Transistorverhalten im Ein-Zustand verbessert (höhere Steilheit) wird, und dass Kurzkanaleffekte im Aus-Zustand wirkungsvoll unterdrückt. Es wird auch demonstriert, dass GaN Tri-Gate HEMTs höhere Durchbruchspannungen zeigen und näher an der theoretischen Grenze für GaN-Bauelemente arbeiten als planare GaN HEMTs. Ein weiteres Ergebnis der vorliegenden Arbeit ist der Nachweis, dass GaN Tri-Gate-HEMTs mit sorgfältig optimiertem Design den planaren HEMTs auch hinsichtlich des HF-Verhaltens überlegen sind. Ein Mittel zur Verbesserung des HF-Verhaltens ist die Reduzierung der Body-Ätzhöhe, die zur Verringerung der parasitären Kopplung zwischen den Body-Seitenwänden und den Source/Drain-Elektroden und somit zu einer geringeren Gatekapazität führt. Eine weitere Maßnahme zur Reduzierung der Gatekapazität ist die Beschichtung der Body-Seitenwände mit einem Dielektrikum (z.B. SiN). Das verringert die Streukapazität, da jetzt die mit dem Gatemetall gefüllte Lücken zwischen benachbarten Bodies schmaler sind. Schließlich wird gezeigt, dass die Polarisationsladung an der Grenzfläche Barrier/Kanal und somit die Elektronendichte im 2DEG durch Erhöhung des Al-Gehalts der AlGaN-Barriere oder durch Nutzung eines anderen Materials für die Barriere (z.B. gitterangepasstes In0.17 Al0.83 N) gesteigert werden kann.



https://www.db-thueringen.de/receive/dbt_mods_00043837
Vakaliuk, Oleksii;
Novel Lorentz Force Velocimetry system based on bulk high-temperature superconductors. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (iii, 174 Seiten)
Technische Universität Ilmenau, Dissertation 2020

Die Lorentzkraftanometrie (LKA) ist eine Technik zur Messung der Geschwindigkeit von elektrisch leitfähigen Flüssigkeiten. Sie ist eine nicht-invasive Messtechnik, die besonders vorteilhaft für heiße, opake und aggressive Elektrolyte ist. Die LKA wurde für Salzwasser als Modellelektrolyt erfolgreich mit Dauermagnetanordnungen (DM) ohne magnetischen Rückschluss, aber mit gezielter Flussführung (Halbach-Array) und hochpräzisen Kraftmesssytemen (KMS) auf Basis der interferometrischen Messung der Auslenkung des Magnetsystems und der elektromagnetischen Kompensation der Auslenkung demonstriert. Um die LKA für schwach leitfähige Elektrolyte zu erweitern, ist eine Magnetfelderzeugung von > 1 T erforderlich. Ein Hochtemperatursupraleiter-Bulk (Bulk-HTS) kann ein Magnetfeld von mehreren Tesla erzeugen und somit die LKA-Leistung deutlich verbessern und die bisher genutzten DM ersetzen. Diese Arbeit zielt deshalb darauf ab, Bulk-HTS's in der LKA unter Berücksichtigung der kritischen Verbindungen zwischen der Funktionalität von Bulk-HTS's und dem KMS einzusetzen und ein LKA-System mit Bulk-HTS's zu entwerfen, herzustellen und zu testen. Die Ergebnisse wurden für die Entwicklung eines neuartigen LKA-System auf Basis eines Bulk-HTS als Magnetfeldquelle und einer Torsionswaage als Kraftmesssystem genutzt. Dieses System - Superconducting High-precision Lorentz Force Measurement System (Super-LOFOS) - wurde dann erfolgreich aufgebaut und getestet. Bei Kühlung mit flüssigem Stickstoff bzw. Helium werden auf der Stirnfläche des Super-LOFOS magnetische Flußdichten von B_T = 100 mT bzw. B_T = 1,2 T erzeugt. Damit erweitert die vorliegende Arbeit die Einsetzbarkeit der LKA für gering elektrisch leitende und langsam strömende Fluide auf ([sigma] &hahog; u) = 1-10) S s^-1, sowie macht hochpräzise Kraftmessungen bis 1 nN unter kryogenen Bedingungen möglich. Darüber hinaus stellt das entwickelte Messsystem Super-LOFOS einen tragbaren Magnetfeldgenerator dar, der für NMR- und MRT-Technologien, Drug Targeting, und magnetische Trennungsverfahren einsetzbar ist.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000083
Machts, René;
Wirkung von starken impulsförmigen Strömen und Magnetfeldern auf den menschlichen Kopf. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (IX, 120 Blätter, Blatt IX-XXX)
Technische Universität Ilmenau, Dissertation 2020

Eine impulsförmige Blitzentladung erreicht Ströme von 200 kA und mehr. Ein direkter Blitzeinschlag in den menschlichen Kopf kann mechanische und thermische sowie neurologische Schädigungen verursachen. Die Wirkung eines indirekten Blitzschlages und des resultierenden impulsförmigen Magnetfeldes auf den menschlichen Körper ist weitestgehend unbekannt. Weiterhin wird angenommen, dass die Wahrscheinlichkeit einen Blitzschlag zu überleben bei 70 % - 90 % liegt. Jedoch sind die Ursachen der biologischen und physikalischen Wirkmechanismen nicht umfassend geklärt. Das Ziel der vorliegenden Arbeit war es eine Methodik zu entwickeln, um die Stromverteilung während eines nachgebildeten direkten Blitzeinschlages sowie die elektrische Feldstärkeverteilung während eines indirekten Blitzeinschlages in physikalischen Kopfphantomen zu ermitteln. Die Kopfphantome bildeten die geometrischen und dielektrischen Eigenschaften der Kopfhaut, des Neurocraniums sowie des intrakraniellen Volumens (Hirn) des menschlichen Kopfes nach. Diese Kopfphantome wurden für die Analyse der Stromverteilung mit Spannungen und Strömen beaufschlagt, die bei Blitzentladungen zu erwarten sind. Die Integration eines Elektrodenarrays in das Hirn ermöglichte die Erfassung der Potentialverteilung sowie die Berechnung der elektrischen Feldstärke im Kopfphantom während eines indirekt applizierten Impulses. Simulationen erlaubten die Bildung weiterer Interpretationen. Die Experimente und Simulationen, die einen direkten Blitzeinschlag nachbildeten, zeigten, dass die Kopfhaut primär der Stromwirkung (70-92 %) exponiert war, gefolgt vom Hirn (3-28 %) und Neurocranium (1-9 %). Mit ausgebildetem Überschlagkanal floss der größte Anteil (82-99 %) des Stromes in diesem ab und die Kompartimente des Kopfphantomes waren geringer exponiert. In den Experimenten, die einen indirekten Blitzeinschlag nachbildeten, wurde eine Feldstärke von bis zu 10V/m im Hirn ermittelt. Vier Schutzmechanismen erklären, wieso eine Person einen direkten Blitzschlag überleben kann. (1) Der Überschlagkanal wurde als der wichtigste Schutzmechanismus identifiziert und erstmalig verifiziert. Als weitere Schutzmechanismen wurden (2) die isolierende Wirkung des Neurocraniums und (3) die Ableitfähigkeit der cerebrospinalen Flüssigkeit ermittelt. (4) Die Hirnregionen, die mit Vitalfunktionen assoziiert werden, sind im Falle des Überschlags durch Stromamplituden exponiert, die mit medizinischen Anwendungen vergleichbar sind. Die mögliche Schädigung durch einen indirekten Blitzschlag wurde identifiziert.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000079
Kruse, Adrian;
Techniken der Untersuchung und Aufklärung von Straßenverkehrsunfällen mit Wild. - Ilmenau : Universitätsverlag Ilmenau, 2020. - 1 Online-Ressource (XI, 179 Seiten). - (Berichte aus der Biomechatronik ; Band 16)
Technische Universität Ilmenau, Dissertation 2020

Bei reklamiertem Wildschaden am Automobil kann die Aufklärung, ob es sich tatsächlich um einen Wildunfall gehandelt hat, nur interdisziplinär erfolgen. Allein die Untersuchung der Haare oder einer Blutspur genügt nicht für eine sichere Aussage, ob ein Wildunfall stattgefunden hat. Gleichermaßen entscheidend sind das Schadenbild am Fahrzeug, die Spuren am Unfallort sowie die Einlassungen zum Unfallhergang. Zur Sicherung und Auswertung dieser Beweise gibt es bis heute kein standardisiertes technisches Procedere. Dieses auf wissenschaftlicher Grundlage gerichtssicher zu erarbeiten war die zentrale Zielsetzung dieser Arbeit. Am Fahrzeug verbleiben in den meisten Fällen als Anhaftungen nur wenige Haare und mitunter auch Blut. Diese sind die Beweismittel, welche zur Untersuchung und Bestimmung der Tierart genutzt werden können. Blutspuren am Fahrzeug werden bisher selten gesichert. Dabei lässt sich angetrocknetes Blut am Fahrzeug nach Abkratzen mit Hilfe eines scharfen Gegenstandes wie z.B. einer Rasierklinge in einer Folientüte einfach sichern. Noch besser ist die Sicherung der Blutspur mit einem DNA-freien Wattestäbchen. Die Haare sollten nicht mit Klebefolien gesichert werden. Zur Untersuchung müssten die Haare später vom Kleber getrennt werden, was mitunter nicht zerstörungsfrei gelingt. Weiterhin ginge das Haar bei längerer Anhaftung mit dem Kleber eine Verbindung ein. Eine Kontaminierung mit dem Klebstoff der Klebefolie könnte nicht ausgeschlossen werden. Besser ist es, die Spuren in Pergamintüten zu sichern. Die Haaruntersuchung zur Feststellung der Tierart und der Elementverteilung im Haar erfordert eine systematische Vorgehensweise. Dabei sind zur Reproduzierbarkeit der Ergebnisse zuerst die zerstörungsfreien Methoden anzuwenden. Die Beobachtungen sollten im Bild dokumentiert werden. Als Erstes erfolgt die makroskopische Darstellung zur Dokumentation von Haarlänge und Farbgebung. Danach sollte eine Voruntersuchung mit der Lupe erfolgen, um die Lage von Wurzel und Spitze zu ermitteln. Nicht immer liegen zur Untersuchung vollständige Haare vor. Unter dem Mikroskop mit Kamera erfolgt anschließend über die definierten Haarabschnitte die Dokumentation. In einigen Fällen lässt sich bereits nach dieser Untersuchung durch die Betrachtung der Medulla die Tierart feststellen. Im Rasterelektronenmikroskop lässt sich die äußere Rindenschicht des Haares aufgrund der größeren Schärfentiefe deutlich darstellen. Diese gibt weitere Anhaltspunkte zur Tierartbestimmung. Immer sollte eine weitergehende Untersuchung zur Bestimmung der Elemente im Haar durchgeführt werden. Diese kann in Kombination mit im Rasterelektronenmikroskop integrierten oder separaten Geräten erfolgen. Zur Feststellung, welche chemischen Elemente im Haar vorkommen, und wie sich diese in Haaren von Tieren in der Natur zu behandelten Haaren unterscheiden, wurde mit dem im Rasterelektronenmikroskop integrierten EDRS die Messung der Elementmengen durchgeführt. Bei den Haaren handelt es sich um inhomogene Proben. Durch die Messung an verschiedenen Abschnitten mehrerer Haare konnten Unterschiede zwischen manipulierten und nicht manipulierten Haaren aufgezeigt werden. Die Messungen zu den Elementen wurden in einer Datenbank zusammengefasst, um einen schnellen Abgleich der Ergebnisse zu ermöglichen. Bei Verfügbarkeit ausreichender Mengen an Haarmaterial oder gesicherter Blutspur kann die Tierart mit Hilfe der DNA-Analyse ermittelt werden. Bei dieser Methode kommt es allerdings zur vollständigen Vernichtung der Beweismittel, da die Haare zur DNA-Gewinnung aufgelöst werden. Die Schäden an den Fahrzeugen sind bei einem Wildunfall von mehreren Faktoren abhängig. Unterschiede ergeben sich durch die Karosserieform und die Art des Fahrzeuges, die Relativgeschwindigkeit, die Größe und Masse des Tieres sowie die Anstoßkonstellation. Zum Abgleich, ob ein Schadenbild am Fahrzeug einem Tier zugeordnet werden kann, wurden Lichtbilder von mit Tieren kollidierten Fahrzeugen gesammelt. Die Spuren an den Fahrzeugen wurden ausgewertet, soweit es sich um gesicherte Wildunfälle handelte. Damit lässt sich nach der Feststellung der Tierart anhand der Antragspuren das Schadenbild abgleichen. Die wesentlichen Bilder und technischen Daten zum Fahrzeug wurden in einer eigens dafür erstellten Datenbank gesammelt. Teilweise konnten die Fahrzeuglenker befragt werden, welche dann weitere (subjektive) Angaben zum Unfallhergang gaben. Wichtig für die Beurteilung sind die Lichtbilder mit den Beschädigungen und der Spurenlage. Da selten alle Information zum Wildunfall in der Datensammlung vorliegt, wurde eine einfache Differenzierung zur Qualität mit einem "Fünfsternesystem" erarbeitet. Die Vergleichsfälle in der Datenbank kommen aus drei Datenquellen. Diese sind (1) nachgewiesene Wildunfälle aus Gutachten, (2) am Unfallort aufgenommene Wildunfälle und (3) Schadenbilder aus selbstdurchgeführten Versuchen.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000056
Stegner, Johannes;
Multiphysikalischer Entwurf hybrid-integrierter MEMS-Oszillatoren auf Silizium-LTCC-Substraten. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (xvi, 155 Seiten)
Technische Universität Ilmenau, Dissertation 2020

Die vorliegende Dissertation befasst sich mit dem Entwurf und der Analyse von MEMS-Oszillatoren auf dem so genannten SiCer-Verbundsubstrat. Dafür wird eine Methodik erarbeitet, die den Entwurf von Mikroelektronik und Mikroelektromechanik vereint. Diese Methodik basiert auf einem analytischen Entwurfsmodell zur Synthese von Resonatorstrukturen über die elektrischen Spezifikation. In der Arbeit wird weiterhin der Entwurf zweier aufeinander aufbauender Oszillatortypen beschrieben, einem Festfrequenzoszillator für Frequenzen bis zu 600 MHz sowie einem Mehrfrequenzoszillator für Ausgangsfrequenzen im oberen MHz- bis unteren GHz-Bereich und der Bereitstellung von Referenzfrequenzen von etwa 10 MHz. Beide Typen von Oszillatoren werden in verschiedenen Varianten implementiert und auf eine möglichst kompakte Baugröße und geringes Phasenrauschen hin optimiert. Die Resultate aller Präparationen heben sich vom Stand der Technik ab, sowohl in der Aufbautechnik als auch in der Oszillationsfrequenz und im Phasenrauschen. Weiterhin wird in der vorliegenden Arbeit die Thematik der Temperaturabhängigkeit von MEMS-Resonatoren und -Oszillatoren betrachtet, welche im Vergleich zur thermischen Drift kommerziell verfügbarer Quarz-Resonatoren und -Oszillatoren höher ausfällt. Dazu wird das analytische Entwurfsmodell für MEMS-Resonatoren derart modifiziert, dass sich die geometrischen Abmessungen und Materialparameter in Abhängigkeit der Umgebungstemperatur verändern. Messungen an Resonatoren verschiedener Geometrien werden im Anschluss genutzt, um die analytischen Berechnungen zu verifizieren. Die messtechnisch ermittelte Temperaturabhängigkeit der Resonanzfrequenz liegt dabei zwischen -26 ppm/K und -20 ppm/K, was dem analytisch modellierten Temperaturkoeffizienten von -28,1 ppm/K sehr nahe kommt. Auf Basis von in der Literatur veröffentlichten Temperaturkompensationsmethoden wird das analytische Modell um eine Lage Siliziumdioxid erweitert, die einen positiven Temperaturkoeffizienten aufweist und so die Temperaturabhängigkeit kompensiert.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000030
Nägelein, Andreas;
Ladungsträgertransport in Nanodrahtstrulturen. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (xii, 154 Seiten)
Technische Universität Ilmenau, Dissertation 2020

Die Integration von III-V-Halbleitern mit der etablierten Silizium-Technologie hat einen hohen Stellenwert bei der Weiterentwicklung vieler opto-elektronischen Bauelemente. Da hierbei Materialien mit unterschiedlichen Kristallstrukturen und Gitterparameter kombiniert werden müssen, entstehen Kristalldefekte, welche die Leistung und Effizienz dieser Bauteile beeinträchtigen. Unter Verwendung von Nanodrahtstrukturen, in denen mechanische Spannungen sehr effizient abgebaut werden können, ist es möglich, die Defektdichte zu reduzieren. Zudem kann von der Nanodrahtgeometrie, mit ihren einzigartigen Eigenschaften, profitiert werden. In dieser Arbeit wird ein ausgefeiltes Multi-Spitzen Rastertunnelmikroskop (MT-STM) eingesetzt, um den Ladungsträgertransport in freistehenden Nanodrahtstrukturen eingehend zu untersuchen. Das Ziel dieser Dissertation ist es, ein detailliertes Verständnis über den Dotierstoffeinbau, die Leitungskanäle bei verschieden starker Dotierung sowie die Funktion ladungstrennender Kontakte in Nanodrähten zu entwickeln. In einem ersten Schritt werden die Ergebnisse des MT-STMs mit denen konventioneller Transferlängenmessung verglichen und bewertet. Die gute Übereinstimmung der ermittelten spezifischen Leitfähigkeit und Dotierstoffkonzentration, die hohe Ortsauflösung und die wenigen Prozessschritte bestätigen die Überlegenheit des MT-STMs gegenüber konventionellen Methoden. Die Vermessung verschieden dotierter Nanodrähte ermöglicht es den Dotierstoffeinbau im Detail zu untersuchen. Der Vergleich der Leitfähigkeiten dieser Drähte unmittelbar nach dem UHV-Transfer mit denen nach Oxidation an Luft, ermöglicht zudem die Evaluation der Auswirkungen von Oberflächenterminierungen auf den Ladungsträgertransport. Die für opto-elektronische Anwendung notwendigen ladungstrennenden Kontakte werden in axialer sowie radialer Ausführung untersucht. Hierbei ist die Ermittlung der exakten Dotierstoffprofile mit höchster räumlicher Auflösung besonders wichtig, da abrupte Halbleiterkontakte beim sogenannten vapor-liquid-solid Wachstum kaum realisierbar sind. Die vorliegende Arbeit schafft die Voraussetzungen für ein detailliertes Verständnis des Ladungsträgertransports und zur präzisen Ermittlung von Dotierprofilen in Nanodrähten, wodurch die Grundlage für die Verbesserung von Nanodraht-Bauelemente geschaffen wird.



https://www.db-thueringen.de/receive/dbt_mods_00040691
Xu, Rui;
Boosting solar energy harvesting with ordered nanostructures fabricated by anodic aluminum oxide templates. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (X, 122 Seiten)
Technische Universität Ilmenau, Dissertation 2020

In dieser Dissertation habe ich drei Arten von hochgeordneten Nanostrukturen realisiert, einschließlich 1D-PTP-Au-Core / CdS-Shell-Array, Au-NW / TiO2-NT-Janus-Hetero-Nanostruktur-Array und 2D-Metall-SPhCs. Diese fortschrittlichen Architekturen könnten als vielseitige Gerüste zum Aufbau energiebezogener Geräte eingesetzt werden und haben ein großes Potenzial, die Gesamtleistung drastisch zu verbessern und die durch die planare Konfiguration auferlegten Grenzen zu durchbrechen. Insbesondere die geordneten Nanostruktur-Arrays mit mehreren Komponenten sind von großer Bedeutung, und die entsprechenden Geräte können die Vorteile dieser nanostrukturierten Komponenten kombinieren, wodurch die relevante Leistung systematisch verbessert wird. Darüber hinaus ermöglichen die hohe Regelmäßigkeit der Nanostrukturverteilung, die Gleichmäßigkeit der Nanounits sowie die steuerbaren Größen und Profile der Nanostruktur die resultierenden Architekturen als leistungsfähige Plattform, um die spezifischen Energieumwandlungsreaktionen mikroskopisch zu untersuchen. Diese Ergebnisse könnten wiederum die weitere Entwicklung der relevanten Geräte leiten.



https://www.db-thueringen.de/receive/dbt_mods_00040679
Tan, Jun;
Design methodology and implementation of fully passive RFID SoC with temperature sensor. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (xi, 159 Seiten)
Technische Universität Ilmenau, Dissertation 2021

Diese Dissertation stellt die Methodik und die Implementierung eines vollständig passiven RFID SoC mit Temperatursensor zur Reduzierung von Versorgungsrauschen für eine hochgenaue drahtlose Temperaturmessung vor. Die Analyse der modernen eigenständigen Temperatursensoren und der drahtlosen RFID Temperatursensoren zeigt eine Design Herausforderung, dass die RFID Sensoren aufgrund der RFID Kommunikation erheblich unter dem Versorgungsrauschen leiden. Um die Sensorgenauigkeit zu verbessern, ohne zu viele Kompromisse einzugehen, stellt diese Dissertation die folgenden wissenschaftlichen Beiträge vor. Zuerst wird ein Zeitdomain Niederspannungs Niederleistungs Temperatursensor vorgeschlagen, um eine hohe Genauigkeit zu erreichen, ohne einen hochkomplexen Sigma Delta ADC mit niedriger Abtastrate zu verwenden. Darüber hinaus wird die Methodik zur Analyse von Versorgungsrauschen für die Erzeugung, Verstärkung und Digitalisierung des Versorgungsrauschens entwickelt. Die Analyseergebnisse zeigen, dass das Versorgungsrauschen über ein breites Frequenzspektrum verteilt ist, während das Rauschen im Kommunikationsfrequenzband durch das Power Management Unit verstärkt wird. Für die Analyse der Rauschdigitalisierung erreicht dieser vorgeschlagene Temperatursensor die beste DC Versorgungsempfindlichkeit seiner Klasse, während er noch unter Wechselstromwelligkeit leidet. Daher wird das durch die RFID Kommunikation erzeugte Versorgungsrauschen die Sensorleistung erheblich beeinflussen. Die abschließende Optimierung auf Systemebene wird durch die Einführung eines seriellen Auslesekommandos erreicht, das das Versorgungsrauschen für die Sensorauslesung deutlich reduziert. Die experimentellen Ergebnisse zeigen, dass dieser vorgeschlagene RFID Temperatursensor die Genauigkeit von ±0.4 &ring;C (3 sigma) von 0 &ring;C bis 125 &ring;C erreicht. Die ist höchste Genauigkeit mit dem größten Arbeitsbereich im Vergleich zu den derzeit berichteten modernen RFID Temperatursensoren. Der neue RFID Befehl verbessert die Auflösung dieses RFID Temperatursensors um den Faktor 16.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2021000053
Emelianov, Vitali;
Bandversetzte Heterostrukturen für die Nutzung der heißen Ladungsträger in Solarzellen der dritten Generation. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (166 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Die vorliegende Arbeit präsentiert Ergebnisse der experimentellen Prüfung des originalen Konzepts für eine Heißladungsträgersolarzelle. Die zu entwickelnde Solarzelle soll einen Energiegewinn durch fotogenerierte Heißladungsträger nachweisen und somit einen neuartigen Ansatz für die Weiterentwicklung effizienterer Solarzellenaufzeigen aufzeigen. Zwei Prototypstrukturen auf der Basis von Au:Zn/InP/PbSe/ZnO:Al und Ag/ZnTe/PbSe/ZnO:Al wurden mit kosteneffektiven Technologieprozessen hergestellt. Die Bandversätze und der Kristallaufbau in einer neuartigen heteroepitaktischen ZnTe/PbSe-Struktur wurden bestimmt und publiziert. Die gesamte Bänderanordnung der beiden Prototypzellen wurde rekonstruiert und analysiert. Beide Prototypzellen wurden sowohl mit klassischen als auch mit einer neuartigen Doppelstrahlmessmethode charakterisiert. In der zweiten Doppelheterostruktur wurde eine höhere Ausbeute an Heißladungsträgern festgestellt und diese begründet. An diesem zweiten Prototyp wurde unter natürlicher Sonnenbeleuchtung und bei Raumtemperatur eine Leerlaufspannung größer als die Bandlücke des Absorbers ermittelt. Dieses für Heißladungsträgersolarzellen charakteristische Verhalten wurde mit weiteren unabhängigen Messungen bestätigt. Die für den zweiten Solarzellenprototyp ungewöhnlichen Kennlinien erforderten eine neue Interpretation der Dynamik der Heißladungsträger auf Basis der Kinetischen Transporttheorie und der Thermoelektrizitätstheorie. Beide Modelle wurden anhand der bisher bekannten Phänomene betrachtet und in der vorliegenden Arbeit präsentiert.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000722
Weidner, Markus;
Magnetsysteme auf Basis von Hochtemperatursupraleitern für die Lorentzkraftanemometrie. - Ilmenau, 2019. - ix, 102 Seiten
Technische Universität Ilmenau, Dissertation 2019

Das Verfahren der Lorentzkraftanemometrie ermöglicht eine kontaktlose Strömungsmessung von Flüssigkeiten mit geringer Leitfähigkeit und Geschwindigkeit. Aufgrund des elektromagnetischen Messprinzips ist die Messung an heißen, aggressiven oder opaken Fluiden möglich. Die Auflösung des Verfahrens lässt sich durch stärkere Magnetfeldquellen erhöhen. Diese Arbeit untersucht und bewertet das Potential von Supraleitern, welche eine höhere Energiedichte als die bisher verwendeten Permanentmagnete besitzen, für eine Verwendung als Magnetfeldquelle in der Lorentzkraftanemometrie. Dafür wird ein geeignetes Material recherchiert und ein notwendiges Kühlkonzept entwickelt. Für die ausführliche Untersuchung der physikalischen Eigenschaften der Supraleiter wurde der Hochtempertursupraleiter YBCO als Bulkmaterial identifiziert und eine Kühlinfrastruktur aufgebaut, welche Magnetisierungen von 5 T und Temperaturen von 20 K durch Flüssighelium erreicht. In den Supraleitern wurden reproduzierbar Magnetfelder eingefroren und Feldmessungen in Abhängigkeit von Temperatur, Durchmesser sowie Abstand bei einer paarweisen Anordnung durchgeführt. Der negative Effekt des Flusskriechens reduzierte sich durch Temperaturreduzierung nach dem Magnetisieren. Mit der gemessenen Flussdichteverteilung der Proben konnte ein numerisches Simulationsmodell entwickelt werden, welches zur Berechnung der zu erwartenden Lorentzkräfte verwendet werden kann. Eine erste Lorentzkraftmessung mit einem einfachen supraleitenden Magnetsystem an einem Kupferzylinder wurde erfolgreich durchgeführt und bestätigt das erarbeitete Modell. Mit dem Modell wurden Optimierungen für die Supraleiteranordnung berechnet und ergeben eine in Strömungsrichtung linear angeordnete Kette von Supraleiterpaaren. Dabei sollte der Abstand der Paare zueinander mindestens ihrem Durchmesser entsprechen. Des Weiteren wird gezeigt, dass für die durch die Magnetisierungsvorrichtung vorgegebenen Systemausdehnungen maximal drei Supraleiterpaare verwendet werden sollten. Größere Anzahlen resultieren in geringeren Lorentzkräften. Die Verwendung von Flüssigstickstoff bei 77 K als Kühlmittel reicht nicht aus um mit den verwendeten Supraleitern höhere Kräfte als das bisherige Permanentmagnetsystem zu erreichen. Erst eine Kühlung unter 50 K mit Flüssighelium oder Kryokühlern erzielt eine vier- bis 22-fache Erhöhungen der Lorentzkraft.



Brethauer, Andreas;
Entwicklung einer Methode zur Temperaturbestimmung von Fluiden mithilfe von Berührungsthermometern bei niedrigen Eintauchtiefen. - Ilmenau : Universitätsverlag Ilmenau, 2019. - 1 Online-Ressource (XVI, 229 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Die exakte Bestimmung der Temperatur gewinnt u. a. in der Wärmeverbrauchsmessung eine immer höhere Bedeutung. Hier wird mithilfe der Temperaturdifferenz an einem Vor- und Rücklauf in Kombination mit der Durchflussmenge die entnommene Wärme bestimmt. Messabweichungen haben hier eine direkte Auswirkung auf die Kostenabrechnung. Konstruktionsbedingt ist bei den gängigen Wärmemengenzählern an der Thermometer-Einbaustelle des Rücklaufs nur wenig Platz. Hier wird häufig tangential in das Medium eingetaucht, was eine nicht vernachlässigbare Messabweichung verursacht. In der Arbeit wird die Messabweichung durch Wärmeableitung und das Ansprechverhalten von Widerstandsthermometern bei geringen Eintauchtiefen in ein zu messendes Medium näher untersucht. Dabei wird die Bedeutung einer thermischen Ankopplung des Sensors an das Medium, sowie die Entkopplung von der anders temperierten Umgebung deutlich. Einen Einfluss hat auch das verwendete Medium. In der Wärme-/Kälteübertragung werden häufig Wasser-Glykol-Gemische verwendet. Deren Verwendung hat gerade bei niedrigen Strömungsgeschwindigkeiten einen hohen Einfluss auf die thermische Messabweichung und das Ansprechverhalten eines Widerstandsthermometers. Zudem wurde auch die Möglichkeit zur Nutzung des Loop Current Step Response Tests in der Wärmeverbrauchsmessung validiert. Dies erlaubt das Messen von Ansprechzeiten unter Einbaubedingungen. Ziel der Arbeit ist die Nutzbarmachung erzielter Erkenntnisse. So wurde eine Prüfeinrichtung zur Untersuchung von Widerstandsthermometern unter Einbaubedingungen entwickelt und validiert. Diese, als Strömungskanal konzipierte Prüfeinrichtung, erlaubt die Untersuchung des statischen und dynamischen Verhaltens von Thermometern, sowie den direkten Vergleich unterschiedlicher Einbaustellen. Die Messstrecken sind über ein Kleinflansch-Verbindungssystem austauschbar. Die Durchführung und Auswertung der unterschiedlichen Messprogramme läuft automatisch über eine eigens entwickelte Software ab. Eine weitere Neuentwicklung ist ein für niedrige Eintauchtiefen optimiertes Widerstandsthermometer. Hier wurden wärmeleitfähige und thermisch isolierende Kunststoffe kombiniert. So wurde eine gute Ankopplung des Temperatursensors an das zu messende Medium, sowie eine Entkopplung von der anders temperierten Umgebung realisiert.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000157
Michels, Thomas;
Fully integrated transducer platform with cavity optomechanical readout. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (xviii, 200 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Forschung und Entwicklung von Wandlern basierend auf kavität- optomechanischen Elementen ist ein Forschungsgebiet von hohem Interesse. Sie kombiniert hohe Bandbreiten und Empfindlichkeit nahe dem Standardquantumlimit mit Kompaktheit, Robustheit, kleinen Abmessungen und dem Potential für eine wirtschaftliche Massenproduktion systemimmanent bei mikroelektromechanischen Systemen. Vollintegrierte Wandler erlauben demnach Bewegungsmessungen bis hin zum fundamentalen Quantenlimit. In dieser Arbeit werden Design, Herstellung und Charakterisierung eines vollintegrierten und glasfasergekoppelten Wandlers in einer Machbarkeitsstudie dargestellt. Das System kombiniert hohe Verschiebungsauflösungen 0.14 - 40 fm&hahog;Hz^(-1/2), optomechanische Detektion mit hoher Bandbreite und eine eingebaute thermische und elektrostatische Anregung. Die Herstellung erfolgt in einem doppelseitigen mikro- und nanotechnischen Fertigungsverfahren auf Waferbasis, in einer Kombination aus einem Elektronenstrahllithographieschritt, sechs Projektionslithographieschritten und drei Kontaktlithographie Schritten. Die Siliziumnitrid-Sonden können mittels eines elektrischen Signals, angelegt an den integrierten thermischen oder elektrostatischen Aktuator, angeregt werden. Sie sind optisch über das evanecente Feld mit einer optischen Kavität hoher Güte (10^5 - 2 x 10^6) gekoppelt. Die Bewegung der Sonde wird detektiert über eine Veränderung der Resonanzfrequenz der Kavität. Die eingebauten Aktuatoren ermöglichen die Einstellung des Abstandes zwischen Sonde und optischer Kavität, welche die Einstellung der Sensitivität ermöglicht. Eine Seite der Sonde steht über die Kante des Siliziumchips, um die Kopplung mit einer Vielzahl von Proben und physikalischen Systemen zu erlauben. Die modulare Bauweise des Wandlers schafft die Grundlage zur Parallelisierung der Sonden für die gleichzeitige Messung mehrerer Kräfte oder physikalischer Eigenschaften. Die Parallelisierung wird in dieser Arbeit am Beispiel eines 2x1 Array gezeigt, welche mit geringem Aufwand auf größere Arrayarchitekturen angepasst werden kann. Zur Demonstration der Funktion von Einzelsonden und Sondenarrays, wird die Sondenanwendung in der Rasterkraftmikroskopie präsentiert. Des Weiteren wird die Flexibilität der Wandlerbauweise an der Herstellung von Membrane- und Beschleunigungswandlern belegt. Das Verhalten aller hergestellten Wandler wird hinsichtlich der Bewegungsempfindlichkeit, Frequenzstabilität, und Einstellbarkeit der Auslesung analysiert.



https://www.db-thueringen.de/receive/dbt_mods_00043149
Wiedemeier, Stefan;
Entwicklung einer tropfenbasierten mikrofluidischen Plattform für das High-Throughput-Screening multizellulärer Systeme. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (XVI, 140 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Im Bereich der tropfenbasierten Mikrofluidik werden medizinische, biologische oder auch chemische Experimente in diskrete Reaktionsräume überführt. Diese als Tropfen bezeichneten Reaktionsräume besitzen als seriell angeordnete Mikroreaktoren ein hohes Anwendungspotenzial, sei es zur Optimierung von Screening-Prozessen für die Medikamentenentwicklung oder zur Manipulation von Zellen und 3D Zellstrukturen. Für solche Anwendungen bieten die derzeit existierenden Konzepte jedoch nicht die erforderliche Zuverlässigkeit und Praktikabilität. Vor allem die Aufrechterhaltung reproduzierbarer und stabiler Prozessbedingungen sind ausschlaggebende Faktoren als Voraussetzung für einen Durchbruch dieser Technologie am Markt. Insbesondere bei Anwendungen mit multizellulären Systemen wie nativen Gewebefragmenten oder in vitro kultivierten Sphäroiden sind besondere Voraussetzungen zu erfüllen. Beispielsweise ist die Verwendung oberflächenaktiver Substanzen (Tenside), die bei der Mehrzahl tropfenbasierter mikrofluidischer Applikationen zur Stabilisierung der Tropfen eingesetzt werden, nachteilig für Untersuchungen dieser Proben. Der Verzicht auf Tenside ist ein wichtiger Schritt in Richtung einer grundlegenden Akzeptanz tropfenbasierter Verfahren. Die in dieser Arbeit präsentierten Ergebnisse zeigen eine Alternative auf, bei der für das Handling und die Kultivierung multizellulärer Systeme auf die Verwendung von Tensiden verzichtet werden kann. Das im Rahmen der Forschungsarbeiten entwickelte technische System beruht auf neuartigen, mikrofluidischen Komponenten, die die hohen Ansprüche für das Handling multizellulärer Systeme erfüllen. Neben der Beschreibung der Systementwicklung steht die Charakterisierung der Einflussfaktoren auf die Tropfengenerierung im Mittelpunkt der Arbeit. Relevante Einflussgrößen wie die Kanalanordnung und deren Oberflächenbeschaffenheit sowie der Einfluss der Volumenströme und unterschiedlicher Probenmedien auf die Tropfengenerierung wurden untersucht. Die Arbeit beschreibt weiterhin die Entwicklung eines biomimetischen Ansatzes zur Steigerung der Stabilität der Tropfengenerierung durch die Verringerung des Adhäsionspotenzials wässriger Proben mit den Kanaloberflächen der Mikrosysteme. Damit ist die im Rahmen dieser Arbeit entwickelte mikrofluidische Plattform insbesondere für Anwendungen im Bereich der Biowissenschaften prädestiniert.



https://www.db-thueringen.de/receive/dbt_mods_00043017
Ibraheam, Maysam;
Design and testing of compact dual-band dual-polarized robust satellite navigation antenna arrays. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (145 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Die steigende Nachfrage nach präzisen Positionierlösungen für hochautomatisiertes Fahren und sicherheitskritische Anwendungen führt zu der Verwendung von Array-basierten Satellitennavigationsempfängern, die aufgrund des verbesserten Diversity-Gewinns und der potentiellen Strahlformungsfähigkeit eine bessere Leistung aufweisen. Die Notwendigkeit, die Robustheit von Navigationsempfängern gegenüber Quellen von Signalstörungen, wie Mehrwegempfang, atmosphärische, sowie Jamming- und Spoofing, zu verbessern, verlangt, den Empfänger weiter auszubauen, um Polarisations- und Frequenz-Diversity auszunutzen. Das hieraus resultierende Design ist durch eine signifikante Zunahme der Hardware- und Softwarekomplexität gekennzeichnet. Diese Komplexität steigt noch mit dem Trend, den Navigationsempfänger zu miniaturisieren, um die Integration in Fahrzeugen oder mobilen Systemen zu erleichtern. Da die gegenseitige Verkopplung zwischen den Antennenelementen eines kompakten Antennen-Arrays steigt, verschlechtert sich deren Strahlungseffizienz und Polarisationsreinheit und damit die Systemrobustheit. In dieser Arbeit wird ein kompaktes, dualbandiges und dualpolarisiertes Antennenarray für einen Navigationsempfänger untersucht, schaltungstechnisch entworfen und aufgebaut, womit Array-, Frequenz-, und Polarisations-Diversity ermöglicht wird. Dies führt zu einer signifikant verbesserten Robustheit gegenüber den angesprochenen Störungen. Diese Arbeit umfasst das Design des dualbandigen und dualpolarisierten Patchantennenelements, das Design des kompakten Antennenarrays, das Studium der Kreuzpolarisationsquellen in Patchantennen, die Analyse des Einflusses der gegenseitigen Kopplung auf die Strahlungseffizienz und Polarisationsreinheit, und die Abschwächung beider Effekte durch eigenmode-basierten Entkopplungs- und Anpassungsnetzwerken. Darüber hinaus beinhaltet die Arbeit die Integration des Antennensystems mit einem HF-Frontend zur Leistungsverstärkung, Filterung und Signalkonvertierung der Satellitensignale. Die Arbeit umfasst auch die Integration mit einem Array-basierten digitalen Empfänger, in dem neben der Datenerfassung, auch die Richtungsschätzung, das Beamforming und die Anti-Jamming-Algorithmen implementiert wurden. Die Machbarkeit sowohl der Array-Diversity als auch der Polarisations-Diversity wurde in Automotive-related Feldmessungen bestätigt, insbesondere für Elevationswinkel unter 40 bzw. 60 Grad, wo der Einfluss des Mehrwegempfangs ausreichend hohe Pegel erreicht. Die Messungen bestätigten die Robustheit des Empfängers gegenüber Stör- Nutzsignalverhältnissen von bis zu 85 dB und übertrafen damit mehrere "State-of-the-Art" Empfänger.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000261
Dölker, Eva-Maria;
Lorentz force evaluation : novel forward solution and inverse methods. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (xiii, 152 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Die Entwicklung neuer Materialien sowie die ansteigenden Anforderungen an Qualität und Sicherheit erfordern die Entwicklung hochauflösender, zerstörungsfreier Werkstoffevaluierungsverfahren für die Produktion und Wartung. Im neuen Lorentzkraftevaluierungsverfahren wird ein Permanentmagnet relativ zu einem elektrisch leitenden Prüfkörper bewegt. Aufgrund der Bewegung werden Wirbelströme im Prüfkörper induziert. Die Wechselwirkung der Wirbelströme mit dem Magnetfeld führt zur Lorentzkraft, welche auf den Prüfkörper wirkt. Eine Kraft derselben Größe aber in entgegengesetzte Richtung wirkt auf den Permanentmagneten, wo sie gemessen wird. Bei Vorliegen eines Defekts sind die Wirbelstromverteilung und entsprechend die Lorentzkraft verändert. Die Defekteigenschaften werden aus den gemessenen Lorentzkraftkomponenten mittels der Lösung eines schlecht gestellten inversen Problems bestimmt. Die Ziele der Dissertation umfassen die Entwicklung einer neuen Vorwärtslösung, den Vergleich verschiedener Vorwärtslösungen, die Entwicklung neuer inverser Verfahren sowie die Erarbeitung einer Methode zur verbesserten Defekttiefenbestimmung für die Lorentzkraftevaluierung. Des Weiteren wurde ein qualitativer Vergleich mit der klassischen Wirbelstromevaluierung umgesetzt. Die existierenden Vorwärtslösungen für die Lorentzkraftevaluierung: "Approximate Forward Solution" und "Extended Area Approach" wurden hinsichtlich der Defektrekonstruktionsgüte verglichen. Es wurde ein Zielfunktionsscanningverfahren angewandt um den Einfluss der beiden Vorwärtslösungen direkt zu vergleichen. Damit wurde eine Verzerrung durch die sonst notwendige Parameterwahl bei inversen Methoden vermieden. Die Verwendung der Vorwärtslösung "Extended Area Approach" erzielte genauere Schätzungen der Defekttiefe und -abmessungen im Vergleich zur "Approximate Forward Solution". Die beiden Vorwärtslösungen sind jedoch auf Defekte mit gleichmäßiger Geometrie beschränkt. Aus diesem Grund wurde die neue Vorwärtslösung "Single Voxel Approach" entwickelt. Sie basiert auf der Superposition von Kraftveränderungssignalen von kleinen elementaren Defekten. Bei numerischen Simulationen mit Defekten verschiedener Größen, Tiefen und Formen zeigte der "Single Voxel Approach" die geringste Abweichung im Vergleich zu den beiden existierenden Vorwärtslösungen. Eine Minimum-Norm-Schätzung mit Elastic-Net-Regularisierung wurde auf die Lorentzkraftmessdaten eines Aluminiumprüfkörpers zur Rekonstruktion der Defekteigenschaften angewandt. Die Motivation zur Nutzung der Elastic-Net-Regularisierung stammt aus dem a priori Wissen, dass ein nicht-leitender Defekt von einem Prüfstück mit konstanter Leitfähigkeit umgeben ist. Die weit verbreitete Tikhonov-Phillips-Regularisierung wurde zu Vergleichszwecken angewandt. Mit beiden Regularisierungsmethoden konnte reproduzierbar eine korrekte Defekttiefenschätzung und eine adäquate Größenschätzung erzielt werden. Dasselbe inverse Verfahren wurde für die Defektrekonstruktion aus Wirbelstromevaluierungsmessdaten eines Aluminiumprüfkörpers angewandt. Die Defektrekonstruktionsergebnisse stellten sich für tiefer liegende Defekte verschwommen und weniger stabil im Vergleich zur Lorentzkraftevaluierung dar. Im Gegensatz war mit der Wirbelstromevaluierung die Rekonstruktion komplexerer Defektgeometrien möglich. Als weitere inverse Methode, wurde die adaptierte Landweber-Iteration für die Lorentzkraftevaluierung eingeführt. Die Landweber-Iteration wurde ausgewählt, da sich im Bereich der elektrischen Kapazitätstomographie vielversprechende Rekonstruktionsergebnisse gezeigt haben. Die adaptierte Landweber-Iteration erzielte adäquate Defektgrößenschätzungen. Die Position von tief liegenden Defekten wurde zu hoch rekonstruiert. Die Lorentzkraftevaluierung ist gekennzeichnet durch die Schwierigkeit, dass ein kleiner Defekt nahe der Prüfkörperoberfläche und ein größerer tiefer liegender Defekt ähnliche Kraftveränderungssignale zeigen. Das erschwert die Bestimmung der korrekten Defekttiefe. Das neue Prinzip der geschwindigkeitsabhängigen Lorentzkraftevaluierung wurde eingeführt um die Defekttiefenbestimmung zu unterstützen. Die Lorentzkraftveränderungssignale werden bei einer hohen Geschwindigkeit (10 m/s) relativ zu den Signalen bei einer niedrigen Geschwindigkeit (0.1 m/s) ausgewertet. Amplitudenveränderungen und Signalverschiebungen werden genutzt um die Defekttiefe zu bestimmen. Dabei wird der bewegungsinduzierte Skineffekt ausgenutzt. Die Plausibilität dieser neuen Methode wurde für Simulationsdaten gezeigt.



https://www.db-thueringen.de/receive/dbt_mods_00040851
Kutschka, Hermann;
The effect of uncertainty in MEG-to-MRI coregistrations on MEG inverse problems. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (xiii, 111 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Für eine hohe Präzision in der Schätzung von Gehirnaktivität, ausgehend von Daten der Magnetoenzephalographie (MEG), ist eine sehr genaue Koregistrierung der Quellen und Sensoren notwendig. Üblicherweise werden hierbei die Quellorte der Gehirnaktivität bezüglich zu Koordinaten der Magnetresonanztomographie (MRI) angegeben. Die Sensor-zu-MRI Koregistrierungen sind der Schwerpunkt dieser Arbeit. Die Qualität von Koregistrierungen wird bewertet und der Effekt ihrer Unsicherheiten auf Schätzungen der Gehirnaktivität beziehungsweise auf Quellschätzungen wird untersucht. Beide Themen, die Qualitätsbewertung und die Übertragung der Unsicherheiten auf Quellschätzungen werden separat behandelt. In dieser Arbeit wird vorgeschlagen, den target registration error (TRE) als Qualitätskriterium für Sensor-zu-MRI Koregistrierungen zu verwenden. Der TRE kann den Effekt von Koregistrierungsunsicherheiten an beliebigen Punkten messen. Insgesamt wurden 5544 Datensätze mit Sensor-zu-Kopf und 128 Datensätze mit Kopf-zu-MRI Koregistrierungen aus einem Labor analysiert. Ein adaptiver Metropolis-Algorithmus wurde genutzt um optimale Koregistrierungen zu schätzen und um Stichproben ihrer Parameter (Rotation und Translation) zu ziehen. Es wurde ein TRE von 1.3 und 2.3 mm an der Kopfoberfläche gefunden. Weiter wurde eine mittlere absolute Differenz der Koregistrierungsparameter zwischen Metropolis-Algorithmus und dem etablierten iterative closest point-Algorithmus von (1.9 ± 1.5)&ring; und (1.1 ± 0.9) mm gefunden. Ein Zweistichproben-t-Test zeigte eine signifikante Verbesserung in der Optimierung der Zielfunktion durch den Metropolis-Algorithmus. Die Übertragung der Koregistrierungsunsicherheit auf Quellschätzungen erfolgte unter Verwendung von speziellen Polynom-Entwicklungen des Beamformers und der standardized low resolution tomography (sLORETA). Dieser Ansatz wurde für auditorische, visuelle und somatosensorische Hirnaktivität mit verschiedenen Signal-Rausch-Verhältnissen und Beschränkungen der Quellorientierung auf Datensätzen von 20 Probanden getestet. Durch die Verwendung von Polynom-Entwicklungen als effiziente Surrogate wurde die örtliche Verteilung des Quellschätzungs-Maximums für 50000 Koregistrierungen ermittelt. Aus den Ergebnissen lässt sich schließen, dass es möglich ist, Polynom-Entwicklungen mit hoher Genauigkeit auf MEG-Quellschätzungen anzuwenden. Polynom-Entwicklungen der Quellschätzungen reduzierten die Berechnungszeiten erheblich um den Faktor von etwa 10000 für Beamformer und 50000 für sLORETA im Vergleich zu den exakten Originalrechnungen.



https://www.db-thueringen.de/receive/dbt_mods_00042629
Wang, Hongmei;
Hydrogen and nitrogen plasma treated materials with disordered surface layer used for energy storage and conversion devices. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (XX, 108 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Die Plasmabehandlung gilt als eine einfache und effektive Methode zur Modifikation der Materialoberfläche von Elektroden für elektrochemische Energiespeicher- und Umwandlungs-vorrichtungen, um die Leistungen zu verbessern. Infolgedessen konnten nach der Hochleistungsplasmabehandlung ungeordnete Oberflächenschichten und Atomleerstellen entstehen, die eine wichtige Rolle bei der Leistungssteigerung von Energiespeicher- und Umwandlungsmaterialien spielen. In dieser Arbeit werden Wasserstoff- und Stickstoffplasma verwendet, um Lithium- und Natriumionenbatterien (LIBs und SIBs) Anodenmaterialien und elektrochemische Katalysatoren für die Stickstoffreduktionsreaktion (NRR) zu modifizieren, und die elektrochemischen Anwendungsleistungen dieser Materialien zu untersuchen. Erstens, werden WS2-Nanopartikel durch Wasserstoff-Plasma-Behandlung bei 300 &ring;C für 2 Stunden modifiziert, und die hydrierten WS2 (H-WS2)-Nanopartikel zeigen eine deutlich verbesserte elektrochemische Leistung als Anodenmaterial für Lithium-Ionen-Batterien (LIBs) und Natrium-Ionen-Batterien (SIBs). Die TEM-Untersuchung zeigt eine ungeordnete Oberflächenschicht mit einer Dicke von etwa 2,5 nm nach der Behandlung, was auch durch die Ergebnisse der Raman Spektroskopie bestätigt wird. Die Verschiebung der XPS-Peaks deutet an, dass die Oberflächenstörungen der Struktur in die kristalline Struktur integriert sind. Die H-WS2-basierten LIBs und SIBs weisen eine deutlich höhere spezifische Kapazität bei unterschiedlichen Stromdichten auf. Darüber hinaus zeigt die Untersuchung der elektrochemische Impedanzspektroskopie (EIS) eine drastische Verringerung des Ladungsübertragungswiderstands sowohl für LIB als auch für SIB. Das bedeutet, dass die plasmahydrierte Elektrode für den Elektronentransport während des elektrochemischen Prozesses vorteilhafter ist. Die verbesserte Leistung von H-WS2 in beiden Anwendungen von Li und Na Ionenbatterien ist auf den reduzierten Ladungsübertragungswiderstand an der ungeordneten Oberflächenschicht und die verbesserte elektronische Leitfähigkeit durch die Störungsoberfläche in der kristallinen Struktur zurückzuführen. Zweitens, werden stickstoffdotierte TiO2 (N-TiO2)-Nanopartikel durch Stickstoffplasma-Behandlung hergestellt und als Anodenmaterial von Natriumionenbatterien (SIBs) untersucht. Die N-TiO2-Nanopartikel weisen eine wesentlich bessere Ratenleistung auf und liefern Entladekapazitäten von etwa 621 mAh-g-1 bei 0,1 C und 75 mAh-g-1 bei 5 C sowie eine deutlich verbesserte Kapazitätserhaltung (mehr als 98% nach mehr als 400 Zyklen) als das unbehandelte TiO2. Im Gegensatz zu den anderen stickstoffdotierten TiO2, von denen in der Literatur berichtet werden, bildet sich in den N-TiO2-Nanopartikeln nach der N2-Plasmabehandlung eine ungeordnete Oberflächenschicht mit einer Dicke von etwa 2,5 nm. Sowohl der dotierte Stickstoff als auch die ungeordnete Oberflächenschicht spielen eine wichtige Rolle bei der Verbesserung der Natriumspeicherleistung. Drittens, haben wir das TiO2-Au (P-TiO2-Au, Goldnanocluster, unterstützt durch P25 TiO2-Nanopartikel, Au-Belastung: ˜ 2 wt%) als elektrochemische Katalysatoren für die Stickstoffreduktionsreaktion benutzt. Das Material wurde mit H2-Plasma modifiziert und bildete dann einen blau-schwarzen H-TiO2-Au-Katalysator, der eine verbesserte Leistung für den Prozess der Stickstoffreduktionsreaktion (NRR) im Vergleich zur unbehandelten Probe zeigte. Aus den TEM-Untersuchungen konnten wir einige ungeordnete Positionen an der Oberfläche finden, und auch die Raman-Intensitäten von H-TiO2-Au sind viel niedriger als das unbehandelte Material, das auf die ungeordnete Oberfläche und die Bildung von Sauerstoffleerstellen zurückzuführen ist. Darüber hinaus konnte nach der Wasserstoff-Plasma-Behandlung ein kleiner Peak-Shift im XPS -Spektrum festgestellt werden. Wenn die Probe für die elektrochemische NRR verwendet wurde, ist die Ausbeute an NH3 von blau-schwarzem H-TiO2-Au etwa 9,5 mal höher als die unbehandelte Probe, während die höchste faradaysche Effizienz von 2,7 % auch bei dem Potential von -0,1V erreicht wird. Die Ergebnisse der DFT-Berechnung bestätigen, dass H-TiO2-Au bei Sauerstoffleerstellen und ungeordneter Oberflächenschicht für den NRR-Prozess sehr bevorzugt wird. Es zeigt außerdem, dass der Reduktionsprozess der H2-Plasma-Behandlung eine wichtige Rolle bei der Verbesserung der Leistung von Katalysatoren spielt. Es könnte das erste Mal sein, dass die Plasmatechnik zur Modifikation des Katalysators für elektrochemische NRR-Prozesse eingesetzt wurde.



https://www.db-thueringen.de/receive/dbt_mods_00040641
Al Mustafa, Nader;
Investigation of advanced GaN HEMTs for digital and high frequency applications. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (137 Blätter)
Technische Universität Ilmenau, Dissertation 2019

Die physikalischen Eigenschaften des Galliumnitrid (GaN) und der darauf basierenden Materialien eignen sich besonders zur Herstellung von leistungselektronischen Bauelementen. Die große Bandlücke und hohe elektrische Durchbruchfeldstärke von GaN in Kombination mit einem zweidimensionalen Elektronengas hoher Dichte durch induzierte Polarisation in der AlGaN/GaN-Grenzfläche ermöglicht die Entwicklung von Transistoren mit hohen Sperrspannungen, niedrigen Durchlasswiderständen und niedrigen Schaltladungen. Die aus herkömmlichen GaN-HEMTs hergestellten Transistoren haben jedoch bereits ihre Leistungsgrenze erreicht. Um die zukünftigen Bedürfnisse von leistungselektronischen Bauelementen zu erfüllen, werden Forschungen zu nichtklassischen HEMT-Konzepten, zum Beispiel Superjunction GaN-HEMT, PNT GaN-HEMTs oder zu neuartigen Barrierematerialien durchgeführt. Diese Arbeit will die GaN-Technologie durch neue Ansätze in Design und Charakterisierung hocheffizienter GaN-Transistoren vorantreiben, um ihr volles Potential zu entfalten. Das Ziel der vorliegenden Arbeit ist es, verschiedene nichtklassische GaN HEMT-Konzepte hinsichtlich ihrer Performance sowie ihrer Eignung für zukünftige Logik, leistungselektronisch und RF Anwendungen zu bewerten und ihren Designspielraum einzugrenzen. Die Untersuchungen basieren auf numerischen Bauelementesimulationen unter Zuhilfenahme analytischer Berechnungen. Es wird gezeigt, dass das einfache und robuste Drift-Diffusionsmodell für die Simulation solcher nichtklassischen Bauelemente geeignet ist. Die Koexistenz von zweidimensionalen Elektronen- und Löchergasen in GaN-basierten Heterostrukturen wird mittels analytischer Modelle, die im Rahmen dieser Arbeit entwickelt wurden, und selbstkonsistenten numerischen Lösungen der Schrödinger- und Poisson-Gleichungen untersucht. Es kann gezeigt werden, dass für bestimmte Kombinationen von Bias-Bedingungen und Schichtdesign koexistierende 2DEGs und 2DHGs in GaN/AlGaN/GaN-Strukturen gebildet werden können, wobei sich das 2DHG an der Grenzfläche zwischen Grenzfläche und Grenzfläche befindet. Sobald ein 2DHG erzeugt ist, nimmt der Effekt der Gate-Spannung auf das 2DEG schnell ab und eine Sättigung der 2DEG-Dichte wird beobachtet. Außerdem ist es in Strukturen mit dünnen Barrieren viel schwieriger, ein 2DHG selbst für große Oberflächenpotentiale zu erzeugen. Die Formierung eines zweiten Kanals in AlGaN/GaN/AlGaN/GaN Heterostrukturen wurde untersucht. Es wurde gezeigt, dass für bestimmte Kombinationen von Bias-Bedingungen und Schichtdesign koexistierende zwei Kanäle in AlGaN2/GaN2/AlGaN1/GaN1-Strukturen gebildet werden können, wobei sich beide Kanäle am AlGaN1/GaN1 und AlGaN2/GaN2 befinden. Sobald der zweite Kanal erzeugt ist, nimmt die Wirkung der Gate-Spannung auf das erste 2DEG schnell ab und eine Sättigung des Drain-Stroms wird beobachtet. Besondere Aufmerksamkeit wurde auf einen neuartigen Inverter mit vertikalem Aufbauen gelegt, indem diese zwei Kanäle verwendet wurden. Andererseits konzentrieren sich theoretische Untersuchungen von AlGaN/GaN-HEMT-Strukturen für leistungselektronische Anwendungen auf die Abschätzung von Oxidgrenzflächenladungen in MIS-HEMT-Strukturen, und es werden zwei Simulationsstudien zu alternativen selbstsperrenden HEMT-Konzepten vorgestellt. Die Untersuchung von Oxidgrenzflächenladungen basiert auf einem Vergleich von gemessenen und simulierten Schwellenspannungen experimenteller HEMTs mit und ohne Al2O3-Schicht unter dem Gate. Wir finden, dass in beiden Fällen die geschätzte Oxidgrenzflächenladung die gleiche ist. Darüber hinaus entwickelten wir ein einfaches analytisches Schwellenspannungsmodell für die MIS HEMT Struktur, mit dem die Grenzflächenladung mit einem Taschenrechner abgeschätzt werden kann. Wir schlagen auch einen neuen Ansatz vor, bei dem die Wirkung einer p-dotierten Deckschicht mit der eines Gateoxids kombiniert wird, um einen selbstsperrenden HEMT zu erreichen. Wir konzentrieren uns auf die von Ota et al. mit 1D-Schrödinger-Poisson-Simulationen. Insbesondere zeigt unser analytisches Modell, dass die Schwellenspannung unabhängig von der Dicke sowohl der PNT-Schicht als auch der gespannten GaN-Kanalschicht ist. Darüber hinaus diskutieren wir Optionen zur Erhöhung der Elektronendichte in den ungesteuerten (ungated) Bauelementbereichen, um die Source/Drain-Widerstände zu reduzieren. Darüber hinaus werden gated kubische InGaN/InN-Heterostrukturen für die Anwendung in InN-basierten Transistoren mit hoher Elektronenmobilität theoretisch untersucht. Die Bildung zweidimensionaler Trägergase in InGaN/InN-Strukturen wird im Detail untersucht und Designprobleme für die InGaN-Barriere untersucht. Es wird gezeigt, dass für bestimmte Oberflächenpotentiale eine unerwünschte Sättigung der Schichtdichte des Elektronengases in der InN-Kanalschicht auftreten kann. Optionen zur Verbesserung der Elektronendichte in den Kanal- und Oberflächenpotentialbereichen für einen geeigneten Transistorbetrieb werden vorgestellt. Abschließend wird die Bildung zweidimensionaler Elektronengase (2DEGs) in gitterangepassten AlScN/GaN- und AlYN/GaN-Heterostrukturen durch numerische selbstkonsistente Lösungen der Schrödinger- und Poisson-Gleichungen untersucht. Die Elektronenkonzentrationsprofile und die resultierenden 2DEG-Schichtdichten in diesen Heterostrukturen werden berechnet und mit denen verglichen, die an AlGaN/GaN-Grenzflächen auftreten. Die kombinierte Wirkung der stark polarisationsinduzierten gebundenen Ladungen und der großen Leitungsbandoffsets an den AlScN/GaN- und AlYN/GaN-Heteroübergängen führt zur Bildung von 2DEGs mit sehr hohen Elektronendichtedichten. Für die AlScN/GaN- und AlYN/GaN-Heterostrukturen werden 2DEG-Schichtdichten von etwa 4 bis 5-mal so groß wie für Al0,3Ga0,7N/GaN-Strukturen berechnet. Unsere Ergebnisse demonstrieren das Potenzial von AlScN- und AlYN-Barrieren für GaN-basierte Transistoren mit hoher Elektronenmobilität.



https://www.db-thueringen.de/receive/dbt_mods_00040618
Röding, Matthias;
Polarimetrische Analyse breitbandiger Radar-Signale für bildgebende Anwendungen. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (V, 171 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Wie Systeme ihre Umwelt erfassen und Umgebungen wahrnehmen ist in den letzten Jahren in nahezu allen Lebensbereichen in den Fokus technischer Entwicklungen gerückt. Es sind Anwendungen der Assistenz oder Automatisierung im privaten Raum (Smart Home), in der Produktion (Industrie 4.0) oder in Mobilitätssystemen der Logistik bzw. des Verkehrs (autonomes Fahren), welche möglichst qualitativ hochwertige und von Umgebungseinflüssen unabhängige Sensorinformationen für ihre korrekte Funktionsweise benötigen. Radar-Sensoren bieten die Möglichkeit von der Umgebung zurückgestreute Signale zu erfassen und durch räumlich verteilte Messungen eine Abbildung der Umwelt vorzunehmen. Unter Nutzung einer synthetischen Apertur und Radar-Signalen großer Bandbreite entstehen dabei Kartierungen, welche räumliche Informationen von Rückstreuobjekten bereitstellen. Die Auswertung des Polarisationszustands gesendeter und empfangener Signale, bietet außerdem eine detailliertere Aussage über deren Interaktion mit der Umgebung und ursächliche Streumechanismen. In der klassischen Radar-Fernerkundung sind die Aufgaben der Bildgebung und der Polarimetrie voneinander getrennte Verarbeitungsschritte, da erst nach der Bildgebung die notwendige Auflösung zur Trennung einzelner Mechanismen zur Verfügung steht. Informationen der Objekte wie Form oder Ausrichtung im Raum werden entsprechend durch Auswertung des polarimetrischen Streumechanismus im Bildbereich gewonnen. Ziel dieser Arbeit ist die Erweiterung wissenschaftlicher Ausgangspunkte der bildgebenden UWB-Radar-Sensorik durch Methoden der Radar-Polarimetrie der Fernerkundung. Durch die Erschließung polarimetrischer Signalanalyse breitbandiger Radar-Signale als Vorverarbeitung bildgebender Verfahren, können polarimetrische Mechanismen bereits im Zeitbereich identifiziert und ausgewertet werden. Die daraus gewonnenen Informationen dienen der Zerlegung der Radar-Daten in einzelne Rückstreukomponenten, wodurch bildgebende Verfahren die Umgebung des Sensors mit höherer Genauigkeit und Interpretierbarkeit erfassen. Dazu werden zwei neuartige Methoden detailliert diskutiert und mit bestehenden polarimetrischen Verfahren in Bezug gesetzt. Es handelt sich dabei, um einen modellbasierten Ansatz für die Zerlegung im Zeitbereich und ein Verfahren der statistischen Analyse in Zeit- und Bildbereich. Die Funktionsweise der Methoden wird in dieser Arbeit mit Simulationsdaten veranschaulicht und mithilfe von Messungen in realitätsnaher Umgebung verifiziert.



https://www.db-thueringen.de/receive/dbt_mods_00040525
Kremmel, Johannes;
Koppler und Funtionsstrukturen für integriert-optische single-mode polymer Wellenleiter. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (iii, 139 Seiten)
Technische Universität Ilmenau, Dissertation 2019

In der vorliegenden Arbeit wurde die Erweiterung der Funktionalität einer bekannten integriert optischen Polymerwellenleitertechnologie untersucht. Die untersuchten Wellenleiter werden, basierend auf direkt UV-strukturierbaren Polymeren, unter Zuhilfenahme eines Laser-Direkt-Schreibverfahrens (Laser Direct Imaging, LDI) hergestellt. Die dabei gemachten Entwicklungen umfassen einerseits verschiedene Messmethoden zur Charakterisierung von Wellenleitern, andererseits die Realisierung von gekoppelten Wellenleitern zum Aufbau von Richtkopplerstrukturen und in weiterer Folge von aktiven Funktionsstrukturen wie Schalter und Sensoren. Zur industriellen Fertigung ist die einfache und schnelle Faserkopplung solcher Wellenleiter essenziell. Aus diesem Grund wurde ein Konzept zur passiv ausgerichteten Mehrfach-Faserkopplung entwickelt und umgesetzt. Dabei wurde eine signifikante Verbesserung der Koppeleffizienz, im Vergleich zu ähnlichen Konzepten, erreicht. Zur Demonstration der Funktion wurden, basierend auf den zuvor durchgeführten Entwicklungen, thermo-optisch aktuierte integriert-optische Schalter sowie ein integriert-optischer Verschiebungssensor ausgelegt, realisiert und untersucht.



https://www.db-thueringen.de/receive/dbt_mods_00040516
Dallorto, Stefano;
Enabling control of matter at the atomic level: atomic layer deposition and fluorocarbon-based atomic layer etching. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (126 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Die fortschreitende Miniaturisierung von Halbleiterschaltkreisen erfordert die Entwicklung neuartiger Strukturierungs-, Abscheidungs- und Ätzmethoden. Die dafür erforderliche Auflösung nähert sich heutzutage atomaren Maßstäben. Die derzeitigen Trends in der Fabrikation von elektronischen Schaltkreisen stellen strenge Anforderungen an die verwendeten Nanostrukturierungsmethoden, in Bezug auf Kontrolle der Materialeigenschaften und der Strukturabmessungen. Für diese nanoskalige Strukturen sind außerdem Oberflächenzusammensetzung und Oberflächendefekte genauso wichtig wie die Strukturabmessungen, um die gewünschte Funktionalität zu erreichen. Letztendlich ist es daher notwendig beliebige Materialien mit der Präzision einzelner atomarer Lagen abzuscheiden und abzutragen. Die vorliegende Arbeit untersucht geeignete Fabrikations- und Charakterisierungsprozesse für die Ära der atomar genauen Materialstrukturierung mittels sogenannter Atomic Layer Deposition (ALD) und Atomic Layer Etching (ALE). Um die Herausforderungen atomar genauer Materialstrukturierung zu adressieren ist ein tiefgehendes Verständnis der Materialien und ihrer physikalisch-chemischen Wechselwirkungen von Nöten. In der vorliegenden Arbeit wird die Synergie verschiedener Materialien und Fabrikationsprozesse untersucht. Durch Anwendung von ALD für die Doppelstrukturierung mittels Spacer-Technik (spacer defined double patterning, SDDP) wird gezeigt wie sich Strukturen mit Dimensionen unterhalb von 10 nm herstellen lassen. Generell ist die Auflösung von SDDP durch das Fehlen geeigneter Nanofabrikationsprozesse für Strukturen unterhalb von 10 nm limitiert. Die Arbeit etabliert, dass thermische ALD eine konforme Abscheidung einer Titandioxid-Spacer-Schicht erlaubt, ohne dabei das darunterliegende Substrate zu beschädigen oder zu modifizieren. Zusammenfassen lässt sich sagen, dass die erste erfolgreiche Fabrikation von 7.5 nm breiten Titanoxidstrukturen mittels SDDP nur durch die Anwendung von Prozessen auf atomarem Maßstab ermöglicht wurde. Während ALD bereits zu einer produktiven Standardtechnologie geworden ist, erweist sich die Etablierung des korrespondieren Ätzprozesses, nämlich ALE, als ungleich schwieriger. Tatsächlich ist die kontrollierte Materialabtragung um jeweils eine Atomlage ein komplexes wissenschaftliches Problem. Dies gilt besonders für direktionales Ätzen. Ein Hauptziel der Arbeit besteht in der Entwicklung von Methoden, die es erlauben existierende Plasmaätzanlagen für ALE zu verwenden. In diesem Zusammenhand etabliert und evaluiert diese Arbeit einen zyklischen Prozess basierend auf Fluorcarbonen (FC) für ALE von Siliziumdioxid. Es werden die beteiligten Reaktionsmechanismen charakterisiert und der Einfluss der Prozessparameter evaluiert. Mittels eines zyklischen FC- und Argon-Plasmas ist es möglich Siliciumdioxid atomar genau in einer minimal modifizierten, konventionellen Plasmaätzanlage zu ätzen. Plasma-basiertes ALE erlaubt direktionales Ätzen, das für tiefe, schmale Strukturen erforderlich ist. Zum ersten Mal werden hier sowohl seitenverhältnisunabhängiges Ätzen als auch hohe Zuverlässigkeit beim Strukturtransfer mittels FC-basiertem ALE erreicht. Das Resultat wird durch eine detaillierte Untersuchung des Einflusses der Plasmaparameter auf das Ätzverhalten von Siliziumdioxid und Anwendung der gewonnenen Informationen auf ein selbstlimitierendes Verhalten ermöglicht. Zusammengefasst demonstriert die vorliegende Arbeit wie neue Technologieknoten, die Teil des zunehmenden Trends zu atomar genauer Halbleiterprozessierung sind, durch ALD und ALE ermöglicht werden.



https://www.db-thueringen.de/receive/dbt_mods_00040458
Vorbringer-Dorozhovets, Nataliya;
Laserinterferometrisches Rasterkraftmikroskop. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (176 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Seit der Entwicklung im Jahr 1986 ermöglicht das Rasterkraftmikroskop (AFM) den Blick in die Nanowelt. Das Funktionsprinzip des AFM basiert auf Detektion der interatomaren Wechselwirkung zwischen abzubildender Oberfläche und einer pyramidenförmigen Spitze mit einem Radius von wenigen Nanometern. Die Spitze ist am freien Ende eines Cantilevers angebracht. Die durch die Wechselwirkungskräfte verursachte Auslenkung des Cantilevers wird mit einem Lagedetektor erfasst. Im AFM wird die Antastspitze über die Messobjektoberfläche geführt und die Oberfläche wird währenddessen abgetastet, ähnlich wie bei einem Schallplattenspieler die Nadel des Tonabnehmers die Platte abtastet. Der Lagedetektor liefert dabei ein Signal, das mit der Topographie der Oberfläche zusammenhängt. Die zu jedem einzelnen Messpunkt erfassten Messwerte werden zu einem Bild zusammengesetzt. Von Beginn an dienten AFM für die bildliche Darstellung von Nanostrukturen. Der heutige technologische Fortschritt erfordert metrologisch exakte Objektvermessung mit Nanometergenauigkeit über große Messbereiche. Solche Messungen sind nur möglich, wenn die Mess- und Positioniersysteme gute messtechnische Eigenschaften aufweisen und auf nationale und internationale Normale rückführbar sind. Dies war der Ausgangspunkt zur Entwicklung eines laserinterferometrischen Rasterkraftmikroskops (LiAFM), welches als Antastsystem für die Nanopositionier- und Nanomessmaschine (NPMM) NMM-1 dienen soll. Das Hauptmerkmal des LiAFM ist der kombinierte Lagedetektor für die Messung der Torsion, Biegung und Position des Cantilevers mit einem einzigen Messstrahl. Dieser kombinierte Lagedetektor schließt einen Lichtzeiger und ein Interferometer ein und wird im LiAFM als interferometrisches Sondenmesssystem bezeichnet. Das Laserinterferometer ermöglicht die Rückführbarkeit der Positionsmessung auf das Längennormal. Der Lichtzeiger zeichnet sich von anderen Lagedetektoren durch die gleichzeitige und getrennte Erfassung von Biegung und Torsion des Cantilevers aus. Die NMM-1 führt bei einer Messung die Scanbewegung durch, somit ist für das LiAFM ein x-y-Scanner nicht erforderlich. Um die Messdynamik und den Messbereich des LiAFM zu erhöhen ist ein piezoelektrischer z-Antrieb integriert. Während der Messungen wird eine interferometrische Positionsmessung sowie eine hochgenaue Regelung der Durchbiegung des Cantilevers (mittels z-Antriebes und Biegungssignals des Lichtzeigers) durchgeführt und die Kombination der Bewegungen von NMM-1-Tisch und z-Antrieb des LiAFM verwendet. Das LiAFM wurde erfolgreich aufgebaut, in die NMM-1 integriert und für zahlreiche Messaufgaben eingesetzt. In der vorliegenden Arbeit wird dieses neuartiges LiAFM, seine besonderen Merkmale, die Funktionsweise, der Aufbau, die messtechnischen Eigenschaften sowie die wichtigsten Messungen und deren Ergebnisse ausführlich dargestellt.



https://www.db-thueringen.de/receive/dbt_mods_00040263
Habka, Muhsen;
Analyse und Optimierung eines Kraft-Wärme-Kopplungssystems unter Berücksichtigung von alternativen Energien und verschiedenen Kreisprozessen. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (iii, 181, iv-xl Blätter)
Technische Universität Ilmenau, Dissertation 2019

Die Geothermie sowie die Solarthermie stellen sehr große technische Potenziale zur Energiegewinnung zur Verfügung. Die derzeit zwei verfügbaren Umwandlungsverfahren dieser niedertemperierten Wärme mit Sekundärkreislauf sind der Organic Rankine Cycle (ORC) und das Kalina-Cycle-System (KCS). Für geringe Quellentemperaturen bis 120 &ring;C wird der ORC ohne und mit Kraft-Wärme-Kopplung (KWK) analysiert sowie weiter optimiert und mit der Ausführung von Kalina Cycle KCS 34 gewichtet. Für die geothermische Stromerzeugung erzielen zeotrope Fluidgemische mit ziemlich geringen kritischen Temperaturen, im subkritischen Bereich des ORC, Leistungssteigerungen sowie Optimierungen nach dem zweiten Hauptsatz bis 30 %, verglichen mit den Reinfluiden. Dies richtet sich jedoch nach der Geothermalwassertemperatur; d.h.: Jeder Temperatur ist einem sachgemäßen zeotropen Gemisch zugeordnet. Dabei sind Eigenschaften von Gemischen wie z.B. R422A und R402A für die Geothermalwassertemperatur 100 &ring;C, R22M und R438A für 120 &ring;C supergeeignet. Für die KWK werden Hybridmodelle entworfen, in denen verschiedene Kopplungsvarianten sowie Prozessführungen, wie Verwendung von zwei Vorwärmern, zwei Verdampfungsaggregaten oder die Basisführung, stehen. Verglichen mit dem bekannten Serien- und Parallelmodell haben all diese Systemführungen geringere Sensitivität zu Auslegungs- und Betriebsparametern des Heizsystems sowie zu den Fluidklassen, zusammen mit optimierter Leistungserzeugung. Der Cash-Flow als Maßstab der Wirtschaftlichkeit folgt dem thermodynamischen Zielfaktor und bestätigt die Überkompensation des Mehraufwands der optimierten Anlagen. Im Vergleich des ORC und KCS 34 für die Geothermalwassertemperaturen bis 120 &ring;C zeigt sich der ORC mit den Fluidgemischen überlegen. Dagegen liefert KCS 34 bei Limitierung der Geothermalwasserauskühlung Mehrleistung. Für die KWK beweisen sich die Hybridmodelle des ORC als hervorragende Kreisläufe. Für Reservoire mit höheren Temperaturen als 120 &ring;C ist das Serienmodell mit KCS 34 vorteilhafter. In der solarthermischen Betrachtung scheint die kaskadierte Methode der Wärmekopplung mit dem ORC und Flachkollektor zusammen mit Verwendung der zeotropen Gemische zur Optimierung des Teillastverhaltens und Verringerung der Systemsensitivität vielversprechend, verglichen mit der klassischen Wärmekopplung mit dem ORC-Kondensator und Reinarbeitsmitteln.



https://www.db-thueringen.de/receive/dbt_mods_00040245
Guddei, Bernhard;
Untersuchungen zum Rollwiderstand harter Wälzkörper im Ebene-Kugel-Ebene-Kontakt. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (xxx, 250 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Verluste im freien Rollkontakt, wie in Wälzkörperführungen, werden oft dem partiellen Gleiten im Kontakt zugeschrieben, weshalb auch von Rollreibung gesprochen wird. Diese kann jedoch nur entstehen, wenn die Kontaktpartner unterschiedliche elastische Eigenschaften besitzen. Auf der anderen Seite werden Verluste beim Rollen auch beobachtet, wenn der Kontakt aus zwei gleichen Materialien besteht. Daraus folgt, dass hauptsächlich andere Verlustmechanismen aktiv sein müssen. Das Hauptziel dieser Dissertation ist, den Widerstand beim freien Rollen im Ebene-Kugel-Ebene-Kontakt besser zu verstehen. Für die Untersuchung wurden elf Kombinationen harter Materialien benutzt, die zum Teil auch in Wälzlagern eingesetzt werden. Jede Kombination umfasst über 20 Probenpaare unterschiedlicher Rauheit und Durchmesser, für die jeweils der Gleitreibungs- und Rollwiderstandskoeffizient sowie die elastische Hysterese gemessen wurden. Außerdem wurde für einige Modellsysteme die Rollreibung numerisch untersucht. Die Messungen der Gleitreibung zeigte in Abhängigkeit der Oberflächenrauheit kein einheitliches Verhalten. Je nach Paarung wurden lokale Minima, Maxima oder lineare Trends gefunden. Der Vergleich mit dem jeweils zugehörigen Rollwiderstandskoeffizienten zeigte keine Korrelation. Dieser ist jedoch mit dem Rauheitswert Sq korreliert, woraus gefolgert wurde, dass der Rollwiderstand nur marginal von Gleitreibung beeinflusst wird. Der Vergleich mit den numerisch berechneten Rollwiderständen, die nur Gleitreibung als Verlustmechanismus in Betracht zogen, bestätigt dieses Bild. Die daraus abgeleiteten Rollwiderstandskoeffizienten sind um mehrere Größenordnungen kleiner, als die experimentell bestimmten. Plastische Verformungen können diesen Unterschied nicht erklären, da die Einlaufphase während der ersten beiden reversierenden Messzyklen nicht ausgewertet wurden. Der Hauptanteil des Rollwiderstands wurde daher innerer Reibung zugeschrieben. Dies passt insofern zu den Messergebnissen, da raue Oberflächen bei gleicher Last größere Verformungsraten aufweisen. Die Messergebnisse der elastischen Hysterese bestätigen diesen Schluss. Weiterhin wurde ein einfaches analytisches Modell entwickelt und validiert, welches die Umrechnung zwischen elastischer Hysterese und Rollwiderstand erlaubt. Zusätzlich wurde der Einfluss der Rauheit auf Schleppfehler von Servo-Achsen untersucht und mit der lokalen Streuung der Rollwiderstände verglichen. In beiden Fällen wurde ein linearer Zuwachs mit steigender Rauheit beobachtet.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000313
Staaks, Daniel;
Low-temperature chromium dry etching for ultimate profile control towards single-digit nanofabrication. - Ilmenau, 2019. - 255 Seiten
Technische Universität Ilmenau, Dissertation 2019

Das Metall Chrom ist ein wichtiger Funktionswerkstoff in der Mikro- und Nanotechnik, wo konstant sinkende Strukturgrößen in Richtung sub-10 nm zunehmend zu Schwierigkeiten bezüglich dessen Trockenätzstrukturierung führen. Insbesondere die Nutzung als Hartmaske für SiO2 Templates in der UV-Nanoimprint Lithographie (UV-NIL) ist durch die isotrope Natur des Trockenätzprozesses begrenzt, was zu lateralem Ätzen und Maskenhinterschnitt führt. In Konsequenz, sind die erreichbaren Aspektverhältnisse stark begrenzt und minimal erreichbare Strukturgrößen limitiert. Daher wird in dieser Arbeit das induktiv gekoppelte Plasmaätzen (ICP) von Chrom untersucht, mit der Zielstellung die Kontrollierbarkeit des Ätzprozesses zu verbessern. Ätzraten und Ätzprofile werden analysiert um Ätzmechanismen zu bestimmen. Spektroskopische Ellipsometrie und Querschnittsrasterelektronenmikroskopie werden genutzt um geätzte Chromdünnschichten unter verschiedenen Prozessbedingungen zu untersuchen. Die Hauptprozessvariablen sind die Oberflächentemperatur, die Sauerstoffkonzentration, die gerichtete RF Leistung und die Strukturgröße. Die Entwicklung einer neuen Probenpräparationsmethode zur hochpräzisen Querschnittssekundärelektronenbildgebung war zudem Grundvoraussetzung um eine ausreichende Sichtbarkeit der Strukturprofile zu gewährleisten. Resultierend demonstriert diese Arbeit zum ersten Mal die Möglichkeit die Form geätzter Chromprofile ohne Überätzen direkt und präzise kontrollieren zu können. Ermöglicht wird dies durch die Entdeckung und Nutzung eines Selbstpassivationseffektes bei niedrigen Temperaturen. Der Ätzmechanismus konnte auf die Re-deposition von sauerstoffreichen Nebenprodukten zurückgeführt werden, welche vom Boden des Ätzgrabens stammend, die Seitenwand passivieren. Zusätzlich wird mit dieser Arbeit ein neuer Stand der Technik definiert indem die anisotrope Strukturierung von Chrom mit Aspektverhältnissen von bis zu 3,25 demonstriert wird. Im Bezug auf die Fabrikation von einstellig nanoskaligen Strukturgrößen in Chrom, demonstriert diese Arbeit weiterhin die großflächige Herstellung von Nanostrukturen mit 7.5 nm in SiO2. Mit den Resultaten dieser Dissertation kann nun mit einem vorher nicht dagewesenen Grad der Kontrolle Chrom nanostrukturiert werden, womit zukünftige Anforderungen an die sub-10 nm Fabrikationsfähigkeit erfüllt sind.



Ullmann, Vinzenz;
Beiträge zur direktantastenden Interferometrie in der optischen Form- und Längenmesstechnik. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (g, III, 169 Seiten)
Technische Universität Ilmenau, Dissertation 2019

In der vorliegenden Dissertationsschrift werden drei neue interferometrische Messanwendungen in der Form- und Längenmesstechnik entwickelt und untersucht, die auf einer optischen Direktantastung technischer Oberflächen beruhen. Die angetasten Oberflächen unterscheiden sich in Form, Rauheit und Reflexionsgrad deutlich von ebenen Spiegeln, was eine Anpassung der antastenden Wellenfronten im Interferometer erfordert. Zu den betrachteten Anwendungen gehören eine interferenzoptische Rundheits- und Rundlaufmessung, eine interferenzoptische Durchmessermessung an Lehrringen und eine interferenzoptische Kavitätslängenmessung. Für die Realisierung der interferenzoptischen Anwendungen wurden vier technische Konzepte abgeleitet, miteinander kombiniert und in Technologiedemonstratoren umgesetzt. Das erste technische Konzept ermöglicht eine interferenzoptische Direktantastung gekrümmter Oberflächen durch die Anpassung der Wellenfronten im Messstrahl an die Oberflächenform. Dies wird durch die Einbindung einer adaptiven Optik erreicht. Das zweite Konzept sieht die Kopplung eines Laserinterferometers mit einem Weißlichtinterferometer vor, um eine absolute optische Längenmessungen mit hoher Präzision (Auflösung im Nanometerbereich) und einem großen Messbereich (mehrere hundert Millimeter) durchführen zu können. Das Weißlichtinterferometer wird gemäß dem dritten technischen Konzept mit kompakten, sehr langlebigen, lichtwellenleitergekoppelten LEDs betrieben, die ein breiteres optisches Spektrum aufweisen als Superlumineszenzdioden (SLD), aber auch eine geringere Lichtausgangsleistung. Um im Weißlichtinterferometer ausreichend Lichtleistung zur Erzeugung von Interferenzsignaturen zur Verfügung stellen zu können, werden Multimode-Lichtwellenleiter (MM-LWL) eingesetzt. Diese MM-LWL verursachen aufgrund von Speckle-Effekten einen kontrastmindernden Effekt im Weißlichtinterferometer, der sich auf die geeignete Einstellung der Interferenzstreifenbreite auswirkt. Dieser Effekt wurde untersucht und mathematisch modelliert, um die Interferometerkonstruktion zu optimieren. Das vierte technische Konzept beschreibt den Einsatz achromatisch polarisierender Optikelemente im Weißlichtinterferometer. Es werden die Eigenschaften dieser achromatischen Optiken und deren Vorteile für eine effiziente Strahlführung im Weißlichtinterferometer untersucht und beschrieben. Neben einem Funktionsnachweis der interferenzoptischen Durchmessermessung wurden für die interferenzoptische Rundheits- und Rundlaufmessung und die interferenzoptische Kavitätslängenmessung automatisierte Messprozesse umgesetzt, die anschließend messtechnisch charakterisiert werden konnten. Für Messergebnisse einer interferenzoptischen Rundheitsmessunge wird eine erweiterte Messunsicherheit von U = 50 nm (k = 2 u. P = 95 %) erreicht. Eine interferenzoptische Längenmessung an einer Kavität mit dem Nennmaß von l = 10 mm in der Nanopositionier- und Messmaschine NMM-1 garantiert Messergebnisse mit einer erweiterten Messunsicherheit von U = 5 nm (k = 2 u. P = 95 %).



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000385
Lenk, Steve;
Theoretical investigation of scanning probe lithography in field-emission mode. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (180 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Die Miniaturisierung der kleinsten Bauelemente, d. h. der Transistoren, in integrierten Schaltungen auf Siliziumbasis nähert sich langsam den physikalischen Grenzen und alternative Strukturierungs- und Strukturübertragungsmethoden werden benötigt um zu noch kleineren Strukturen zu gelangen. Eine dieser alternativen Strukturierungsverfahren ist die feldemissionsbasierte Rastersondenlithographie. Diese Technologie beruht auf der Belichtung einer Resistschicht mittels Elektronen, welche aus der Rastersondenspitze aufgrund des angelegten elektrischen Feldes emittiert werden. Das Verfahren wurde schon erfolgreich zur Herstellung neuartiger Einzelquantenpunkttransistoren verwendet, welche bei Raumtemperatur arbeiten und kann Strukturgrößen von unter 10 nm erzeugen. Nichtsdestotrotz mangelt es an einer theoretischen Beschreibung, welche insbesondere den Einfluss der Resistschicht auf das Emissionsverhalten der Elektronen aus der Spitze wie auch die Wechselwirkung der Elektronen mit den Molekülen der Resistschicht umfasst. Optimale Parameter zum Erreichen der besten Auflösung mit einer bestimmten Emissionsspitze müssen zurzeit in einem empirischen Versuch bestimmt werden. Das ist sowohl zeitaufwendig, nutzt die Spitze ab und birgt das Risiko einer Berührung der Spitze mit der Probe. Dadurch entsteht wiederum die Gefahr, dass die empirische Optimierung wiederholt werden muss. Um dies zu vermeiden, wäre ein theoretisches Modell wünschenswert, welches die optimalen Parameter vorhersagen kann. In dieser Arbeit wird ein umfassendes numerisches Modell der Rastersondenlithographie vorgestellt, welches die Berechnung des elektrischen Feldes, der Emissionsstromdichte aus der Spitze und der Elektronentrajektorien beinhaltet sowie eine Monte Carlo Simulation zur Berechnung der elektronischen Wechselwirkungen in der Resistschicht einschließt. Dieses Modell ist für beliebige zylindersymmetrische Spitzen anwendbar (u. a. für Spitzen mit einer umschließenden Elektrode) und berücksichtigt den Einfluss der Resistschicht in der gesamten Berechnung. Zur Verbesserung des Verständnisses der physikalischen Grundlagen, zur Vorhersage optimaler Parameter und zur Resourcenminimierung der Berechnung wurde ein analytisches Modell abgeleitet, welches, bis auf die Wechselwirkungen in der Resistschicht, alle Teile des numerischen Modells für eine typische Spitzenform beinhaltet. Damit konnte der Einfluss der durch die Spitze vorgegebenen Parameter (z. B. Spitzenradius) und der extern einstellbaren Parameter (z. B. Spannung, Schreibgeschwindigkeit) untersucht werden. Das analytische Modell wurde erfolgreich zur Analyse von Feldemissionsexperimenten genutzt und es konnte damit die systemeigene Driftgeschwindigkeit beziehungsweise die Wachstumsrate der experimentell beobachteten Strukturen abgeschätzt werden. Weiterhin konnte es die experimentell beobachtete Abhängigkeit der Linienbreite von der Bestrahlungsdosis und der Spannung reproduzieren. Somit steht erstmals ein vollständiges theoretisches Modell zur Beschreibung der feldemissionsbasierten Rastersondenlithographie zur Verfügung, welches alle relevanten Parametereinflüsse (im Vakuumbetrieb) beinhaltet. Der analytische Teil des Modells kann zur Vorhersage der zu schreibenden Strukturen und zur Parameteranpassung verwendet und in die Software des Lithographiesystems eingebaut werden.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000353
Silge, Martin;
Entwurf eines piezoelektrisch aktuierten Werkzeuges mit berührungsloser Energieübertragung zum schwingungsüberlagerten Fräsen. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (xiii, 130 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Diese Arbeit beschäftigt sich mit dem Entwurf eines Werkzeuges zur schwingungsüberlagerten Fräsbearbeitung. Der Bewegung des Fräsers beim klassischen Fräsen soll dabei eine axiale Schwingung überlagert werden. Mittels dieser zusätzlichen Bewegung kann die Oberfläche des Werkstücks während des Fräsens strukturiert werden. Um eine große Vielfalt an Oberflächenstrukturen zu ermöglichen, wird der Betrieb in einem Frequenzbereich angestrebt, der eine ganze Dekade umfasst. Die Bewegung wird von einem piezoelektrischen Aktor angeregt, welcher in das Werkzeug integriert ist. Die Energie, die zur Erzeugung der Schwingung benötigt wird, wird berührungslos über einen speziell entworfenen induktiven Übertrager auf das rotierende Werkzeug transferiert. Da auf der Empfängerseite kein Bauraum zur Integration leistungselektronischer Bauteile bzw. Schaltungen zur Verfügung steht, besteht auch bei der Energieübertragung die Notwendigkeit den Betrieb frequenzvariabel zu gestalten. Es wird ein Entwurfskonzept für den Energieübertrager vorgestellt und mit experimentellen Versuchen validiert. Weiterhin wird der Entwurf eines geeigneten mechanischen Aufbaus sowie der Ansteuerelektronik vorgestellt. Es wird außerdem ein mathematisches Modell hergeleitet, welches das Verhalten des gesamten elektro-magneto-mechanischen Systems beschreibt. Die Validierung dieses Modells erfolgt erneut experimentell, sowohl durch Messung von Frequenzgängen als auch durch Messung der Zeitverläufe verschiedener relevanter Größen. Daran anschließend werden die Ergebnisse erster schwingungsüberlagerter Fräsversuche vorgestellt. Als Ausblick wird schlussendlich noch ein Konzept vorgestellt, das die Erzeugung nahezu beliebiger Hubverläufe zulässt. Es wird der Ansatz der inversen Vorsteuerung gewählt. Auch dieses Konzept wird experimentell validiert, wobei hier keine Fräsversuche durchgeführt wurden. Der Vergleich zwischen Messung und Simulation erfolgt ausschließlich im mechanischen Leerlauffall.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000368
Rabenbauer, Pascal;
Entwicklung eines bleifreien, niedrigschmelzenden und hochbrechenden Spezialglases für den Einsatz als Streuschichtmatrix in organischen Leuchtdioden. - Ilmenau : Universitätsverlag Ilmenau, 2019. - 1 Online-Ressource (xiv, 138, XXXVIII Seiten). - (Werkstofftechnik aktuell ; Band 20)
Technische Universität Ilmenau, Dissertation 2019

Bleifreie, niedrigschmelzende und hochbrechende Spezialgläser wurden mit dem Ziel synthetisiert, diese als Streuschicht in einer organischen Leuchtdiode (OLED) zu verarbeiten und damit die interne Lichtauskopplung zu erhöhen. Ausgehend von ternären Systemen auf Basis eines B2O3- und/oder SiO2-Netzwerks wurden zunächst Bi2O3- respektive TeO2-haltige Gläser hergestellt. Darüber hinaus wurden der Einfluss und die Wirkungsweise weiterer Oxide auf diese Glassysteme analytisch erfasst. Ausgewählte Gläser wurden als Pulver zusammen mit 1-3 [my]m großen TiO2- oder SiO2-Streupartikeln zu einer Paste verarbeitet, in einem Siebdruckprozess auf ein Substrat aus Kalk-Natron-Silicatglas appliziert und abschließend verglast. Um daraus eine funktionsfähige OLED herzustellen wurde in einem Reinraumprozess auf die Komponente aus Substratglas und Streuschicht eine Schichtabfolge aus ITO-Anode, Emitterschichten und Kathode aufgebracht. Als besonders geeignet stellten sich Gläser aus dem System Bi2O3-B2O3-SiO2-ZnO-SrO-BaO (B:BSZSB) heraus. Mit ihnen konnten neben der Anpassung der Wärmeausdehnung an das Substrat auch die Brechzahlanpassung an die ITO-Anode mit nd = 1,90 ± 0,1, eine Transformationstemperatur Tg < 450 &ring;C und eine hohe Transmission im sichtbaren Bereich gewährleistet werden. Als ideal für die Verglasung von B:BSZSB-haltigen Schichten stellte sich ein Partikeldurchmesser d90 = 4,76 [my]m und eine möglichst enge Kornverteilung aus abgerundeten Partikeln dar. Die Partikel sollten dabei idealerweise gleichverteilt sein. Ziel war es, die Auskoppeleffizienz der OLED mittels Glasstreuschicht um mindestens 50 % zu steigern. Konkret bedeutet das, eine Lichtausbeute von [eta] ≥ 40 lm/W zu erreichen. Das optimale Streuvermögen für die Lichtextraktion aus einer OLED konnte durch einen Haze von 0,6-0,9 erzielt werden. Maßgeblich dafür sind die Schichtdicke und die darin enthaltene Streupartikelkonzentration. Die höchste Lichtausbeute von [eta] = 55 lm/W konnte für OLEDs mit einer eigenentwickelten 15 [my]m dicken Streuschicht der Zusammensetzung 23Bi2O3-38B2O3-4SiO2-24ZnO-4SrO-7BaO (mol-%) und einer Streupartikelkonzentration von 2,5 Vol.-% TiO2 realisiert werden. Im Vergleich zur Referenz-OLED ohne Streuschicht ([eta] = 26 lm/W) entspricht die erzielte Lichtausbeute, bei einer konstanten Leuchtdichte von 2000 cd/m2, einer Steigerung um 110 %. Die Übertragung des Prozesses vom Labormaßstab in die industrielle Fertigung im Reinraum konnte durch die Übergabe des Beschichtungsverfahrens inklusive aller nötigen optimierten Prozessschritte und -parameter an die OSRAM OLED GmbH gewährleistet werden.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000165
Weigel, Christoph;
Fluorbasiertes Trockenätzen von Mikrostrukturen in Glas und Glaskeramik. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (XII, 189 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Mit einem thermischen Ausdehnungskoeffizienten von nahe 0 im Temperaturbereich von 0 ... 50 &ring;C wird Zerodur vielfach für temperaturstabilisierte Systeme eingesetzt. Da es an Untersuchungen und Ergebnissen zu Batch-kompatiblen Mikrostrukturierungsverfahren mit hoher Genauigkeit fehlt, ist dessen Einsatz in der Mikrosystemtechnik bisher jedoch selten. Die Ursachen dafür liegen in den herausfordernden Materialeigenschaften. In dieser Arbeit wird ausgehend von Untersuchungen an herkömmlichen Gläsern das Plasmatiefenätzen der komplexen Glaskeramik Zerodur im Fluorplasma als massenmarkttaugliche Strukturierungsmöglichkeit untersucht. Herausfordernd ist dabei zum einen die komplexe chemische Zusammensetzung. So ist ein Großteil der Bestandteile im Fluorplasma nicht chemisch ätzbar. Weiterhin muss den thermischen Eigenschaften wie der Wärmeleitung und der thermischen Dehnung mehr Beachtung geschenkt werden, als dies z.B. für die Strukturierung von Silicium oder anderen herkömmlichen Gläsern der Fall ist. Für die Untersuchungen des Ätzverhaltens kommt ein induktiv-gekoppeltes Plasma (ICP-RIE) zum Einsatz. Wegen der hohen Plasmadichte bei gleichzeitig geringem Prozessdruck sind eine hohe Ätzrate und Anisotropie erreichbar. Das optimierte Ionen-induzierte Ätzen setzt aber Hartmasken voraus, die sowohl stabil gegenüber den thermischen und chemischen Belastungen als auch dem physikalischen Ionenbeschuss sind. Hierzu wurde eine geeignete Maskierungstechnik etabliert. Ausgehend von den erreichten Ergebnissen in Quarzglas wird der Einfluss der Materialkomplexität auf das Ätzergebnis untersucht. Dabei werden komplexe Borosilikatgläser mit unterschiedlichen Anteilen an nichtflüchtigen Reaktionsprodukten im Fluor-Plasma betrachtet. Der Einfluss der Materialkomplexität auf die Ätzrate, die Selektivität, die Rauheit des Ätzbodens und die Vertikalität der Seitenwände wird eingehend diskutiert. Diese Erkenntnisse dienen als Ausgangspunkt für die Untersuchungen der komplexen Glaskeramik Zerodur. In einer breiten Parameterstudie zeigt sich, dass mit der Wahl der Prozessparameter Einfluss auf die topografischen Kenngrößen der erzeugten Strukturen genommen werden kann. Hohe Ätzraten von mehr als 250 nm/min bei einer Selektivität von 6,4 und einem Flankenwinkel von 70,5&ring; werden mit den Ätzgasen SF6/CHF3 und SF6 erreicht. In der Anwendung der prozesstechnischen Erkenntnisse wird die Freistellung von mikromechanische Elementen demonstriert. Mit einem optimierten Prozess können Wafer mit einer Dicke von 150 [my]m vollständig durchgeätzt werden. Der dafür entwickelte zweiseitige Ätzprozess erlaubt ein hohes Aspektverhältnis trotz Flankenneigung. Die weiteren Herausforderungen an den Freistellungsprozess und die optimale Wahl der Prozessparameter werden eingehend diskutiert. Strukturuntersuchungen der tiefengeätzten und freigestellten Strukturen zeigen, dass nichtflüchtige Reaktionsprodukte aus Aluminium und Fluor den Strukturierungsprozess beeinflussen. Hier existieren Unterschiede zwischen dem Tiefenätzen und dem Freistellen, die mit einem entwickelten Erklärungsmodell beschrieben werden können, das auch auf andere komplexe Gläser und Glaskeramiken angewendet werden kann. Diese Arbeit leistet einen wichtigen Beitrag zur Batch-kompatiblen Strukturierung komplexer Gläser und Glaskeramiken in Fluorplasmen. Vor allem die Strukturierung von Zerodur hebt sich vom wissenschaftlichen Stand ab. Bislang konnte hierfür nur auf Literatur mit einem geringen Umfang an Ergebnissen zurückgegriffen werden.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000280
Wohlfahrt, Fabian;
Kraftgesteuerte Messzelle für Dilatometeranwendungen. - Ilmenau : Universitätsverlag Ilmenau, 2019. - 1 Online-Ressource (XVI, 168 Seiten). - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; Band 32)
Technische Universität Ilmenau, Dissertation 2018

Werkstoffinnovation ist eine wesentliche treibende Kraft des 21. Jahrhunderts. Die Forschung und Weiterentwicklung von innovativen Materialien vergrößert stets deren Anwendungsbereich und den ressourceneffizienten Einsatz in technischen Gebilden. Dieser allgemeine Trend der Weiterentwicklung von Materialien führt zu höheren Anforderungen an Messgeräte, welche die zugehörigen Materialkenngrößen ermitteln. Im Bereich der Dilatometrie wird die Längenänderung von thermisch beeinflussten Materialien analysiert. Zukünftige und zum Teil bereits aktuelle messtechnische Anforderungen von z. B. weichen Materialien können mit bestehenden Möglichkeiten der technischen Realisierung nicht mehr sicher erfüllt werden. Hieraus leitet sich ein Handlungsbedarf hinsichtlich technischer und konstruktiver Weiterentwicklung ab. Ziel dieser Arbeit ist es, den aktuellen Entwicklungsstand zur messtechnischen Erfassung von thermisch induzierten Längenänderungen darzustellen und Möglichkeiten für dessen Weiterentwicklung zu erarbeiten. Hierzu wird das Arbeitsfeld begrifflich und inhaltlich abgegrenzt. Mithilfe einer Betrachtung des Standes der Technik werden Anforderungen für die Weiterentwicklung abgeleitet. Im Rahmen der konstruktiven Entwicklung spielt hierbei die Reduzierung wesentlicher Störeinflüsse auf die Längenänderung der Probe eine entscheidende Rolle. Ein besonderes Ziel besteht darin, den Krafteinfluss während der Längenmessung stark zu verringern sowie den Einfluss durch manuelle Bedienung zu eliminieren. In der vorliegenden Arbeit werden für die Entwicklung und Realisierung einer kraftgesteuerten Messzelle systematisch Lösungsräume erarbeitet sowie anschließend schrittweise hinsichtlich der Erfüllung der gegebenen Anforderungen untersucht und bewertet. Aus methodischer Sicht stellt diese Arbeit eine Vorgehensweise zur zielgerichteten Entwicklung einer kraftgesteuerten Messzelle dar. Die Funktionsfähigkeit des erarbeiteten Konstruktionsentwurfs wird durch experimentelle Ergebnisse im Rahmen des messtechnischen Nachweises bestätigt. Den Abschluss dieser Arbeit bilden sowohl eine Einflussgrößenanalyse als auch eine Zusammenfassung ermittelter charakteristischer Eigenschaften der Messzelle gefolgt von einem Ausblick zur Weiterentwicklung.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2018000443
Pufke, Michael;
Messtechnische Untersuchung von Rohranlegethermometern. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (V, 162 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Die vorliegende Arbeit widmet sich der messtechnischen Untersuchung von Rohranlegethermometern, welche eine spezielle Bauform der an Oberflächen messenden Berührungsthermometer darstellen. Ihre Befestigung an ein Rohrstück erfolgt dabei i. d. R. durch lösbare Montage. Ziel der Messung mittels Rohranlegethermometern ist i. A. die Bestimmung der Mediumstemperatur im Inneren eines durchströmten Rohres. Bislang existieren nur wenige Veröffentlichungen, Normen und Richtlinien, die Herangehensweisen zur messtechnischen Charakterisierung und Vergleich von Rohranlegethermometern beschreiben. An Hand theoretischer Betrachtungen von verschiedenen Einflussgrößen, wie Strömungsgeschwindigkeit, Rohrgeometrie, Umgebungsbedingungen etc. wird deutlich, dass diese häufig in Wechselwirkung treten und nur zusammen betrachtet werden sollten. Um die Einflussgrößen auf die Messung mittels Rohranlegethermometern besser ergründen zu können, wurde ein neuer Prüfstand auf Basis von Sattdampf konzipiert, aufgebaut und erfolgreich verifiziert. Es wurde zudem nachgewiesen, dass mit einem auf Wasser basierenden Prüfstand reproduzierbare Messungen über einen weiten Mediumstemperaturbereich durchgeführt werden können. Mit Hilfe von kommerziell erhältlichen Rohranlegethermometern erfolgten experimentelle Untersuchungen praxisrelevanter Einflussgrößen. Wesentliche Einflussgrößen konnten neben der Strömungsgeschwindigkeit des Mediums u. a. in der Reproduzierbarkeit durch die Montage, dem thermischen Kontaktwiderstand zwischen Rohr und Thermometer sowie einer erzwungenen Konvektion in der Umgebung gefunden werden. Mittels Isolierung von Rohr und Thermometer konnte z. T. eine Reduzierung von Einflussgrößen auf die Messung erreicht werden. Insgesamt zeigt sich, dass bei der Messung von Rohranlegethermometern eine genaue Kenntnis der Eigenschaften des Gesamtsystems, bestehend aus Medium, Rohr, Thermometer mit Kontaktwiderstand und Umgebung, erforderlich ist. Aus den durchgeführten experimentellen Untersuchungen heraus folgen Empfehlungen zur Ermittlung wichtiger charakterisierender Kenngrößen von Rohranlegethermometern unter reproduzierbaren Bedingungen. Zusammenfassend wird dem Leser somit die Möglichkeit gegeben, Rohranlegethermometer besser verstehen, bewerten, auswählen und anwenden zu können. Des Weiteren wurde der Grundstein für zukünftige Normen und Richtlinien gelegt.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000255
Lahdo, Mousa;
Hochpräziser Mehrkoordinatenantrieb mit repulsiver Magnetführung. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (viii, 168 Blätter)
Technische Universität Ilmenau, Dissertation 2019

Viele moderne Applikationen, z.B. aus der Biotechnologie oder der Halbleiterindustrie, benötigen Mehrkoordinatenantriebe, die Positioniergenauigkeiten im Nanometerbereich und große planare Bewegungsbereiche besitzen. Zudem müssen die zum Einsatz kommenden Systeme auch vakuumtauglich sein. Um diese hohen Anforderungen zu erfüllen, werden magnetisch geführte Mehrkoordinatenantriebe untersucht und entwickelt. Das Ziel der vorliegenden Arbeit besteht darin, einen neuartigen magnetisch geführten Mehrkoordinatenantrieb mit einem großen Fahrbereich zu entwickeln. Im Vergleich zu anderen, aus der Literatur bekannten Lösungen zeichnet sich das vorgeschlagene Konzept durch eine wesentlich vereinfachte kompakte Konstruktion, entkoppelte Antriebsund Führungskräfte und einen von oben frei zugänglichen passiven Läufer aus. Ein wesentlicher Schwerpunkt der Arbeit ist die semi-analytische Kraftberechnung der eingesetzten Aktoren. Die Ergebnisse der hergeleiteten Kraftgleichungen werden den numerischen 3D-FEM und den experimentellen Ergebnissen gegenübergestellt. Zwischen den Ergebnissen der hergeleiteten Kraftgleichungen und den numerisch ermittelten Kräften zeigt sich ein maximaler Fehler von 1 %. Zwischen den Berechnungen und den Messungen ergibt sich ein maximaler Fehler von 5 %. Da der Funktionsnachweis des vorgeschlagenen Konzepts im Vordergrund steht, ist ein Funktionsmuster mit einem Bewegungsbereich von 50 × 50 × 2 mm^3 aufgebaut und in Betrieb genommen worden. Für die Regelung des Systems ist ein Zustandsregler mit integrierender Rückführung implementiert. Erste experimentelle Messungen zeigen, dass das System stabilisiert und der Läufer in den sechs Bewegungsfreiheiten positioniert werden kann. Dabei besitzt das Positionsrauschen in den Koordinaten x, y und z eine Standardabweichung von [sigma]x = 193 [my]m, [sigma]y = 178 [my]m und [sigma]z = 8.2 [my]m und liegt damit im Bereich der Messsystemauflösung.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-20190002431
Haj Othman, Shereen;
Neue Biosensoren aus mehrwandigen Kohlenstoffnanoröhren für die elektrochemische Analyse von Biomolekülen. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (136 Blätter)
Technische Universität Ilmenau, Dissertation 2019

Stickstoff-dotierte (N-MWCNT) und Stickstoff-Phosphor-dotierte (N-P-MWCNT) mehrwandige Kohlenstoffnanoröhren wurden mittels chemischer Gasphasenabscheidungstechnik (CVD) erfolgreich hergestellt. Die synthetisierten MWCNTs sind auf Silizium/Siliziumoxid Wafer durch die Zersetzung von Acetonitril und Triphenylphosphin in Gegenwart vom Ferrocen als Katalysator gewachsen. Die Morphologie wurde mittels Rasterelektronenmikroskopie (REM) in Kombination mit Energiedispersiver Röntgenspektroskopie (EDXS), Transmissionselektronenmikroskopie (TEM), und Raman Spektroskopie untersucht. Die REM Aufnahmen zeigen, dass die N-MWCNTs einen Teppich aus vertikal ausgerichteten Kohlenstoffnanoröhrchen bilden und die Oberfläche des Films weitgehend homogen ist. TEM Aufnahmen einzelner Röhren zeigen, dass die N-MWCNTs eine sogenannte Bambus-Struktur besitzen. REM-Aufnahmen der N-P-MWCNT Filme zeigen ebenfalls eine homogene Struktur der Filme, die ähnlich der der N-MWCNT ist, mit zusätzlichen Knoten in der Röhrenstruktur. Dabei ändert sich die Morphologie der hergestellten Filme mit zunehmendem TPP Gehalt (zwischen 0.7 und 1 Gew %) in der Kohlenstoffquelle (Acetonitril). Eine Schicht aus amorphem Kohlenstoff bedeckt die Kohlenstoffnanoröhrchen teilweise, sodass keine ausgerichteten Kohlenstoffnanoröhrchen in den REM-Bildern erkannt werden können. Durch die Erhöhung des TPP Gehalts bis auf 1 Gew % im Lösungsmittel entstehen sehr dünne Filme aus N-P-MWCNTs. Die TEM-Bilder bestätigen, dass die N-P-MWCNTs noch eine Bambus-Struktur besitzen (erkennbar bis zu einem Zusatz von 0.6 Gew %. TPP). Darüber hinaus (mehr als 0.6 Gew %. TPP) konnten durch den abgeschiedenen amorphen Kohlenstoff keine TEM-Bilder mehr aufgenommen werden. Die quantitative Auswertung der Raman-Spektren zeigt, dass das Verhältnis der Intensitäten der Raman Banden D und G für N-MWCNT-Filme kleiner ist als das Verhältnis für N-P-MWCNT-Filme ist. Es wurde festgestellt, dass das Intensitätsverhältnis bei der Dotierung mit Phosphor zunimmt und folglich der Grad der Defekte abnimmt. Die elektrochemische Charakterisierung der gewachsenen Schichten mittels Zyklischer Voltammetrie und Elektrochemischer Impedanz Spektroskopie wurde gegenüber dem Redoxsystem [Fe(CN)6]3-/4- durchgeführt. Die Ergebnisse zeigen, dass die hergestellten N-MWCNTs die höchste Sensitivität, die kleinste Nachweisgrenze, und die schnellere Kinetik der Elektronübertragung im Vergleich zu den N-P-MWCNTs zeigen. Die Dotierung von Kohlenstoffnanoröhren mit Stickstoff verbessert die elektrokatalytischen Eigenschaften, während die zusätzliche Dotierung der N-MWCNTs mit Phosphor die Sensitivität und die Kinetik der elektrochemische Prozess auf diesen Filmen deutlich verringert. Die nachträgliche Modifizierung von N-MWCNTs mit Metall-Nanopartikeln (MNP) wurde ebenfalls untersucht. Dabei wurden Rhodium- (RhNP), Palladium- (PdNP), Platin- (PtNP) und Silber- (AgNP) Nanopartikel für die Modifizierung der Oberflächen verwendet. Die hergestellten Filme aus N-MWCNTs/MNP wurden ebenfalls elektrochemisch mit dem Redoxsystem [Fe(CN)6]3-/4- als Modellsystem charakterisiert. Die Ergebnisse zeigen, dass die modifizierten N-MWCNTs/MNP stärkere Signale (response) zeigen, da die Nanopartikel als Katalysator wirken. Die elektrokatalytische Aktivität der Elektroden verbessert sich in der folgenden Reihenfolge: N-MWCNTs < N-MWCNTs/RhNP < N-MWCNTs/PdNP < N-MWCNTs /PtNP < N-MWCNTs/AgNP. Die Anwendung von N-MWCNTs/MNP (M: Rh, Pd, Ir, Pt, und Au) Filmen als Arbeitselektroden für die gleichzeitige quantitative Analyse von einigen medizinisch relevanten Biomolekülen, wie zum Bespiel Ascorbinsäure, Dopamin, und Harnsäure in Phosphat-Puffer-Lösung PBS (pH 7.0) wurde ebenfalls erfolgreich demonstriert. Die Ergebnisse zeigen, dass die Nachweisgrenze von N-MWCNTs/MNP in der folgenden Rheinfolge abnimmt: N-MWCNTs > N-MWCNTs/RhNP > N-MWCNTs/PdNP > N-MWCNTs/IrNP > N-MWCNTs /PtNP > N-MWCNTs/AuNP. Die AuNP zeigen den größten Effekt auf die Empfindlichkeit und die elektrokatalytische Aktivität bei der gleichzeitigen Bestimmung der untersuchten Moleküle. Die hergestellten nanostrukturierten Schichten aus N-MWCNTs und AuNP konnten auch für die Analyse von Acetaminophen (AC) und N-Acetyl-Cystein (NAC) erfolgreich eingesetzt werden. Die Stabilität der synthetisierten Kohlenstoffnanofilme über längere Zeiträume und die Reproduzierbarkeit der Synthese der Filme wurden untersucht und zeigen, dass die hergestellten Elektrodenfilme eine sehr gute Stabilität und Reproduzierbarkeit in den elektrochemischen Messungen aufweisen.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000279
Uber, Carsten;
Charakterisierung elektrischer Kontakt-Entladungen im Bereich niedriger Spannungen im Zündgrenz-Bereich von Wasserstoff-Luft-Gemisch. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (VI, 101 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Elektrische Entladungen, die bei schaltenden elektrischen Kontakten oder beim Ziehen einer Steckverbindung unter Spannung entstehen können, sind eine bedeutende Zündquelle in explosionsfähigen Atmosphären. Elektrische Komponenten in solchen Atmosphären entsprechen daher einem Zündschutzkonzept wie beispielsweise der Eigensicherheit "i". Hierbei werden durch definierte Begrenzung von elektrischen Parametern Zündungen verhindert. Das wird nach dem Stand der Technik mit dem IEC-Funkenprüfgerät getestet, indem mit der Energie der Testkomponente elektrische Entladungen in einem explosionsfähigen Gasgemisch erzeugt werden. Die komplexen Phänomene der auftretenden Entladungstypen sind jedoch bis heute noch nicht vollständig verstanden. Die Ergebnisse der Prüfgeräte streuen stark und können zu Wettbewerbsverzerrungen führen. Zum Erreichen reproduzierbarer Ergebnisse ist es daher notwendig, eine verbesserte alternative Prüfmethode zu entwickeln. Diese soll die für die Zündung relevante elektrische Entladung nachbilden. Das Ziel ist, die Zündgrenzwerte durch diese Prüfmethode möglichst einfach und reproduzierbar bestimmen zu können. Dies wird durch einen Lösungsansatz erreicht, der auf der Verwendung der Zündgrenzwerte basiert, wie sie sich im IEC-Funkenprüfgerät bei einer definierten Zündwahrscheinlichkeit unter Worst-Case-Bedingungen ergeben. Hierzu wird eine spezielle Kontaktvorrichtung verwendet, mit der diese Entladungen unter Worst-Case-Bedingungen gezielt erzeugt werden. Die Untersuchungen umfassen daher die Ermittlung der Worst-Case-Bedingungen und die Charakterisierung der Entladungen bei Öffnungsvorgängen in einem Wasserstoff-Luft-Gemisch mit Stromwerten kleiner als 60 mA und einer maximalen Spannung von 30 VDC. Dabei werden die Strom-Spannungs-Kennlinie, das optische Spektrum, eine Abschätzung der Temperatur und eine vereinfachte Bewertung der Zündfähigkeit über den Leistungsverlauf einschließlich der Abschätzung der Messunsicherheit dargestellt. Die Nachbildung orientiert sich an der Physik der Entladung, ermöglicht reproduzierbare Ergebnisse und kann in einem Prüfgerät oder einem Programm eingesetzt werden. Die Arbeit bildet eine erste Grundlage für eine alternative Prüfmethode zum bisherigen IEC-Funkenprüfgerät, deren Ergebnisse in die internationale Normung einfließen können.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000239
Wöckel, Julia;
Funktionalisierung von diamantartigen Kohlenstoffschichten durch variable Dotierung mit Silizium. - Ilmenau, 2019. - 149 Blätter
Technische Universität Ilmenau, Dissertation 2019

In der Automobilindustrie werden Injektorkomponenten mit kohlenstoffhaltigen Verschleißschutzschichten, den sogenannten diamond like carbon Schichten (DLC oder auch a-C:H), beschichtet. Aufgrund des niedrigen Reibwertes und des hohen Verschleißwiderstandes werden diese Schichten häufig zur Erhöhung der Lebensdauer im Einspritzbereich verwendet. (1) Eine a-C:H-Schicht weist standardmäßig eine Temperaturbeständigkeit von circa 350 &ring;C auf. Bei Temperaturen höher 350 &ring;C degradiert die Schicht langsam und verliert an Leistungsfähigkeit. Durch zunehmende Anforderungen im Realbetrieb steigen die Drücke und damit Einsatztemperaturen im Injektor. (2,3) In der Literatur wird oftmals die Dotierung der a-C:H-Schichten mit Silizium zur Erhöhung der thermischen Beständigkeit diskutiert. Silizium verschiebt die thermische Beständigkeit zu höheren Temperaturen. Je mehr Silizium in der a-C:H-Schicht enthalten ist, desto höher wird die thermische Beständigkeit. Allerdings verändern sich auch andere Schichteigenschaften mit steigendem Silizium-Gehalt. Zum Beispiel sinkt der Reibwert durch eine Silizium-Dotierung. Die Verschleißbeständigkeit verschlechtert sich hingegen drastisch. Weiterhin nimmt die Härte mit steigendem Silizium-Gehalt ab. (4) Eine derartig dotierte a-C:H:Si-Schicht würde demnach im Realbetrieb eines Injektors deutlich schneller verschleißen als eine undotierte DLC-Schicht. Die Entwicklung einer thermisch und gleichzeitig verschleißbeständigen Schicht ist somit für die Automobilindustrie notwendig. Ziel dieser Arbeit ist die Erhöhung der thermischen Beständigkeit unter Beibehaltung der herausragenden Verschleißschutzeigenschaften einer a-C:H-Schicht. Es wurde der Einfluss zweier unterschiedlicher kohlenwasserstoffhaltiger Prozess-gase in Abhängigkeit von Bias-Spannung, Bias-Strom und Gasfluss untersucht. Des Weiteren wurden jeweils die optimierten Schichten, die aus diesen Prozessgasen hergestellt werden konnten, zur Erhöhung der thermischen Stabilität mit Silizium dotiert. Durch die systematische Analyse verschiedener Dotierungs- und Schichtvariationen wurde eine a-C:H:Si-Schicht entwickelt, welche die Anforderung der höheren thermischen Beständigkeit bei gleichbleibendem Verschleißschutz erfüllt.



Quiroz, Pamela;
Synthese, Charakterisierung und Applikation von Ti-substituierten Hexaferriten. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource ( IV, 153 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Bariumhexaferrit (BaFe12O19) hat aufgrund seiner großen uniaxialen magnetokristallinen Anisotropie, des hohen spezifischen Widerstands und der Permeabilität bei hohen Frequenzen viel Aufmerksamkeit für Anwendungen im Mikrowellenbereich erregt. Es kann zum Beispiel als Absorber für elektromagnetischen Verträglichkeit (EMV) Anwendungen eingesetzt werden. Die chemische Substitution von Eisen durch Titan im Bariumhexaferrit zeigt, dass die magnetischen Eigenschaften stark beeinflussbar und die Mikrowelleneigenschaften verbesserbar sind. In der vorliegenden Arbeit werden für Mikrowellenanwendungen Titan-substituierte hexagonale M-Typ Ferrite in einer schnellgekühlten Glasschmelze der Grundzusammensetzung (Mol-%): 40 + 33 B2O3 BaO + (27-x) Fe2O3 + x TiO2. mit der Glaskristallisationstechnik bei Variation der Schmelzsubstitution und der Kristallisationsparameter hergestellt. Dabei wird insbesondere der Einfluss der Schmelzsubstitution und der Temperbedingungen auf die magnetischen Eigenschaften, die Wertigkeit der Eisen-Ionen im Glas und in den Pulvern, die Phasenbildung im Glas und die Mikrowellenabsorption der Pulver untersucht. Thermokinetische Analysen sind die Basis, die Phasentransformationen durch die Analyse der kinetischen Parameter zu verstehen und die Gitterplatzbesetzung und den Fe2+ -Gehalt in der ferrimagnetischen Phase zu kontrollieren, um somit die Mikrowellenabsorption von Ti-substituierten Bariumhexaferritpulvern zu optimieren. Dabei wurde der Einfluss von Temperatur und Heizrate untersucht. Für die Kristallisation von Bariumhexaferrit in der glasigen Matrix von x= 0, 1,8, 3,6, 4,2 und 6,4 Mol %-TiO2, die mittels dem ASTM E698-Verfahren bestimmt wurde, ist eine Gesamtaktivierungsenergie von 311,74 ± 3 kJ mol-1 erforderlich. Die Phasenumwandlung während der Kristallisation wurde nicht von der Ti-Substitution beeinflusst. Die Substitution der Fe3+- durch Ti4+-Ionen verändert die magnetokristalline Anisotropie des Bariumhexaferrites. Dieser Effekt wurde durch Messung der statischen magnetischen Eigenschaften (JHC und MS) an den synthetisierten Pulvern mit einem Probenvibrationsmagnetometer untersucht. Weiterhin wurde mittels Mößbauer Spektroskopie festgestellt, dass die Ti4+ Ionen bevorzugt die 2a und geringfügig auch die 2b Zwischengitterplätze besetzen. Für höhere Schmelzsubstitutionen x = 5,4 Mol %-TiO2 werden auch die 4f1 und 4f2- Plätze besetzt. Außerdem wurde mittels Röntgendiffraktometrie nachgewiesen, dass sich bei diesen hohen Schmelzsubstitutionen x = 4.6 Mol-% TiO2 neben der ferrimagnetischen (BaFe3+xFe2+12-2xTi4+xO19) auch eine dielektrische Phase ausbildet, welche BaTi6O13 entspricht. Die kontrollierte Beeinflussung der Gitterplatzbesetzung durch Ti4+-Ionen und des Fe2+-Gehaltes in der ferrimagnetischen Phase sowie die Einstellung des dielektrischen Phasenanteils während der Temperung sind Möglichkeiten zur Optimierung der Mikrowellenabsorption von mit der Glaskristallisationstechnik hergestellten Ti-substituierten Bariumhexaferrite Pulvern.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000198
Li, Qiucheng;
Development of an adaptive navigation system for indoor mobile handling and manipulation platforms. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (xvii, 154 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Eine der grundlegenden Funktionen, welche die Autonomie in der mobilen Robotik ermöglicht, ist die Navigation. Sie ist eine wesentliche Voraussetzung dafür, dass mobile Roboter selbständig anspruchsvolle Aufgaben erfüllen können. Die Umsetzung der Navigation wird dabei oft als eine der wichtigsten Herausforderungen identifiziert. Die Kartenerstellung und Lokalisierung als Grundlage für die Navigation wurde in den letzten Jahrzehnten intensiv erforscht. Es existieren jedoch immer noch eine Reihe von Problemen, z.B. die Anwendung auf große Areale oder bei der Umsetzung auf kostengünstigen und energiesparenden Embedded-Systemen. Diese Arbeit stellt neue Ansätze und Lösungen im Bereich der LiDAR-basierten simultanen Positionsbestimmung und Kartenerstellung (SLAM) vor. Eine Schlüsselkomponente der LiDAR-basierten SLAM, die so genannten Scan-Matching-Algorithmen, wird näher untersucht. Verschiedene Scan-Matching-Algorithmen werden zum ersten Mal systematisch mit verschiedenen LiDARs für den Innenbereich getestet. Der Einfluss von LiDARs auf die Eigenschaften der Algorithmen wird quantitativ analysiert. Verbesserungen an Bayes-filterbasierten und graphoptimierten SLAMs werden in dieser Arbeit vorgestellt. Bayes-filterbasierte SLAMs verwenden hauptsächlich die aktuellen Sensorinformationen, um die beste Schätzung zu finden. Eine neue effiziente Implementierung des auf Partikel-Filter basierenden SLAM unter der Verwendung einer Lookup-Tabelle und der Parallelisierung wird vorgestellt. Die neue Implementierung kann effizient auf aktuellen Embedded-Systemen laufen. Im Gegensatz dazu verwenden Graph-SLAMs alle Sensorinformationen und minimieren den Gesamtfehler im System. Ein neues Echtzeitmodel für die Grafenerstellung und eine robuste integrierte SLAM-Lösung werden vorgestellt. Die Verbesserungen umfassen die Definition von eindeutigen Richtungsnormen für Scan, effiziente Algorithmen zur Erkennung von Loop Closures und eine parallele und adaptive Implementierung. Der entwickelte und auf eingebetteten Systemen eingesetzte Algorithmus übertrifft die aktuellen Algorithmen in Geschwindigkeit und Robustheit, insbesondere für große Areale. Die Ergebnisse der Arbeit können für die Verbesserung der Navigation von autonomen Robotern im Innenbereich, häuslichen Umfeld sowie der Intra-Logistik genutzt werden.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000090
Reiß, Stephanie;
Untersuchung von Glasdegradationsprozessen mittels Röntgenphotoelektronenspektroskopie. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (i, 143 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Im Rahmen dieser Arbeit wurde erstmals mit Hilfe von XPS und AFM systematisch das Alterungsverhalten von Floatgläsern unter Berücksichtigung von drei kommerziell relevanten Aspekten untersucht: Vorspannprozesse, Korrosion bei Belegung mit Partikeln und Glasschutzmittel. Es konnten zwei spezifische Carbonatphasen nachgewiesen werden, die unter dem Einfluss von warmer, feuchter Umgebungsluft auf Floatglasoberflächen entstehen: Dendritisches Trona und Natriumhydrogencarbonat. Des Weiteren wurde im oberflächennahen Bereich Mg-Diffusion nachgewiesen. Ermöglicht wird sie durch die Akkumulation von Na und Ca und den damit verbundenen Änderungen der Glasstruktur und -zusammensetzung an der Oberfläche. Thermisches Vorspannen hat keinen signifikanten Einfluss auf diese Prozesse. Chemisches Vorspannen führt jedoch zu signifikanten Veränderungen: Es kommt zu einer erheblich inhomogeneren lateralen Ausbildung von Kristalliten, während chemische Veränderungen in der Glaszusammensetzung nur halb so tief in das Glas hineinreichen. Ursache ist das beim chemischen Vorspannen eingebaute K, welches die Zwischenräume des Glasnetzwerks verengt, so dass ein Eindringen von Wasserspezies erschwert wird. Untersucht wurde auch der Einfluss von Sandpartikeln der Sahara auf Glaskorrosion. Der anhaftende Sand verstärkt die Auslaugung der Netzwerkwandler drastisch und beeinflusst Kristallisationsprozesse sowie die Chemie der Glasoberfläche. Während er die Bildung von Carbonatphasen drastisch unterdrückt, führt er zur Entstehung von Ca-Anorthit und Na-Phillipsit. Diese können im weiteren Bewitterungsverlauf das Glas besonders stark schädigen, da sie unter dem Einfluss von Luftfeuchtigkeit eine hochbasische Umgebung bilden, die zur Auflösung des Glasnetzwerks führt. Erstmals wurde der Einfluss eines kommerziell erhältlichen Glasprotektors auf Flachglas untersucht, um seinen möglichen Nutzen für die Floatglasreinigung abzuschätzen und seine Wirkungsweise zu verstehen. Das saure Milieu des Protektors führt zu einer verstärkten Auslaugung von Na, was die Eindiffusion von im Protektor enthaltenem Zn in das Glas ermöglicht, welches das Netzwerk durch Stärkung geschwächter Glasverbindungen stabilisiert. Das dem Protektor beigemischte Bi diffundiert nicht in das Glas ein, sondern lagert sich an dessen Oberfläche ab und schützt diese dort. Unter Langzeiteinwirkung bildet sich eine Schutzschicht aus geringvernetztem hydratisierten Zinkphosphat aus. Deren Dicke ist mit unter 15 nm nach 19 Tagen äußerst gering und führt somit zu keinen störenden Interferenzerscheinungen. Die Ausbildung dieser Präzipitatschicht kann durch die Anwesenheit von Sn auf der Floatglasoberfläche erheblich beschleunigt werden.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000077
Detjens, Marc;
Untersuchung des Elektrolyseprinzips zur Bestimmung von geringen Feuchtegehalten und der Einsatz von ionischen Flüssigkeiten als neuartige Sensorbeschichtung. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (1 Band, verschiedene Seitenzählungen)
Technische Universität Ilmenau, Dissertation 2019

Feuchte, sei es Material- oder Gasfeuchte, ist eine wichtige Messgröße bei der Qualitätsbeurteilung von Kunststoffen, landwirtschaftlichen Erzeugnissen, Energieträgern, Arzneimitteln, industriell und medizinisch verwendeten Gasen. Deswegen gibt es ein Interesse Feuchtemesserfahren hinsichtlich Präzision, Wiederholbarkeit, Rückführbarkeit und Stabilität kontinuierlich zu verbessern. Ein bewährtes Messprinzip für diese Aufgabe wurde bereits 1959 von Keidel entwickelt und basiert auf der Absorption und Elektrolyse von Wasserdampf. Der einfache Aufbau dieses Prinzips besteht aus einem Sensorelement, einer Gleichspannungsquelle, einem Digitalmultimeter und einen geregelten Gasstrom über den Sensor. Nach dem Faradayschen Gesetz der Elektrolyse korreliert bei dem Messprinzip die Ladungsmenge mit der elektrolysierten Wassermasse. Jedoch bedarf es in der heutigen Zeit einer Validierung der Sensoren, weil durch gezielte Miniaturisierung weniger aktive Fläche vorhanden ist und somit das Faraday'sche Gesetz nicht vollständig anwendbar ist. In dieser Arbeit wurden coulometrische Sensoren mit einer planaren Elektrodenstruktur hinsichtlich der Einflüsse von unterschiedlichen Gasen, der Gastemperatur und dem -druck untersucht. Zusätzlich wurde eine neuartige Sensorbeschichtung basierend auf einer ionischen Flüssigkeit getestet. Des Weiteren wurde ein Messgerät für die abgestufte Bestimmung der Materialfeuchte und Wasseraktivität entwickelt und dessen messtechnischer Einsatz untersucht.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000209
Fluhr, Daniel;
Evaluation und Charakterisierung lokaler Defekte in organischen optoelektronischen Bauelementen mittels bildgebender Verfahren und Simulationen. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (III, 124 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Die Arbeit befasst sich mit der Untersuchung von Defekten und deren Dynamik, die lokal in der Energiekonvertierungsfläche von Solarzellen auftreten. Ziel war es eineindeutige Erkennungsmerkmale für unterschiedliche Defekttypen aufzustellen und die Erscheinungsbilder der Defekte in Bildgebende Messmethoden besser zu verstehen. Die Defekte wurden dazu sowohl experimentell untersucht als auch durch Simulationen rekonstruiert. Besonderes Augenmerk lag auf der Untersuchung der zeitlichen Entwicklung des "dark spot" Defektes. Zum Einsatz kamen Bildgebende Elektrolumineszenz (ELI), Lichtinduzierte Strom Kartografierung (LBIC) und Loch-in Wärmebilder (DLIT). Diese Methoden lassen ortsaufgelöste Aussagen über die Proben zu. Elektrische Schaltkreissimulationen wurden eingesetzt, um den Signal-Verlauf der bildgebenden Messmethoden zu reproduzieren. Abschließend wurde betrachtet, inwieweit es möglich ist, durch eine Kombination von zwei bildgebenden Verfahren (ELI und LBIC), ortsaufgelöst Rückschlüsse auf quantitative Größen ziehen zu können. Dazu wurden diese beiden komplementären Messmethoden durch eine gemeinsame Auswertung kombiniert. Es zeigt sich, dass die dynamische Entwicklung des "dark spot" Defekts durch ein Diffusionsmodell beschrieben werden kann. Die weiterentwickelten elektrischen Schaltkreissimulationen bieten die Möglichkeit, die Signalverläufe von ELI, LBIC und DLIT im Umfeld der lokal auftretenden Defekte beschreiben zu können. In Verbindung mit den experimentellen Ergebnissen ist es möglich, Kombinationen verschiedener Messsignale aus mehreren bildgebenden Methoden mit unterschiedlichen Defekttypen zu verknüpfen. Die kombinierte Auswertung der Messsignale ermöglicht Aussagen über die lokalen Serien- und Parallelwiderstände der Zellen. Diese Erkenntnisse ermöglichen eine Qualitätskontrolle basierenden auf bildgebenden Messverfahren. Die in der Arbeit entwickelten und modifizierten Methoden lassen sich sowohl auf organische als auch auf andere Solarzellentypen sowie flächige organische Leuchtdioden anwenden.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000219
Schmidl, Gabriele;
Plasmonisch aktive Schichten und Nanostrukturen für die Material- und Sensorentwicklung. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (120, vi Blätter)
Technische Universität Ilmenau, Dissertation 2019

Der Schwerpunkt der Arbeit liegt in der Evaluierung neuer Materialkombinationen und kostengünstiger Herstellungstechnologien für die Realisierung definierter, spezieller optischer Eigenschaften von Oberflächen, Nanopartikeln (NP) und -strukturen auf Basis von Schichttechnologien, insbesondere in Hinblick auf die Integration in Sensorplattformen für die Bioanalytik. Plasmonisch aktive Oberflächen z.B. als LSPR-Oberflächen oder SERS-Substrate erfordern anwendungsbezogene Eigenschaften. Deshalb werden in der Arbeit unterschiedliche Herstellungsverfahren von NP und Strukturen, wie die Temperatur- und Matrix-induzierten Verfahren, ein Laser-induziertes Verfahren und das Template-Stripping untersucht und die experimentellen Ergebnisse diskutiert. Als Schichtmaterialien wird auf fcc-Edelmetalle wie Au und Ag eingegangen, die für die Bioanalytik besonders interessant sind. Bei der Sputter-Abscheidung wachsen diese substratunabhängig mit einer (111)-Vorzugsorientierung auf und bilden, insbesondere bei niedrigen Drücken, sehr glatte und dicht gepackte Oberflächen aus. Diese glatten Oberflächen verbessern die Güte der Schicht und verlängern damit die Propagationslänge der SPP. Die Plasmonik von NP, d.h. die Dichteoszillationen der freien Ladungsträger, werden nicht nur von der Größe, der Form und dem Material, sondern auch von dem Umgebungsmedium bestimmt. Das Aufbringen einer Schicht in fester Phase auf die NP - in dieser Arbeit SiO2, SiNx, ZnO, Al2O3, STO oder YBCO - beeinflusst nicht nur die LSPR-Bande durch einen anderen Brechungsindex der Umgebung, sondern wirkt sich auch auf den Partikelbildungsprozess bzw. Umformungsprozess selbst aus. Als besonders interessant stellten sich die Matrix-induzierte NP-Bildung unter Verwendung einer STO-Schicht und der UV-Laser-induzierte Prozess heraus. Weiterhin werden messtechnische Ansätze für hybride Bioanalytik-Plattformen realisiert, mit denen durch die Kombination von optisch sensitiven Nachweismethoden (Cavity-Ring-Down Verfahren und planare Ring-Wellenleiter-Strukturen) mit der Plasmonik eine Steigerung bezüglich Selektivität und Sensitivität in der Bioanalytik erreicht werden kann. So war es z.B. möglich mit der Sensorplattform basierend auf der Cavity-Ring-Down Methode kombiniert mit der NP-Plasmonik und mikrofluidischem System einen DNA-Nachweis mit einem LOD von ca. 3fM zu realisieren.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000020
Halle, Johannes;
Intercalation of graphene: inelastic excitations, bilayer growth, and superstructures. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (IX, 101 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Die vorliegende Arbeit nutzt die Interkalation von Graphen mit verschiedenen Metallen zur Anpassung der elektronischen und strukturellen Eigenschaften von Graphen und für die Entwicklung einer neuartigen Präparationsmethode für Graphen-Bilagen. Mithilfe eines Rastertunnelmikroskops (STM) werden außerdem inelastische Anregungen im Graphen sowie die erzeugten Überstrukturen untersucht. Der erste Teil der Dissertation stellt eine Studie zum inelastischen Tunneln in Graphen auf Metalloberflächen vor. Die Interkalation von Graphen auf Ir(111) mit Cs und Li bewirkt deutliche Signaturen von Phononenanregungen in den Tunnelspektren. Im Gegensatz dazu werden nach Ni-Interkalation keine inelastischen Anregungen detektiert. Die Stärke der Phononensignale kann durch die Bedeckung der Alkalimetalle sowie durch die Veränderung des Spitze-Probe-Abstandes beeinflusst werden. Mithilfe von Transportrechnungen anhand eines innovativen Drei-Elektroden-Setups wird der Zusammenhang zwischen der Kopplung von Graphen zu den angrenzenden Elektroden und der spektralen Signaturen der Graphen-Phononen analysiert. Ähnliche Phononensignaturen auf Graphen-Mono- und Bilagen auf Ru(0001) zeigen eine räumliche Abhängigkeit der Intensität von der Messposition innerhalb der Moiréstruktur. Der zweite Teil der Arbeit beschreibt die Entwicklung einer Präparationsmethode für Graphen-Bilagen auf Basis einer sequenziellen chemischen Gasphasenabscheidung (CVD). Zunächst wird eine Monolage Graphen auf Pt(111) in einem CVD-Prozess aus Ethen erzeugt. Anschließend wird zusätzliches Pt auf die Probenoberfläche aufgedampft. Hierdurch wird diese für einen weiteren CVD-Schritt reaktiviert, in welchem die zweite Lage Graphen wächst. Die nachfolgende Interkalation der Pt-Schicht unter die vergrabene Graphenlage erzeugt schließlich die Graphen-Bilagen auf Pt(111). Eine Analyse der Moirémuster bestätigt die erfolgreiche Präparation von Graphen-Doppellagen. Den Abschluss dieser Dissertation bildet eine explorative Studie der Wirkung von Graphen auf die Überstrukturen der Interkalanten. Exemplarisch werden die Pt-Interkalation von Graphen auf Pt(111) sowie die Interkalation von Cs und Li unter Graphen auf Ru(0001) untersucht. Bei graphenbedecktem Pt(111) ruft das eingefügte Pt eine Rekonstruktion der Substratoberfläche hervor. Aufgrund des Einflusses von Graphen unterscheidet sich deren Struktur qualtitativ von der einer Klasse verwandter Rekonstruktionen. Darüber hinaus wird die erfolgreiche Kointerkalation von Graphen auf Ru(0001) mit Cs und Li präsentiert. Die Alkalimetalle bilden separate Phasen mit Übergittern, die sich jeweils am Graphengitter statt an dem des Ru-Substrates ausrichten.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000115
Niemeyer, Markus;
Entwicklung von metamorphen Mehrfachsolarzellen mit vier pn-Übergängen auf einem Germaniumsubstrat. - Ilmenau, 2019. - 143 Seiten
Technische Universität Ilmenau, Dissertation 2019

Ziel dieser Arbeit war die Entwicklung einer metamorphen Vierfachsolarzelle auf einem Germaniumsubstrat mit einer Ga1-xInxAs Teilzelle. Der Fokus der Arbeit lag dabei auf der Materialcharakterisierung von metamorphem Ga1-xInxAs, das als Grundlage der 1.1 eV-Teilzelle dient. Mit den in dieser Arbeit etablierten Methoden können sowohl elektrische Eigenschaften als auch kristalline Eigenschaften an einer Vielzahl von III/V-Halbleitern bestimmt werden. Zur Materialcharakterisierung wurden verschiedenste Methoden eingesetzt, etabliert, weiterentwickelt und neu entwickelt. Das Besondere der Arbeit liegt in der umfassenden Materialanalyse, die durch die Vielfalt der eingesetzten Messmethoden und deren Verknüpfung ermöglicht wird. Die hier vorgestellte Kombination von leistungsabhängiger (PDR) und zeitaufgelöster (TR) Photolumineszenz (PL) ermöglicht es, die effektive Lebensdauer in ihre Bestandteile, die nur dotier-, design- und materialabhängige effektive strahlende Lebensdauer und die materialqualitätsabhängige Shockley-Read-Hall-Lebensdauer, aufzuteilen. Die Defektlebensdauer von Minoritätsladungsträgern wurde exemplarisch an Zn-dotierten GaAs und GaInAs-Doppelheterostrukturen bestimmt. Bei dem realisierten Konzept der GaInP/GaAs/GaInAs/Ge Vierfachzelle hat die GaInAs-Teilzelle eine größere Gitterkonstante als das Germanium-Substrat. Diese Differenz in der Gitterkonstante wurde innerhalb eines optisch inaktiven metamorphen GaInAs-Puffers überwunden. Die Defektdichte an der Oberfläche des Puffers wurde mittels plan-view Kathodolumineszenz bestimmt. Die Verbindung zwischen der GaInAs- und der AlGaAs-Teilzelle wurde durch einen direkten Wafer-Bond realisiert. Hierzu wurden unterschiedliche Materialkombinationen und Dotierkonzentrationen untersucht. In der GaInP/AlGaAs//GaInAs/Ge Vierfachsolarzelle wurden der metamorphe Puffer, die GaInAs-Teilzelle und der Waferbond zusammengeführt. Der Wirkungsgrad der Solarzelle unter einfachem Sonnenlicht beträgt 34.3% (AM1.5g). Die Vierfachzelle wurde zum Einsatz in Konzentratormodulen optimiert. Unter 403fach konzentriertem Sonnenlicht (AM1.5d) wurde ein Wirkungsgrad von 41.3% erzielt.



Steidl, Matthias;
Integration von nanoskaligen III-V Halbleiterstrukturen auf Silizium für die solare Energiekonversion. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (xii, 169 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Tandem-Absorberstrukturen bestehend aus ternären III-V-Halbleiter-Nanodrähten (ND) als obere Teilzellen und Si als untere Teilzelle besitzen ein hohes Potential für kostengünstige, hocheffiziente Photovoltaik und solare Wasserspaltung. Ziel dieser Arbeit ist es den Weg zu einem solchem Tandem zu ebnen, wobei GaP als Pufferschicht zum Si(111)-Substrat und die metallorganische Gasphasenepitaxie (MOVPE) als Präparationsmethode dient. Dafür soll ein detailliertes Verständnis hierbei erforderlicher Prozessschritte auf möglichst atomarer Skala geschaffen werden, um somit die Kontrolle über jeden einzelnen dieser Präparationsschritte zu erlangen. Es zeigte sich, dass die Si(111)-Oberfläche sich in der H2-Atmosphäre des MOVPE-Reaktors wesentlich anders verhält als während der etablierten Präparation in Ultrahochvakuum: So ist diese nach thermischer Deoxidation (1×1)-rekonstruiert und Monohydrid-terminiert. Reflexionsanisotropie-Spektroskopie erweist sich als geeignet die thermische Deoxidation fehlorientierter Substrate in-situ zu beobachten. Senkrechtes, geradliniges Wachstum von ND erfordert B-polare GaP(111) Pufferschichten auf Si. Epitaxie von GaP auf H-terminiertem Si(111) resultierte jedoch in A-Typ Polarität. Mit Hilfe einer vorangehenden As-Terminierung der Si(111)-Oberfläche gelingt es, die Polarität zu GaP(111)B umzukehren. Die Verwendung geeigneter Si-Substrate und Nukleationsbedingungen erlaubte es die Dichte an Rotationszwillingengrenzen (RZGs) deutlich zu reduzieren und somit den Anteil senkrechter ND auf über 97% zu steigern. Denn wie sich zeigte, wirken sich RZGs nachteilig auf anschließendes ND-Wachstum aus, indem sie es entweder vollständig unterdrücken, diagonal zur Substratoberfläche oder horizontal entlang der RZG verlaufen lassen. Verlässt ein horizontaler ND die RZG, entscheidet die Gitterfehlanpassung über die weitere Wachstumsrichtung: homoepitaktische ND setzen ihre Wachstum in die Senkrechte fort, während heteroepitaktische ND horizontal bleiben. Zum Verständnis dieser Phänomenologie wird ein quantitatives, kinetisches Nukleationsmodell entwickelt. Unabhängig vom Auftreten von RZGs vermag dieses Modell, das horizontale ND-Wachstum in gitterfehlangepassten Systemen zu erklären. Außerdem gelingt es erstmals verdünnt-Stickstoff-haltige ND-Strukturen via MOVPE zu präparieren. Zwei Ansätze sind erfolgreich: N-Einbau während des vapor-liquid-solid-Wachstums; und N-Einbau in eine Hülle. Darüber hinaus wird die Dotierung von Nanodrähten mittels eines Vierspitzen-Rastertunnelmikroskops untersucht. Hiermit werden Widerstandsprofile freistehender ND bestimmt, was eine anschließende Anpassung der Wachstumsparameter an gewünschte Dotierprofile erlaubt.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000184
Weber, Thomas;
Development and evaluation of a process to isolate picolitre compartments of a microfluidic bioassay to search for new microbial compounds. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (xii, 122 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Verglichen mit etablierten industriellen Hochdurchsatz-Anlagen entwickelten sich mikrofluidische, emulsionsbasierte Tropfensysteme in den letzten Jahren zu einer günstigen Alternative. Jedoch ist es derzeit nicht möglich, einzelne Tropfen im Pikoliter-Volumenbereich aus einer Vielzahl anderer Proben für anschließende Analysen zu isolieren. Diese Arbeit präsentiert ein Verfahren, um Tropfen mittels fluidischer Kanalstrukturen zu isolieren und über einen Brechungsindex-Sensor zu detektieren. Das erzeugte Signal ermöglicht eine automatisierte Einzelablage von Tropfen in adressierbare Kompartimente, wie beispielsweise in Petrischalen oder Mikrotiterplatten. Ergebnisse zeigen eine effektive Extraktion einzelner Tropfenfraktionen. Dennoch bedarf es einer kontinuierlichen Überwachung von Prozessparametern wie Flussrate und Tropfendurchsatz, um eine Trennung der einzelnen Tropfen zu gewährleisten. Gleichwohl bietet dieses online-Verfahren eine Möglichkeit, allgemeine Laborprotokolle und Analysetechniken mit Tropfenbasierter Mikrofluidik zu vereinen.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000143
Jancke, Roland;
Modellierung der Zuverlässigkeit bei Entwurf und Verifikation von Mixed-Signal-Schaltungen. - Ilmenau : Universitätsverlag Ilmenau, 2019. - 1 Online-Ressource (190 Seiten)
Technische Universität Ilmenau, Dissertation 2018

Die zunehmende Verbreitung von Elektronik im Alltag und die weitere Verringerung der Strukturgrößen stellt neue Anforderungen an die Zuverlässigkeit und Verfügbarkeit integrierter Schaltungen. Modellierung zur Unterstützung des Schaltkreis- und Systementwurfs wird seit langer Zeit eingesetzt, bisher hauptsächlich zur Nachbildung des funktionalen Verhaltens einer Schaltung. Die vorliegende Arbeit verfolgt zwei Ziele: - Zu bekannten Modellierungsverfahren für das funktionale Verhalten wird eine Systematik entwickelt und in einen durchgängigen Modellierungsablauf abgebildet. - Die Methodik wird um die Modellierung nichtfunktionaler Eigenschaften erweitert, insbesondere werden Verfahren zur Berücksichtigung der Zuverlässigkeit entwickelt. Für die Zuverlässigkeitsmodellierung werden in erster Linie Degradationseffekte betrachtet, die während des bestimmungsgemäßen Betriebs entstehen und sich auf das elektrische Verhalten integrierter Bauelemente auswirken. Als eine wesentliche Voraussetzung für die entwickelten Verfahren zur Berücksichtigung der elektrischen Degradation wird lineare Schadensakkumulation angenommen. Dies bedeutet, dass die zeitliche Abfolge des anliegenden Stresses keine Rolle spielt, sondern sich die entstehende Schädigung linear akkumuliert. Das Ergebnis der Arbeit ist eine systematische Vorgehensweise zur Modellierung des funktionalen Verhaltens von analogen und Mixed-Signal-Schaltungen. Diese wird ergänzt um neue Verfahren zur Berücksichtigung zuverlässigkeitsrelevanter Eigenschaften der Schaltung. Analogien zur Mechanik erlauben es, in diesem Bereich etablierte Vorgehensweisen zur Beschreibung und Analyse der Zuverlässigkeit zu übernehmen und auf die Degradationseffekte integrierter Halbleiterbauelemente anzuwenden. Entsprechende Lebensdauermodelle zu relevanten Degradationsmechanismen sind dargestellt. Ausgehend von der generellen Struktur solcher Modelle werden allgemeine Maße zur Zuverlässigkeitsbewertung von Bauelementen unter Anwendungsbedingungen abgeleitet. Die Diskussion von Methoden zur Analyse der Zuverlässigkeit ganzer Schaltungen im Entwurf rundet die Darstellung ab. Die entwickelten Verfahren dienen der Unterstützung eines schnellen und fehlerfreien Entwurfs sicherer und zuverlässiger Schaltungen. Anhand der Optimierung einer Schaltung auf der Grundlage ihres Alterungsverhaltens wird dieser Nutzen verdeutlicht.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2018000642
Weiß, Heiko;
Optimierung des dynamischen Verhaltens von linearen Hybridschrittmotoren unter besonderer Betrachtung von Schwingungen und Geräuschen. - Ilmenau : Universitätsverlag Ilmenau, 2019. - 1 Online-Ressource (XXI, 171 Seiten)
Technische Universität Ilmenau, Dissertation 2018

Diese Arbeit befasst sich mit der Entwicklung von Methoden und Reglern zur Reduzierung von Schwingungen und Geräuschen von linearen Hybridschrittmotoren (LHSM). Die Ursachen der Schwingungen und Geräusche sind Kraftschwankungen, die elektromagnetisch durch das Antriebsprinzip bedingt sind. Der untersuchte Motor ist ein Prototyp, der von der Firma Pasim Direktantriebe GmbH zur Verfügung gestellt worden ist. Dieser ist durch ein Zusatzspulensystem gekennzeichnet, das eine variable magnetische Erregung ermöglicht. Somit kann der Motor mit einer konstanten magnetischen als auch mit einer sich ändernden magnetischen Erregung betrieben werden. Diese beiden Betriebsmodi werden in dieser Arbeit als Ausgangssituationen verwendet, um damit mögliche Reduzierungen von Schwingungen und Geräuschen zu erzielen. Für den als Standardmotor zu betrachtenden konstant erregten LHSM werden drei Methoden untersucht. Dazu gehören die Lastwinkel-Optimierung, die Rastkraft-Kompensation sowie die Optimierung der Kommutierung. Unter diesen Methoden lassen sich mit der optimierten Kommutierung die Horizontalschwingungen am besten verringern. Wahrnehmbare Lautstärkeänderungen können damit allerdings nicht erreicht werden. Das Ziel des mit variabler Erregung betriebenen LHSM ist ebenfalls eine Reduzierung von Schwingungen und Geräuschen. Zu diesem Zweck werden die sich mit der variablen Erregerkomponente ändernden Eigenschaften des LHSM ausgenutzt, um ein antriebseffizientes und schwingungsreduzierendes Betriebsverhalten zu erhalten. Dafür ist es erforderlich, den variabel erregten LHSM zu modellieren und die dazugehörigen Parameter zu identifizieren. Schließlich wird eine Ansteuerfunktion für die variable Erregerkomponente auf der Grundlage eines Optimierungsproblems entwickelt. Die Ansteuerfunktion wird im positionsgeregelten Betrieb angewendet und zeigt dabei eine Reduzierung der Schwingungen um ein Vielfaches in allen Raumrichtungen. Das führt dazu, dass die wahrgenommene Lautstärke um annähernd die Hälfte gegenüber einem Motor mit konstanter magnetischer Erregung gesenkt werden kann. Zur weiteren Verbesserung der Betriebseigenschaften werden verschiedene Reglerstrategien entwickelt und getestet. Die Ergebnisse zeigen, dass sich für diesen Zweck ein optimierter PID-Regler mit modellbasierter Vorsteuerung am besten eignet.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2018000738
Stich, Michael;
Wasserverunreinigungen in Lithium-Ionen-Batterien. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (III, 94 Seiten, Seite V-XXXV)
Technische Universität Ilmenau, Dissertation 2019

Lithium-Ionen Batterien (LIB) verwenden organische Elektrolyte, die auch bei hohen Spannungen von über 4 V stabil sind. Das Leitsalz, das für die meisten Elektrolyten genutzt wird, ist LiPF6. Dieses hat eine Reihe an positiven Eigenschaften, wie eine hohe Leitfähigkeit und chemische Stabilität, ist aber hydrolyseempfindlich. Die Hydrolyseprodukte können zu einer verringerten Batterieperformance und Zyklenstabilität sowie - im Falle einer Elektrolytleckage - zu Gesundheitsrisiken führen. Diese Arbeit untersucht deshalb, welche Materialien zu den Wasserverunreinigungen in einer LIB beitragen, wie die Wasserverunreinigungen mit LiPF6 reagieren und was die Effekte dieser Verunreinigungen auf das elektrochemische Verhalten der LIB sind. Das Trocknungsverhalten von Zellkomponenten wurde mittels Karl-Fischer Titration untersucht und zeigt, dass insbesondere das Anodenmaterial Graphit und der Glasfaserseparator eingehend getrocknet werden müssen, um einen Wassereintrag in die LIB zu minimieren. Unter den Kathodenmaterialien weist insbesondere LiFePO4 einen hohen Wassergehalt auf. Andere Zellkomponenten sind weniger hygroskopisch und können einfacher getrocknet werden, was bei der industriellen LIB Herstellung mit einer Kostenreduktion verbunden ist. Die Hydrolyse von LiPF6 wurde durch Ionenchromatographie im organischen Lösungsmittel EC/DEC (1:1 v/v) und in Wasser untersucht. Die Hydrolyseprodukte von LiPF6 in EC/DEC sind HF und HPO2F2. Um die komplexen Reaktionskinetiken zu untersuchen, wurde ein kinetisches Model erstellt, mit dem Vorhersagen über weniger hydrolyseempfindliche Elektrolyten möglich sind. Insbesondere zeigt sich, dass der Dissoziationsgrad eine große Rolle in der Hydrolyse von LiPF6 im spezifischen Lösungsmittel spielt, und ein höherer Dissoziationsgrad zu einer höheren Toleranz gegenüber Wasserverunreinigungen führt. Wasserverunreinigungen haben negative Effekte auf die Zyklenstabilität und führen zu einem erhöhten Ladungsübergangswiderstand, was auf eine veränderte SEI-Formierung und Zusammensetzung hindeutet. Die Erklärung wird auch durch die Erkenntnis gestützt, dass die coulombsche Effizienz im ersten Zyklus bei wasserkontaminierten Zellen niedriger ist. Diese Ergebnisse verdeutlichen, wie wichtig eine Limitierung und Kontrolle der Wasserkontamination in LIB für deren Langlebigkeit, Performance und Sicherheit ist.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000089
John, Kerstin;
Untersuchung von Umlenkelementen zur Anwendung in der interferometrischen Längenmesstechnik. - Ilmenau : Universitätsverlag Ilmenau, 2019. - 1 Online-Ressource (176 Seiten). - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; Band 33)
Technische Universität Ilmenau, Dissertation 2018

Aufgrund ihrer hohen Auflösung in Kombination mit einem großen Messbereich nehmen Interferometer eine Spitzenrolle in der Präzisionslängenmesstechnik ein. Sie müssen stets so angeordnet werden, dass der Messstrahl das Messobjekt auf geradem, unabgeschattetem Weg erreicht. Durch eine Umlenkung und Faltung des Interferometermessstrahls lassen sich Flexibilität des Aufbaus und Zugänglichkeit des Messobjektes verbessern. Diese Arbeit untersucht den Einsatz von Strahlumlenkelementen in interferometrischen Messanordnungen sowie die dadurch entstehenden Messfehler und Möglichkeiten ihrer Kompensation und Korrektur. Zunächst wird das grundlegende Messprinzip von interferometrischen Längenmessungen vorgestellt sowie auf mögliche Fehlerquellen insbesondere im Hinblick auf Strahlumlenkung hingewiesen. Es wird untersucht, wie sich die Änderung von geometrischen und Polarisationseigenschaften des Messstrahls durch ein Umlenkelement auf die interferometrische Messung auswirken. In dieser Arbeit werden verschiedene Modelle vorgestellt, mit denen die Lichtausbreitung und Polarisation sowie das geometrische Übertragungsverhalten von Umlenkelementen untersucht werden können. An Beispielen werden Einflussfaktoren herausgestellt, die auf die Polarisation des Lichtes wirken. Darüber hinaus wird deren Nutzung zur Kompensation von unerwünschten Polarisationsänderungen diskutiert. Eine Übersicht teilt reflektierende und refraktive Umlenkelemente auf Basis von Gemeinsamkeiten in Geometrie und Übertragungsverhalten in Kategorien ein. Der Fokus liegt dabei auf Invarianzachsen für Translation und Rotation der Elemente. Diese erlauben eine Bewegung der Umlenkelemente, ohne dass die untersuchte Funktionsgröße beeinflusst wird. Auf die Existenz und Lage dieser Achsen wird für jede Gruppe von Umlenkelementen hingewiesen. Zusätzlich erfolgt der Nachweis im Experiment, der das qualitative Übertragungsverhalten ausgewählter Umlenkelemente bestätigt. Schließlich werden die Erkenntnisse dieser Arbeit in Gestaltungsrichtlinien zusammengefasst, die den Anwender bei der Auslegung von Umlenkelementen für interferometrische Längenmesssysteme unterstützen.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2018000555
Mack, Benjamin;
Untersuchungen zum Schadensmechanismus Torsionsschwingbruch durch Kontaktermüdung an Schraubendruckfedern. - Ilmenau : Universitätsverlag Ilmenau, 2019. - 1 Online-Ressource (xvii, 184 Seiten). - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; Band 34)
Technische Universität Ilmenau, Dissertation 2018

Ziel der vorliegenden Arbeit ist es, die Wirkzusammenhänge des Schadensmechanismus "Torsionsschwingbruch durch Kontaktermüdung" zu untersuchen und Möglichkeiten zur Quantifizierung des Schadensmechanismus aufzuzeigen. Zu diesem Zweck werden Federvarianten mit unterschiedlichen Anlageverhalten gefertigt, charakterisiert und geprüft. Mit den bisher etablierten Methoden kann das Anlageverhalten nicht lokal und zugleich bei einer definierten Federkraft bewertet werden, was für die Fertigung von Versuchsfedern mit gezielt variierenden Anlageverhalten erforderlich ist. Vor diesem Hintergrund wird die Lichtspaltmethode entwickelt. Die Lichtspaltmethode eignet sich im Gegensatz zu numerischen Verfahren auch zur fertigungsnahen Beurteilung des Anlageverhaltens. Zusätzlich ermöglicht die Lichtspaltmethode einen höherwertigen FE-Abgleich im Endwindungsbereich, als ein Abgleich über die Federrate oder mittels druckempfindlichen Papiers. Aufgrund der Schwingfestigkeitsergebnisse wird eine Untergliederung des Schadensmechanismus hinsichtlich HCF-Kontaktermüdung mit Bruchausgang im Oberflächennahen Bereich und VHCF-Kontaktermüdung mit Bruchausgang unterhalb der Oberfläche vorgenommen. Begleitender Untersuchungen an Federn und Drähten zeigen, dass begünstigende Ursachen für Endwindungsbrüche mit der Ausprägung HCF-Kontaktermüdung sich auf eine fertigungs- bzw. verschleißbedingte Primärschädigung zurückführen lassen. Endwindungsbrüche im Bereich erhöhter Schwingspielzahlen mit einem Bruchausgang unterhalb der Oberfläche weisen auf eine Primärschädigung durch Kontaktermüdungsrissbildung hin. Auf Grundlage der Schwingfestigkeitsversuche an Schraubendruckfedern und numerischen Berechnungen wird eine Vorgehensweise zur Auslegung der Endwindungsgeometrie bei erhöhter Schwingspielzahl erarbeitet. Die Grobauslegung der Endwindungsgeometrie erfolgt über die Analyse des Kontaktwinkels in Abhängigkeit der Torsionsbeanspruchung. Die örtliche Bewertung erfolgt auf Basis der Finiten Elemente Methode und geeigneter Schadensparameter. Die numerische Nachrechnung der Schwingversuche zeigt, dass die lokale Kontaktdruckschwingweite als auch der Schadensparameter nach Dang Van geeignete Kenngrößen zur Beschreibung der VHCF-Kontaktermüdung darstellen. Durch diese Arbeit lassen sich Endwindungsbrüche durch Kontaktermüdung im VHCF-Bereich lokal bewerten.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2018000564
Liu, Wenjun;
Numerical studies of turbulent Rayleigh-Bénard magnetoconvection in rectangular enclosures. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (vi, 113 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Turbulente Magnetokonvektion in Flüssigmetallen wird in geschlossenen rechteckigen Zellen für starke äußere Magnetfelder durch direkte numerische Simulationen untersucht, welche die quasistatische Näherung anwenden. Das Hauptziel ist es, zu verstehen wie der turbulenten Wärme und Impulstransport beeinflusst wird und wie die Konvektionsstrukturen durch die Magnetfelder umorganisiert werden. In dieser Arbeit werden zwei Systeme untersucht, bei denen die turbulente RB-Konvektion in einem horizontalen Magnetfeld bzw. einem vertikalen Magnetfeld erfolgt. Für das System mit einem horizontalen Magnetfeld wird RB-Konvektion bei einer Rayleigh-Zahl von 1e6 in einer Zelle mit quadratischer Grundfläche und einer langen rechteckigen Zelle untersucht. Unterschiedliche Konvektionsregimes werden identifiziert, welche vom Aspektverhältnis und der Stärke des Magnetfelds abhängen. Das bemerkenswerteste Konvektionsregime, das in der Box mit quadratischer Grundfläche beobachtet wird, ist die Umkehrung der Strömung - ein Reorganisationsprozess der rollenartigen Struktur, die durch ein gemäßigtes Magnetfeld eingeschränkt wird. Das Regime zeigt eine interessante Ähnlichkeit mit der großskaligen Intermittenz in einer Kanalströmung mit einem moderaten Magnetfeld in Spannweitenrichtung. Das interessanteste Konvektionsregime in der langen rechteckigen Zelle ist die verdrillte Walzenstruktur, die aus zwei Walzen mit halber Behälterlänge mit unterschiedlichen Ausrichtungen während der Übergangsperiode besteht. Für das System mit einem vertikalen Magnetfeld wird hauptsächlich RB-Konvektion bei einer Rayleigh-Zahl von 1e6 in einer geschlossenen kubischen Zelle und bei einer hohen Rayleigh-Zahl von 1e7 in einer Zelle mit quadratischer Grundfläche beschrieben. Durch eine Fourier-Analyse werden Konvektionsstrukturen mit abnehmender charakteristischer horizontaler Wellenlänge gefunden während Ha zunimmt. Der turbulente Wärmetransport verteilt sich zunehmend auf Strömungsstrukturen, die an den Seitenwänden anliegen. Ähnlich wie bei rotierender RB-Konvektion bestehen die Seitenwandmoden für Ha oberhalb der Chandrasekhar-Grenze fort. Es erfolgt, eine detaillierte Analyse der komplexen Zweischicht-Struktur dieser Seitenwandmoden, ihrer Ausdehnung in das Zellinnere und der daraus resultierenden Zusammensetzung der Seitenwandgrenzschicht, deren Skalierung mit der Shercliff-Schichtdicke erfolgen kann.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000011
Lyu, Ze;
Lorentz force velocimetry in liquid metal two-phase flow applications. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (100 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Zweiphasenströmungen elektrischer leitfähiger Flüssigkeiten treten in einer Reihe von metallurgischen Prozessen auf. Zum Beispiel werden beim Stranggießen von Stahl Argonblasen in die Schmelze eingelassen, um ein Zusetzen des Tauchrohrs durch das Anlagern von Oxiden zu verhindern, die Schmelze in der Kokille zu mischen und zu homogenisieren sowie Verunreinigungen an die Badoberfläche zu transportieren, wo diese dann gezielt abgezogen werden können. Für eine lückenlose Prozess- und Qualitätskontrolle ist es unabdingbar, solche zweiphasigen Strömungstransportvorgänge messtechnisch zu erfassen. Unter den verschiedenen Strömungsmessverfahren für Flüssigmetalle ist die neu entwickelte Lorentzkraft-Anemometrie (LKA) ein vielversprechender Variante. Sie beruht auf der Messung der strömungsinduzierten Kraft, die sogenannte Lorentzkraft, die auf ein extern in der Nähe der Strömung angeordnetes Permanentmagnetsystem wirkt. Diese Lorentzkraft ist nach den Gesetzmäßigkeiten der Magnetofluiddynamik direkt proportional zur Geschwindigkeit bzw. zur Durchflussmenge der Schmelzenströmung und der elektrischen Leitfähigkeit der Schmelze. Der wesentliche Vorteil der LKA ist ihr berührungsfreier und nicht intrusiver Charakter, der es auch bei industriellen Anwendungen im Hochtemperaturbereich erlaubt, Messungen zur lokalen Geschwindigkeitsverteilung bzw. Bestimmung des globalen Durchflusses in heißen und chemisch aggressiven Substanzen durchzuführen. Die Funktionalität der LKA wurde bereits in einer Reihe von Laborexperimenten mit der bei Raumtemperatur schmelzflüssigen Modelllegierung GaInSn sowie in Feldtests im Aluminium- und Stahlbereich nachgewiesen. Die vorliegende Arbeit setzt sich zum Ziel, dieses Messverfahren auf Flüssigmetall-Zwei-Phasenströmungen anzuwenden und damit den Einsatzbereich der LKA auf industriell relevante Problemstellungen zu erweitern. Hierzu werden eine Reihe von Modellexperimenten mit der Testschmelze GaInSn durchgeführt, in denen sich elektrisch nicht leitfähige Gasblasen oder Festkörperpartikel bewegen. Das Ziel der Untersuchungen ist die Beantwortung der Frage, ob aus den gemessenen Kraftsignalen reproduzierbare Aussagen über Blasen- bzw. Partikelgröße sowie deren Geschwindigkeit und Position treffen lassen. Die Schwierigkeit bei dieser Aufgabe besteht darin, dass die elektrisch nicht leitfähigen Blasen oder Partikel nicht direkt mittels LKA detektierbar sind, sondern nur ihre dynamischen Wechselwirkungen mit der Schmelze. In allen Experimenten erfolgt die Kraftmessung durch einen interferometrisch-optischen Kraftsensor (IOFS), der an einen kleinen würfelförmigen Permanentmagnet auf NdFeB-Basis gekoppelt ist. Die Kraftsignale für Partikel und Blasen werden erfasst und ausgewertet. Im Detail werden die Abhängigkeit des Maximalwertes der Lorentzkraft vom Partikeldurchmesser, von der Magnetfeldstärke, vom Abstand zwischen Partikel und Wand sowie der Partikelgeschwindigkeit analysiert. Die Ergebnisse bilden die Grundlage für die erfolgreiche Anwendung der LKA zur Partikel- oder Blasenerkennung in Flüssigmetallströmungen. Die experimentellen Untersuchungen werden zudem durch entsprechende numerischen Simulationen flankiert. Es zeigen sich gute bis sehr gute Übereinstimmungen zwischen den experimentellen Beobachtungen und den theoretischen Voraussagen. In zwei weiteren Testexperimenten, in denen die Dynamik von aufsteigenden Blasen in einer Hochtemperaturschmelze und unter dem Einfluss eines starken Hintergrundmagnetfelds (bis 1 T) mittels LKA analysiert werden, bestätigen die Leistungsfähigkeit der Messmethode nicht nur unter Laborbedingungen, sondern auch unter rauen industrienahen Produktionsbedingungen.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000035
Marangoni, Rafael R.;
Traceable multicomponent force and torque measurement. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (xv, 124 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Ein Gerät, das für die Messung von Kraft- und Drehmomentvektoren eingesetzt wird und ein Kalibriersystem integriert, wird in dieser Arbeit beschrieben. Die Kräfte und Drehmomente werden auf die Messung von Position, Winkel, elektrischer Spannung, elektrischem Widerstand und Zeit zurückgeführt. Hinsichtlich fundamentaler Naturkonstanten können die Kräfte und Drehmomente auf die Planck Konstante h, die Lichtgeschwindigkeit c und die Frequenz des Hyperfeinübergangs von Caesium [Delta]v_Cs zurückgeführt werden. Das Messprinzip basiert auf dem Prinzip der elektromagnetischen Kraftkompensation und die Kalibrierung auf dem Kibble-Waagen Prinzip. Mehrere Schwierigkeiten und Einschränkungen von traditionellen Kalibrierverfahren für Mehrkomponenten-Kraft- und Drehmomentaufnehmer werden mit diesem System überwunden und neue Möglichkeiten werden vorgeschlagen, wie z.B. die automatische Inprozess-Kalibrierung. Mithilfe einer sorgfältigen Unsicherheitsanalyse wird die erreichbare Unsicherheit für die Kraft- und Drehmomentmessung ausgewertet und die Einschränkungen identifiziert, die durch die verschiedenen Komponenten des Systems verursacht werden. Ein Prototyp wird vorgestellt, der die Kraft- und Drehmomentmessung im Bereich vom 2.2 N und 0.11 N m mit einer relativen Standardmessunsicherheit von 44 ppm bzw. 460 ppm ermöglicht. Weiterhin wurde das System durch die Messung einer bekannten Kraft überprüft, die von einem kalibrierten Testgewicht erzeugt wird. Experimentelle Ergebnisse wurden durch die Anwendung von Mehrkomponentenaufnehmern in der Lorentzkraft-Anemometrie, Mikrobearbeitung und für die Identifikation von Kraft- und Drehmomentmesssystemen erzielt. Auf Verbesserungsmöglichkeiten für die weitere Reduzierung der Unsicherheit bei der Kraft- und Drehmomentmessung mit dem Gerät wird eingegangen.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000043
Yan, Na;
High resolution force measurement system for Lorentz force velocimetry. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (XII, 93 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Die Lorentzkraft-Anemometrie wurde als neuartige Methode für die berührungslosen Geschwindigkeitsmessungen leitfähiger Strömungen entwickelt. Die induzierte Lorentzkraft ist proportional zur Strömungsgeschwindigkeit. Mit einem Kraftmesssystem kann die Reaktionskraft der induzierten Lorentzkraft, die auf das integrierte Magnetsystem wirkt, gemessen werden. Dadurch kann die Strömungsgeschwindigkeit bestimmt werden. Die Eigenschaften der Geschwindigkeitsmessung hängen von den Eigenschaften des Kraftmesssystems ab. Bei Fluiden mit geringer elektrischer Leitfähigkeit, wie z.B. Elektrolyten, liegt die erzeugte Lorentzkraft im Bereich von Mikronewton und darunter. Das Kraftmesssystem unterstützt eine Masse eines Magnetsystems von ca. 1 kg. Deshalb ist das Ziel dieser Arbeit ein Kraftmesssystem zu entwickeln, welches auf der einen Seite eine verbesserte Kraftauflösung in horizontaler Richtung für niedrigleitende Elektrolyte aufweist und auf der anderen Seite die Tragfähigkeit der Eigenlast von über 1 kg zur Unterstützung des integrierten Magnetsystems gewährleistet. In vorherigen Arbeiten wurde die Wägezelle nach dem Prinzip der elektromagnetischen Kraftkompensation (EMK-Wägzelle) in aufgehängter Konfiguration mit dem 1 kg Magnetsystem zur Messung der Lorentzkraft verwendet. Basierend auf verschiedenen Experimenten in dieser vorgestellten Arbeit wird festgestellt, dass aufgrund des mechanischen Aufbaus sowohl Neigungsempfindlichkeit als auch Steifigkeit der EMK-Wägezelle stark von der genutzten Konfiguration und dem Gewicht der unterstützten Eigenlast abhängig sind. Um die durch diese Abhängigkeiten verursachten Einflüsse zu minimieren, wird ein Torsionskraftmesssystem basierend auf dem Prinzip der Torsionswaage entwickelt. Diese ist theoretisch neigungsunempfindlich und behält bei unterschiedlichen Eigenlasten eine konstante Steifigkeit bei. Die Auslenkungsmessungen werden verwendet, um die Ausgangsspannung des Torsionskraftmesssystems sowohl in Positionswerten als auch in Kraftwerten zu kalibrieren. Ein Closed-Loop-Betriebsmodus wird mithilfe eines PID-Reglers aufgebaut, mit dem die Grenzfrequenz von 0,002 Hz auf 0,1 Hz verbessert wird. Ein spezialangefertigter kapazitiver Aktor wird entwickelt, um eine rückführbare elektrostatische Kraft zu erzeugen, die anstelle der elektromagnetischen Kraft verwendet werden kann. Um die elektrostatische Kraft zu kalibrieren, werden drei Methoden genutzt: (a) durch Messung des Kapazitätsgradienten; (b) durch Vergleich mit einer elektromagnetischen Kraft und (c) durch Messung des induzierten Stroms in einem Velocity-Modus. Bei der Datenauswertung wird eine numerische Verarbeitung mit Newton-Polynominterpolation durchgeführt, um die thermischen und seismischen Störungen und Driften während der Messungen zu schätzen und zu korrigieren. Im Vergleich zu vorherigen Arbeiten, wo die Kraftauflösung auf 20 nN und die Eigenlast auf 3 kg begrenzt waren, ist das Torsionskraftmesssystem in der Lage, Kräfte bis zu 2 nN aufzulösen und eine Eigenlast bis zu 10 kg zu tragen. Schließlich wird die sogenannte Halb-Trocken-Kalibrierung am Torsionskraftmesssystem durchgeführt. Die Messempfindlichkeit wird für unterschiedliche Leitfähigkeiten ermittelt. Basierend auf den experimentellen Ergebnissen, zeigt das Torsionskraftmesssystem das Potential, um Messungen mit weiter geringerer Leitfähigkeit bis hinunter zu 0.0064 S/m durchzuführen.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000068
Frank, Andreas;
Investigations and methods to improve signal quality in high speed, self-actuated and self-sensing cantilever-based scanning probe microscopy. - Ilmenau, 2019. - vii, 173 Seiten
Technische Universität Ilmenau, Dissertation 2019

Der Erfolg von Rasterkraftmikroskopie (AFM) als Analysewerkzeug für Oberflächentopographien und Materialeigenschaften basiert auf der Fähigkeit durch das Abtasten der Probenoberflächen mit einer sehr scharfen Sensorspitze Nanometer- und atomaren Auflösung zu erreichen. Auf Grund des gestiegenen Interesses durch Life Science und industrielle Anwendungen treten die Limitierungen in den Scan Geschwindigkeiten in den Fokus der Untersuchungen. In dieser Arbeit wird der Ansatz verfolgt, die zu untersuchende Scanfläche durch die Anwendung von parallelen Cantilever Arrays zu vergrößern und damit die effektive Scangeschwindigkeit zu erhöhen. Durch die hoch komplexen Cantileverstrukturen mit integrierten Sensoren und Aktuatoren treten eine Vielzahl zusätzlicher Effekte und Anforderungen auf, welche in dieser Arbeit näher untersucht werden. Wesentliche Zielstellungen sind dabei die Verbesserung der Signalqualität, eine skalierbare Elektronik zur Ansteuerung und Auswertung, sowie verbesserte laterale Scanalgorithmen zur optimalen Ansteuerung hinsichtlich hoher Scangeschwindigkeiten. Auf Basis von Simulationen werden zunächst elektrisches, thermisches und mechanisches Übersprechen auf selbstaktuierten Cantilevern mit integrierten Sensoren durch Simulationen untersucht und experimentell verifiziert. Es wird dargestellt, dass durch verschiedene Abschirmungsmethoden das kapazitiv verursachte Übersprechen um eine Dekade verringert und das mechanische Übersprechen durch Änderungen der mechanischen Anordnung nahezu vollständig unterdrückt werden kann. Um das simulierte Verhalten für die Entwicklung des erweiterten Systems zu nutzen, wird ein abstraktes Simulationsmodell zusätzlich zum Bottom-Up Ansatz vorgestellt. Durch die Erweiterung dieses Modell um die Rückkoppelschleife und die Kraftinteraktion der Cantileverspitze mit der Oberfläche ergibt sich eine effektive Simulation für das Verhalten des Gesamtsystems, welche als Basis für die Entwicklung einer FPGA basierten Regelung dient. Die Notwendigkeit in Cantilever Anordnungen jeden Cantilever individuell anzusteuern, erfordert die Entwicklung eines flexiblen, voll parallelen und skalierbaren elektronischen Kontroll- und Regelsystems. Ausgehend von der abstrakten Gesamtsimulation werden die Arbeitsschritte der Partitionierung, Implementierung bzw. Umsetzung sowie die gesamtheitliche Verifikation dargelegt. Abschließend werden neuartig Algorithmen vorgestellt, welche höhere laterale Scangeschwindigkeiten als das üblicherweise verwendeten Raster ermöglichen. Damit wird gezeigt, dass trotz der mechanischen Limitierung durch die Eigenresonanz der Scanner, Verfahrbereiche größer als die laterale Array Periode schnell abgetastet werden können.



Wittmann, David;
Konzeption und Untersuchung stereoskopischer Visualisierungssysteme für Flugsicherungsaufgaben
1. Auflage. - Göttingen : Sierke Verlag, 2019. - ix, 305 Seiten
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-96548-021-6

Fluglotsenarbeitsplätze in den Kontrollzentren der Flugsicherung verfügen über ein zentral angebrachtes Radardisplay. Die laterale Position der Luftfahrzeuge wird auf einer kartenähnlichen Luftlagedarstellung zweidimensional anzeigt. Die Flughöhe wird alphanumerisch auf einem zusätzlichen Beschriftungsfeld eingeblendet. Die Verknüpfung dieser Informationen zu einem fusionierten Verkehrsbild stellt hohe Anforderungen an die Fluglotsen. Es wird angenommen, dass eine integrierte, dreidimensionale Darstellung eine Unterstützung für bestimmte Aufgaben der Flugsicherung bietet. In diesem Zusammenhang beschäftigt sich die vorliegende Arbeit mit der Eignung stereoskopischer 3D Displays als zentrales Anzeigeelement von Fluglotsenarbeitsplätzen. Basierend auf einer Anforderungsanalyse sowie unter Einbezug relevanter Gestaltungsrichtlinien und -normen wurde ein prototypischer Arbeitsplatz entwickelt. Dieser wurde im Rahmen der Arbeit zur Durchführung zweier Studien verwendet, deren Zielsetzung die vergleichende Untersuchung von 2D- und 3D-Luftlagedarstellungen im Nutzungskontext ist. Im Zuge des ersten Versuchs wurde die Erkennung potentieller Kollisionsgefahren zwischen Luftfahrzeugen als relevante Aufgabe aus dem Spektrum der Flugsicherung herausgegriffen. Das Probandenkollektiv bestand dabei aus Fluglotsen, Piloten und Laien. In Ergänzung des standardisierten Versuchs wurde eine zusätzliche Simulator-Studie im realitätsnahen Umfeld mit aktiven Fluglotsen der Flugsicherung durchgeführt. Der Aufgabenumfang der Anflugkontrolle wurde dabei umfänglich abgebildet. Im Rahmen der Studien konnten bei den stereoskopischen Darstellungen u.a. verlängerte Antwortlatenzzeiten beobachtet werden. Hinsichtlich der Aufgabenerfüllung zeigen die Ergebnisse keine auffälligen Unterschiede zwischen den Anzeigen. Die zudem erhobenen Parameter zur Arbeitsbelastung, Gebrauchstauglichkeit sowie zum Situationsbewusstsein liefern ergänzende Hinweise zu den Eigenschaften stereoskopischer Darstellungen. Die im Zuge der Simulator-Studie mit Fluglotsen durchgeführten Leitfadeninterviews bieten umfangreiche Hinweise zur Gestaltung und Anwendung dreidimensionaler Luftlagedarstellungen im heutigen sowie zukünftigen Nutzungskontext. Die Erkenntnisse der vorliegenden Arbeit leisten einen Beitrag zur Weiterentwicklung der Mensch-Maschine-Schnittstelle an Fluglotsenarbeitsplätzen.



Wiederhold, Andreas;
Strömungsmessung und Strömungsbeeinflussung in leitfähigen Mehrphasensystemen durch elektromagnetische Kräfte. - Ilmenau, 2019. - X, 116 Seiten
Technische Universität Ilmenau, Dissertation 2019

Mehrphasenströmungen sind in Natur und Technik allgegenwärtig. Insbesondere in der Pharma- oder Nahrungsmittelindustrie kommt ihnen eine weitreichende Bedeutung zu. In diesen Branchen wird aus hygienischen Gründen oder aufgrund der Opazität oder chemischen Aggressivität der Flüssigkeiten Wert auf kontaktlose und nichtinvasive Durchflussmessverfahren gelegt. Dabei stoßen viele Messverfahren wegen der Vielzahl an Restriktionen an ihre Grenzen. Für elektrisch leitfähige Flüssigkeiten ist die auf elektromagnetischen Wechselwirkungen basierende Lorentzkraft-Anemometrie (LKA) eine vielversprechende Alternative. Bei diesem Verfahren wird das strömende Fluid einem magnetischen Feld ausgesetzt und die generierte Lorentzkraft gemessen. Nachdem die LKA aufgrund der sehr hohen elektrischen Leitfähigkeiten bereits erfolgreich bei Metallschmelzen getestet wurde, lag in den letzten Jahren der Fokus auf der Messung von schwach leitfähigen Fluiden. In der vorliegenden Dissertation wird der Einfluss von dispersen Mehrphasenströmungen auf die LKA untersucht. Die experimentellen Ergebnisse zeigen bei verschiedenen Strömungsstrukturen eine zumeist hohe Übereinstimmung mit theoretischen Ansätzen. Im Zuge dieser Messungen wurde eine weitere magnetische Kraft ermittelt, die allein auf Suszeptibilitätsunterschieden der verschiedenen Phasen beruht und nicht auf eine Leitfähigkeit des Fluids angewiesen ist. Es wird gezeigt, dass mithilfe dieser Kraft die Vermessung von Schwallströmungen oder einzelnen Tropfen möglich ist. Darüber hinaus befasst sich die Arbeit mit geschichteten Mehrphasenströmungen, die in einem weiteren Experiment mittels rotierenden Lorentzkräften angeregt werden. Diese Strömungen können in Flüssigmetallbatterien auftreten, einen Erfolg versprechenden, neuen Energiespeichertechnologie, bei der drei Fluide übereinander geschichtet sind. Die Experimente bestätigen ein ähnliches Verhalten zwischen den in der Modellzelle angeregten magnetohydrodynamischen Oberflächeninstabilitäten und natürlichen Schwerewellen.



Purfürst, Sandro;
Beitrag zur schaltungszustandsbasierten Ansteuerung geschalteter Reluktanzmaschinen unter Berücksichtigung der Strommessung bei reduzierter Sensorik. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (xix, 185 Blätter)
Technische Universität Ilmenau, Dissertation 2019

Die geschaltete Reluktanzmaschine als elektro-magneto-mechanischer Energiewandler gehört zur Gruppe der Synchronmaschinen. Neben dem Verzicht auf Seltenerdmetalle und der Möglichkeit zur kostengünstigen Fertigung ist dieser Maschinentyp besonders robust und kann auch bei Überlast zuverlässig betrieben werden. Insbesondere bei hohen Drehzahlen kann die geschaltete Reluktanzmaschine vorteilhaft zur Anwendung kommen. Dem entgegen stehen eine inhärente Geräuschemission und die Notwendigkeit einer Information über die Lage des beweglichen bezüglich des feststehenden Teils. Vielfältige Forschungsarbeiten versuchen, die bisherige geringe Akzeptanz der geschalteten Reluktanzmaschine zu steigern. Dabei bezieht sich jedoch nur ein verhältnismäßig geringer Teil auf die Ansteuerung bei reduzierter Stromsensorik. Die vorliegende Arbeit leistet einen Beitrag zur mehrphasigen Stromregelung geschalteter Reluktanzmaschinen mit nur einem Sensor zur Erfassung der für den Betrieb benötigten Phasenströme. Hierzu wird insbesondere der Überlappungsbereich der Phasen in den Vordergrund gestellt und dessen Bedeutung für den Maschinenbetrieb herausgearbeitet. Zusätzlich werden Definitionen zur Unterscheidung der relevanten Vorgänge für die Darstellung der Problematik eingeführt. Es wird gezeigt, wie sich die Maschine mit verschiedenen leistungselektronischen Topologien bei einer modifizierten Anbindung der Freilaufdioden betreiben lässt. Die dazu notwendigen Verläufe der Steuersignale werden empirisch und parallel dazu über einen genetischen Algorithmus ermittelt. Beide Ansätze führen für den Spezialfall zweier gleichzeitig aktiver Phasen mit jeweils zwei Schaltern im Überlappungsbereich zu einer wechselseitigen Anordnung der Schaltflanken. Hierdurch wird die Funktion des genetischen Optimierungsalgorithmus deduktiv nachgewiesen und die Anwendbarkeit auf allgemeinere Konfigurationen in Aussicht gestellt. Mithilfe eines Demonstrators werden die Einflüsse auf die Strommessung ermittelt und die grundlegende Funktionsfähigkeit der entwickelten Methode in der geschlossenen Kette nachgewiesen.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000342
Kotschote, Christian;
Widerstandspunktschweißen mit Stanzelement : prozesstechnische und werkstoffliche Besonderheiten von Aluminium-Stahl-Blechverbindungen. - Ilmenau : Universitätsverlag Ilmenau, 2019. - 1 Online-Ressource (XIX, 165 Seiten). - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 7)
Technische Universität Ilmenau, Dissertation 2018

Aluminium und Stahl sind Leichtbauwerkstoffe und im Automobilbau nicht mehr wegzudenken. Beide Werkstoffe miteinander zu verbinden, stellt besonders die Fügetechnik vor großen Herausforderungen. Das Fügen mittels Widerstandspunktschweißen oder anderen thermischen Fügeverfahren führt beim Verbinden von Aluminium mit Stahl in der Regel zur Ausbildung von intermetallischen Phasen. Zusätzlich erschweren die unterschiedlichen Eigenschaften der beiden Werkstoffe den Schweißprozess und damit einen Einsatz im Fahrzeugbau. Aufgrund der hohen Zugfestigkeit höchstfester Stähle gelangen mechanische Fügeverfahren, wie beispielsweise das Halbhohlstanznieten, ebenfalls an ihre Prozessgrenzen. Mit Hilfe eines zusätzlichen Stanzelements wurde ein neuartiger Ansatz zum Widerstandspunktschweißen von Aluminium und Stahl entwickelt und dessen prozesstechnische und werkstoffliche Besonderheiten erforscht. Das Ziel war die Bestimmung der Verbindungsausbildung vom Stanzelementprozess und der Einfluss der Schweißlinsenbildung auf die Charakteristik der Gesamtverbindung. In den Untersuchungen konnte die Buckelhöhe als grundlegende Prozessgröße identifiziert werden. Weiterhin wurde festgestellt, dass die Schmelzenbildung im Stahl beginnt. Die Untersuchungen der Schweißlinsenbildung und deren Einfluss auf die Elementverformung brachte die Erkenntnis, dass die Ausprägung des Stanzelements im Aluminiumsubstrat dominierend durch den Stanzelementprozess gesteuert wird. Eine thermische Belastung innerhalb der Schweißbereichsgrenzen beeinflusst die geometrischen Kennwerte nur geringfügig. Mithilfe einer eigens entwickelten Kopfzugmethode konnte der Nachweis erbracht werden, dass die Vorbelastung des Stanzelements einen Einfluss auf das Versagensverhalten hat. Zudem war es mit dieser Prüfung möglich, die Verbindungsfestigkeiten sowohl nach dem Primär- als auch nach dem Sekundärprozess zu bestimmen. Der Vergleich der Kopfzugkräfte ergab eine festigkeitsmindernde Wirkung des Schweißprozesses. Untersuchungen des Aluminiumsubstrates zeigten Erholungs- und Rekristallisationsvorgänge entlang der Prozesskette, welche als Ursache für die festigkeitsmindernde Wirkung identifiziert wurde. Eine Möglichkeit zur Erhöhung der Verbindungsfestigkeit konnte durch eine nachträgliche Ausscheidungshärtung des Aluminiummaterials erreicht werden.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2018000583
Köchert, Paul;
Das neue Positionierungssystem am Nanometerkomparator der Physikalisch-Technischen Bundesanstalt. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (X, 147 Seiten)
Technische Universität Ilmenau, Dissertation 2018

Der Nanometerkomparator (NMK) ist ein nationales Normal der Bundesrepublik Deutschland zur metrologischen Weitergabe der Längeneinheit gemäß der Definition des Internationalen Einheitensystems. Er wird zur Kalibrierung von Strichmaßstäben, Photomasken und interferometrischen Messsystemen über eine Länge von bis zu 550 mm eingesetzt. Gegenstand der vorliegenden Arbeit ist die Entwicklung eines neuen Positionierungssystems für dieses Referenzsystem. Das Ziel ist eine Optimierung der Positionserfassung und eine präzisere Positionierung von Längenmaßverkörperungen im stationären und dynamischen Zustand. Bei der Konzeption des NMK wurde bereits auf die Einhaltung wesentlicher Designparadigmen im Präzisionsmaschinenbau geachtet, um minimale Messunsicherheiten zu erzielen. Um die Leistungsfähigkeit in dieser Hinsicht weiter zu erhöhen und somit steigenden Anforderungen zu entsprechen, wurden Antriebs-, Steuerungs- und Wegmesssystem weiterentwickelt und ihre Abstimmung optimiert. Das Fundament bildete die Entwicklung einer Auswerteelektronik für die interferometrischen Messsysteme am NMK, deren Auswerteverfahren an die Betriebsbedingungen am Nanometerkomparator angepasst wurde und ein Auflösungsvermögen im Sub-Pikometerbereich gewährleistete. Das bestehende Antriebssystem wurde durch einen Feintrieb ergänzt, um Störungen des Antriebssystems über eine feldkraftschlüssige Verbindung mit hoher Steifigkeit zu unterdrücken. Zur Bahnsteuerung der Achsbewegungen wurde ein dezentrales Steuerungssystem geschaffen, welches Rückkopplungsdaten von der Auswerteelektronik des im NMK integrierten Vakuum-Interferometers erhielt und mit einer Unterteilung von einem Pikometer verarbeitete. Die Lageregelung für die neu geschaffene Feintriebachse wurde mit einer iterativen Reglersynthese entworfen und führte zu einem zweistufigen Regelungskonzept. Untersuchungen des geschlossenen Regelkreises zeigen auf, dass niederfrequente Störungen in erheblichem Maße unterdrückt werden und die 127 kg schwere Vorschubmechanik mit Frequenzen von bis zu 145 Hz ausgeregelt wird. Anhand experimenteller Untersuchungen wurde ein signifikant verbessertes Positioniervermögen nachgewiesen, wobei Standardabweichungen im stationären und dynamischen Zustand von weniger als 0,3 nm erreichbar sind. Darüber hinaus wurde bei Vergleichsmessungen mit einem Encoder-System nachgewiesen, dass eine Wiederholbarkeit von 0,05 nm und eine Reproduzierbarkeit von 0,28 nm bei Anwendung eines ungetriggerten Aufnahmeverfahrens technisch umsetzbar sind. Es wird zudem gezeigt, dass sowohl die Anpassungen hinsichtlich der Positionserfassung als auch das neue Positionierungssystem zur Erzielung dieser Leistungsfähigkeit beitragen.



https://www.db-thueringen.de/receive/dbt_mods_00039102
Schricker, Klaus;
Charakterisierung der Fügezone von laserbasiert gefügten Hybridverbunden aus teilkristallinen thermoplastischen Kunststoffen und Metallen. - Ilmenau : Universitätsverlag Ilmenau, 2018. - 1 Online-Ressource (204 Seiten). - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 8)
Technische Universität Ilmenau, Dissertation 2018

Das thermische Fügen ermöglicht die direkte Herstellung von Kunststoff-Metall-Verbunden ohne Verwendung von Zusatzstoffen oder Fügehilfselementen. Im Rahmen der Arbeit wurde die Fügezone zwischen teilkristallinen Kunststoffen und Metallen im laserbasierten Fügen beschrieben und der Einfluss auf die mechanischen Verbundeigenschaften ermittelt. Zur Abbildung eines breiten Anwendungsspektrums wurden die Untersuchungen anhand von Aluminium (EN AW 6082) und Stahl (X5CrNi18-10) sowie für PA 6, PA 6.6 und PP durchgeführt. Die Charakterisierung der Fügezone erfolgte an Punktverbindungen sowie unter Einsatz eines Halbschnittversuchsstandes. Auf Basis von experimentellen Untersuchungen sowie der thermischen Simulation konnte die Fügezone anhand charakteristischer Isothermen verallgemeinert werden. Darauf aufbauend wurden wesentliche Vorgänge innerhalb der Fügezone (Schmelzen/Erstarren, Blasenbildung, Strömung) erfasst und mit dem Temperaturfeld bzw. werkstoffspezifischen Eigenschaften verknüpft. Die Schmelzzone innerhalb des Kunststoffes ist dabei maßgeblich für die Verbundherstellung zwischen beiden Werkstoffen und weist gegenüber dem Grundwerkstoff eine veränderte Morphologie sowie modifizierte Materialeigenschaften auf. Die Größe der Schmelzzone zeigt eine hohe Sensitivität gegenüber der Materialstärke des metallischen Fügepartners, der Laserstrahlleistung sowie dem Schmelzintervall des Kunststoffes. Im Hinblick auf die Verbundentstehung wurde die Bedeutung der Temperaturverteilung gegenüber der Fügezeit zur Füllung der Oberflächenstrukturen sowie eine unterstützende Wirkung der Volumenzunahme im Phasenübergang fest-flüssig nachgewiesen.Die gewonnen Erkenntnissen wurden auf Überlappverbindungen übertragen und die Fügezone in Abhängigkeit der Streckenenergie charakterisiert. Darauf aufbauend erfolgte die Untersuchung der mechanischen Eigenschaften eines Verbundes aus PA 6 mit EN AW 6082 hinsichtlich des kohäsiven Versagensverhaltens. Steigende Streckenenergien führten zu einer verringerten Duktilität des Verbundes in der mechanischen Kurzzeitprüfung sowie zu einer nachteiligen Beeinflussung des Ermüdungsverhaltens. Als maßgeblicher Effekt wurde die Sekundärkristallisation des Kunststoffes identifiziert, die auf eine Wärmebehandlung der Schmelzzone im Fügeprozess zurückgeführt und anhand von Auslagerungsversuchen an Vergleichsproben verifiziert werden konnte.



https://www.db-thueringen.de/receive/dbt_mods_00038207
Karthaus, Daniela;
Optimierungsmethodik für Volumen-Transmissionshologramme mit LED-Beleuchtung. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (X, 139 Seiten)
Technische Universität Ilmenau, Dissertation 2018

In dieser Arbeit wird eine Optimierungsmethodik vorgestellt, welche die Anpassung von Volumen-Transmissionshologrammen an die spektralen Eigenschaften und die Abstrahlcharakteristik von LEDs ermöglicht. Diese Methodik beinhaltet neben einem Designprozess zur Berechnung optimierter Hologramminformationen auch einen Simulationsansatz zur realitätsnahen Visualisierung des rekonstruierten Bildes. Sowohl bei der Berechnung als auch bei der Simulation werden LED-Parameter wie Wellenlänge, Divergenzwinkel und Wellenfrontform berücksichtigt. Die Beschreibung und experimentelle Ermittlung einer LED-spezifischen Wellenfront ist dabei eine besondere Herausforderung und wird in dieser Arbeit entsprechend diskutiert. Zur Überprüfung des Designprozesses und der Simulation werden die berechneten Hologramme in ein Photopolymer belichtet. Der dafür notwendige Belichtungsprozess wird im Rahmen der Arbeit im Labor umgesetzt und die Belichtungsparameter im Design und in der Simulation berücksichtigt. Durch die spezifisch aufeinander abgestimmten Schritte von Design über Belichtung bis zur Simulation entsteht eine ganzheitliche Methodik für die Optimierung und Überprüfung der Hologramme. In sechs experimentellen Testreihen werden nicht optimierte und optimierte Hologramme mit verschiedenen Lichtquellen beleuchtet und die Rekonstruktionen analysiert. Die Ergebnisse belegen die erfolgreiche Kompensation und Visualisierung der oben genannten Effekte durch LED-Beleuchtung bei der Rekonstruktion. Zudem werden Einflüsse auf die Rekonstruktion durch den Belichtungsprozess und das holographische Material aufgezeigt und mögliche Lösungen für eine Weißlicht-Rekonstruktion mit Transmissionshologrammen aufgezeigt.



https://www.db-thueringen.de/receive/dbt_mods_00038435
Kunze, Tim;
How models of canonical microcircuits implement cognitive functions. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (xiii, 109 Seiten, Seite xv-xxii)
Technische Universität Ilmenau, Dissertation 2018

Kognitive Fähigkeiten wie Sprache, Gedächtnis und Entscheidungsfindung resultieren vermutlich aus der Interaktion vieler fundamentaler neuronaler Elemente, sogenannter kanonischer Schaltkreise. Eine vertiefte Einsicht in das Zusammenwirken dieser kanonischen Schaltkreise verspricht ein besseres Verständnis kognitiver Fähigkeiten, möglicher Funktionsstörungen und Therapieansätze. Die vorliegende Dissertation untersucht ein generatives Modell kanonischer Schaltkreise und erforscht mit dessen Hilfe die Zusammensetzung kognitiver Fähigkeiten aus konstitutiven Mechanismen neuronaler Interaktion. Es wurde ein biologisch-plausibles neuronales Massenmodell erstellt, das mögliche Architekturen kanonischer Schaltkreise generisch berücksichtigt. Anhand von Simulationen sowie Bifurkations- und Stabilitätsanalysen wurde untersucht, inwiefern das Modell grundlegende Operationen der Informationsverarbeitung, nämlich Selektion und temporäre Speicherung einer transienten Stimulation, unterstützt. Die Untersuchung zeigt, dass eine bistabile Aktivität einer neuronalen Population und die Beurteilung der Salienz des Signals den grundlegenden Operationen zugrunde liegen. Die Beurteilung der Salienz beruht dabei hinsichtlich der Signalstärke auf dem Abstand des Arbeitspunktes zu einer Sattel-Knoten-Bifurkation und hinsichtlich der Signalkonsistenz und -vergänglichkeit auf einer Hopf-Separatrix im Zustandsraum des Systems. Die Netzwerkbalance modifiziert diesen Zustandsraum und damit die Funktionsfähigkeit des Modells. Nur ein Drei-Populationenmodell mit getrennten erregenden Populationen für Signalempfang und -emission weist die notwendigen Bedingungen im Zustandsraum auf und genügt der Definition eines minimalen kanonischen Schaltkreises. In diesem Drei-Populationenmodell erleichtert ein Feedbacksignal die Speicherfähigkeit für sensorische Feedforwardsignale. Dementsprechend weisen hierarchisch interagierende minimale kanonische Schaltkreise ein zeitliches Verarbeitungsgedächtnis auf, das zustandsabhängige Verarbeitungsoperationen erlaubt. Die Bedeutung dieser konstitutiven Operationen wird für die neuronalen Operationen Priming und Strukturbildung verdeutlicht. Letztere wurde als wichtiger Mechanismus in einem Netzwerk zur Syntaxanalyse identifiziert und belegt das Potential des Modellansatzes für die neurokognitive Forschung. Diese Dissertation konkretisiert die konnektionistische Ansicht höhere Verarbeitungsoperationen als Ergebnis der Kombination minimaler Verarbeitungselemente zu verstehen und befördert das Verständnis für die Frage wie kognitive Fähigkeiten im Nervengewebe des Gehirns implementiert sind.



https://www.db-thueringen.de/receive/dbt_mods_00038205
Dahnke, Robert;
Preprocessing methods for morphometric brain analysis and quality assurance of structural magnetic resonance images :
Vorverarbeitungsverfahren zur morphometrischen Hirnanalyse und Qualitätssicherung von strukturellen Magnetresonanzbildern. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (verschiedene Seitenzählungen)
Technische Universität Ilmenau, Dissertation 2018

Gegenstand der Dissertation ist die Neuentwicklung und Validierung von Verfahren zur Aufbereitung von anatomischen Daten, die mittels Magnetresonanztomographie gewonnen wurden. Ziel ist dabei die Erfassung von morphometrischen Kennwerten zur Beschreibung der Struktur und Form des Gehirns, wie beispielsweise Volumen, Fläche, Dicke oder Faltung der Großhirnrinde. Die Kennwerte erlauben sowohl die Erforschung individueller gesunder und pathologischer Entwicklung als auch der evolutionären Anpassung des Gehirns. Die zur Datenanalyse notwendige Vorverarbeitung beinhaltet dabei die Angleichung von Bildeigenschaften und individueller Anatomie. Die fortlaufende Weiterentwicklung der Scanner- und Rechentechnik ermöglicht eine zunehmend genauere Bildgebung, erfordert aber die kontinuierliche Anpassung existierender Verfahren. Die Schwerpunkte dieser Dissertation lagen in der Entwicklung neuer Verfahren zur (i) Klassifikation der Hirngewebe (Segmentierung), (ii) räumlichen Abbildung des individuellen Gehirns auf ein Durchschnittsgehirn (Registrierung), (iii) Bestimmung der Dicke der Großhirnrinde und Rekonstruktion einer repräsentativen Oberfläche und (iv) Qualitätssicherung der Eingangsdaten. Die Segmentierung gleicht die Bildeigenschaften unterschiedlicher Protokolle an, während die Registrierung anatomische Merkmale normalisiert und so den Vergleich verschiedener Gehirne ermöglicht. Die Rekonstruktion von Oberflächen erlaubt wiederum die Gewinnung einer Vielzahl weiterer morphometrischer Maße zur spezifischen Charakterisierung des Gehirns und seiner Entwicklung. Anhand von simulierten und realen Daten wird die Validität der neuen Methoden belegt und mit anderen Ansätzen verglichen. Die Verfahren sind Bestandteil der Computational Anatomy Toolbox (CAT; http://dbm.neuro.uni-jena.de/cat), deren Schwerpunkt die Vorverarbeitung von strukturellen Daten ist und die Teil des Statistical Parametric Mapping (SPM) Softwarepaketes in MATLAB ist.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2018000653
Greiner-Petter, Christoph;
Ein Beitrag zur Berücksichtigung von pseudoelastischem Werkstoffverhalten in der Modellierung tubulärer Kontinuumsroboter. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (viii, 161 Seiten)
Technische Universität Ilmenau, Dissertation 2018

Die Arbeit widmet sich der elastokinematischen Modellierung tubulärer Kontinuumsroboter aus Nickel-Titan-Röhrchen. Besonderes Augenmerk liegt dabei auf der Berücksichtigung des nichtlinearen und hysteresebehafteten Werkstoffverhaltens der Nickel-Titan-Legierung und dessen Einfluss auf das mechanische Verhalten tubulärer Kontinuumsmechanismen. Einleitend erfolgt eine Motivation zur potentiellen Anwendung tubulärer Kontinuumsroboter in der Medizin, eine Gegenüberstellung unterschiedlicher Kanülen zur aktiven Trajektorienverfolgung sowie die Darlegung des Standes der Forschung von tubulären Kontinuumsrobotern. Die Modellierung wird dann in mehreren Stufen, aus zum Teil verschachtelten, Teilmodellen aufgebaut. Zunächst wird die Werkstoffcharakteristik der Nickel-Titan-Legierung durch ein nichtlineares Werkstoffmodell mit Hystereseberücksichtigung abgebildet und mit Messungen verglichen. Darauf aufbauend wird ein Bauteilmodell hergeleitet, welches einzelne Nickel-Titan-Röhrchen unter reiner Biegung abbilden kann. Anschließend erfolgt die Betrachtung der Auswirkung der Werkstoffhysterese auf die Gleichgewichtslage tubulärer Kontinuumsmechanismen sowie die Bestimmung von Gleichgewichtskrümmungen und Übergangswinkeln. Diese Teilmodelle werden aus einer numerischen Kontaktsimulation einer einfachen Röhrchenkombination mit linearelastischem Werkstoffverhalten abgeleitet. Eine Gesamtkinematik führt die, aus den Teilmodellen gewonnenen, kinematischen Zustände zu einer Beschreibung des Bewegungsverhaltens des gesamten Kontinuumsmechanismus zusammen. Zur Beurteilung der Modellqualität erfolgen Messungen der Trajektorie der Röhrchenenden eines tubulären Kontinuumsmechanismus aus zwei Röhrchen. Es wird gezeigt, dass es mit der Modellierungsweise möglich ist, die gesamte Trajektorie für eine maximale Kanülenlänge von 70 mm mit einer maximalen euklidischen Abweichung von etwa 2 mm abzubilden. Die Kalibrierung der kinematischen Zustände reduziert die maximale euklidische Abweichung deutlich unter 1 mm. Basierend auf dem nichtlinearen Bauteilmodell und der berechneten Gleichgewichtslage erfolgt eine modellbasierte Bestimmung der erforderlichen Antriebskräfte zum Verschieben der Röhrchen und der Vergleich dieser mit Messungen. Die Arbeit schließt mit der Beschreibung aller verwendeten Experimentalaufbauten ab. Dazu gehören die Antriebseinheit zur Verschiebung der Röhrchen, eine schwenkbare Austrittsbuchse zur Erhöhung der Bewegungsfreiheit tubulärer Kontinuumsmechanismen, ein Stereokamera-Messsystem zur Trajektorienmessung und ein Kraftmesssystem zur Bestimmung der erforderlichen Antriebskräfte.



https://www.db-thueringen.de/receive/dbt_mods_00038185
Schramm, Stefan;
Objektive Streulichtmessung mit Shack-Hartmann-Wellenfrontaberrometern. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (XX, 168 Seiten)
Technische Universität Ilmenau, Dissertation 2018

Die vorliegende Arbeit thematisiert die Neuentwicklung eines Systems und Methode zur objektiven Streulichtmessung im menschlichen Auge. Die Grundlage bildet die Double-Pass Abbildung der Punktantwort (PSF) des optischen Systems, welche mit einem Shack-Hartmann-Sensor aufgenommen wird. Zur Erhöhung der Empfindlichkeit gegenüber Streulicht aus dem vorderen Augenabschnitt wurde zunächst ein kommerzielles Wellenfrontaberrometer durch Erweiterung einer funduskonjugierten Blende modifiziert. Zur Charakterisierung der Subaperturabbildungen der PSF wurde ein Algorithmus entwickelt, mit dem Form- und Intensitätsparameter der PSFs berechnet werden können. Neben neu entwickelten Parametern wurden auch Parameter der Literatur adaptiert. Der Funktionsnachweis der subaperturbasierten Streulichtmessmethode mit dem modifizierten Shack-Hartmann-Wellenfrontaberrometer wurde in zwei klinischen Studien erbracht. Zur Erweiterung des durch die Optik des Shack-Hartmann-Sensors limitierten Messbereichs wurde ein neues System entwickelt. Hierzu wurde eine variable Blende in Form eines reflektiven Displays in der Zwischenbildebene des Teleskopsystems eines neu entworfenen Wellenfrontaberrometers implementiert. Mit der Variation des Blendendurchmessers kann die PSF des Auges abgetastet werden. Die PSF wird über den Intensitätsverlauf der entsprechenden Shack-Hartmann Bildsequenz rekonstruiert und durch eine verallgemeinerte Form der Stiles-Holladay-Approximation parametrisiert. Dies erlaubt im Gegensatz zu den subaperturbasierten Streulichtparametern den direkten Vergleich mit Parametern etablierter Streulichtmesssysteme. Ein Funktionsnachweis dieser erweiterten Streulichtmessmethode konnte anhand einer Probandenstudie, bei der eine Streulichtsteigerung emuliert wurde, erbracht werden. Anhand einer weiteren Probandenstudie konnte gezeigt werden, dass die Streu- bzw. Reflexionseigenschaften des Fundus hoch individuell sind, wodurch eine gezielte Messung der Streuung des vorderen Augenabschnitts erschwert wird. Gründe für die unterschiedlichen Fundusreflexionen wurden anhand eines neu entwickelten numerischen Augenmodells in veränderten Absorptions- und Streuparametern des Retinalen Pigment Epithels gefunden. Mit der Entwicklung der erweiterten Streulichtmessung mit variabler Blende wurde eine Möglichkeit zur objektiven Bestimmung der beeinträchtigenden Faktoren auf das Sehen geschaffen. Mit der Nutzung des Shack-Hartmann-Wellenfrontaberrometers ist eine Systemintegration gelungen, mit der es möglich ist, sowohl Brechkraftfehler als auch Trübungen objektiv simultan zu quantifizieren.



https://www.db-thueringen.de/receive/dbt_mods_00038136
Ali, Majd;
Thermodynamic optimization and electromagnetic control of the adsorption processes in the refrigeration technology. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (IX, 168 Seiten)
Technische Universität Ilmenau, Dissertation 2018

Das Ziel dieses Promotionsvorhabens ist es, die Adsorptionskälteanlage zu optimieren und die großen Entwicklungshindernisse der Adsorptionskältetechnik zu überwinden. Beispiele hierfür sind die geringe Leistungszahl und die lange Zykluszeit zur Erzeugung des Kältemittels, die sich je nach den verwendeten Arbeitspaaren und der Fahrtemperatur unterscheidet. Ein weiteres Problem stellt das intermittierende Arbeitsprinzip für den einfachsten Zyklus eines Adsorptionskühlsystems dar. Daher wird in dieser Arbeit eine analytische, thermodynamische und numerische Untersuchung eines Neubaus einer Adsorptionskälteanlage für Gefrieranwendungen vorgestellt. Dieses neuartige System, das in dieser Promotion als kombiniertes Adsorptions- Eisproduktionssystem (com-AIP-System) bezeichnet wird, verwendet zwei verschiedene Adsorptionsmaterialien zusammen in einer Maschine. Die Hauptziele der vorliegenden Arbeit sind: Erhöhung der pro Zyklus erzeugten Eismenge, Erzeugung von kontinuierlicher Kälteleistung, Verbesserung der Zykluszeit und Einsparung der erforderlichen Eingangswärme durch Erhöhung der Massenstromrate des Kältemittels. Dieses Kältemittel verlässt den Adsorptionsreaktor und fließt in Richtung des Kondensators. Um dies zu erreichen, umfasst das com-AIP-System zwei Adsorptionsreaktoren. Der erste Adsorptionsreaktor ist mit Silikagel und der zweite mit Aktivkohle als Adsorptionsmittel gefüllt. Methanol wurde als Adsorbat und Kühlmittel mit beiden Reaktoren verwendet. Das com-AIP-System ermöglicht die Nutzung der Vorteile der physikalischen Eigenschaften der Adsorbentien SG und AC. Diese vorgeschlagene Strategie des AIP-Systems unterscheidet sich vollständig von den herkömmlichen Adsorptionsreaktoren, die mit einem Adsorptionsmittel in einem oder in zwei Reaktoren gefüllt sind. Im zweiten Teil dieser Arbeit wird eine numerische und analytische Untersuchung der Wirkung der HTF-Strömung vorgestellt. Die Desorption und Leistung des Adsorptionsreaktors wird ausgewertet. Die Wirkung der HTF-Natur wird für die gleichen Adsorptionsreaktoren (SG- und AC-Reaktoren) betrachtet, die zum Desorbieren von 1 kg Methanol erhitzt wurden. Um den HTF-Flow-Natur-Effekt zu untersuchen, wurde die Variation der Reynolds-, Nusselt- und Biot-Zahlen hinsichtlich ihrer Auswirkungen auf die Temperaturverteilung durch beide Reaktoren beobachtet. Die Verwendung der thermischen Heizung, wie Abwärme oder Solarenergie der Industrie, hat einige schwerwiegende Nachteile bei der Entwicklung der Adsorptionstechnologie. Der größte Nachteil ist, dass der Adsorptionsreaktor eine lange Zeit von etwa einer Stunde benötigt um die erforderliche Menge des Adsorbats zu desorbieren. Darüber hinaus hat der Adsorptionsreaktor einen komplexen Aufbau, welcher aus Rohren mit heißem Wasser und einer Vielzahl an Heizrippen besteht. Um die Probleme konventioneller Methoden (thermisches Heizen) zu überwinden, wird im Rahmen dieser Arbeit ein neues Design vorgestellt. Dieses besteht aus zwei gleichen Adsorptionsreaktoren mit einer neuen Wärmequelle (Induktionserwärmung). Das Dissertationsprojekt behandelt auch eine mathematische Modellierung und numerische Simulation eines Induktionsheizsystems für zwei Adsorptionsreaktoren, gefüllt mit Silikagel und Aktivkohle als Adsorptionsmaterial sowie Methanol als Adsorbat. Der Zweck dieser Untersuchung war die Verwendung der elektromagnetischen Induktionstechnologie als eine neue Wärmequelle des Adsorptionseis-Produktionssystems. Die Induktionsheizung wird mit der thermischen Beheizung verglichen. Dazu werden die beiden thermischen und induktiven Adsorptionsreaktoren ausgelegt, um die gleiche desorbierte Kältemittelmenge von 1 kg zu erzeugen. Dieser Aufbau wurde unter gleichen Betriebs- und Randbedingungen getestet. Für die numerische und mathematische Modellierung werden die Programme ANSYS Electronics, ANSYS Fluent und MATLAB verwendet.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2018000523
Brand, Jonathan;
Spectroscopy of currents and forces of single-atom and single-molecule junctions. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (iv, 101 Seiten)
Technische Universität Ilmenau, Dissertation 2018

In der vorliegenden Arbeit wird ein kombiniertes Rastertunnel- und Rasterkraftmikroskop optimiert, um Ströme und Kräfte in aus einzelnen Atomen und Molekülen bestehenden Kontakten zu untersuchen. Eine wesentliche Erhöhung der Leistungsfähigkeit des Mikroskops wird durch Reduzieren der Temperatur und mechanischer als auch elektromagnetischer Störungen erreicht. Zunächst werden Kontakte zu einzelnen C60-Molekülen auf einer supraleitenden Nb(110)-Oberfläche hergestellt, um den stabilen Betrieb des Mikroskops mit einer Energieauflösung zu verifizieren, welche der temperaturbedingten Grenze entspricht. Spektroskopische Messungen während der Bildung dieser Kontakte zeigen eine graduelle Zunahme des differentiellen Leitwerts innerhalb der supraleitenden Energielücke. Die experimentellen Beobachtungen verdeutlichen die Zunahme der Andreev-Reflexionswahrscheinlichkeit mit abnehmendem Abstand zwischen Probe und Spitze. Eine sorgfältige Auswertung der differentiellen und gesamten Leitwerte zeigt feine Unterschiede auf, welche auf die atomare Kontaktgeometrie zurückgeführt werden. Ein Vergleich der Resultate mit einer Erweiterung des Blonder-Tinkham-Klapwijk-Modells legt den Einfluss der Orientierungsabhängigkeit der Transmissionskoeffizienten einzelner C60-Moleküle nahe. Es wird eine neuartige Methode vorgestellt, um die Mindestanzahl von Transportkanälen zu bestimmen. Zusätzlich wird der fehlerfreie Betrieb des Rasterkraftmikroskops durch das Reproduzieren des Kraftverlaufs während der Bildung von C60-C60-Kontakten bestätigt. Der Einfluss der extern angelegten Spannung auf die während der Kontaktbildung herrschende vertikale Kraft wird zum ersten Mal berichtet. Die Berücksichtigung konventioneller Kräfte und starrer Elektroden weist auf das Auftreten bisher unerforschter Phänomene hin. Schließlich wird die Temperaturabhängigkeit der zur Manipulation einzelner Atome benötigten lateralen Kraft quantifiziert. Die Erfassung von Kräften mit einer Auflösung im Piconewton-Bereich hebt die Leistungsfähigkeit des optimierten Mikroskops hervor. Die Unempfindlichkeit der zur Manipulation einzelner Atome benötigten lateralen Kraft von der Zustandsdichte am Fermi-Niveau wird gezeigt, indem das Substrat mittels Variation von Temperatur und magnetischer Feldstärke vom supraleitenden in den nichtsupraleitenden Zustand gebracht wird.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2018000543
Ibrahim, Mohamed;
Applications of compressive sensing to direction of arrival estimation. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (xii, 154 Seiten)
Technische Universität Ilmenau, Dissertation 2018

Die Schätzung der Einfallsrichtungen (Directions of Arrival/DOA) mehrerer ebener Wellenfronten mit Hilfe eines Antennen-Arrays ist eine der prominentesten Fragestellungen im Gebiet der Array-Signalverarbeitung. Das nach wie vor starke Forschungsinteresse in dieser Richtung konzentriert sich vor allem auf die Reduktion des Hardware-Aufwands, im Sinne der Komplexität und des Energieverbrauchs der Empfänger, bei einem vorgegebenen Grad an Genauigkeit und Robustheit gegen Mehrwegeausbreitung. Diese Dissertation beschäftigt sich mit der Anwendung von Compressive Sensing (CS) auf das Gebiet der DOA-Schätzung mit dem Ziel, hiermit die Komplexität der Empfängerhardware zu reduzieren und gleichzeitig eine hohe Richtungsauflösung und Robustheit zu erreichen. CS wurde bereits auf das DOA-Problem angewandt unter der Ausnutzung der Tatsache, dass eine Superposition ebener Wellenfronten mit einer winkelabhängigen Leistungsdichte korrespondiert, die über den Winkel betrachtet sparse ist. Basierend auf der Idee wurden CS-basierte Algorithmen zur DOA-Schätzung vorgeschlagen, die sich durch eine geringe Rechenkomplexität, Robustheit gegenüber Quellenkorrelation und Flexibilität bezüglich der Wahl der Array-Geometrie auszeichnen. Die Anwendung von CS führt darüber hinaus zu einer erheblichen Reduktion der Hardware-Komplexität, da weniger Empfangskanäle benötigt werden und eine geringere Datenmenge zu verarbeiten und zu speichern ist, ohne dabei wesentliche Informationen zu verlieren. Im ersten Teil der Arbeit wird das Problem des Modellfehlers bei der CS-basierten DOA-Schätzung mit gitterbehafteten Verfahren untersucht. Ein häufig verwendeter Ansatz um das CS-Framework auf das DOA-Problem anzuwenden ist es, den kontinuierlichen Winkel-Parameter zu diskreditieren und damit ein Dictionary endlicher Größe zu bilden. Da die tatsächlichen Winkel fast sicher nicht auf diesem Gitter liegen werden, entsteht dabei ein unvermeidlicher Modellfehler, der sich auf die Schätzalgorithmen auswirkt. In der Arbeit wird ein analytischer Ansatz gewählt, um den Effekt der Gitterfehler auf die rekonstruierten Spektra zu untersuchen. Es wird gezeigt, dass sich die Messung einer Quelle aus beliebiger Richtung sehr gut durch die erwarteten Antworten ihrer beiden Nachbarn auf dem Gitter annähern lässt. Darauf basierend wird ein einfaches und effizientes Verfahren vorgeschlagen, den Gitterversatz zu schätzen. Dieser Ansatz ist anwendbar auf einzelne Quellen oder mehrere, räumlich gut separierte Quellen. Für den Fall mehrerer dicht benachbarter Quellen wird ein numerischer Ansatz zur gemeinsamen Schätzung des Gitterversatzes diskutiert. Im zweiten Teil der Arbeit untersuchen wir das Design kompressiver Antennenarrays für die DOA-Schätzung. Die Kompression im Sinne von Linearkombinationen der Antennensignale, erlaubt es, Arrays mit großer Apertur zu entwerfen, die nur wenige Empfangskanäle benötigen und sich konfigurieren lassen. In der Arbeit wird eine einfache Empfangsarchitektur vorgeschlagen und ein allgemeines Systemmodell diskutiert, welches verschiedene Optionen der tatsächlichen Hardware-Realisierung dieser Linearkombinationen zulässt. Im Anschluss wird das Design der Gewichte des analogen Kombinations-Netzwerks untersucht. Numerische Simulationen zeigen die Überlegenheit der vorgeschlagenen kompressiven Antennen-Arrays im Vergleich mit dünn besetzten Arrays der gleichen Komplexität sowie kompressiver Arrays mit zufällig gewählten Gewichten. Schließlich werden zwei weitere Anwendungen der vorgeschlagenen Ansätze diskutiert: CS-basierte Verzögerungsschätzung und kompressives Channel Sounding. Es wird demonstriert, dass die in beiden Gebieten durch die Anwendung der vorgeschlagenen Ansätze erhebliche Verbesserungen erzielt werden können.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2018000490
Min, Chaoqing;
New semi-active vibration control with Serial-Stiffness-Switch-System based on vibration energy harvesting. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (xi, 130 Seiten)
Technische Universität Ilmenau, Dissertation 2018

Diese Dissertation untersucht eine neuartige semi-aktive Schwingungsteuerung mit einem seriellen-Steifigkeit-Schalter-System (4S) basierend auf der Speicherung von Schwingungsenergie. Auf Basis der Schwingungsreduktionsanalyse für ein passives und ein semi-aktives Schaltsystem werden Probleme vorhandener Schwingungsteuerungssystemen aufgezeigt und durch das 4S Konzept gelöst. Um seine Leistungsfähigkeit zu untersuchen, wird zunächst 4S im offenen Regelkreis analysiert und die äquivalente Steifigkeit und Eigenfrequenz des Schaltsystems abgeleitet. Es folgt die Analyse für 4S im geschlossenen Regelkreis. Zur Schwingungsreduzierung wird ein Geschwindigkeits-Nulldurchgangs Schaltgesetz verwendet, das auf der Speicherung von Schwingungsenergie basiert. Dies wird unter einer harmonischen Störung numerisch validiert. Anschließend werden Grenzen der Energiespeicherung analysiert. Es folgt eine experimentelle Validierung dieser neuartigen Strategie zur Schwingungssteuerung vorgestellt und ein drehender Prüfstand entwickelt. Der Prüfstand verwendet zwei ringförmig angeordnete Elektromagnetplatten zusammen mit einer Ankerwelle als zwei mechanische Schalter, um die Verbindung oder Trennung von zwei Spiralfedern mit einem Lastträgheitsmoment zu erreichen. Die Speicherung von Schwingungsenergie und die Schwingungsreduktion werden auf diesem Versuchssystem getestet. Neben einer harmonischen Störung wird auch eine Anfangsgeschwindigkeit ungleich Null berücksichtigt. Um in diesem Fall die Schwingungsreduktion zu verbessern, wird ein neues Schaltgesetz vorgeschlagen. Mit Hilfe der Phasenebene wird das transiente und stationäre Ratterverhalten von 4S analysiert. Das Schaltgesetz ermöglicht eine schnelle Umwandlung der anfänglichen kinetischen Energie, die in beiden Federn zu gleichen Teilen gespeichert wird. Dies ist numerisch und experimentell validiert. Zusätzlich wird einer harmonischen Störung an dem neuen Schaltgesetz getestet, das ein besseres Positionierverhalten als das Geschwindigkeits-Nulldurchgangs Schaltgesetz aufweist. Schließlich wird 4S zur Schockisolierung eingesetzt. Die maximale Reduzierung des Überschwingens des Wegs beim Schock und die Reduktion der Restschwingungen nach dem Schock werden numerisch validiert. Darüber hinaus wird auch der Einfluss verschiedener Designparameter von 4S auf das Isolationsverhalten untersucht.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2018000350
Alazab Elkhouly, Mostafa;
Standardized testing conditions for satellite communications on-the-move (SOTM) terminals. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (xii, 123 Seiten)
Technische Universität Ilmenau, Dissertation 2018

Von Beginn an haben Satelliten Kommunikationsdienste über große Distanzen bereitgestellt. Endgeräte für die mobile Satellitenkommunikation sind mit einer Nachführeinrichtung ausgestattet, um den verwendeten Satelliten bei Bewegung zu verfolgen. Für höchstmöglichen Datendurchsatz und um Störaussendungen zu benachbarten Satelliten zu vermeiden bedarf es akkurater Nachführalgorithmen. Die Prüfung solcher Satcom-On-The-Move (SOTM) Terminals wird dabei zunehmend wichtig, wie Betreiber von Satellitendiensten anhand des negativen Einflusses suboptimaler Geräte auf ihre Infrastruktur bemerken. Herkömmlich werden SOTM-Terminals im Rahmen von Feldtests mit operativen Satelliten geprüft. Solche Tests sind allerdings nicht exakt wiederholbar. Die Reproduzierbarkeit von Tests ist jedoch insbesondere beim Vergleichstest mehrerer Terminals wichtig. Dieser Beitrag widmet sich der Untersuchung eines umfassenden Qualifikationstests von SOTM-Terminals innerhalb einer Laborumgebung, welche Reproduzierbarkeit ermöglicht. Wesentlicher Vorteil der Laborumgebung ist die Möglichkeit, Terminals unter realitätsnahen Bedingungen zu testen - ohne dass reale Satelliten benötigt werden, was die Kosten reduziert. Diese Arbeit behandelt darüber hinaus die Testmethodik in der Fraunhofer-Testanlage Facility for Over-the-air Research and Testing (FORTE). Wichtige Leistungsparameter wie Nachführgenauigkeit (Antenna De-pointing) und Nachbarsatellitenstörung (Adjacent Satellite Interference, ASI) können akkurat gemessen und ausgewertet werden. Die verwendete Methodik zur Gewinnung der vorgeschlagenen Profile wird in der Arbeit ebenso behandelt wie Testergebnisse von Ka-Band-SOTM Terminals. Wesentlicher Beitrag dieser Arbeit ist die Entwicklung von Bewegungs- und Abschattungsprofilen für SOTM-Terminaltests. Bewegungsprofilen für die Landmobile und Maritime Umgebungen wurden entwickelt. Für jede Umgebung, zwei Klassen wurden definiert, Klasse A mit Profile die hohe Bewegungsdynamik haben und Klasse B mit Profile die relativ niedrige Bewegungsdynamik haben. Die vorgeschlagenen Bewegungsprofile wurden in der GVF-105 Standard des Global VSAT Forums berücksichtigt. Die Standardisierung solcher Profile ist notwendig, um einen fairen Leistungsvergleich verschiedener Terminals zu garantieren und solche Geräte sicher zu identifizieren, welche Interferenzen im Satellitennetz verursachen. Dies bedeutet im Ergebnis einen Gewinn für die gesamte Satellitenindustrie.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2018000470
Stürzel, Thomas;
Maßnahmen zur Verbesserung der mechanischen Eigenschaften von Recycling Al-Druckgusslegierungen für Powertrain-Anwendungen. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (xxviii, 160 Seiten, Seite xxix-lxx)
Technische Universität Ilmenau, Dissertation 2018

Im Rahmen dieser Arbeit wird das Eigenschaftsspektrum der Al-Recyclinglegierung 226D (AlSi9Cu3Fe) unter Optimierung der Zusammensetzung und Wärmebehandlung erweitert. Neben thermodynamischen Simulationen mit JMatPro® und der Vorgehensweise nach DfSS Design-for-Six-Sigma werden Legierungsversuche im Labor- und Industriemaßstab, Makrohärte- und Dichtemessungen, Kerbschlagbiege- und Zugversuche, Bestimmung der Dauerschwellfestigkeit, DSC- und Dilatometermessungen sowie Licht- und Rasterelektronenmikroskopie mit EDX und zudem Röntgendiffraktometrie durchgeführt. Die Kombination aus DfSS und JMatPro® liefert im ersten Schritt eine Einschränkung der Legierung 226D hinsichtlich intermetallischer Phasen und Dehngrenze. Laborversuche zeigen durch 0,1 wt% Mo die Unterdrückung von nadeligen ß-Al5FeSi Phasen und stattdessen die Bildung verrundeter neuartiger AlFeMoMnSi-Phasen. Dies führt zu einer um bis zu 35 % gesteigerten Bruchdehnung. Der Übertrag auf ein Druckguss-Kurbelgehäuse zeigt ebenso eine Kennwertsteigerung. Dabei können Gefügebestandteile sicher mit JMatPro® vorhergesagt werden. Dies wird durch REM und XRD bestätigt. Die reduzierte Auslagerung T5mod 200 zeigt im Vergleich zur Referenz bereits eine signifikant höhere Dehngrenze und teils erhöhte Dauerschwellfestigkeit bis Pü50 = 57 MPa. Diese Steigerungen sind auf veränderte Ausscheidungsspezies und -dichte zurückzuführen. Optimiertes Lösungsglühen findet bei 738 K (465 &ring;C) mit 3 h Haltezeit statt und liefert in Kombination mit reduzierter Auslagerung bei 473 K (200 &ring;C) die höchste Dehngrenze bis 300 MPa. Dies führt auch bei der Kurzzeitwarmfestigkeit zu deutlicher Kennwertsteigerung. Bei 500 h Temperaturbelastung ist allerdings nur bis 453 K (180 &ring;C) ein Vorteil zu erzielen, wohingegen nach 473 K (200 &ring;C) / 500 h alle Varianten auf Rp0,2 [rund] 150 MPa abfallen. Der Spagat zwischen hoher Dehngrenze und geringem irreversiblem thermischem Wachstum zeigt sich insbesondere zwischen Auslagerungstemperaturen sowie ein- bzw. zweistufiger Wärmebehandlung. Durch Optimierung der Zusammensetzung und Wärmebehandlung wird eine deutliche Steigerung der korrelierenden Werte Quality-Index QIDJR und Sicherheitsprodukt Rp0,2 x A erreicht. Außerdem besteht ein tendenzieller Zusammenhang zwischen Sicherheitsprodukt und Kerbschlagarbeit.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2018000432
Sauerteig, Daniel;
Implementierung und Parametrierung eines physikalischen Simulationsmodells einer Lithium-Ionen Zelle zur Analyse elektrochemisch-mechanischer Wechselwirkungen. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (VI, 117 Seiten, Seite VIII-XXIV)
Technische Universität Ilmenau, Dissertation 2018

Die Interkalationsreaktion von Lithium (Li) in Li-Ionen Batterien ist häufig mit signifikanten Volumenänderungen der Aktivmaterialien verbunden. Zusätzlich kommt es über die Lebensdauer zu einer irreversiblen mechanischen Ausdehnung, die u.a. durch die Reaktion von Elektrolytkomponenten an der Elektrodenoberfläche hervorgerufen wird. Die Limitierung des mechanischen Bauraums in Batteriezellen und -systemen führt in Folge der Elektrodenausdehnung zu mechanische Spannungen, die nachgewiesener Weise die Zellalterung und damit die Eigenschaften des elektrochemischen Systems beeinflussen. Für eine fundamentale Beschreibung des mechanischen Einflusses sind grundlegende elektrochemische Methoden notwendig. Zur physikalischen Beschreibung dieser Effekte stellt diese Arbeit ein umfassendes Simulationsmodell vor. Die elektrochemischen Gleichungen basieren auf dem Modell nach Newman, welches um einen mechanischen und thermischen Ansatz ergänzt wurde. Die mechanische Erweiterung ermöglicht die Berechnung der Volumenänderung der Komponenten in Abhängigkeit der Li-Konzentration und der mechanischen Randbedingungen. Die mechanisch-elektrochemische Kopplung ist dadurch abgebildet, dass die herrschenden mechanischen Drücke die Porosität und somit die ionischen Transporteigenschaften der porösen Elektroden und des Separators beeinflussen. Die temperatur- und konzentrationsabhängige Parametrisierung des elektrochemisch-mechanischen Modells wird vollständig in dieser Arbeit durchgeführt. Die Bestimmung der Eigenschaften der verwendeten Aktivmaterialien erfolgt durch Anwendung spezieller Dreielektroden-Zellen, wodurch Anode und Kathode getrennt voneinander parametrisiert werden. Besonders dünne Elektrodenschichten minimieren dabei den Einfluss des Elektrolyten. Die physikalische Beziehung zwischen dem mechanischen Druck und der ionischen Leitfähigkeit der Komponenten konnte direkt gemessen und mittels Simulationsergebnissen bestätigt werden. Der physikalische Modellansatz verdeutlicht, dass eine mechanische Verspannung von Zellen die Entstehung von Li-Konzentrationsgradienten während der Ladung und Entladung verstärkt.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2018000407
Behrens, Roland;
Biomechanische Belastungsgrenzen für Mensch-Maschine-Interaktionen in der kollaborativen Robotik. - Ilmenau, 2018. - xiv, 195, LIII Seiten
Technische Universität Ilmenau, Dissertation 2018

In industriellen Produktionsbetrieben halten kollaborative Roboter verstärkt Einzug, um Menschen bei manuellen Tätigkeiten zu unterstützen. Roboter und Menschen arbeiten zeitgleich und miteinander in gemeinsamen Arbeitsräumen. Die Mensch-Roboter-Kollaboration beschreibt die engste und flexibelste Form dieser arbeitsteiligen Zusammenführung und unterliegt strengen Sicherheitsanforderungen. Sie gewährleisten, dass der kollaborative Roboter kein gesundheitliches Risiko für den Menschen darstellt. Die größten Gefahren für den Menschen gehen von einer Kollision mit dem Roboter oder einer Klemmung von Körperteilen durch den Roboter aus. Für beide Gefahren schreibt ISO/TS 15066 vor, dass der Eintritt einer Verletzung durch die Einhaltung von biomechanischen Belastungsgrenzen zu vermeiden ist. Derzeit verzeichnet ISO/TS 15066 ausschließlich Grenzwerte für Situationen, bei denen die Gefahr von einer Klemmung ausgeht. Grenzwerte für Kollisionen fehlen bisher. Die vorliegende Arbeit schließt diese Lücke. Sie stellt Ergebnisse aus einer umfangreichen Literaturrecherche vor, die den aktuellen Kenntnisstand zu stoßartigen Belastungen und ihren Verletzungsfolgen aufzeigen. Keine der gesichteten Quellen beinhaltet Belastungswerte, die sich zur Festlegung von Grenzwerten eignen, um Menschen vor Verletzungen durch Kollisionen mit einem Roboter zu schützen. Ausgehend von einer sorgfältigen Analyse zu Hergang und Wirkung eines Stoßes wird im weiteren Verlauf der Arbeit eine Probandenstudie entwickelt, deren Design die spezifischen Anforderungen an die gesuchten Grenzwerte erfüllt. Der Methoden- und Versuchsplan sah vor, die Probanden an bis zu 21 Körperstellen mit einem Stoßpendel zu belasten. Im Zuge der Versuche wurde die Belastungsintensität schrittweise erhöht, bis ein Schmerz oder eine leichte Verletzung auftraten (in Form eines Hämatoms oder einer Schwellung). Die Auswertung der Versuche zum Schmerzeintritt ergab eine Tabelle mit den gesuchten Grenzwerten, die sich dazu eignen, ISO/TS 15066 zu ergänzen. Aus dem Studienteil zum Verletzungseintritt gingen aufgrund eines kleineren Probandenkollektivs allenfalls Orientierungswerte hervor. Trotz ihrer Vorläufigkeit vermitteln sie einen interessanten Einblick auf jene Form einer Kollisionsfolge. Der abschließende Vergleich der hier ermittelten Grenz- und Orientierungswerte mit vergleichbaren Sekundärdaten zeigt, dass die Arbeit den aktuellen Kenntnisstand in der Wissenschaft fortschreibt. Darüber hinaus gehen mit den Ergebnissen zahlreiche und interessante Anknüpfungspunkte für weiterführende Arbeiten einher.



Xu, Shipu;
Template-assisted fabrications of nanostructure arrays for gas-sensing applications. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (XII, 91 Seiten)
Technische Universität Ilmenau, Dissertation 2018

Hochempfindliche Gasdetektion stellt hohe Anforderungen an die zu verwendende Messplattform, für welche Nanostrukturarray-basierte Messfühler vielversprechende Kandidaten sind. Die Template gestützte Methode stellt eine effektive Grundlage zur Herstellung verschiedener Nanostrukturarrays dar. In dieser Arbeit werden mit Hilfe von ultradünnen Aluminiumoxid-Membranen oder kolloidalen Monolayern als Templat zwei verschiedene Arten von Nanostrukturarray-Gassensoren (Nanorod-Arrays und dünne Schichten mit angeordneten dreieckigen Wölbungen) hergestellt, welche aufgrund ihrer Morphologie eine erhöhte Leistungsfähigkeit aufweisen. Bei der Gasdetektion mit SnO2-Nanorod-Arrays wurde die optimierte Gasmessung durch Anpassung der Nanorod-Länge auf 20 bis 340 nm erreicht. Charakterisiert wird sie durch eine niedrige Detektionsschwelle von 3 ppm Ethanol-Gas bei Raumtemperatur und einer Nanorod-Länge von 40 nm. Bei den SnO2-Dünnschicht-Gassensoren erhöhen die dreieckigen konvexen Wölbungen die aktive Adsorptionsfläche für die Gasmessempfindlichkeit. Die Anordnung dieser adsorptionsaktiven Punkte mit unterschiedlicher Periodizität (289, 433, 577 und 1154 nm) zeigt eine Sensitivitätsabhängigkeit auf, wobei eine niedrige Detektionsschwelle von 6 ppm Ethanol-Gas erreicht wird. Die obigen Korrelationen zwischen Morphologie und Leistungsfähigkeit bestätigen, dass die Template gestützte Herstellung von Nanostrukturarrays zur Produktion von hochleistungsfähigen Gassensoren effizient genutzt werden kann.



https://www.db-thueringen.de/receive/dbt_mods_00037471
Brumm, Stefan;
Leistungssteigerung beim Lichtbogenschweißen durch Verwendung von Drahtelektroden größeren Durchmessers. - Ilmenau : Universitätsverlag Ilmenau, 2018. - 1 Online-Ressource (xvii, 141 Seiten). - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 6)
Technische Universität Ilmenau, Dissertation 2018

Bei der Herstellung geschweißter Konstruktionen ergeben sich heute aufgrund wirtschaftlicher Gesichtspunkte hohe Anforderungen an die Quantität, ohne dass dabei die Qualität vernachlässigt werden kann. Das Schweißverfahren bestimmt nicht nur die Mikrostruktur des erstarrten Gefüges und somit die mechanisch-technologischen Verbindungseigenschaften, sondern auch die Wirtschaftlichkeit. Bisher werden beim MSG-Schweißen Drahtelektroden mit Durchmessern bis zu 2,4 mm eingesetzt. In der vorliegenden Arbeit wurde untersucht, wie sich die Vergrößerung des Drahtelektrodendurchmessers auf den MSG-Prozess in seiner Gesamtheit auswirkt. Dafür wurde der Stand der Technik der Hochleistungslichtbogenschweißverfahren beleuchtet und ein Modell aufgestellt. Die experimentellen Versuche erfolgten mit einer vollelektronischen, sekundär getakteten Hochleistungs-Stromquelle und teilten sich in zwei Schwerpunkte. Zum einen zur Schaffung von Grundlagen zur Lichtbogenausbildung sowie zum Prozessverständnis und zum anderen zur Qualifizierung des MSG-Dickdraht-Verfahrens. Dabei stand die Wechselwirkung zwischen Lichtbogen und Schweißnaht im Mittelpunkt. Überprüft wurden mögliche technologische Vorteile. Für die Untersuchung kamen Massivdrahtelektroden (G3Si1) mit unterschiedlichen Durchmessern (dd = 3,2 und 4,0 mm) zum Einsatz. Zur Prozess- und Lichtbogenanalyse wurde auf einem rohrförmigen Probekörper aus niedrig legiertem Stahl sowohl mit CV- als auch CC-Charakteristik geschweißt. Messtechnisch erfasst wurden Stromstärke und Spannung. Synchronisierte Hochgeschwindigkeitsaufnahmen dienten der Betrachtung und Beurteilung von Tropfenentstehung, -ablösung und Lichtbogenausbildung sowie Schmelzbaddynamik. Für die Ermittlung der Schweißverbindungseigenschaften wurden Bleche mit den Dicken von 12, 15 und 20 mm geschweißt. Durch Versuche konnte die optimale Schutzgaszumischung von 30 % Ar Rest CO2 in Bezug auf die Spritzerbildung und das innere sowie äußere Nahtaussehen ermittelt werden. Höhere Anteile an Ar waren nicht zielführend. Die umfassende Prozess- und Lichtbogenanalyse zeigte, dass beim MSG-Schweißen mit "dicken" Drahtelektroden die klassische schweißleistungsabhängige Einteilung der Lichtbogenarten, wie vom MSG-Schweißen mit Drahtdurchmessern bis 1,6 mm bekannt, in Kurz-, Übergangs- und Sprühlichtbogen nicht möglich ist. Ein sehr kurzer Lichtbogen, der unterhalb der Blechoberfläche brennt, erwies sich in allen untersuchten Leistungsbereichen als vorteilhaft, da die Spritzerhäufigkeit mit Steigerung der Lichtbogenlänge zunimmt. Aufgrund der hohen Regelgeschwindigkeit der Schweißmaschine ist ein Schweißen mit solch kurzen Lichtbögen möglich. Bei langen Lichtbögen, die aus der Blechoberfläche heraustreten, wird das Schweißgut aus dem Bereich der Fügezone verdrängt und es kommt zum "Schneid-Effekt". Das Lichtbogenplasma ist dominiert von Metalldampf. Dadurch hat die Schutzgaszusammensetzung keinen wesentlichen Einfluss auf die innere Schweißnahtgeometrie. Vergleichende Schweißversuche zeigten, dass bei Verwendung der CC-Kennlinie sowohl der Prozess stabiler abläuft als auch die Spritzerbildung geringer ist als bei Nutzung der CV-Kennlinie. Bei jeder Tropfenablösung ändert sich die Lichtbogenlänge, die durch die Regelung der Schweißmaschine ausgeglichen wird. Eine Delta U-Regelung verursacht eine Spannungsänderung, die sich auf eine spritzerarme Tropfenablösung positiv auswirkt. Hingegen verursacht die Delta I-Regelung bei einer Lichtbogenlängenänderung Stromschwankungen von bis zu 400 A, was dazu führt, dass die Tropfen unter Entstehung vieler Spritzer regelrecht weggesprengt werden. Für die Schweißverbindungen wurde deshalb mit der CC-Kennlinie gearbeitet. Beim UP-Schweißen wird die Schweißmaschinen-Kennlinie nach dem Drahtdurchmesser gewählt. Eine solche Auswahl kann beim MSG-Dickdraht-Schweißen nicht erfolgen. Die vom UP-Schweißen bekannte Faustformel der Strombelastbarkeit der Drahtelektrode von 200 multipliziert mit dem Drahtdurchmesser (Ergebnis in Ampere) kann für das MSG-Dickdraht-Schweißen angewendet werden. Es ist ein stabiler Prozess mit akzeptabler Schweißnahtqualität beim MSG-Schweißen mit einem Drahtelektrodendurchmesser von 3,2 mm und einer Stromstärke von 640 A möglich. Abschmelzleistungen von über 8 kg/h sind ohne Weiteres erreichbar. Durch Änderung der Streckenenergie infolge der Erhöhung der Stromstärke ist die Einschweißtiefe beeinflussbar. Ein weiterer Einflussfaktor auf die innere Schweißnahtgeometrie ist die Schweißgeschwindigkeit. Eine Steigerung der Schweißgeschwindigkeit führt aufgrund der Senkung der Streckenenergie zur Reduzierung der Einschweißtiefe. Mit dem verwendeten Versuchsaufbau konnte eine maximale Schweißgeschwindigkeit von 120 cm/min realisiert werden. Die obere und untere Grenze für die Schweißgeschwindigkeit ist abhängig von der Schweißleistung. Im Vergleich mit dem UP-Schweißen ist in Bezug auf die Nahtausbildung festzuhalten, dass die Oberflächenschuppung und Formung des Nahtäußeren beim UP-Schweißen wesentlich besser ausfällt. Eine Einstellung der Nahtbreite über die Lichtbogenspannung, wie es beim UP-Schweißen möglich ist, kann bei MSG-Dickdraht-Schweißen aufgrund der sehr kurz einzustellenden Lichtbögen nicht realisiert werden. Die Nahtbreite ist nur geringfügig über die Schweißgeschwindigkeit einstellbar. Es muss erwähnt werden, dass das MSG-Dickdraht-Schweißen im Gegensatz zum UP-Schweißen ein sehr sensibler Prozess ist, bei dem kleinste Prozessinstabilitäten zu Poren und -nestern im Schweißgut führen können. Um die Qualität der Schweißverbindung zu bestimmen, wurden verschiedene zerstörungsfreie und zerstörende Prüfverfahren eingesetzt. Die Sichtprüfungen sowie die Farbeindringprüfungen ergaben, dass die Schweißnähte hinsichtlich der Oberfläche in Bezug auf Einbrandkerben, Oberflächenporen und Risse bis auf wenige Ausnahmen eine hohe Qualität aufwiesen. Bei der Durchstrahlungsprüfung wurde festgestellt, dass aufgrund einer diskontinuierlichen Drahtförderung und Schweißbewegungen Poren im Nahtinneren entstanden. Porenfreie Schweißnähte können aber bei exakter Drahtförderung und kontinuierlicher Schweißgeschwindigkeit prozesssicher erzeugt werden. Härtespitzen im Bereich der Wärmeeinflusszone an der Schmelzlinie erreichen Maximalwerte von 326 HV10. Darüber hinaus erwies sich die Kerbschlagzähigkeit des Schweißgutes als weitaus besser als die des Grundwerkstoffes. Die Zugproben versagten bis auf eine Ausnahme im Grundwerkstoff. Ursache hierfür war ein Porennest am Nahtende, welches durch die oben genannte Prozessinstabilität entstand. Bei Einhaltung aller prozessbedingten Besonderheiten und unter Beachtung der verfahrensspezifischen Randbedingungen können mit dem MSG-Dickdraht-Verfahren anforderungsgerechte Schweißnähte hergestellt werden. Die Untersuchungen ergaben, dass die Lage/Gegenlage-Technik empfehlenswert ist. Schweißungen an 20 mm Blechen konnten mit einer Lage pro Seite und Schweißgeschwindigkeiten von bis zu 90 cm/min prozesssicher ausgeführt werden.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2018000361
Xu, Haifeng;
Hochpräzise Bestimmung der Form- und Orthogonalitätsabweichungen einer Spiegelecke und Untersuchung des Verhaltens unter veränderlichen Umweltbedingungen. - Ilmenau : Universitätsverlag Ilmenau, 2018. - 1 Online-Ressource (XVI, 179 Seiten)
Technische Universität Ilmenau, Dissertation 2017

Dissertation erschienen unter dem Titel: Hochpräzise interferometrische Bestimmung der Formabweichungen einer Spiegelecke und Untersuchung des Verhaltens unter veränderlichen Umweltbedingungen

Die rasanten Entwicklungen der letzten Jahre insbesondere in der Halbleitertechnik und in verschiedenen Präzisionstechnologien erfordern immer präzisere Fertigungsprozesse, die bis an die physikalischen Grenzen vordringen. Deshalb wurde am Institut für Prozessmess- und Sensortechnik der Technischen Universität Ilmenau eine neue Nanopositionier- und Nanomessmaschine (NPM-Maschine) NPMM-200 mit einem Messvolumen von 200 mm x 200 mm x 25 mm und einer gesicherten Messauflösung von 80 pm entwickelt. Das Koordinatensystem der NPM-Maschinen wird durch das verwendete Interferometer-Raumspiegelsystem gebildet. Die Herstellung hochpräziser Spiegelflächen einer Raumspiegelecke mit höchsten Anforderungen an die Ebenheit ist nicht nur technisch schwierig, sondern auch sehr kostspielig. Die Fertigungstoleranzen limitieren die Ebenheit der Spiegelflächen der Raumspiegelecke und deren Winkellage zueinander. Daher ist es notwendig, vorhandene systematische Abweichungen der Spiegelflächen zu ermitteln und zu korrigieren. Gegenstand der vorliegenden Arbeit ist die hochpräzise Bestimmung der Topographien der Spiegelflächen der Raumspiegelecke mit einem Fizeau-Interferometer und der Stitching-Technologie. Das Subapertur-Stitching-Interferometer für sehr große Messbereiche bis 350 mm x 350 mm besteht aus einem hochpräzisen XY-Verschiebetisch, einem handelsüblichen Fizeau-Phasenschiebe-Interferometer mit einer 6 Zoll Apertur und einer Raumspiegeleckebaugruppe mit integrierter Justiereinrichtung. Eine speziell entwickelte Software "SmartStitching" wird verwendet, um die aufgenommenen Messdaten der Subaperturen zu einer gesamten Topographie zu rekonstruieren. Der Stitching-Algorithmus kompensiert nicht nur Positionierfehler, die durch Führungsfehler des Lineartisches während der Verschiebung verursacht werden, sondern auch systematische Fehler wie z.B. Abbildungsfehler. Die absolute Topographie des Referenzspiegels wurde im Vorfeld durch den Multi-Rotations-Drei-Platten-Test kalibriert. Bei bekannter Formabweichung des Referenzspiegels kann der vorhandene systematische Fehler des Phasenschiebe-Interferometers korrigiert werden. Die Topographie des Referenzspiegels wurde dann im Datenverarbeitungssystem gespeichert, damit sie zur Korrektur systematischer Fehler verwendet werden kann. Weiterhin werden in dieser Arbeit andere Einflussfaktoren untersucht, z.B. Messfehler, die durch das Subaperture-Stiching-Interferometer verursacht werden, und dem akkumulierten Fehler, der durch den Stitching-Algorithmus verursacht wird. Ein weiterer Schwerpunkt der vorliegenden Arbeit ist die hochpräzise Bestimmung der Abweichung der Orthogonalität zwischen den Messspiegeln (xy-, xz- und yz-Messspiegel) einer Raumspiegelecke. Zwei Messverfahren wurden für die Bestimmung der Winkelfehler eingesetzt. Die Winkel zwischen den x- und y-Spiegeln werden mit Hilfe von zwei Pentaprismen, einem kalibrierten rechtwinkligen Prisma und einem hochauflösenden elektronischen Autokollimator bestimmt. Diese Kalibriermethode verwendet zwei horizontal ausgerichtete Pentaprismen und ein hochpräzises rechtwinkliges Prisma als 90&ring;-Winkelnormal, um Winkelfehler zwischen der x- und y-Spiegelfläche einer Raumspiegelecke zu bestimmen. Das hochpräzise rechtwinklige Prisma wurde im Vorfeld kalibriert. Die Winkel zwischen den x- und z-Spiegeln werden mit Hilfe von zwei gegeneinander ausgerichteten Pentaprismen und einem Autokollimator kalibriert. Der Autokollimator ist über ein Pentaprisma entlang der Normalen des z-Spiegels ausgerichtet. Dieses Pentaprisma bewegt sich nur entlang der x-Richtung, bis er das zweite Pentaprisma trifft und richtet nun auch das zweite Pentaprisma so, dass der Winkel der x-Spiegelfläche mit dem AKF gemessen werden kann. Die Winkelabweichung zwischen den x- und z-Spiegeln der Raumspiegelecke ist der Differenzwert vom Messwert des Autokollimators und dem Winkelfehler beider Pentaprismen. Die Rechtwinkligkeitsabweichung zwischen den y-und z-Spiegeln wird in gleicher Weise kalibriert. Um systematische Fehler zu minimieren, ist es erforderlich, ein Kalibrierverfahren für Pentaprismen in vertikaler Ausrichtung mittels eines Fizeau-Interferometers umzusetzen. Der Drei-Pentaprismen-Test wird verwendet, um die absolute Winkelfehler der Pentaprismen in vertikaler Lage zu bestimmen. Die Genauigkeit für diese Methode wird auf 0,1" geschätzt und wird durch die Kalibrierungsunsicherheit der Pentaprismen bestimmt. Alle gemessenen Orthogonalitätsabweichungen werden abschließend quantifiziert und mit den Topographiedaten der Raumspiegelecke für Korrektur kombiniert.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2017000501
Kühndel, Jonas;
Thermohydraulische Untersuchungen an additiv gefertigten tiefengewellten Rippen für Kühlungsanwendungen. - Aachen : Shaker Verlag, 2018. - XIV, 151 Seiten. - (Schriftenreihe des MAHLE Doktorandenprogramms ; Band 6)
Technische Universität Ilmenau, Dissertation 2018

ISBN 3-8440-6287-4

Eine Steigerung der Effizienz von Wärmeübertragern birgt das Potenzial Energiebedarf, Material, Bauraum und Kosten zu reduzieren. Luftgekühlte Motorkühlungswärmeübertrager wie sie bei Bau- und Landmaschinen eingesetzt werden zeichnen sich durch ein Betriebsumfeld aus, das von Verschmutzungspartikeln wie Staub und Pflanzenmaterial geprägt ist. Sie müssen gegenüber Verunreinigungen resistent und mittels Druckluft zu reinigen sein. Deshalb werden auf ihrer Luftseite tiefengewellte Wellrippen eingesetzt. Die bestehenden Korrelationen zur Beschreibung des Wärmeübergangs und des Druckverlustes in Abhängigkeit der tiefengewellten Rippengeometrie genügen allerdings bisher nicht den Ansprüchen bei einer präzisen Auslegung von Wärmeübertragern. In der vorliegenden Arbeit wird die Entwicklung einer neuen Methodik vorgestellt, die die Designfreiheitsgrade des Selektiven Laserschmelzens (SLM) nutzt, um eine experimentelle Analyse des thermohydraulischen Verhaltens von praxisrelevanten Geometrieparametern wie Amplitude, Wellenlänge und Grundform bei tiefengewellten Wellrippen durchzuführen. Der Einfluss dieser Geometrieparameter auf Leistung und Druckverlust wird anhand experimenteller, thermodynamischer Leistungsmessungen analysiert. Im Zuge der Arbeit wird hierfür ein Prüfstand zur Untersuchung SLM-gefertigter Versuchselemente mit Wellrippenstrukturen entwickelt. Mit hoch genauen, reproduzierbaren Messungen werden anhand von und Darcy friction factor Wärmeübertragung und Druckverlust der Wellrippen analysiert. Dabei werden kleinskalierte Versuchselemente gefertigt und hinsichtlich Maßhaltigkeit, Porosität und Oberflächenrauigkeit untersucht. Es wird der Effekt der erhöhten Oberflächenrauigkeiten des SLM experimentell und mit numerischen Simulationen behandelt. Die maßhaltige Realisierung der Geometrieparametervariationen in feinen Schritten bildet eine engmaschige Versuchsmatrix für den relevanten Parameterbereich der Wellenausprägungen verschiedener tiefengewellter Grundformen. Die bei konventioneller Rippenfertigung auftretenden Effekte, wie der des Anstellwinkels sowie der Wellenmodulation werden untersucht. Auf Basis der Messdaten können neue, präzisere empirische Korrelationen entwickelt werden, welche zuverlässig und präzise das Verhalten von tiefengewellten Wellrippen modellieren. Somit kann eine optimale Auslegung von Wärmeübertragern erfolgen.



Sen, Seema;
Development of PVD-coated and nanostructured reactive multilayer films. - Ilmenau : Universitätsverlag Ilmenau, 2018. - 1 Online-Ressource (XVII, 166 Seiten). - (Werkstofftechnik aktuell ; Band 19)
Technische Universität Ilmenau, Dissertation 2018

Als eine neue Klasse von energetischen Materialien speichern die reaktiven Multilagensysteme die chemische Energie. Sie setzen eine große Menge der Energie durch eine schnelle Reaktionspropagation nach einer Aktivierung in der Form von Wärme frei. Im Zusammenhang mit dem zunehmenden Potenzial in den hochmodernen Fügetechnologien und den anderen Industrieanwendungen finden solche Typen von reaktiven Mehrschichtensystemen große Aufmerksamkeit. Das hohe Interesse konzentriert sich auf die Anwendung der sehr schnellen und lokalisierten Energie Freisetzung. Die Kenntnisse über die Materialkombinationen und Morphologie spielt eine wichtige Rolle, um reaktive Mehrschichtensysteme mit entsprechenden Reaktionseigenschaften und Wärmemenge herzustellen. Im Mittelpunkt dieser Arbeit stehen daher die Entwicklung der Schichtweise abgeschiedenen reaktiven Multilagenschichten und die Charakterisierung der Reaktionseigenschaften. Die eingestellten Bereiche können wie folgt zusammengefasst werden; - Die reaktiven Multilagenschichten von binären Ti-Al, Zr-Al und ternären Ti-Al-Si Kombinationen wurden mittels Magnetronsputtern-Deposition produziert, die zu der niedrigen Medium oder hohen Energieklasse gehören. - Die selbstverbreitenden Reaktionseigenschaften wurden in Bezug auf Wärme, Temperatur, Reaktionsgeschwindigkeit und Propagationsweisen charakterisiert. - Herstellung der großflächigen freistehenden reaktiven Folien wurde aufgezeigt. Für die Bestimmung der Reaktionswärme wurde die Standardbildungsenthalpie zu Beginn der Arbeit durch thermodynamische Simulationen mit Thermo-Calc 3.1 berechnet. Die Menge der Reaktionswärme hängt von der chemischen Zusammensetzung des Ti-Al-, Zr-Al- und Ti-Si Systems ab. Dann wurden Ti/Al, Zr/Al und Ti/Si/Ti/nAl Multilagenschichten für unterschiedliche Periodendicken, Molverhältnisse und Multischichtaufbau abgeschieden. Die Ti/nAl (n = 1-3) reaktiven Multilagenschichten wurden mit verschiedenen Al-Molverhältnissen hergestellt. Die Reaktionsgeschwindigkeit änderte sich zwischen (0.68±0.4) m/s und (2.57±0.6) m/s. Die Reaktionstemperatur änderte sich im Bereich 1215-1298 &ring;C. Die 1Ti/3Al Schicht zeigt auch eine instationäre Reaktionspropagation mit der Kräuselungsbandbildung. Außerdem wurden der Temperaturfluss und die chemische Vermischung in nanoskalige Schichten von 1Ti/1Al Zusammensetzung (für 20 nm Periodendicke) erstmals mittels Strömung Simulation berechnet. Die Ergebnisse zeigten, dass der Temperaturfluss viel schneller als das chemische Mischen während der fortschreitenden Reaktion ist. Die 1Zr/1Al Schichten wurden mit der verschiedenen Periodendicken von 20 nm bis 55 nm untersucht. Die Reaktionsgeschwindigkeit und Reaktionstemperatur änderten sich im Bereich 0.23-1.22 m/s und 1581-1707 &ring;C. Hier wurde auch die Oxidationsreaktion während der fortschreitenden Reaktion aufgezeigt. Zum ersten Mal wurden ternäre Multilagenschichten von Ti, Si und Al-Reaktanten für verschiedene Schichtenanordnung (Si/Ti/Al/Si und Ti/Si/Ti/nAl, n = 1-3) abgeschieden. Hier, Reaktionseigenschaften hängten von Schichtenanordnung und Al-Molverhältnissen ab. Für den Ti/Si/Ti/Al Schicht konnte eine maximale Reaktionspropagation von (9.2±2) m/s und eine Reaktionstemperatur von (1807±30) &ring;C bestimmt werden. Danach wurden die vorgenannten ternären Folien erstmals in einem reaktiven Fügeprozess eingesetzt. Für die Herstellung großflächiger freistehenden RMS, würde der Einfluss der Substratwerkstoffe in Hinblick auf der Ablöseverhalten nach der Beschichtung untersucht. Die Verwendung des Kupfersubstrats zeigt eine einfache und schnelle Weise, freistehende Folie zu produzieren. Diese Methode ermöglicht die Produktion von freistehenden 1Zr/1Al und 1Ti/1Si/1Ti/Al Folien mit der großen Fläche von 11 cm × 2 cm × 45 [my]m und 8 cm × 4 cm × 52 [my]m. Außerdem zeigt diese Arbeit einen verbesserten Herstellungsprozess mit der Skalierbarkeit und homogenen Mikrostrukturen von Multilagenschichten. Die Untersuchungen in dieser Arbeit zeigen, dass die Zusammensetzung und Morphologie die Reaktionseigenschaften unmittelbar beeinflussen und bieten potenzielle Möglichkeiten als eine kontrollierbare Wärmequelle auf der Basis Ti/Al-, Zr/Al- und Ti/Si/Al RMS zur Verfügung stellen. Andererseits schließt die Reaktion die Effekte der Oxidation und instationären Reaktionspropagation ein, die dabei hilfreich wären, die Reaktionskinetik zu verstehen. Die Ergebnisse in dieser Arbeit können als ein Beitrag zu einem Modell um ideale RMS in Bezug auf Reaktionseigenschaften zu entwickeln.



https://www.db-thueringen.de/receive/dbt_mods_00035336
Thomisch, Marco;
Methodik zur Bestimmung optimaler Parameter beim Drahtumformen. - Ilmenau : Universitätsverlag Ilmenau, 2018. - 1 Online-Ressource (XIX, 202 Seiten). - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; Band 31)
Technische Universität Ilmenau, Dissertation 2018

Mehrstufige Drahtumformprozesse stellen die fertigungstechnische Grundlage für technisch anspruchsvolle Bauteile dar. Bei diesen mehrstufigen Prozessen ist die Ermittlung der resultierenden Eigenspannungen sowohl analytisch als auch numerisch bisher nur bedingt möglich. Zielsetzung der vorliegenden Arbeit ist die Bereitstellung einer Methodik zur Bestimmung der optimalen Parameter beim Drahtumformen. Als erstes wird die zur Beschreibung des Umformvorgangs nötige Werkstoffcharakterisierung durchgeführt. Diese Charakterisierung basiert auf Experimenten, die sowohl den BAUSCHINGER-Effekt als auch Ver- und Entfestigungsmechanismen untersuchen und quantifizieren. Darauf aufbauend folgt der zweite Teilbereich, die analytische Beschreibung des mehrstufigen Umformprozesses. Durch Anwendung dieses deskriptiven Algorithmus werden sowohl die (Eigen-)Spannungen als auch die elastischen und plastischen Verformungen zu jedem Zeitpunkt des Umformvorgangs bestimmt. Als dritter Teilbereich werden verschiedene Optimierungsalgorithmen mit unterschiedlichen Zielsetzungen für den deskriptiven Algorithmus vorgestellt.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018000300
Lux, Rüdiger;
Wärmebehandlung von SiCr-legiertem, ölschlussvergütetem Federstahldraht. - Ilmenau : Universitätsverlag Ilmenau, 2018. - 1 Online-Ressource (XXI, 149 Seiten). - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; Band 30)
Technische Universität Ilmenau, Dissertation 2018

Diese Arbeit befasst sich mit der Frage, inwieweit durch die Kombination der Wärmebehandlungsschritte der Draht- und Federnfertigung die mechanische Auslastbarkeit und die Lebensdauer von Schraubendruckfedern gesteigert werden können. Es wird ein analytisches Modell vorgestellt, welches die Berechnung von Temperatur – Zeit – Verläufen der Drahtvergütung ermöglicht. Anhand von Laborversuchen werden für jeden Teilprozess der Wärmbehandlung optimale Regime bestimmt, die Kenngrößen für die analytische Berechnung ermittelt sowie das Berechnungsmodell validiert. Verschiedene Einflussfaktoren auf die Gefügeausbildung des Drahtmaterials sowie die Auswirkungen aller Prozessabschnitte auf die mechanischen Eigenschaften des vergüteten Feder-stahldrahtes werden diskutiert. Es wird dargelegt, dass torsionsbelastete Federn aus optimiert hergestelltem Material einen deutlich gesenkten Setzbetrag sowie im Rahmen von Dauerschwingversuchen eine gesteigerte Lebensdauer im Zeitfestigkeitsbereich aufweisen.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018000210
Bances, Enrique;
Wireless modular multi-sensor systems for the analysis of mechanical coupling between respiration and locomotion in mammals. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (xviii, 120 Seiten)
Technische Universität Ilmenau, Dissertation 2018

Die Kopplung zwischen Fortbewegung und Atmung (Locomotion-Respiration-Coupling LRC) basiert bei Säugetieren nach den gängigen Modellvorstellungen sowohl auf mechanischen als auch neuromuskulären Bindungen zwischen beiden Prozessen. Zur artübergreifenden Analyse dieser Interaktionen fehlt es bisher an einfach anpassbaren, modularen Systemen. Damit fehlt es an belastbaren Messdaten zur Beantwortung der Fragen, wie Fortbewegungszyklen zum Atemfluss beitragen oder wie die Atemmuskelkontraktionen die Fortbewegung beeinflussen. Die meisten der bisherigen artspezifischen Studien konzentrierten sich auf LRC während des Laufens, aber einige analysierten auch andere Aktivitäten wie Radfahren, Fliegen (Vögel) oder Tauchen. In dieser Arbeit wurde basierend auf einem modularen Multisensor-Funksystem eine neuartige Methode entwickelt, die es ermöglicht, die Interaktion zwischen Fortbewegung und Atmung bei Säugetieren zu analysieren. Das entwickelte System besteht aus vier Komponenten für die LRC-Analyse: (1) einer Thoraxbinnendruckmessung basierend auf einem implantierbaren Gerät, (2) ein Volumenstrommodul zur Messung des lokomotorisch getriebenen Luftvolumens (LDV - Locomotor driven air volume) während des Atemzyklus, (3) ein Schrittidentifikationsmodul zur Berechnung des LRC-Verhältnisses (Schritt/Atem) und (4) ein Muskelaktivitätsmodul zur Analyse des Verhaltens des Atemmuskels während der Kopplung. Diese Module sind freizügig kombinierbar. Die drahtlose Kommunikation erlaubt es, Untersuchungen im Freifeld durchzuführen, wobei sich das Tier (oder der Mensch) im Gegensatz zu früheren Studien, in denen sich das Subjekt mit einer konstanten Geschwindigkeit auf einem Laufband bewegt, frei mit einer selbstgewählten Laufgeschwindigkeit bewegen kann. Diese Möglichkeit könnte das Stressniveau von Tieren während der Experimente signifikant reduzieren, die Analyseergebnisse liegen absehbar näher am "natürlichen" Laufverhalten (unrestrained) als jene von Laufbandstudien (restrained). Als experimenteller Test des Systems wurde die Methode am Menschen angewendet. Das Respiratory Flow Module (RFM) wurde basierend auf einer „ergonomischen Maske“ und einem Strömungssensor entwickelt. Das Respiratory Muscles Module (RMM) nutzte vier Oberflächen-Elektromyographie-Sensoren (sEMG) an der Bauch- und Brustmuskulatur. Am Knöchel jedes Beines befanden sich zwei Beschleunigungssensoren, um den Fuß-Boden-Kontakt zu erkennen. Fünfzehn Teilnehmer wurden bei einem Sprint-Lauftest in einem Sportzentrum (50 m x 30 m) der Technischen Universität Ilmenau beobachtet. Die erhaltenen Ergebnisse bestätigten ein variables LRC-Verhältnis von 2:1, 3:1, 4:1 wie in früheren Studien gezeigt wurde, zeigte jedoch zusätzlich im Falle des LDV die Nutzung der annähernd maximal möglichen Amplitude (Vitalkapazität) auf. Das Experiment belegt, dass die neue Methode zur Untersuchung von Säugetieren verwendet werden kann.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018000287
Berthold, Theresa;
Gaswechselwirkungsreaktionen mit Indiumoxidschichten und deren Einfluss auf die elektronischen Oberflächeneigenschaften. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (IV, 135 Seiten)
Technische Universität Ilmenau, Dissertation 2018

Die durch die Anwendung von Indiumoxid (In2O3) als Gassensor motivierte Arbeit fokussiert sich auf die Untersuchung von Gaswechselwirkungen mit der In2O3 Oberfläche. Das Hauptaugenmerk liegt auf der Erstellung eines Modells der Gaswechselwirkung solcher Sensoren. Daher wurde ein System reduzierter Komplexität von einkristallinen und texturierten Proben untersucht, im Gegensatz zu den sonst in der Sensorik üblichen polykristallinen Schichten. Die Charakterisierung der Gaswechselwirkung erfolgte durch in Echtzeit-Widerstandsmessungen sowie in situ Photoelektronenspektroskopie (XPS und UPS) nach der Gasadsorption bzw. -desorption. Die Kombination beider Messmethoden ermöglicht die Korrelation des Sensorkennwerts (Widerstandsänderung) mit der Änderung der elektronischen Oberflächeneigenschaften, wie Austrittsarbeit, Oberflächenbandverbiegung oder Oberflächenladungsträgerkonzentration. Über die Substratwahl (Y-stabilisiertes Zirkonoxid oder Aluminiumoxid) wurde die Kristallinität und Orientierung der Indiumoxidschichten, gewachsen mittels plasmaunterstützter Molekularstrahlepitaxie (PAMBE), eingestellt. Im Initialzustand weisen alle untersuchten Proben eine Oberflächenelektronenakkumulation auf. Diese kann durch das Dotieren des In2O3 mit Elektronenakzeptoren (Mg oder Ni) leicht gesenkt werden. Die Gaswechselwirkungsexperimente erfolgten an mittels PAMBE hergestellten nominell undotierten In2O3 Schichten. Untersucht wurde zunächst die Reaktion der Indiumoxidoberfläche mit reaktivem Sauerstoff in Form eines Sauerstoffplasmas. Das Sauerstoffplasma führt zu einer Bedeckung der Oberfläche mit Sauerstoffadsorbaten von 0,7 bis 1,0 Monolagen, bei gleichzeitiger Verarmung der Oberflächenelektronenakkumulation. Die Wechselwirkungen der oxidierend wirkenden, untersuchten Gase (Sauerstoff, Ozon, Stickstoffmonoxid) mit der Indiumoxidoberfläche zeigen tendenziell gleiche Effekte auf die chemischen und elektronischen Oberflächeneigenschaften, jedoch deutlich schwächer ausgeprägt. So wird eine deutlich geringere Bedeckung der Oberfläche mit sauerstoffhaltigen Adsorbaten erreicht und die Oberflächenelektronen werden nicht vollständig verarmt. Bei diesen Experimenten konnte eine qualitative Korrelation der Oberflächenelektronenkonzentration und der Schichtleitfähigkeit des In2O3 beobachtet werden.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018000296
Wiegmann, Christoph;
Charakterisierung von NiP-Schichten und alternativen Beschichtungssystemen als Verschleiß- und Korrosionsschutz auf Aluminiumknetlegierungen. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (X, 181 Blätter)
Technische Universität Ilmenau, Dissertation 2018

Verdichterräder in Abgasturboladern werden nach Stand der Technik aus der hochwarmfesten Aluminiumknetlegierung EN AW 2618A hergestellt. Bei Motoren mit Niederdruck-Abgasrückführung müssen diese aus Gründen des Verschleiß- und Korrosionsschutzes zusätzlich beschichtet werden. Die verwendeten Nickel-Phosphor-Schichten haben jedoch einen erheblichen Einfluss auf die dynamische Belastbarkeit. Ziel dieser Dissertation ist es daher, zum einen die Belastungen des Verdichterrades in geeigneten Versuchen nachzustellen und zum anderen eine vergleichbare Datenbasis für verschiedene Verdichterradgrundwerkstoffe und -beschichtungen zu erstellen. Die Belastungen des Verdichterrades werden hierbei in Zugschwellversuchen, verschiedenen Korrosionsversuchen, mittels Kavitation und einer thermischen Alterung nachgestellt. Als untersuchte Grundwerkstoffe werden der aktuell verwendete Werkstoff EN AW 2618A und eine alternative Knetlegierung AA 2055 betrachtet. Als mögliche Beschichtungen werden Nickel-Phosphor-Schichten und plasmachemische Aluminiumoxidschichten untersucht. Im Vergleich der beiden Grundwerkstoffe zeigt sich dabei, dass der alternative Werkstoff in Bezug auf die dynamische Belastbarkeit und die Verschleißbeständigkeit dem aktuell verwendeten Werkstoff deutlich überlegen ist. Die Korrosions- und Alterungsbeständigkeit ist jedoch geringer. Bei den beiden Beschichtungsvarianten zeigen sich die Nickel-Phosphor-Schichten in Bezug auf die Verschleiß- und die Korrosionsbeständigkeit als beste Variante. Die Lebensdauer der Schichten ist jedoch verglichen mit den plasmachemischen Aluminiumoxid-schichten geringer. Durch eine geeignete Anpassung der Nickel-Phosphor-Schichten kann die Lebensdauer jedoch auf ein den plasmachemischen Aluminiumoxidschichten deutlich überlegenes Niveau angehoben werden.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018000278
Welker, Tilo;
Methoden und Technologien zur Optimierung der Entwärmung aktiver und passiver Komponenten auf keramischen Mehrlagensubstraten. - Ilmenau : Universitätsverlag Ilmenau, 2018. - 1 Online-Ressource (XV, 235 Seiten)
Technische Universität Ilmenau, Dissertation 2018

Gegenstand dieser Arbeit ist der thermische Pfad in einem Mehrlagenmodul aus Niedertemperatur-Einbrand-Keramiken (engl.: low temperature co-fired ceramic, kurz: LTCC). Der thermische Pfad beschreibt dabei den Pfad der Wärme von einem verlustbehafteten Bauelement hin zu einer Wärmesenke. Ziel der Arbeit ist es durch neue Materialien, Technologien und Methoden den thermischen Pfad zu optimieren und so die thermische Performance des Mehrlagenmoduls zu verbessern. Der thermische Pfad kann in drei kritische Bereiche unterteilt werden. Der erste Bereich umfasst die Verbindung zwischen Chip und Substrat. Die hier eingesetzten Materialien stellen neben der mechanischen Fixierung auch den thermischen Kontakt zwischen Chip und Substrat her. Im Rahmen dieser Arbeit werden Silberpasten für die Chipmontage untersucht, die bei niedrigen Temperaturen sintern und eine thermisch hoch leitende Verbindung zwischen Chip und Substrat realisieren. Weiterhin werden reaktive Lote untersucht, die nach thermischer Aktivierung kurzzeitig einen starken thermischen Impuls generieren, wodurch das Fügen von Materialien mit unterschiedlichem thermischen Ausdehnungskoeffizient ermöglicht wird. Diese reaktiven Lote und die Silberpasten werden dabei mit den herkömmlichen Materialien der Chipmontage wie Loten und Klebern hinsichtlich ihres thermischen Widerstandes, der mechanischen Festigkeit und Zuverlässigkeit bewertet und verglichen. Der zweite Bereich umfasst das gesamte keramische Substrat. Um die geringe thermische Leitfähigkeit des Keramikgrundmaterials lokal zu verbessern, werden Metalle in Form von Metallzylindern in das Substrat integriert. Diese sog. thermischen Vias bestehen zumeist aus gold- oder silberbasierten Materialien und sind direkt in das Substrat unter die Chipbondfläche integriert. Gegenstand der Untersuchung ist hier der Einfluss der Viageometrie, des Viamaterials und des Sinterprozesses auf die thermische Performance und Hermetizität des Substrates. Weiterhin werden mittels neuen Silberfolien vollflächige Silberstrukturen in das Substrat integriert. Hierbei wird im Co-Fire Prozess das keramische Grundmaterial durch Silberfolie lokal substituiert, was Bereiche mit sehr hoher thermischer Leitfähigkeit im Substrat ermöglicht. Die thermische Performance solcher Silberstrukturen in LTCC Substraten wird anhand zweier Demonstratoren überprüft. Der dritte Bereich umfasst die Wärmesenke. Im Rahmen dieser Arbeit wird die Möglichkeit diskutiert, fluidische Kanäle in das LTCC Substrat zu integrieren und damit eine aktive Kühlung zu realisieren. Die Untersuchungen umfassen das Design und die Fertigung des Kühlkanals und der fluidischen Schnittstellen, sowie die Bewertung der Kühlleistung dieser Methode.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018000120
Lavrenko, Anastasia;
Compressive acquisition and processing of sparse analog signals. - Ilmenau : Universitätsverlag Ilmenau, 2018. - 1 Online-Ressource (XV, 235 Seiten)
Technische Universität Ilmenau, Dissertation 2018

Seit dem Aufkommen der ersten digitalen Verarbeitungseinheiten hat die Bedeutung der digitalen Signalverarbeitung stetig zugenommen. Heutzutage findet die meiste Signalverarbeitung im digitalen Bereich statt, was erfordert, dass analoge Signale zuerst abgetastet und digitalisiert werden, bevor relevante Daten daraus extrahiert werden können. Jahrzehntelang hat die herkömmliche äquidistante Abtastung, die durch das Nyquist-Abtasttheorem bestimmt wird, zu diesem Zweck ein nahezu universelles Mittel bereitgestellt. Der kürzlich explosive Anstieg der Anforderungen an die Datenerfassung, -speicherung und -verarbeitung hat jedoch die Fähigkeiten herkömmlicher Erfassungssysteme in vielen Anwendungsbereichen an ihre Grenzen gebracht. Durch eine alternative Sichtweise auf den Signalerfassungsprozess können Ideen aus der sparse Signalverarbeitung und einer ihrer Hauptanwendungsgebiete, Compressed Sensing (CS), dazu beitragen, einige dieser Probleme zu mindern. Basierend auf der Annahme, dass der Informationsgehalt eines Signals oft viel geringer ist als was von der nativen Repräsentation vorgegeben, stellt CS ein alternatives Konzept für die Erfassung und Verarbeitung bereit, das versucht, die Abtastrate unter Beibehaltung des Signalinformationsgehalts zu reduzieren. In dieser Arbeit untersuchen wir einige der Grundlagen des endlichdimensionalen CSFrameworks und seine Verbindung mit Sub-Nyquist Abtastung und Verarbeitung von sparsen analogen Signalen. Obwohl es seit mehr als einem Jahrzehnt ein Schwerpunkt aktiver Forschung ist, gibt es noch erhebliche Lücken beim Verständnis der Auswirkungen von komprimierenden Ansätzen auf die Signalwiedergewinnung und die Verarbeitungsleistung, insbesondere bei rauschbehafteten Umgebungen und in Bezug auf praktische Messaufgaben. In dieser Dissertation untersuchen wir, wie sich die Anwendung eines komprimierenden Messkerns auf die Signal- und Rauschcharakteristiken auf die Signalrückgewinnungsleistung auswirkt. Wir erforschen auch Methoden, um die aktuelle Signal-Sparsity-Order aus den komprimierten Messungen abzuleiten, ohne auf die Nyquist-Raten-Verarbeitung zurückzugreifen, und zeigen den Vorteil, den sie für den Wiederherstellungsprozess bietet. Nachdem gehen wir zu einer speziellen Anwendung, nämlich der Sub-Nyquist-Abtastung und Verarbeitung von sparsen analogen Multibandsignalen. Innerhalb des Sub-Nyquist-Abtastung untersuchen wir drei verschiedene Multiband-Szenarien, die Multiband-Sensing in der spektralen, Winkel und räumlichen-Domäne einbeziehen.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018000167
Dahlmann, Martin;
Schwingungsreduktion und Reluktanzmaschinen. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (vii, 121 Blätter)
Technische Universität Ilmenau, Dissertation 2018

Die vorliegende Dissertation ist eine theoretische Arbeit mit mehreren Schwerpunkten. Einleitend ist gezeigt, wie aus der mechanischen Leistung die Konzepte von Schwingungsisolation und Schwingungstilgung folgen und welchen Einfluss die Systemgrenzen haben. Das Grundlagenkapitel befasst sich mit der Leistungswandlung und Energiespeicherung in Reluktanzmaschinen. Dabei ist auch die magnetische Energie in polarisierten Systemen betrachtet und in der Fluss-Durchflutung-Ebene dargestellt. Die Funktion der Reluktanzmaschine ist anhand von Kraftkennlinien erklärt, die aus den integralen Kraftkennfeldern folgen. Das Entwicklungskapitel beschreibt eine iterative Methode um Steuersignale zu berechnen, mit denen die Lautstärke von Reluktanzmaschinen geringer ist. Dafür wird der Verlauf des magnetischen Flusses über der Position des Rotors nach diversen Kriterien schrittweise verändert. Als Ergebnis liegen Kommutierungstabellen vor, die auf minimale Akustik, minimale Drehmomentwelligkeit oder maximale Energieeffizienz optimiert sind. Das Forschungskapitel beginnt mit der Frage, wie viele Phasen eine Reluktanzmaschine haben muss. Ein inverser Entwurf zeigt, dass zwei Phasen genügen, um an jeder Position des Rotors in beide Richtungen der Bewegung eine Kraft erzeugen zu können. Dabei wird gezielt auch die Gegeninduktivität genutzt und mit bipolarem Strom gearbeitet. Eine Analyse der erhöhten Blindleistung und die Bauform als Transversalflussmaschine schließen dieses Kapitel ab. Der Ausblick enthält neben dem kurzen Fazit auch allgemeine Empfehlungen zur weiteren Forschung für Reluktanzmaschinen. Ein großes Potenzial liegt in der Optimierung von Forschung allgemein und den daran beteiligten Prozessen, vor allem der Software.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018000199
Biswas, Shantonu;
Metamorphic stretchable electronics. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (XXIV, 139 Seiten)
Technische Universität Ilmenau, Dissertation 2018

Die jüngsten Fortschritte auf dem Gebiet der Elektronik wenden sich der Realisierung mechanischer dehnbarer Elektroniken zu. Diese sind in der Lage sich umzuwandeln um neue Formfaktoren anzunehmen. Um eine nahtlose Integration der Elektronik in unsere Alltagsgegenstände und viele weitere Anwendungsfelder zu ermöglichen, bei denen herkömmliche starre elektronische Systeme nicht ausreichen, ist mechanische Dehnbarkeit notwendig. Diese Arbeit zielt darauf ab, eine dehnbare Leiterplattentechnologie (sPCB) zu demonstrieren, die mit industriellen Herstellungsprozessen kompatibel ist. Idealerweise soll das starre Trägersubstrat der konventionellen Elektronik durch ein dehnbares Gummisubstrat mit dehnbaren Leiterbahnen ersetzt werden. Zunächst wurde eine Methode entwickelt, um eine industrietaugliche, einlagige, dehnbare Leiterplatte zu realisieren. Der dargestellte Ansatz unterscheidet sich von anderen Methoden in diesem Bereich, welche die Metallisierung auf dem Gummisubstrat aufbringen und die Komponenten anschließend darauf montieren. Dadurch leiden diese unter einer geringeren Ausrichtung und Fixierung. Stattdessen wird im dargestellten Ansatz ein harter Träger verwendet, der den Einsatz des dehnbaren Gummimaterials bis ans Ende der Prozesskette verschiebt. Diese Single-Layer-Methode wurde weiterentwickelt, um mehrschichtige, integrierte sPCB zu realisieren, bei der verschiedene Metallisierungsebenen durch vertikalen Durchkontaktierungen (VIA) miteinander verbunden werden. Auch dieses Verfahren verwendet konventionelle starre Träger für den Herstellungsprozess. Wie in der konventionellen Leiterplattentechnologie ist auch die Herstellung auf starren Trägern wichtig, da sie Folgendes ermöglicht: Ausrichtung und Registrierung, Hochtemperaturprozesse, konventionelle Chip-Bestückung durch Roboter und "On-Hard-Carrier"-Bauteiltests. Darüber hinaus ermöglicht die dargestellte Methode den direkten Einsatz handelsüblicher SMDs, was für die einfache Realisierung komplexer elektronischer Schaltungen wichtig ist. Als Endsubstrat kommt ein hochelastisches Silikonmaterial (EcoFlex) zum Einsatz, welches die Bauelementebenen einkapselt. Um die Bauelementebenen vom harten Träger auf das weiche Substrat zu übertragen, wird ein einstufiges, waferbasiertes und lösungsmittelfreies Ablöseverfahren eingesetzt, bei dem die differentielle Grenzflächenadhäsion einer Multi-Opferschichten genutzt wird. Für die hochelastischen Leiterbahnen wurde ein neues Mäander-Metallbahndesign entwickelt, welches als "spannungsadaptiv" bezeichnet wird. Die neue Mäander-Metallbahn variiert in ihrer Breite, um das einwirkende Drehmoment in den Metallbahnen, aufgrund der ungleichmäßigen Spannungsverteilung über die Mäander-Schleifen, aufzunehmen. Das spannungsadaptive Design zeigt eine signifikante Verbesserung der Spannungsverteilungen auf den Metallbahnen und führt experimentell zu einem höheren Niveau der maximalen Dehnung und der Anzahl der Dehnungszyklen. Es wurde eine breite Palette von dehnbaren Systemen demonstriert, darunter Elektronik, Optoelektronik, Akustoelektronik und Sensor-Arrays. Die Demonstratoren, auf Basis einer einzigen Metallisierungsschicht in einer Gummimatrix, enthalten Arrays mit gehäusten SMDs, LED-Nacktchips, laborgefertigte Si [my]-Transistoren und MEMS-Mikrofone. Weiterhin wird eine integrierte Multilayer-sPCB mit Chip-großen LEDs und Transistoren demonstriert, um eine adressierbare aktive Matrix zu realisieren. Dieser Prototyp demonstriert die Machbarkeit von integrierten Multilayer-sPCB und wird im Prinzip dazu führen, dass jedes heute bekannte elektronische System in ein äquivalentes dehnbares System überführt werden kann. Schließlich stellt diese Arbeit das bahnbrechende Konzept der metamorphen Elektronik vor, welche sich umwandeln kann um neue Topologien und Formfaktoren anzunehmen. Es werden verschiedene Arten von Deformationsmechanismen demonstriert, darunter das Aufblasen von gleichförmigen oder strukturierten Gummimembranen, 3D-geführte Deformationen und Vakuumformung in Kombination mit 3D-Schablonen. Die Palette der Topologien reicht dabei von halbkugelförmig, kugelförmig, konkav/konvex, pyramidenförmig, turmartig, bis hin zu komplexeren 3D-Formen, darunter Bienenaugen-Strukturen.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018000172
Hernández, Daniel;
Multicomponent local Lorentz force velocimetry. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (117 Seiten)
Technische Universität Ilmenau, Dissertation 2018

Lorenztkraft-Anemometrie (LKA oder LFV) ist ein berührloses elektromagnetisches Strömungsmessverfahren für Flüssigmetalle. Durch eine Relativbewegung zwischen einem elektrischen leitfähigen Fluid und einem statisch angelegten Magnetfeld werden Wirbelströme und eine strömungsbremsende Lorentzkraft erzeugt. Diese Kraft ist proportional zu der elektrischen Leitfähigkeit des Fluides und zu der Durchflussrate oder zu der lokalen Geschwindigkeit, welche abhängig von dem Anteil des durch das Magnetfeld aufgespannten Volumens ist. Gemäß dem dritten Newtonschen Gesetz wirkt eine gleich starke, jedoch entgegengesetzt gerichtete Kraft auf die Quelle des angelegten Magnetfeldes, die in unserem Fall Permanentmagnete sind. Entsprechend dem Ohm'schen Gesetz induzieren bewegende elektrisch leitfähige Fluide bei niedrigen magnetischen Reynolds-Zahlen ein elektrisches Potential, das die Ladungserhaltung gewährleistet. Diese Arbeit beginnt mit der Untersuchung des Beitrags des induzierten elektrischen Potentials in der gesamten Lorentzkraft. Dieses Problem wird numerisch und experimentell analysiert, indem zwei verschiedene Szenarien betrachtet werden: elektrisch leitfähige Wände mit endlicher Dicke und Aspektverhältnisvariation des Strömungsquerschnitts. In beiden Fällen stand die durch das elektrische Potential erzeugte Kraftkomponente immer entgegen der gesamten Lorentzkraft. Diese Kraftkomponente war empfindlich gegenüber den elektrischen Randbedingungen der Strömung, von denen isolierte und perfekt leitende Wände die Grenzfälle sind. Es wird gezeigt, dass die messbare Lorentzkraft beträchtlich erhöht werden kann, wenn die aus dem elektrischen Potential stammende Kraftkomponente verringert wird, indem entweder die elektrische Leitfähigkeit der Wand oder das Querschnittsverhältnis der Strömung verändert wird. Daher kann die Empfindlichkeit der Messtechnik erheblich verbessert werden. Im Anschluss an dieser Analyse konzentriert sich die vorliegende Arbeit auf die lokale Multikomponenten-Lorentzkraft-Anenometrie. Diese Technik basiert auf der Messung aller auf den Magnetsystemen wirkenden Kraft- und Drehmomentkomponenten. In diesem Fall sind die Magnetsysteme deutlich kleiner als der Strömungsquerschnitt. Die kleinen Magnetsysteme induzieren eine lokalisierte Magnetfeldverteilung im flüssigen Metall, die eine lokale aufgelöste Geschwindigkeitsmessung von flüssigem Metall ermöglichen. Die lokale Multikomponenten-Lorentzkraft-Anenometrie wurde mittels einer stetigen dreidimensionalen turbulenten Strömung innerhalb der Kokille eines Stranggussmodells untersucht, wobei das Arbeitsfluid GaInSn in eutektischer Zusammensetzung war. Die aus kubischen und kreuzförmigen Permanentmagneten bestehenden Magnetsysteme wurden an einem Sensor befestigt, der speziell für die gleichzeitige Erfassung aller drei Kraft- und drei Drehmomentkomponenten entwickelt wurde. Mit diesem Sensor war es möglich, Informationen über die dreidimensionale Geschwindigkeitsverteilung des flüssigen Metalls innerhalb der Kokille in der Nähe der Magneten zu erhalten. Zusätzlich könnte unter Verwendung eines kreuzförmigen Magneten das Drehmoment in der Feldrichtung des Magneten gemessen werden. Gemäß einem numerischen Modell der Experimente korreliert dieses Drehmoment mit der Wirbelstärke des Geschwindigkeitsfeldes in dieser Richtung.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018000137
Krauß, Alexander;
Nachführbare Antennen geringer Bauhöhe für die mobile Satellitenkommunikation. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (135 Blätter)
Technische Universität Ilmenau, Dissertation 2018

Das wachsende Interesse an bidirektionaler Satellitenkommunikation im Ka-Band erfordert Antennenentwürfe, welche die in diesem Kommunikationsband weit auseinander liegenden Downlink- und Uplink-Frequenzbereiche berücksichtigen und somit ein dualbandiges Verhalten aufweisen. Während Naturkatastrophen oder anderer desaströser Szenarien erfordert die mobile Krisenkommunikation über einen geostationären Satelliten eine hohe Zuverlässigkeit bei kompaktem Antennendesign. Im Fall einer beschädigten oder überlasteten terrestrischen Kommunikationsinfrastruktur stellen mobile Nutzerterminals mit einer geringen Aufbauhöhe eine wichtige Alternative für die Kommunikation von Rettungseinsatzkräften, Hilfsorganisationen und anderen Behörden und Organisationen mit Sicherheitsaufgaben dar. Im Rahmen dieser Arbeit wurde eine neuartige zweidimensional-periodische Leckwellenantennenstruktur entwickelt, die auf einer zweilagigen frequenzselektiven Oberfläche (FSS) basiert und sowohl für den Empfangs- als auch den Sendefall ausgelegt ist. Die erfolgreich entworfene FSS-Einheitszelle erlaubt zirkulare Polarisation und überlagerte Aperturen für eine dualbandige Funktionalität. Die zweilagige frequenzselektive Oberfläche wird mit einer innovativen Primärquelle angeregt - realisiert durch eine Schlitzstrahlergruppe, die mittels integriertem und verlustarmen Hohlleiternetzwerk bei 20 und 30 GHz gespeist wird. Der Entwurf, Simulationsmodelle und die messtechnische Charakterisierung verschiedener Leckwellenantennenpaneele werden in der vorliegenden Dissertation im Detail diskutiert. Im Verlauf des Promotionsvorhabens wurden auf Basis der entwickelten Antennenpaneele zwei Demonstratoren nachführbarer Satellitenkommunikationsantennen aufgebaut und erfolgreich erprobt. Das verwendete Antennenkonzept erlaubt die Realisierung mit gewissen Freiheitsgraden bezüglich Anzahl und Neigungswinkel der Paneele für den Einsatz bei unterschiedlichen geografischen Breitengraden. Für die Nachführung der Richtcharakteristik wird eine hybride Strategie angewendet. Die Strahlnachführung im Azimut erfolgt mechanisch durch eigens für die Anwendung entwickelte Antennenpositionierer. In der Elevationsebene wird die elektronische Nachführung unter Ausnutzung einer rekonfigurierbaren Richtcharakteristik realisiert.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018000182
Steiner, Cindy;
Plasmagestützte Nanostrukturierung von ETFE-Folie. - Ilmenau : Universitätsverlag Ilmenau, 2018. - 1 Online-Ressource (xiii, 168 Seiten). - (Werkstofftechnik aktuell ; Band 18)
Technische Universität Ilmenau, Dissertation 2018

Die vorliegende Arbeit befasst sich mit der Untersuchung der Strukturbildung auf Ethylentetrafluorethylen-Folie (ETFE) in einem Plasmaätzprozess. Als Plasmaquelle wird ein Doppel-Magnetron-System mit gepulster Gleichspannung genutzt. In einer reinen Sauerstoffatmosphäre bilden sich negative Sauerstoffionen, die im Kathodenfall zum Substrat beschleunigt werden und mit diesem interagieren. Durch die Wechselwirkung mit der ETFE-Folie wird deren Oberfläche nanostrukturiert. Zunächst wird durch Variation der Energiedosis der Einfluss der Prozessparameter auf die Strukturbildung untersucht. Die Nanostrukturen werden hinsichtlich ihrer reflexionsmindernden und damit transmissionserhöhenden Wirkung sowie ihrer Strukturgrößen, -formen und -tiefen analysiert. Mit steigender Energiedosis zeigt sich ein Anstieg der Strukturtiefe. Damit verbunden steigt die Transmission bis zu einem Maximum an und fällt bei weiterer Steigerung der Energiedosis wieder ab. Der Zusammenhang zwischen der Energiedosis, der Transmissionsänderung und den Strukturdimensionen wird dargestellt und diskutiert. Die zur Analyse der Nanostrukturen genutzten Charakterisierungsmethoden werden miteinander verglichen und auf ihre Anwendbarkeit zur Beschreibung nanostrukturierter ETFE-Folie untersucht und bewertet. Weiterhin wird der Einfluss der kristallinen Bereiche auf die Strukturbildung untersucht. Dafür wird die teilkristalline ETFE-Folie monoaxial verstreckt. Die Kristalllamellen richten sich im ETFE aus. Im Plasmaätzprozess bilden sich auf den gereckten ETFE-Folien Nanostrukturen aus, die sich von denen auf ungerecktem ETFE unterscheiden. Die Dimensionen der Nanostrukturen werden in Bezug zu den Dimensionen der kristallinen Bereiche betrachtet und der Zusammenhang zwischen Strukturbildung und den kristallinen Bereichen des ETFE untersucht und diskutiert. Abschließend werden Möglichkeiten zur weiteren Erhöhung der Transmission dargestellt. Die im Rahmen der Arbeit gewonnenen Erkenntnisse zur Abhängigkeit der Strukturbildung von den Plasmaparametern werden auf das Polymer Polyethylenterephthalat (PET) übertragen. Außerdem wird die Stabilität des nanostrukturierten ETFE gegenüber Witterungseinflüssen gezeigt und damit das Potenzial nanostrukturierten ETFE-Folie für Außenanwendungen wie der Verkapselung von Solarzellen dargestellt.



https://www.db-thueringen.de/receive/dbt_mods_00034643
Krenkel, Sharon;
Anisotrope, hierarchische Strukturierung von nanoporösen Gläsern. - Ilmenau : Universitätsverlag Ilmenau, 2018. - 1 Online-Ressource (xvii, 277 Seiten). - (Werkstofftechnik aktuell ; Band 17)
Technische Universität Ilmenau, Dissertation 2017

Die im Rahmen des Projektes "ANIMON" entstandene Arbeit beschäftigt sich mit der Herstellung und Charakterisierung von glasbasierten, hierarchisch porösen Monolithen mit anisotropem Porensystem im Mikro- bzw. Nanometerbereich. Die Formgebung durch Verziehen von Rohrbündeln unter Anwendung des Draw-Down-Prozesses wurde mit dem Herstellungsprozess für nanoporöse Gläser ausgehend von Alkaliborosilicatgläsern kombiniert. Mit diesem zweistufigen Verfahren wurden hierarchisch poröse Multikapillaren erzeugt. Die Größe der anisotrop orientierten Luft- bzw. Kanalporen liegt zwischen 5*10^-6 und 2 mm, die der Nanometerporen zwischen 2 und 300 nm. Die Grundlagenuntersuchungen zum Entmischungsverhalten und zur Viskosität ausgewählter Natriumborosilicatgläser und die Kontrolle der Prozesstechnik waren Voraussetzungen für die Steuerung der Porengrößen. Durch eine gezielte Auswahl der Prozessparameter, angepasst an die Glaszusammensetzung, ließ sich die Größeneinstellung der Nanometerporen vom Formgebungsprozess trennen. In Hinblick auf zukünftige Anwendungen wurden die mechanischen sowie optischen Eigenschaften bestimmt, erste Versuche zur Biokompatibilität durchgeführt und die Oberfläche modifiziert. In einem weiteren Teil der Arbeit wurde der Ansatz verfolgt, auch die Nanometerporen in der Glaswand zu orientieren. Hierfür war die Ausrichtung der Primärphasen unter Zugbelastung zielführend. Die Quantifizierung der Porenorientierung erfolgte mittels eines eigens entwickelten Bildanalyseverfahrens. Über die im Projekt vorgesehene Umformmethode hinaus wurden generative Fertigungsverfahren zur Herstellung hierarchisch poröser Monolithe mit anisotropen Poren im Mikrometerbereich untersucht. Im Falle des selektiven Lasersinterns mit dem CO2-Laser wurden mechanisch stabile Monolithe erhalten, deren Porengröße von der Formgebung unabhängig kontrollierbar ist. Des Weiteren wurde eine anisotrope Orientierung der Luft- und Kanalporen über die Schwamm-Replika-Technik realisiert. Verziehen und generative Fertigung wurden erfolgreich für entmischbare Gläser optimiert, so dass Glasformkörper mit Nanometerporen in den Wänden, Kanälen mit Durchmessern bis zu Millimetern und einer großen Bandbreite an geometrischen Formen erzeugt werden können. Nach passender Oberflächenfunktionalisierung erlauben sie Anwendungen in der Sensortechnologie, als Mikroreaktoren und für die Katalyse.



https://www.db-thueringen.de/receive/dbt_mods_00034529
Günther, Karsten;
Werkstofftechnische Betrachtungen zum Heißdraht unterstützten MSG-Auftragschweißen hartstoffverstärkter Verschleißschutzlegierungen. - Ilmenau : Universitätsverlag Ilmenau, 2018. - 1 Online-Ressource (XVI, 141 Seiten). - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 5)
Technische Universität Ilmenau, Dissertation 2018

Das Metall-Schutzgas(MSG)-Auftragschweißen von hartstoffverstärkten Verschleiß-schutzlegierungen weist trotz der einfachen Bedienbarkeit und des hohen Mechanisierungsgrades nur eine geringe Akzeptanz im Bereich der Beschichtungstechnik auf. Gründe hierfür liegen insbesondere in der unmittelbaren Korrelation zwischen dem Material- und Energieeintrag, wodurch hohe Drahtvorschübe zwangsläufig eine zunehmende thermische Werkstoffbeanspruchung zur Folge haben. Im praktischen Einsatz führt dies bereits bei geringen Abschmelzleistungen von ca. 5 kg/h zu hohen Aufschmelzgraden von bis zu 40 %. Zudem unterliegen temperaturempfindliche Hartphasen, wie z.B. Wolframschmelzkarbide (WSC), einer hohen thermischen Beanspruchung, was unter anderem auf die direkte Lichtbogenwechselwirkung zurückzuführen ist. Thermisch bedingte Zersetzungsprozesse führen hierbei zu einer Abnahme des WSC-Anteils, wodurch die Verschleißbeständigkeit gemindert wird. Mit Hilfe eines zusätzlich dem Schmelzbad zugeführten Heißdrahtes wurde ein neuartiger Ansatz entwickelt und erforscht, um den Energie- und Materialeintrag beim MSG-Auftragschweißen zu entkoppeln. Neben den verringerten Prozessleistungen bei gleichbleibender Auftragmasse wurde dies insbesondere durch die Verringerung der Schmelzbadtemperaturen nachgewiesen. Hierdurch konnte eine hochproduktive Herstellung aufmischungsarmer Verschleißschutzschichten umgesetzt werden. Die Auswirkung auf die Hartphasencharakteristik erfolgte zunächst anhand FeCr(V)C-Hartlegierungen. Es konnte aufgezeigt werden, dass sich die nahezu unabhängige Regelung von Abschmelzleistung und Aufschmelzgrad positiv auf die Ausscheidung von Primärkarbiden bzw. Hartphasen auswirken. Im Gegensatz zum MSG-Prozess gelang es hierdurch einlagige Verschleißschutzschichten mit einem deutlich höheren Hartphasenanteil und höherer Verschleißbeständigkeit herzustellen. Bei Ni-Basis-Legierungen mit eingelagerten WSC wurde festgestellt, dass sich der Einsatz eines Heißdrahtes positiv auf die Hartphasenverteilung auswirkt. Aufgrund modifizierter Schmelzbadströmungen konnten die für WSC typischen schwerkraftbedingten Seigerungseffekte unterbunden werden, einhergehend mit einer homogenen Verteilung der Hartphasen. Im Vergleich zum optimalen MSG-Prozessfenster betrug der erzielbare WSC-Anteil jedoch nur die Hälfte. Zur Klärung der Ursache wurde ein Ansatz entwickelt, um die thermisch bedingte Zersetzung von WSC quantitativ zu beschreiben. Basierend auf der Einführung eines Zersetzungskennwertes konnte hierdurch erstmals der Einfluss der Schmelzbadgröße, des Aufschmelzgrades und des Tropfenübergangs separat und quantitativ aufgeschlüsselt werden. Hierdurch konnte der geringere WSC-Anteil beim MSG-HD-Verfahren schließlich den Eigenschaften des Lichtbogens und Tropfenübergangs zugewiesen werden. Ferner wurde im Rahmen dieser Arbeit erstmals die Entstehung des Zersetzungssaums bei WSC experimentell nachvollzogen.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018000025
Lozovoi, Artur;
Theoretical and experimental study of polymer melt dynamics : role of intermolecular dipolar interactions. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (111 Seiten)
Technische Universität Ilmenau, Dissertation 2018

In dieser Arbeit wird die Dynamik verschränkter Polymerschmelzen mittels eines neuartigen vielseitigen NMR-Formalismus umfassend untersucht. Der theoretische Hintergrund für seine Anwendung wird vorgestellt und ausführlich diskutiert. Es wird gezeigt, dass das Regime der langsamen anomalen segmentalen Diffusion, die den verschränkten Polymerschmelzen in einem breiten Zeitraum innewohnt, durch Analyse der Beiträge der intermolekularen dipolaren Wechselwirkungen zu speziellen Varianten von Aufbaufunktionen untersucht werden kann. Einer von ihnen kombiniert die Signale von drei Doppelpuls-Spin-Echo-NMR-Impulsfolgen und wird als Solid-echo Build-up Funktion bezeichnet. Der andere korreliert die Hahn-Echosignale, die zu verschiedenen Zeitpunkten erhalten werden, und wird als Dipolar-correlation Build-up Funktion eingeführt. Beide spiegeln im Wesentlichen die Eigenschaften dipolarer Wechselwirkungen zwischen Spins in einem System wider. Diese Wechselwirkung ist wiederum empfindlich gegenüber der lokalen segmentalen Translation und Reorientierung, was eine Möglichkeit bietet, diese Bewegungen zu untersuchen. Die beiden vorgestellten Methoden werden sowohl auf den konventionellen Niederfeld-NMR-Spektrometern als auch auf der im Rahmen dieser Arbeit aufgebauten Hochtemperatureinheit eingesetzt. Unter Verwendung dieser Ausrüstung wird der vorgeschlagene Ansatz auf die Untersuchung von Polybutadien, Poly(ethylen-alt-propylen) und Polyethylenoxidschmelzen angewendet. Die gefundene Zeitabhängigkeit der Segmentverschiebungen stimmt mit den Resultaten konventioneller Techniken bei kurzen Zeiten gut überein. Darüberhinaus sind die neuen Methoden geeignet, den untersuchten Dynamikbereich sowohl in der Zeit- als auch in der Verschiebungsdomäne signifikant zu erweitern und damit Informationen zu liefern, die für andere experimentelle Methoden kaum zugänglich sind. Daher wird der vorgestellte Ansatz als ein neues leistungsfähiges Werkzeug auf dem Gebiet der Polymerphysik angesehen. Die breite Palette von Informationen, die durch den Dipolar-correlation und den Solid-echo Formalismus geliefert werden, erlaubt einen umfassenden experimentellen Test der Gültigkeit des Tube-Reptation-Modells, das die am häufigsten verwendete und wohletablierte theoretische Beschreibung der verschränkten Polymerschmelzen ist. Die Zeitabhängigkeit der Segmentverschiebung, die in Poly(ethylen-alt-propylen) erhalten wurde, stimmt gut mit den entsprechenden Vorhersagen des Modells überein. Es werden drei verschiedene Potenzgesetze beobachtet, die im Rahmen des Tube-Reptationsmodells dem Rouse-, den inkohärenten und den kohärenten Reptationsregimen zugeschrieben werden. Wichtig ist, dass der Übergang von der inkohärenten zur kohärenten Reptation bei dieser Polymerspezies mit einem so hohen Molekulargewicht zum ersten Mal experimentell beschrieben wird. Auf der anderen Seite zeigen Segmentverschiebungen, die in den Polyethylenoxidschmelzen mit unterschiedlichen Molekulargewichten erhalten werden, keine Merkmale der extrem langsamen t^0.25 Dynamik, die für die inkohärente Reptation vorhergesagt wurde. Dieses Ergebnis ist konsistent und wird durch andere NMR-Techniken bei kürzeren und längeren Zeiten bestätigt. Dieser Befund stellt die universelle Anwendbarkeit des Konzepts der Röhre für alle weiteren Polymerspezies in Frage. Darüber hinaus zeigt die Abschätzung der relativen Beiträge der intra- und intermolekularen dipolaren Wechselwirkungen zur transversalen Relaxation ein ähnliches Verhalten für alle untersuchten Polymerschmelzen. Interessanterweise steht dieses Verhalten im Widerspruch zur Vorhersage des Tube-Repation-Modells und zeigt keine Merkmale, die für die hoch anisotrope Bewegung innerhalb der fiktiven Röhre erwartet werden. Die Übereinstimmung dieses Ergebnisses in allen Proben lässt eine noch allgemeinere Frage nach der Gültigkeit des gesamten Konzeptes des Tube-Reptationsmodells aufkommen.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018000046
Thaha, Yudi Nugraha;
Synthesis and electrochemical applications of boron- and phosphorus-doped carbon nanotubes. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (vii, 117 Blätter)
Technische Universität Ilmenau, Dissertation 2018

Bor-dotierte (B-MWCNT) und Phosphor-dotierte (P-MWCNT) Kohlenstoffnanoröhren wurde mittels chemischer Gasphasenabscheidungstechnik erfolgreich hergestellt. Durch die Verwendung unterschiedlicher Kohlenstoffquellen und Dotierungsmitteln zeigen die Phosphor- und Bor-dotierten MWCNTs unterschiedliche Strukturen. Dabei treten neben vertikal ausgerichteten, hohlen vertikal ausgerichteten, Y-förmige auch horizontal orientierte Nanoröhren auf. Die dotierten MWCNTs wurden unter Verwendung von Raman-Spektroskopie, Rasterelektronenmikroskopie, Transmissionselektronenmikroskopie (in Kombination mit Elektronenenergieverlustspektroskopie) und Röntgen-Photoelektron Spektroskopie umfassend charakterisiert. Neben der physikalischen Charakterisierung wurden sowohl die B-MWCNTs als auch die P-MWCNTs elektrochemisch untersucht, indem als Modellredoxsystem [Fe(CN)6]^3-/4- in KCl Lösung angewendet wurde. Die hergestellten Elektroden wurden dann für das biologisch relevante Dopamin/Dopaminchinone Redox-System (in Phosphatpufferlösung, pH=7) angewendet. Hierfür wurden sowohl die Zyklische Voltametrie als auch die Elektrochemische Impedanz Spektroskopie verwendet. Im Folgenden wurden die Effekte der Oberflächen-funktionalisierung mit Goldnanopartikeln (AuNP), Oxidation mit Piranha Lösung und Säurebehandlung mit HCl auf die elektrochemischen Eigenschaften von B-MWCNTs und P-MWCNTs studiert. Auch hier wurde sowohl das Modellesystem [Fe(CN)6]^3-/4- als auch der Anwendungsfall mit dem Dopamin/Dopaminchinone Redoxsystem betrachtet. Die Ergebnisse zeigen, dass das elektrochemische Verhalten von B-MWCNTs und P-MWCNTs stark durch die Nanoröhrenstruktur und Konfiguration (einzelne Nanoröhren oder Cluster- Nanoröhren), sowie durch die Anwesenheit von amorphen Kohlenstoffstrukturen auf der Nanoröhrenoberfläche beeinflusst wird. Y-förmige B-MWCNTs zeigen einen schnelleren Elektronentransfer im Vergleich zu vertikal ausgerichteten dotierten B-MWCNTs und P-MWCNTs welche teilweise mit amorphen Kohlenstoffstrukturen bedeckt sind. Die Kinetik für den Elektronentransfer auf Y-förmige B-MWCNTs und P-MWCNTs mit Kohlenstoff auf der Oberfläche lässt sich durch den Einsatz von AuNP weiter verstärken.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018000035
Denk, Frank;
Beitrag zur Charakterisierung und Systemintegration schnellschaltender elektromagnetischer Aktuatoren - insbesondere Einspritzventile für Ottomotoren. - Ilmenau, 2018. - XI, 140 Seiten
Technische Universität Ilmenau, Dissertation 2018

Der gesetzlich zulässige Schadstoffausstoß von Verbrennungsmotoren erfordert die Entwicklung neuer Ansteuerstrategien von Kraftstoffeinspritzventilen. Die vorliegende Arbeit untersucht das einspritzrelevante System aus Elektronik, Software, Einspritzventil sowie Hydraulik und entwickelt neue elektromagnetische Methoden zur Optimierung des hydraulischen Einspritzvorgangs. Insbesondere die dynamischen Vorgänge des hydraulischen Öffnens und des hydraulischen Schließens bilden den Schwerpunkt der Untersuchungen. Auf Basis der Maxwellschen Gleichungen wird dargestellt, dass das dynamische Verhalten des Einspritzventils vor allem durch die Reluktanzkraft erfolgt. Es wird gezeigt, dass die elektromagnetischen Ansteuerparameter Spulenspannung und Spulenstrom bei einem Einspritzventil einen signifikanten Einfluss auf den hydraulischen Einspritzvorgang haben. Die Eigenschaft, dass die mechanisch-hydraulische Reaktion magneto-elektrisch auf die Ansteuerung zurückwirkt, wird genutzt, um den Einspritzablauf zu analysieren. Durch die Parametervariation der Ansteuerung und der Analyse der sensorischen Rückmeldung wird ein robustes hydraulisches Öffnen, ein sicheres hydraulisches Offenhalten und ein schnelles hydraulisches Schließen mit der dafür benötigten elektrischen Energie abgestimmt und optimiert. Mit speziellen Verfahren wird der magnetische Fluss des Einspritzventils berechnet. Diese zeigen eine im Kraftfahrzeugbereich neue Möglichkeit der effizienten Abstimmung des elektrischen Energieeintrags sowie der hydraulischen Reaktion und bieten einen Ausblick in zukünftige Regelkonzepte. Diese Arbeit lehnt sich streng an die Umgebungsbedingungen in einem heutigen elektrischen Bordnetz an. Damit ist die Möglichkeit gegeben, die Ergebnisse technisch in Serienapplikationen umzusetzen.