Publications from the Ilmenau University Press

Results: 377
Created on: Thu, 25 Apr 2024 23:19:52 +0200 in 3.0939 sec


Schindler, Christian;
Formabtrag an mineralischen Gläsern mit ultrakurz gepulster Laserstrahlung. - Ilmenau : Universitätsverlag Ilmenau, 2020. - 175 Seiten. - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 9)
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-86360-217-8

Im Rahmen der vorliegenden Arbeit wurden Abtragsverfahren zur Formgebung optischer Komponenten aus mineralischem Glas mittels ultrakurz gepulster Laserstrahlung untersucht. Für diese Untersuchungen wurden ein experimenteller ps- und ein fs-Aufbau konzipiert, umgesetzt, optimiert und charakterisiert sowie Analysemethoden zur Probenbewertung entwickelt. Aus den Untersuchungen zu den ausgewählten Gläsern ergibt sich, dass mit Verwendung ultrakurzer Laserpulse prinzipiell das gesamte Materialspektrum bearbeitbar ist, wenngleich sich die Bearbeitungsergebnisse unterscheiden. Für einen schichtweisen Abtrag wurden plausible Parameterräume definiert, in denen der Ablationsprozess stabil in Bezug auf ausgewählte Zielgrößen beschrieben werden kann. Experimentell zeigten sich der glasspezifischen Bandlücke sowie der applizierten Wellenlänge nach steigende Grenzwerte für die zur Ablation notwendigen Fluenz. Beim Vergleich der Pulsdauerregime zeigte sich, dass für einen einsetzenden ps-Abtrag höhere Fluenzwerte als für einen fs-Abtrag appliziert werden müssen. Die Untersuchungen haben veranschaulicht, dass sich, in Relation zu einem spezifischen Vorbearbeitungszustand von Quarzglas, mit zunehmendem Abtrag, also mehreren Überfahrten, und unter Zuhilfenahme einer gezielten Partikelabfuhr ein Gleichgewicht der Rauheit auf der Oberfläche einstellte und man von einer Sättigungsrauheit sprechen kann. Für dieses Abtragsverhalten an Glas wurde ein Modell für den 2,5D-Formabtrag mit ausgewählten Parametern aufgestellt und Aussagen zum notwendigen Konditionierabtrag getroffen. Gleichzeitig ergab sich nach Erreichen des Sättigungswertes ein konstantes Ablationsregime, welches einen linearen Abtrag pro Überfahrt ermöglichte. Für eine an den Zielgrößen (Rauheit, induzierte optische Gangunterschiede, Abtragstiefe sowie Abtragsraten) ausgerichtete Auswahl von Bearbeitungsparametern sind Schädigungstiefen bestimmt worden. Es zeigte sich, dass die ermittelten Werte z. T. geringer sind als typische Schädigungen durch das Fein- und Feinstschleifen (< 15 [my]m) und somit dazu beitragen den folgenden Polierprozess zu verkürzen. Ein schichtweiser Abtrag mit ultrakurzen Pulsen kann als Substitutionstechnologie für den formgebenden Schleifprozess angesehen werden. Die ermittelten Zeitspanvolumina lagen im applizierten Laserparameterfeld mit < 14 mm^3/min deutlich über den Werten des Fein- und Feinstschleifens mit 2 mm^3/min. In weiteren Untersuchungen zum Laserabtrag mit Scanprofilen konnten funktionelle Zusammenhänge beschrieben und nachgewiesen werden, die einen ortsvariablen Glasabtrag ermöglichen.



Kruse, Adrian;
Techniken der Untersuchung und Aufklärung von Straßenverkehrsunfällen mit Wild. - Ilmenau : Universitätsverlag Ilmenau, 2020. - XI, 179 Seiten. - (Berichte aus der Biomechatronik ; Band 16)
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-86360-214-7

Bei reklamiertem Wildschaden am Automobil kann die Aufklärung, ob es sich tatsächlich um einen Wildunfall gehandelt hat, nur interdisziplinär erfolgen. Allein die Untersuchung der Haare oder einer Blutspur genügt nicht für eine sichere Aussage, ob ein Wildunfall stattgefunden hat. Gleichermaßen entscheidend sind das Schadenbild am Fahrzeug, die Spuren am Unfallort sowie die Einlassungen zum Unfallhergang. Zur Sicherung und Auswertung dieser Beweise gibt es bis heute kein standardisiertes technisches Procedere. Dieses auf wissenschaftlicher Grundlage gerichtssicher zu erarbeiten war die zentrale Zielsetzung dieser Arbeit. Am Fahrzeug verbleiben in den meisten Fällen als Anhaftungen nur wenige Haare und mitunter auch Blut. Diese sind die Beweismittel, welche zur Untersuchung und Bestimmung der Tierart genutzt werden können. Blutspuren am Fahrzeug werden bisher selten gesichert. Dabei lässt sich angetrocknetes Blut am Fahrzeug nach Abkratzen mit Hilfe eines scharfen Gegenstandes wie z.B. einer Rasierklinge in einer Folientüte einfach sichern. Noch besser ist die Sicherung der Blutspur mit einem DNA-freien Wattestäbchen. Die Haare sollten nicht mit Klebefolien gesichert werden. Zur Untersuchung müssten die Haare später vom Kleber getrennt werden, was mitunter nicht zerstörungsfrei gelingt. Weiterhin ginge das Haar bei längerer Anhaftung mit dem Kleber eine Verbindung ein. Eine Kontaminierung mit dem Klebstoff der Klebefolie könnte nicht ausgeschlossen werden. Besser ist es, die Spuren in Pergamintüten zu sichern. Die Haaruntersuchung zur Feststellung der Tierart und der Elementverteilung im Haar erfordert eine systematische Vorgehensweise. Dabei sind zur Reproduzierbarkeit der Ergebnisse zuerst die zerstörungsfreien Methoden anzuwenden. Die Beobachtungen sollten im Bild dokumentiert werden. Als Erstes erfolgt die makroskopische Darstellung zur Dokumentation von Haarlänge und Farbgebung. Danach sollte eine Voruntersuchung mit der Lupe erfolgen, um die Lage von Wurzel und Spitze zu ermitteln. Nicht immer liegen zur Untersuchung vollständige Haare vor. Unter dem Mikroskop mit Kamera erfolgt anschließend über die definierten Haarabschnitte die Dokumentation. In einigen Fällen lässt sich bereits nach dieser Untersuchung durch die Betrachtung der Medulla die Tierart feststellen. Im Rasterelektronenmikroskop lässt sich die äußere Rindenschicht des Haares aufgrund der größeren Schärfentiefe deutlich darstellen. Diese gibt weitere Anhaltspunkte zur Tierartbestimmung. Immer sollte eine weitergehende Untersuchung zur Bestimmung der Elemente im Haar durchgeführt werden. Diese kann in Kombination mit im Rasterelektronenmikroskop integrierten oder separaten Geräten erfolgen. Zur Feststellung, welche chemischen Elemente im Haar vorkommen, und wie sich diese in Haaren von Tieren in der Natur zu behandelten Haaren unterscheiden, wurde mit dem im Rasterelektronenmikroskop integrierten EDRS die Messung der Elementmengen durchgeführt. Bei den Haaren handelt es sich um inhomogene Proben. Durch die Messung an verschiedenen Abschnitten mehrerer Haare konnten Unterschiede zwischen manipulierten und nicht manipulierten Haaren aufgezeigt werden. Die Messungen zu den Elementen wurden in einer Datenbank zusammengefasst, um einen schnellen Abgleich der Ergebnisse zu ermöglichen. Bei Verfügbarkeit ausreichender Mengen an Haarmaterial oder gesicherter Blutspur kann die Tierart mit Hilfe der DNA-Analyse ermittelt werden. Bei dieser Methode kommt es allerdings zur vollständigen Vernichtung der Beweismittel, da die Haare zur DNA-Gewinnung aufgelöst werden. Die Schäden an den Fahrzeugen sind bei einem Wildunfall von mehreren Faktoren abhängig. Unterschiede ergeben sich durch die Karosserieform und die Art des Fahrzeuges, die Relativgeschwindigkeit, die Größe und Masse des Tieres sowie die Anstoßkonstellation. Zum Abgleich, ob ein Schadenbild am Fahrzeug einem Tier zugeordnet werden kann, wurden Lichtbilder von mit Tieren kollidierten Fahrzeugen gesammelt. Die Spuren an den Fahrzeugen wurden ausgewertet, soweit es sich um gesicherte Wildunfälle handelte. Damit lässt sich nach der Feststellung der Tierart anhand der Antragspuren das Schadenbild abgleichen. Die wesentlichen Bilder und technischen Daten zum Fahrzeug wurden in einer eigens dafür erstellten Datenbank gesammelt. Teilweise konnten die Fahrzeuglenker befragt werden, welche dann weitere (subjektive) Angaben zum Unfallhergang gaben. Wichtig für die Beurteilung sind die Lichtbilder mit den Beschädigungen und der Spurenlage. Da selten alle Information zum Wildunfall in der Datensammlung vorliegt, wurde eine einfache Differenzierung zur Qualität mit einem "Fünfsternesystem" erarbeitet. Die Vergleichsfälle in der Datenbank kommen aus drei Datenquellen. Diese sind (1) nachgewiesene Wildunfälle aus Gutachten, (2) am Unfallort aufgenommene Wildunfälle und (3) Schadenbilder aus selbstdurchgeführten Versuchen.



Jacobi, Marco;
Fahrzeugführung für die automatisierte Unterwasser-Inspektion. - Ilmenau : Universitätsverlag Ilmenau, 2020. - xxvi, 259 Seiten
Technische Universität Ilmenau, Dissertation 2019

ISBN 978-3-86360-211-6

In der vorliegenden Arbeit werden neue Konzepte für die autonome und hoch automatisierte Inspektion von Unterwasserstrukturen mittels unbemannter Fahrzeuge entwickelt sowie deren Implementation und Einsatz unter realen Bedingungen vorgestellt. Regelmäßige Inspektionen von produktiven Anlagen sind grundlegende Maßnahmen für einen reibungslosen, störungsfreien produktiven Betrieb dieser Anlagen. Kostendruck, neue und mehr Offshore-Konstruktionen wie Energiegewinnungsanlagen sowie das Vordringen in größere Wassertiefen erfordern einen hohen Grad an Automation und Überwachung der Anlagen. Aktuell werden die Unterwasserstrukturen dieser Anlagen mit Hilfe von Tauchern und ferngesteuerten, gefesselten Fahrzeugen inspiziert. Diese Verfahren erfordern einen hohen personellen und infrastrukturellen Aufwand und sind risikoreich für Personal und Material. Hier setzt die vorliegende Arbeit an, indem durch autonome Unterwasserfahrzeuge (AUVs) der Aufwand und das Einsatzrisiko reduziert sowie die Datenqualität verbessert werden kann. Zwei Inspektionsszenarien werden innerhalb der Arbeit behandelt: die Inspektion von Hafenanlagen sowie Pipeline und Seekabelinspektion. Dabei werden aktuelle Ansätze zur Inspektion dieser Anlagen vorgestellt und diskutiert sowie die in dieser Arbeit neu entwickelten Verfahren eingeordnet. Es wird intensiv auf die Implementation der Führungsalgorithmen sowie deren Erprobung eingegangen. Unterschiedliche Strukturen von Fahrzeugführungssystemen und der Missionsplanung von AUVs werden vorgestellt und verglichen. Dabei wird eine neue Möglichkeit der Integration von Inspektionsaufgaben in bestehende Fahrzeugführungs- und Missionsplanungssysteme sowie deren begleitende planenden und operativen Prozesse entwickelt und umgesetzt. Alle in der Arbeit entwickelten Verfahren wurden umgesetzt sowie simulativ und experimentell erprobt. Als Fahrzeuge standen das SeaCat-AUV für die Hafeninspektion und das KAPITAS-AUV mit einer weltweit einzigartigen Sensorausstattung für die Pipelineinspektion zur Verfügung.



Wack, Karl-Josef;
Interdisziplinäre Absicherung der Produktionsplanung in der Automobilindustrie. - Ilmenau : Universitätsverlag Ilmenau, 2020. - XIII, 313 Seiten
Technische Universität Ilmenau, Dissertation 2019

ISBN 978-3-86360-213-0

Die Automobilindustrie ist einer der bedeutendsten Industriezweige in Deutschland, die sich ständig im Spannungsfeld aus Qualität, Produktivität und Kosten bewegt. Der globale Wettbewerb führt zu kürzeren Innovations- sowie Produktzyklen - die Kundenanforderungen zu einer umfangreichen Individualisierbarkeit der Produkte. Die Produktkomplexität eines Automobils ist heutzutage enorm. Eine Komplexität, welche die Produktentwicklung, die Produktionsplanung sowie die Produktion ständig vor neue Herausforderungen stellt und in einem Streben nach Perfektion und kontinuierlicher Verbesserung mündet. Es ist beeindruckend zu durchleben, wie bei einem Produktionsanlauf alle Prozesse integriert werden und bei einer Serienfertigung ca. alle 90 Sekunden ein gefertigtes Fahrzeug vom Band läuft. Um einen effizienten Produktionsanlauf zu gewährleisten, wird dieser im Vorfeld abgesichert. In Bezug auf manuelle Montageumfänge findet dies in der sogenannten Produktionsvorbereitung statt, welche unter Beteiligung verschiedener Planungsbereiche interdisziplinär erfolgt. Die Produktionsvorbereitung ist der Serienentwicklung und Serienvorbereitung zugeordnet. In dieser Phase werden gemäß dem aktuellen Planungsstand physische Prototypen des Produktes stationsweise, mit den dazugehörigen Arbeitsinhalten, aufgebaut. Neben der Verifikation des eigentlichen Produktes dient diese Phase dazu, einen effizienten Produktionsanlauf sicherzustellen. Die Absicherung von Produkt und Produktion ist in der Automobilindustrie sehr gut etabliert und wird frühzeitig angewandt. Neben physischen Absicherungen werden vermehrt virtuelle Absicherungen durch den Einsatz von IT-Systemen und Simulationen eingesetzt. Die vorliegende Arbeit befasst sich mit der Phase der Produktionsvorbereitung und der damit verbundenen Absicherung des Produktionsanlaufs im Hinblick auf manuelle Montageumfänge in der Automobilindustrie. Im Fokus steht hierbei eine virtuelle Absicherung der Produktionsvorbereitung und die Unterstützung der Kollaboration und Dokumentation der interdisziplinären Produktionsvorbereitung.



Feldkamp, Niclas;
Wissensentdeckung im Kontext der Produktionssimulation. - Ilmenau : Universitätsverlag Ilmenau, 2020. - XII, 217, XIV-XX Seiten
Technische Universität Ilmenau, Dissertation 2019

ISBN 978-3-86360-210-9

Die diskrete Simulation stellt eine wichtige und etablierte Methode zur Untersuchung des dynamischen Verhaltens von komplexen Produktions- und Logistiksystemen dar. Sie ist daher zur Planung, Steuerung und Kontrolle solcher Systeme unerlässlich, beispielsweise in der Automobilindustrie oder in der Halbleiterfertigung. Klassische Simulationsstudien zielen in diesem Kontext üblicherweise darauf ab, typische, vorab definierte Fragestellungen zu beantworten. Dies geht oftmals einher mit der Simulation und Analyse einiger weniger vorab definierter Szenarien. Wirkzusammenhänge, die über diesen definierten Projektrahmen hinausgehen, bleiben daher eventuell unentdeckt. Auf der anderen Seite erwachsen mit steigender Rechenleistung und der allgemeinen Verfügbarkeit von Big-Data-Infrastrukturen neue Möglichkeiten zur Durchführung von sehr großen Bandbreiten von Simulationsexperimenten, um das Verhalten des Modells möglichst vollständig abzudecken und automatisiert auszuwerten. Dies wird allgemein als Data Farming bezeichnet. Ziel dieser Arbeit war es, die Methode des Data Farming für die Nutzung zur Wissensentdeckung in Produktionssimulationen zu übertragen und weiterzuentwickeln. Dazu wurde ein ganzheitliches Konzept ausgearbeitet, um unbekannte, versteckte und potenziell nützliche Wirkzusammenhänge in großen Mengen von Simulationsdaten entdecken zu können. Das Konzept beinhaltet hierzu die Auswahl geeigneter Experimentdesignmethoden, die Anwendung und Ausgestaltung von geeigneten Data-Mining-Verfahren in einem dafür zweckmäßigen und zielgerichteten Analyseprozess sowie die Definition geeigneter Visualisierungs- und Interaktionsmethoden zur iterativen, anwenderorientierten Analyse großer Mengen von Simulationsdaten. Darüber hinaus wurde das Konzept in einem ganzheitlichen Softwareframework prototypisch implementiert. Die Anwendbarkeit des Konzeptes wurde anhand von vier Fallstudien aufgezeigt und validiert. Die Fallstudien beinhalteten hierbei zwei akademische Laborstudien sowie zwei Industrieanwendungsfälle.



Höpping, Kristian;
Ein Beitrag zur Potenzialanalyse von reifenfülldruckbasierten Fahrerassistenzsystemen. - Ilmenau : Universitätsverlag Ilmenau, 2019. - XXX, 253, A-60 Seiten. - (Kraftfahrzeugtechnische Berichte ; Band 11)
Technische Universität Ilmenau, Dissertation 2019

ISBN 978-3-86360-209-3

Bei der Wahl des optimalen Reifenfülldrucks besteht ein sehr großes Spannungsfeld zwischen sich gegenüberstehenden Komfort-, Sicherheits- und Umweltanforderungen. Eine intelligent geregelte Reifenfülldruckregelanlage (RDRA), die den Reifeninnendruck hochdynamisch und radselektiv in Abhängigkeit des Fahrzeug- und Fahrbahnzustands adaptiert, verspricht ein großes Potenzial zur Minimierung der Zielkonflikte. Im Rahmen dieser Forschungsarbeit wird eine Methodik zur Realisierung und Bewertung der Leistungsfähigkeit eines reifenfülldruckbasierten Fahrerassistenzsystems erarbeitet. Die Entwicklung eines Reifenmessanhängers sowie eines Corner-Modul-Prüfstands als mobile bzw. stationäre Prüfeinrichtung zur Charakterisierung von Reifeneigenschaften unter Real- bzw. Laborbedingungen sowie die Erarbeitung einer Mess- und Auswertemethode erlauben die Untersuchung des Kraftschlussverhaltens von Reifen. Neben der Bewertung verschiedener Einflussgrößen quantifizieren die analysierten Messergebnisse erstmals den Einfluss großer Reifenfülldruckvariationen auf das Umfangskraftverhalten von Pkw-Reifen. Da die Reifencharakteristiken, die im Labor auf Prüfstandstrommeln sowie auf realer Asphaltfahrbahn erfasst wurden, teilweise voneinander abweichen, wird eine Umrechnungsmethode erarbeitet, die den Fahrbahnkrümmungseinfluss berücksichtigt. Das Verfahren erlaubt es, Umfangskraftbeiwert-Schlupf-Kennlinien anhand von Reifenlatschmessungen zu skalieren. Schließlich wird die allgemeingültige Anwendbarkeit des Umrechnungsverfahrens sowie der Einfluss der Fahrbahnbeschaffenheit auf das bestimmte Kraftschlussverhalten diskutiert. Der Reifen ist das einzige Bindeglied zwischen dem Kraftfahrzeug und der Fahrbahn. Für numerische Analysen ist die Wahl geeigneter Reifenmodelle sowie die Gewährleistung geringer Approximationsfehler daher unabdingbar. Zur Abbildung des Reifenverhaltens werden die für Fahrdynamiksimulationen besonders relevanten Magic Formula-, HSRI- und Deur-Reifenmodelle für große Reifenfülldruckvariationen erweitert. Eine entwickelte Parametrisierungsmethode erlaubt es, die Koeffizienten der Modelle anhand der Messdaten zu identifizieren. Mit den im Rahmen der hier vorliegenden Forschungsarbeit eingeführten Modellerweiterungen wird erstmals die Möglichkeit geschaffen, mit den genannten Reifensimulationsmodellen große Reifenfülldruckvariationen zu berücksichtigen. Ein entwickeltes Gesamtfahrzeug-Co-Simulationsmodell zur numerischen Berechnung des Fahrdynamikverhaltens von Kraftfahrzeugen erlaubt, neben der Implementierung der erweiterten Reifenmodellgleichungen, die Integration eines parametrisierten Radschlupfregelsystems sowie einer erarbeiteten Reifenfülldruckregelanlage als MIL-Modelle. Der interdisziplinäre und ganzheitliche Simulationsansatz bietet erstmals die Möglichkeit, den Einfluss einer radselektiven, hochdynamischen Reifenfülldruckadaption auf die Fahrdynamik von Kraftfahrzeugen zu bewerten. Der Einfluss verschiedener Parametervariationen sowie die Analyse unterschiedlicher Regelphilosophien auf das im Fokus der Forschung stehende Bremswegverkürzungspotenzial wird dargestellt. Die Resultate erlauben die Schlussfolgerung, dass mithilfe einer gezielten Reifenfülldruckadaption der Bremsweg signifikant verringert werden kann. Schließlich werden die Komponenten einer Reifenfülldruckverstellanlage ausgelegt und, zusammen mit einer entwickelten Regelstrategie, in einem Demonstratorfahrzeug implementiert. Damit wird erstmals eine hochdynamische Reifenfülldruckregelanlage in einem Versuchsfahrzeug realisiert und die Möglichkeit geschaffen, das Potenzial einer intelligent geregelten, hochdynamischen Reifenfülldruckregelanlage als Fahrerassistenzsystem experimentell zu bewerten. Durch umfangreiche Fahrversuche auf einem Testgelände wird das Gesamtfahrzeug-Co-Simulationsmodell validiert. Ein Vergleich numerisch berechneter und experimentell analysierter Bremsweguntersuchungen erlaubt es, die Leistungsfähigkeit der erweiterten Reifenmodelle zur Simulation des Bremswegverkürzungspotenzials durch eine Reifeninnendruckadaption zu bewerten. Nicht zuletzt durch die Analyse des Kraftübertragungsverhaltens im Reifen-Fahrbahn-Kontakt mithilfe eines Radkraftsensors wird das Wirkprinzip eines reifenfülldruckbasierten Fahrerassistenzsystems nachgewiesen. Mit der vorliegenden Forschungsarbeit wird ein Beitrag zur simulativen und experimentellen Bewertung des Potenzials, insbesondere zur Bremswegverkürzung, eines reifenfülldruckbasierten Fahrerassistenzsystems geleistet.



Rabenbauer, Pascal;
Entwicklung eines bleifreien, niedrigschmelzenden und hochbrechenden Spezialglases für den Einsatz als Streuschichtmatrix in organischen Leuchtdioden. - Ilmenau : Universitätsverlag Ilmenau, 2019. - xiv, 138, XXXVIII Seiten. - (Werkstofftechnik aktuell ; Band 20)
Technische Universität Ilmenau, Dissertation 2019

ISBN 978-3-86360-208-6

Bleifreie, niedrigschmelzende und hochbrechende Spezialgläser wurden mit dem Ziel synthetisiert, diese als Streuschicht in einer organischen Leuchtdiode (OLED) zu verarbeiten und damit die interne Lichtauskopplung zu erhöhen. Ausgehend von ternären Systemen auf Basis eines B2O3- und/oder SiO2-Netzwerks wurden zunächst Bi2O3- respektive TeO2-haltige Gläser hergestellt. Darüber hinaus wurden der Einfluss und die Wirkungsweise weiterer Oxide auf diese Glassysteme analytisch erfasst. Ausgewählte Gläser wurden als Pulver zusammen mit 1-3 [my]m großen TiO2- oder SiO2-Streupartikeln zu einer Paste verarbeitet, in einem Siebdruckprozess auf ein Substrat aus Kalk-Natron-Silicatglas appliziert und abschließend verglast. Um daraus eine funktionsfähige OLED herzustellen wurde in einem Reinraumprozess auf die Komponente aus Substratglas und Streuschicht eine Schichtabfolge aus ITO-Anode, Emitterschichten und Kathode aufgebracht. Als besonders geeignet stellten sich Gläser aus dem System Bi2O3-B2O3-SiO2-ZnO-SrO-BaO (B:BSZSB) heraus. Mit ihnen konnten neben der Anpassung der Wärmeausdehnung an das Substrat auch die Brechzahlanpassung an die ITO-Anode mit nd = 1,90 ± 0,1, eine Transformationstemperatur Tg < 450 &ring;C und eine hohe Transmission im sichtbaren Bereich gewährleistet werden. Als ideal für die Verglasung von B:BSZSB-haltigen Schichten stellte sich ein Partikeldurchmesser d90 = 4,76 [my]m und eine möglichst enge Kornverteilung aus abgerundeten Partikeln dar. Die Partikel sollten dabei idealerweise gleichverteilt sein. Ziel war es, die Auskoppeleffizienz der OLED mittels Glasstreuschicht um mindestens 50 % zu steigern. Konkret bedeutet das, eine Lichtausbeute von [eta] ≥ 40 lm/W zu erreichen. Das optimale Streuvermögen für die Lichtextraktion aus einer OLED konnte durch einen Haze von 0,6-0,9 erzielt werden. Maßgeblich dafür sind die Schichtdicke und die darin enthaltene Streupartikelkonzentration. Die höchste Lichtausbeute von [eta] = 55 lm/W konnte für OLEDs mit einer eigenentwickelten 15 [my]m dicken Streuschicht der Zusammensetzung 23Bi2O3-38B2O3-4SiO2-24ZnO-4SrO-7BaO (mol-%) und einer Streupartikelkonzentration von 2,5 Vol.-% TiO2 realisiert werden. Im Vergleich zur Referenz-OLED ohne Streuschicht ([eta] = 26 lm/W) entspricht die erzielte Lichtausbeute, bei einer konstanten Leuchtdichte von 2000 cd/m2, einer Steigerung um 110 %. Die Übertragung des Prozesses vom Labormaßstab in die industrielle Fertigung im Reinraum konnte durch die Übergabe des Beschichtungsverfahrens inklusive aller nötigen optimierten Prozessschritte und -parameter an die OSRAM OLED GmbH gewährleistet werden.



Niedermeyer, Lars;
Filtrationskinetik offener Partikelfilter. - Ilmenau : Universitätsverlag Ilmenau, 2019. - XXXI, 201 Seiten. - (Kraftfahrzeugtechnische Berichte ; Band 10)
Technische Universität Ilmenau, Dissertation 2019

ISBN 978-3-86360-206-2

Das Reinigen eines partikelbeladenen Aerosols mit Hilfe faserbasierter Filter ist eine weit verbreitete Methode. Die der Reinigung zugrunde liegenden Vorgänge sind hochkomplex und in einfachen Modellen mathematisch nicht zu beschreiben. Die numerische Berechnung faserbasierter Filter in ihrer Gesamtheit stellt heutzutage immer noch eine sehr große Hürde dar. Bekannte Ansätze beschränken sich meist auf die ausschnittsweise Beschreibung der Vorgänge in kleinen Teilen des Filters oder betrachten nur einzelne Fasern des Filters. Die ganzheitliche Berechnung der Vorgänge in einem Partikelfilter muss stets unter Berücksichtigung aller, die Abscheidung von Partikeln betreffender Größenskalen erfolgen. Die vorliegende Arbeit beschäftigt sich mit der methodischen Entwicklung eines Berechnungsansatzes für die numerische Berechnung der zeitabhängigen Filtration eines Gesamtfilters in einer 3D Simulation. Berücksichtigt werden dabei insbesondere die in verschiedenen Größenskalen ablaufenden Vorgänge der Filtration. Dazu zählen vor allem das Abscheiden von Partikeln an einzelnen Fasern, die Durchströmung des Vlieses, das Durchströmen des Gesamtfilters sowie die zeitabhängige Beladung des Filters. Den Beginn der Arbeit stellt die Entwicklung eines Programms zur Bestimmung der Einzelfasereffektivität durch die Berechnung der Partikeltrajektorien um die Faser für verschiedene Partikeldurchmesser und Anströmgeschwindigkeiten dar. Berücksichtigung in dieser Berechnung finden Abscheidemechanismen wie die Diffusion, die Interzeption und die Impaktion. Das Ergebnis der Berechnungen ist eine Datenbank, die die Einzelfasereffektivität für das Intervall von Partikelgrößen und Anströmgeschindigkeiten über einen gegebenen Faserdurchmesser wiedergibt. Aufbauend auf diesem Ergebnis wird ein 3D CFD Simulationsmodell des Partikelfilters erstellt und zunächst für den stationären Fall das Strömungsfeld und die Abscheideeffektivität berechnet. Strömungsfeld und Abscheideeffektivität werden anhand geeigneter, experimenteller Untersuchungen plausibilisiert. Mit der Kenntnis der stationären Ergebnisse wird die zeitabhängige Beladung des Modells berechnet. Abschließend wird gezeigt, dass die erarbeitete Methodik für beliebige, faserbasierte Filter anwendbar ist.



Brethauer, Andreas;
Entwicklung einer Methode zur Temperaturbestimmung von Fluiden mithilfe von Berührungsthermometern bei niedrigen Eintauchtiefen. - Ilmenau : Universitätsverlag Ilmenau, 2019. - XVI, 229 Seiten
Technische Universität Ilmenau, Dissertation 2019

ISBN 978-3-86360-207-9

Die exakte Bestimmung der Temperatur gewinnt u. a. in der Wärmeverbrauchsmessung eine immer höhere Bedeutung. Hier wird mithilfe der Temperaturdifferenz an einem Vor- und Rücklauf in Kombination mit der Durchflussmenge die entnommene Wärme bestimmt. Messabweichungen haben hier eine direkte Auswirkung auf die Kostenabrechnung. Konstruktionsbedingt ist bei den gängigen Wärmemengenzählern an der Thermometer-Einbaustelle des Rücklaufs nur wenig Platz. Hier wird häufig tangential in das Medium eingetaucht, was eine nicht vernachlässigbare Messabweichung verursacht. In der Arbeit wird die Messabweichung durch Wärmeableitung und das Ansprechverhalten von Widerstandsthermometern bei geringen Eintauchtiefen in ein zu messendes Medium näher untersucht. Dabei wird die Bedeutung einer thermischen Ankopplung des Sensors an das Medium, sowie die Entkopplung von der anders temperierten Umgebung deutlich. Einen Einfluss hat auch das verwendete Medium. In der Wärme-/Kälteübertragung werden häufig Wasser-Glykol-Gemische verwendet. Deren Verwendung hat gerade bei niedrigen Strömungsgeschwindigkeiten einen hohen Einfluss auf die thermische Messabweichung und das Ansprechverhalten eines Widerstandsthermometers. Zudem wurde auch die Möglichkeit zur Nutzung des Loop Current Step Response Tests in der Wärmeverbrauchsmessung validiert. Dies erlaubt das Messen von Ansprechzeiten unter Einbaubedingungen. Ziel der Arbeit ist die Nutzbarmachung erzielter Erkenntnisse. So wurde eine Prüfeinrichtung zur Untersuchung von Widerstandsthermometern unter Einbaubedingungen entwickelt und validiert. Diese, als Strömungskanal konzipierte Prüfeinrichtung, erlaubt die Untersuchung des statischen und dynamischen Verhaltens von Thermometern, sowie den direkten Vergleich unterschiedlicher Einbaustellen. Die Messstrecken sind über ein Kleinflansch-Verbindungssystem austauschbar. Die Durchführung und Auswertung der unterschiedlichen Messprogramme läuft automatisch über eine eigens entwickelte Software ab. Eine weitere Neuentwicklung ist ein für niedrige Eintauchtiefen optimiertes Widerstandsthermometer. Hier wurden wärmeleitfähige und thermisch isolierende Kunststoffe kombiniert. So wurde eine gute Ankopplung des Temperatursensors an das zu messende Medium, sowie eine Entkopplung von der anders temperierten Umgebung realisiert.



Jancke, Roland;
Modellierung der Zuverlässigkeit bei Entwurf und Verifikation von Mixed-Signal-Schaltungen. - Ilmenau : Universitätsverlag Ilmenau, 2019. - 190 Seiten
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-204-8

Die zunehmende Verbreitung von Elektronik im Alltag und die weitere Verringerung der Strukturgrößen stellt neue Anforderungen an die Zuverlässigkeit und Verfügbarkeit integrierter Schaltungen. Modellierung zur Unterstützung des Schaltkreis- und Systementwurfs wird seit langer Zeit eingesetzt, bisher hauptsächlich zur Nachbildung des funktionalen Verhaltens einer Schaltung. Die vorliegende Arbeit verfolgt zwei Ziele: - Zu bekannten Modellierungsverfahren für das funktionale Verhalten wird eine Systematik entwickelt und in einen durchgängigen Modellierungsablauf abgebildet. - Die Methodik wird um die Modellierung nichtfunktionaler Eigenschaften erweitert, insbesondere werden Verfahren zur Berücksichtigung der Zuverlässigkeit entwickelt. Für die Zuverlässigkeitsmodellierung werden in erster Linie Degradationseffekte betrachtet, die während des bestimmungsgemäßen Betriebs entstehen und sich auf das elektrische Verhalten integrierter Bauelemente auswirken. Als eine wesentliche Voraussetzung für die entwickelten Verfahren zur Berücksichtigung der elektrischen Degradation wird lineare Schadensakkumulation angenommen. Dies bedeutet, dass die zeitliche Abfolge des anliegenden Stresses keine Rolle spielt, sondern sich die entstehende Schädigung linear akkumuliert. Das Ergebnis der Arbeit ist eine systematische Vorgehensweise zur Modellierung des funktionalen Verhaltens von analogen und Mixed-Signal-Schaltungen. Diese wird ergänzt um neue Verfahren zur Berücksichtigung zuverlässigkeitsrelevanter Eigenschaften der Schaltung. Analogien zur Mechanik erlauben es, in diesem Bereich etablierte Vorgehensweisen zur Beschreibung und Analyse der Zuverlässigkeit zu übernehmen und auf die Degradationseffekte integrierter Halbleiterbauelemente anzuwenden. Entsprechende Lebensdauermodelle zu relevanten Degradationsmechanismen sind dargestellt. Ausgehend von der generellen Struktur solcher Modelle werden allgemeine Maße zur Zuverlässigkeitsbewertung von Bauelementen unter Anwendungsbedingungen abgeleitet. Die Diskussion von Methoden zur Analyse der Zuverlässigkeit ganzer Schaltungen im Entwurf rundet die Darstellung ab. Die entwickelten Verfahren dienen der Unterstützung eines schnellen und fehlerfreien Entwurfs sicherer und zuverlässiger Schaltungen. Anhand der Optimierung einer Schaltung auf der Grundlage ihres Alterungsverhaltens wird dieser Nutzen verdeutlicht.