Publikationen aus dem Universitätsverlag Ilmenau

Anzahl der Treffer: 377
Erstellt: Thu, 28 Mar 2024 23:15:31 +0100 in 1.6741 sec


Sattler, Kai-Uwe
Engineering for a changing world : 60th ISC, Ilmenau Scientific Colloquium, Technische Universität Ilmenau, September 4-8, 2023 : programme. - Ilmenau : Technische Universität Ilmenau, 2023. - 130 Seiten ISBN 978-3-86360-274-1

Bergmann, Sören; Feldkamp, Niclas; Souren, Rainer; Straßburger, Steffen
Simulation in Produktion und Logistik 2023 : ASIM Fachtagung : 20. Fachtagung, 13.-15. September 2023, TU Ilmenau. - Ilmenau : Universitätsverlag Ilmenau, 2023. - XII, 485 Seiten. - (ASIM-Mitteilung ; Nr. 187) ISBN 978-3-86360-276-5
Literaturangaben

Hartwig, Raphael;
Optimierter Multilevel-GaN-Umrichter für Niederspannungsindustrieanwendungen. - Ilmenau : Universitätsverlag Ilmenau, 2023. - XXXI, 155 Seiten
Technische Universität Ilmenau, Dissertation 2022

ISBN 978-3-86360-275-8

Das große Bauvolumen aktueller industrieller dreiphasiger Zweilevel-Netzumrichter und die damit verbundene geringe Leistungsdichte wird hauptsächlich durch den notwendigen EMV-Filter hervorgerufen. Aktuelle Veröffentlichungen zur Flying-Capacitor-Multilevel-Topologie zeigen das enorme Potential dieser Topologie im Hinblick auf kompakte EMV-Filter und eine damit verbundene hohe Leistungsdichte des gesamten Umrichters. Das Ergebnis dieser Arbeit zeigt, wie der Flying-Capacitor-Multilevel-Umrichter in Kombination mit GaN-Schaltern für Niederspannungsindustrie-anwendungen aussehen kann. Auf Basis der benötigten Komponenten eines solchen Umrichters wird zunächst eine Monte-Carlo Optimierung angefertigt. Die Ergebnisse dieser Optimierung zeigen einen Bereich für die elektrischen Parameter auf, in welchem eine größtmögliche Leistungsdichte und Effizienz für diesen Umrichter erzielt werden kann. Beruhend auf den Ergebnissen werden unterschiedlichste Hardwareprototypen, startend von der einzelnen Kommutierungszelle bis hin zum dreiphasigen Umrichter, vorgestellt. Untersuchungen an diesen Prototypen zeigen, dass es für die hohen resultierenden Schaltfrequenzen des dargestellten Umrichters noch einige unerforschte Effekte gibt. Diese beruhen zum Teil auf kleinsten parasitären Komponenten der Leiterplatte, oder der verwendeten Bauteile und können die Ausgangskennlinien des Umrichters stark beeinträchtigen. Mittels einer Simulation des Umrichters am Netz wird zudem validiert, dass ein solcher Umrichter mit einem dynamischen geschlossenen Regelkreis, wie er in Zweilevel-Umrichtern eingesetzt wird, betrieben werden kann. Überdies werden die typischen Betriebsbedingungen eines industriellen Umrichters theoretisch betrachtet, simuliert und validiert. Die Ergebnisse dieser Arbeit zeigen, dass die Topologie des Flying-Capacitor-Multilevel-Umrichters in Kombination mit GaN-Schaltern zu einer Verbesserung der Leistungsdichte, der Verluste und der Dynamik jeweils um Faktoren führen kann.



Iqbal, Naveed;
Millimeter wave radio channels: properties, multipath modeling and simulations. - Ilmenau : Universitätsverlag Ilmenau, 2023. - xxi, 145 Seiten
Technische Universität Ilmenau, Dissertation 2022

ISBN 978-3-86360-273-4

In dieser Arbeit werden drei grundlegende Probleme der Modellierung von Drahtloskanälen für die Anwendung bei der Funkkanalmodellierung im Millimeterwellenbereich (mmWave) untersucht, nämlich (i) die Frequenzabhängigkeit der Ausbreitung, (ii) der Einfluss der Antennenrichtwirkung auf die Definition des Kanalmodells und (iii) der Einfluss der Systembandbreite auf die Funkkanalmodellierung. Die detaillierte Beschreibung dieser Probleme lautet wie folgt: (i) Frequenzabhängigkeit der Ausbreitung. Mehrband-Messkampagnen werden mit Richtantennen durchgeführt, die eine omnidirektionale Abtastung der Ausbreitungsumgebung vornehmen. Während der Messungen werden die Tx-Rx-Systeme an festen Positionen platziert und die Ausbreitungsumgebung bleibt so statisch wie möglich. Mit Hilfe von synthetisierten omnidirektionalen Verzögerungs-Leistungsprofilen soll untersucht werden, ob es eine Frequenzabhängigkeit in der Mehrwegeausbreitungsstatistik gibt, z.B. in der Verzögerung und der Winkelspreizung. (ii) Einfluss der Antennenrichtwirkung auf die Definition des Kanalmodells. Es werden Messungen des schnellen Schwunds durchgeführt, die ein Szenario emulieren, bei dem eine Funkverbindung über ein einzelnes Mehrwege-Cluster aufgebaut wird, das mit Antennen mit unterschiedlichen Strahlbreiten ausgeleuchtet wird. Das Hauptziel ist hier die Untersuchung des Einflusses der räumlichen Filterung auf den schnellen Schwund aufgrund der hohen Antennenrichtwirkung. Insbesondere wird die Auswirkung auf Variationen der Empfangssignalstärke und die Gültigkeit der Annahme der schmalbandigen Stationarität im weiteren Sinne (sowohl im Zeit- als auch im Frequenzbereich) untersucht. (iii) Einfluss der Systembandbreite auf die Funkkanalmodellierung. Messungen des schnellen Schwunds werden verwendet, um Mehrwege-Cluster in einem Hörsaal-Szenario auszuleuchten. Das primäre Ziel ist es, den Einfluss einer hohen Systembandbreite auf die Variationen der Empfangssignalstärke, die Zufälligkeit des Kreuzpolarisationsverhältnisses und die Reichhaltigkeit der Mehrwegstreuung zu untersuchen. Basierend auf der Charakterisierung realistischer Funkkanäle führen die in dieser Dissertation vorgestellten Ergebnisse zu dem Verständnis, dass beim Übergang zu höheren Frequenzen die Frequenz x selbst keine signifikante Rolle bei der Definition der Kanalmodellierungsmethodik spielt. Vielmehr ist es von grundlegender Bedeutung, wie ein Ausbreitungskanal ausgeleuchtet wird. Daher zeigt sich, dass mmWave-Systemeigenschaften wie eine hohe Antennenrichtcharakteristik und Systembandbreite einen hohen Einfluss auf die Definition des Kanalmodells haben. Im Allgemeinen ist die Skalierung der Schwundtiefe als Funktion der Systembandbreite ziemlich gut verstanden. Wir zeigen, dass die hohe Antennenrichtwirkung von mmWave-Systemen zu einer weiteren Reduzierung der Schwundtiefe führt. Zusätzlich erforschen wir einige neue Richtungen in diesem Forschungsbereich, die auf der Analyse der Statistik zweiter Ordnung des Kanalimpulsantwort-Vektors basieren. Unsere Ergebnisse unterstreichen, dass die Schwund-Statistiken der auflösbaren Kanalabgriffe in einem mmWave-Funkkanal nicht als Rayleigh-Rice-verteilte Zufallsvariablen modelliert werden können. Dies liegt vor allem daran, dass durch die hohe Antennenrichtwirkung und Bandbreite von mmWave-Systemen Kanäle mit spärlichen Streubedingungen ausgeleuchtet werden. Folglich ist die Annahme komplexer Gaus’scher Zufallsvariablen, die mit Rayleigh-Rice Schwundverteilungen verbunden ist, nicht mehr gültig. Des Weiteren wird gezeigt, dass die hohe Antennenrichtwirkung und Bandbreite von mmWave-Systemen auch die Gültigkeit der Annahme von Stationarität im weiteren Sinne im Slow-Time-Bereich von mmWave-Funkkanälen in Frage stellt. Die in diesem Beitrag vorgestellten Ergebnisse sind neuartig und bieten theoretisch konsistente Einblicke in den gemessenen Funkkanal.



Brosinsky, Christoph;
On power system automation: a Digital Twin-centric framework for the next generation of energy management systems. - Ilmenau : Universitätsverlag Ilmenau, 2023. - XVI, 210 Seiten. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik ; Band 33)
Technische Universität Ilmenau, Dissertation 2022

ISBN 978-3-86360-266-6

Das elektrische Energiesystem befindet sich in einem umfangreichen Transformationsprozess. Durch die voranschreitende Energiewende und den zunehmenden Einsatz erneuerbarer Energieträger sind in Deutschland viele konventionelle Kraftwerke bereits stillgelegt worden oder werden in den nächsten Jahren stillgelegt. Diese Veränderungen führen unter anderem zu einer erhöhten Betriebsmittelauslastung sowie zu einer verringerten Systemträgheit und somit zu einer zunehmenden Anzahl komplexer dynamischer Phänomene im elektrischen Energiesystem. Der Betrieb des Systems näher an den physikalischen Grenzen führt des Weiteren zu einer erhöhten Störanfälligkeit und zu einer verkürzten Zeitspanne, um auf kritische Ereignisse und Störungen zu reagieren. Infolgedessen wird die Aufgabe, das Stromnetz zu betreiben anspruchsvoller. Insbesondere dort wo Reaktionszeiten erforderlich sind, welche die menschlichen Fähigkeiten übersteigen sind die zuvor genannten Veränderungen intrinsische Treiber hin zu einem höheren Automatisierungsgrad in der Netzbetriebs- und Systemführung. Aufkommende Echtzeitanwendungen in den Informations- und Betriebstechnologien und eine zunehmende Menge an hochauflösenden Sensordaten ermöglichen neue Ansätze für den Entwurf und den Betrieb von cyber-physikalischen Systemen. Ein vielversprechender Ansatz, der in jüngster Zeit in diesem Zusammenhang diskutiert wurde, ist das Konzept des so genannten Digitalen Zwillings. Da das Zusammenspiel von Informations- und Betriebstechnologien im Konzept des Digitalen Zwillings vereint wird, kann es als Grundlage für eine zukünftige Leitsystemarchitektur und neuartige Anwendungen der Leittechnik herangezogen werden. In der vorliegenden Arbeit wird ein Framework entwickelt, welches einen Digitalen Zwilling in einer neuartigen modularen Leitsystemarchitektur für die Aufgabe der Überwachung und Steuerung zukünftiger Energiesysteme zweckdienlich einsetzbar macht. In Ergänzung zu den bereits vorhandenen Funktionen moderner Netzführungssysteme unterstützt das Konzept die Abbildung der Netzdynamik auf Basis eines dynamischen Netzmodells. Um eine realitätsgetreue Abbildung der Netzdynamik zu ermöglichen, werden zeitsynchrone Raumzeigermessungen für die Modellvalidierung und Modellparameterschätzung herangezogen. Dies erhöht die Aussagekraft von Sicherheitsanalysen, sowie das Vertrauen in die Modelle mit denen operative Entscheidungen generiert werden. Durch die Bereitstellung eines validierten, konsistenten und wartbaren Datenmodells auf der Grundlage von physikalischen Gesetzmäßigkeiten und während des Betriebs gewonnener Prozessdaten, adressiert der vorgestellte Architekturentwurf mehrere Schlüsselanforderungen an moderne Netzleitsysteme. So ermöglicht das Framework einen höheren Automatisierungsgrad des Stromnetzbetriebs sowie den Einsatz von Entscheidungsunterstützungsfunktionen bis hin zu vertrauenswürdigen Assistenzsystemen auf Basis kognitiver Systeme. Diese Funktionen können die Betriebssicherheit erhöhen und stellen einen wichtigen Beitrag zur Umsetzung der digitalen Transformation des Stromnetzbetriebs, sowie zur erfolgreichen Umsetzung der Energiewende dar. Das vorgestellte Konzept wird auf der Grundlage numerischer Simulationen untersucht, wobei die grundsätzliche Machbarkeit anhand von Fallstudien nachgewiesen wird.



Severin, Sandra;
Entwicklung eines Reifegradmodells für cloudbasierte Fernsehproduktionsprozesse. - Ilmenau : Universitätsverlag Ilmenau, 2023. - X, 205 Seiten, Seite XI-XXXI
Technische Universität Ilmenau, Dissertation 2022

ISBN 978-3-86360-270-3

Seit einigen Jahren ermöglichen neue Technologien in der Fernsehproduktion dezentrales, paralleles und vor allem schnelleres Arbeiten. Speziell das Potenzial der Cloud-Technologie mit ihren vielfältigen und neuartigen Einsatzmöglichkeiten entlang des Fernsehproduktionsprozesses kann sich jedoch nur entfalten, wenn die zumeist historisch gewachsenen Fernsehproduktionsprozesse an die neuen Möglichkeiten angepasst werden. Das gelingt oft nur mit einer ganzheitlichen Betrachtung der Prozesse. Eine wissenschaftliche Systematik mit erprobten Instrumentarien bietet dazu das Geschäftsprozessmanagement, das mit sogenannten Reifegradmodellen die Prozessreife bewertet und Maßnahmen für eine Optimierung hin zu einer höheren Reifestufe vorschlägt. Eine Situationsanalyse der Literatur tangierter Fachgebiete und der Praxis hat gezeigt, dass die Optimierung von Prozessen im besonders spezifischen Fernsehproduktionskontext nicht ausreichend thematisiert wird. Das Ziel dieser Ausarbeitung ist, diese Forschungslücke zu schließen und ein spezifisches Prozessreifegradmodell für die cloudbasierte Fernsehproduktion zu entwickeln, das bewertet, inwieweit diese Prozesse mit Blick auf die Cloud-Nutzung optimiert sind. Es wird erläutert, welche Potenziale Cloud Computing als Basistechnologie für die Fernsehproduktion bietet und wie die cloudbasierten Prozesse gestaltet sein müssen, damit sie dieses Potenzial ausschöpfen. Schritt für Schritt wird nach dem Bottom-up-Vorgehen von de Bruin et al. das Reifegradmodell hergeleitet, d. h., dass aus den theoretischen Grundlagen der Situationsanalyse und den Erkenntnissen der Fernsehproduktionspraxis heraus, die in verschiedenen empirischen Erhebungen mit Expertinnen und Experten der Fernsehbranche gewonnen werden, die Inhalte des Reifegradmodells von Grund auf erstellt werden. Um die Praxistauglichkeit des entwickelten Modells zu sichern, wird eben dieses abschließend in unterschiedlich organisierten Fernsehsendern evaluiert. Die zielorientierte Evaluation wird formativ durch die Anwendung des Reifegradmodells in drei Fallstudien und summativ durch leitfadengestützte Einzelinterviews durchgeführt. Eine Legitimation des Reifegradmodells sowie Verbesserungspotenziale zur Weiterentwicklung des Modells erfolgen daraus. Das Kernergebnis der Arbeit ist das weiterentwickelte Reifegradmodell für cloudbasierte Fernsehproduktionsprozesse.



Simon, Martin;
Point cloud processing for environmental analysis in Autonomous Driving using Deep Learning. - Ilmenau : Universitätsverlag Ilmenau, 2023. - xvi, 120, LVI Seiten
Technische Universität Ilmenau, Dissertation 2023

ISBN 978-3-86360-272-7

Eines der Hauptziele führender Automobilhersteller sind autonome Fahrzeuge. Sie benötigen ein sehr präzises System für die Wahrnehmung der Umgebung, dass für jedes denkbare Szenario überall auf der Welt funktioniert. Daher sind verschiedene Arten von Sensoren im Einsatz, sodass neben Kameras u. a. auch Lidar Sensoren ein wichtiger Bestandteil sind. Die Entwicklung auf diesem Gebiet ist für künftige Anwendungen von höchster Bedeutung, da Lidare eine genauere, von der Umgebungsbeleuchtung unabhängige, Tiefendarstellung bieten. Insbesondere Algorithmen und maschinelle Lernansätze wie Deep Learning, die Rohdaten über Lernzprozesse direkt verarbeiten können, sind aufgrund der großen Reichweite und der dreidimensionalen Auflösung der gemessenen Punktwolken sehr wichtig. Somit hat sich ein weites Forschungsfeld mit vielen Herausforderungen und ungelösten Problemen etabliert. Diese Arbeit zielt darauf ab, dieses Defizit zu verringern und effiziente Algorithmen zur 3D-Objekterkennung zu entwickeln. Sie stellt ein tiefes Neuronales Netzwerk mit spezifischen Schichten und einer neuartigen Fehlerfunktion zur sicheren Lokalisierung und Schätzung der Orientierung von Objekten aus Punktwolken bereit. Zunächst wird ein 3D-Detektor entwickelt, der in nur einem Vorwärtsdurchlauf aus einer Punktwolke alle Objekte detektiert. Anschließend wird dieser Detektor durch die Fusion von komplementären semantischen Merkmalen aus Kamerabildern und einem gemeinsamen probabilistischen Tracking verfeinert, um die Detektionen zu stabilisieren und Ausreißer zu filtern. Im letzten Teil wird ein Konzept für den Einsatz in einem bestehenden Testfahrzeug vorgestellt, das sich auf die halbautomatische Generierung eines geeigneten Datensatzes konzentriert. Hierbei wird eine Auswertung auf Daten von Automotive-Lidaren vorgestellt. Als Alternative zur zielgerichteten künstlichen Datengenerierung wird ein weiteres generatives Neuronales Netzwerk untersucht. Experimente mit den erzeugten anwendungsspezifischen- und Benchmark-Datensätzen zeigen, dass sich die vorgestellten Methoden mit dem Stand der Technik messen können und gleichzeitig auf Effizienz für den Einsatz in selbstfahrenden Autos optimiert sind. Darüber hinaus enthalten sie einen umfangreichen Satz an Evaluierungsmetriken und -ergebnissen, die eine solide Grundlage für die zukünftige Forschung bilden.



Kelker, Michael;
Optimierte Ladung von Elektrofahrzeugen als Markow Entscheidungsprozess mittels maschineller Lernalgorithmen. - Ilmenau : Universitätsverlag Ilmenau, 2023. - X, 191 Seiten. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA) ; Band 35)
Technische Universität Ilmenau, Dissertation 2022

ISBN 978-3-86360-271-0

Die Elektromobilität mit teils hohen Ladeleistungen ist für den sicheren Betrieb der elektrischen Verteilnetze zukünftig eine Herausforderung. Zur Reduzierung von Überlastungen in der Niederspannung werden daher Steueralgorithmen benötigt, um die Ladeleistung der Fahrzeuge zu steuern. Hierbei ergibt sich allerdings das Problem, dass die Niederspannungsnetze in der Regel messtechnisch nicht überwacht werden und so Eingangsdaten für Steueralgorithmen fehlen. In der Arbeit wird die Kombination von zwei maschinellen Lernalgorithmen untersucht. Die Steuerung der Ladeleistung von Elektrofahrzeugen ist als Markow-Entscheidungsprozess definiert, der mittels dem bestärkten Lernen gelöst wird. Für die Bereitstellung der Eingangsdaten wird ein künstliches neuronales Netz verwendet, das den Zustand eines Niederspannungsnetzes abschätzt. Durch das Zusammenspiel beider Algorithmen können die durch die Ladung von Elektrofahrzeugen ausgelösten Netzüberlastungen reduziert werden.



Wolling, Jens; Becker, Marius; Schumann, Christina
Klima(wandel)kommunikation : im Spannungsfeld von Wissenschaft, Medien und öffentlicher Meinung. - Ilmenau : Universitätsverlag Ilmenau, 2023. - 248 Seiten. - (NEU - Nachhaltigkeits-, Energie- und Umweltkommunikation ; Band 8) ISBN 978-3-86360-269-7
Literaturangaben

Nicht nur die Erforschung des Klimawandels ist komplex, sondern auch die Analyse der Kommunikation über diese Forschung. Kommunikation über den Klimawandel ist nicht nur Wissenschaftskommunikation, sondern schon seit langem mindestens im gleichen Maße politische Kommunikation. Das zeigt sich auch in den Aufsätzen dieses Bandes. Der Band enthält 12 Beiträge zur Klimakommunikation in den verschiedenen Phasen des Kommunikationsprozesses: angefangen mit der Analyse von Veranstaltungskommunikation, über die Betrachtung medialer Kommunikationsinhalte bis hin zur Untersuchung der vielfältigen Reaktionen der Rezipierenden. Schwerpunkte bilden Ansätzen zur Segmentierung der Öffentlichkeit sowie experimentelle Studien, in denen die Wirkung verschiedener Kommunikationsstrategien getestet wird



Song, Xinya;
Machine Learning assisted Digital Twin for event identification in electrical power system. - Ilmenau : Universitätsverlag Ilmenau, 2023. - XII, 186 Seiten. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA) ; Band 34)
Technische Universität Ilmenau, Dissertation 2022

ISBN 978-3-86360-267-3

Die Herausforderungen für den zuverlässigen Betrieb des elektrischen Energiesystems werden mit der Umwandlung der Infrastruktur in Stromnetz von der zentralen Energieversorgung mit fossilen Brennstoffen hin zu der regenerativen Energieeinspeisung stetig zugenommen. Der Ausbau der erneuerbaren Energien im Zuge der klimapolitischen Zielsetzung zur CO²-Reduzierung und des Ausstiegs aus der Kernenergie wird in Deutschland zügig vorangetrieben. Aufgrund der nichtlinearen elektronischen Schaltanlagen werden die aus EE-Anlagen hervorgegangenen Oberschwingungen in das Stromnetz eingebracht, was nicht nur die Komplexität des Stromnetzes erhöht, sondern auch die Stabilität des Systems beeinflusst. Diese Entwicklungen erschweren den stabilen Betrieb, die Verringerung der Ausfälle und das Management der Netzschwankungen im elektrischen Energiesystem. Das Auftauchen von Digital Twin bringt die Gelegenheit zur Behebung dieser Herausforderung. Digital Twin ist ein digitales Informationsmodell, das den Zustand des physikalischen genau abbildet. Es kann nicht nur zur Überwachung der Betriebszustände mit nachvollziehbarem Einsichten über physischen Komponenten sondern auch zur Generierung der Daten durch Simulationen unter der Berücksichtigung der Auslegungsgrenze verwendet werden. Diesbezüglich widmet sich die Arbeit zunächst der Fragestellung, woher das Digital Twin Konzept stammt und wie das Digital Twin für die Optimierung des Stromnetzes eingesetzt wird. Hierfür werden die Perspektiven über die dynamische Zustandsschätzung, die Überwachung des des Betriebszustands, die Erkennung der Anomalien usw. im Stromnetz mit Digital Twin spezifiziert. Dementsprechend wird die Umsetzung dieser Applikationen auf dem Lebenszyklus-Management basiert. Im Rahmen des Lebenszyklusschemas von Digital Twin sind drei wesentliche Verfahren von der Modellierung des Digital Twins zur deren Applizierung erforderlich: Parametrierungsprozess für die Modellierung des Digital Twins, Datengenerierung mit Digital Twin Simulation und Anwendung mit Machine Learning Algorithmus für die Erkennung der Anomalie. Die Validierung der Zuverlässigkeit der Parametrierung für Digital Twin und der Eventserkennung erfolgt mittels numerischer Fallstudien. Dazu werden die Algorithmen für Online und Offline zur Parametrierung des Digital Twins untersucht. Im Rahmen dieser Arbeit wird das auf CIGRÉ basierende Referenznetz zur Abbildung des Digital Twin hinsichtlich der Referenzmessdaten parametriert. So sind neben der Synchronmaschine und Umrichter basierende Einspeisung sowie Erreger und Turbine auch regler von Umrichter für den Parametrierungsprozess berücksichtigt. Nach der Validierung des Digital Twins werden die zahlreichen Simulationen zur Datengenerierung durchgeführt. Jedes Event wird mittels der Daten von Digital Twin mit einem "Fingerprint" erfasst. Das Training des Machine Learning Algorithmus wird dazu mit den simulierten Daten von Digital Twin abgewickelt. Das Erkennungsergebnis wird durch die Fallstudien validiert und bewertet.



Richter, Johannes;
Analyse und Entwicklung einer Softwarearchitektur für die intelligente, optische Inspektion. - Ilmenau : Universitätsverlag Ilmenau, 2023. - ix, 205 Seiten
Technische Universität Ilmenau, Dissertation 2022

ISBN 978-3-86360-268-0

Die automatische optische Inspektion ist das wichtigste Werkzeug der Qualitätskontrolle in der modernen Elektronikfertigung. Durch die automatisierte Bildaufnahme und das Ausführen vordefinierter Bildverarbeitungsschritte haben diese Systeme die manuelle optische Inspektion weitestgehend verdrängt. Trotz des großen Maßes an Automatisierung sind menschliche Experten an vielen Schritten der Prüfung unverzichtbar und damit potenzielle Fehlerquellen. In den letzten Jahren wurden zahlreiche Ansätze untersucht, welche einzelne Aspekte der optischen Qualitätssicherung durch die Anwendung von Methoden der künstlichen Intelligenz deutlich verbessern. Für den Wandel der optischen Inspektion hin zu einer verlässlichen und voll autonomen Prüfung wird in dieser Arbeit ein Modell mit fünf Phasen vorgestellt, welches die Entwicklungsschritte auf diesem Weg abbildet. Das neue Modell unterscheidet sich von bisherigen Ansätzen durch einen ganzheitlichen Blick auf die Qualitätskontrolle und die Berücksichtigung aller Prozessschritte. Um die Umsetzung dieses Modells zu tragen, zeigt diese Arbeit ein neues Architekturmuster auf, welches Lösungen auf Basis von künstlicher Intelligenz trainieren und ausführen kann. Durch seine hohe Flexibilität kann die neue Architektur über unterschiedliche Auslieferungen auf einer heterogenen Menge an Systemen angewendet werden und viele unterschiedliche Anwendungen von künstlicher Intelligenz über das Feld der optischen Inspektion hinaus umsetzen. Für die allgemeingültige Beschreibung von KI-Lösungen basiert diese Architektur auf einer Menge an Objekten, welche in dieser Arbeit definiert werden. Eine Umsetzung dieser Architektur wird diskutiert und ihre Anwendbarkeit anhand von drei Experimenten bewiesen. Die Implementierung der beschriebenen Architektur ist unter einer OpenSource-Lizenz veröffentlicht.



Woyan, Felix;
Prozessmodell für das Hinterspritzen von Dekorfolien in der In-Mould-Labeling Technik. - Ilmenau : Universitätsverlag Ilmenau, 2023. - XIV, 207 Seiten. - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 15)
Technische Universität Ilmenau, Dissertation 2022

ISBN 978-3-86360-262-8

Das Folienhinterspritzen ist ein spezielles Spritzgießverfahren zur Dekoration und Funktionalisierung von Kunststoffoberflächen. Dabei wird eine transparente Kunststofffolie bedruckt, verformt und hinterspritzt. Die Vorteile des Verfahrens liegen in der Oberflächenqualität und den zahlreichen Dekorationsmöglichkeiten. Nachteilig sind die hohen Investitionskosten, die sich meist nur durch hohe Stückzahlen und einer Vollauslastung der Maschine rechtfertigen lassen. Ansatzpunkte, die Wirtschaftlichkeit zu erhöhen, liegen in der Reduzierung der Zykluszeiten und der Ausschussraten. Typische Fehlerbilder beim Folienhinterspritzen sind die Auswaschung der aufgedruckten Dekore durch den Hinterspritzvorgang, Gestaltabweichungen wie Verzug und die Ablösung der Folie vom Träger. Der Arbeit liegt die These zugrunde, dass die Formteilqualität auf die Wechselwirkung zwischen thermischen und mechanischen Randbedingungen zurückgeführt werden kann. Basierend auf einer systematischen Verfahrensanalyse und einer analytischen Betrachtung der thermischen und mechanischen Einflussfaktoren, wird ein grundlegendes Prozessverständnis erarbeitet. Dies erfolgt unter Berücksichtigung von Prozess-, Material- und Geometriegrößen. Auswaschungen resultieren aus thermischen und mechanischen Folienbelastungen. Dabei können zwei wesentliche Entstehungsmechanismen abgeleitet werden, die von der Wandschubspannung und den Temperaturen abhängen. Es wird gezeigt, dass die Wirkungsweise von Schmelzetemperatur und Einspritzgeschwindigkeit von der Höhe der Wandschubspannung abhängt. Die Verbundfestigkeit wird anhand von bedruckten und unbedruckten Folien untersucht, wobei sich unterschiedliche Zusammenhänge zeigen. Während bei unbedruckten Folien die Verbundfestigkeit mit der thermischen Energie in der Grenzschicht steigt, liegt der Einfluss der Prozessparameter bei bedruckten Folien im Bereich der doppelten Standardabweichung. Ferner wird in der vorliegenden Arbeit erstmals die Orientierung betrachtet. Dabei zeigt sich ein vom Fließweg abhängiger Orientierungsverlauf sowie eine Abnahme der Orientierung mit den Temperaturen. Analog hierzu nimmt auch der Formteilverzug mit einem steigenden Temperaturniveau ab, da hohe Temperaturen zu einer Reduzierung der Schwindungsdifferenzen zwischen Folie und Träger führen. Abschließend werden die Erkenntnisse in einem qualitativen Prozessmodell zusammengefasst, das die Haupteinflussfaktoren auf die Formteilqualität beinhaltet und eine Prozessoptimierung zulässt.



Hügl, Silke;
Beitrag zur Minimierung der Insertionskräfte von Cochlea-Implantat-Elektrodenträgern : Untersuchung gerader, lateral liegender Elektrodenträger sowie deren Funktionalisierung mittels nachgiebiger Aktuatoren. - Ilmenau : Universitätsverlag Ilmenau, 2023. - 172 Seiten. - (Berichte der Ilmenauer Mechanismentechnik (BIMT) ; Band 8)
Technische Universität Ilmenau, Dissertation 2022

ISBN 978-3-86360-264-2

Sensorineurale Hörstörungen können mit einem Cochlea-Implantat behandelt werden. Der zu implantierende Teil des Cochlea-Implantat-Systems besteht aus Empfängerspule und Elektrodenträger. Der Elektrodenträger wird vom Chirurgen in die Cochlea inseriert, um dort die geschädigten Haarzellen zu ersetzen und die elektrische Stimulation des Hörnervs zu übernehmen. Diese manuelle Insertion des Elektrodenträgers in die Cochlea soll möglichst vorsichtig erfolgen, um keine intra-cochleären Strukturen zu beschädigen sowie post-operative Entzündungen und die iatrogene Ertaubung von Patienten mit Restgehör zu vermeiden, weswegen für diese Herangehensweise der Begriff „Soft Surgery“ geprägt wurde (Lehnhardt (1993), „Intracochlear placement of cochlear implant electrodes in soft surgery technique“). Die vorliegende Arbeit befasst sich mit dem Elektrodenträger und dessen Insertionsprozess in die Cochlea. Dazu werden zunächst digitale und anschließend physikalische, planare Modelle der humanen Cochlea erstellt, die die morphologische Variation abbilden. Diese werden anschließend für Insertionsstudien verwendet, welche dazu dienen, die Insertionskräfte während der Insertion zu messen. Es werden Einflussfaktoren auf den Insertionsprozess systematisiert und drei davon anhand von Studien mit eigens hergestellten Labormustern untersucht: Die Geometrie der Cochleamodelle, die Insertionsgeschwindigkeit des Elektrodenträgers und eine Beschichtung des Elektrodenträgers. Die Insertionsstudie in Cochleamodelle unterschiedlicher Größe wird verwendet, um die Abhängigkeit der Insertionskräfte von der Geometrie der Modelle zu analysieren. Der Einfluss der Insertionsgeschwindigkeiten und die Beschichtung des Elektrodenträgers werden mit dem Ziel einer Reduktion der Insertionskräfte untersucht. Abschließend wird ein fluidisch-aktuierter, nachgiebiger Mechanismus zur Funktionalisierung des Elektrodenträgers betrachtet. Zunächst wird ein im spannungsfreien Zustand gerader Mechanismus analysiert. Die Skalierbarkeit des vorgeschlagenen nachgiebigen Mechanismus wird analytisch und numerisch gezeigt. Anschließend liefert die Synthese des fluidmechanischen Aktuators dessen geometrische Maße, um unter Druckbeaufschlagung mit definiertem Druck einer vorgegebenen Form zu entsprechen. Diese Synthese wird angewandt, um die Geometrien eines nachgiebigen Mechanismus für drei unterschiedlich große Formen der Cochlea zu bestimmen.



Köcher, Chris;
Verification of automata with storage mechanisms. - Ilmenau : Universitätsverlag Ilmenau, 2023. - xi, 247 Seiten
Technische Universität Ilmenau, Dissertation 2022

ISBN 978-3-86360-265-9

Ein wichtiges Forschungsthema in der Informatik ist die Verifikation, d.h., die Analyse von Systemen bezüglich ihrer Korrektheit. Diese Analyse erfolgt in zwei Schritten: Zuerst müssen wir das System und die gewünschten Eigenschaften formalisieren. Anschließend benötigen wir Algorithmen zum Testen, ob das System die Eigenschaften erfüllt. Oftmals können wir das Systemals endlichen Automaten mit geeignetem Speichermechanismus modellieren, z.B. rekursive Programme sind im Wesentlichen Automaten mit einem Stack. Hier betrachten wir Automaten mit zwei Varianten von Stacks und Queues: 1. Partiell vergessliche Stacks und Queues, welche bestimmte Teile ihrer Inhalte jederzeit vergessen können. Diese können für unzuverlässige Systeme verwendet werden. 2. Verteilte Stacks und Queues, d.h., mehrere Stacks und Queues mit vordefinierter Synchronisierung. Häufig lassen sich die Eigenschaften unserer Modelle mithilfe des (wiederholten) Erreichbarkeitsproblems in unseren Automaten lösen. Dabei ist bekannt, dass die Entscheidbarkeit dieser Probleme oftmals stark vom konkreten Datentyp des Speichers abhängt. Beide Probleme können für Automaten mit einem Stack in Polynomialzeit gelöst werden. Sie sind jedoch unentscheidbar, wenn wir Automaten mit einer Queue oder zwei Stacks betrachten. In bestimmten Spezialfällen sind aber dennoch in der Lage diese Systeme zu verifizieren. So können wir beispielsweise bestimmte Automaten mit mehreren Stacks betrachten - so genannte Asynchrone Kellerautomaten. Diese bestehen aus mehreren (lokalen) Automaten mit jeweils einem Stack. Wann immer diese Automaten etwas in mind. einen Stack schreiben, müssen sie unmittelbar zuvor von diesen Stacks etwas lesen. Das (wiederholte) Erreichbarkeitsproblem ist in asynchronen Kellerautomaten in Polynomialzeit entscheidbar. Wir können zudem das Erreichbarkeitsproblem von Queueautomaten durch Exploration des Konfigurationsraums semi-entscheiden. Hierzu können wir mehrere aufeinanderfolgende Transitionen zu so genannten Meta-Transformationen zusammenfassen und diese in einem Schritt simulieren. Hier betrachten wir Meta-Transformationen, die zwischen dem Lesen und Schreiben von Wörtern aus zwei gegebenen regulären Sprachen alternieren. Diese Meta-Transformationen können in Polynomialzeit ausgeführt werden. Für dieses Ergebnis müssen wir jedoch zunächst verschiedene algebraische Eigenschaften der Queues betrachten.



Issa, Esmail;
Novel reactor design and method for atmospheric pressure chemical vapor deposition of micro and nano SiO2-x films in photovoltaic applications. - Ilmenau : Universitätsverlag Ilmenau, 2022. - 241 Seiten. - (Werkstofftechnik aktuell ; Band 26)
Technische Universität Ilmenau, Dissertation 2021

ISBN 978-3-86360-263-5

In dieser Arbeit wurden ein kostengünstiges Verfahren und eine Anlage zur chemischen Gasphasenabscheidung von SiO2-x-Schichten bei Atmosphärendruck (atmospheric pressure chemical vapor deposition, APCVD) im Labormaßstab entwickelt. Dabei kommt die Hydrolyse von SiCl4 bei Raumtemperatur zum Einsatz. Der Anwendungsschwerpunkt für die SiO2-x-Schichten liegt im Bereich Photovoltaik (PV), speziell kristalline Siliziumsolarzellen. Dort ist die Reduzierung der Herstellungskosten von großer Bedeutung. Im Vergleich zu den bekannten Verfahren für die chemische Gasphasenabscheidung senkt der gewählte Ansatz die Kosten für die SiO2-x-Schichtabscheidung deutlich. Hauptziele der Entwicklungsarbeit waren einfaches Reaktordesign, geringe Sicherheitsmaßnahmen und Wartungszeiten, die Vermeidung von Gasphasenreaktionen und Staubbildung, eine für PV-Anwendungen geeignete Schichtqualität sowie die Möglichkeit, die Abscheideraten in einem weiten Bereich zu variieren. Es wurde ein neuartiger APCVD-Reaktor aus Polycarbonat und thermoplastischen Materialien aufgebaut, mit dem die SiO2-x-Schichten heterogen auf der Substratoberfläche unter Eliminierung von Gasphasenreaktionen synthetisiert werden können. Die Abscheiderate wurde in Abhängigkeit von der Konzentration der Rektanden im Trägergas untersucht. Dank der Entwicklung geeigneter Verdampferkonfigurationen für die Raktenden SiCl4 und H2O können deren Konzentrationen in den inerten Trägergasen vor der Durchmischung in einem Injektor genau eingestellt werden. Die Schlüsselfaktoren für die Kontrolle und Steuerung dieser Konzentrationen sind die Temperaturen und die Volumenströme der Reaktandengase in den Verdampern und im Injektor. Das APCVD-Injektordesign wurde mit Hilfe numerischer Strömungsmechanik optimiert. Für die Simulationen wurde die Software ANSYS verwendet. Als Ergebnis der Optimierung können die SiO2-x-Schichten auf einer Substratfläche von 156 × 156 mm2 gleichmäßig abgeschieden werden. Das ist die derzeitige Standardgröße industriell hergestellter kristalliner Siliziumsolarzellen. Die Design-Studien hatten auch das Ziel, einen Injektor zu entwickeln, der ohne bewegte Teile für eine homogene Durchmischung der Gase sorgt. Das letztendlich geeignete Design wurde aus thermoplastischen Werkstoffen mit Hilfe von 3D-Druck im Schmelzschichtungsverfahren hergestellt. Ferner wurde die Reduzierung der Gasphasen-reaktion in der Nähe des Substrats durch Einstellung des Molverhältnisses der Reaktanden und eine geeignete Führung der Injektorabgase erreicht. Die Kondensation von Reaktanden und die parasitäre Oxidabscheidung auf den Innenflächen des APCVD-Injektors wurden erfolgreich vermieden, ohne dass ein bei Inline-APCVD-Injektoren üblicher Gasvorhang erforderlich ist. Die resultierenden APCVD- SiO2-x-Schichten wurden hinsichtlich ihrer chemischen und optischen Eigenschaften sowie ihrer Zusammensetzung umfassend charakterisiert, um ihre Qualität und Kompatibilität mit PV- und anderen potenziellen Anwendungen zu beurteilen. Dabei zeigte sich, dass die Schichten nahezu stöchiometrisch sind. Deswegen wurde die Bezeichnung SiO2-x anstelle von SiO2 gewählt. Die Abscheiderate wurde in Abhängigkeit von den Volumenströmen, der Substrattemperatur und dem Molverhältnis der Reaktanden untersucht. Die Variation der Substrattemperatur nahe der Raumtemperatur und des Molverhältnisses der Reaktanden führt zu einer großen Bandbreite von Abscheideraten und Materialeigenschaften. Die Hydroxylgehalte in den SiO2-x-Schichten wurden bei verschiedenen Abscheidebedingungen bestimmt. Es wurde gefunden, dass die Kalzinierung für 1 min bei relativ niedrigen Temperaturen kleiner 300 ˚C die Hydroxylgruppen in den abgeschiedenen Filmen deutlich reduziert. Die Nachteile der Kalzinierung bei hohen Temperaturen über 500 ˚C nach der Schichtabscheidung wurden ebenfalls untersucht. Optimierte Werte für das Molverhältnis der Reaktanden, der Substrattemperatur sowie der Kalzinierungstemperatur und -dauer wurden gefunden, um APCVD-SiO2-x-Schichten ohne mikroskopisch kleine Löcher und Risse zu erhalten, so dass sie für die verschiedenen PV-Anwendungen geeignet sind. Verschiedene kostengünstige Prozesse für die Herstellung von kristallinen Silizium-Solarzellen unter Verwendung der APCVD SiO2-x-Schichten wurden entwickelt. So konnten nach einseitiger SiO2-x-Beschichtung und einer 1-minütigen Kalzinierung einkristalline Si-Wafer mit alkalischer Ätzlösung einseitig texturiert werden. Eine weitere Anwendung ist die Verwendung von APCVD SiO2-x als Maske für die lokale galvanische Abscheidung des Vorderseiten-Metallkontakts auf Solarzellen mit Heteroübergang. Dabei wurde eine Ag-Paste in Form eines linienförmigen Kontakts mittels Siebdruck auf das transparente leitfähige Oxid (transparent conducting oxide, TCO) der Solarzellen dünn aufgebracht und nach einer ganzflächigen APCVD SiO2-x-Beschichtung der Solarzell-Vorderseite mit Cu galvanisch verstärkt. In einer anderen Prozesssequenz wurde eine Polymerpaste in Form des späteren linienförmigen Metallkontakts mittels Siebdruck auf das Vorderseiten-TCO der Solarzellen aufgebracht und nach der ganzflächigen Beschichtung mit APCVD-SiO2-x mit Lösungsmittel wieder entfernt. In die entstandenen lokalen Öffnungen der SiO2-x-Maske erfolgte die lokale galvanische Metallabscheidung direkt auf dem TCO. In der letzten untersuchten Anwendung wurden APCVD-SiO2-x-Schichten als Schutz vor parasitärer galvanischer Metallabscheidung auf der Vorderseite von einkristallinen pn-Solarzellen sowie auf der Rückseite von multikristallinen bifazialen pn-Solarzellen untersucht.



Bruchmüller, Matthias;
Berechnung des Elastizitätsmoduls von Verbundwerkstoffen unter Berücksichtigung der Adhäsion an der Faser-Matrix-Grenzfläche : ein Beitrag am Beispiel kurzfaserverstärkter Thermoplaste
2., korrigierte Auflage. - Ilmenau : Universitätsverlag Ilmenau. - xx, 217 Seiten. - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 14)
Technische Universität Ilmenau, Dissertation 2021

ISBN 978-3-86360-254-3
Literaturverzeichnis: Seite 186-205

In dieser Arbeit wird erstmalig ein Berechnungsmodell für Elastizitätsmoduln von kurzfaserverstärkten Kunststoffen unter Berücksichtigung der werkstoffspezifischen Haftbedingung in der Faser-Matrix-Grenzfläche vorgestellt und validiert. Dies erfolgt im Rahmen einer Modellerweiterung indem die Oberflächenspannungsanteile der Kontaktpartner herangezogen und Oberflächenrauheiten der Fasern vernachlässigt werden. Die Anwendung des Modells präzisiert die Vorhersagen des Elastizitätsmoduls des Verbundes, was direkte Auswirkungen auf die Eigenfrequenzen und Nachgiebigkeit von Bauteilen insbesondere unter Verwendung nahezu unpolarer Matrices hat. Ein einmaliger Vorteil der Modellerweiterung besteht in der Möglichkeit Kreuzvergleiche zwischen den zu kombinierenden Materialien durchzuführen. Kombinationsspezifische Untersuchungen, wie Einzelfaserauszugstests einer spezifischen Faser-Matrix-Kombination, sind nicht mehr notwendig. Die Messung der Oberflächenspannungsanteile der gewählten Materialien erfolgt unter Verwendung dreier Testflüssigkeiten: destilliertes Wasser, Dimethylsulfoxid und Ethylenglycol. Darüber hinaus ist die Messung unter Einsatztemperatur zu empfehlen, die in vielen Fällen im Bereich der Raumtemperatur und im Rahmen dieser Untersuchungen bei 23 ˚C liegt. Zur Sicherstellung einer vollständig ausgeprägten Kontaktfläche zwischen Faser und Matrix muss ein Spreiten der Matrix auf der Faseroberfläche vorliegen. Hierbei muss die Gesamtoberflächenspannung der Matrix stets kleiner sein als die Gesamtoberflächenspannung der Faser oder gleichwertig. Die Modellerweiterung wird anhand geeigneter Faser- und Matrixwahl auf die Effekte der physikalischen Adhäsion reduziert, um dessen Einfluss klar herauszuarbeiten. Die eigenen Untersuchungen zeigen die Abweichungen der etablierten Modelle von bis zu 25 %, die mit der neuartigen Modellerweiterung stets im Bereich der Messunsicherheit des Elastizitätsmoduls des Verbundes aus den Zugversuchen liegen. Schließlich wird die Modellerweiterung an Daten aus der Literatur erprobt. Die Verbesserung der Vorhersage des Elastizitätsmoduls des Verbundes ermöglicht es, bereits in der Konzeptionsphase ein zuverlässiges elastisches Deformationsverhalten vorherzusagen und Materialwechsel oder Funktionsfaktoren im Entwicklungsprozess zu minimieren bis verhindern.



Rockel, Tobias;
Güteuntersuchung von Imputationsverfahren für unvollständige Datenmatrizen. - Ilmenau : Universitätsverlag Ilmenau, 2022. - XVI, 347 Seiten
Technische Universität Ilmenau, Dissertation 2022

ISBN 978-3-86360-261-1

Reale Datenmatrizen sind häufig unvollständig und können aus diesem Grund normalerweise nicht direkt ausgewertet werden. Eine Möglichkeit, mit diesem Problem umzugehen, sind Imputationsverfahren, die fehlende Werte ersetzen. Dieses Werk gibt zunächst einen Überblick über gängige Imputationsverfahren und stellt darauf aufbauend einen generellen Aufbau von Imputationsverfahren vor. Anhand von existierenden Simulationsstudien und einer eigenen Simulationsstudie wird die Güte verschiedener Imputationsverfahren analysiert. Basierend auf diesen Ergebnissen werden unter anderem Empfehlungen für die Auswahl von Imputationsverfahren abgeleitet.



Jotz, Matthias;
Kantenfestigkeitsoptimierte (Weiter-) Entwicklung eines Verfahrens zum Trennen von ultradünnem Glas
2., unveränderte Auflage. - Ilmenau : Universitätsverlag Ilmenau. - xv, 121 Seiten. - (Werkstofftechnik aktuell ; Band 25)
Technische Universität Ilmenau, Dissertation 2021

ISBN 978-3-86360-253-6

Der Einsatz von Gläsern, insbesondere von ultradünnen Gläsern, wird in zahlreichen innovativen Anwendungen durch deren Sprödbruchverhalten eingeschränkt. In der vorliegenden Arbeit wird ein neues, fertigungstaugliches Kantenfestigkeitsmessverfahren für ultradünne Glasproben beschrieben, mit etablierten Festigkeitsprüfverfahren verglichen und als einsatztauglich befunden. Im weiteren Verlauf der Arbeit wird ein auf Kantenfestigkeit optimiertes Ritz- und Bruchverfahren für ultradünnes Glas durch die Konstruktion neuer Maschinenbauteile unter der Verwendung einer hohen Anzahl getesteter Proben sowie fortschrittlicher statistischer Methoden entwickelt. Zudem wird nachgewiesen, dass sich die aus dem Verfahren resultierende Festigkeit mittels eines linearen Modells vorhersagen lässt, wenn eine Schneidflüssigkeit verwendet wird. Anhand einer großen Menge getesteter Proben wird sodann belegt, dass die resultierende Festigkeit einer 3-Parameter-Weibull-Verteilung folgt und daher eine Festigkeitsschwelle aufweist, unterhalb derer die Bruchwahrscheinlichkeit ingenieurtechnisch vernachlässigbar gering ist. Dies ermöglicht es Produktdesignern innovative Produkte zu entwickeln, die auf einer zuverlässig hohen Festigkeit von ultradünnem Glas basieren und damit den Anwendungsbereich von Gläsern signifikant zu erweitern.



Henning, Stefan;
Modellbasierte Entwicklung von Methoden, Algorithmen und Werkzeugen zur Analyse und Synthese nachgiebiger Mechanismen. - Ilmenau : Universitätsverlag Ilmenau, 2022. - XXI, 184 Seiten, Seite XXIII-LV. - (Berichte der Ilmenauer Mechanismentechnik (BIMT) ; Band 7)
Technische Universität Ilmenau, Dissertation 2022

ISBN 978-3-86360-252-9

Nachgiebige Mechanismen sind in technischen Anwendungen weit verbreitet, insbesondere in der Robotik, Präzisions-, Mess- und Medizintechnik. Ihr Verformungsverhalten wird maßgeblich durch die Gestaltung ausgewählter nachgiebiger Strukturabschnitte, beispielsweise durch die gezielte Reduktion der Querschnittsabmessungen, beeinflusst. Die Bewegung des Mechanismus erfolgt vorwiegend durch Biegung dieser Abschnitte. Die Berechnung des Verformungsverhaltens unter dem Einfluss äußerer Belastungen stellt aufgrund von geometrischer Nichtlinearität eine anspruchsvolle Aufgabe bei der Analyse und Synthese nachgiebiger Mechanismen dar. Daher wird in dieser Arbeit ein Beitrag zur analytischen Modellbildung und damit zum Analyse- und Syntheseprozess geleistet. Die Modellgleichungen werden für ebene und räumliche Anwendungsfälle gegeben. Mit Hilfe dieser können nachgiebige Mechanismen mit variierenden Querschnitten, Krümmungen, Werkstoffen und Verzweigungen charakterisiert werden. Für die Betrachtung beliebiger Mechanismen werden die Gleichungen in einer rekursiven Form gegeben. Aufgrund von Strukturabschnitten unterschiedlicher Querschnitte werden, über reine Biegung hinaus, auch Querkraftschub und Querkontraktion im Modell berücksichtigt. Es werden Untersuchungen durchgeführt um zu definieren, wann diese Effekte, in Abhängigkeit der Geometrie, zu berücksichtigen sind. Auf Basis dieser Untersuchungen werden Empfehlungen für die zu verwendende Theorie gegeben. Durch die Formulierung der Gleichungen in einer einheitlichen Form wird ermöglicht, die Theorie für einzelne Abschnitte eines nachgiebigen Mechanismus individuell anzupassen. Weiterhin wird das Modell durch Beispielmechanismen für zwei- und dreidimensionale Anwendungsfälle mit Hilfe der Finiten-Elemente-Methode und experimentellen Untersuchungen validiert. Dabei werden die Empfehlungen der einzusetzenden Theorie angewendet. Daraufhin werden Algorithmen zur Dimensionierung einzelner Festkörpergelenke und nachgiebiger Mechanismen gegeben. Dadurch kann deren Bewegungsverhalten im Hinblick auf konkrete Zielkriterien verbessert werden. Abschließend werden die Methoden in drei eigenständig ausführbare Softwarewerkzeuge implementiert, die frei zur Verfügung gestellt sind. Durch deren Entwicklung wird ein Beitrag zum Entwurf sowie zur Analyse und Synthese von Festkörpergelenken und nachgiebigen Mechanismen geleistet.



Hafner, Anke;
Mobile Assistenzsysteme in der Intralogistikplanung der Automobilindustrie - Gestaltung, Nutzen und Akzeptanz Augmented Reality-basierter Mensch-Maschine-Schnittstellen. - Ilmenau : Universitätsverlag Ilmenau, 2022. - XVII, 245 Seiten, Seite XIX-LXVI
Technische Universität Ilmenau, Dissertation 2022

ISBN 978-3-86360-260-4

Steigende Herausforderungen, wie z.B. ein intensiver Wettbewerbsdruck hinsichtlich Innovationen und eine damit einhergehende Individualisierung der Produkte sowie eine steigende Internationalisierung führen zu einem Wandel in der Automobilbranche. Die Kombination der Faktoren führt zu einem Anstieg der Komplexität in der Fahrzeugherstellung sowie einem Anstieg der Komplexität des Produktionssystems. Eine wichtige Rolle in der Automobilindustrie wird u. a der Intralogistik zugeschrieben. Die Intralogistik, ausgehend von der Komplexität der Automobilindustrie, steht ebenso gewissen Herausforderungen gegenüber. Um der steigenden Komplexität entgegen zu wirken, besteht der Bedarf an innovativen Lösungen seitens der Logistikplanung. Eine Möglichkeit in der Intralogistikplanung kann der Einsatz von innovativen Mensch-Maschine Schnittstellen in Form von mobilen Assistenzsystemen mit Augmented Reality sein. Der Technologie Augmented Reality werden zahlreiche positive Eigenschaften zugesagt. Im Bereich der Intralogistik, bezogen auf Augmented Reality, wird vermehrt die operative Intralogistik, wie z. B. die Kommissionierung und das Picken, betrachtet. Obwohl auf dem Markt zahlreiche Technologien bestehen und diese in verschiedenen Anwendungsbereichen eingesetzt werden, existieren in der Intralogistikplanung keine flächendeckenden Anwendungen im Sinne eines mobilen Assistenzsystems mit Augmented Reality in einer Produktionshalle. Ausgehend davon wird in diesem Buch ein Use Case und darauf basierende Prototypen für eine Augmented Reality -basierte Intralogistikplanung in der Automobilindustrie entwickelt. Dabei liegt der Fokus auf der Schaffung eines mobilen Assistenzsystems, welches eine durchgängige Augmented Reality -basierte Intralogistikplanung in der Endmontage der Automobilindustrie unterstützt. Für die Ausgestaltung des Use Cases erfolgt die Durchführung einer systematischen Literaturanalyse und das Analysieren von vorhandenen intralogistischen Planungsprozessen mit dem Ziel, die relevanten Planungsprozesse für den Einsatz des mobilen Assistenzsystems zu definieren. Auf Basis von funktionalen und nicht-funktionalen Anforderungen werden zwei Prototypen implementiert. Die prototypische Umsetzung erfolgt sowohl nach einem SLAM-basierten als auch nach einem hybriden Trackingansatz. Ferner werden die Prototypen anhand eines Feldexperiments validiert. Darüber hinaus wird für die Evaluation der Akzeptanz von Augmented Reality in der Intralogistikplanung das Technology Acceptance Model empirisch ausgewertet.



Schneckenburger, Max;
Machine learning Modell für die Abtragsvorhersage in der Roboter-Glaskeramik-Politur. - Ilmenau : Universitätsverlag Ilmenau, 2022. - xxv, 162 Seiten, Seite xxvii-lx. - (Werkstofftechnik aktuell ; Band 24)
Technische Universität Ilmenau, Dissertation 2022

ISBN 978-3-86360-259-8

Im 21. Jahrhundert gehören optische Systeme zu den Schlüsseltechnologien und spielen eine entscheidende Rolle im technischen Fortschritt. Hochgenaue optische Linsen finden sich u. a. in Astrospiegeln, Lasergyroskopen oder Lithographie-Linsen und die Anforderungen an Stückzahl und Qualität steigen kontinuierlich. Einer der letzten Prozessschritte in der Fertigungskette von Glas Hochleistungsoptiken ist in der Regel die Politur. Von diesem Prozessschritt hängt maßgeblich die Bauteilqualität ab. Trotz langer Tradition und Verwendung in der Industrie herrscht immer noch kein umfassendes Prozessverständnis. Zwar sind empirische Parametersätze vorhanden, jedoch gibt es keine Erkenntnis, inwiefern sich eine Änderung einzelner Parameter auf den Materialabtrag auswirkt. Während zahlreiche Untersuchungen empirische Prozessmodelle betrachteten, blieb der Einsatz von datengetriebenen Poliermodellen bislang weitgehend unbeachtet. Ziel dieser Arbeit ist daher die Entwicklung eines datengetriebenen Poliermodells für die Robotergestützte-Politur von Optiken. Durch den Einsatz von Sensoren am Bearbeitungskopf werden alle relevanten Prozessparameter aufgezeichnet. Durch Datenanalyse können Anomalien und Muster im Prozess detektiert und darauf reagiert bzw. für weitere Analysen genutzt werden. Des Weiteren wird auf Grundlage der Daten ein maschinenlernendes Modell zur Vorhersage von Materialabtrag auf gekrümmten Flächen erstellt und validiert. Das vorliegende Machine learning Modell bildet den betrachteten Polierprozess ab und Einflüsse auf diesen werden durch den Sensoreinsatz abgebildet. Das Modell erreicht eine Vorhersagengenauigkeit des Abtrages von 99,22 % (R2-Wert), welches bei Prozessvorhersagen als sehr gut bewertet wird.



Buthmann, Reinhard; Sattler, Kai-Uwe
Die Technische Hochschule Ilmenau : eine sozialpolitische Studie. - Ilmenau : Universitätsverlag Ilmenau, 2022. - 664 Seiten ISBN 978-3-86360-257-4

"Was bedeuten Reste der akademischen Freiheit", fragt der Bildungswissenschaftler Manfred Heinemann, "wenn die Handlungsebenen in der Institution und ihren Subeinheiten sich in einer parteilichen, sogar staatlich gesicherten Zwangsumklammerung verlieren? Was bedeuten hierbei die Hochschulreformen? Sind sie Auflösung von Hochschulkrisen, wie sie als Reflex von außen in den Staatsapparaten, Führungsebenen und dem Zentralkomitee der Staatspartei auf dem Weg zum Kommunismus gesehen und gehandhabt wurden?" Der Autor gibt Antworten aus dem Leben der 1953 gegründeten Hochschule für Elektrotechnik, die, und so lautet ein beliebtes Narrativ, im relativen Windschatten der SED ihren Kurs verfolgen konnte. Dieses Narrativ ist falsifiziert. Dabei erwiesen sich drei Phänomene von Festigkeit: der chronische Ressourcenmangel, der staatlich-normative Druck auf alle Kernbelange der Hochschule und der hohe Stellenwert der kommunistischen Erziehung. Dennoch war ihre Leistungsbilanz beeindruckend, besaß sie mit sechs Herausstellungsmerkmalen gar einen vorderen Platz in der Hochschullandschaft der DDR.



Mommert, Michael;
Untersuchung der Zirkulationsbewegung und des Wärmetransports in turbulenter Mischkonvektion mittels optischer Messverfahren. - Ilmenau : Universitätsverlag Ilmenau, 2022. - xxi, 188 Seiten
Technische Universität Ilmenau, Dissertation 2022

ISBN 978-3-86360-258-1

Diese Arbeit befasst sich mit dem dynamischen Verhalten von Strömungsstrukturen in turbulenter Mischkonvektion. Zu deren Untersuchung wurden Experimente in einer quaderförmigen Rayleigh-Bénard-Zelle, welche durch Luftein- und -auslässe an der oberen und unteren langen Kante auf einer Seite der Zelle erweitert wurde, durchgeführt. Um die Mechanik hinter den verschiedenen Dynamiken der Strukturen zu verstehen, wurden die Geschwindigkeitsfelder für zwei Typen unterschiedlichen dynamischen Verhaltens mit der tomographischen Particle Image Velocimetry (PIV) für den linken Teil der Zelle erfasst. Da das dynamische Verhalten, welches mit niedrigeren Einströmgeschwindigkeiten verbunden ist, selten und nicht periodisch auftrat, wurde eine automatisierte Methode entwickelt, um die Messungen mit dem Eintreten der Dynamik zu starten. Die Analyse der Geschwindigkeitsfelder und ihre Zerlegung in orthogonale Moden ergaben, dass unterschiedliche Mechanismen das dynamische Verhalten der beiden Fälle antreiben: Für den niedrigen Luftdurchsatz dominieren thermische Prozesse und das dynamische Verhalten hängt mit einer Akkumulation warmer Luft innerhalb des vorliegenden Wirbelsystems zusammen, die in unregelmäßigen Abständen zur Freisetzung von Plumes führt. Im Gegensatz dazu dominieren bei höheren Luftdurchsätzen trägheitsgetriebene Prozesse. Insbesondere werden die dynamischen Prozesse in diesem Fall durch Taylor-Görtler-artige Wirbel angetrieben. Der initiale Widerspruch des für beide Fälle beobachteten Umklappens der Rollenstrukturen mit dem Translationsmechanismus aus früheren Untersuchungen wurde durch stereoskopische PIV-Messungen über die gesamte Zelllänge aufgelöst: Sie zeigen, dass der Klappmechanismus primär das Verhalten der Strömung im Seitenwandbereich beschreibt. Um den Beitrag Taylor-Görtler-artiger Wirbel zum Wärmetransport zu untersuchen, wurde die Methode der kombinierten stereoskopischen Particle Image Velocimetry und Thermometrie angewandt, um die Berechnung messebenennormaler Wärmeströme zu ermöglichen. Die Ergebnisse daraus zeigen, dass die Temperatur und die vertikale Geschwindigkeitskomponente korreliert sind, obwohl die Taylor-Görtler-artigen Wirbel durch Trägheitskräfte erzeugt werden. Weitere Analysen zeigen, dass der statistische Fußabdruck dieser Strukturen es erlaubt, sie von z.B. Plumes an der Frontwand zu unterscheiden.



Strickstrock, Monika;
Oberflächenmodifizierung von dentalen Y-TZP Keramikimplantaten. - Ilmenau : Universitätsverlag Ilmenau, 2022. - XVI, 308 Seiten. - (Werkstofftechnik aktuell ; Band 23)
Technische Universität Ilmenau, Dissertation 2021

ISBN 978-3-86360-256-7

Mehr als eine Million Dentalimplantate werden pro Jahr in Deutschland inseriert. Ästhetik und Verträglichkeit sprechen für keramisches Material statt für den Standardwerkstoff Titan. Für diesen Einsatz, der in Hinblick auf Festigkeit, Biokompatibilität, Be- und Verarbeitbarkeit komplexe Ansprüche stellt, ist Zirkoniumdioxid (ZrO2), genauer Yttriumoxid stabilisiertes ZrO2 (Y-TZP), geeignet. Schwachpunkt ist jedoch die geringere Toleranz von Keramik gegenüber Oberflächendefekten, die sich festigkeitsmindernd auswirken. Die Oberflächenaufrauung ist für eine bessere Einheilung in den Knochen allerdings unabdingbar. Durch Oberflächenmodifizierung im dichtgesinterten Zustand kann die Festigkeit sowohl erhöht als auch erniedrigt werden, da Strukturumwandlungen im polymorphen Y-TZP in Abhängigkeit der Herstellungsparameter stattfinden. Das Ziel dieser Arbeit ist durch holistische Analyse des Herstellungsprozesses eines Y-TZP Implantates diesen zu optimieren. Die Bewertung erfolgt in den drei Eigenschaftskategorien: Physikochemie, Mechanik, Topographie und schließt mit einer zellbiologischen Prüfung ab. Die Physikochemie wird mit drei Hydrophilierungsmethoden verändert (UV, UV-Ozon, Plasma) und optimale Behandlungsparameter werden mittels Kontaktwinkelmessungen gefunden. Die Plasmabehandlung stellt die effektivste Methode dar. Zur Konservierung der Hydrophilie wird die Lagerung unter Luftabschluss in Isopropanol (zum Erhalt der Sterilität) untersucht. Die mechanischen Eigenschaften werden durch Aufrauung im Weißzustand negativ beeinflusst. Durch Material- und Prozessanpassung wird eine Erhöhung der Festigkeit (˜30 %) und der Alterungsbeständigkeit erreicht. Um der nach Aufrauung bestehenden Festigkeitsreduzierung entgegen zu wirken, wird ein Prozess zur Oberflächenverstärkung mittels Festigkeitsstrahlen (SP) für raue Oberflächen erarbeitet. Neben der Umwandlung von tetragonal zu monoklin werden weitere Strukturen in der Literatur kontrovers diskutiert. Daher werden umfassende diffraktometrische Analysen durchgeführt, um zukünftig die Festigkeitsbeeinflussungen klarer vorhersagen zu können. Nach SP lassen sich statisch und dynamisch eine um ˜30% erhöhte Festigkeit am rauen Produkt belegen, während die Makrotopographie der osseointegrativen Oberfläche erhalten bleibt. Die topographischen Eigenschaften werden durch Profilmessung bestimmt und durch 3D-Oberflächenaufnahmen zur Charakterisierung von Hybridparametern für die abrundende zellbiologische Untersuchung betrachtet. In vitro schneiden alle ZrO2 Serien vergleichbar zur sandgestrahlt und geätzten Titan-Referenzoberfläche ab.



Paffhausen, Michael;
Rührreibschweißen mit einem Industrieroboter unter Berücksichtigung der Einsatzkriterien für die automobile Großserienfertigung. - Ilmenau : Universitätsverlag Ilmenau, 2022. - 225 Seiten. - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 13)
Technische Universität Ilmenau, Dissertation 2021

ISBN 978-3-86360-255-0

Das Fügeverfahren "Rührreibschweißen" ermöglicht die Herstellung reproduzierbar hochwertiger Schweißverbindungen. Aufgrund der sehr hohen Prozesskräfte werden in der Produktion vorzugsweise Sonder- und Werkzeugmaschinen eingesetzt. In der automobilen Großserienfertigung wird jedoch der Einsatz von Standard-Industrierobotern für das Rührreibschweißen als kostengünstigere und flexiblere Alternative favorisiert. Im Rahmen der Arbeit werden die Leistungskenngrößen des Industrieroboters zunächst ohne Bearbeitungskräfte analysiert. In diesem Zusammenhang werden die Pose- und Bahn-Wiederholgenauigkeit des Industrieroboters an unterschiedlichen Referenzbahnen in der Ebene quantifiziert. Hier ist festzustellen, dass der Roboter den Genauigkeitsanforderungen des Schweißverfahrens genügt. Bei der Analyse der Wechselwirkungen zwischen Prozess und Roboterstruktur wird jedoch deutlich, dass die Arbeitsgenauigkeit des Industrieroboters durch die resultierenden Prozesskräfte beim Rührreib-schweißen signifikant beeinflusst wird; ohne ein "Nachteachen" oder eine Offline-Korrektur der programmierten Soll-Bahn werden die mechanischen Eigenschaften der Fügeverbindung durch die mangelnde Arbeitsgenauigkeit des Industrieroboters negativ beeinflusst. Bei der Analyse kann nachgewiesen werden, dass die Abdrängung des Werkzeugs nicht nur von den resultierenden Prozesskräften abhängt, sondern auch signifikant durch die Richtung des Vektors der Bahngeschwindigkeit beim Bahnschweißen beeinflusst wird. Bei der Analyse der statischen und dynamischen Systemeigenschaften des Roboters wird gezeigt, dass die nichtlinearen Steifigkeiten der Roboterstruktur maßgeblich von den Gelenkstellungen und der Belastungsrichtung abhängen. Aus den Erkenntnissen der Systemanalyse wird eine modellbasierte Offline-Bahnkorrektur, die Nachgiebigkeiten und Wechselwirkungen zwischen Prozess und Roboter berücksichtigt, entwickelt.



Hörtnagl, Arnulf;
Systembetrachtung der Korrosionsbeständigkeit an geschliffenen Oberflächen von metastabilen Austeniten. - Ilmenau : Universitätsverlag Ilmenau, 2022. - VII, 202 Seiten
Technische Universität Ilmenau, Dissertation 2021

ISBN 978-3-86360-251-2
Literaturverzeichnis: Seite 169-182

Wegen ihrer Beständigkeit gegen Korrosion sowie der guten Umformbarkeit sind austenitische CrNi-Stähle in einer Vielzahl von Anwendungen anzutreffen. Die Fähigkeit zur Ausbildung einer stabilen Passivschicht beruht dabei insbesondere auf dem Anteil an Chrom in der jeweiligen Legierung. Der Einfluss weiterer einzelner Faktoren auf das Korrosionsverhalten von CrNi-Stählen wird in einer Vielzahl von wissenschaftlichen Arbeiten behandelt. Die vorliegende Arbeit befasst sich dabei explizit mit der Auswirkung einer erfolgten Kaltumformung und der erzeugten Bauteiloberfläche infolge unterschiedlicher Bearbeitungsverfahren auf das Korrosionsverhalten. Zur Betrachtung der Wechselwirkung dieser beiden Faktoren wurden zwei metastabile austenitische Stähle herangezogen, welche eine nahezu identische Korrosionsbeständigkeit (gem. PREN) aufweisen, aber deren Austenitstabilität (gem. Md30) unterschiedlich ist. Durch mehrstufiges Kaltwalzen wurden an Blechmaterial verschiedene Umformgrade erzielt. Die Differenzierung in den Oberflächenausführungen wurde anschließend durch metallografische Präparation oder durch Plan-Umfangs-Längsschleifen erzeugt. Die metallografische Präparation führte zu geschliffenen, polierten oder elektropolierten Oberflächenausführungen. Für den maschinellen Flachschleifprozess wurden jeweils Oberflächen mit Siliziumkarbid oder mit Korund als Schleifmittel bearbeitet. Die Bestimmung des Korrosionsverhaltens erfolgte mittels verschiedener elektrochemischer Messmethoden. Zur Charakterisierung der erzeugten Oberflächen wurden unterschiedliche Analysemethoden angewendet, insbesondere die taktile und optische Bestimmung der Oberflächenrauheit sowie die Untersuchung mittels REM-Aufnahmen. Der Einfluss der Kaltumformung auf das vorliegende Gefüge, die zu einer ausgeprägten Bildung von α'-Martensit führte, wurde durch konventionelle Metallografie, EBSD-Messungen und magnetinduktive Messungen erfasst. In Bezug auf das erzielte Korrosionsverhalten zeigt sich der Einfluss beider Faktoren deutlich. Die Veränderung der mechanischen Eigenschaften infolge der Kaltumformung kann dabei als dominanter Einfluss auf die erzeugte Oberflächentopografie nachgewiesen werden. Hieraus folgt für geschliffene Oberflächen ein entgegengesetzter Trend des Korrosionsverhaltens mit steigendem Umformgrad zu den polierten oder elektropolierten Oberflächen.



Regensburg, Anna;
Hybrid Friction Eutectic Bonding (HFEB) - stoffschlüssiges Fügen von Aluminium und Kupfer unter Nutzung der eutektischen Reaktion. - Ilmenau : Universitätsverlag Ilmenau, 2021. - X, 177 Seiten. - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 12)
Technische Universität Ilmenau, Dissertation 2021

ISBN 978-3-86360-250-5
Literaturverzeichnis: Seite 149-164

Ansätze des werkstofflichen Leichtbaus mit dem Ziel der Gewichts- und Ressourcenoptimierung in elektrischen Verbindungen haben das Fügen von Aluminium-Kupfer-Mischverbindungen zu einem stark verfolgten Forschungsschwerpunkt der letzten Jahre gemacht. Im Rahmen von Elektromobilität sowie allgemeiner Erhöhung von Komfort- und Sicherheitsstandards ergeben sich hierfür hohe Herausforderungen an die einzusetzenden Fügetechnologien. Der Zielzustand für elektrische Verbindungen besteht in großflächigen, duktilen Verbindungen mit geringem Kontaktwiderstand. Je nach Verfahren werden diese Ziele jedoch durch die Bildung spröder, intermetallischer Phasen oder erhöhte Grenzflächen- und Bauteilverformung nur zum Teil erreicht. In der vorliegenden Arbeit wurde gezielt die Bildung einer eutektischen Schmelze zwischen Aluminium und Kupfer genutzt, um den Lösungsraum zwischen Press- und Schmelzschweißverfahren zu nutzen. Während der Initialkontakt der Grenzflächen durch Fügedruck während des Rührreibpunktschweißens beschleunigt wird, findet die Vergrößerung und Benetzung der Fügefläche durch die Bildung einer eutektischen Schmelze statt. Diese bildet sich zwischen den Grundwerkstoffen, ohne dass diese in die flüssige Phase übergehen. In Abhängigkeit der Prozessführung kann der Pressschweißprozess hier erneut genutzt werden, um die Schmelze aus der Fügezone zu verdrängen. Somit kann das Erstarrungsverhalten gezielt beeinflusst werden, während sich weitere Vorteile durch den Abtransport von Einschlüssen und Verunreinigungen ergeben. Durch eine angepasste Prozessführung können vollflächige Anbindungen in kurzer Prozesszeit von weniger als 0,5 s erzielt werden. Die Bildung weiterer Sprödphasen außerhalb des eutektischen Systems wird durch die Limitierung der Spitzentemperatur und des Energieeintrags verhindert. Zusätzlich kann die Schmelzebildung als Reduzierung des Materialwiderstands während des kraftgeregelten Prozesses detektiert und diese für weitere Prozessansätze genutzt werden. Weitere Optimierungsansätze zeigen sich beim Übertrag auf weitere Pressschweißverfahren und Bauteilgeometrien.



Fuchs, Karsten;
Ein Beitrag zur Optimierung der elektrischen Feldstärkeverteilung in LDPE unter HGÜ-Beanspruchung. - Ilmenau : Universitätsverlag Ilmenau, 2021. - XI, 150 Seiten. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik ; Band 32)
Technische Universität Ilmenau, Dissertation 2021

ISBN 978-3-86360-248-2
Literaturverzeichnis: Seite 113-127

International etabliert sich die Hochspannungsgleichstromübertragung (HGÜ) für Spannungen bis 1,2 MV aufgrund von zunehmenden Übertragungsstrecken immer mehr zum Stand der Technik. National rückt die HGÜ aufgrund des politisch motivierten Ausbaus der erneuerbaren Energien und des damit verbundenen Aus- und Umbaus des Höchstspannungs-Übertragungsnetzes für Spannungen bis 525 kV in den Fokus. Dabei sind neue Übertragungsstrecken vorzugsweise als Trassen aus polymeren Kabeln zu realisieren. In Isolierstoffen von HGÜ-Kabelsystemen stellt sich im stationären Zustand ein elektrisches Strömungsfeld ein, das von der vorherrschenden elektrischen Leitfähigkeit der jeweiligen Isolierstoffe beeinflusst wird. Diese elektrische Leitfähigkeit wird durch die temperatur- und feldstärkeabhängige Entwicklung von Raumladungen in der Isolation bestimmt. Diese Effekte führen zu einer Veränderung und Umkehr der elektrischen Feldstärkeverteilung im Isolationsmaterial. Deshalb müssen bei der Auslegung von HGÜ-Komponenten hinsichtlich der Betriebsspannung neben den Permittivitäten auch die elektrischen Leitfähigkeiten und die Neigungen zur Akkumulation von Raumladungen der einzelnen Isolierstoffe betrachtet werden. Das Augenmerk der vorliegenden Arbeit richtet sich auf Compounds mit vernetztem Polyethylen (LDPE) als Basispolymer und unterschiedlichen Füllstoffanteilen von hexagonalem Bornitrid (h-BN) bis maximal 20 Vol.-%. Es zeigt sich, dass durch eine höhere Wärmeleitfähigkeit bis 1 W/mK des Compounds eine verbesserte Abfuhr der Stromwärmeverluste des Innenleiters ermöglicht wird. Weitere Messungen bis 80 ˚C belegen, dass die elektrische Leitfähigkeit der Compounds stets kleiner ist als des Basispolymers LDPE. Zudem ist eine deutliche Vergrößerung der elektrischen Durchschlagsspannung der Compouds gegenüber LDPE gemessen wurden. Eine signifikante Akkumulation von Raumladungen ist weder für LDPE noch für die Compounds bei einer mittleren elektrischen Betriebsfeldstärke von 15 kV/mm mittels PEA-Verfahren (gepulstes elektroakustisches Verfahren) nachzuweisen. Anhand der gemessenen thermoanalytischen und dielektrischen Parameter in Abhängigkeit der Temperatur und elektrischen Feldstärke ist die grundsätzliche Eignung dieser Compounds als ein möglicher optimierter HGÜ-Isolierstoff festgestellt wurden. Jedoch wurden keine Alterungs- und Langzeiteffekte berücksichtigt.



Scharff, Moritz;
Bio-inspired tactile sensing : analysis of the inherent characteristics of a vibrissa-like tactile sensor. - Ilmenau : Universitätsverlag Ilmenau, 2021. - xviii, 169 Seiten
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-86360-237-6
Literaturverzeichnis: Seite 121-139

Die Weiterentwicklung taktiler Sensoren gewinnt an Bedeutung bspw. durch eine verstärkte Anwendung taktiler Sensoren zur Navigation in unbekannten Umgebungen von autonomen mobilen Robotern. Eine Möglichkeit taktile Sensoren weiter zu entwickeln ist, sich - wie auch schon andere Entwicklungen zeigen - der Natur zu bedienen, Vorbilder zu identifizieren, diese fundamental zu analysieren und als wesentlich befundene Eigenschaften und Funktionstüchtigkeiten zu adaptieren. Ratten besitzen auffällige Tasthaare an beiden Seiten der Schnauze, sogenannte Vibrissen. Diese sind gekennzeichnet durch einen langen, schlanken und natürlich vorgekrümmten Haarschaft mit konischem Querschnittsverlauf. Der Haarschaft wird von einem Haarfollikel gehalten, der sich unter der Haut befindet und in dem überdies Mechanorezeptoren zur Reizdetektion zu finden sind. Während der Erkundung von unbekannten Umgebungen und Objekten setzen Ratten ihre Vibrissen ein, um bspw. die Form oder Textur eines Objektes zu bestimmen, indem die Vibrisse daran entlang bewegt wird. Die Informationsaufnahme wird im Haarfollikel durch die Mechanorezeptoren realisiert. Die vorliegende Arbeit leistet einen Beitrag zum übergeordneten Ziel, die Eigenschaften und Einsatzmöglichkeiten dieses komplexen und hochentwickelten Sensorsystems der Natur für technische Anwendungen nutzbar zu machen. Die Eigenschaften einer Vibrisse sind synergetisch und beeinflussen ihre Funktionen in bedeutendem Maß. Deshalb wird das natürliche Vorbild detailliert analysiert und mit den Konzepten des biomechatronischen Systems und des Reizleitungsapparats beschrieben und auf dieser Basis ein Vibrissen-ähnlicher Sensor entworfen, um die inhärenten Eigenschaften eines solchen Sensorsystems zu untersuchen. Um die Funktionstüchtigkeit des entworfenen Protoyps, aufgebaut auf Basis der detaillierten Vorabanalyse, zu untersuchen, werden verschiedene Testobjekte, einschließlich verschiedener Oberflächenbeschaffenheiten, mit dem Sensor vermessen. Anhand der aufgezeichneten Messsignale zeigt sich, dass ein Objekt durch seine generelle Form sowie seine makroskopische und mikroskopische Oberflächenstruktur beschrieben werden kann. Die genannten Informationen überlagern sich in den gemessenen Signalen und müssen für eine weiterführende Auswertung extrahiert werden. Der Abstand zwischen Sensorlagerung und Objekt hat entscheidenden Einfluss. Makroskopische Oberflächenelemente lassen sich im Abstand von 80% der Länge des Sensorschafts besonders gut detektieren. Ein mittlerer Abstand, ca. 60% der Länge des Sensorschafts, unterstützt die Erfassung der Eigenschaften einer mikroskopischen Textur. Hingegen ist ein kleiner Abstand von 45% der Sensorschaftlänge besonders geeignet zur Detektion der generellen Form des Objekts. Diese Effekte sind in enger Verbindung zur Elastizität des Sensorschafts zu interpretieren. Beispielsweise verhindert die starke Krümmung des Sensorschafts in Folge eines kleinen Objektabstandes eine Detektion von makroskopischen Oberflächenelementen wie Rillen und Stufen, da sich der Sensorschaft in dieser Konfiguration wie ein adaptiver morphologischer Filter auswirkt und damit eine inhärente Eigenschaft des Sensorsystems ist. Der Übergang zwischen der makroskopischen und mikroskopischen Oberflächenstruktur wird durch den Durchmesser der Spitze des Sensorschafts bestimmt. Oberflächenstrukturelemente, die kleiner als dieser Durchmesser sind, gehören zur mikroskopischen Oberflächenstruktur. Daraus folgt, dass auch der Durchmesser der Spitze eine inhärente Eigenschaft ist. Eine weitere inhärente Eigenschaft wird bei der Detektion einer mikroskopischen Oberflächenstruktur erkennbar. Wenn der, sich im Kontakt befindende, stark verformte, Sensorschaft so bewegt wird, dass die konkave Seite des Sensorschafts in Bewegungsrichtung zeigt, werden die erfassten Signale verstärkt - im Vergleich zur entgegengesetzten Bewegungsrichtung. Unter Berücksichtigung der genannten und weiterer Ideen, wird der durch eine natürliche Vibirsse inspirierte Sensor in der vorliegenden Arbeit untersucht.



De Silva-Schmidt, Fenja;
Wissenserwerb zum Thema Klimapolitik aus Mediennutzung und interpersoneller Kommunikation. - Ilmenau : Universitätsverlag Ilmenau. - 306 Seiten. - (NEU - Nachhaltigkeits-, Energie- und Umweltkommunikation ; Band 7)
Universität Hamburg, Dissertation 2021

ISBN 978-3-86360-245-1
Literaturverzeichnis: Seite 272-305

Rau, Karsten;
Management von IT-Agilität: Entwicklung eines Kennzahlensystems zur Messung der Agilität im Handlungsfeld IT Personal. - Ilmenau : Universitätsverlag Ilmenau, 2021. - XV, 434 Seiten. - (Ilmenauer Schriften zur Wirtschaftsinformatik ; Band 4)
Technische Universität Ilmenau, Dissertation 2021

ISBN 978-3-86360-249-9

Die Dissertationsschrift behandelt ein aktuelles Thema von großer praktischer Relevanz, denn immer mehr Unternehmen stehen heute vor neuen wettbewerblichen Herausforderungen in einem turbulenten und globalisierten Geschäftsumfeld. Die Geschwindigkeit der Anpassung an die sich stetig ändernden Rahmenbedingungen, technologischen Innovationen und neuen Marktsituationen ist dabei eine wichtige Herausforderung für die Unternehmen. Die Geschäftsagilität des gesamten Unternehmens wird erwiesenermaßen maßgeblich von der IT-Agilität beeinflusst. IT-Agilität stellt somit einen zentralen Bestandteil des IT-Wertbeitrages dar. Der Autor adressiert mit seiner Dissertationsschrift die Frage, wie die IT-Agilität eines Unternehmens im Bereich des IT-Personals gemessen und auf dieser Grundlage aktiv gemanagt werden kann, um beispielsweise die Erreichung von Agilitätszielen oder die Wirksamkeit getroffener Maßnahmen zur Erhöhung der IT-Agilität nachzuweisen. Dazu wird auf einer empirischen Grundlage ein Kennzahlensystem entwickelt. Die Forschungsarbeit folgt grundlegend dem Design Science Research Paradigma gestaltungsorientierter Forschung nach Hevner et al. (2004) und Peffers et al. (2007). Da es sich bei der IT-Agilität um einen diffusen Sachverhalt handelt, wird zunächst ein mehrdimensionales Konstrukt der IT-Agilität im Bereich IT-Personal konzeptualisiert. Darauf aufbauend werden dann im nächsten Schritt des Forschungsprozesses für jede der identifizierten Dimensionen die jeweiligen Einflussfaktoren und die einhergehenden Ursache-Wirkungs-Zusammenhänge hergeleitet und als Ergebnis ein Untersuchungsmodell abgeleitet. Im Anschluss wird der im Untersuchungsmodell beschriebenen Ursache-Wirkungs-Zusammenhänge mit einer Online-Befragung von IT-Führungskräften und multivariaten Analysemethoden überprüft. Daraufhin erfolgt die Entwicklung eines Kennzahlensystems als direkte Fortentwicklung des empirisch validierten konzeptionellen Modells. Das Kennzahlensystem wird prototypisch als Softwaresystem implementiert und stellt ein Artefakt im Sinne Hevners et al. (2004) dar. Abschließend wird dessen Anwendbarkeit in praktischen Kontexten demonstriert. Es wird nachgewiesen, dass das Realweltproblem der fehlenden Steuerbarkeit durch das geschaffene Artefakt prinzipiell gelöst werden kann und damit einen adäquaten Nutzen für die Anspruchsgruppe stiftet.



Gernandt, Hannes;
Spectral perturbation & optimization of matrix pencils. - Ilmenau : Universitätsverlag Ilmenau, 2021. - 130 Seiten
Technische Universität Ilmenau, Dissertation 2021

ISBN 978-3-86360-246-8

In dieser Arbeit untersuchen wir lineare differentiell-algebraischen Gleichungen (DAEs). Die Lösungen solcher DAEs werden durch Eigenwerte und Hauptvektoren von Matrixbüscheln beschrieben. Hierdurch kann insbesondere das qualitative Verhalten der Lösungen durch eine gezielte Veränderung (oder Störung), hinsichtlich gewisser Robustheits- oder Stabilitätsvorgaben, verbessert werden. Wir untersuchen zunächst das Verhalten der Eigenwerte und Hauptvektoren von Matrixbüscheln unter Störungen niedrigen Ranges. Zur Beschreibung des Störverhaltens nutzen wir einen neuartigen Zugang mit linearen Relationen und einem Zusammenspiel der Segre und Weyr Charakteristiken. Von besonderem Interesse ist dabei das Problem der Eigenwertplatzierbarkeit durch Störungen niedrigen Ranges. Hierbei wird untersucht, ob eine vorgegebene Eigenwertlage durch eine gezielte Veränderung der DAE erreicht werden kann. Durch die Vorgabe der Eigenwertlage wird indirekt das Stabilitätsverhalten der DAE beeinflusst. Vereinfacht gesagt wird in dieser Arbeit gezeigt, dass jede vorgegebene Eigenwertlage durch eine Störung mit Rang eins realisierbar ist. Als Anwendung betrachten wir eine Designoptimierung von Operationsverstärkern, welche in den letzten Jahren in der Arbeitsgruppe um Ralf Sommer (TU Ilmenau & Institut für Mikroelektronik- und Mechatronik-Systeme) entwickelt wurde. Hierbei wurden gezielt Kapazitäten in die Verstärkerschaltung eingefügt, um ihr Übertragungsverhalten nach gewissen Vorgaben zu beeinflussen. Dabei entspricht jede neue Kapazität einer Störung der DAE vom Rang eins. In diesem Kontext sind die Platzierungsergebnisse jedoch nur bedingt geeignet. Hier treten zusätzliche Einschränkungen der erlaubten Modifikationen der DAE auf, da nur sehr wenige Störungen als Kapazitäten in der Schaltung realisiert werden können. Bei der Designoptimierung ist man zudem an kleinstmöglichen Veränderungen der DAE interessiert, um die Produktionskosten des Verstärkers zu minimieren. Daher untersuchen wir im zweiten Teil der Arbeit, wie platzierende Störungen mit kleinstmöglicher Norm sowie mit vorgegebener Struktur bestimmt werden können. Dieses Vorgehen bezeichnen wir als Spektrale Optimierung. Zur Bestimmung einer approximativen Lösung dieses Optimierungsproblems wurde ein Algorithmus entwickelt, welcher dann bei der Designoptimierung von zwei industriellen Verstärkerschaltungen eingesetzt wird.



Reumann, Andreas;
Transiente und stationäre Potentialverteilung in Gleichspannungsdurchführungen bei thermischen Belastungen. - Ilmenau : Universitätsverlag Ilmenau, 2021. - 162 Seiten. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik ; Band 31)
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-86360-241-3

Sowohl in Deutschland als auch international gewinnt die Hochspannungsgleichstromübertragung zunehmend an Bedeutung. Gleichspannungsdurchführungen stellen dabei aufgrund der elektrischen und thermischen Eigenschaften ihrer Isolation einen leistungsbegrenzenden Engpass der Übertragung dar. Die Temperatur eines Dielektrikums hat einen starken Einfluss auf die zugehörige elektrische Leitfähigkeit. Durch die in Durchführungen vorkommenden hohen Temperaturgradienten nehmen die veränderten Leitfähigkeiten Einfluss auf die Aufteilung des elektrischen Potentials welches damit deutlich vom Auslegungsfall abweichen kann. Bisher wurde die Verschiebung des Potentials nur durch Simulationen ermittelt. Von besonderer Bedeutung für diese Arbeit ist demnach die experimentelle Bestimmung der Potentialverteilung im Inneren einer Gleichspannungsdurchführung. Hierzu wurden zwei spezielle, weitgehend identische Prüfwickel gefertigt. Ein Prüfkörper dient dabei zur Erfassung der transienten und stationären Temperaturverteilung bei nachgebildeten Betriebsbedingungen. Der Zweite dient zur Erfassung der elektrischen Potentialverteilung. Durch identisch nachgebildete Bedingungen wird es möglich, die Potentialverteilung bei stationärer Gleichspannung und bei transienten Betriebszuständen basierend auf unterschiedlichen Temperaturgradienten zu ermitteln. Hierdurch konnte erstmals experimentell nachgewiesen werden, dass die thermisch-elektrische Potentialverschiebung in der Realität auftritt. Es wurde ein Simulationsmodell erstellt, welches anhand der gemessenen Potentialverteilungen erfolgreich verifiziert werden konnte. Mit dem Modell ist es möglich, anhand von gemessenen Materialdaten die real vorhandene transiente und stationäre Potentialverteilung bei gegebener Temperaturverteilung zu berechnen. Weiterhin wird eine Methodik vorgestellt, mit welcher auch bei extrem langsamen Polarisationsvorgängen mit den dazugehörigen langen Zeitkonstanten im Material dennoch die notwendigen Materialwerte für eine erfolgreiche Simulation gewonnen werden können. Die Simulationen und Messungen zeigen die erwartete Potentialverschiebung in die kühleren Randbereiche der Durchführung und quantifizieren damit die erwartete erhöhte Feldstärkebelastung in diesen Gebieten. Weiterführende Simulationen stellen die Problematik bei Umpolmessungen dar, bei welchen sich auch eine Potentialüberhöhung in Bereichen der Durchführung einstellen kann, welche aus der angelegten Spannung nicht direkt erwartet werden können. Die vorgestellte Arbeit erweitert das Verständnis der thermisch-elektrischen Vorgänge in Hochspannungsgleichstromdurchführungen und kann zu einer Sicherung der Verfügbarkeit dieser beitragen.



Steinmeier, René;
Ein Beitrag zur Effizienzsteigerung von elektromechanischen Antrieben, basierend auf einem mathematischen Modell ferrofluidaler Strömungen. - Ilmenau : Universitätsverlag Ilmenau, 2021. - XXIII, 120 Seiten
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-86360-240-6

Der Gegenstand der Arbeit ist die Effizienzsteigerung von elektromechanischen Antrieben durch magnetisch kontrollierbare Fluide, basierend auf einem mathematischen Modell ferrofluidaler Strömungen unter Einbeziehung des Magnetfeldes und des Wärmestromes. Eine umfassende Analyse des Standes der Technik gibt einen Überblick über magnetische und rheologische Flüssigkeiten und zeigt die Anwendungsmöglichkeiten magnetisch kontrollierbarer Fluide. In Voruntersuchungen wird der kraftverstärkende Einfluss des Ferrofluids im Luftspalt eines Eisenkreises dargestellt und mittels des FEM-Simulationswerkzeuges COMSOL nachgebildet und berechnet. Der Schwerpunkt der Arbeit liegt auf der mathematisch-mechanischen Modellierung, bei der das Taylor-Couette-System die Basis bildet und die Navier-Stokes-Gleichungen das Strömungsverhalten im System beschreiben. Berechnungen zum Geschwindigkeitsfeld bei konstanter und variabler Viskosität werden durchgeführt und ein Temperaturmodell, angenähert an das Verhalten des Elektromotors, analytisch hergeleitet. Nach den theoretischen Untersuchungen am Taylor-Couette-Modell als Abstraktionsstufe für einen Elektromotor folgt die experimentelle Evaluierung am Prototyp einer ferrofluidunterstützten permanenterregten Synchronmaschine. Dem konstruktiven Entwicklungsprozess folgend, wird eine simulative Berechnung des Prototyps mit der FE-Software COMSOL durchgeführt. Die Messergebnisse zum Erwärmungs- und Dauerlauf werden detailliert dargestellt. Das Ferrofluid ist in diesem genannten Kontext ein effizienzsteigerndes Element. Im letzten Teil der Arbeit wird eine innovative Entwicklung vorgestellt, bei dem, im Unterschied zu dem Antrieb aus den Kapiteln 3 und 4, eine magnetisch kontrollierbare rheologische Flüssigkeit ein funktionsbestimmendes Element ist. Die modellbasierte Untersuchung und die Prototypenbeschreibung sowohl eines rotatorischen, als auch translatorischen Antriebes schließen die Arbeit ab.



Sousa, Marcelo Nogueira de;
Multipath exploitation for emitter localization using ray-tracing fingerprints and machine learning. - Ilmenau : Universitätsverlag Ilmenau, 2021. - xix, 245 Seiten
Technische Universität Ilmenau, Dissertation 2021

ISBN 978-3-86360-244-4
Literaturverzeichnis: Seite 221 - 240

Die präzise Lokalisierung von Hochfrequenz (HF)-Sendern im Außenbereich ist seit einigen Jahren ein wichtiges Forschungsthema in den verschiedensten Bereichen. Heutzutage basieren die Funktionsweisen vieler elektronischer Geräte auf den Positionsdaten eines HF-Senders unter Einsatz eines drahtlosen Sensornetzwerks (Wireless Sensor Network). Räumlich getrennte Sensoren können das Signal des Senders messen und seinen Standort mit Parametern wie Ankunftszeit (Time Of Arrival), Ankunftszeitdifferenz (Time Difference Of Arrival, TDoA), empfangene Signalstärke (Received Signal Strength) oder Ankunftsrichtung (Direction Of Arrival) abschätzen. Jedoch können bestimmte Hindernisse in der Umgebung Reflexion, Beugung oder Streuung des Signals verursachen. Dieser sogenannte Mehrwegeffekt beeinträchtigt die Messungen für die präzise Lokalisierung des Senders. Frühere Studien haben die Mehrweginformationen verworfen und sie nicht als wertvoll für die Lokalisierung des Senders angesehen. Einige Studien verwendeten Ray-Tracing (RT), um in einem simulierten Szenario Positions-Fingerprints, ohne Bezug zu realen Messungen, zu erstellen. Andere wiederum testeten dieses Konzept mit realen Messdaten, was sich jedoch aufgrund der praktischen Probleme im Außenbereich als umständlicheres Verfahren herausstellte. Diese Doktorarbeit befasst sich mit dem Problem der präzisen Lokalisierung von HF-Sendern in Außenbereichen, welche von Mehrwegeffekten betroffen ist, unter Verwendung der Kanalimpulsantwort (Channel Impulse Response). Die Arbeit zielt darauf ab, die Forschungslücke zu schließen, indem die Mehrweginformationen aus der Simulation mit realen Messungen in einem maschinellen Lernrahmen kombiniert werden. Die Fragestellung war, ob die Lokalisierung durch die Verknüpfung realer Messungen mit Simulationen verbessert werden kann. Wir schlagen eine Methode vor, die die Mehrweg-Fingerprint-Informationen aus der RT-Simulation mit Referenzsendern nutzt, sodass die Standortbestimmung verbessert werden kann. Um die Wirksamkeit der vorgeschlagenen Methode zu validieren, haben wir ein TDoA Lokalisierungssystem in einem Außenbereich-Szenario implementiert. Im Rahmen dieser Dissertation untersuchten wir vorstädtische und ländliche Gebiete unter Verwendung von wohldefinierten reflektierenden Komponenten zur Charakterisierung des Mehrwegmusters. Die Ergebnisse bestätigen die Möglichkeit, Mehrwegeffekte mit realen Messdaten zu nutzen, um die Lokalisierung im Außenbereich zu verbessern. Statt die Mehrweginformationen zu verwerfen, können wir sie konkret nutzen.



Westphalen, Jasper;
Implementierung eines Moduls zur großflächigen In-Line Blitzlampentemperung von gesputterten ITO-Schichten. - Ilmenau : Universitätsverlag Ilmenau, 2021. - x, 109 Seiten. - (Werkstofftechnik aktuell ; Band 22)
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-86360-243-7

Die Blitzlampentemperung (Flash Lamp Annealing - FLA) zählt zu den Kurzzeittemperverfahren (Rapid Thermal Annealing - RTA), da die Erwärmung und Abkühlung der Schicht im Bereich von Millisekunden liegen. Die mit Hilfe von Blitzlampen durchgeführte Temperung dient zur oberflächennahen Erwärmung von Festkörpern. Hierbei handelt es sich um einen thermischen Prozess, der Materialeigenschaften verändern kann. Durch die Blitzlampentemperung kann der Schichtwiderstand von transparenten leitfähigen Oxidschichten (Transparent Conductive Oxides - TCO) reduziert und die Transmission im sichtbaren Wellenlängenbereich erhöht werden. In der vorliegenden Forschungsarbeit wird das Prozessverhalten von dynamischen FLA-Prozessen bei Indium-Zinn-Oxid (ITO) Schichten experimentell dargelegt. Dazu wurde der Einfluss von verschiedenen Prozessparametern wie Energiedichte und Pulszeit des Xenonlichtblitzes erforscht. Erste Versuche zur Untersuchung des Einflusses der Blitzwiederholrate und der Geschwindigkeit des Substrates ließen sich erfolgreich durchführen. Die Herstellung aller Schichten erfolgte am Fraunhofer-Institut für Organische Elektronik, Elektronenstrahl- und Plasmatechnik (FEP) in der In-Line Sputteranlage ILA 750. Für die Blitzlampentemperung wurde das Lampensystem Xenon Flash Lamp Modul FLA 2x360w der Firma ROVAK GmbH genutzt. Das Modul ist Bestandteil der Beschichtungsanlage ILA 900 am Fraunhofer FEP und erlaubt sowohl die statische als auch die dynamische FLA-Behandlung von Substraten bis zu einer Größe von 600 mm x 1200 mm. Die unterschiedlichen Einstellungen der Blitze ließen sich optisch vermessen. Für ITO-Schichten mit einer Schichtdicke von 150 nm konnte nach der FLA-Behandlung ein Widerstand von 14 [Ohm] erreicht werden. Für die Transmission im sichtbaren Wellenlängenbereich wurden 87 % erzielt. Diese Werte sind vergleichbar mit einer konventionellen Temperung von ITO-Schichten im Ofen. Erfolgreich ließ sich zeigen, dass der FLAProzess an eine bestehende In-Line Prozessanlage implementiert werden kann.



Wolling, Jens; Kuhlmann, Christoph; Schumann, Christina; Berger, Priscila; Arlt, Dorothee
Corona 2020 - Zerreißprobe für die Gesellschaft? : persönliches Erleben und mediale Vermittlung einer multiplen Krise. - Ilmenau : Universitätsverlag Ilmenau, 2021. - 139 Seiten. - (Kommunikationswissenschaft interdisziplinär ; Band 8) ISBN 978-3-86360-242-0
Literaturverzeichnis: Seite 137-139

Sewalkar, Parag;
A framework for quality of service in Vehicle-to-Pedestrian safety communication. - Ilmenau : Universitätsverlag Ilmenau, 2021. - xvii, 141 Seiten
Technische Universität Ilmenau, Dissertation 2021

ISBN 978-3-86360-239-0

Die Kommunikation zwischen Verkehrsteilnehmern (V2X) hat sich zu einem wichtigen Mechanismus zur Verbesserung der Sicherheit und Effizienz des Straßenverkehrs entwickelt. Obwohl die V2X-Kommunikation prinzipiell die Kommunikation zwischen Fahrzeugen (V2V), zwischen Fahrzeug und Infrastruktur (V2I) sowie zwischen Fahrzeug und Fußgänger (V2P) umfasst, sind Ansätze zur V2P-Kommunikation weiterhin in einem sehr frühen Stadium und lassen einen umfassenden Ansatz für die Entwicklung von V2P-Systemen vermissen. V2P umfasst im Detail die Kommunikation zwischen Fahrzeugen und einer Vielzahl von gefährdeten Verkehrsteilnehmern (VRUs), wie beispielsweise Fußgänger, Radfahrer oder Mopeds. V2X-Systeme wurden ursprünglich nur für V2V- und V2I-Kommunikation entwickelt, wobei ausschließlich die Fahrzeugeigenschaften im Fokus standen. Ein effektives V2P-Systemdesign muss jedoch auch die Eigenschaften von VRUs berücksichtigen, die bei der Berücksichtigung der V2P-Kommunikation in einem V2X-System viele Fragen aufwerfen. Diese Dissertation befasst sich mit drei Aspekten im Zusammenhang mit der Entwicklung eines V2P-Systems. Der erste Aspekt betrifft die systematische Konzeption eines V2P-Systems nach einem ganzheitlichen Ansatz. Diese Dissertation schlägt einen V2P-Entwurfsrahmen vor, der auf verschiedenen Eingangsgrößen basiert, die für die Entwicklung eines effektiven V2P-Systems erforderlich sind. Dieser Entwurfsrahmen verbessert das Verständnis der V2P-Systemanforderungen und trägt dazu bei, den Entwurfsprozess systematischer zu gestalten. Der zweite Aspekt betrifft die Leistung des V2X-Netzes, wenn eine große Anzahl von VRUs präsent ist. Diese Dissertation schlägt hierfür MC-COCO4V2P vor, einen energieeffizienten Clustering-Mechanismus für Fußgänger zur Eindämmung der Netzüberlastung. MC-COCO4V2P verbessert die Netzleistung, indem die Anzahl der von Fußgängern generierten Sicherheitsmeldungen reduziert wird. Damit wird zudem die Batterielebensdauer der von den Fußgängern genutzten Geräte verbessert. Der dritte Aspekt betrifft die Zuverlässigkeit der Kommunikation zwischen einem Fahrzeug und einem Fußgänger, die kurz vor einem Zusammenstoß stehen. Diese Dissertation stuft eine so wichtige Kommunikation als diejenige ein, die selbst beim Austausch anderer kritischer Sicherheitsnachrichten die höchste Priorität bekommt. Es wird ein Mechanismus vorgeschlagen, der es den umgebenden Verkehrsteilnehmern ermöglicht, ihre Kommunikationspriorität vorübergehend zu verringern. Dies führt zu einem bevorzugten Medienzugriff für die durch eine Kollision gefährdeten Verkehrsteilnehmer, was zu einer höheren Dienstgüte (QoS) für deren Kommunikation führt.



Caba, Stefan;
Qualitätsorientierte Prozessauslegung im Resin Transfer Molding. - Ilmenau : Universitätsverlag Ilmenau, 2021. - 257 Seiten. - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 11)
Technische Universität Ilmenau, Dissertation 2021

ISBN 978-3-86360-238-3

Resin Transfer Molding (RTM) als Herstellungsverfahren für Faserverbundbauteile bietet die Vorteile kurzer Zykluszeiten und niedriger Fehlstellengehalte in Form von Poren. Die Realisierung dieser beiden Ziele ist jedoch nur möglich, wenn der Einfluss der Prozesskenngrößen auf den Fehlstellengehalt bekannt ist. Hierzu wird in der vorliegenden Arbeit ein Beitrag geleistet. Die Bildung von Poren findet während der Benetzung der Faserbündel an der Fließfront des Harzes statt. Dabei entstehen aufgrund von Permeabilitätsunterschieden sowie der Wirkung des Kapillareffekts Ungleichmäßigkeiten, die zum Einschluss von Luft führen. In bisherigen Untersuchungen wurden zur Abschätzung des Porengehalts stets statische Kenngrößen verwendet und es erfolgte keine ausreichende Berücksichtigung der Bündelgeometrie. Daher können Ergebnisse nicht zur Prozessoptimierung auf konkret vorliegende Fälle übertragen werden. Mit Hilfe hier neu entwickelter Bündeltränkungsmodelle, in denen der dynamische Kontaktwinkel zwischen Harz und Faser erstmals rechnerisch erfasst wird, werden zunächst die Vorgänge an der Fließfront beschrieben. Es wird aufgezeigt, dass der Kapillareffekt bei hohen Tränkungsgeschwindigkeiten nicht mehr vorantreibend, sondern hemmend wirkt. Die Tränkungsmodelle werden in Fehlstellenentstehungsmodelle für sphärische und zylindrische Poren überführt. Ein neuartiges Weibull-Modell liefert dabei die Viskositätsentwicklung des Harzes während der Injektionsphase. Im anschließenden praktischen Teil werden Prozessversuche innerhalb eines Versuchsraums aus unterschiedlichen Preforms durchgeführt, in denen gezielt Poren erzeugt werden. Die vorliegenden Prozesskenngrößen werden in einem Glaswerkzeug in-situ erfasst. Die Gehalte der wesentlichen Fehlstellenarten werden analysiert. Hieraus ergeben sich empirisch ermittelte Anpassungsfaktoren für die Fehlstellenentstehungsmodelle, die von Faserhalbzeug oder Benetzungsrichtung abhängig sind. Die Modelle sind damit auf weitere Halbzeuge übertragbar. Abschließend wird ein Algorithmus zur Bestimmung der Injektionsparameter auf Basis des zu erwartenden Fehlstellengehalts anhand eines Beispielbauteils präsentiert. Dieser gestattet eine Prozessoptimierung, die sowohl eine kurze Zykluszeit als auch einen niedrigen Fehlstellengehalt zum Ziel hat. Somit wird ein kostengünstiger und qualitativ hochwertiger RTM-Prozess ermöglicht.



Jiang, Teng;
Ein Beitrag zur Stabilitätsbetrachtung in Umrichter-dominierten Verteilernetzen. - Ilmenau : Universitätsverlag Ilmenau, 2021. - X, 137 Seiten. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik ; Band 30)
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-86360-231-4

Leistungselektronische Komponenten, wie beispielsweise Umrichter, dienen als Schnittstelle zwischen Versorgungsnetz und Einspeisung bzw. Last. Durch den Ausbau der erneuerbaren Energien gewinnen diese immer mehr an Bedeutung. Der Einfluss des Umrichters auf die Stabilität und die Betriebsführung des zukünftigen Verteilernetzes, welcher vor allem durch deren Regelstruktur und deren Regler Parameter bestimmt wird, nimmt dementsprechend stark zu. Um den weiteren Erfolg des Netzbetriebs gewährleisten zu können, ist eine gründliche Untersuchung der Wechselwirkung zwischen den parallel geschalteten Stromrichtern, in Bezug auf von Umrichtern dominierte Verteilernetze, erforderlich. Dabei besteht die Herausforderung darin, dass die numerische Komplexität der Simulation aufgrund der wachsenden Anzahl von Wechselrichtern stark wächst. Dies wird zusätzlich durch eine Nachbildung des überlagerten und untergeordneten Netzwerks verstärkt. Die Dimensionen des Netzes und die große Anzahl von Umrichtern bilden das Dilemma in der Simulation eines von Umrichtern dominierten Verteilernetzes. Bezüglich dessen, widmet sich die vorliegende Arbeit zuerst der Nachbildung eines von Umrichtern dominierten Verteilernetzes und stellt eine neuartige Netzreduktionstechnik vor, die die Netzdynamik bei der Untersuchung der Kleinsignalstabilität, in Form von Übertragungsfunktion durch eine gesteuerte Spannungs- bzw. Stromquelle, in den unter- und überlagerten Netzen übertragen kann. An Hand dieses neuen Simulationsmodells werden die Untersuchungen durchgeführt. Die Wechselwirkung von Umrichtern, sowie anderen Netzelementen wie z.B. Leitern, Verbrauchern und Transformatoren, wie auch unterschiedliche Netztopologien hinsichtlich ihrer Systemstabilität, werden analysiert. Die Untersuchung teilt sich in sogenannte intra- bzw. internet-Bezirke auf. Als Ergebnis dieser Arbeit ist festzuhalten, dass die Systemstabilität im Kleinsignalbereich, mit wachsender Anzahl und Einflussnahme der Umrichter, sinkt. Weiterhin werden im Rahmen dieser Arbeit zwei Stabilisierungsmaßnahmen, zur Betriebsführung eines Wechselrichterverteilnetzes, entwickelt. Die Maßnahme, "Stabilizer", bietet sich für die Stabilisierung einer Anpassung der Regelstruktur des Umrichters, durch eine spannungsabhängige Zusatzsignalaufprägung zur Verbesserung der Systemeigenschaften bei Anregungen und Störungen, an. Die zweite Maßnahme dient dazu, die Parameter der kaskadierten Regler zu optimieren. Es wird ein dynamisches Konzept zur globalen Optimierung vorgeschlagen und durch Simulation validiert.



Mahboob, Atif;
Modelling and use of SysML behaviour models for achieving dynamic use cases of technical products in different VR-systems. - Ilmenau : Universitätsverlag Ilmenau, 2021. - XXII, 241 Seiten. - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; Band 38)
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-86360-234-5

Digitale Methode und Modellen ermöglichen den Produktdesignern eine frühzeitige Evaluierung des Produkts, damit sie das Verhalten des Produkts und seine Interaktionen mit benachbarten Systemen in seinen späteren Lebensphasen besser verstehen können. Virtual Reality (VR) ist eine Technologie, die zum frühen Evaluierungsprozess beitragen kann, indem spätere Lebenssituationen eines Produkts schon in der Entwurfsphase angezeigt werden können. Die Anwendung von VR in der Industrie ist jedoch derzeit aufgrund des hohen Modellaufbereitungsaufwands und der limitierten Wiederverwendbarkeit vorhandener Modelle begrenzt. Daher befasst sich diese Arbeit mit der Entwicklung einer Methode, die die frühzeitige Evaluierung des Produkts innerhalb von VR und die Verwendung von VR im Produktentwicklungsprozess erleichtern kann. Diese Methode befasst sich mit dem Prozess der Entwicklung allgemeiner Verhaltensbeschreibungen zur Verwendung in VR, die auch wiederverwendet werden können, um dynamische Anwendungsfälle eines Produkts in den verschiedenen VR-Systemen abzubilden. Der Fokus liegt auf der Reduzierung des gesamten Aufbereitungsaufwands von VR-Modellen und auf das Verwirklichen einer hohen Wiederverwendbarkeit bereits vorhandener Modelle. Die Kernkomponenten der Arbeit bestehen in der Verwendung von Model Based Systems Engineering (MBSE) zur Entwicklung allgemeingültiger Verhaltensmodellbeschreibungen, ihrer Verwendung beim Erstellen verschiedener Anwendungsfälle eines Produkts in einem VR-System und ihrer Wiederverwendung in den verschiedenen VR-Systemen. Die Systems Modeling Language (SysML) wird zur Beschreibung der Verhaltensmodelle verwendet, der Modellierungsprozess wird systematisch beschrieben und auch in Form allgemeiner Anwendungsrichtlinien für die spätere Verwendung zusammengefasst. Darüber hinaus wird eine dedizierte Physik-Engine verwendet, um die physikalischen Berechnungen für virtuelle Objekte in VR durchzuführen, welche auch mit SysML integriert ist. Diese SysML-Verhaltensmodelle zusammen mit der Physik-Engine bilden eine echtzeitfähige Produktanwendungssimulation in VR. Dieselben SysML-Verhaltensmodelle werden für verschiedene VR-Systeme verwendet, um Echtzeitsimulationen abzubilden und ihre Wiederverwendung zu validieren. Zwei VR-Prototypen wurden entwickelt, um die Wirksamkeit und Verwendung der vorgestellten Methoden zu demonstrieren. Schließlich wurde einer der Prototypen einer empirischen Untersuchung unterzogen, die mithilfe von Experten aus Wissenschaft und Industrie durchgeführt wurde.



Bielenin, Martin;
Prozessstrategien zur Vermeidung von Heißrissen beim Schweißen von Aluminium mit pulsmodulierbaren Laserstrahlquellen. - Ilmenau : Universitätsverlag Ilmenau, 2021. - 185 Seiten. - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 10)
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-86360-235-2

Das gepulste Laserstrahlschweißen ermöglicht die Vermeidung der Heißrissbildung beim Schweißen von 6xxx Aluminilegierungen ohne den Einsatz eines Schweißzusatzwerkstoffes. Im Rahmen der Arbeit wurden die Mechanismen und physikalischen Ursachen der Heißrissbildung beim gepulsten Laserstrahlschweißen untersucht und zusammenhängend beschrieben. Dafür wurde ein transientes thermomechanisches Simulationsmodell zur Abbildung des gepulsten Laserstrahlschweißprozesses mit zeitlich veränderlichem Pulsleistungsverlauf aufgebaut und experimentell validiert. Die zeit- und ortsaufgelöste Berechnung des gesamten Spannungs , Dehnungs- und Temperaturfeldes ermöglichte die Quantifizierung der wesentlichen Erstarrungsparameter an der Phasenfront zu jedem Zeitpunkt während Schmelzbadkristallisation. Die experimentellen Untersuchungen erfolgten repräsentativ an der industriell etablierten, aber heißrissanfälligen Legierung EN AW 6082-T6. Die grundlegenden experimentellen Untersuchungen wurden zunächst an modellhaften Einzelpunktschweißungen ausgeführt. Innerhalb der experimentellen Untersuchungen wurden drei Regime identifiziert, die sich in Abhängigkeit der Erstarrungsgeschwindigkeit des Schmelzbades ergeben und in denen unterschiedliche Mechanismen die Entstehung von Heißrissen dominieren. Wohingegen die Rissbildung bei hohen Erstarrungsgeschwindigkeiten auf die Dehnrate, die geringe Permeabilität des interdendritischen Netzwerks und die große Nachspeisedistanz zurückgeführt werden konnte, wurde bei langsamen Erstarrungsgeschwindigkeiten die Seigerung niedrigschmelzender Phasen an der Erstarrungsfront als Rissursache identifiziert. Punktüberlappende Nahtschweißungen sind durch das Umschmelzen rissbehafteter Bereiche des vorherigen Schweißpunktes weniger sensibel für die Bildung von Heißrissen als Punktschweißen. Auf Basis der gewonnenen Erkenntnisse wurden aus den prozesstechnischen und physikalischen Ursachen für die Prozessgrenzen Strategien zur Erweiterung abgeleitet, entwickelt und umgesetzt. Hierfür wurde das gepulste Laserstrahlschweißen mit räumlich überlagerter cw-Diodenlaserstrahlung im niedrigen Leistungsbereich untersucht. Mit dem entwickelten Prozessansatz können heißrissfreie Schweißnähte auch mit konventionellen Rechteckpulsen erzeugt werden. Darüber hinaus wird einerseits die Einschweißtiefe signifikant gesteigert. Anderseits wird durch die geringe Leistungszugabe des Diodenlasers die Schweißgeschwindigkeit um den Faktor 4 gegenüber dem derzeitigen Stand der Technik erhöht.



Griebel, Stefan;
Entwicklung und Charakterisierung fluidmechanischer nachgiebiger Aktuatoren am Beispiel eines multifunktionalen Sauggreifers. - Ilmenau : Universitätsverlag Ilmenau, 2021. - 183, A-1-A-53, LII Seiten. - (Berichte der Ilmenauer Mechanismentechnik ; Band 6)
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-86360-233-8

Zum Greifen verschiedener Greifobjekte finden fluidmechanische nachgiebige Aktuatoren (FNA) auf Silikonbasis als Greifer zunehmend Verbreitung. Aufgrund der stoffschlüssigen Bauweise ermöglichen diese die Integration verschiedener Funktionen auf Strukturebene. Vor allem zur Senkung des Hygienerisikos sind FNA für Greifaufgaben in Reinräumen und der Verpackungsindustrie in Form geschlossener Sauggreifer besonders geeignet. Die Untersuchung derartiger Sauggreifer ist Gegenstand dieser Arbeit. Im Rahmen der Arbeit wird ausgehend von verschiedenen Anwendungen eine allgemeine Klassifikation für FNA vorgestellt und entwickelte FNA anhand dieser eingeordnet. Die Entwicklung von FNA wird am Beispiel des geschlossenen Sauggreifers detailliert beschrieben. Eine der Besonderheiten des geschlossenen Sauggreifers ist, dass er im Gegensatz zu offenen Sauggreifern greifobjektseitig eine Membran aufweist. Die Membran ermöglicht neben der Trennung des Mediums im Innenraum des Sauggreifers vom Umgebungsmedium, auch das aktive, zeitlich sowie örtlich gezielte Ablegen von Greifobjekten. Eine weitere Besonderheit des gewählten Beispiels ist dessen nichtlineare Federkennlinie. Diese führt zu einem Bewegungsverhalten mit Durchschlag und ermöglicht die Adaption an verschiedene Objektlagen und -formen. Durch Modellbetrachtungen und experimentelle Untersuchungen von ausgewählten Geometrie und Materialparametern werden Beeinflussungsmöglichkeiten der Durchschlaggrößen aufgezeigt. Die Formulierung einer allgemeinen Vorgehensweise für das Erreichen festgelegter FNA-Kennwerte bilden dabei einen wesentlichen Beitrag dieser Arbeit. Darüber hinaus werden prinzipielle Lösungen für die Implementierung einer stoffkohärenten sowie nachgiebigen Sensorik für FNA auf Silikonbasis vorgestellt. Die Umsetzung der Sensorik wird am Beispiel des Sauggreifers beschrieben. Die Möglichkeit zur Ableitung qualitativer Aussagen zu Greifzustand, Greifobjektleitfähigkeit sowie zu den Greifprozessphasen wird diskutiert. Die für die Herstellung und Erprobung des multifunktionalen Sauggreifers notwendigen neuartigen Werkzeuge, Vorrichtungen und Prozesse werden im Rahmen der Arbeit jeweils beschrieben. Durch die Gesamtschau der untersuchten FNA-Eigenschaften, nichtlinearen Kennlinie, Adaptivität sowie Sensorisierung liefert die Arbeit einen Beitrag zu multifunktionalen FNA sowie auch zum Vorgehen bei deren Entwicklung.



Koreng, Regina;
Entwicklung eines Patternkatalogs für Augmented Reality Interfaces in der Industrie. - Ilmenau : Universitätsverlag Ilmenau, 2021. - xviii, 181, XXXIV Seiten
Technische Universität Ilmenau, Dissertation 2021

ISBN 978-3-86360-236-9

Für die Gestaltung eines User Interfaces für ein Augmented Reality-System im industriellen Kontext gibt es gegenwärtig keine Vorgaben oder Richtlinien. Dabei gelten in diesem Bereich besondere Anforderungen für das Wahrnehmen und Erkennen von Inhalten, die durch die Rahmenbedingungen der industriellen Umgebung, die Mensch-Technik-Interaktion und die Arbeitsaufgabe gegeben sind. Die vorliegende Dissertation befasst sich mit dieser Forschungslücke. Auf Basis der Anforderungsanalyse wurde mit Hilfe des modifizierten Usability Engineering Lifecycle nach Mayhew ein Designkonzept entwickelt. Dieses konzentriert sich auf die Wahrnehmung von Informationen in Augmented Reality-Systemen. Eine Evaluation mit ExpertInnen untersuchte die Sättigung von Grau- und Farbwerten, in Bezug auf die Wahrnehmung und Erkennbarkeit bei minimal und maximal zulässiger Leuchtdichte des industriellen Umfeldes. Als Ergebnis wurde deutlich, dass sich Grauwerte für dauerhafte Textdarstellungen eignen und Farben bei Hervorhebungen oder Grafiken von Vorteil sind. Ein weiteres Hauptaugenmerk der Dissertation befasste sich mit dem Layout und Interaktionsmöglichkeiten des User-Interfaces des Augmented Reality-Systems. Basisinteraktionen und de-facto Standards wurden spezifisch bezüglich der generischen Aufgaben untersucht. Daraus entstand ein Prototyp, der in einer ausführlichen Untersuchung getestet wurde. Die vier generischen Aufgaben "Auswählen aus dem Hauptmenü", "Navigieren in Dokumenten", "Vertiefen von Objektinformation" und "Auswählen aus der Funktionsleiste" wurden auf ihre Nützlichkeit und Nutzerfreundlichkeit hin evaluiert. Es wurde deutlich, dass bei der Gestaltung der Layout-Elemente demDer NutzerIn die Möglichkeit gegeben werden sollte, die Darstellung nach eigenen Erfahrungen anzupassen und bestehende Lösungen zu übernehmen. Im Ergebnis entstand ein Patternkatalog mit elf Layout- und 18 Interaktionsvarianten. Dieser kann bei der Entwicklung eines industriellen Augmented Reality-Systems in Hinblick auf eine nutzerorientierte Darstellung des Interfaces unterstützend wirken.



Thiel, Frank;
Skalenoptimale Konfiguration kreisangehöriger Gemeinden in Thüringen : empirische Analyse zu den Auswirkungen freiwilliger Zusammenschlüsse auf die Effizienz von Gemeindeverwaltungen. - Ilmenau : Universitätsverlag Ilmenau, 2021. - XVII, 245 Seiten
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-86360-232-1

In der Diskussion über Gemeindegebietsreformen wir immer wieder mit Skalenerträgen argumentiert: Durch Gemeindezusammenschlüsse könnten Größenvorteile ausgeschöpft werden und es entstünden leistungsfähigere Gebietskörperschaften. Die konsistente Messung dieser Skalenvorteile ist aber nur möglich, wenn für die untersuchten Gemeinden sowohl der Ressourcenverbrauch (Input) als auch der erbrachte Leistungsumfang (Outputs) einbezogen wird. Insbesondere für die Erfassung kommunaler Outputs fehlte bislang ein schlüssiges Konzept. Die Gesamtausgaben der Gemeinden sind zudem ungeeignet, um den Ressourcenverbrauch zu erfassen. Die komplexe Finanzierungsstruktur der Gemeinden führt hier zu erheblichen Verzerrungen. Die vorliegende Arbeit entwickelt daher am Beispiel kreisangehöriger Gemeinden in Thüringen zunächst ein Konzept zur Erfassung kommunaler Inputs und Outputs und bestimmt mittels einer deterministischen Effizienzanalyse die skalenoptimale Konfiguration. Im zweiten Teil der Arbeit werden die Effizienzveränderungen skalenoptimal konfigurierter Neubildungen mit jenen nicht skalenoptimal konfigurierten Neubildungen über einen längeren Beobachtungszeitraum verglichen. Als Kontrollgruppe im diesem quasiexperimentellen Design werden alle Gemeinden einbezogen, die im Beobachtungszeitraum nicht fusioniert haben. Die Ergebnisse zeigen, dass es für kreisangehörige Gemeinden in Thüringen einen skalenoptimalen Bereich gibt, in den - wenn möglich - hinein fusioniert werden sollte. Skalenoptimal konfigurierte Gemeinden erreichen höhere Effizienzwerte. Altgemeinden, die sich im Beobachtungszeitraum zu skalenoptimal konfigurierten Neubildungen zusammengeschlossen haben, konnten in den Jahren nach der Fusion deutliche Effizienzgewinne verzeichnen. Für nicht skalenoptimal konfigurierte Neubildungen und skalenneutrale Fusionen ist kein Effizienzeffekt nachweisbar.



Konotop, Irina;
Wechselwirkungen der gebündelten Leitungen der Hoch- und Höchstspannungsnetze unterschiedlicher Frequenz und Nennspannung. - Ilmenau : Universitätsverlag Ilmenau, 2020. - x, 154 Seiten. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik ; Band 29)
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-86360-230-7

Die vorliegende Arbeit widmet sich der Analyse von Wechselwirkungen bei der Bündelung von Leitungen der Hoch- und Höchstspannungsnetze unterschiedlicher Frequenz und Nennspannung und Untersuchungen zu den möglichen Gefahren für Betrieb. Es wird ein Beeinflussungsmodell für die Berücksichtigung von Wechselwirkungen aufgrund von kapazitiver und induktiver Kopplung zwischen zusammengeführten Leitungen vorgeschlagen. Das Modell hängt von mehreren Parametern ab, die den Betrieb von Netzen störend beeinflussen können. Bei der Durchführung von Instandsetzungsarbeiten der gebündelten Leitungen muss die gefährliche Berührungsspannung berücksichtigt werden, da die unzulässigen Grenzwerte erreicht werden können. Angesichts dessen wird in der Arbeit das Verfahren zur mathematischen Modellierung der zu erwartenden Berührungsspannungen mit Berücksichtigung des Körperwiderstandes der Person entwickelt. Die Implementierung des Beeinflussungsmodells und des entwickelten Verfahrens zur Berechnung von Berührungsspannungen erfolgt mit dem Ziel, dass die gewonnenen Ergebnisse in einem Feldtest validiert werden können. Der Vergleich der Mess- und Berechnungsergebnissen zeigt, dass die entwickelten mathematischen Netzmodelle mit gebündelten Leitungen funktionsfähig sind und eine Näherung zum reales Netz darstellen. Aufgrund dieser Schlussfolgerung kann das Beeinflussungsmodell und entwickelte Verfahren zur Ermittlung der Berührungsspannungen in den existierenden sowie in den neu geplanten Netzen mit gebündelten Leitungen angewendet werden. Außerdem sind die verallgemeinerten Aussagen bezüglich der Wechselwirkungen der auf einem gemeinsamen Gestänge zusammengeführten Leitungen unterschiedlicher Frequenz und Nennspannung getroffen.



Bokhari, Hamza;
Operational concepts for grid services using electric vehicles. - Ilmenau : Universitätsverlag Ilmenau, 2020. - XI, 142 Seiten. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik ; Band 28)
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-86360-228-4

Das europäische Stromnetz ist aufgrund des steigenden Anteils volatiler erneuerbare Energiequellen einer zunehmenden Belastung ausgesetzt. Diese Technologien, in Verbindung mit einer höheren Volatilität der Nachfrage, stellen eine Herausforderung für die Stabilität und Sicherheit des europäischen Netzes dar, das früher von einer zentralisierteren Erzeugung in großen und relativ zuverlässigen konventionellen Kraftwerken geprägt war. Mit zunehmendem Beitrag der Wind- und Photovoltaikerzeugung am Energiemix ist eine Bewertung des Risikos für die Frequenzstabilität und mögliche Präventivmaßnahmen erforderlich. Die ungesteuerte Aufladung der zunehmenden Anzahl von Elektrofahrzeugen in Deutschland erfordert auch eine gründliche Untersuchung der Methoden für ihre Integration in das Stromnetz, um nicht nur die Stabilität der Stromnetzfrequenz zu verbessern, sondern auch einen sekundären Nutzen für die Elektrofahrzeug-Nutzer zu erzielen. Diese Arbeit analysiert die Lastfrequenzregelungssysteme auf ihre Eignung zur Integration von Elektrofahrzeugen ins Stromnetz sowie die Auswirkungen der Erhöhung des Anteils von volatilen erneuerbaren Energien auf die Frequenzstabilität in Deutschland, und zeigt einen deutlichen Anstieg der Anforderungen an Reservekapazität. Die Bewertung alternativer Ansätze zur Lastfrequenzsteuerung auf der Grundlage von Infrastrukturanforderungen zeigt, dass die Einführung eines verteilten Energieressourcen Aggregators den gesamten Infrastrukturbedarf der Netzbetreiber deutlich reduzieren kann. Die hierin vorgeschlagenen Betriebskonzepte werden anhand mehrerer Fallstudien zur Optimierung des Einsatzes von Elektrofahrzeugen für Flexibilitätsdienstleistungen im Stromnetz unter Berücksichtigung der Anforderungen der Fahrzeughalter und des Versorgungsbedarfs von Netzdiensten bewertet.



Schienbein, Ralf;
Grundlegende Untersuchungen zum konstruktiven Aufbau von Fünfachs-Nanopositionier- und Nanomessmaschinen. - Ilmenau : Universitätsverlag Ilmenau, 2020. - XXIV, 176 Seiten. - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; Band 37)
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-86360-229-1

Die vorliegende Arbeit beinhaltet Realisierungsmöglichkeiten des konstruktiven Aufbaus von Fünfachs-Nanopositionier-und Nanomessmaschinen für die Messung und Fabrikation makroskopischer Objekte mit Nanometerpräzision. Mit zusätzlichen rotatorischen Freiheiten wird die Limitierung etablierter, überwiegend kartesisch operierender Nanopositionier-und Nanomessmaschinen (NPMM) hinsichtlich der Adressierbarkeit stark gekrümmter Objektgeometrien überwunden. Es werden modular variierte Maschinenkonzepte im Hinblick auf die Realisierung mehrachsiger Bewegungen und unter der Voraussetzung der Erweiterbarkeit kartesischer NPMMs systematisch entwickelt und auf der Grundlage eines Klassifizierungssystems evaluiert. Ein hohes Potential zeigen Varianten mit drei unabhängigen linearen Bewegungen des Objektes in Kombination mit zwei unabhängigen Rotationen des Tools um einen gemeinsamen Momentanpol, der dauerhaft mit dem Arbeitspunkt des Tools (TCP) und dem Abbepunkt der kartesischen NPMM übereinstimmt. Insbesondere die Rotation des Tools um die Hochachse der NPMM mittels Drehtisch in Kombination mit einer Rotation in der horizontalen xy-Ebene unter Verwendung eines Goniometers zeigen einen hohen Erfüllungsgrad. Im Rahmen experimenteller Untersuchungen wird ein derartiger Aufbau innerhalb einer NPMM erprobt, der die Rotationen eines Tools mit einer Masse < 2 kg gewährleistet. Eine asymmetrische Anordnung des Goniometers entlang dessen Hauptdrehachse erlaubt den Einsatz von Tools, deren Gestalt das Arbeitsvolumen des Goniometers überschreitet. Es sind Rotationsbereiche des Tools von 360&ring; um die Hochachse der NPMM und Neigungen zur Hochachse von 90&ring; möglich. Die Integration ultrapräziser Rotationseinheiten in die NPMM erfolgt unter Zuhilfenahme finite Elemente gestützter Modellbildung und daraus abgeleiteter Strukturoptimierung der Koppelstellen. Unter Anwendung von Laserinterferometern in Kombination mit einem geeigneten Retroreflektor im TCP werden Einflüsse der zusätzlichen rotatorischen Positioniersysteme, wie Verformungen und Positionierwiederholbarkeiten, in der NPMM in situ gemessen. Wie beispielhaft mit der Anwendung eines entwickelten Nanoimprinttools gezeigt, erlauben die erreichten Positioniereigenschaften eine Adressierung und Bearbeitung dreidimensionaler Körper mit stark gekrümmter Oberfläche. Ein entwickelter neuartiger Aufbau der Gesamtstruktur, bei dem für die kombinierte Messung der Positionierabweichungen Fabry-Pérot-Interferometer zur Anwendung kommen, gewährleistet den Einbezug der Rotationen in den geschlossenen Regelkreis, wodurch die Mess-und Bearbeitungsgenauigkeit erhöht und die Prozesszeit verkürzt werden. Die Interferometer erfassen die Positionierabweichungen gegenüber einem halbkugelförmigen Konkavspiegel, der mit dem metrologischen Rahmen der NPMM direkt verbunden ist. Abschließend werden Konstruktionsrichtlinien für die Entwicklung von Fünfachs-Nanopositionier-und Nanomessmaschinen zusammengefasst.



Scheler, Marcel;
Auswahl robuster Wirkprinzipien auf Basis einer Erweiterung des CPM/PDD-Ansatzes. - Ilmenau : Universitätsverlag Ilmenau, 2020. - XV, 256 Seiten. - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; Band 36)
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-86360-225-3

Ein wesentlicher Wettbewerbsvorteil eines Unternehmens besteht darin, Produkte zu entwickeln, welche den Anforderungen des Kunden gerecht werden. Zu diesen Anforderungen zählt, dass Produkte während ihrer Nutzung nicht ausfallen. Statistiken zeigen allerdings, dass Ausfälle bei neu entwickelten Produkten trotz der Anwendung von Methoden zur Fehlervermeidung in der Konstruktion zunehmen. Einige Autoren sehen mangelnde Robustheit gegenüber Störgrößen als Hauptursache für die heutigen Ausfälle von Produkten. Autoren aus der Konstruktionswissenschaft geben in diesem Zusammenhang an, dass sich Einflüsse durch Störgrößen am besten mit der Auswahl von Wirkprinzipien vermeiden lassen, die invariant oder innozent gegenüber Störgrößen sind bzw. Störgrößen kompensieren. Die vorliegende Arbeit analysiert zunächst den heutigen Auswahlprozess für Wirkprinzipien. Danach wird das heutige Vorgehen zur methodischen Vermeidung von Ausfällen im Konstruktionsprozess erläutert. Darüber hinaus wird ein Konstruktionsprinzip vorgestellt, das den Einfluss von Störgrößen auf Produkte reduzieren kann. Aufbauend auf den Erkenntnissen entwickelt die vorliegende Arbeit Referenzprozesse zur Ermittlung störgrößenbedingter Fehlerursachen und zur Definition von Vermeidungsmaßnahmen für diese. Die Referenzprozesse basieren auf einer Erweiterung des CPM/PDD-Ansatzes. Aufbauend auf den Referenzprozessen entwickelt die Arbeit eine Methode, die eine Bewertung und Auswahl von Wirkprinzipien in der Konzeptphase nach ihrer Robustheit erlaubt. Es wurde nachgewiesen, dass bereits in der Konzeptphase Informationen vorliegen, die einen Robustheitsvergleich von Wirkprinzipien möglich machen. Ebenfalls wurden Kriterien aufgezeigt, die für einen Robustheitsvergleich von Wirkprinzipien in der Konzeptphase des Konstruktionsprozesses herangezogen werden können. Mit einem Anwendungsbeispiel wurde nachgewiesen, dass die neue Methode in der Lage ist, Wirkprinzipien nach ihren Robustheiten in der Konzeptphase zu bewerten und auszuwählen.



Solf-Hofbauer, Anja;
Kreative Ideenentwicklung in Online-Gemeinschaften : eine explorative Analyse des sozialen Kontextes internetbasierter Ideenfindung. - Ilmenau : Universitätsverlag Ilmenau, 2020. - xiii, 352 Seiten. - (Menschen - Märkte - Medien - Management ; Band 10)
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-86360-227-7

Das Internet ermöglicht es Ideensuchenden, eine mehr oder weniger spezifische Aufgabe in Form eines offenen Online-Aufrufs an eine (un-)bestimmte Anzahl potenzieller Problemlösender zu richten. Die besten Ideen werden ausgewählt und in der Regelbelohnt. Mitunter ist es die Crowd selbst, welche Ideen auswählt und über ihre Chancen der Realisierbarkeit entscheidet. Es ist nicht klar, wie sich solche und weitere soziale Gegebenheiten auf die Ideengenerierung auswirken. Die vorliegende Arbeit wirft die Frage auf, wie sich sozialer Kontext in Online-Communities formiert und die Kreativität des Einzelnen in Online-Gemeinschaften für Ideenfindung beeinflussen kann. Um die Rolle des sozialen Kontextes in Online-Plattformen für Ideenfindung zu analysieren, wurde ein explorativer Ansatz gewählt. Eine qualitative Interviewstudie wurde mit 27 Nutzer*innen von insgesamt zehn verschiedenen Online-Plattformen für Ideenfindung durchgeführt. Das Sample umfasst Plattformen im Spektrum von alltagskreativen Aufgaben über Produktkonzeption und Design bis hin zu wissensintensiver Problemlösung. Der Leitfaden beinhaltete neben Fragen zur Wahrnehmung der Online-Gemeinschaft und zur Positionierung innerhalb dieser, auch Fragen zu sozialem Vergleich sowie Bewertungserwartung. Während die strukturierende Inhaltsanalyse Merkmale des sozialen Kontextes offenbarte, gab eine zusätzliche Kausalanalyse jedes Einzelfalls Einblick in mögliche kausale Zusammenhänge zwischen sozialem Kontext und kreativem Verhalten. Die Ergebnisse lassen sich zusammenfassen in der allgemein formulierten theoretischen Überlegung, dass personenspezifische Merkmale wie Motivation, Selbstverständnis und Vorerfahrung sowie technische und konzeptionelle Merkmale der Online-Plattform bestimmen, wie der soziale Kontext wahrgenommen und für das eigene Handeln ausgelegt wird. Dies äußert sich, wenn nicht in direkter Interaktion (kollaboratives Verhalten bzw. Teamarbeit), in erster Linie über Bewertungserwartung und Vergleich mit anderen Plattformnutzer*innen. Die Ergebnisse dieser Bewertungs- und Vergleichsvorgänge wirken auf das kreative Handeln der kreativen Person ein. Sie können Einfluss in spezifischen Phasen des kreativen Prozesses (z. B. in der Problemidentifikation oder Ausarbeitung) oder auch phasenübergreifend in Form von Orientierung oder Differenzierung nehmen.



Stoffelshaus, Nicole;
Ein Beitrag zur Optimierung des Wissenstransfers in der Einzelfertigung. - Ilmenau : Universitätsverlag Ilmenau, 2020. - XVI, 176 Seiten
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-86360-223-9

Wissen entwickelt sich immer mehr zur wichtigsten Ressource der Unternehmen. Besonders in der Einzelfertigung stellt das Wissen erfahrener Mitarbeiter ein kritisches Erfolgspotenzial zum Erhalt der Wettbewerbsfähigkeit sowie zu Auf- und Ausbau von Wettbewerbsvorteilen dar. Bedingt durch die charakteristischen Eigenschaften der Einzelfertigung, wie wenig detaillierte Arbeitsvorgaben, große Arbeitsinhalte und eine hohe Komplexität von Produkten und Prozessen, ist ein umfangreiches Spezial- und Erfahrungswissen zur qualitäts- und zielgerichteten Durchführung der Arbeitshandlungen unerlässlich. Zum Erhalt dieser wichtigen Ressource in der Einzelfertigung und zur Reduzierung des Risikos des Wissensverlustes bei Ausscheiden erfahrener Mitarbeiter bedarf es der Etablierung effizienter Lösungen. Übliche Methoden zum Wissenstransfer sind hierzu jedoch aufgrund der charakteristischen Eigenschaften der Einzelfertigung sowie zumeist fehlender Betrachtung der komplexen Wissensstruktur erfahrener Mitarbeiter zur Regulation der Arbeitshandlungen in der Einzelfertigung nur bedingt geeignet. In der vorliegenden Arbeit wird daher eine Methode entwickelt, die es ermöglicht, die Wissensinhalte der komplexen Wissensstrukturen erfahrener Mitarbeiter zur erfolgreichen Handlungsdurchführung in der Einzelfertigung zu heben und auf junge Mitarbeiter zu übertragen. Hierzu wird zunächst, basierend auf arbeitspsychologischen Theorien zur Handlungsregulation, die Beziehung zwischen dem Wissen des erfahrenen Mitarbeiters und dessen Handeln im Arbeitsprozess herausgearbeitet. Ausgehend von diesen Erkenntnissen werden die Anforderungen an die Methode definiert sowie eine allgemeingültige Referenzmethode zum Einsatz in der Einzelfertigung entwickelt. Anschließend wird, basierend auf der Referenzmethode, eine, an den Einsatzbereich adaptierte, spezifische Methode in einem systematisch geleiteten partizipativen Verfahren mit Mitarbeitern der Dampfturbinenfertigung der Siemens AG am Standort Mülheim an der Ruhr erarbeitet und angewandt. Die multifaktorielle Wirksamkeit der entwickelten Methode sowohl für die anwendenden Mitarbeiter, den Anlernprozess und die Organisation als Ganzes durch die erfolgreiche Übertragung des Spezial- und Erfahrungswissens erfahrener Mitarbeiter konnte anhand der Ergebnisse der Vorversuche sowie durch Expertenbefragungen bestätigt werden.



Eisenbach, Markus;
Personenwiedererkennung mittels maschineller Lernverfahren für öffentliche Einsatzumgebungen. - Ilmenau : Universitätsverlag Ilmenau, 2020. - xix, 523 Seiten
Technische Universität Ilmenau, Dissertation 2019

ISBN 978-3-86360-226-0

Die erscheinungsbasierte Personenwiedererkennung in öffentlichen Einsatzumgebungen ist eines der schwierigsten, noch ungelösten Probleme der Bildverarbeitung. Viele Teilprobleme können nur gelöst werden, wenn Methoden des maschinellen Lernens mit Methoden der Bildverarbeitung kombiniert werden. In dieser Arbeit werden maschinelle Lernverfahren eingesetzt, um alle Abarbeitungsschritte einer erscheinungsbasierten Personenwiedererkennung zu verbessern: Mithilfe von Convolutional Neural Networks werden erscheinungsbasierte Merkmale gelernt, die eine Wiedererkennung auf menschlichem Niveau ermöglichen. Für die Generierung des Templates zur Beschreibung der Zielperson wird durch Einsatz maschineller Lernverfahren eine automatische Auswahl personenspezifischer, diskriminativer Merkmale getroffen. Durch eine gelernte Metrik können beim Vergleich von Merkmalsvektoren szenariospezifische Umwelteinflüsse kompensiert werden. Eine Fusion komplementärer Merkmale auf Score Level steigert die Wiedererkennungsleistung deutlich. Dies wird vor allem durch eine gelernte Gewichtung der Merkmale erreicht. Das entwickelte Verfahren wird exemplarisch anhand zweier Einsatzszenarien - Videoüberwachung und Robotik - evaluiert. Bei der Videoüberwachung ermöglicht die Wiedererkennung von Personen ein kameraübergreifendes Tracking. Dies hilft menschlichen Operateuren, den Aufenthaltsort einer gesuchten Person in kurzer Zeit zu ermitteln. Durch einen mobilen Serviceroboter kann der aktuelle Nutzer anhand einer erscheinungsbasierten Wiedererkennung identifiziert werden. Dies hilft dem Roboter bei der Erfüllung von Aufgaben, bei denen er den Nutzer lotsen oder verfolgen muss. Die Qualität der erscheinungsbasierten Personenwiedererkennung wird in dieser Arbeit anhand von zwölf Kriterien charakterisiert, die einen Vergleich mit biometrischen Verfahren ermöglichen. Durch den Einsatz maschineller Lernverfahren wird bei der erscheinungsbasierten Personenwiedererkennung in den betrachteten unüberwachten, öffentlichen Einsatzfeldern eine Erkennungsleistung erzielt, die sich mit biometrischen Verfahren messen kann.



Hesse, Miriam;
Untersuchung der Absicherung von Montageprozessen am Beispiel von Produktionsanläufen in der Automobilindustrie. - Ilmenau : Universitätsverlag Ilmenau, 2020. - XIV, 188 Seiten. - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; Band 35)
Technische Universität Ilmenau, Dissertation 2019

ISBN 978-3-86360-221-5

Absicherungsmaßnahmen werden im Produktentwicklungsprozess zur Überprüfung bestimmter Eigenschaften und Funktionen eines Konstruktionsstands eingesetzt. So sollen mögliche Abweichungen von den Zielvorgaben frühzeitig erkannt und Erkenntnisse für die weiteren Entwicklungsschritte gewonnen werden. Die Ergebnisse der Absicherung können auch als Indikatoren für die Reife des Produkts, der Fertigungsprozesse oder des Projekts dienen. Das Ziel der vorliegenden Arbeit ist die Erarbeitung eines Vorgehens zur Analyse von Verbesserungspotentialen in der Absicherung. Der Fokus liegt dabei auf der Absicherung der Montage. Das Vorgehen wird anhand einer Fallstudie in der Automobilentwicklung dargestellt. Kern der Untersuchung ist die Identifikation der für die Montage relevanten Produkt- und Prozesseigenschaften und die Analyse spät im Entwicklungsprozess erkannter Zielabweichungen. Diese werden hier als Indikator für Verbesserungspotentiale in der Absicherung verwendet. Für die notwendigen Analyseschritte wurden im Rahmen der Fallstudie sehr große Mengen an Informationen aus der Dokumentation abgeschlossener Produktentwicklungsprojekte verarbeitet. Daher wurde der Einsatz von Text-Mining-Werkzeugen untersucht und in das erarbeitete Vorgehen zur Identifikation von Verbesserungspotentialen integriert.



Hofbauer, Peter J.;
In-situ-Messung und Simulation der Flüssigphasensilicierung. - Ilmenau : Universitätsverlag Ilmenau, 2020. - xv, 295 Seiten. - (Werkstofftechnik aktuell ; Band 21)
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-86360-222-2

Die Flüssigphaseninfiltration von porösen Kohlenstoffvorformen mit Silicium, im Allgemeinen als Liquid Silicon Infiltration (LSI) bezeichnet, ist eine der wirtschaftlichsten Technologien zur Herstellung von kohlenstofffaserverstärktem Siliciumcarbid (C/SiC). Trotz jahrzehntelanger Forschung sind die physikalischen Phänomene an der Infiltrationsfront noch nicht hinreichend verstanden worden. Folglich existiert bislang kein mechanistisches Modell, das helfen würde, den Produktionsprozess von C/SiC-Bauteilen zu optimieren. Die vorliegende Arbeit dient dazu, die Forschungslücken zu schließen und ein validiertes Simulationsmodell zur Prozessoptimierung zur Verfügung zu stellen. Inhaltlich wurde die Arbeit in drei Teile gegliedert, wobei sich der erste Teil zunächst mit den Herstellverfahren von C/SiC-Komponenten befasst. Anschließend werden die grundlegenden chemischen und physikalischen Vorgänge der Reaktion von Silicium und Kohlenstoff zu Siliciumcarbid erläutert. Gefolgt von dem bisherigen Verständnis der Infiltration von porösen, kohlenstofffaserverstärkten Kohlenstoffvorformen (C/C-Preforms) mit flüssigem Silicium, wird der Stand der Technik mit den bisweilen existierenden Infiltrations-und Diffusionsmodellen abgehandelt. Der zweite Teil befasst sich mit einem neu entwickelten Versuchsaufbau zur Untersuchung des LSI-Prozesses. Dieser ermöglicht eine In-situ-Beobachtung während der Infiltration einer Spaltkapillare aus Glaskohlenstoff mit Silicium. Ursprünglich war der Versuchsaufbau zur Validierung der bisher anerkannten Infiltrationsmodelle angedacht, die auf der allgemeinen Kapillartheorie beruhen. Allerdings zeigten die Versuche, dass sich die Infiltrationskinetik grundlegend von dem Verhalten unterscheidet, dass durch die bekannten Infiltrationsmodelle vorhergesagt wird. Weitere Untersuchungen führten zu neuen Erkenntnissen, die den Aufbau eines mesoskopischen Modells zur Vorhersage des tatsächlichen Infiltrationsverhaltens ermöglichten. Mit der Infiltration und Untersuchung von porösen C/C-Materialien, wird der Anwendungsbereich des Infiltrationsmodells auf kommerzielle C/C-Materialien erweitert. Der dritte und letzte Teil behandelt den Aufbau eines numerischen Modells zur Simulation des LSI-Prozesses. Erstmals wurde die reaktive Infiltration von porösen C/C-Preforms im Dreidimensionalen simuliert und das Modell mit In-situ-Messungen validiert. Eine neu entwickelte Infiltrationsgleichung und die Einführung eines zeitabhängigen Diffusionskoeffizienten führten zu einer guten Übereinstimmung von Simulations-und Messergebnisse sowie zu kurzen Rechenzeiten auch für komplexe Bauteile im Industriemaßstab.



Mohr-Weidenfeller, Laura;
Kombination von zweiphotonenbasiertem direktem Laserschreiben mit großflächiger und hochpräziser Nanopositionierung. - Ilmenau : Universitätsverlag Ilmenau, 2020. - xii, 121 Seiten
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-86360-220-8

Die Mikro- und Nanofabrikation verspricht für die nächsten Jahre ein enormes Wachstumspotenzial, insbesondere auch im Bereich der laserbasierten Fertigung. Die hochauflösende Technik des Laserschreibens mittels Zwei-Photonen-Absorption (2PA) kann zur Herstellung von dreidimensionalen Bauteilen mit minimalen Strukturbreiten von sub-100 nm verwendet werden. Mit der optischen Präzision gehen auch Forderungen an die Präzision der Mess- und Positioniersysteme einher, um den technischen Stand von zweiphotonenbasiertem Laserschreiben weiter voranzutreiben. Die an der TU Ilmenau entwickelten Nanopositionier- und Nanomessmaschinen (NPM-Maschinen) ermöglichen eine hochgenaue und metrologisch rückführbare Positionierung mit Positionierauflösungen von 0,1 nm und einer Wiederholbarkeit von unter von 1 nm. Dabei eröffnet der Positionierbereich von 25 mm × 25 mm × 5 mm bzw. von 200 mm × 200 mm × 25 mm der NPM-Maschinen ganz neue Dimensionen der skalenübergreifenden Fabrikation, sodass mikro- und sub-mikrometergenaue Artefakte bei Bauteilen mit Millimeterabmessungen erzielt werden können. In der vorliegenden Arbeit wird die Erweiterung von NPM-Maschinen zu Fabrikationsmaschinen durch die Kombination mit 2PA-Laserschreiben thematisiert. Dazu wird zunächst ein Konzept zur Integration der Zwei-Photonen-Technologie in eine NPM-Maschine entwickelt und umgesetzt. Anschließend erfolgen eine Charakterisierung des Systems sowie gezielte Untersuchungen, um den Nachweis für die Synergie der beiden Techniken zu erbringen. Es konnten diverse erfolgreiche Experimente durchgeführt werden, sodass nach Untersuchungen zur Belichtungsdosis die Herstellung von großflächigen Justiermarken gezeigt wurde. Das Potential der genauen Positionierung wird durch bahnbrechende Ergebnisse zur Abstandsreduzierung zwischen zwei geschriebenen Linien, welche die Beugungsbegrenzung unterschreiten, demonstriert. Zudem zeigten erste Versuche zur dreidimensionalen Strukturierung von Hybridpolymeren das enorme Potential für zukünftige komplexe 3D-Anwendungen in einer bisher nicht möglichen Präzision. Im Fokus stand außerdem die Entwicklung und Untersuchung eines neuen Ansatzes zur Mikro- und Nanofabrikation mit hohem Durchsatz, der auf einer Verbindung von zweiphotonenbasiertem Laserschreiben mit Feldemissionslithographie zur Herstellung von Mastern für anschließende Nanoprägelithographie basiert.



Schorr, Philipp;
Ein Beitrag zur Entwicklung mobiler Roboter basierend auf multistabilen Tensegrity Strukturen. - Ilmenau : Universitätsverlag Ilmenau, 2020. - xviii, 135 Seiten
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-86360-224-6

In dieser Arbeit wird die Anwendung von Tensegrity Strukturen mit mehreren stabilen Gleichgewichtskonfigurationen zur Realisierung von Lokomotionssystemen in der mobilen Robotik untersucht. Diese Strukturen werden unter dem mechanischen Aspekt modelliert und verschiedene Aktuatorstrategien zur Realisierung eines kontrollierten Wechsels zwischen den unterschiedlichen stabilen Gleichgewichtslagen abgeleitet. Zur experimentellen Verifikation der theoretischen Ansätze wird ein Prototyp einer multistabilen Tensegrity Struktur entwickelt. Die experimentellen Ergebnisse bestätigen die vorteilhaften Eigenschaften multistabiler Tensegrity Strukturen sowie die Möglichkeit von kontrollierten Konfigurationswechseln. Infolge von Erweiterungen des mechanischen Modells unter Berücksichtigung von Umwelteinflüssen wird das Bewegungsverhalten von Tensegrity Strukturen simuliert. In dieser Arbeit wird die Fortbewegung durch die Gleichgewichtslagenwechsel der multistabilen Tensegrity Struktur realisiert. Abhängig von der gewählten Aktuierungsstragie kann eine schreitende Lokomotion, eine kriechende Lokomotion sowie eine springende Lokomotion realisiert werden. Experimente mit dem entwickelten Prototyp bestätigen die zuvor untersuchten Lokomotionsformen. Durch Kombination der verschiedenen Bewegungsmodi resultiert ein multimodales Lokomotionssystem. Dieses Lokomotionssystem erlaubt die Anpassung des Lokomotionsprinzips hinsichtlich der gegebenen Umgebungsbedingungen.



Otterbach, Jan Marc;
Ein Beitrag zur Entwicklung eines portablen Systems zur bewegungsinduzierten Wirbelstromprüfung. - Ilmenau : Universitätsverlag Ilmenau, 2020. - xxvii, 151 Seiten
Technische Universität Ilmenau, Dissertation 2019

ISBN 978-3-86360-219-2

Die zerstörungsfreie Prüfung ist von besonderer Bedeutung im Lebenszyklus technischer Produkte. Insbesondere bei sicherheitsrelevanten Komponenten in Flugzeugen, Zügen, Pipelines oder Kraftwerken helfen Verfahren der zerstörungsfreien Prüfung, Qualitätsmängel bereits während des Herstellungsprozesses oder in regelmäßigen Wartungskontrollen zu erkennen, ohne deren Funktion zu beeinträchtigen. Heute erfordern steigende Qualitäts- und Sicherheitsanforderungen sowie die Entwicklung neuer Materialien für moderne Leichtbaukonstruktionen immer zuverlässigere Prüfverfahren, um den ordnungsgemäßen Betrieb von Bauteilen und technischen Anlagen zu gewährleisten. Für die Untersuchung von Bauteilen aus metallischen Werkstoffen kommen häufig Wirbelstromprüfverfahren zum Einsatz. Im Gegensatz zu klassischen Induktionsverfahren werden die Wirbelströme bei der bewegungsinduzierten Wirbelstromprüfung durch die Relativbewegung zwischen einer Magnetfeldquelle und einem elektrisch leitfähigen Prüfkörper hervorgerufen. Die dabei auftretenden physikalischen Effekte ermöglichen die Detektion von Fehlern im Prüfkörper. Gegenstand dieser Arbeit ist die Entwicklung eines Prinzips für ein portables System zur bewegungsinduzierten Wirbelstromprüfung, welches für den Einsatz als handgeführtes Prüfgerät zur Untersuchung von Bauteilen an ihrem Einsatzort geeignet ist. Nach einer Einführung in die zerstörungsfreie Prüfung und die in der Industrie am häufigsten eingesetzten Prüfverfahren, werden die bekannten Verfahren der bewegungsinduzierten Wirbelstromprüfung vorgestellt. Basierend auf den Erkenntnissen vorangegangener Studien im Bereich der bewegungsinduzierten Wirbelstromprüfung, erfolgt die Präzisierung der Anforderungen an das zu entwickelnde Sensorsystem und die Diskussion möglicher Lösungsvarianten. Im Rahmen dieser Ideenfindung werden zwei favorisierte Lösungsvarianten beschrieben, für die jeweils ein Messsystem zur experimentellen Validierung entwickelt und aufgebaut wird. Außerdem werden die angewendeten Verfahren der Messdatenauswertung erläutert. Das für den Anwendungszweck besser geeignete Prinzip wird anhand eines Variantenvergleichs ermittelt. Weiterführende Experimente mit dem ausgewählten Sensorsystem dienen dazu, Handlungsempfehlungen für dessen Einsatz als handgeführtes Prüfgerät abzuleiten. Darüber hinaus werden verschiedene Möglichkeiten zur Darstellung und Interpretation von Prüfergebnissen aufgezeigt.



Birkenfeld, Lena;
A comparative analysis of German and Australian climate change coverage in quality newspapers : framing a political election and an environmental disaster. - Ilmenau : Universitätsverlag Ilmenau, 2020. - 248 Seiten. - (NEU - Nachhaltigkeits-, Energie- und Umweltkommunikation ; Band 6)
Technische Universität Ilmenau, Dissertation 2019

ISBN 978-3-86360-218-5

Das Jahr 2010 war sowohl für Deutschland als auch für Australien ein Jahr mit einer weitreichenden Flutkatastrophe. Doch wurde von den Medien dieses Extremwetterereignis mit dem Thema Klimawandel in Zusammenhang gesetzt? 2009 gewann eine konservative Koalition die Wahlen in Deutschland; in ihrem Programm die klare Aussage, den Klimawandel bekämpfen zu wollen. In Australien gewann 2007 die Labor Partei mit der Kampagne "der Klimawandel ist die größte moralische Herausforderung unserer Zeit" die Wahlen. Aber wie greifen die Medien das Thema Klimawandel im Kontext der Berichterstattung zu den Wahlen auf? Diese Arbeit beantwortet diese beiden Fragestellungen mithilfe einer Vergleichsanalyse von zwei deutschen und zwei australischen Qualitätszeitungen (n = 1.012 Artikel). Dafür wurden sowohl Entman's (1993) Framingansatz als auch das "Erweiterte Sphärenmodell", das es ermöglicht, Unterschiede in der Berichterstattung zu identifizieren, als theoretische Grundlagen genutzt. So wurden mithilfe einer hierarchischen Clusteranalyse sieben Frames identifiziert. Zudem werden sechs Akteursgruppen unterschieden und mögliche Einflussfaktoren erarbeitet. Die Ergebnisse zeigen, dass die Unterschiede in der Klimawandelberichterstattung der beiden Länder eher gering sind. Zwar konnten einige der definierten Unterschiede mithilfe des angewendeten Models erklärt werden. Jedoch stechen vor allem die Übereinstimmung in der Klimawandelberichterstattung heraus. Es scheint deshalb, als ob die Qualitätsmedien in beiden Ländern gemeinsame Standards für die Darstellung des Themas Klimawandel haben.



Hopf, Andreas;
Elektrische Festigkeit von SF6 und alternativen Isoliergasen (Luft, CO2, N2, O2 und C3F7CN-Gemisch) bis 2,6 MPa. - Ilmenau : Universitätsverlag Ilmenau, 2020. - XXVI, 152 Seiten. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik ; Band 27)
Technische Universität Ilmenau, Dissertation 2019

ISBN 978-3-86360-216-1
Im Titel sind "2", "3", "6" und "7" tiefgestellt

Schwefelhexafluorid (SF6) ist ein wichtiges Isoliergas in der Hochspannungstechnik. Neben den sehr guten Isoliereigenschaften hat SF6 das höchste Treibhauspotential aller bekannten Gase. Deshalb werden alternative Lösungen aktuell verstärkt nachgefragt und es ist eine Abkehr von SF6 sichtbar. Um SF6 mit umweltfreundlichen Gasen zu substituieren, müssen diese unter Druck gesetzt werden, um deren geringere elektrische Festigkeit wesentlich zu steigern. Hohe elektrische Feldstärken und Spannungen können bei hohem Druck isoliert werden. Diese Arbeit befasst sich praktisch und theoretisch mit der elektrischen Festigkeit von Gasen unter Berücksichtigung von Einflussparametern, wie: Oberflächenrauheit, Feldemission, Bestrahlung, Elektronen-Anlagerung, Spannungs-Zeit-Fläche, Vorentladungen im Hochdruck und der Einfluss von Per-Fluorierten-Gas-Gemischen. Neben den praktischen Messungen bis 800 kV sind theoretische Erweiterungen zum Durchschlag im schwach inhomogenen Feld aufgestellt worden, welche das Verständnis zum Entladungsaufbau und die Theorie zur Ladungsträgergeneration erweitert und den Einfluss des Streamer-Mechanismus genauer beschreibt. Die ermittelten Gasparameter nach Paschen tragen zum vorgestellten Berechnungsalgorithmus zur Ladungsträgervermehrung bei. Die praxisnahe Untersuchung und der neue theoretische Ansatz ermöglicht die Berechnung der Durchschlagspannung von beliebigen schwach inhomogenen Feldanordnungen in Abhängigkeit der Schlagweite bis mindestens 2,6 MPa Druck bis zu sehr niedrigen Feldausnutzungsfaktoren. Als Ergebnis dieser Arbeit können nun Luft-isolierte Hochspannungsbetriebsmittel bis zur 420 kV Spannungsebene vorgezeigt werden.mum frequency of oscillation (300 GHz).



Wirth, Isabell;
Berücksichtigung dielektrischer Materialeigenschaften in der Finiten-Elemente-Simulation von HGÜ-Isoliersystemen. - Ilmenau : Universitätsverlag Ilmenau, 2020. - 136 Seiten. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA) ; Band 26)
Technische Universität Ilmenau, Dissertation 2019

ISBN 978-3-86360-215-4

Verbrauchsfern erzeugter Strom aus regenerativen Energien kann über große Distanzen am wirtschaftlichsten mittels der Hochspannungsgleichstromübertragung (HGÜ) transportiert werden. Die HGÜ führt zu einer veränderten elektrischen Belastung der Hochspannungskomponenten. Transiente Übergangsvorgänge bestimmen die elektrischen Feldverteilungen. Bei der Berechnung elektrischer Feldverteilungen in Isoliersystemen für die Hochspannungsgleichstromübertragung (HGÜ) mit Hilfe der Finiten-Elemente-Methode (FEM) wurden die dielektrischen Eigenschaften bisher in Form von Permittivitäten und parameterabhängigen Leitfähigkeiten berücksichtigt. Langsame Polarisationsvorgänge werden dabei nicht berücksichtigt. Für die Berechnung komplexer Isoliersysteme durch die FEM ist deshalb die Beschreibung der langsamen Polarisationsvorgänge im Isolierstoff durch Differentialgleichungen wünschenswert, die direkt in die FEM einbezogen werden und mit denen je nach Bedarf sowohl einzelne Polarisationsmechanismen als auch ihre Überlagerungen berücksichtigt werden können. In dieser Arbeit werden hierfür auf Basis des bekannten Debye-Ansatzes, und in Analogie zum Netzwerkmodell, zusätzlich zu den Gleichungen, die Verschiebungs- und Leitungsströme beschreiben, weitere Differentialgleichungen direkt in die FEM einbezogen, welche die feld- und temperaturabhängigen Polarisationsströme individuell abbilden. Die Materialfunktionen und ihre Parameter werden durch Messung von Polarisations- und Depolarisationsströmen (PDC) ermittelt. Durch die Implementierung von beliebigen Polarisationsmechanismen in einem FEM-Programm wurde eine Lücke der Berechnungsmöglichkeiten von komplexen, auch dreidimensionalen Isoliersystemen geschlossen, in denen oftmals stationäre oder transiente Temperaturgradienten vorliegen und in denen sich transiente elektrische Feldverteilungen ausbilden. Zur Verifizierung des beschriebenen Berechnungsverfahrens werden transiente Potentialverläufe an den Steuerbelägen von entsprechend modifizierten Hochspannungsdurchführungen unter Gleich- und Umpolspannungen sowie unter thermischen Gradienten gemessen. Dabei kann eine bisher nicht erreichte Übereinstimmung der transienten und stationären Potentialverläufe zwischen FEM-Simulation und Messung erzielt werden. Auswirkungen auf Prüf- und Belastungsszenarien werden anhand von Simulationen diskutiert.



Schindler, Christian;
Formabtrag an mineralischen Gläsern mit ultrakurz gepulster Laserstrahlung. - Ilmenau : Universitätsverlag Ilmenau, 2020. - 175 Seiten. - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 9)
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-86360-217-8

Im Rahmen der vorliegenden Arbeit wurden Abtragsverfahren zur Formgebung optischer Komponenten aus mineralischem Glas mittels ultrakurz gepulster Laserstrahlung untersucht. Für diese Untersuchungen wurden ein experimenteller ps- und ein fs-Aufbau konzipiert, umgesetzt, optimiert und charakterisiert sowie Analysemethoden zur Probenbewertung entwickelt. Aus den Untersuchungen zu den ausgewählten Gläsern ergibt sich, dass mit Verwendung ultrakurzer Laserpulse prinzipiell das gesamte Materialspektrum bearbeitbar ist, wenngleich sich die Bearbeitungsergebnisse unterscheiden. Für einen schichtweisen Abtrag wurden plausible Parameterräume definiert, in denen der Ablationsprozess stabil in Bezug auf ausgewählte Zielgrößen beschrieben werden kann. Experimentell zeigten sich der glasspezifischen Bandlücke sowie der applizierten Wellenlänge nach steigende Grenzwerte für die zur Ablation notwendigen Fluenz. Beim Vergleich der Pulsdauerregime zeigte sich, dass für einen einsetzenden ps-Abtrag höhere Fluenzwerte als für einen fs-Abtrag appliziert werden müssen. Die Untersuchungen haben veranschaulicht, dass sich, in Relation zu einem spezifischen Vorbearbeitungszustand von Quarzglas, mit zunehmendem Abtrag, also mehreren Überfahrten, und unter Zuhilfenahme einer gezielten Partikelabfuhr ein Gleichgewicht der Rauheit auf der Oberfläche einstellte und man von einer Sättigungsrauheit sprechen kann. Für dieses Abtragsverhalten an Glas wurde ein Modell für den 2,5D-Formabtrag mit ausgewählten Parametern aufgestellt und Aussagen zum notwendigen Konditionierabtrag getroffen. Gleichzeitig ergab sich nach Erreichen des Sättigungswertes ein konstantes Ablationsregime, welches einen linearen Abtrag pro Überfahrt ermöglichte. Für eine an den Zielgrößen (Rauheit, induzierte optische Gangunterschiede, Abtragstiefe sowie Abtragsraten) ausgerichtete Auswahl von Bearbeitungsparametern sind Schädigungstiefen bestimmt worden. Es zeigte sich, dass die ermittelten Werte z. T. geringer sind als typische Schädigungen durch das Fein- und Feinstschleifen (< 15 [my]m) und somit dazu beitragen den folgenden Polierprozess zu verkürzen. Ein schichtweiser Abtrag mit ultrakurzen Pulsen kann als Substitutionstechnologie für den formgebenden Schleifprozess angesehen werden. Die ermittelten Zeitspanvolumina lagen im applizierten Laserparameterfeld mit < 14 mm^3/min deutlich über den Werten des Fein- und Feinstschleifens mit 2 mm^3/min. In weiteren Untersuchungen zum Laserabtrag mit Scanprofilen konnten funktionelle Zusammenhänge beschrieben und nachgewiesen werden, die einen ortsvariablen Glasabtrag ermöglichen.



Kruse, Adrian;
Techniken der Untersuchung und Aufklärung von Straßenverkehrsunfällen mit Wild. - Ilmenau : Universitätsverlag Ilmenau, 2020. - XI, 179 Seiten. - (Berichte aus der Biomechatronik ; Band 16)
Technische Universität Ilmenau, Dissertation 2020

ISBN 978-3-86360-214-7

Bei reklamiertem Wildschaden am Automobil kann die Aufklärung, ob es sich tatsächlich um einen Wildunfall gehandelt hat, nur interdisziplinär erfolgen. Allein die Untersuchung der Haare oder einer Blutspur genügt nicht für eine sichere Aussage, ob ein Wildunfall stattgefunden hat. Gleichermaßen entscheidend sind das Schadenbild am Fahrzeug, die Spuren am Unfallort sowie die Einlassungen zum Unfallhergang. Zur Sicherung und Auswertung dieser Beweise gibt es bis heute kein standardisiertes technisches Procedere. Dieses auf wissenschaftlicher Grundlage gerichtssicher zu erarbeiten war die zentrale Zielsetzung dieser Arbeit. Am Fahrzeug verbleiben in den meisten Fällen als Anhaftungen nur wenige Haare und mitunter auch Blut. Diese sind die Beweismittel, welche zur Untersuchung und Bestimmung der Tierart genutzt werden können. Blutspuren am Fahrzeug werden bisher selten gesichert. Dabei lässt sich angetrocknetes Blut am Fahrzeug nach Abkratzen mit Hilfe eines scharfen Gegenstandes wie z.B. einer Rasierklinge in einer Folientüte einfach sichern. Noch besser ist die Sicherung der Blutspur mit einem DNA-freien Wattestäbchen. Die Haare sollten nicht mit Klebefolien gesichert werden. Zur Untersuchung müssten die Haare später vom Kleber getrennt werden, was mitunter nicht zerstörungsfrei gelingt. Weiterhin ginge das Haar bei längerer Anhaftung mit dem Kleber eine Verbindung ein. Eine Kontaminierung mit dem Klebstoff der Klebefolie könnte nicht ausgeschlossen werden. Besser ist es, die Spuren in Pergamintüten zu sichern. Die Haaruntersuchung zur Feststellung der Tierart und der Elementverteilung im Haar erfordert eine systematische Vorgehensweise. Dabei sind zur Reproduzierbarkeit der Ergebnisse zuerst die zerstörungsfreien Methoden anzuwenden. Die Beobachtungen sollten im Bild dokumentiert werden. Als Erstes erfolgt die makroskopische Darstellung zur Dokumentation von Haarlänge und Farbgebung. Danach sollte eine Voruntersuchung mit der Lupe erfolgen, um die Lage von Wurzel und Spitze zu ermitteln. Nicht immer liegen zur Untersuchung vollständige Haare vor. Unter dem Mikroskop mit Kamera erfolgt anschließend über die definierten Haarabschnitte die Dokumentation. In einigen Fällen lässt sich bereits nach dieser Untersuchung durch die Betrachtung der Medulla die Tierart feststellen. Im Rasterelektronenmikroskop lässt sich die äußere Rindenschicht des Haares aufgrund der größeren Schärfentiefe deutlich darstellen. Diese gibt weitere Anhaltspunkte zur Tierartbestimmung. Immer sollte eine weitergehende Untersuchung zur Bestimmung der Elemente im Haar durchgeführt werden. Diese kann in Kombination mit im Rasterelektronenmikroskop integrierten oder separaten Geräten erfolgen. Zur Feststellung, welche chemischen Elemente im Haar vorkommen, und wie sich diese in Haaren von Tieren in der Natur zu behandelten Haaren unterscheiden, wurde mit dem im Rasterelektronenmikroskop integrierten EDRS die Messung der Elementmengen durchgeführt. Bei den Haaren handelt es sich um inhomogene Proben. Durch die Messung an verschiedenen Abschnitten mehrerer Haare konnten Unterschiede zwischen manipulierten und nicht manipulierten Haaren aufgezeigt werden. Die Messungen zu den Elementen wurden in einer Datenbank zusammengefasst, um einen schnellen Abgleich der Ergebnisse zu ermöglichen. Bei Verfügbarkeit ausreichender Mengen an Haarmaterial oder gesicherter Blutspur kann die Tierart mit Hilfe der DNA-Analyse ermittelt werden. Bei dieser Methode kommt es allerdings zur vollständigen Vernichtung der Beweismittel, da die Haare zur DNA-Gewinnung aufgelöst werden. Die Schäden an den Fahrzeugen sind bei einem Wildunfall von mehreren Faktoren abhängig. Unterschiede ergeben sich durch die Karosserieform und die Art des Fahrzeuges, die Relativgeschwindigkeit, die Größe und Masse des Tieres sowie die Anstoßkonstellation. Zum Abgleich, ob ein Schadenbild am Fahrzeug einem Tier zugeordnet werden kann, wurden Lichtbilder von mit Tieren kollidierten Fahrzeugen gesammelt. Die Spuren an den Fahrzeugen wurden ausgewertet, soweit es sich um gesicherte Wildunfälle handelte. Damit lässt sich nach der Feststellung der Tierart anhand der Antragspuren das Schadenbild abgleichen. Die wesentlichen Bilder und technischen Daten zum Fahrzeug wurden in einer eigens dafür erstellten Datenbank gesammelt. Teilweise konnten die Fahrzeuglenker befragt werden, welche dann weitere (subjektive) Angaben zum Unfallhergang gaben. Wichtig für die Beurteilung sind die Lichtbilder mit den Beschädigungen und der Spurenlage. Da selten alle Information zum Wildunfall in der Datensammlung vorliegt, wurde eine einfache Differenzierung zur Qualität mit einem "Fünfsternesystem" erarbeitet. Die Vergleichsfälle in der Datenbank kommen aus drei Datenquellen. Diese sind (1) nachgewiesene Wildunfälle aus Gutachten, (2) am Unfallort aufgenommene Wildunfälle und (3) Schadenbilder aus selbstdurchgeführten Versuchen.



Jacobi, Marco;
Fahrzeugführung für die automatisierte Unterwasser-Inspektion. - Ilmenau : Universitätsverlag Ilmenau, 2020. - xxvi, 259 Seiten
Technische Universität Ilmenau, Dissertation 2019

ISBN 978-3-86360-211-6

In der vorliegenden Arbeit werden neue Konzepte für die autonome und hoch automatisierte Inspektion von Unterwasserstrukturen mittels unbemannter Fahrzeuge entwickelt sowie deren Implementation und Einsatz unter realen Bedingungen vorgestellt. Regelmäßige Inspektionen von produktiven Anlagen sind grundlegende Maßnahmen für einen reibungslosen, störungsfreien produktiven Betrieb dieser Anlagen. Kostendruck, neue und mehr Offshore-Konstruktionen wie Energiegewinnungsanlagen sowie das Vordringen in größere Wassertiefen erfordern einen hohen Grad an Automation und Überwachung der Anlagen. Aktuell werden die Unterwasserstrukturen dieser Anlagen mit Hilfe von Tauchern und ferngesteuerten, gefesselten Fahrzeugen inspiziert. Diese Verfahren erfordern einen hohen personellen und infrastrukturellen Aufwand und sind risikoreich für Personal und Material. Hier setzt die vorliegende Arbeit an, indem durch autonome Unterwasserfahrzeuge (AUVs) der Aufwand und das Einsatzrisiko reduziert sowie die Datenqualität verbessert werden kann. Zwei Inspektionsszenarien werden innerhalb der Arbeit behandelt: die Inspektion von Hafenanlagen sowie Pipeline und Seekabelinspektion. Dabei werden aktuelle Ansätze zur Inspektion dieser Anlagen vorgestellt und diskutiert sowie die in dieser Arbeit neu entwickelten Verfahren eingeordnet. Es wird intensiv auf die Implementation der Führungsalgorithmen sowie deren Erprobung eingegangen. Unterschiedliche Strukturen von Fahrzeugführungssystemen und der Missionsplanung von AUVs werden vorgestellt und verglichen. Dabei wird eine neue Möglichkeit der Integration von Inspektionsaufgaben in bestehende Fahrzeugführungs- und Missionsplanungssysteme sowie deren begleitende planenden und operativen Prozesse entwickelt und umgesetzt. Alle in der Arbeit entwickelten Verfahren wurden umgesetzt sowie simulativ und experimentell erprobt. Als Fahrzeuge standen das SeaCat-AUV für die Hafeninspektion und das KAPITAS-AUV mit einer weltweit einzigartigen Sensorausstattung für die Pipelineinspektion zur Verfügung.



Wack, Karl-Josef;
Interdisziplinäre Absicherung der Produktionsplanung in der Automobilindustrie. - Ilmenau : Universitätsverlag Ilmenau, 2020. - XIII, 313 Seiten
Technische Universität Ilmenau, Dissertation 2019

ISBN 978-3-86360-213-0

Die Automobilindustrie ist einer der bedeutendsten Industriezweige in Deutschland, die sich ständig im Spannungsfeld aus Qualität, Produktivität und Kosten bewegt. Der globale Wettbewerb führt zu kürzeren Innovations- sowie Produktzyklen - die Kundenanforderungen zu einer umfangreichen Individualisierbarkeit der Produkte. Die Produktkomplexität eines Automobils ist heutzutage enorm. Eine Komplexität, welche die Produktentwicklung, die Produktionsplanung sowie die Produktion ständig vor neue Herausforderungen stellt und in einem Streben nach Perfektion und kontinuierlicher Verbesserung mündet. Es ist beeindruckend zu durchleben, wie bei einem Produktionsanlauf alle Prozesse integriert werden und bei einer Serienfertigung ca. alle 90 Sekunden ein gefertigtes Fahrzeug vom Band läuft. Um einen effizienten Produktionsanlauf zu gewährleisten, wird dieser im Vorfeld abgesichert. In Bezug auf manuelle Montageumfänge findet dies in der sogenannten Produktionsvorbereitung statt, welche unter Beteiligung verschiedener Planungsbereiche interdisziplinär erfolgt. Die Produktionsvorbereitung ist der Serienentwicklung und Serienvorbereitung zugeordnet. In dieser Phase werden gemäß dem aktuellen Planungsstand physische Prototypen des Produktes stationsweise, mit den dazugehörigen Arbeitsinhalten, aufgebaut. Neben der Verifikation des eigentlichen Produktes dient diese Phase dazu, einen effizienten Produktionsanlauf sicherzustellen. Die Absicherung von Produkt und Produktion ist in der Automobilindustrie sehr gut etabliert und wird frühzeitig angewandt. Neben physischen Absicherungen werden vermehrt virtuelle Absicherungen durch den Einsatz von IT-Systemen und Simulationen eingesetzt. Die vorliegende Arbeit befasst sich mit der Phase der Produktionsvorbereitung und der damit verbundenen Absicherung des Produktionsanlaufs im Hinblick auf manuelle Montageumfänge in der Automobilindustrie. Im Fokus steht hierbei eine virtuelle Absicherung der Produktionsvorbereitung und die Unterstützung der Kollaboration und Dokumentation der interdisziplinären Produktionsvorbereitung.



Feldkamp, Niclas;
Wissensentdeckung im Kontext der Produktionssimulation. - Ilmenau : Universitätsverlag Ilmenau, 2020. - XII, 217, XIV-XX Seiten
Technische Universität Ilmenau, Dissertation 2019

ISBN 978-3-86360-210-9

Die diskrete Simulation stellt eine wichtige und etablierte Methode zur Untersuchung des dynamischen Verhaltens von komplexen Produktions- und Logistiksystemen dar. Sie ist daher zur Planung, Steuerung und Kontrolle solcher Systeme unerlässlich, beispielsweise in der Automobilindustrie oder in der Halbleiterfertigung. Klassische Simulationsstudien zielen in diesem Kontext üblicherweise darauf ab, typische, vorab definierte Fragestellungen zu beantworten. Dies geht oftmals einher mit der Simulation und Analyse einiger weniger vorab definierter Szenarien. Wirkzusammenhänge, die über diesen definierten Projektrahmen hinausgehen, bleiben daher eventuell unentdeckt. Auf der anderen Seite erwachsen mit steigender Rechenleistung und der allgemeinen Verfügbarkeit von Big-Data-Infrastrukturen neue Möglichkeiten zur Durchführung von sehr großen Bandbreiten von Simulationsexperimenten, um das Verhalten des Modells möglichst vollständig abzudecken und automatisiert auszuwerten. Dies wird allgemein als Data Farming bezeichnet. Ziel dieser Arbeit war es, die Methode des Data Farming für die Nutzung zur Wissensentdeckung in Produktionssimulationen zu übertragen und weiterzuentwickeln. Dazu wurde ein ganzheitliches Konzept ausgearbeitet, um unbekannte, versteckte und potenziell nützliche Wirkzusammenhänge in großen Mengen von Simulationsdaten entdecken zu können. Das Konzept beinhaltet hierzu die Auswahl geeigneter Experimentdesignmethoden, die Anwendung und Ausgestaltung von geeigneten Data-Mining-Verfahren in einem dafür zweckmäßigen und zielgerichteten Analyseprozess sowie die Definition geeigneter Visualisierungs- und Interaktionsmethoden zur iterativen, anwenderorientierten Analyse großer Mengen von Simulationsdaten. Darüber hinaus wurde das Konzept in einem ganzheitlichen Softwareframework prototypisch implementiert. Die Anwendbarkeit des Konzeptes wurde anhand von vier Fallstudien aufgezeigt und validiert. Die Fallstudien beinhalteten hierbei zwei akademische Laborstudien sowie zwei Industrieanwendungsfälle.



Höpping, Kristian;
Ein Beitrag zur Potenzialanalyse von reifenfülldruckbasierten Fahrerassistenzsystemen. - Ilmenau : Universitätsverlag Ilmenau, 2019. - XXX, 253, A-60 Seiten. - (Kraftfahrzeugtechnische Berichte ; Band 11)
Technische Universität Ilmenau, Dissertation 2019

ISBN 978-3-86360-209-3

Bei der Wahl des optimalen Reifenfülldrucks besteht ein sehr großes Spannungsfeld zwischen sich gegenüberstehenden Komfort-, Sicherheits- und Umweltanforderungen. Eine intelligent geregelte Reifenfülldruckregelanlage (RDRA), die den Reifeninnendruck hochdynamisch und radselektiv in Abhängigkeit des Fahrzeug- und Fahrbahnzustands adaptiert, verspricht ein großes Potenzial zur Minimierung der Zielkonflikte. Im Rahmen dieser Forschungsarbeit wird eine Methodik zur Realisierung und Bewertung der Leistungsfähigkeit eines reifenfülldruckbasierten Fahrerassistenzsystems erarbeitet. Die Entwicklung eines Reifenmessanhängers sowie eines Corner-Modul-Prüfstands als mobile bzw. stationäre Prüfeinrichtung zur Charakterisierung von Reifeneigenschaften unter Real- bzw. Laborbedingungen sowie die Erarbeitung einer Mess- und Auswertemethode erlauben die Untersuchung des Kraftschlussverhaltens von Reifen. Neben der Bewertung verschiedener Einflussgrößen quantifizieren die analysierten Messergebnisse erstmals den Einfluss großer Reifenfülldruckvariationen auf das Umfangskraftverhalten von Pkw-Reifen. Da die Reifencharakteristiken, die im Labor auf Prüfstandstrommeln sowie auf realer Asphaltfahrbahn erfasst wurden, teilweise voneinander abweichen, wird eine Umrechnungsmethode erarbeitet, die den Fahrbahnkrümmungseinfluss berücksichtigt. Das Verfahren erlaubt es, Umfangskraftbeiwert-Schlupf-Kennlinien anhand von Reifenlatschmessungen zu skalieren. Schließlich wird die allgemeingültige Anwendbarkeit des Umrechnungsverfahrens sowie der Einfluss der Fahrbahnbeschaffenheit auf das bestimmte Kraftschlussverhalten diskutiert. Der Reifen ist das einzige Bindeglied zwischen dem Kraftfahrzeug und der Fahrbahn. Für numerische Analysen ist die Wahl geeigneter Reifenmodelle sowie die Gewährleistung geringer Approximationsfehler daher unabdingbar. Zur Abbildung des Reifenverhaltens werden die für Fahrdynamiksimulationen besonders relevanten Magic Formula-, HSRI- und Deur-Reifenmodelle für große Reifenfülldruckvariationen erweitert. Eine entwickelte Parametrisierungsmethode erlaubt es, die Koeffizienten der Modelle anhand der Messdaten zu identifizieren. Mit den im Rahmen der hier vorliegenden Forschungsarbeit eingeführten Modellerweiterungen wird erstmals die Möglichkeit geschaffen, mit den genannten Reifensimulationsmodellen große Reifenfülldruckvariationen zu berücksichtigen. Ein entwickeltes Gesamtfahrzeug-Co-Simulationsmodell zur numerischen Berechnung des Fahrdynamikverhaltens von Kraftfahrzeugen erlaubt, neben der Implementierung der erweiterten Reifenmodellgleichungen, die Integration eines parametrisierten Radschlupfregelsystems sowie einer erarbeiteten Reifenfülldruckregelanlage als MIL-Modelle. Der interdisziplinäre und ganzheitliche Simulationsansatz bietet erstmals die Möglichkeit, den Einfluss einer radselektiven, hochdynamischen Reifenfülldruckadaption auf die Fahrdynamik von Kraftfahrzeugen zu bewerten. Der Einfluss verschiedener Parametervariationen sowie die Analyse unterschiedlicher Regelphilosophien auf das im Fokus der Forschung stehende Bremswegverkürzungspotenzial wird dargestellt. Die Resultate erlauben die Schlussfolgerung, dass mithilfe einer gezielten Reifenfülldruckadaption der Bremsweg signifikant verringert werden kann. Schließlich werden die Komponenten einer Reifenfülldruckverstellanlage ausgelegt und, zusammen mit einer entwickelten Regelstrategie, in einem Demonstratorfahrzeug implementiert. Damit wird erstmals eine hochdynamische Reifenfülldruckregelanlage in einem Versuchsfahrzeug realisiert und die Möglichkeit geschaffen, das Potenzial einer intelligent geregelten, hochdynamischen Reifenfülldruckregelanlage als Fahrerassistenzsystem experimentell zu bewerten. Durch umfangreiche Fahrversuche auf einem Testgelände wird das Gesamtfahrzeug-Co-Simulationsmodell validiert. Ein Vergleich numerisch berechneter und experimentell analysierter Bremsweguntersuchungen erlaubt es, die Leistungsfähigkeit der erweiterten Reifenmodelle zur Simulation des Bremswegverkürzungspotenzials durch eine Reifeninnendruckadaption zu bewerten. Nicht zuletzt durch die Analyse des Kraftübertragungsverhaltens im Reifen-Fahrbahn-Kontakt mithilfe eines Radkraftsensors wird das Wirkprinzip eines reifenfülldruckbasierten Fahrerassistenzsystems nachgewiesen. Mit der vorliegenden Forschungsarbeit wird ein Beitrag zur simulativen und experimentellen Bewertung des Potenzials, insbesondere zur Bremswegverkürzung, eines reifenfülldruckbasierten Fahrerassistenzsystems geleistet.



Rabenbauer, Pascal;
Entwicklung eines bleifreien, niedrigschmelzenden und hochbrechenden Spezialglases für den Einsatz als Streuschichtmatrix in organischen Leuchtdioden. - Ilmenau : Universitätsverlag Ilmenau, 2019. - xiv, 138, XXXVIII Seiten. - (Werkstofftechnik aktuell ; Band 20)
Technische Universität Ilmenau, Dissertation 2019

ISBN 978-3-86360-208-6

Bleifreie, niedrigschmelzende und hochbrechende Spezialgläser wurden mit dem Ziel synthetisiert, diese als Streuschicht in einer organischen Leuchtdiode (OLED) zu verarbeiten und damit die interne Lichtauskopplung zu erhöhen. Ausgehend von ternären Systemen auf Basis eines B2O3- und/oder SiO2-Netzwerks wurden zunächst Bi2O3- respektive TeO2-haltige Gläser hergestellt. Darüber hinaus wurden der Einfluss und die Wirkungsweise weiterer Oxide auf diese Glassysteme analytisch erfasst. Ausgewählte Gläser wurden als Pulver zusammen mit 1-3 [my]m großen TiO2- oder SiO2-Streupartikeln zu einer Paste verarbeitet, in einem Siebdruckprozess auf ein Substrat aus Kalk-Natron-Silicatglas appliziert und abschließend verglast. Um daraus eine funktionsfähige OLED herzustellen wurde in einem Reinraumprozess auf die Komponente aus Substratglas und Streuschicht eine Schichtabfolge aus ITO-Anode, Emitterschichten und Kathode aufgebracht. Als besonders geeignet stellten sich Gläser aus dem System Bi2O3-B2O3-SiO2-ZnO-SrO-BaO (B:BSZSB) heraus. Mit ihnen konnten neben der Anpassung der Wärmeausdehnung an das Substrat auch die Brechzahlanpassung an die ITO-Anode mit nd = 1,90 ± 0,1, eine Transformationstemperatur Tg < 450 &ring;C und eine hohe Transmission im sichtbaren Bereich gewährleistet werden. Als ideal für die Verglasung von B:BSZSB-haltigen Schichten stellte sich ein Partikeldurchmesser d90 = 4,76 [my]m und eine möglichst enge Kornverteilung aus abgerundeten Partikeln dar. Die Partikel sollten dabei idealerweise gleichverteilt sein. Ziel war es, die Auskoppeleffizienz der OLED mittels Glasstreuschicht um mindestens 50 % zu steigern. Konkret bedeutet das, eine Lichtausbeute von [eta] ≥ 40 lm/W zu erreichen. Das optimale Streuvermögen für die Lichtextraktion aus einer OLED konnte durch einen Haze von 0,6-0,9 erzielt werden. Maßgeblich dafür sind die Schichtdicke und die darin enthaltene Streupartikelkonzentration. Die höchste Lichtausbeute von [eta] = 55 lm/W konnte für OLEDs mit einer eigenentwickelten 15 [my]m dicken Streuschicht der Zusammensetzung 23Bi2O3-38B2O3-4SiO2-24ZnO-4SrO-7BaO (mol-%) und einer Streupartikelkonzentration von 2,5 Vol.-% TiO2 realisiert werden. Im Vergleich zur Referenz-OLED ohne Streuschicht ([eta] = 26 lm/W) entspricht die erzielte Lichtausbeute, bei einer konstanten Leuchtdichte von 2000 cd/m2, einer Steigerung um 110 %. Die Übertragung des Prozesses vom Labormaßstab in die industrielle Fertigung im Reinraum konnte durch die Übergabe des Beschichtungsverfahrens inklusive aller nötigen optimierten Prozessschritte und -parameter an die OSRAM OLED GmbH gewährleistet werden.



Niedermeyer, Lars;
Filtrationskinetik offener Partikelfilter. - Ilmenau : Universitätsverlag Ilmenau, 2019. - XXXI, 201 Seiten. - (Kraftfahrzeugtechnische Berichte ; Band 10)
Technische Universität Ilmenau, Dissertation 2019

ISBN 978-3-86360-206-2

Das Reinigen eines partikelbeladenen Aerosols mit Hilfe faserbasierter Filter ist eine weit verbreitete Methode. Die der Reinigung zugrunde liegenden Vorgänge sind hochkomplex und in einfachen Modellen mathematisch nicht zu beschreiben. Die numerische Berechnung faserbasierter Filter in ihrer Gesamtheit stellt heutzutage immer noch eine sehr große Hürde dar. Bekannte Ansätze beschränken sich meist auf die ausschnittsweise Beschreibung der Vorgänge in kleinen Teilen des Filters oder betrachten nur einzelne Fasern des Filters. Die ganzheitliche Berechnung der Vorgänge in einem Partikelfilter muss stets unter Berücksichtigung aller, die Abscheidung von Partikeln betreffender Größenskalen erfolgen. Die vorliegende Arbeit beschäftigt sich mit der methodischen Entwicklung eines Berechnungsansatzes für die numerische Berechnung der zeitabhängigen Filtration eines Gesamtfilters in einer 3D Simulation. Berücksichtigt werden dabei insbesondere die in verschiedenen Größenskalen ablaufenden Vorgänge der Filtration. Dazu zählen vor allem das Abscheiden von Partikeln an einzelnen Fasern, die Durchströmung des Vlieses, das Durchströmen des Gesamtfilters sowie die zeitabhängige Beladung des Filters. Den Beginn der Arbeit stellt die Entwicklung eines Programms zur Bestimmung der Einzelfasereffektivität durch die Berechnung der Partikeltrajektorien um die Faser für verschiedene Partikeldurchmesser und Anströmgeschwindigkeiten dar. Berücksichtigung in dieser Berechnung finden Abscheidemechanismen wie die Diffusion, die Interzeption und die Impaktion. Das Ergebnis der Berechnungen ist eine Datenbank, die die Einzelfasereffektivität für das Intervall von Partikelgrößen und Anströmgeschindigkeiten über einen gegebenen Faserdurchmesser wiedergibt. Aufbauend auf diesem Ergebnis wird ein 3D CFD Simulationsmodell des Partikelfilters erstellt und zunächst für den stationären Fall das Strömungsfeld und die Abscheideeffektivität berechnet. Strömungsfeld und Abscheideeffektivität werden anhand geeigneter, experimenteller Untersuchungen plausibilisiert. Mit der Kenntnis der stationären Ergebnisse wird die zeitabhängige Beladung des Modells berechnet. Abschließend wird gezeigt, dass die erarbeitete Methodik für beliebige, faserbasierte Filter anwendbar ist.



Brethauer, Andreas;
Entwicklung einer Methode zur Temperaturbestimmung von Fluiden mithilfe von Berührungsthermometern bei niedrigen Eintauchtiefen. - Ilmenau : Universitätsverlag Ilmenau, 2019. - XVI, 229 Seiten
Technische Universität Ilmenau, Dissertation 2019

ISBN 978-3-86360-207-9

Die exakte Bestimmung der Temperatur gewinnt u. a. in der Wärmeverbrauchsmessung eine immer höhere Bedeutung. Hier wird mithilfe der Temperaturdifferenz an einem Vor- und Rücklauf in Kombination mit der Durchflussmenge die entnommene Wärme bestimmt. Messabweichungen haben hier eine direkte Auswirkung auf die Kostenabrechnung. Konstruktionsbedingt ist bei den gängigen Wärmemengenzählern an der Thermometer-Einbaustelle des Rücklaufs nur wenig Platz. Hier wird häufig tangential in das Medium eingetaucht, was eine nicht vernachlässigbare Messabweichung verursacht. In der Arbeit wird die Messabweichung durch Wärmeableitung und das Ansprechverhalten von Widerstandsthermometern bei geringen Eintauchtiefen in ein zu messendes Medium näher untersucht. Dabei wird die Bedeutung einer thermischen Ankopplung des Sensors an das Medium, sowie die Entkopplung von der anders temperierten Umgebung deutlich. Einen Einfluss hat auch das verwendete Medium. In der Wärme-/Kälteübertragung werden häufig Wasser-Glykol-Gemische verwendet. Deren Verwendung hat gerade bei niedrigen Strömungsgeschwindigkeiten einen hohen Einfluss auf die thermische Messabweichung und das Ansprechverhalten eines Widerstandsthermometers. Zudem wurde auch die Möglichkeit zur Nutzung des Loop Current Step Response Tests in der Wärmeverbrauchsmessung validiert. Dies erlaubt das Messen von Ansprechzeiten unter Einbaubedingungen. Ziel der Arbeit ist die Nutzbarmachung erzielter Erkenntnisse. So wurde eine Prüfeinrichtung zur Untersuchung von Widerstandsthermometern unter Einbaubedingungen entwickelt und validiert. Diese, als Strömungskanal konzipierte Prüfeinrichtung, erlaubt die Untersuchung des statischen und dynamischen Verhaltens von Thermometern, sowie den direkten Vergleich unterschiedlicher Einbaustellen. Die Messstrecken sind über ein Kleinflansch-Verbindungssystem austauschbar. Die Durchführung und Auswertung der unterschiedlichen Messprogramme läuft automatisch über eine eigens entwickelte Software ab. Eine weitere Neuentwicklung ist ein für niedrige Eintauchtiefen optimiertes Widerstandsthermometer. Hier wurden wärmeleitfähige und thermisch isolierende Kunststoffe kombiniert. So wurde eine gute Ankopplung des Temperatursensors an das zu messende Medium, sowie eine Entkopplung von der anders temperierten Umgebung realisiert.



Jancke, Roland;
Modellierung der Zuverlässigkeit bei Entwurf und Verifikation von Mixed-Signal-Schaltungen. - Ilmenau : Universitätsverlag Ilmenau, 2019. - 190 Seiten
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-204-8

Die zunehmende Verbreitung von Elektronik im Alltag und die weitere Verringerung der Strukturgrößen stellt neue Anforderungen an die Zuverlässigkeit und Verfügbarkeit integrierter Schaltungen. Modellierung zur Unterstützung des Schaltkreis- und Systementwurfs wird seit langer Zeit eingesetzt, bisher hauptsächlich zur Nachbildung des funktionalen Verhaltens einer Schaltung. Die vorliegende Arbeit verfolgt zwei Ziele: - Zu bekannten Modellierungsverfahren für das funktionale Verhalten wird eine Systematik entwickelt und in einen durchgängigen Modellierungsablauf abgebildet. - Die Methodik wird um die Modellierung nichtfunktionaler Eigenschaften erweitert, insbesondere werden Verfahren zur Berücksichtigung der Zuverlässigkeit entwickelt. Für die Zuverlässigkeitsmodellierung werden in erster Linie Degradationseffekte betrachtet, die während des bestimmungsgemäßen Betriebs entstehen und sich auf das elektrische Verhalten integrierter Bauelemente auswirken. Als eine wesentliche Voraussetzung für die entwickelten Verfahren zur Berücksichtigung der elektrischen Degradation wird lineare Schadensakkumulation angenommen. Dies bedeutet, dass die zeitliche Abfolge des anliegenden Stresses keine Rolle spielt, sondern sich die entstehende Schädigung linear akkumuliert. Das Ergebnis der Arbeit ist eine systematische Vorgehensweise zur Modellierung des funktionalen Verhaltens von analogen und Mixed-Signal-Schaltungen. Diese wird ergänzt um neue Verfahren zur Berücksichtigung zuverlässigkeitsrelevanter Eigenschaften der Schaltung. Analogien zur Mechanik erlauben es, in diesem Bereich etablierte Vorgehensweisen zur Beschreibung und Analyse der Zuverlässigkeit zu übernehmen und auf die Degradationseffekte integrierter Halbleiterbauelemente anzuwenden. Entsprechende Lebensdauermodelle zu relevanten Degradationsmechanismen sind dargestellt. Ausgehend von der generellen Struktur solcher Modelle werden allgemeine Maße zur Zuverlässigkeitsbewertung von Bauelementen unter Anwendungsbedingungen abgeleitet. Die Diskussion von Methoden zur Analyse der Zuverlässigkeit ganzer Schaltungen im Entwurf rundet die Darstellung ab. Die entwickelten Verfahren dienen der Unterstützung eines schnellen und fehlerfreien Entwurfs sicherer und zuverlässiger Schaltungen. Anhand der Optimierung einer Schaltung auf der Grundlage ihres Alterungsverhaltens wird dieser Nutzen verdeutlicht.



Weiß, Heiko;
Optimierung des dynamischen Verhaltens von linearen Hybridschrittmotoren unter besonderer Betrachtung von Schwingungen und Geräuschen. - Ilmenau : Universitätsverlag Ilmenau, 2019. - XXI, 171 Seiten
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-205-5

Diese Arbeit befasst sich mit der Entwicklung von Methoden und Reglern zur Reduzierung von Schwingungen und Geräuschen von linearen Hybridschrittmotoren (LHSM). Die Ursachen der Schwingungen und Geräusche sind Kraftschwankungen, die elektromagnetisch durch das Antriebsprinzip bedingt sind. Der untersuchte Motor ist ein Prototyp, der von der Firma Pasim Direktantriebe GmbH zur Verfügung gestellt worden ist. Dieser ist durch ein Zusatzspulensystem gekennzeichnet, das eine variable magnetische Erregung ermöglicht. Somit kann der Motor mit einer konstanten magnetischen als auch mit einer sich ändernden magnetischen Erregung betrieben werden. Diese beiden Betriebsmodi werden in dieser Arbeit als Ausgangssituationen verwendet, um damit mögliche Reduzierungen von Schwingungen und Geräuschen zu erzielen. Für den als Standardmotor zu betrachtenden konstant erregten LHSM werden drei Methoden untersucht. Dazu gehören die Lastwinkel-Optimierung, die Rastkraft-Kompensation sowie die Optimierung der Kommutierung. Unter diesen Methoden lassen sich mit der optimierten Kommutierung die Horizontalschwingungen am besten verringern. Wahrnehmbare Lautstärkeänderungen können damit allerdings nicht erreicht werden. Das Ziel des mit variabler Erregung betriebenen LHSM ist ebenfalls eine Reduzierung von Schwingungen und Geräuschen. Zu diesem Zweck werden die sich mit der variablen Erregerkomponente ändernden Eigenschaften des LHSM ausgenutzt, um ein antriebseffizientes und schwingungsreduzierendes Betriebsverhalten zu erhalten. Dafür ist es erforderlich, den variabel erregten LHSM zu modellieren und die dazugehörigen Parameter zu identifizieren. Schließlich wird eine Ansteuerfunktion für die variable Erregerkomponente auf der Grundlage eines Optimierungsproblems entwickelt. Die Ansteuerfunktion wird im positionsgeregelten Betrieb angewendet und zeigt dabei eine Reduzierung der Schwingungen um ein Vielfaches in allen Raumrichtungen. Das führt dazu, dass die wahrgenommene Lautstärke um annähernd die Hälfte gegenüber einem Motor mit konstanter magnetischer Erregung gesenkt werden kann. Zur weiteren Verbesserung der Betriebseigenschaften werden verschiedene Reglerstrategien entwickelt und getestet. Die Ergebnisse zeigen, dass sich für diesen Zweck ein optimierter PID-Regler mit modellbasierter Vorsteuerung am besten eignet.



Uhlig, René;
Konzeption und Untersuchung eines bistabilen Sicherheitsventils und simulationsbasierte Entwicklung einer Methode zu dessen Dimensionierung. - Ilmenau : Universitätsverlag Ilmenau, 2019. - XXI, 146 Seiten. - (Berichte der Ilmenauer Mechanismentechnik (BIMT) ; Band 5)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-203-1

Sicherheitsventile für Gasrohrleitungen - sogenannte Gasströmungswächter - sind unverzichtbare mechanische Schutzvorrichtungen, die den unkontrollierten Austritt großer Gasmengen im Havariefall oder bei beabsichtigter Manipulation verhindern. Damit können Gasexplosionen und die resultierenden existenziellen Folgen abgewendet werden. Die bisher bekannten Lösungen für Sicherheitsventile weisen aufgrund ihres monostabilen Schaltverhaltens einen gravierenden Nachteil auf, da diese nach dem Auslösen selbsttätig wieder öffnen und somit den Gasstrom freigeben. Potentielle Gefahrenquellen bleiben damit unerkannt. Der wesentliche Vorteil eines neuartigen Sicherheitsventils besteht in der Realisierung einer bistabilen Schaltcharakteristik durch den Einsatz vorgespannter nachgiebiger Aufhängungselemente. Die zuverlässige Dimensionierung eines solchen neuartigen Ventils erweist sich in der Praxis als äußerst anspruchsvolle Aufgabe und erfordert viel Erfahrung, vor allem im Umgang mit numerischen Simulationswerkzeugen. Die vorliegende Arbeit beschäftigt sich intensiv mit der Untersuchung der nachgiebigen Aufhängungselemente und dem resultierenden Ventilschaltverhalten für unterschiedliche geometrische Abmessungen. Das Ziel und die Motivation der Arbeit besteht darin, die vorhandenen Hürden bei der Dimensionierung abzubauen und ein einfach anzuwendendes Dimensionierungsmodell zur Verfügung zu stellen. Die Ergebnisse der Arbeit stützen sich maßgeblich auf FEM-Simulationen zum Verformungsverhalten der nachgiebigen Aufhängungselemente. Anhand der ermittelten Kraft-Verschiebungs-Kennlinien ist es gelungen, das Schaltverhalten mathematisch anhand von abgeleiteten Dimensionierungsgleichungen zu beschreiben und darauf basierend eine Methode zur Dimensionierung neuartiger Sicherheitsventile zur Verfügung zu stellen. Darüber hinaus wurde das Dimensionierungsmodell anhand experimenteller Untersuchungen an realen Aufhängungselementen sorgfältig validiert. Zum Abschluss der Arbeit wurde auch das Verhalten von verschiedenen Ventilprototypen im praktischen Einsatz an Versuchsanlagen betrachtet. Die gewonnenen Erkenntnisse fließen in die Ergebnisse ein und gewährleisten eine hohe Qualität des Dimensionierungsmodells. Darüber hinaus können die Ergebnisse auch zur Dimensionierung von bistabilen Systemen in anderen Anwendungsfeldern genutzt werden.



John, Kerstin;
Untersuchung von Umlenkelementen zur Anwendung in der interferometrischen Längenmesstechnik. - Ilmenau : Universitätsverlag Ilmenau, 2019. - 176 Seiten. - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; Band 33)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-197-3

Aufgrund ihrer hohen Auflösung in Kombination mit einem großen Messbereich nehmen Interferometer eine Spitzenrolle in der Präzisionslängenmesstechnik ein. Sie müssen stets so angeordnet werden, dass der Messstrahl das Messobjekt auf geradem, unabgeschattetem Weg erreicht. Durch eine Umlenkung und Faltung des Interferometermessstrahls lassen sich Flexibilität des Aufbaus und Zugänglichkeit des Messobjektes verbessern. Diese Arbeit untersucht den Einsatz von Strahlumlenkelementen in interferometrischen Messanordnungen sowie die dadurch entstehenden Messfehler und Möglichkeiten ihrer Kompensation und Korrektur. Zunächst wird das grundlegende Messprinzip von interferometrischen Längenmessungen vorgestellt sowie auf mögliche Fehlerquellen insbesondere im Hinblick auf Strahlumlenkung hingewiesen. Es wird untersucht, wie sich die Änderung von geometrischen und Polarisationseigenschaften des Messstrahls durch ein Umlenkelement auf die interferometrische Messung auswirken. In dieser Arbeit werden verschiedene Modelle vorgestellt, mit denen die Lichtausbreitung und Polarisation sowie das geometrische Übertragungsverhalten von Umlenkelementen untersucht werden können. An Beispielen werden Einflussfaktoren herausgestellt, die auf die Polarisation des Lichtes wirken. Darüber hinaus wird deren Nutzung zur Kompensation von unerwünschten Polarisationsänderungen diskutiert. Eine Übersicht teilt reflektierende und refraktive Umlenkelemente auf Basis von Gemeinsamkeiten in Geometrie und Übertragungsverhalten in Kategorien ein. Der Fokus liegt dabei auf Invarianzachsen für Translation und Rotation der Elemente. Diese erlauben eine Bewegung der Umlenkelemente, ohne dass die untersuchte Funktionsgröße beeinflusst wird. Auf die Existenz und Lage dieser Achsen wird für jede Gruppe von Umlenkelementen hingewiesen. Zusätzlich erfolgt der Nachweis im Experiment, der das qualitative Übertragungsverhalten ausgewählter Umlenkelemente bestätigt. Schließlich werden die Erkenntnisse dieser Arbeit in Gestaltungsrichtlinien zusammengefasst, die den Anwender bei der Auslegung von Umlenkelementen für interferometrische Längenmesssysteme unterstützen.



Mack, Benjamin;
Untersuchungen zum Schadensmechanismus Torsionsschwingbruch durch Kontaktermüdung an Schraubendruckfedern. - Ilmenau : Universitätsverlag Ilmenau, 2019. - xvii, 184 Seiten. - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; Band 34)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-198-0

Ziel der vorliegenden Arbeit ist es, die Wirkzusammenhänge des Schadensmechanismus "Torsionsschwingbruch durch Kontaktermüdung" zu untersuchen und Möglichkeiten zur Quantifizierung des Schadensmechanismus aufzuzeigen. Zu diesem Zweck werden Federvarianten mit unterschiedlichen Anlageverhalten gefertigt, charakterisiert und geprüft. Mit den bisher etablierten Methoden kann das Anlageverhalten nicht lokal und zugleich bei einer definierten Federkraft bewertet werden, was für die Fertigung von Versuchsfedern mit gezielt variierenden Anlageverhalten erforderlich ist. Vor diesem Hintergrund wird die Lichtspaltmethode entwickelt. Die Lichtspaltmethode eignet sich im Gegensatz zu numerischen Verfahren auch zur fertigungsnahen Beurteilung des Anlageverhaltens. Zusätzlich ermöglicht die Lichtspaltmethode einen höherwertigen FE-Abgleich im Endwindungsbereich, als ein Abgleich über die Federrate oder mittels druckempfindlichen Papiers. Aufgrund der Schwingfestigkeitsergebnisse wird eine Untergliederung des Schadensmechanismus hinsichtlich HCF-Kontaktermüdung mit Bruchausgang im Oberflächennahen Bereich und VHCF-Kontaktermüdung mit Bruchausgang unterhalb der Oberfläche vorgenommen. Begleitender Untersuchungen an Federn und Drähten zeigen, dass begünstigende Ursachen für Endwindungsbrüche mit der Ausprägung HCF-Kontaktermüdung sich auf eine fertigungs- bzw. verschleißbedingte Primärschädigung zurückführen lassen. Endwindungsbrüche im Bereich erhöhter Schwingspielzahlen mit einem Bruchausgang unterhalb der Oberfläche weisen auf eine Primärschädigung durch Kontaktermüdungsrissbildung hin. Auf Grundlage der Schwingfestigkeitsversuche an Schraubendruckfedern und numerischen Berechnungen wird eine Vorgehensweise zur Auslegung der Endwindungsgeometrie bei erhöhter Schwingspielzahl erarbeitet. Die Grobauslegung der Endwindungsgeometrie erfolgt über die Analyse des Kontaktwinkels in Abhängigkeit der Torsionsbeanspruchung. Die örtliche Bewertung erfolgt auf Basis der Finiten Elemente Methode und geeigneter Schadensparameter. Die numerische Nachrechnung der Schwingversuche zeigt, dass die lokale Kontaktdruckschwingweite als auch der Schadensparameter nach Dang Van geeignete Kenngrößen zur Beschreibung der VHCF-Kontaktermüdung darstellen. Durch diese Arbeit lassen sich Endwindungsbrüche durch Kontaktermüdung im VHCF-Bereich lokal bewerten.



Mühlbauer, Christoph;
Entwicklung eines Vorgehensmodells für die Evaluation der Fahrzeug-HMI in frühen Phasen der Entwicklung. - Ilmenau : Universitätsverlag Ilmenau, 2019. - XII, 294 Seiten
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-196-6

Ein aktueller Trend in der Automobil-Industrie ist die zunehmende Vernetzung interaktiver Systeme inner- und außerhalb des Fahrzeugs. Dies führt zu einem erhöhten Informationsfluss zwischen dem Fahrer, dem Fahrzeug sowie der Umwelt, was die Gefahr erhöht, dass sich der Fahrer von der eigentlichen Fahraufgabe ablenken lässt. Die Benutzungsschnittstelle, über die der Fahrer mit seinem Fahrzeug interagiert, sollte so gestaltet sein, dass die Ablenkung auf ein Minimum reduziert wird. Es existieren Automotive-HMI Richtlinien wie beispielsweise die NHTSA-Guidelines oder die DIN EN ISO 15005, welche herangezogen werden können, um die Benutzerfreundlichkeit interaktiver Systeme und die Ablenkung zu beurteilen. Bei der Analyse fällt jedoch auf, dass diese vielmehr bereits grafische Prototypen und implementierte Systeme fokussieren. Zudem sieht der aktuelle HMI-Entwicklungsprozess innerhalb der Automobilindustrie eine Produkt-Evaluation erst zum Zeitpunkt der HMI-Implementierungsphase vor. Innerhalb der HMI-Konzept und -Designphase findet keine strukturierte Beurteilung statt. Werden HMI-Probleme zu diesem späten Zeitpunkt identifiziert, ist eine Beseitigung kosten- und zeitintensiv. In dieser Dissertation wird ein Vorgehensmodell vorgestellt, welches die Usability von Spezifikationen für Automotive-Informations- und -Kommunikationssysteme bereits zu Beginn der Entwicklung, in der sogenannten HMI-Konzeptphase, beurteilt. So werden spezifische Beurteilungskriterien extrahiert und ein strukturiertes Evaluations-Vorgehen wird definiert. Die Erkenntnisse leiten sich aus umfangreichen empirischen und analytischen Studien ab. Die Betrachtung des Evaluations-Gegenstands innerhalb der darauffolgenden Design- und Implementierungsphase findet nicht statt, da spezifische Beurteilungskriterien entwickelt werden müssen. Die Beurteilungskriterien der HMI-Konzeptphase können nicht für die Design- und Implementierungsphase herangezogen werden. Das Vorgehensmodell ist so entwickelt, dass sowohl Experten als auch methodisch unerfahrene Evaluatoren und Testleiter dieses anwenden können.



Wohlfahrt, Fabian; Theska, René;
Kraftgesteuerte Messzelle für Dilatometeranwendungen. - Ilmenau : Universitätsverlag Ilmenau, 2019. - XVI, 168 Seiten. - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; Band 32)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-193-5

Werkstoffinnovation ist eine wesentliche treibende Kraft des 21. Jahrhunderts. Die Forschung und Weiterentwicklung von innovativen Materialien vergrößert stets deren Anwendungsbereich und den ressourceneffizienten Einsatz in technischen Gebilden. Dieser allgemeine Trend der Weiterentwicklung von Materialien führt zu höheren Anforderungen an Messgeräte, welche die zugehörigen Materialkenngrößen ermitteln. Im Bereich der Dilatometrie wird die Längenänderung von thermisch beeinflussten Materialien analysiert. Zukünftige und zum Teil bereits aktuelle messtechnische Anforderungen von z. B. weichen Materialien können mit bestehenden Möglichkeiten der technischen Realisierung nicht mehr sicher erfüllt werden. Hieraus leitet sich ein Handlungsbedarf hinsichtlich technischer und konstruktiver Weiterentwicklung ab. Ziel dieser Arbeit ist es, den aktuellen Entwicklungsstand zur messtechnischen Erfassung von thermisch induzierten Längenänderungen darzustellen und Möglichkeiten für dessen Weiterentwicklung zu erarbeiten. Hierzu wird das Arbeitsfeld begrifflich und inhaltlich abgegrenzt. Mithilfe einer Betrachtung des Standes der Technik werden Anforderungen für die Weiterentwicklung abgeleitet. Im Rahmen der konstruktiven Entwicklung spielt hierbei die Reduzierung wesentlicher Störeinflüsse auf die Längenänderung der Probe eine entscheidende Rolle. Ein besonderes Ziel besteht darin, den Krafteinfluss während der Längenmessung stark zu verringern sowie den Einfluss durch manuelle Bedienung zu eliminieren. In der vorliegenden Arbeit werden für die Entwicklung und Realisierung einer kraftgesteuerten Messzelle systematisch Lösungsräume erarbeitet sowie anschließend schrittweise hinsichtlich der Erfüllung der gegebenen Anforderungen untersucht und bewertet. Aus methodischer Sicht stellt diese Arbeit eine Vorgehensweise zur zielgerichteten Entwicklung einer kraftgesteuerten Messzelle dar. Die Funktionsfähigkeit des erarbeiteten Konstruktionsentwurfs wird durch experimentelle Ergebnisse im Rahmen des messtechnischen Nachweises bestätigt. Den Abschluss dieser Arbeit bilden sowohl eine Einflussgrößenanalyse als auch eine Zusammenfassung ermittelter charakteristischer Eigenschaften der Messzelle gefolgt von einem Ausblick zur Weiterentwicklung.



Kotschote, Christian;
Widerstandspunktschweißen mit Stanzelement : prozesstechnische und werkstoffliche Besonderheiten von Aluminium-Stahl-Blechverbindungen. - Ilmenau : Universitätsverlag Ilmenau, 2019. - XIX, 165 Seiten. - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 7)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-199-7

Aluminium und Stahl sind Leichtbauwerkstoffe und im Automobilbau nicht mehr wegzudenken. Beide Werkstoffe miteinander zu verbinden, stellt besonders die Fügetechnik vor großen Herausforderungen. Das Fügen mittels Widerstandspunktschweißen oder anderen thermischen Fügeverfahren führt beim Verbinden von Aluminium mit Stahl in der Regel zur Ausbildung von intermetallischen Phasen. Zusätzlich erschweren die unterschiedlichen Eigenschaften der beiden Werkstoffe den Schweißprozess und damit einen Einsatz im Fahrzeugbau. Aufgrund der hohen Zugfestigkeit höchstfester Stähle gelangen mechanische Fügeverfahren, wie beispielsweise das Halbhohlstanznieten, ebenfalls an ihre Prozessgrenzen. Mit Hilfe eines zusätzlichen Stanzelements wurde ein neuartiger Ansatz zum Widerstandspunktschweißen von Aluminium und Stahl entwickelt und dessen prozesstechnische und werkstoffliche Besonderheiten erforscht. Das Ziel war die Bestimmung der Verbindungsausbildung vom Stanzelementprozess und der Einfluss der Schweißlinsenbildung auf die Charakteristik der Gesamtverbindung. In den Untersuchungen konnte die Buckelhöhe als grundlegende Prozessgröße identifiziert werden. Weiterhin wurde festgestellt, dass die Schmelzenbildung im Stahl beginnt. Die Untersuchungen der Schweißlinsenbildung und deren Einfluss auf die Elementverformung brachte die Erkenntnis, dass die Ausprägung des Stanzelements im Aluminiumsubstrat dominierend durch den Stanzelementprozess gesteuert wird. Eine thermische Belastung innerhalb der Schweißbereichsgrenzen beeinflusst die geometrischen Kennwerte nur geringfügig. Mithilfe einer eigens entwickelten Kopfzugmethode konnte der Nachweis erbracht werden, dass die Vorbelastung des Stanzelements einen Einfluss auf das Versagensverhalten hat. Zudem war es mit dieser Prüfung möglich, die Verbindungsfestigkeiten sowohl nach dem Primär- als auch nach dem Sekundärprozess zu bestimmen. Der Vergleich der Kopfzugkräfte ergab eine festigkeitsmindernde Wirkung des Schweißprozesses. Untersuchungen des Aluminiumsubstrates zeigten Erholungs- und Rekristallisationsvorgänge entlang der Prozesskette, welche als Ursache für die festigkeitsmindernde Wirkung identifiziert wurde. Eine Möglichkeit zur Erhöhung der Verbindungsfestigkeit konnte durch eine nachträgliche Ausscheidungshärtung des Aluminiummaterials erreicht werden.



Sass, Florian;
Beitrag zur Systemsicherheit durch kurative Maßnahmen von HGÜ-Systemen. - Ilmenau : Universitätsverlag Ilmenau, 2019. - XII, 187 Seiten. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik : IBEGA ; Band 24)
Technische Universität Ilmenau, Dissertation 2018

ISBN 3-86360-195-5

Das europäische Energiesystem unterliegt derzeit einem strukturellen Wandel. Auslöser sind der verstärkte Zubau erneuerbarer Energieträger und ein sinkender Einsatz der konventionellen verbrauchernahen Kraftwerke. Um den steigenden Leistungstransiten begegnen zu können, sind Netzausbaumaßnahmen geplant, die auch den Einsatz von selbstgeführten HGÜ-Systemen umfassen. Um die Systemsicherheit trotz verzögertem Netzausbau zu gewährleisten, greifen die Übertragungsnetzbetreiber zunehmend auf kostenintensive Redispatch-Maßnahmen zurück. Ein koordinierter Einsatz kurativer Maßnahmen innerhalb des Netzbetriebs stellt derzeit einen relevanten Untersuchungsgegenstand dar, da kurative Maßnahmen eine senkende Wirkung auf den Redispatch-Aufwand versprechen. Die zukünftigen HGÜ-Systeme bieten neue Freiheitsgrade innerhalb der Netzbetriebsführung, die auch zur Erbringung kurativer Maßnahmen genutzt werden können. Wie diese den unterschiedlichen Phänomenen der Systemsicherheit zugeordnet werden können, wird in dieser Arbeit beschrieben. Der Hauptbeitrag liegt im Entwurf eines Verfahrens zur automatisierten Ausführung eventbasierter kurativer Anpassungen der Umrichter-Arbeitspunkte zur Beseitigung von Verletzungen der Systemsicherheit. Das in dieser Arbeit vorgestellte Verfahren wird als HGÜ-RAS bezeichnet. Die Umsetzung erfordert eine Identifikation kritischer Events, eine systemweite Koordination der Arbeitspunktänderungen, sowie einen geeigneten Ansatz zur netzverträglichen Ausführung dieser. Die Anforderungen werden durch drei Komponenten (Identifikation, Berechnung und Aktivierung) umgesetzt, die auch außerhalb des HGÜ-RAS in ähnlichen Problemstellungen Anwendung finden können. Der Methodenentwurf erfolgt unter stetiger Berücksichtigung von - aus Sicht der Übertragungsnetzbetreiber - interessanten Aspekten, um eine mögliche Einbindung in den bestehenden Netzbetrieb zu ermöglichen. Die Realisierbarkeit und Umsetzung der einzelnen Komponenten, sowie des gesamten HGÜ-RAS werden durch stationäre und dynamische Betrachtungen bewiesen. Dazu wird ein geeignetes AC-HGÜ-Benchmarknetz entworfen. Alle Betrachtungen erfolgen zunächst für ein vermaschtes HGÜ-Netz, können aber, wie in einem zusätzlichen Fallbeispiel gezeigt, auf einzelne HGÜ-Verbindungen übertragen werden. Die vorgestellte Methode schafft ein Werkzeug zur Erweiterung der bestehenden Netzbetriebsführung.



Wendl, Michael;
Lokalisierung von Störlichtbögen im Photovoltaiksystem. - Ilmenau : Universitätsverlag Ilmenau, 2019. - XXV, 189 Seiten. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik ; Band 25)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-201-7

Gegenstand der vorliegenden Arbeit ist die Erforschung, Verifikation und Validierung von Methoden zur automatischen Lokalisierung von Störlichtbögen im Photovoltaiksystem. Von besonderem Interesse ist hierfür das Verhalten der Brennspannung von Störlichtbögen in Photovoltaik- (PV-) Anlagen bei variablen Umgebungsbedingungen. Es wurden systematisch die hochfrequenten Signalanteile der Brennspannung von Gleichstrom-Lichtbögen im Frequenzbereich von 1 . . . 500 kHz untersucht und dabei realistische Umgebungsbedingungen gewählt, wie sie in Photovoltaikanlagen vorherrschen. Der Strom im Lichtbogen wurde von 2 . . . 17 A, der Elektrodenabstand von 0,2 . . . 4 mm variiert und als Elektrodenmaterialien wurden Kupfer, Aluminium und ein unlegierter Baustahl eingesetzt. Dabei wurde ein von der Literatur abweichender Verlauf des Leistungsdichtespektrums beobachtet, welcher meist für Lichtbögen mit höheren Strömen beschrieben wird. Durch Experimente mit Lichtbögen bei variabler Lastimpedanz konnte gezeigt werden, dass sich der Lichtbogen als hochfrequente Spannungsquelle beschreiben lässt. Basierend auf Charakterisierungsmessungen wurden Ersatzschaltbilder der Bestandteile eines Photovoltaiksystems bei verschiedenen Arbeitspunkten parametrisiert und damit eine reale PV-Anlage als Netzwerk modelliert. Die Simulation von seriellen Störlichtbögen im Photovoltaiksystem mit PSpice zeigte wie sich das Leistungsdichtespektrum des PV-Stroms bei unterschiedlichen Umgebungsbedingungen und Anlagenkonfigurationen verhält. Anhand von Simulationsergebnissen wurden verschiedene Konzepte zur automatischen Lokalisierung von Störlichtbögen in Photovoltaikanlagen bewertet. Das zielführendste Konzept wurde als Prototyp realisiert und einem Praxistest unterzogen. Dieses System war in der Lage, in einer realen Photovoltaikanlage alle dort gezündeten Lichtbögen korrekt zu lokalisieren. Im Rahmen der Forschungsarbeiten entstand ein Konferenzbeitrag (reviewed) zur "27th International Conference on Electrical Contacts" (ICEC) 2014 in Dresden: "HF Characterization of Low Current DC Arcs at Alterable Conditions" [142] Aufbauend auf den gewonnenen Erkenntnissen wurden folgende Erfindungen zum Patent angemeldet: 1. DE 102014226999 A1: Verfahren und Vorrichtung zum Erkennen eines Lichtbogens in einer Fotovoltaikanlage [141] 2. DE 102015204376 A1: Verfahren und Vorrichtung zum Erkennen eines Lichtbogens [144] 3. DE 102013219490 A1: Verfahren und Vorrichtung zum Lokalisieren eines Lichtbogens in einem Strompfad einer Fotovoltaikanlage [140] 4. DE 102013219494 A1: Verfahren und Vorrichtung zum Bestimmen einer Modultemperatur eines Photovoltaikmoduls [139] 5. DE 102012217878 A1: Verfahren und Vorrichtung zum Erkennen zumindest einer aktiven Bypassdiode in einem Photovoltaiksystem [90] 6. DE 102014223593 A1: Verfahren und Vorrichtung zum Ermitteln eines Degradationszustandes eines Fotovoltaikmoduls [143].



Benkenstein, Andreas;
Die besonderen Bedingungen der Abscheidung von diamantähnlichen Kohlenstoffschichten in Hohlkathodenanordnungen mit hohen Aspektverhältnissen. - Ilmenau : Universitätsverlag Ilmenau, 2019. - 203 Seiten
Technische Universität Ilmenau, Dissertation 2018

ISBN 3-86360-200-5

In dieser Arbeit wurde eine Hohlkathodenentladung (engl.: hollow cathode discharge, kurz HCD) und die damit erzeugte diamantartige Kohlenstoffschicht (engl.: diamond-like carbon, kurz DLC) in einer Sacklochgeometrie untersucht. Es wurde eine keramische Kapillare zur Gasführung verwendet, welche über eine Positionierungsstrecke von außerhalb des Sacklocheinganges bis nahe an das innere Sacklochende verfahren wurde. Zur elektrischen Anregung wurde eine gepulste Gleichspannung mit einer Frequenz von 200 kHz direkt an den Probenkörper angeschlossen. Das Hauptziel war die Erarbeitung eines Grundlagenverständnisses über die Wirkmechanismen bei der Plasmagenerierung und der DLC-Beschichtung. Aufbauend auf die Analyse der Gasdruckverteilung und des Anregungssignals wurden Spannungs-Strom-Charakteristiken unter Argonatmosphäre bestimmt. Dabei konnte die Spannungs-Strom-Charakteristik in drei Bereiche unterteilt werden: die anormale Glimmentladung, die Hohlkathodenentladung und ein Übergang zur Lichtbogenentladung. Anhand eines Referenzprozesses wurden DLC-Schichten hergestellt. Die Haupteinflussgrößen elektrische Spannung und Gasdruck wurden während des Argonbombardements zur Plasmafeinreinigung in Bezug auf die Schichthaftung untersucht. Eine Verbesserung der Schichthaftung konnte durch die mit der Spannungssteigerung einhergehende Leistungserhöhung beobachtet werden. Der positive Effekt einer Re-Depositionsschicht aus Kathodenmaterial auf die Schichthaftung konnte nachgewiesen werden. Die Einflüsse auf die Schichteigenschaften wie Wachstumsraten, sowie Schichtdickenprofile und Schichthärte auf der Probenlängsachse konnten messtechnisch identifiziert werden. Die Schichtbereiche mit unterschiedlichen Wachstumsraten hängen stark von der Kapillarenposition ab. In weiteren Beschichtungsexperimenten wurden der Gesamtdruck, die elektrische Anregungsspannung und das Verhältnis aus Reaktivgas und Arbeitsgas variiert. Eine Unterscheidung von Bereichen nach Druck und aktiver Kathodenfläche in der Hohlkathode bei eingefahrener Kapillare konnte vorgenommen werden. Nachdem die Einflussgrößen und Mechanismen in den einzelnen HCD-Zonen identifiziert und analysiert wurden, werden die Prozesse zur Beschichtung von Sacklochgeometrien beherrscht. Aufbauend auf den Ergebnissen der Arbeit können die Parameter der Beschichtung in einer Sacklochgeometrie gezielt verändert werden.



Bernhart, Tobias;
Methodik zur Konzeption und Auslegung von Radbremsen für PKW mit elektrischem Antriebsstrang. - Ilmenau : Universitätsverlag Ilmenau, 2019. - XVIII, 194 Seiten. - (Kraftfahrzeugtechnische Berichte ; Band 9)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-194-2

Angesichts der steigenden Elektrifizierung des Antriebsstrangs, schärferen gesetzlichen Anforderungen, beispielsweise hinsichtlich Feinstaubemissionen, sowie der stärkeren Entlastung des Fahrers durch weiterentwickelte, intelligente Assistenzsysteme und automatisiertes Fahren, steht die Automobil- und Zuliefererindustrie vor neuen Herausforderungen. In der vorliegenden Arbeit werden Methoden zur Konzeption und Auslegung von Radbremsen für PKW mit elektrischem Antriebsstrang entwickelt. Durch die Rückgewinnung kinetischer Energie beim Bremsvorgang (Rekuperation) wird die Radbremse thermisch entlastet. Jedoch sind derzeit keine automobilen Serienanwendungen bekannt, bei denen komplett auf die konventionelle Reibbremse verzichtet werden kann. Nach der Definition des Forschungsbedarfs werden, basierend auf der systematischen Evaluierung der Rückwirkungen der Rekuperation auf die thermische Belastung der Radbremsen und der Quantifizierung des Verschleißverhaltens, Empfehlungen zur konstruktiven Ausführung der Radbremsen abgeleitet. Bei der Quantifizierung der thermischen Beanspruchung werden sowohl leistungsorientierte Tests als auch die alpine Passabfahrt und kundennahe Fahr- und Verbrauchszyklen berücksichtigt. Das Verschleißverhalten der Radbremsen wird am Schwungmassenprüfstand und durch eine Feldstudie untersucht. Mit Blick auf die steigenden Vorgaben an die Reduktion des CO2-Ausstoßes und der Feinstaubemissionen ergeben sich neue Sichtweisen bezüglich der Dimensionierung in Richtung Leichtbau durch Downsizing und neuer Auslegungszyklen, nachdem das Kundennutzungsverhalten an den aktuellen Standards der Bremsenentwicklung gespiegelt wurde. Die Entwicklungstrends auf dem Gebiet des elektrischen Antriebsstrangs, die Wirtschaftlichkeit, die gesetzlichen Rahmenbedingungen und die Anforderungen der Märkte werden in die Methodik integriert. Durch die detaillierten Betrachtungen wird ein Beitrag zur energieeffizienten Auslegung eines PKW mit elektrischem Antriebsstrang geleistet und ein Ansatzpunkt zur Vermeidung von Überdimensionierungen am Beispiel der Radbremse aufgezeigt.



Wolfram, Martin;
Netzbetriebsverfahren zur Koordinierung von Phasenschiebertransformatoren und HGÜ-Verbindungen im Verbundnetz. - Ilmenau : Universitätsverlag Ilmenau, 2019. - X, 150 Seiten. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA) ; Band23)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-192-8

Die Übertragungsnetzbetreiber (ÜNB) reagieren auf entstehende Überlastungen einzelner AC-Leitungen sowohl mit dem Ausbau des AC-Netzes als auch mit der vermehrten Integration von Power Flow Controlling Devices (PFCD), wie Phasenschiebertransformatoren (PST) und Hochspannungsgleichstromübertragungen (HGÜ), die eine definierte Beeinflussung der AC-Wirkleistungsflüsse ermöglichen. Gleichzeitig verändert der Einsatz der PFCDs auch die Wirkleistungsflüsse auf weiter entfernten AC-Leitungen in anderen Regelzonen. Zur Vermeidung von negativen Wechselwirkungen zwischen PFCDs widmet sich die Arbeit der Fragestellung, wie sich geeignete Arbeitspunkte von PSTs und HGÜs, basierend auf Voltage Source Converter (VSC), zur Wahrung der Netzsicherheit bestimmen lassen. Dazu wird ein Netzbetriebsverfahren entworfen, dass unterschiedliche Methoden zur Koordinierung der PFCDs verwendet, um so auf die verschiedenen zeitlichen Gegebenheiten während der Netzbetriebsplanung und der Netzbetriebsführung einzugehen. Dementsprechend unterteilt sich das Netzbetriebsverfahren in die vorausschauende Planung von PST- und HGÜ-VSC-Netzbetrieb im Day-Ahead und Intraday Zeitbereich sowie in Methoden zur Anpassung der PST- und HGÜ-VSC-Sollwerte bei unplanmäßigen Wirkleistungsflussänderungen im Onlinebetrieb. Dabei wird in der Netzbetriebsplanung die Optimierung der Arbeitspunkte von einer zentralen Instanz koordiniert durchgeführt. Im Onlinebetrieb ist dieser kommunikationsintensive Datenaustausch aufgrund der geforderten kurzen Reaktionszeit auf Störungen nicht möglich. Entsprechend wird bei diesen Methoden auf lokal verfügbare Daten zurückgegriffen. Die Validierung der entworfenen Methoden zur Optimierung der PST- und HGÜ-VSC Sollwerte erfolgt mithilfe numerischer Fallstudien. Ein dafür entworfenes Testnetz ermöglicht eine Abbildung verschiedener Leitungsbelastungssituationen sowie unterschiedlicher Störungen. In den durchgeführten Untersuchungen wird gezeigt, dass die vorgestellten Methoden ein geeignetes Netzbetriebsverfahren für den optimalen Einsatz von PSTs und HGÜ-VSCs darstellen. Einschränkungen ergeben sich bei größeren Störungen, in denen die technischen PFCD-Anpassungsmöglichkeiten nicht ausreichend sind. In diesem Fall sind geeignete weitere Maßnahmen einzuleiten.



Schricker, Klaus;
Charakterisierung der Fügezone von laserbasiert gefügten Hybridverbunden aus teilkristallinen thermoplastischen Kunststoffen und Metallen. - Ilmenau : Universitätsverlag Ilmenau, 2018. - 204 Seiten. - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 8)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-202-4

Das thermische Fügen ermöglicht die direkte Herstellung von Kunststoff-Metall-Verbunden ohne Verwendung von Zusatzstoffen oder Fügehilfselementen. Im Rahmen der Arbeit wurde die Fügezone zwischen teilkristallinen Kunststoffen und Metallen im laserbasierten Fügen beschrieben und der Einfluss auf die mechanischen Verbundeigenschaften ermittelt. Zur Abbildung eines breiten Anwendungsspektrums wurden die Untersuchungen anhand von Aluminium (EN AW 6082) und Stahl (X5CrNi18-10) sowie für PA 6, PA 6.6 und PP durchgeführt. Die Charakterisierung der Fügezone erfolgte an Punktverbindungen sowie unter Einsatz eines Halbschnittversuchsstandes. Auf Basis von experimentellen Untersuchungen sowie der thermischen Simulation konnte die Fügezone anhand charakteristischer Isothermen verallgemeinert werden. Darauf aufbauend wurden wesentliche Vorgänge innerhalb der Fügezone (Schmelzen/Erstarren, Blasenbildung, Strömung) erfasst und mit dem Temperaturfeld bzw. werkstoffspezifischen Eigenschaften verknüpft. Die Schmelzzone innerhalb des Kunststoffes ist dabei maßgeblich für die Verbundherstellung zwischen beiden Werkstoffen und weist gegenüber dem Grundwerkstoff eine veränderte Morphologie sowie modifizierte Materialeigenschaften auf. Die Größe der Schmelzzone zeigt eine hohe Sensitivität gegenüber der Materialstärke des metallischen Fügepartners, der Laserstrahlleistung sowie dem Schmelzintervall des Kunststoffes. Im Hinblick auf die Verbundentstehung wurde die Bedeutung der Temperaturverteilung gegenüber der Fügezeit zur Füllung der Oberflächenstrukturen sowie eine unterstützende Wirkung der Volumenzunahme im Phasenübergang fest-flüssig nachgewiesen.Die gewonnen Erkenntnissen wurden auf Überlappverbindungen übertragen und die Fügezone in Abhängigkeit der Streckenenergie charakterisiert. Darauf aufbauend erfolgte die Untersuchung der mechanischen Eigenschaften eines Verbundes aus PA 6 mit EN AW 6082 hinsichtlich des kohäsiven Versagensverhaltens. Steigende Streckenenergien führten zu einer verringerten Duktilität des Verbundes in der mechanischen Kurzzeitprüfung sowie zu einer nachteiligen Beeinflussung des Ermüdungsverhaltens. Als maßgeblicher Effekt wurde die Sekundärkristallisation des Kunststoffes identifiziert, die auf eine Wärmebehandlung der Schmelzzone im Fügeprozess zurückgeführt und anhand von Auslagerungsversuchen an Vergleichsproben verifiziert werden konnte.



Brumm, Stefan;
Leistungssteigerung beim Lichtbogenschweißen durch Verwendung von Drahtelektroden größeren Durchmessers. - Ilmenau : Universitätsverlag Ilmenau, 2018. - xvii, 141 Seiten. - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 6)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-191-1

Bei der Herstellung geschweißter Konstruktionen ergeben sich heute aufgrund wirtschaftlicher Gesichtspunkte hohe Anforderungen an die Quantität, ohne dass dabei die Qualität vernachlässigt werden kann. Das Schweißverfahren bestimmt nicht nur die Mikrostruktur des erstarrten Gefüges und somit die mechanisch-technologischen Verbindungseigenschaften, sondern auch die Wirtschaftlichkeit. Bisher werden beim MSG-Schweißen Drahtelektroden mit Durchmessern bis zu 2,4 mm eingesetzt. In der vorliegenden Arbeit wurde untersucht, wie sich die Vergrößerung des Drahtelektrodendurchmessers auf den MSG-Prozess in seiner Gesamtheit auswirkt. Dafür wurde der Stand der Technik der Hochleistungslichtbogenschweißverfahren beleuchtet und ein Modell aufgestellt. Die experimentellen Versuche erfolgten mit einer vollelektronischen, sekundär getakteten Hochleistungs-Stromquelle und teilten sich in zwei Schwerpunkte. Zum einen zur Schaffung von Grundlagen zur Lichtbogenausbildung sowie zum Prozessverständnis und zum anderen zur Qualifizierung des MSG-Dickdraht-Verfahrens. Dabei stand die Wechselwirkung zwischen Lichtbogen und Schweißnaht im Mittelpunkt. Überprüft wurden mögliche technologische Vorteile. Für die Untersuchung kamen Massivdrahtelektroden (G3Si1) mit unterschiedlichen Durchmessern (dd = 3,2 und 4,0 mm) zum Einsatz. Zur Prozess- und Lichtbogenanalyse wurde auf einem rohrförmigen Probekörper aus niedrig legiertem Stahl sowohl mit CV- als auch CC-Charakteristik geschweißt. Messtechnisch erfasst wurden Stromstärke und Spannung. Synchronisierte Hochgeschwindigkeitsaufnahmen dienten der Betrachtung und Beurteilung von Tropfenentstehung, -ablösung und Lichtbogenausbildung sowie Schmelzbaddynamik. Für die Ermittlung der Schweißverbindungseigenschaften wurden Bleche mit den Dicken von 12, 15 und 20 mm geschweißt. Durch Versuche konnte die optimale Schutzgaszumischung von 30 % Ar Rest CO2 in Bezug auf die Spritzerbildung und das innere sowie äußere Nahtaussehen ermittelt werden. Höhere Anteile an Ar waren nicht zielführend. Die umfassende Prozess- und Lichtbogenanalyse zeigte, dass beim MSG-Schweißen mit "dicken" Drahtelektroden die klassische schweißleistungsabhängige Einteilung der Lichtbogenarten, wie vom MSG-Schweißen mit Drahtdurchmessern bis 1,6 mm bekannt, in Kurz-, Übergangs- und Sprühlichtbogen nicht möglich ist. Ein sehr kurzer Lichtbogen, der unterhalb der Blechoberfläche brennt, erwies sich in allen untersuchten Leistungsbereichen als vorteilhaft, da die Spritzerhäufigkeit mit Steigerung der Lichtbogenlänge zunimmt. Aufgrund der hohen Regelgeschwindigkeit der Schweißmaschine ist ein Schweißen mit solch kurzen Lichtbögen möglich. Bei langen Lichtbögen, die aus der Blechoberfläche heraustreten, wird das Schweißgut aus dem Bereich der Fügezone verdrängt und es kommt zum "Schneid-Effekt". Das Lichtbogenplasma ist dominiert von Metalldampf. Dadurch hat die Schutzgaszusammensetzung keinen wesentlichen Einfluss auf die innere Schweißnahtgeometrie. Vergleichende Schweißversuche zeigten, dass bei Verwendung der CC-Kennlinie sowohl der Prozess stabiler abläuft als auch die Spritzerbildung geringer ist als bei Nutzung der CV-Kennlinie. Bei jeder Tropfenablösung ändert sich die Lichtbogenlänge, die durch die Regelung der Schweißmaschine ausgeglichen wird. Eine Delta U-Regelung verursacht eine Spannungsänderung, die sich auf eine spritzerarme Tropfenablösung positiv auswirkt. Hingegen verursacht die Delta I-Regelung bei einer Lichtbogenlängenänderung Stromschwankungen von bis zu 400 A, was dazu führt, dass die Tropfen unter Entstehung vieler Spritzer regelrecht weggesprengt werden. Für die Schweißverbindungen wurde deshalb mit der CC-Kennlinie gearbeitet. Beim UP-Schweißen wird die Schweißmaschinen-Kennlinie nach dem Drahtdurchmesser gewählt. Eine solche Auswahl kann beim MSG-Dickdraht-Schweißen nicht erfolgen. Die vom UP-Schweißen bekannte Faustformel der Strombelastbarkeit der Drahtelektrode von 200 multipliziert mit dem Drahtdurchmesser (Ergebnis in Ampere) kann für das MSG-Dickdraht-Schweißen angewendet werden. Es ist ein stabiler Prozess mit akzeptabler Schweißnahtqualität beim MSG-Schweißen mit einem Drahtelektrodendurchmesser von 3,2 mm und einer Stromstärke von 640 A möglich. Abschmelzleistungen von über 8 kg/h sind ohne Weiteres erreichbar. Durch Änderung der Streckenenergie infolge der Erhöhung der Stromstärke ist die Einschweißtiefe beeinflussbar. Ein weiterer Einflussfaktor auf die innere Schweißnahtgeometrie ist die Schweißgeschwindigkeit. Eine Steigerung der Schweißgeschwindigkeit führt aufgrund der Senkung der Streckenenergie zur Reduzierung der Einschweißtiefe. Mit dem verwendeten Versuchsaufbau konnte eine maximale Schweißgeschwindigkeit von 120 cm/min realisiert werden. Die obere und untere Grenze für die Schweißgeschwindigkeit ist abhängig von der Schweißleistung. Im Vergleich mit dem UP-Schweißen ist in Bezug auf die Nahtausbildung festzuhalten, dass die Oberflächenschuppung und Formung des Nahtäußeren beim UP-Schweißen wesentlich besser ausfällt. Eine Einstellung der Nahtbreite über die Lichtbogenspannung, wie es beim UP-Schweißen möglich ist, kann bei MSG-Dickdraht-Schweißen aufgrund der sehr kurz einzustellenden Lichtbögen nicht realisiert werden. Die Nahtbreite ist nur geringfügig über die Schweißgeschwindigkeit einstellbar. Es muss erwähnt werden, dass das MSG-Dickdraht-Schweißen im Gegensatz zum UP-Schweißen ein sehr sensibler Prozess ist, bei dem kleinste Prozessinstabilitäten zu Poren und -nestern im Schweißgut führen können. Um die Qualität der Schweißverbindung zu bestimmen, wurden verschiedene zerstörungsfreie und zerstörende Prüfverfahren eingesetzt. Die Sichtprüfungen sowie die Farbeindringprüfungen ergaben, dass die Schweißnähte hinsichtlich der Oberfläche in Bezug auf Einbrandkerben, Oberflächenporen und Risse bis auf wenige Ausnahmen eine hohe Qualität aufwiesen. Bei der Durchstrahlungsprüfung wurde festgestellt, dass aufgrund einer diskontinuierlichen Drahtförderung und Schweißbewegungen Poren im Nahtinneren entstanden. Porenfreie Schweißnähte können aber bei exakter Drahtförderung und kontinuierlicher Schweißgeschwindigkeit prozesssicher erzeugt werden. Härtespitzen im Bereich der Wärmeeinflusszone an der Schmelzlinie erreichen Maximalwerte von 326 HV10. Darüber hinaus erwies sich die Kerbschlagzähigkeit des Schweißgutes als weitaus besser als die des Grundwerkstoffes. Die Zugproben versagten bis auf eine Ausnahme im Grundwerkstoff. Ursache hierfür war ein Porennest am Nahtende, welches durch die oben genannte Prozessinstabilität entstand. Bei Einhaltung aller prozessbedingten Besonderheiten und unter Beachtung der verfahrensspezifischen Randbedingungen können mit dem MSG-Dickdraht-Verfahren anforderungsgerechte Schweißnähte hergestellt werden. Die Untersuchungen ergaben, dass die Lage/Gegenlage-Technik empfehlenswert ist. Schweißungen an 20 mm Blechen konnten mit einer Lage pro Seite und Schweißgeschwindigkeiten von bis zu 90 cm/min prozesssicher ausgeführt werden.



Sen, Seema;
Development of PVD-coated and nanostructured reactive multilayer films. - Ilmenau : Universitätsverlag Ilmenau, 2018. - XVII, 166 Seiten. - (Werkstofftechnik aktuell ; Band 19)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-189-8

Als eine neue Klasse von energetischen Materialien speichern die reaktiven Multilagensysteme die chemische Energie. Sie setzen eine große Menge der Energie durch eine schnelle Reaktionspropagation nach einer Aktivierung in der Form von Wärme frei. Im Zusammenhang mit dem zunehmenden Potenzial in den hochmodernen Fügetechnologien und den anderen Industrieanwendungen finden solche Typen von reaktiven Mehrschichtensystemen große Aufmerksamkeit. Das hohe Interesse konzentriert sich auf die Anwendung der sehr schnellen und lokalisierten Energie Freisetzung. Die Kenntnisse über die Materialkombinationen und Morphologie spielt eine wichtige Rolle, um reaktive Mehrschichtensysteme mit entsprechenden Reaktionseigenschaften und Wärmemenge herzustellen. Im Mittelpunkt dieser Arbeit stehen daher die Entwicklung der Schichtweise abgeschiedenen reaktiven Multilagenschichten und die Charakterisierung der Reaktionseigenschaften. Die eingestellten Bereiche können wie folgt zusammengefasst werden; - Die reaktiven Multilagenschichten von binären Ti-Al, Zr-Al und ternären Ti-Al-Si Kombinationen wurden mittels Magnetronsputtern-Deposition produziert, die zu der niedrigen Medium oder hohen Energieklasse gehören. - Die selbstverbreitenden Reaktionseigenschaften wurden in Bezug auf Wärme, Temperatur, Reaktionsgeschwindigkeit und Propagationsweisen charakterisiert. - Herstellung der großflächigen freistehenden reaktiven Folien wurde aufgezeigt. Für die Bestimmung der Reaktionswärme wurde die Standardbildungsenthalpie zu Beginn der Arbeit durch thermodynamische Simulationen mit Thermo-Calc 3.1 berechnet. Die Menge der Reaktionswärme hängt von der chemischen Zusammensetzung des Ti-Al-, Zr-Al- und Ti-Si Systems ab. Dann wurden Ti/Al, Zr/Al und Ti/Si/Ti/nAl Multilagenschichten für unterschiedliche Periodendicken, Molverhältnisse und Multischichtaufbau abgeschieden. Die Ti/nAl (n = 1-3) reaktiven Multilagenschichten wurden mit verschiedenen Al-Molverhältnissen hergestellt. Die Reaktionsgeschwindigkeit änderte sich zwischen (0.68±0.4) m/s und (2.57±0.6) m/s. Die Reaktionstemperatur änderte sich im Bereich 1215-1298 &ring;C. Die 1Ti/3Al Schicht zeigt auch eine instationäre Reaktionspropagation mit der Kräuselungsbandbildung. Außerdem wurden der Temperaturfluss und die chemische Vermischung in nanoskalige Schichten von 1Ti/1Al Zusammensetzung (für 20 nm Periodendicke) erstmals mittels Strömung Simulation berechnet. Die Ergebnisse zeigten, dass der Temperaturfluss viel schneller als das chemische Mischen während der fortschreitenden Reaktion ist. Die 1Zr/1Al Schichten wurden mit der verschiedenen Periodendicken von 20 nm bis 55 nm untersucht. Die Reaktionsgeschwindigkeit und Reaktionstemperatur änderten sich im Bereich 0.23-1.22 m/s und 1581-1707 &ring;C. Hier wurde auch die Oxidationsreaktion während der fortschreitenden Reaktion aufgezeigt. Zum ersten Mal wurden ternäre Multilagenschichten von Ti, Si und Al-Reaktanten für verschiedene Schichtenanordnung (Si/Ti/Al/Si und Ti/Si/Ti/nAl, n = 1-3) abgeschieden. Hier, Reaktionseigenschaften hängten von Schichtenanordnung und Al-Molverhältnissen ab. Für den Ti/Si/Ti/Al Schicht konnte eine maximale Reaktionspropagation von (9.2±2) m/s und eine Reaktionstemperatur von (1807±30) &ring;C bestimmt werden. Danach wurden die vorgenannten ternären Folien erstmals in einem reaktiven Fügeprozess eingesetzt. Für die Herstellung großflächiger freistehenden RMS, würde der Einfluss der Substratwerkstoffe in Hinblick auf der Ablöseverhalten nach der Beschichtung untersucht. Die Verwendung des Kupfersubstrats zeigt eine einfache und schnelle Weise, freistehende Folie zu produzieren. Diese Methode ermöglicht die Produktion von freistehenden 1Zr/1Al und 1Ti/1Si/1Ti/Al Folien mit der großen Fläche von 11 cm × 2 cm × 45 [my]m und 8 cm × 4 cm × 52 [my]m. Außerdem zeigt diese Arbeit einen verbesserten Herstellungsprozess mit der Skalierbarkeit und homogenen Mikrostrukturen von Multilagenschichten. Die Untersuchungen in dieser Arbeit zeigen, dass die Zusammensetzung und Morphologie die Reaktionseigenschaften unmittelbar beeinflussen und bieten potenzielle Möglichkeiten als eine kontrollierbare Wärmequelle auf der Basis Ti/Al-, Zr/Al- und Ti/Si/Al RMS zur Verfügung stellen. Andererseits schließt die Reaktion die Effekte der Oxidation und instationären Reaktionspropagation ein, die dabei hilfreich wären, die Reaktionskinetik zu verstehen. Die Ergebnisse in dieser Arbeit können als ein Beitrag zu einem Modell um ideale RMS in Bezug auf Reaktionseigenschaften zu entwickeln.



Yeryomin, Yevgeniy;
Multikriterielle Handoverentscheidung für moderne mobile heterogene Kommunikationsnetze. - Ilmenau : Universitätsverlag Ilmenau, 2018. - xv, 169 Seiten
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-188-1

Die Konvergenz der modernen mobilen Kommunikationsnetze zum Next Generation Network (NGN) und der Einsatz von Multimode-Endgeräten resultieren in einer Kommunikationsumgebung mit mehreren verfügbaren Kommunikationswegen zwischen einem Endgerät und dem Kernnetz. Dabei spielen die Mobilität und demzufolge der Handover eine entscheidende Rolle. Um während einer Handoverentscheidung den Anforderungen verschiedener mobilen Anwendungen zum Beispiel in Bezug auf Quality of Service (QoS) oder Sicherheit Genüge zu tun, sind traditionelle Handoverentscheidungsmethoden aus den Mobilfunknetzen, die im Wesentlichen auf der Auswertung der Empfangssignalstärke basieren, nicht mehr ausreichend. Deswegen wurde in den letzten Jahren eine Reihe von multikriteriellen Handoverentscheidungsmethoden vorgeschlagen. In den vorgeschlagenen Methoden wurden die Themen wie Anwendungssensitivität und Flexibilität der Konfiguration der Handoverentscheidung nicht tief genug analysiert. Weiterhin sind die Optimierungspotentiale während der Handoverentscheidung nicht ausreichend untersucht. Diese Arbeit adressiert die oben angesprochenen Themen und liefert eine Lösung in Form eines FLexible Application-Sensitive HandovEr Decision Frameworks, kurz FLASHED-Framework. Das FLASHED-Framework ist die Implementierung eines multikriteriellen Handover-Entscheidungsalgorithmus, der auf der multikriteriellen Entscheidungsanalyse Multiple-Criteria Decision Making (MCDM) beruht. Das FLASHED-Framework ermöglicht eine flexible, anwendungsabhängige und strukturierte Konfiguration der für eine Handoverentscheidung relevanten Informationssätze. Außerdem sind im FLASHED-Framework drei Handover-Entscheidungsalgorithmen implementiert, die die Optimierungsziele der Nutzer und der Netzwerkbetreiber repräsentieren und mit deren Hilfe die alternativen Kommunikationswege bewertet werden. Zwei dieser Algorithmen wurden im Rahmen der Untersuchungen der Optimierungsmöglichkeiten für eine Handoverentscheidung durch die Reduzierung der überschüssigen Kapazitäten in Abhängigkeit von Anwendungsanforderungen entwickelt. Beim dritten Algorithmus handelt es sich um einen lastverteilungsorientierten Handover-Entscheidungsalgorithmus. Die Verifizierung des vorgeschlagenen und implementierten FLASHED-Frameworks inklusive der vorgeschlagenen Entscheidungsalgorithmen erfolgt in einer im Rahmen dieser Arbeit weiterentwickelten Version der Simulationsumgebung OMNeT++/INET.



Thomisch, Marco;
Methodik zur Bestimmung optimaler Parameter beim Drahtumformen. - Ilmenau : Universitätsverlag Ilmenau, 2018. - XIX, 202 Seiten. - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; Band 31)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-187-4

Mehrstufige Drahtumformprozesse stellen die fertigungstechnische Grundlage für technisch anspruchsvolle Bauteile dar. Bei diesen mehrstufigen Prozessen ist die Ermittlung der resultierenden Eigenspannungen sowohl analytisch als auch numerisch bisher nur bedingt möglich. Zielsetzung der vorliegenden Arbeit ist die Bereitstellung einer Methodik zur Bestimmung der optimalen Parameter beim Drahtumformen. Als erstes wird die zur Beschreibung des Umformvorgangs nötige Werkstoffcharakterisierung durchgeführt. Diese Charakterisierung basiert auf Experimenten, die sowohl den BAUSCHINGER-Effekt als auch Ver- und Entfestigungsmechanismen untersuchen und quantifizieren. Darauf aufbauend folgt der zweite Teilbereich, die analytische Beschreibung des mehrstufigen Umformprozesses. Durch Anwendung dieses deskriptiven Algorithmus werden sowohl die (Eigen-)Spannungen als auch die elastischen und plastischen Verformungen zu jedem Zeitpunkt des Umformvorgangs bestimmt. Als dritter Teilbereich werden verschiedene Optimierungsalgorithmen mit unterschiedlichen Zielsetzungen für den deskriptiven Algorithmus vorgestellt.



Lux, Rüdiger;
Wärmebehandlung von SiCr-legiertem, ölschlussvergütetem Federstahldraht. - Ilmenau : Universitätsverlag Ilmenau, 2018. - XXI, 149 Seiten. - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; Band 30)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-185-0

Diese Arbeit befasst sich mit der Frage, inwieweit durch die Kombination der Wärmebehandlungsschritte der Draht- und Federnfertigung die mechanische Auslastbarkeit und die Lebensdauer von Schraubendruckfedern gesteigert werden können. Es wird ein analytisches Modell vorgestellt, welches die Berechnung von Temperatur - Zeit - Verläufen der Drahtvergütung ermöglicht. Anhand von Laborversuchen werden für jeden Teilprozess der Wärmbehandlung optimale Regime bestimmt, die Kenngrößen für die analytische Berechnung ermittelt sowie das Berechnungsmodell validiert. Verschiedene Einflussfaktoren auf die Gefügeausbildung des Drahtmaterials sowie die Auswirkungen aller Prozessabschnitte auf die mechanischen Eigenschaften des vergüteten Feder-stahldrahtes werden diskutiert. Es wird dargelegt, dass torsionsbelastete Federn aus optimiert hergestelltem Material einen deutlich gesenkten Setzbetrag sowie im Rahmen von Dauerschwingversuchen eine gesteigerte Lebensdauer im Zeitfestigkeitsbereich aufweisen.



Scheel, Jörg;
Schaltzustandsoptimierung von 110-kV-Verteilnetzen zur Maximierung des Abtransports von Einspeisungen aus erneuerbaren Energiequellen. - Ilmenau : Universitätsverlag Ilmenau, 2018. - XI, 125 Seiten. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA) ; Band 22)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-190-4

Die elektrischen Energieversorgungsysteme der Bundesrepublik Deutschland sind seit Jahren aufgrund energiepolitischer Vorgaben durch Veränderungen der Erzeugungsstruktur geprägt. Infolge der gezielten Förderung regenerativer Erzeugungsanlagen kam es zu einem massiven Zubau regenerativer Erzeugungsleistung im Bereich der Verteilnetze, der sich bis heute fortsetzt. In einigen Regionen überschreitet die installierte regenerative Erzeugungskapazität bereits die Spitzenlast der unterlagerten Mittelspannungsnetze erheblich, so dass es in ungünstigen Einspeisesituationen zu Überlastungen im Hochspannungsnetz kommen kann. Um die Netz-sicherheit zu gewährleisten, sind die Verteilnetzbetreiber in diesen Situationen gezwungen die Einspeisung aus regenerativen Erzeugungsanlagen zu reduzieren. Diese betrieblichen Eingriffe werden weiter zunehmen, da die Umsetzung von Netzverstärkungs- und Ausbauprojekten nicht mit der kontinuierlich steigenden Integration neuer Erzeugungsanlagen Schritt halten kann. In den überwiegend vermascht betriebenen Hoch- und Höchstspannungsnetzen kann die Anpassung der Netztopologie an die zu erwartende Einspeise- und Lastsituation ein geeignetes Mittel zur Engpassbeseitigung und zur Erhöhung der Transportkapazität darstellen. Die vorliegende Arbeit widmet sich daher der Fragestellung, welche Energiemenge aus regenerativen Erzeugungsanlagen durch eine Schaltzustandsoptimierung bestehender 110-kV-Verteilnetze zusätzlich eingespeist werden kann. Für die Beantwortung der Fragestellung wird ein erweitertes Engpassmanagement-Verfahren vorgeschlagen, das neben den topologischen Freiheitsgraden auch weiteren betrieblichen Anpassungsmaßnahmen, wie z. B. das Einspeisemanagement berücksichtigt. Zur Bewertung des Netzbetriebszustandes erfolgt die Integration der aus der Netzsicherheitsrechnung bekannten Verfahren der Lastfluss- und (n-1)-Ausfallsimulation. In dieser Arbeit wird ein neuartiger, für diskrete Problemstellungen konzipierter Partikel-Schwarm-Optimierungsalgorithmus auf das vorliegende Problem der Schaltzustandsoptimierung zur Beseitigung von Engpässen adaptiert. Dieser Algorithmus hat sich als besonders robust für das vorliegende Optimierungsproblem erwiesen und gestattet auch im Hinblick auf die wechselnden Anforderungen der Netzbetriebsführung die Formulierung weiterer, beliebiger Optimierungsziele. Zur Reduzierung der Anzahl der diskreten Entscheidungsvariablen wird eine neuartige Modellierungsmethode für Quer- und Vollkupplungen vorgeschlagen. Diese Methode berücksichtigt implizit lokale Nebenbedingungen hinsichtlich der Verschaltung und erlaubt die realistische Abbildung aller praktisch umsetzbaren Kuppelmöglichkeiten. Die Validierung der vorgeschlagenen Methode erfolgt mit Hilfe numerischer Fallstudien unter Verwendung der stationären Netzberechnung an zwei realen, mittelgroßen 110-kV-Netzgruppen. Den Untersuchungen liegen reale Einspeise- und Lastzeitreihen in viertelstündlicher Auflösung zu Grunde. Die Ergebnisse zeigen, dass durch eine Schaltzustandsoptimierung des Bestandsnetzes dessen Übertragungskapazität gesteigert und die eingespeiste Energiemenge aus regenerativen Erzeugungsanlagen maximiert werden kann. Das ausschöpfbare Maximierungspotential ist dabei in erheblichem Maß von den Netzstrukturen und dem Vermaschungsgrad des Netzes abhängig. Weiterhin wird der Nachweis erbracht, dass die Definition von mehreren Netznormalschaltzuständen zur Maximierung der Einspeisung aus regenerativen Erzeugungsanlagen einerseits und zur Minimierung der Netzverluste andererseits über den Zeitraum eines Jahres möglich ist.



Hasenpusch, Tim;
Strategic Media Venturing : eine empirische Analyse des Einsatzes von Corporate Venture Capital in der Medienbranche. - Ilmenau : Universitätsverlag Ilmenau, 2018. - XVI, 261 Seiten. - (Menschen - Märkte - Medien - Management ; Band 9)
Technische Universität Ilmenau, Dissertation 2017

ISBN 3-86360-186-6

Die zunehmend digitale Wettbewerbslandschaft ist gekennzeichnet durch steigende Komplexität, kontinuierlichem Wandel, verschwimmende Branchengrenzen, erhöhter Wettbewerbsintensität sowie die daraus resultierenden unsicheren Entwicklungsprognosen. Besonders die durch technologische Veränderungen stark getriebene Medienbranche steht hierdurch vor weitreichenden strukturellen und betrieblichen Herausforderungen. So lösen die technologischen Entwicklungen die 'Gatekeeper'-Funktion traditioneller Medienunternehmen auf und erhöhen die Wettbewerbsintensität sowohl zwischen den Unternehmen traditioneller Mediengattungen (Publishing, TV, Radio etc.) als auch zwischen etablierten Medienunternehmen und neuen Wettbewerbsteilnehmern aus den Branchen Telekommunikation, Unterhaltungselektronik und Internettechnologie. Dabei sind es häufig diese neuen Wettbewerber, die die technologischen Veränderungen nutzen und neue Geschäftsmodelle innerhalb der Medienbranche etablieren. Als Reaktion auf diese hochdynamische und konvergierende Unternehmensumwelt haben Medienunternehmen sowie ihre Wettbewerber aus den verwandten Industrien zur Erschließung und Verteidigung von Geschäftspotenzialen neue Corporate Venture Capital (CVC) Einheiten gegründet bzw. bestehende CVC-Aktivitäten intensiviert. Trotz dieser praktischen Relevanz von CVC haben vorherige Forschungsarbeiten vor allem die CVC-Aktivitäten von Medienunternehmen kaum betrachtet. Des Weiteren wurde - trotz des empirischen Nachweises, dass strategische Zielsetzungen Treiber von CVC-Aktivitäten sind - die strategische Managementperspektive von CVC in der wissenschaftlichen Forschung vernachlässigt. Die vorliegende Dissertationsschrift trägt zur Schließung dieser Forschungslücken bei indem zum einen auf Grundlage der ressourcenorientierten Perspektiven des strategischen Managements ein theoretischer Ordnungsrahmen für das CVC-Management geschaffen und zum anderen eine systematische Datenanalyse der CVC-Investmentaktivitäten entlang des Cross-Industry Standard Process for Data Mining durchgeführt wird. Ergebnis der Analyse ist, neben dem Aufdecken mehrerer branchenspezifischer Unterschiede und Gemeinsamkeiten, die Identifikation branchenspezifischer Investmentstrategien zum Umgang mit den durch die Digitalisierung entstehenden Chancen und Herausforderungen.



Wolling, Jens;
Die Vermittlung von Medienkompetenz in allgemeinbildenden Schulen : zentrale Ergebnisse eines Evaluationsprojekts. - Ilmenau : Universitätsverlag Ilmenau, 2018. - VIII, 149 Seiten. - (Kommunikationswissenschaft interdisziplinär ; Band 7) ISBN 3-86360-184-X

In den letzten beiden Jahrzehnten hat sich das Medienumfeld, in dem Kinder und Jugendliche aufwachsen, grundlegend verändert. Diese Veränderungen konfrontieren nicht nur die Eltern, sondern auch die Schulen mit völlig neuen Herausforderungen bei der Vermittlung von Medienkompetenz. Ein pädagogischer Ansatz, um die Heranwachsenden auf diese neue Medienwelt vorzubereiten, besteht in der Integration medienbezogener Inhalte in den Fachunterricht. Im Rahmen der vorliegenden Untersuchung wurde die Umsetzung eines solchen integrativen Konzepts in Thüringen evaluiert. In einer aus verschiedenen qualitativen und quantitativen Teilstudien bestehenden Untersuchung wurde die Praxis der Medienkompetenzvermittlung und ihre Bestimmungsfaktoren analysiert. Kernstück der Untersuchung ist eine repräsentative Befragung von Lehrenden sowie von Schulleiterinnen und Schulleitern des ganzen Bundeslandes. Die Befunde verdeutlichen, welche Faktoren die erfolgreiche Umsetzung des Konzepts begünstigen und welche sich als hinderlich erweisen. Auf der Grundlage der erzielten Ergebnisse wurden Empfehlungen entwickelt, wie das integrative Konzept weiterentwickelt werden sollte und welche Maßnahmen notwendig sind, um die Rahmenbedingungen für eine erfolgreiche Vermittlung von Medienkompetenz zu verbessern.



Lavrenko, Anastasia;
Compressive acquisition and processing of sparse analog signals. - Ilmenau : Universitätsverlag Ilmenau, 2018. - XV, 235 Seiten
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-183-6

Seit dem Aufkommen der ersten digitalen Verarbeitungseinheiten hat die Bedeutung der digitalen Signalverarbeitung stetig zugenommen. Heutzutage findet die meiste Signalverarbeitung im digitalen Bereich statt, was erfordert, dass analoge Signale zuerst abgetastet und digitalisiert werden, bevor relevante Daten daraus extrahiert werden können. Jahrzehntelang hat die herkömmliche äquidistante Abtastung, die durch das Nyquist-Abtasttheorem bestimmt wird, zu diesem Zweck ein nahezu universelles Mittel bereitgestellt. Der kürzlich explosive Anstieg der Anforderungen an die Datenerfassung, -speicherung und -verarbeitung hat jedoch die Fähigkeiten herkömmlicher Erfassungssysteme in vielen Anwendungsbereichen an ihre Grenzen gebracht. Durch eine alternative Sichtweise auf den Signalerfassungsprozess können Ideen aus der sparse Signalverarbeitung und einer ihrer Hauptanwendungsgebiete, Compressed Sensing (CS), dazu beitragen, einige dieser Probleme zu mindern. Basierend auf der Annahme, dass der Informationsgehalt eines Signals oft viel geringer ist als was von der nativen Repräsentation vorgegeben, stellt CS ein alternatives Konzept für die Erfassung und Verarbeitung bereit, das versucht, die Abtastrate unter Beibehaltung des Signalinformationsgehalts zu reduzieren. In dieser Arbeit untersuchen wir einige der Grundlagen des endlichdimensionalen CSFrameworks und seine Verbindung mit Sub-Nyquist Abtastung und Verarbeitung von sparsen analogen Signalen. Obwohl es seit mehr als einem Jahrzehnt ein Schwerpunkt aktiver Forschung ist, gibt es noch erhebliche Lücken beim Verständnis der Auswirkungen von komprimierenden Ansätzen auf die Signalwiedergewinnung und die Verarbeitungsleistung, insbesondere bei rauschbehafteten Umgebungen und in Bezug auf praktische Messaufgaben. In dieser Dissertation untersuchen wir, wie sich die Anwendung eines komprimierenden Messkerns auf die Signal- und Rauschcharakteristiken auf die Signalrückgewinnungsleistung auswirkt. Wir erforschen auch Methoden, um die aktuelle Signal-Sparsity-Order aus den komprimierten Messungen abzuleiten, ohne auf die Nyquist-Raten-Verarbeitung zurückzugreifen, und zeigen den Vorteil, den sie für den Wiederherstellungsprozess bietet. Nachdem gehen wir zu einer speziellen Anwendung, nämlich der Sub-Nyquist-Abtastung und Verarbeitung von sparsen analogen Multibandsignalen. Innerhalb des Sub-Nyquist-Abtastung untersuchen wir drei verschiedene Multiband-Szenarien, die Multiband-Sensing in der spektralen, Winkel und räumlichen-Domäne einbeziehen.



Welker, Tilo;
Methoden und Technologien zur Optimierung der Entwärmung aktiver und passiver Komponenten auf keramischen Mehrlagensubstraten. - Ilmenau : Universitätsverlag Ilmenau, 2018. - XV, 235 Seiten
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-182-9

Gegenstand dieser Arbeit ist der thermische Pfad in einem Mehrlagenmodul aus Niedertemperatur-Einbrand-Keramiken (engl.: low temperature co-fired ceramic, kurz: LTCC). Der thermische Pfad beschreibt dabei den Pfad der Wärme von einem verlustbehafteten Bauelement hin zu einer Wärmesenke. Ziel der Arbeit ist es durch neue Materialien, Technologien und Methoden den thermischen Pfad zu optimieren und so die thermische Performance des Mehrlagenmoduls zu verbessern. Der thermische Pfad kann in drei kritische Bereiche unterteilt werden. Der erste Bereich umfasst die Verbindung zwischen Chip und Substrat. Die hier eingesetzten Materialien stellen neben der mechanischen Fixierung auch den thermischen Kontakt zwischen Chip und Substrat her. Im Rahmen dieser Arbeit werden Silberpasten für die Chipmontage untersucht, die bei niedrigen Temperaturen sintern und eine thermisch hoch leitende Verbindung zwischen Chip und Substrat realisieren. Weiterhin werden reaktive Lote untersucht, die nach thermischer Aktivierung kurzzeitig einen starken thermischen Impuls generieren, wodurch das Fügen von Materialien mit unterschiedlichem thermischen Ausdehnungskoeffizient ermöglicht wird. Diese reaktiven Lote und die Silberpasten werden dabei mit den herkömmlichen Materialien der Chipmontage wie Loten und Klebern hinsichtlich ihres thermischen Widerstandes, der mechanischen Festigkeit und Zuverlässigkeit bewertet und verglichen. Der zweite Bereich umfasst das gesamte keramische Substrat. Um die geringe thermische Leitfähigkeit des Keramikgrundmaterials lokal zu verbessern, werden Metalle in Form von Metallzylindern in das Substrat integriert. Diese sog. thermischen Vias bestehen zumeist aus gold- oder silberbasierten Materialien und sind direkt in das Substrat unter die Chipbondfläche integriert. Gegenstand der Untersuchung ist hier der Einfluss der Viageometrie, des Viamaterials und des Sinterprozesses auf die thermische Performance und Hermetizität des Substrates. Weiterhin werden mittels neuen Silberfolien vollflächige Silberstrukturen in das Substrat integriert. Hierbei wird im Co-Fire Prozess das keramische Grundmaterial durch Silberfolie lokal substituiert, was Bereiche mit sehr hoher thermischer Leitfähigkeit im Substrat ermöglicht. Die thermische Performance solcher Silberstrukturen in LTCC Substraten wird anhand zweier Demonstratoren überprüft. Der dritte Bereich umfasst die Wärmesenke. Im Rahmen dieser Arbeit wird die Möglichkeit diskutiert, fluidische Kanäle in das LTCC Substrat zu integrieren und damit eine aktive Kühlung zu realisieren. Die Untersuchungen umfassen das Design und die Fertigung des Kühlkanals und der fluidischen Schnittstellen, sowie die Bewertung der Kühlleistung dieser Methode.



Denk, Frank;
Elektromagnetische Einspritzventile für Ottomotoren : ein Beitrag zur Charakterisierung und Systemintegration schnellschaltender Aktuatoren. - Ilmenau : Universitätsverlag Ilmenau. - XIII, 152 Seiten ISBN 3-86360-176-9
Die dieser Publikation zugrundeliegende Dissertation hat der Fakultät für Maschinenbau der Technischen Universität Ilmenau unter folgendem Titel vorgelegen: Beitrag zur Charakterisierung und Systemintegration schnellschaltender elektromagnetischer Aktuatoren - insbesondere Einspritzventile für Ottomotoren

Der gesetzlich zulässige Schadstoffausstoß von Verbrennungsmotoren erfordert die Entwicklung neuer Ansteuerstrategien von Kraftstoffeinspritzventilen. Die vorliegende Arbeit untersucht das einspritzrelevante System aus Elektronik, Software, Einspritzventil sowie Hydraulik und entwickelt neue elektromagnetische Methoden zur Optimierung des hydraulischen Einspritzvorgangs. Insbesondere die dynamischen Vorgänge des hydraulischen Öffnens und des hydraulischen Schließens bilden den Schwerpunkt der Untersuchungen. Auf Basis der Maxwellschen Gleichungen wird dargestellt, dass das dynamische Verhalten des Einspritzventils vor allem durch die Reluktanzkraft erfolgt. Es wird gezeigt, dass die elektromagnetischen Ansteuerparameter Spulenspannung und Spulenstrom bei einem Einspritzventil einen signifikanten Einfluss auf den hydraulischen Einspritzvorgang haben. Die Eigenschaft, dass die mechanisch-hydraulische Reaktion magneto-elektrisch auf die Ansteuerung zurückwirkt, wird genutzt, um den Einspritzablauf zu analysieren. Durch die Parametervariation der Ansteuerung und der Analyse der sensorischen Rückmeldung wird ein robustes hydraulisches Öffnen, ein sicheres hydraulisches Offenhalten und ein schnelles hydraulisches Schließen mit der dafür benötigten elektrischen Energie abgestimmt und optimiert. Mit speziellen Verfahren wird der magnetische Fluss des Einspritzventils berechnet. Diese zeigen eine im Kraftfahrzeugbereich neue Möglichkeit der effizienten Abstimmung des elektrischen Energieeintrags sowie der hydraulischen Reaktion und bieten einen Ausblick in zukünftige Regelkonzepte. Diese Arbeit lehnt sich streng an die Umgebungsbedingungen in einem heutigen elektrischen Bordnetz an. Damit ist die Möglichkeit gegeben, die Ergebnisse technisch in Serienapplikationen umzusetzen.



Fakih, Bashir;
Tribologisch und elektrisch induzierte Effekte im Kommutator-Bürste-Kontakt im permanent erregten Gleichstrommotor. - Ilmenau : Universitätsverlag Ilmenau, 2018. - xix, 159 Seiten. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA) ; Band 21)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-181-2

Ausschlaggebend für die Lebensdauer eines Gleichstrommotors ist der Verschleiß des tribologischen Systems Kohlebürste-Kommutator. Für eine längere Lebensdauer sollen in dieser Arbeit gezielte Modifikationen im Tribosystem durchgeführt werden, um dessen Verschleißbeständigkeit zu erhöhen. Ausführliche Literaturrecherchen haben verdeutlicht, dass bisher keine Erkenntnisse über die Wirkung der Materialorientierung, den morphologischen Eigenschaften der Kohlebürsten und einer möglichen Beeinflussung durch einen Schmierfilm vorliegen. Da in diesen Bereichen noch Verbesserungspotential im Tribosystem Kohlebürste-Kommutator vermutet wird, bilden die drei Themen den Inhalt dieser Arbeit. Im ersten Teil dieser Dissertation wurde der Einfluss der Materialausrichtung der Kohlebürste auf den Kommutator-Bürste-Kontakt untersucht. Dazu wurden Kohlebürsten mit axialer, radialer und tangentialer Pressrichtung in einem Prüfstand untersucht. Reibungs- und Verschleißwerte differierten zwischen den einzelnen Varianten bei stromlosen Versuchen, wobei die axiale und die radiale Varianten niedrige Verschleißwerte zeigten. Durch die Analyse des Systems konnten unterschiedliche Reibmechanismen festgestellt werden. Bei bestromten Versuchen erhöhten sich die Verschleißwerte markant und zeigten keinen deutlichen Unterschied zwischen den Bürsten mit unterschiedlicher Pressrichtung. Andererseits wiesen die Kommutatorlamellen ungleichmäßigen Verschleiß zwischen der auflaufenden und der ablaufenden Lamellenkante auf. Zur Optimierung dieses Effekts wurde ein Verfahren zur Festigkeitssteigerung des Kupfers angewendet, mit dem das Verschleißverhalten abgesenkt und homogenisiert werden konnte. Im zweiten Teil der Arbeit wird der Einfluss eines Schmierfilms auf den Reibkontakt charakterisiert. Bei bestromten Prüfstandsversuchen kamen schlecht leitende, sowie ein gut leitender Schmierstoff zum Einsatz. Durch die Zugabe einer ionischen Flüssigkeit bei der gut leitenden Variante konnte der hohe Verschleiß von geschmierten Systemen reduziert werden. Im dritten Teil wurde der Einfluss der Sintertemperatur bei der Bürstenherstellung auf das tribologische Verhalten untersucht. Bei der Analyse der Bürsten konnten hochohmige und niederohmige Varianten detektiert werden. Durch chemische Analysen von Bruchflächen konnte eine Anreicherung von Fremdelementen an den Korngrenzen festgestellt werden. Mithilfe eines Stichversuchs konnte jedoch belegt werden, dass die Prozessführung bezüglich der Temperatursteuerung einen übergeordneten Einfluss auf die Entstehung von niederohmigen Bürsten hat, indem sich bei einigen Parametern die Kupferpartikel besser verbinden und somit die Leitfähigkeit gesteigert wird.



Steiner, Cindy;
Plasmagestützte Nanostrukturierung von ETFE-Folie. - Ilmenau : Universitätsverlag Ilmenau, 2018. - xiii, 168 Seiten. - (Werkstofftechnik aktuell ; Band 18)
Technische Universität Ilmenau, Dissertation 2018

ISBN 3-86360-179-3

Die vorliegende Arbeit befasst sich mit der Untersuchung der Strukturbildung auf Ethylentetrafluorethylen-Folie (ETFE) in einem Plasmaätzprozess. Als Plasmaquelle wird ein Doppel-Magnetron-System mit gepulster Gleichspannung genutzt. In einer reinen Sauerstoffatmosphäre bilden sich negative Sauerstoffionen, die im Kathodenfall zum Substrat beschleunigt werden und mit diesem interagieren. Durch die Wechselwirkung mit der ETFE-Folie wird deren Oberfläche nanostrukturiert. Zunächst wird durch Variation der Energiedosis der Einfluss der Prozessparameter auf die Strukturbildung untersucht. Die Nanostrukturen werden hinsichtlich ihrer reflexionsmindernden und damit transmissionserhöhenden Wirkung sowie ihrer Strukturgrößen, -formen und -tiefen analysiert. Mit steigender Energiedosis zeigt sich ein Anstieg der Strukturtiefe. Damit verbunden steigt die Transmission bis zu einem Maximum an und fällt bei weiterer Steigerung der Energiedosis wieder ab. Der Zusammenhang zwischen der Energiedosis, der Transmissionsänderung und den Strukturdimensionen wird dargestellt und diskutiert. Die zur Analyse der Nanostrukturen genutzten Charakterisierungsmethoden werden miteinander verglichen und auf ihre Anwendbarkeit zur Beschreibung nanostrukturierter ETFE-Folie untersucht und bewertet. Weiterhin wird der Einfluss der kristallinen Bereiche auf die Strukturbildung untersucht. Dafür wird die teilkristalline ETFE-Folie monoaxial verstreckt. Die Kristalllamellen richten sich im ETFE aus. Im Plasmaätzprozess bilden sich auf den gereckten ETFE-Folien Nanostrukturen aus, die sich von denen auf ungerecktem ETFE unterscheiden. Die Dimensionen der Nanostrukturen werden in Bezug zu den Dimensionen der kristallinen Bereiche betrachtet und der Zusammenhang zwischen Strukturbildung und den kristallinen Bereichen des ETFE untersucht und diskutiert. Abschließend werden Möglichkeiten zur weiteren Erhöhung der Transmission dargestellt. Die im Rahmen der Arbeit gewonnenen Erkenntnisse zur Abhängigkeit der Strukturbildung von den Plasmaparametern werden auf das Polymer Polyethylenterephthalat (PET) übertragen. Außerdem wird die Stabilität des nanostrukturierten ETFE gegenüber Witterungseinflüssen gezeigt und damit das Potenzial nanostrukturierten ETFE-Folie für Außenanwendungen wie der Verkapselung von Solarzellen dargestellt.



Krenkel, Sharon;
Anisotrope, hierarchische Strukturierung von nanoporösen Gläsern. - Ilmenau : Universitätsverlag Ilmenau, 2018. - xvii, 277 Seiten. - (Werkstofftechnik aktuell ; Band 17)
Technische Universität Ilmenau, Dissertation 2017

ISBN 978-3-86360-178-2

Die im Rahmen des Projektes "ANIMON" entstandene Arbeit beschäftigt sich mit der Herstellung und Charakterisierung von glasbasierten, hierarchisch porösen Monolithen mit anisotropem Porensystem im Mikro- bzw. Nanometerbereich. Die Formgebung durch Verziehen von Rohrbündeln unter Anwendung des Draw-Down-Prozesses wurde mit dem Herstellungsprozess für nanoporöse Gläser ausgehend von Alkaliborosilicatgläsern kombiniert. Mit diesem zweistufigen Verfahren wurden hierarchisch poröse Multikapillaren erzeugt. Die Größe der anisotrop orientierten Luft- bzw. Kanalporen liegt zwischen 5*10^-6 und 2 mm, die der Nanometerporen zwischen 2 und 300 nm. Die Grundlagenuntersuchungen zum Entmischungsverhalten und zur Viskosität ausgewählter Natriumborosilicatgläser und die Kontrolle der Prozesstechnik waren Voraussetzungen für die Steuerung der Porengrößen. Durch eine gezielte Auswahl der Prozessparameter, angepasst an die Glaszusammensetzung, ließ sich die Größeneinstellung der Nanometerporen vom Formgebungsprozess trennen. In Hinblick auf zukünftige Anwendungen wurden die mechanischen sowie optischen Eigenschaften bestimmt, erste Versuche zur Biokompatibilität durchgeführt und die Oberfläche modifiziert. In einem weiteren Teil der Arbeit wurde der Ansatz verfolgt, auch die Nanometerporen in der Glaswand zu orientieren. Hierfür war die Ausrichtung der Primärphasen unter Zugbelastung zielführend. Die Quantifizierung der Porenorientierung erfolgte mittels eines eigens entwickelten Bildanalyseverfahrens. Über die im Projekt vorgesehene Umformmethode hinaus wurden generative Fertigungsverfahren zur Herstellung hierarchisch poröser Monolithe mit anisotropen Poren im Mikrometerbereich untersucht. Im Falle des selektiven Lasersinterns mit dem CO2-Laser wurden mechanisch stabile Monolithe erhalten, deren Porengröße von der Formgebung unabhängig kontrollierbar ist. Des Weiteren wurde eine anisotrope Orientierung der Luft- und Kanalporen über die Schwamm-Replika-Technik realisiert. Verziehen und generative Fertigung wurden erfolgreich für entmischbare Gläser optimiert, so dass Glasformkörper mit Nanometerporen in den Wänden, Kanälen mit Durchmessern bis zu Millimetern und einer großen Bandbreite an geometrischen Formen erzeugt werden können. Nach passender Oberflächenfunktionalisierung erlauben sie Anwendungen in der Sensortechnologie, als Mikroreaktoren und für die Katalyse.



Krüger, Jan;
Einfluss des Gütemerkmals Lichtrichtung und Schattigkeit auf Störwirkung und visuellen Diskomfort. - Ilmenau : Universitätsverlag Ilmenau, 2018. - 234 Seiten. - (Schriften der Ilmenauer Lichttechnik ; Band 23)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-180-5

In dieser Forschungsarbeit wurde der Einfluss des Gütemerkmals Lichtrichtung und Schattigkeit bei verschiedenen Arbeitstätigkeiten wie Lesetätigkeit, visuell-motorischer Arbeit und Formerkennung untersucht. Die Versuche waren darauf ausgerichtet, mögliche Zusammenhänge des Gütemerkmals mit dem visuellen Diskomfort aufzuzeigen. Bei allen Arbeitstätigkeiten wurden daher neben objektiven Leistungsparametern subjektive Beanspruchungsdaten sowie visuelle Beschwerden erfasst. Bei der Analyse der Teilversuche konnten signifikante Wirkungen von Lichtrichtung und Schattigkeit auf objektive Leistungsparameter der visuellen Wahrnehmung abgeleitet werden. In Abhängigkeit der Arbeitsaufgabe zeigten sich unterschiedliche Stufen der Beeinträchtigung, welche das Gütemerkmal mit Störwirkung und visuellem Diskomfort in Verbindung bringen. Die Ergebnisse der drei Teilversuche wurden in ein übergreifendes, psychologisches Modell eingeordnet, welches die Auswirkungen auf die Gesundheit von Beschäftigen erklärt und die Relevanz des Gütemerkmals für den Arbeitsschutz darstellt. Das Regelkreismodell beschreibt die Regulierung von Arbeitsleistung bei hoher Arbeitslast und Stressbedingungen unter Berücksichtigung der subjektiv erlebten Anstrengung. Im Modell fungierten die Beleuchtungsbedingungen als Stressor, welche höhere Anforderungen bei der Aufgabenausführung hervorriefen. Mithilfe des Modells können Kompensationseffekte (Leistungs- und Beanspruchungskompensation) erklärt werden, welche bei den Probanden beobachtet werden konnten. Besonders vor dem Hintergrund der zunehmenden Verbreitung der LED-Technologie mit ihren charakteristischen Merkmalen, wie der kleinen Quellengröße und der starken Gerichtetheit des Lichts wird die Notwendigkeit nach einer stärkeren Untersuchung dieses Gütemerkmals aufgezeigt. In den einzelnen Abschnitten des Theorieteils wird sukzessive zu einer Problemstellung hingeführt. Diese betrifft den Umstand, dass Lichtrichtung und Schattigkeit in Normung und Regelsetzung als Faktoren für Wahrnehmung, visuelle Ermüdung bzw. visuellen Diskomfort kaum Berücksichtigung finden. Nicht zuletzt werden Praxisempfehlungen ausgesprochen und weiterführender Forschungsbedarf aufgezeigt. Die Praxisempfehlungen betreffen einerseits die Anpassung von Lichtrichtung und Schattigkeit an den Kontext der Arbeitsaufgabe und andererseits Empfehlungen für die Lichtplanung und Leuchtengestaltung.



Schirmer, Christopher;
Over-the-air testing using wave-field synthesis. - Ilmenau : Universitätsverlag Ilmenau, 2018. - 211 Seiten
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-177-5

Moderne Kommunikationsgeräte, z. B. Smartphones und GPS-Empfänger streben einen hohen Integrationsgrad an, um Kosten, Platz und Energie zu sparen. Es existieren auch große Geräte, wie zum Beispiel Fahrzeuge mit integrierten Long Term Evolution-Antennen. Um den Entwicklungsprozess zu beschleunigen, werden adäquate Testverfahren benötigt, die eine korrekte Funktionsweise aller Gerätekomponenten sicherstellen. Das Ziel dieser Arbeit ist es, Testverfahren einschließlich Kalibrierverfahren zu entwickeln, die reproduzierbare Testbedingungen erlauben, um vergleichbare Leistungstests von Kommunikationssystemen zu ermöglichen. Diese Arbeit besteht aus zwei Teilen. Der erste Teil beschäftigt sich mit Wellenfeldsynthese (WFS) für elektrisch kleine Geräte. Der zweite Teil präsentiert ein alternatives Testverfahren für elektrisch große Geräte, welches Wireless Cable (WLC) bezeichnet wird. Im WFS-Teil werden Simulationen durchgeführt, um die Anwendbarkeit der WFS für Over-The-Air-Tests in 2D und 3D zur Erzeugung ebener elektromagnetischer Wellen zu untersuchen. Ein Kalibrierverfahren wird für die 2D-WFS vorgestellt, um den Frequenzgang analoger Systemkomponenten zu entzerren. Das Kalibrierverfahren wird mit Hilfe der Metriken Error Vector Magnitude und Poynting Vector Angular Deviation verifiziert. Es werden zur Verifikation des gesamten WFS-Systems Messungen auf Basis von GPS durchgeführt, die mit kabelgebundenen Tests verglichen werden. Zur Demonstration der Vollständigen Mess- und Testprozedur werden verschiedene Mehrelement-Antennen unter identischen Messbedingungen verglichen. Einflüsse auf ein reales System durch Rauschen, Drift und Temperatureinfluss werden untersucht. Für 3D-WFS wird ein optimierender Algorithmus wird entwickelt und verifiziert, um Emulationsantennen auf einer Sphäre oder Hemisphäre optimal zu verteilen. Im Wireless Cable-Teil wird das gleichnamige Testverfahren vorgestellt, das als alternative Over-The-Air-Testmethode die Untersuchung großer Geräte erlaubt. Die Anwendbarkeit in nicht-reflexionsfreien Umgebungen wird demonstriert. Wie alle Over-The-Air-basierten Testverfahren berücksichtigt Wireless Cable auch Selbstinterferenz. Eine Langzeitstabilitätsanalyse wird durchgeführt, außerdem eine Verifikation der Anwendbarkeit eines realistischen Funkkanals für den Anwendungsfall Long Term Evolution.



Günther, Karsten;
Werkstofftechnische Betrachtungen zum Heißdraht unterstützten MSG-Auftragschweißen hartstoffverstärkter Verschleißschutzlegierungen. - Ilmenau : Universitätsverlag Ilmenau, 2018. - XVI, 141 Seiten. - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 5)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-174-4

Das Metall-Schutzgas(MSG)-Auftragschweißen von hartstoffverstärkten Verschleiß-schutzlegierungen weist trotz der einfachen Bedienbarkeit und des hohen Mechanisierungsgrades nur eine geringe Akzeptanz im Bereich der Beschichtungstechnik auf. Gründe hierfür liegen insbesondere in der unmittelbaren Korrelation zwischen dem Material- und Energieeintrag, wodurch hohe Drahtvorschübe zwangsläufig eine zunehmende thermische Werkstoffbeanspruchung zur Folge haben. Im praktischen Einsatz führt dies bereits bei geringen Abschmelzleistungen von ca. 5 kg/h zu hohen Aufschmelzgraden von bis zu 40 %. Zudem unterliegen temperaturempfindliche Hartphasen, wie z.B. Wolframschmelzkarbide (WSC), einer hohen thermischen Beanspruchung, was unter anderem auf die direkte Lichtbogenwechselwirkung zurückzuführen ist. Thermisch bedingte Zersetzungsprozesse führen hierbei zu einer Abnahme des WSC-Anteils, wodurch die Verschleißbeständigkeit gemindert wird. Mit Hilfe eines zusätzlich dem Schmelzbad zugeführten Heißdrahtes wurde ein neuartiger Ansatz entwickelt und erforscht, um den Energie- und Materialeintrag beim MSG-Auftragschweißen zu entkoppeln. Neben den verringerten Prozessleistungen bei gleichbleibender Auftragmasse wurde dies insbesondere durch die Verringerung der Schmelzbadtemperaturen nachgewiesen. Hierdurch konnte eine hochproduktive Herstellung aufmischungsarmer Verschleißschutzschichten umgesetzt werden. Die Auswirkung auf die Hartphasencharakteristik erfolgte zunächst anhand FeCr(V)C-Hartlegierungen. Es konnte aufgezeigt werden, dass sich die nahezu unabhängige Regelung von Abschmelzleistung und Aufschmelzgrad positiv auf die Ausscheidung von Primärkarbiden bzw. Hartphasen auswirken. Im Gegensatz zum MSG-Prozess gelang es hierdurch einlagige Verschleißschutzschichten mit einem deutlich höheren Hartphasenanteil und höherer Verschleißbeständigkeit herzustellen. Bei Ni-Basis-Legierungen mit eingelagerten WSC wurde festgestellt, dass sich der Einsatz eines Heißdrahtes positiv auf die Hartphasenverteilung auswirkt. Aufgrund modifizierter Schmelzbadströmungen konnten die für WSC typischen schwerkraftbedingten Seigerungseffekte unterbunden werden, einhergehend mit einer homogenen Verteilung der Hartphasen. Im Vergleich zum optimalen MSG-Prozessfenster betrug der erzielbare WSC-Anteil jedoch nur die Hälfte. Zur Klärung der Ursache wurde ein Ansatz entwickelt, um die thermisch bedingte Zersetzung von WSC quantitativ zu beschreiben. Basierend auf der Einführung eines Zersetzungskennwertes konnte hierdurch erstmals der Einfluss der Schmelzbadgröße, des Aufschmelzgrades und des Tropfenübergangs separat und quantitativ aufgeschlüsselt werden. Hierdurch konnte der geringere WSC-Anteil beim MSG-HD-Verfahren schließlich den Eigenschaften des Lichtbogens und Tropfenübergangs zugewiesen werden. Ferner wurde im Rahmen dieser Arbeit erstmals die Entstehung des Zersetzungssaums bei WSC experimentell nachvollzogen.



Balbierer, Norbert;
Energiemanagement Ethernet-basierter Fahrzeugnetze. - Ilmenau : Universitätsverlag Ilmenau, 2018. - xvi, 215 Seiten
Technische Universität Ilmenau, Dissertation 2017

ISBN 978-3-86360-175-1

Die Einführung von Ethernet als Vernetzungstechnologie für neue Fahrzeuggenerationen eröffnet ein weites Feld an Möglichkeiten für vernetzte Funktionen und Systeme im Automobil. Die wachsende Anzahl elektronischer Systeme heutiger Fahrzeuge hat jedoch auch einen zunehmend deutlichen Anteil am gesamten Energiebedarf und damit einhergehend an Kraftstoffverbrauch und CO2-Emission. Gleichzeitig steigt das Bestreben, Fahrzeuge effizienter zu gestalten, um Energieverbrauch und Emissionen zu reduzieren. Neben der Erhöhung der Energieeffizienz der einzelnen Komponenten ist das selektive Abschalten vernetzter Steuergeräte während des Betriebs des Fahrzeugs (Teilnetzbetrieb) ein Mittel zur Optimierung der Leistungsaufnahme der Bordelektronik. In der vorliegenden Arbeit werden Konzepte zur Umsetzung von Teilnetzbetrieb für Ethernet-basierte Netzwerke vorgeschlagen. Um Steuergeräte durch das Netzwerk aufwecken zu können wurde ein ruhestromloser Weckempfänger entwickelt, realisiert und getestet. Zur Koordination des Teilnetzbetriebs wurden zwei Netzwerkmanagement-Protokolle erarbeitet, implementiert und evaluiert. Die beschriebenen Konzepte wurden in einem Testfahrzeug unter realen Bedingungen eingesetzt und erprobt.



Xu, Haifeng;
Hochpräzise Bestimmung der Form- und Orthogonalitätsabweichungen einer Spiegelecke und Untersuchung des Verhaltens unter veränderlichen Umweltbedingungen. - Ilmenau : Universitätsverlag Ilmenau, 2018. - XVI, 179 Seiten
Technische Universität Ilmenau, Dissertation 2017

ISBN 978-3-86360-171-3
Dissertation erschienen unter dem Titel: Hochpräzise interferometrische Bestimmung der Formabweichungen einer Spiegelecke und Untersuchung des Verhaltens unter veränderlichen Umweltbedingungen

Die rasanten Entwicklungen der letzten Jahre insbesondere in der Halbleitertechnik und in verschiedenen Präzisionstechnologien erfordern immer präzisere Fertigungsprozesse, die bis an die physikalischen Grenzen vordringen. Deshalb wurde am Institut für Prozessmess- und Sensortechnik der Technischen Universität Ilmenau eine neue Nanopositionier- und Nanomessmaschine (NPM-Maschine) NPMM-200 mit einem Messvolumen von 200 mm x 200 mm x 25 mm und einer gesicherten Messauflösung von 80 pm entwickelt. Das Koordinatensystem der NPM-Maschinen wird durch das verwendete Interferometer-Raumspiegelsystem gebildet. Die Herstellung hochpräziser Spiegelflächen einer Raumspiegelecke mit höchsten Anforderungen an die Ebenheit ist nicht nur technisch schwierig, sondern auch sehr kostspielig. Die Fertigungstoleranzen limitieren die Ebenheit der Spiegelflächen der Raumspiegelecke und deren Winkellage zueinander. Daher ist es notwendig, vorhandene systematische Abweichungen der Spiegelflächen zu ermitteln und zu korrigieren. Gegenstand der vorliegenden Arbeit ist die hochpräzise Bestimmung der Topographien der Spiegelflächen der Raumspiegelecke mit einem Fizeau-Interferometer und der Stitching-Technologie. Das Subapertur-Stitching-Interferometer für sehr große Messbereiche bis 350 mm x 350 mm besteht aus einem hochpräzisen XY-Verschiebetisch, einem handelsüblichen Fizeau-Phasenschiebe-Interferometer mit einer 6 Zoll Apertur und einer Raumspiegeleckebaugruppe mit integrierter Justiereinrichtung. Eine speziell entwickelte Software "SmartStitching" wird verwendet, um die aufgenommenen Messdaten der Subaperturen zu einer gesamten Topographie zu rekonstruieren. Der Stitching-Algorithmus kompensiert nicht nur Positionierfehler, die durch Führungsfehler des Lineartisches während der Verschiebung verursacht werden, sondern auch systematische Fehler wie z.B. Abbildungsfehler. Die absolute Topographie des Referenzspiegels wurde im Vorfeld durch den Multi-Rotations-Drei-Platten-Test kalibriert. Bei bekannter Formabweichung des Referenzspiegels kann der vorhandene systematische Fehler des Phasenschiebe-Interferometers korrigiert werden. Die Topographie des Referenzspiegels wurde dann im Datenverarbeitungssystem gespeichert, damit sie zur Korrektur systematischer Fehler verwendet werden kann. Weiterhin werden in dieser Arbeit andere Einflussfaktoren untersucht, z.B. Messfehler, die durch das Subaperture-Stiching-Interferometer verursacht werden, und dem akkumulierten Fehler, der durch den Stitching-Algorithmus verursacht wird. Ein weiterer Schwerpunkt der vorliegenden Arbeit ist die hochpräzise Bestimmung der Abweichung der Orthogonalität zwischen den Messspiegeln (xy-, xz- und yz-Messspiegel) einer Raumspiegelecke. Zwei Messverfahren wurden für die Bestimmung der Winkelfehler eingesetzt. Die Winkel zwischen den x- und y-Spiegeln werden mit Hilfe von zwei Pentaprismen, einem kalibrierten rechtwinkligen Prisma und einem hochauflösenden elektronischen Autokollimator bestimmt. Diese Kalibriermethode verwendet zwei horizontal ausgerichtete Pentaprismen und ein hochpräzises rechtwinkliges Prisma als 90&ring;-Winkelnormal, um Winkelfehler zwischen der x- und y-Spiegelfläche einer Raumspiegelecke zu bestimmen. Das hochpräzise rechtwinklige Prisma wurde im Vorfeld kalibriert. Die Winkel zwischen den x- und z-Spiegeln werden mit Hilfe von zwei gegeneinander ausgerichteten Pentaprismen und einem Autokollimator kalibriert. Der Autokollimator ist über ein Pentaprisma entlang der Normalen des z-Spiegels ausgerichtet. Dieses Pentaprisma bewegt sich nur entlang der x-Richtung, bis er das zweite Pentaprisma trifft und richtet nun auch das zweite Pentaprisma so, dass der Winkel der x-Spiegelfläche mit dem AKF gemessen werden kann. Die Winkelabweichung zwischen den x- und z-Spiegeln der Raumspiegelecke ist der Differenzwert vom Messwert des Autokollimators und dem Winkelfehler beider Pentaprismen. Die Rechtwinkligkeitsabweichung zwischen den y-und z-Spiegeln wird in gleicher Weise kalibriert. Um systematische Fehler zu minimieren, ist es erforderlich, ein Kalibrierverfahren für Pentaprismen in vertikaler Ausrichtung mittels eines Fizeau-Interferometers umzusetzen. Der Drei-Pentaprismen-Test wird verwendet, um die absolute Winkelfehler der Pentaprismen in vertikaler Lage zu bestimmen. Die Genauigkeit für diese Methode wird auf 0,1" geschätzt und wird durch die Kalibrierungsunsicherheit der Pentaprismen bestimmt. Alle gemessenen Orthogonalitätsabweichungen werden abschließend quantifiziert und mit den Topographiedaten der Raumspiegelecke für Korrektur kombiniert.



Falkenberger, Stefan;
Optimierung der Berechnung der Schallabstrahlung von Getriebegehäusen : experimentelle und analytische Untersuchungen zur Geräuscheentwicklung von Fahrzeug-Schaltgetrieben. - Ilmenau : Universitätsverlag Ilmenau, 2018. - XIV, 116 Seiten. - (Kraftfahrzeugtechnische Berichte ; Band 8)
Technische Universität Ilmenau, Dissertation 2017

ISBN 978-3-86360-172-0

Die vorliegende Arbeit beschäftigt sich mit der experimentellen Erfassung der dynamischen Schwingungsanregung von Fahrzeuggetrieben, auch im Vergleich mit der Simulation dieser Anregung mit Hilfe eines Mehrkörpersystem-Modells. Die Arbeit soll einen Beitrag zur Optimierung der Berechnungskette der Schallabstrahlung solcher Getriebe leisten. Nach der Entwicklung eines Messsystems zur Erfassung der dynamischen Lagerkräfte direkt im Kraftfluss zwischen Lageraußenring und Lagersitz des Getriebegehäuses wird ein Konzept für einen Getriebeprüfstand entwickelt. Der Prüfstand wird aufgebaut und in Betrieb genommen. Das untersuchte Getriebegehäuse stammt aus einer aktuellen Serienproduktion. Die Innenteile dieses Getriebes werden komplett neu entwickelt und dabei rigoros vereinfacht. Nun verfügt das Getriebe über eine Stirnradstufe in den beiden Varianten gerad- und schrägverzahnt und vier Lagerstellen. Dieses Vorgehen reduziert so die Komplexität deutlich und lässt ausreichend Raum für den Einbau des entwickelten Lagerkraft-Messsystems. Um Schallleistungsmessungen des verbauten Getriebes durchzuführen, wird die Prüfumgebung in einen Hallraum mit schallharten Wänden nach DIN EN ISO 3740 umgewandelt. Nach der Plausibilisierung der aufgezeichneten Messwerte werden die Wiederholbarkeit überprüft und ein Einlaufszenario für den Getriebeprüfstand festgelegt. Anschließend folgen die Untersuchungen der Schwingungsanregung des Getriebegehäuses im gesamten definierten Betriebsbereich bei drei unterschiedlichen Schmierstofftemperaturen und mit der gerad- und der schrägverzahnten Antriebseinheit. Die Einflüsse unterschiedlicher Viskositäten des Schmierstoffes auf die dynamischen Lagerkräfte und auf die Geräuschentwicklung werden frequenzspezifisch untersucht und bewertet. Nach Abschluss der Validierung der dynamischen Schwingungsanregung des Getriebegehäuses mit Hilfe des erwähnten Mehrkörper-Simulationsmodells werden Schallabstrahlungsberechnungen durchgeführt. Erstmalig werden dabei die validierten dynamischen Lagerkräfte mit in die Berechnungen eingebunden. Als Abschluss werden die simulierten Schallleistungen mit den experimentell erfassten im Frequenzbereich verglichen und bewertet. Insgesamt zeigen die experimentellen und rechnerischen Ergebnisse bei allen Arbeitsschritten eine gute bis hervorragende Übereinstimmung. Damit leistet die vorliegende Arbeit einen signifikanten Beitrag zur Validierung der Schwingungsanregungen und schafft neue Möglichkeiten, Lagerkräfte im Kraftfluss experimentell und simulativ zu ermitteln und in die Berechnungskette der Schallabstrahlung einzubinden.



Martel, Jean-Mary;
Series arc faults in low-voltage AC electrical installations. - Ilmenau : Universitätsverlag Ilmenau, 2018. - XI, 192 Seiten. - (Ilmenauer Beiträge zur elektrischen Energiesystem, Geräte- und Anlagentechnik ; Band 20)
Technische Universität Ilmenau, Dissertation 2017

ISBN 978-3-86360-173-7

Diese Dissertation ist eine vollständige Analyse der Problematik des seriellen Störlichtbogens in der Niederspannungselektroinstallation. Der Beitrag von seriellen Störlichtbögen in der Entstehung von Elektrobränden wird mit Hilfe der Brandstatistik, der Durchführung der elektrischen und thermischen Charakterisierung des Phänomens und des Vergleichs der Fähigkeit von den anderen elektrischen Fehlern ein Isolierungspolymer zu entzünden, erklärt. Die Analyse beweist, dass der serielle Störlichtbogen eine thermische Beanspruchung erzeugt, die die Zündgrenzen der Isolierungspolymere weitaus überschreitet. Andere elektrische Fehler wie Kurzschlüsse, Überlast, Erdschlüsse und glühende Kontaktstellen ergeben ein wesentlich niedrigeres Brandrisiko. Die Funktionsweise vom Störlichtbogenschutzschalter (auch Brandschutzschalter oder AFDD genannt) wird erklärt und der Beitrag von diesem aktiven Schutz wird in der Analyse berücksichtigt. Der passive Schutz mit geeigneten Isolationsmaterialien wird auch untersucht. Die Anforderungen, die in der Produktnorm für Störlichtbogenschutzschalter beschrieben sind, werden überprüft und Verbesserungen für diese Normen werden vorgeschlagen.



Wystup, Ralph;
BLDC-Motor mit schlankem Zwischenkreis am einphasigen Netz : Ventilatoranwendungen. - Ilmenau : Universitätsverlag Ilmenau. - 147 Seiten
Technische Universität Ilmenau, Dissertation 2017

ISBN 978-3-86360-170-6
Auf der Rückseite der Titelseite: Die dieser Publikation zugrunde liegende Arbeit hat der Fakultät für Elektrotechnik und Informationstechnik der Technischen Universität Ilmenau im Jahr 2017 unter dem Titel "Dynamische Feldschwächung bei am einphasigen Netz betriebenen EC-Motoren mit schlankem Zwischenkreis" als Dissertation vorgelegen und ist online mit der URN urn:nbn:de:gbv:ilm1-2017000461 erschienen.

Die vorliegende Arbeit beschäftigt sich mit dem Betrieb von einphasig gespeisten EC-Lüftermotoren mit schlankem Zwischenkreis. Beim einphasigen Industrienetz besteht das Problem, dass im Lüftermotor aufgrund der bis auf null Volt pulsierenden Zwischenkreisspannung ein Luftspaltdrehmoment mit hohem Anteil an Oberschwingungen auftritt. Um dies zu vermeiden, müssen in der Praxis diskrete Speicherelemente wie Elektrolytkondensatoren und Eisenkerndrosseln als Energiespeicher in den Zwischenkreis des Umrichters eingebaut werden. In der vorliegenden Arbeit wird ein neuartiges Verfahren vorgestellt, welches ein nahezu konstantes Luftspaltdrehmoment bei einphasig gespeisten EC-Lüftermotoren mit schlankem Zwischenkreis gewährleistet. Mit dem Verfahren, der so genannten dynamischen Feldschwächung, können die bislang erforderlichen Energiespeicher wie Spulen und Elektrolytkondensatoren ersetzt werden. Zur Herleitung des Verfahrens der dynamischen Feldschwächung sind auf der Basis eines sättigungsfrei und damit linear arbeitenden Lüftermotors die notwendigen mathematischen Grundgleichungen entwickelt worden. Der Ansatz eines sättigungsfrei arbeitenden Lüftermotors erlaubt die einfache Umsetzung einer Konstruktionsvorschrift für einen speziell auf das Verfahren abgestimmten Motor auf Basis der regelungstechnisch relevanten Motorparameter. Mithilfe eines nichtlinearen Kalman-Filters zur automatischen Bestimmung der regelungstechnischen Motorparameter wird dann der gebaute sättigungsfrei arbeitende Lüftermotor auf einem Prüfstand vermessen. Dabei hat sich gezeigt, dass das Verfahren der dynamischen Feldschwächung eine gute Übereinstimmung zwischen den analytischen und den simulierten Ergebnissen liefert. Das Verfahren der dynamischen Feldschwächung kommt bei einer Motorleistung von etwa 200 Watt und einem Wirkungsgrad von ca. 80 % mit einer sehr kleinen Zwischenkreiskapazität von 14 [my]F aus. Im Vergleich dazu benötigt ein Serienlüftermotor eine Zwischenkreiskapazität von 204 [my]F.



Bräuer, Marco;
Energiewende und Bürgerproteste : eine Untersuchung der Kommunikation von Bürgerinitiativen im Themenfeld Netzausbau. - Ilmenau : Universitätsverlag Ilmenau, 2017. - 326 Seiten. - (Nachhaltigkeits-, Energie- und Umweltkommunikation ; Band 4)
Technische Universität Ilmenau, Dissertation 2016

ISBN 978-3-86360-152-2

Der Ausbau des deutschen Höchstspannungsnetzes hat in den letzten Jahren in vielen der betroffenen Regionen zu einem starken Unbehagen in der Bevölkerung geführt. Öffentlich wahrnehmbar wird dieser Unmut durch Bürgerproteste. In den meisten Fällen sind Bürgerinitiativen die Hauptträger dieser Proteste. Da Bürgerinitiativen aus der politischen Peripherie heraus agieren, sind sie darauf angewiesen ihre Interessen öffentlich zu kommunizieren, um Druck auf das politische sowie administrative Entscheidungssystem auszuüben. Dabei können sie einerseits Zugang zu den Massenmedien suchen, andererseits haben sie auch die Möglichkeit, eigene Medien herzustellen (z.B. Flyer, Plakate oder Social Media-Auftritte) und Veranstaltungen zu organisieren (z.B. Podiumsdiskussionen und Informationsveranstaltungen). Theoretischer Ausgangspunkt der Arbeit sind die Theorien sozialer Bewegungen sowie die Theorie der Öffentlichkeit als intermediäres System. Die theoretische Auseinandersetzung mündet in die Entwicklung eines Erklärungsmodells der Wahl der Protestrepertoires durch Bürgerinitiativen. Da der Untersuchungsgegenstand Bürgerinitiative bislang kaum empirisch untersucht wurde, wurden im Rahmen der Arbeit insgesamt acht Fallstudien mit Bürgerinitiativen im Themenfeld "Ausbau des deutschen Höchstspannungsnetzes" durchgeführt. Die Ergebnisse zeigen, dass die untersuchten Bürgerinitiativen planvoll vorgehen. Sie beobachteten den politischen sowie medialen Diskurs und auch die Reaktionen, die sie aus der Bevölkerung erhalten und entwickelten aktiv Problemdeutungen und Lösungsvorschläge. Auch wenn die institutionellen Abläufe sowie die Handlungen der einzelnen Politikerinnen und Politiker kritisiert werden, bleibt das politische System der Hauptansprechpartner und markiert den Rahmen, in dem sich die Bürgerinitiativen bewegen. Auch das System der Massenmedien wird grundsätzlich anerkannt. Kritisiert wird jedoch, dass den Anliegen der Bürgerinitiativen häufig zu wenig Aufmerksamkeit geschenkt wird. Darüber hinaus wird einzelnen Journalistinnen und Journalisten Unkenntnis und eine negative Tendenz unterstellt. Die intensive Herstellung von eigenen Formen der Öffentlichkeit durch die Bürgerinitiativen, seien es Veranstaltungsöffentlichkeit oder die verschiedenen Formen der Entwicklung eigener Bürgerinitiativ-Medien sind jedoch nicht primäre Reaktionen auf die beobachteten Fehlleistungen der Massenmedien. Vielmehr sind diese in der tiefen Verwurzelung der Bürgerinitiativ-Mitglieder in kommunalen und regionalen Kommunikationsstrukturen begründet. Die Arbeit schließt mit Empfehlungen für die Verbesserung der Kommunikation und Partizipation im Rahmen des Netzausbaus.



Tarbeevskaya, Alena;
Entwicklungssystematik des Thermomanagements qualitativ hochwertiger LED-Systeme. - Ilmenau : Universitätsverlag Ilmenau, 2017. - IX, 227 Seiten. - (Schriften der Ilmenauer Lichttechnik ; Band 22)
Technische Universität Ilmenau, Dissertation 2016

ISBN 3-86360-168-8

Die Forderung nach immer leistungsfähigeren LED-Systemen bei gleichzeitig begrenztem Bauraum bedingt steigende Anforderungen an das thermische Management. Nicht nur die Lebenserwartung, sondern auch optische Eigenschaften, wie der Lichtstrom und die Lichtfarbe, hängen von der Chiptemperatur der LED ab. Als Folge einer ausgeprägten Temperaturabhängigkeit ist der Entwicklungsprozess der LED-Systeme sehr komplex. Diese Komplexität ergibt sich aufgrund der größeren Anzahl von verkoppelten Elementen, die in unterschiedlichen Disziplinen realisiert werden. Aufgrund dieser Tatsache besteht Bedarf nach einem disziplinübergreifenden Entwicklungsprozess, der die Aufgaben, Probleme und Anforderungen aller Disziplinen berücksichtigt. Im Rahmen dieser Arbeit wurde eine mögliche Verzahnung der für die fehlerfreie Funktionalität des Thermomanagements relevanten Disziplinenmit der ingenieurwissenschaftlichen Vorgehensweise in der Produktentwicklung spezifiziert. Ergebnis ist eine Systematik, die den Entwicklungsprozess der LED-Systeme strukturiert und darin geeignete Methoden und Werkzeuge des Thermomanagements einordnet. Die Anwendbarkeit der Entwicklungssystematik wurde Anhand der Konzipierung zweier Demonstratoren präsentiert. Hierbei wurde gezeigt, dass das Zusammenwirken der verschiedenen Disziplinen Potentiale für die Gestaltung neuer Produkte und Anwendungen eröffnet.



Reeßing, Michael;
Softwarewerkzeuge für den phasen- und domänenübergreifenden Entwurf. - Ilmenau : Universitätsverlag Ilmenau, 2017. - xviii, 198 Seiten. - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion ; Band 29)
Technische Universität Ilmenau, Dissertation 2016

ISBN 3-86360-169-6

Die vorliegende Arbeit leistet einen Beitrag zur Verbesserung der Softwareunterstützung in frühen Phasen der Produktentwicklung. Dazu wurden insbesondere zwei Problemfelder identifiziert und bearbeitet. Dabei handelt es sich zum einen um die Realisierung eines phasenübergreifenden Entwurfskonzepts für Bewegungssysteme auf der Basis einer bidirektionalen Verknüpfung von Produktmerkmalen in Modellen unterschiedlicher Abstraktionsniveaus. Ausgehend von dieser Lösung wurde außerdem ein Verfahren entwickelt, das die Manipulation von CAD-Modellen in VR-Umgebungen erlaubt. Zum anderen wurde ein Softwarewerkzeug konzipiert, das eine domänenübergreifende Modellierung und Simulation heterogener Systeme erlaubt. Als Plattform ist es dank der komponentenbasierten Softwarearchitektur um beliebige Domänen und zugehörige Berechnungsverfahren erweiterbar. Im Unterschied zu existierenden domänenübergreifenden Werkzeugen bietet es einen nutzerzentrierten Zugang zum Produktmodell, der domänenspezifische Darstellungen und Begriffe berücksichtigt. Die Entwicklung beider Konzepte ging mit einer softwaretechnischen Umsetzung einher, die deren Realisierbarkeit belegt und eine Demonstration ihrer Arbeitsweise anhand verschiedener Anwendungsbeispiele ermöglicht. Mit dieser Arbeit wird ein umfangreiches Spektrum an Erfahrungen bei der Konzeption und Implementierung solcher Softwarewerkzeuge präsentiert und weitergegeben.



Al-Rubaye, Atheer Dhiaa;
Vertical handover management with quality of service support. - Ilmenau : Universitätsverlag Ilmenau, 2017. - xv, 105 Seiten
Technische Universität Ilmenau, Dissertation 2017

ISBN 386360167X = 978-3-86360-167-6

Neue Anwendungen und Dienste steigern die Attraktivität der mobilen Nutzung des Internets und fordern die Beibehaltung der Konnektivität auch beim Wechsel zwischen heterogenen drahtlosen Zugangsnetzen, wobei viele Informationen unterschiedlicher Quellen berücksichtigt werden müssen. Auf Basis dieser Informationen müssen Handover-Entscheidungen getroffen werden, die ein Umschalten zwischen den drahtlosen Schnittstellen bewirken und die Identikation des mobilen Knotens aktualisieren. Die vorliegende Arbeit stellt ein Rahmenwerk für vertikalen Handover vor, das zudem eine Mobilitätsunterstützung beinhaltet. Es verwendet Algorithmen zur multikriteriellen Entscheidung, die eine breite Reihe von Parametern betrachtet, um so die Kommunikationsdienstgüte (Quality of Service, QoS) für Echtzeitanwendungen bereitzustellen. Darüber hinaus wurde eine Strategie für die stabile und weiche Umschaltung zwischen verschiedenen Schnittstellen des mobilen Geräts entwickelt und eine leichtgewichtige Signalisierung für die Adressauösung zur schnellen Wiederaufnahme der Datenübertragung vorgeschlagen. Die Dissertation beschreibt den schichtenübergreifenden Handover-Ansatz in drei Modulen, deren Konzept und Funktionalität detailliert diskutiert werden. Handover-Entscheidungen werden auf Grundlage von Benutzerpräferenzen, Netzwerkeigenschaften und Kontextinformationen des mobilen Endgeräts getroffen. Eine Verbindung wird nur dann auf eine neue Schnittstelle umgestellt, wenn diese mit dem neu gewählten Netzwerk in Verbindung steht und entsprechend konguriert ist. Für die Aktualisierung der Identität des mobilen Knotens wird der bekannte Mechanismus "Network Address Translation" (NAT) wesentlich erweitert, was als Dynamic index NAT (DiNAT) bezeichnet wird. Sowohl lokale als auch globale Mobilität wird durch eine hierarchische Bereitstellung von DiNAT-fähigen Knoten unterstützt, ohne dass hierzu ein Vorwissen oder die Kooperation der Nachbar-Netzwerke notwendig ist. Viele solcher Knoten können zur Lastverteilung installiert werden, da die Dissertation einen Auswahlmechanismus erarbeitete, um die Auswahl eines passenden Ankerknotens für jede Kommunikationssitzung auf einem mobilen Knoten zu ermöglichen. Die Simulationsumgebung OMNeT++ wurde verwendet, um die Durchführbarkeit des Ansatzes zu überprüfen und ihn mit einer weit verbreiteten Lösung für das Mobilitätsmanagement zu vergleichen.



Lutherdt, Stefan;
Ein Konzept für die nutzerbezogene Gestaltung von Assistenzsystemen und deren Nutzerschnittstellen. - Ilmenau : Universitätsverlag Ilmenau, 2017. - 290 Seiten. - (Berichte aus der Biomechatronik ; Band 14)
Technische Universität Ilmenau, Dissertation 2017

ISBN 3-86360-164-5

In dieser Arbeit wird gezeigt, dass die Entwicklung von Assistenzsystemen und ihren Schnittstellen bei Nutzung eines neuen Konzeptes (nutzerbezogene Gestaltung von Assistenzsystemen und deren Nutzerschnittstellen NuGASt), erfolgreich durchgeführt werden kann. Die Motivation zur Entwicklung des neuen Konzepts ergab sich aus der Identifikation von Problemen bei der Untersuchung und Beurteilung vorhandener Gestaltungslösungen für eine Nutzerschnittstelle (Fernbedienungen). Um eine Einordnung des Untersuchungsgegenstands "Assistenzsystem" machen zu können, werden einleitend verschiedene notwendige Begriffsbestimmungen und Definitionen vorgenommen sowie eine für diese Arbeit nutzbare Definition von Assistenzsystemen vorgeschlagen. Es wird beschrieben, wie dieses Konzept aus der Analyse vorhandener Entwicklungsmodelle verschiedener Bereiche wie Softwareentwicklung und Usability Engineering abgeleitet und mittels des bekannten Problemlösungsansatzes (s. VDI 2221) entworfen wurde. Im Unterschied zu den untersuchten anderen Konzepten und Modellen ist das Kennzeichen von NuGASt eine frühzeitige Nutzereinbindung bereits vom Start einer Entwicklung an. Außerdem basieren alle Entwicklungsschritte auf Kenntnissen über die späteren Nutzer, ihren Eigenschaften und Befähigungen hinsichtlich der Nutzung des zu entwickelnden Systems. Das Konzept ist strukturell ebenfalls an den Problemlösungsansatz angelehnt, verbindet diesen aber mit Elementen anderer Entwicklungsmodelle und wird ergänzt durch flexibel einsetzbare Rückkopplungen und Nutzerbeteiligungen. Als Kriterium zur Bewertung des späteren Entwicklungsergebnisses wurde die Gebrauchstauglichkeit gewählt (s. DIN ISO EN 9241:11), da sie die mit dem Konzept gewünschte Ausrichtung auf den späteren Nutzer eines Produkts repräsentiert. Es wird die schrittweise Herleitung des Konzepts beschrieben sowie die Überprüfung der Funktions- und Passfähigkeit des Konzepts auf die zu Beginn gestellten Ziele (Entwicklung von Assistenzsystemen und Schnittstellen), was an ausgewählten Beispielen aus Forschungsprojekten belegt wird. Die Ergebnisse der gezeigten Projekte und Evaluationen mit potentiellen Nutzern zeigen, dass durch den Einsatz von NuGASt in Projekten zur Entwicklung von Assistenzsystemen tragfähige Lösungen gefunden werden können, die auch durch die späteren Nutzer akzeptiert werden.



Nowack, Tobias;
Mensch-Technik-Interaktion mittels Freiraumgesten. - Ilmenau : Universitätsverlag Ilmenau, 2017. - 177 Seiten. - (Berichte aus der Biomechatronik ; Band 15)
Technische Universität Ilmenau, Dissertation 2017

ISBN 3-86360-166-1

Mit Industrie 4.0 gewinnt die Mensch-Technik-Interaktion deutlich an Stellenwert. Sollen Mensch und Maschine gemeinsam arbeiten, dann sind alternative Interaktionsformen zu entwickeln. Erfolgreiche Kommunikation bedeutet, dass beide Kommunikationspartner zum Kommunikationsende den gleichen Informationsstand haben. Die natürliche, menschliche Kommunikation findet auf verschiedenen Ebenen (z.B. visuell und akustisch) statt, welche zusammengehörig gedeutet werden. An der redebegleitenden Zeigegeste lässt sich das Zusammenspiel von gesprochenem Wort, ausgeführter Zeigegeste und kognitiver Leistung des Empfängers gut erkennen. Der "grüne Ordner da drüben" fordert vom Empfänger neben der rein sensorischen Aufgabe des Hörens und Sehens die zusätzliche, wissensbasierte Verarbeitung von "grün" und "Ordner". Mit all diesen Informationen erreicht die gestenunterstützte Mensch-Mensch-Kommunikation eine Erkennungsrate von annähernd 100 %. Sollen für die Mensch-Technik-Kommunikation "Zeigegesten" verwendet werden, sind die zusätzlichen Kontext-Informationen z.Z. für die technische Auswertung noch nicht verfügbar. Daher wurden Beschreibungen der Zeigegeste entwickelt und evaluiert, mit denen bereits ohne Interpretation der Kontextinformation eine Gesamterkennungsrate von über 85 % realisiert werden kann. Ausgehend von dem Nutzerverständnis - Zeigen wird als statische Geste verstanden - wurde eine technisch nutzbare Beschreibung entwickelt. Diese, nur die Körperpose des Zeigens auswertend, erreicht bei der Evaluation eine Erkennungsrate von ca. 50 %. Sie ließ sich bereits im Rahmen eines Forschungsprojektes erfolgreich in die Praxisübertragen. Auf Grundlage eines Phasenmodells der Gestenausführung wurden zwei weitere Beschreibungen entwickelt. Bei diesen wird der gesamte Gestenzyklus aus Einleitung, Hauptteil, Haltephase und Ausleitung betrachtet. Mit den Daten der für die Evaluation eingesetzten Kinect® 2 konnten mit den erweiterten Phasendefinitionen Erkennungsraten von über 85 % realisiert werden. Für eine Verbesserung der Erkennungsrate ist es zukünftig notwendig, weitere Gesten wie das "Heranwinken" zu beschreiben, um sie vom "Zeigen" abzugrenzen. Zusätzlich muss das Zeigeziel erkannt und anhand der Kontextinformation überprüft werden können.



Scharff, Peter
Engineering for a changing world : 59th IWK, Ilmenau Scientific Colloquium, Technische Universität Ilmenau, September 11-15, 2017 : programme. - Ilmenau : Universitätsbibliothek/Universitätsverlag Ilmenau, 2017. - 136 Seiten ISBN 978-3-86360-160-7

Erhard, Felix;
Beitrag zur Störlichtbogendetektion in Photovoltaikanlagen. - Ilmenau : Universitätsverlag Ilmenau, 2017. - XVII, 213 Seiten. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik ; Band 19)
Technische Universität Ilmenau, Dissertation 2017

ISBN 978-3-86360-165-2

Die vorliegende Dissertation befasst sich mit der Thematik der Störlichtbogendetektion in Photovoltaikanlagen. Vorrangiges Ziel ist die Erforschung und Entwicklung eines zuverlässigen und sicheren - zu den bereits bestehenden frequenzbasierten Lösungsansätzen alternativen - Störlichtbogen-Detektionskriteriums im Zeitbereich. Hierzu wurde das gleichstromseitige, elektrische Klemmenverhalten von Single-String-Photovoltaikanlagen bei dynamischer Anregung in Form eines seriellen Lichtbogens eingehend analysiert. Die Ergebnisse dieser Arbeit belegen eindeutig dass die, durch die Spannungsflanke der Anoden-Kathoden-Fallspannung U AK im Zündmoment des Lichtbogens verursachte, Änderung im zeitlichen Signalverlauf der an den String-Anschlussklemmen des Wechselrichters gemessene String-Spannung U String im besonderen Maße zur Detektion serieller Störlichtbögen in Photovoltaikanlagen geeignet ist. Folglich konnte ein neuartiges und verlässliches Detektionskriterium im Zeitbereich für serielle Störlichtbögen in Single-String-Photovoltaikanlagen vorgestellt werden, dessen prinzipielle Eignung, Haupteinflussgrößen und gültige Anwendungsbereich sowohl in Theorie und als auch in Praxis eingehend überprüft, ermittelt und bestimmt wurden. Die erarbeiteten Resultate und Erkenntnisse gehen in erster Linie aus der Analyse der, im Rahmen umfangreicher Feld- und Laborversuche, unter Berücksichtigung aller wesentlichen Versuchs- und Einflussparameter, gewonnenen Messdaten hervor. Mit der Absicht belast- und vor allem vergleichbare Messergebnisse hinsichtlich des konkreten Forschungsschwerpunktes unter sicheren Bedingungen während des laufenden Betriebs in Photovoltaik zu generieren wurde ein geeignetes Messequipment und -verfahren entwickelt, ausgelegt und konstruiert. In diesem Kontext unterscheidet sich die vorliegende Arbeit - vor allem aufgrund der Durchführung und Vorstellung ausführlicher, experimenteller Studien an realen Photovoltaikanlagen zur Erforschung des dortigen Störlichtbogenverhaltens - deutlich von anderen zu diesem Thema bereits veröffentlichten Literaturstellen. Darüber hinaus wurde ein mathematisch-physikalisches Simulationsmodell entwickelt, welches alle für die Betrachtungen notwendigen Elemente (Photovoltaikgenerator, Wechselrichter, Gleichstromverkabelung und serieller Lichtbogen) in detaillierter Form inkludiert und die lichtbogenbedingten Ausgleichsvorgänge im zeitlichen Signalverlauf der, an den String-Anschlussklemmen gemessenen String-Spannung U String realgetreu nachbildet. Das in dieser Form ausgearbeitete Gesamtmodell stellt seinerseits, da in der gängigen Literatur nicht vorhanden, eine Neuheit dar. Neben dem Zweck der Verifikation der experimentell ermittelten Ergebnisse dient es vor allem der Erweiterung des Erkenntnishorizontes hinsichtlich der konkreten Aufgabenstellung dieser Dissertation und trägt infolgedessen wesentlich zum besseren Verständnis der Thematik von Störlichtbogen in Photovoltaikanlagen bei.



Funke, Carsten;
Blendungsbewertung von LED-Leuchten in Innenräumen. - Ilmenau : Universitätsverlag Ilmenau, 2017. - xxxiii, 184 Seiten. - (Schriften der Ilmenauer Lichttechnik ; Band 21)
Technische Universität Ilmenau, Dissertation 2017

ISBN 3-86360-163-7

Diese Arbeit befasst sich mit der Blendungsbewertung von künstlicher Beleuchtung in Innenräumen. Die Gültigkeit der vorhandenen Blendungsbewertungsmodelle wird für strukturierte LED-Leuchten mittels einer Probandenstudie überprüft und mögliche Erweiterungen der Modelle werden diskutiert. Dafür wurden folgende Forschungshypothesen formuliert: 1. Die von einer Leuchte ausgehende Blendung steigt mit zunehmendem Leuchtdichtekontrast innerhalb der Leuchte bei gleicher mittlerer Blendquellenleuchtdichte. 2. Der in Forschungshypothese 1 postulierte Zusammenhang ist bei direktem Blick in die Blendquelle maximal und nimmt mit zunehmendem Blendwinkel ab. 3. Bei gleicher mittlerer Leuchtdichte und gleichem Kontrast weisen Leuchten mit großem Lichtquellenabstand mehr Blendung auf. 4. Der gesamte wahrgenommene Blendwert mehrerer LED-Punkte einer Leuchte ist größer als die Summe der wahrgenommenen Einzelblendwerte der LEDs. Mit der Probandenstudie können die erste und zweite Forschungshypothese verifiziert werden, wohingegen die dritte und vierte Forschungshypothese für die untersuchten Parameter nicht bestätigt werden können. Sowohl der Lichtquellenabstand innerhalb der Leuchte als auch die Verteilung der Lichtquellenpunkte innerhalb der Leuchte konnte für neun bis 121 LEDs bei verschiedenen Leuchtdichtekontrasten und Blendwinkeln als irrelevant für die psychologische Blendung identifiziert werden. Diese Erkenntnisse wurden anschließend dazu verwendet, zwei verbesserte Blendungsbewertungsmodelle für LED-Leuchten zu entwickeln. Das erste Modell basiert auf den Korrekturfaktoren nach HARA und ist zur Blendungsbewertung von LED-Leuchten während der Leuchtenentwicklung und der Lichtplanung von Innenräumen geeignet. Das zweite Modell basiert auf den Untersuchungen von WOLF zur Detektion der leuchtenden Bereiche für Leuchtstofflampenleuchten. Dieses Verfahren wurde im Rahmen der Arbeit für LED-Leuchten erweitert, indem das Leuchtdichtebild entsprechend der physiologischen Eigenschaften des Auges geglättet wird und im Anschluss die blendenden Bereiche detektiert werden. Abschließend werden Schlussfolgerungen für die Anwendung der Ergebnisse gegeben. Diese Empfehlungen für Leuchtenentwickler und Lichtplaner sollen dazu beitragen, die Lichtqualität bei Einsatz von LED-Leuchten zu verbessern und gleichzeitig eine hohe Lichtausbeute und Gestaltungsfreiheit beibehalten zu können.



Nicolai, Katja;
Generative Fertigung von Sinterglaskörpern für Glasdurchführungen durch 3D-Drucken. - Ilmenau : Universitätsverlag Ilmenau, 2017. - 209 Seiten. - (Werkstofftechnik aktuell ; Band 16)
Technische Universität Ilmenau, Dissertation 2017

ISBN 978-3-86360-162-1

Die Arbeit behandelt die erstmalige Ergänzung des Herstellungsprozesses von Glasdurchführungen durch den Einsatz eines generativen Verfahrens zur Fertigung von Rohlingen für Sinterglaskörper sowie die Anpassung der vor- und nachgelagerten Prozessschritte an die dadurch veränderten Bedingungen. Damit sollte der herkömmliche Prozessschritt "Pressen" hinsichtlich Kosten- und Zeiteinsparung im Rahmen von Kleinserien ersetzt werden. Bei dem ausgewählten generativen Verfahren handelte es sich um den 3D - Pulverbettdruck. Der 3D - Druck von Glaspulver für technische Anwendungen war ein Novum, so dass Erfahrungswerte aus dem Bereich der Keramik den Einstieg in die Problematik und deren Weiterentwicklung für Glas ermöglichten. Die Herausforderung bestand darin, trotz der Unterschiedlichkeit der beiden Formgebungsverfahren Pressen und 3D - Pulverbettdruck vergleichbare Eigenschaften der Rohlinge für Sinterglaskörper zu erhalten. Der beim Pressen verwendete Druck für die Formgebung ist beim 3D - Pulverbettdruck nicht vorhanden. Die erforderliche Dichte und Porosität muss über eine geeignete Korngrößenverteilung der Ausgangsmaterialien erreicht werden Glaspulver mit Korngrößenverteilungen ab < 165 [my]m mit 20 % bis 30 % Feinanteilen (2 - 3 [my]m) hatten die günstigste Anordnungsmöglichkeit der Pulverbestandteile. Mit dem entwickelten Temperaturprogramm für den Entbinder- und Sinterprozess wurde durch Modellierung und Optimierung die vollständige Zersetzung der Binderbestandteile sichergestellt. Die Porositäten der durch 3D - Pulverbettdruck hergestellten Sinterglaskörper im Vergleich zu denen aus dem herkömmlichen Presseverfahren betrugen 25 % - 40 % zu 22 % und die Dichten 1,7 g/cm^3 zu 2 g/cm^3. Im Hinblick auf spätere Einschmelzungen konnten die Differenzen durch Anpassung der Abmessungen der Rohlinge ausgeglichen werden. Beide Herstellungsverfahren haben Formtoleranzen von 1 bis 2 %. Die durch 3D - Pulverbettdruck hergestellten Sinterglaskörper erfüllen die erforderlichen Qualitätsparameter bei der Verwendung für Glasdurchführungen und entsprechen dem Stand der Technik nach dem Einschmelzen. Ausgehend von diesen Ergebnissen konnte eine stabile Prozesskette für die Fertigung von Glasdurchführungen mit generativ gefertigten Rohlingen für Sinterglaskörper abgeleitet werden.



Walkling, Andreas;
Schwellenuntersuchung zur physiologischen Blendung für ortsfeste Straßenbeleuchtung : Weiterentwicklung der TI-Formel für nasse und trockene Straßen. - Ilmenau : Universitätsverlag Ilmenau, 2017. - 140 Seiten. - (Schriften der Ilmenauer Lichttechnik ; Band 20)
Technische Universität Ilmenau, Dissertation 2016

ISBN 3-86360-161-0

Die vorliegende Arbeit beinhaltet eine grundlegende Schwellenuntersuchung zur physiologischen Blendung für ortsfeste Straßenbeleuchtung und leistet einen Beitrag zur Verbesserung der Sichtbarkeit im nächtlichen Straßenverkehr. Die damit verbundene Förderung der Verkehrssicherheit kann die nächtlichen Verkehrsunfälle reduzieren helfen. Aus der Literaturrecherche ist ersichtlich, dass die Nichtberücksichtigung einer zugleich wahrgenommenen Kontrastminderung durch einen Schleier infolge Blendung (auch physikalischer Effekt des Blendungsschleiers genannt) in der Straßenbeleuchtungsnorm eine erhebliche Lücke darstellt. Bisher geht man bei der TI-Formel von einer Schwellenwerterhöhung ohne diesen Effekt aus, die daher die tatsächlichen Wahrnehmungsbedingungen weniger exakt widerspiegelt und bei der Blendungsbewertung zu Fehlurteilen führt. Es wurde eine Versuchsapparatur entwickelt, die es ermöglichte, den Einfluss dieser Kontrastminderung bei der Schwellenmessung zu untersuchen. Als Einflussgrößen wurden das Adaptations- bzw. Blendungsniveau, die Darbietungsdauer und -art verwendet. Es wird erstmals nachgewiesen, dass der Ur-Versuch von Narisada aus dem Jahre 1977 zur Schwellenmessung mit äquivalentem Blendungsschleier replizierbar und verlässlich ist. Sein gefundenes experimentelles Ergebnis kann daher bestätigt werden. Die Ergebnisse zeigen, dass im Blendungsfall die Komponente der Kontrastminderung die Leuchtdichteunterschiedsschwelle stärker beeinflusst als die Komponente der gleichzeitig auftretenden Netzhautaufhellung. Eine Abhängigkeit der Unterschiedsschwelle mit Blendungsschleier wird von der Darbietungsart ebenso nachgewiesen. Ein Vergleich mit Schwellenwerten von Blackwell/Adrian ergibt keine Übereinstimmung aufgrund der dort fehlenden physikalischen Wirkung des Blendungsschleiers. Aus dem umfassenden Schwellenmodell nach Narisada und den eigenen Messdaten lassen sich erstmals neuartige, erweiterte TI-Formeln für foveales und peripheres Sehen ableiten. Damit ist es möglich, die Blendung korrekter quantitativ zu erfassen, weil einerseits die Kontrastminderung infolge Blendungsschleier einbezogen wird und weil andererseits die neuen Blendungsformeln von der Hintergrundleuchtdichte eines Hindernisses im Bewertungsfeld abhängen, wodurch die insbesondere auf nasser Straße vorhandene inhomogene Leuchtdichteverteilung genauer einberechnet wird.



Kristiansen, Silje;
Media and risk : a phase model elucidating media attention to nuclear energy risk. - Ilmenau : Universitätsverlag Ilmenau. - 294 Seiten. - (NEU - Nachhaltigkeits-, Energie- und Umweltkommunikation ; Band 5)
ETH Zürich, Dissertation 2015

ISBN 3-86360-159-9

Wildner, Christian;
Minimierung unerwünschter Durchsatzminderungen nach Ausfällen und späteren Wieder-Inbetriebnahmen von Regalbediengeräten in automatisierten Hochregallagern. - Ilmenau : Universitätsverlag Ilmenau, 2017. - 136 Seiten
Technische Universität Ilmenau, Dissertation 2016

ISBN 3863601564 = 978-3-86360-156-0

Zur Steuerung des verbreiteten technischen Lagertyps automatisiertes Hochregallager (aHRL) kommen Lagerbetriebsstrategien zur Anwendung, welche einen wesentlichen Einfluss auf das charakteristische Betriebsverhalten des Lagersystems ausüben. In Anbetracht gestiegener Kundenforderung in Bezug auf Liefertreue bzw. Lieferzuverlässigkeit, verlängerter Betriebszeiten und verringerter Ausübung geplanter Instandhaltung stellt sich die Frage, welchen Beitrag Lagerbetriebsstrategien leisten können, wenn trotz hoher Verfügbarkeitszusagen seitens der Hersteller ein Regalbediengerät (RBG) in einem automatisierten Hochregallager ausfällt. Unter Berücksichtigung von Geinitz Untersuchungen zur Durchsatzreduktion nach Beendigung des Ausfalls eines Regalbediengeräts (1998) gilt es zunächst festzustellen, dass die Betriebsstrategie Querverteilung in üblichen Betriebssituationen für diese Zwecke als unzureichend zu bewertet ist. Detaillierte Betrachtungen der Veränderungen des Lagerbestands eines Artikels während und in der Folge eines RBG-Ausfalls ermöglichen die Entwicklung des Konzepts der 'Störstelle', auf das sich das in Simulationsexperimenten im Zusammenhang mit dem Ausfall eines RBG beobachtbare Durchsatzverhalten von aHRL zurückführen lässt. Auf Basis sogenannter 'schwacher' Varianten der Querverteilung und des first-in-first-out-Prinzips wird eine neue Lagerbetriebsstrategie in Form mehrerer optionaler Maßnahmen formuliert. Die konkrete Ausgestaltung und Anwendung dieser neuen Betriebsstrategie muss unter Berücksichtigung einer Reihe von Umständen erfolgen, welche von der spezifischen Betriebssituation des jeweiligen aHRL abhängen. Im Einzelfall ermöglicht die auf jeweilige Betriebssituation angepasste Variante dieser neuen Betriebsstrategie die Minimierung der negativen Folgen eines eingetretenen RBG-Ausfalls.



Aissa, Tarek;
Systemidentifikation und Reglersynthese für örtlich verteilte Prozesse durch adaptive Takagi-Sugeno Fuzzy Systeme am Beispiel des Raumklimaverhaltens. - Ilmenau : Universitätsverlag Ilmenau, 2017. - 244 Seiten
Technische Universität Ilmenau, Dissertation 2017

ISBN 3-86360-158-0

Die vorliegende Arbeit befasst sich mit der Modellbildung und Regelung nichtlinearer örtlich verteilter Prozesse. Als beispielhafte Anwendung wird die Regelung des Raumklimas im Rahmen der Präventiven Konservierung betrachtet. Die Präventive Konservierung umfasst dabei vorbeugende Maßnahmen zum Schutz von Kulturgütern. Eine wichtige Aufgabe ist hierbei die Stabilisierung des Raumklimas, insbesondere der relativen Luftfeuchtigkeit, in einem stationär akzeptablen Bereich. Zudem sind die kurzfristigen Schwankungen der Klimagrößen auf ein Minimum zu reduzieren. Die Betrachtung des Raumklimaverhaltens als konzentriert-parametrisches System reicht dabei zur Erfüllung der Anforderungen der Präventiven Konservierung nicht aus. Aus diesem Grund wird in dieser Arbeit ein Ansatz zur örtlich verteilten Betrachtung der Klimagrößen entwickelt, der sowohl die Modellbildung als auch die Regelung umfasst. Das Verhalten des Raumklimas bildet dabei ein strömungstechnisches Problem der Fluiddynamik. Dieses lässt sich durch ein System nichtlinearer partieller Differentialgleichungen beschreiben. Die Lösung solcher Strömungsprobleme erfolgt üblicherweise über numerische Methoden, wie den bekannten CFD-Simulationen. Nachteilig wirkt sich dabei der hohe rechentechnische Aufwand aus, was CFD-Simulationen zur Synthese von Reglern ungeeignet macht. Durch örtliche Diskretisierung mit Hilfe von Finite-Differenzen Methoden werden die partiellen Differentialgleichungen durch ordinäre Differentialgleichungen approximiert. Anschließend wird das hierdurch entstandene nichtlineare dynamische Gleichungssystem durch Methoden der Takagi-Sugeno Fuzzy Theorie beschrieben. Hierbei tritt für den Fall örtlich verteilter Systeme die Notwendigkeit der Modellreduktion auf, welche durch die Einführung des sogenannten Hadamard-Produktes gelöst wird. In dieser Arbeit werden sowohl Methoden zur Reglersynthese als auch Methoden zur datengetriebenen Modellbildung behandelt. Die datengetriebene Modellbildung ist dabei für eine Anwendung des Ansatzes im Rahmen einer Raumklimaregelung notwendig, da ein analytischer Ansatz für diesen Fall nicht praktikabel umsetzbar ist. Die entwickelten Ansätze werden zunächst theoretisch hergeleitet und an einem eindimensionalen Fallbeispiel verifiziert. Anschließend werden sie auf das Raumklimaverhalten übertragen. Es werden Ergebnisse zur datengetriebenen Modellbildung sowie zur Regelung des Raumklimas anhand von Untersuchungen eines kulturell genutzten Raumes gezeigt und mit gängigen Methoden zur Regelung des Raumklimas verglichen. Die Ergebnisse zeigen dabei, dass die örtlich verteilte Betrachtung deutliche Vorteile bringt.



Kraft, Dietmar;
Untersuchungen zur Detektion und Kontrolle der Schweißnahtqualität beim Heizelementstumpfschweißen von Thermoplasten unter Berücksichtigung der Wärmestrombilanzierung. - Ilmenau : Universitätsverlag Ilmenau, 2017. - XI, 207 Seiten. - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 4)
Technische Universität Ilmenau, Dissertation 2016

ISBN 978-3-86360-157-7

Eine permanente Zielsetzung ist, Verarbeitungsprozesse zu optimieren, sprich bei gleichbleibender oder verbesserter Qualität den Ausschuss und den Energieverbrauch zu minimieren sowie die Geschwindigkeit und die Effizienz des Prozesses zu steigern. Die Ausarbeitung zum Thema "Untersuchungen zur Detektion und Kontrolle der Schweißnahtqualität beim Heizelementstumpfschweißen von Thermoplasten unter Berücksichtigung der Wärmestrombilanzierung" hat sich dieser Herausforderung gestellt. Die vorliegende Arbeit zeigt, dass die Wärmestrombilanzierung mittels hochtemperatur-beständiger Wärmestromsensoren eine zuverlässige, reproduzierbare und universell einsetzbare Lösung darstellt, prozess- als auch bauteilspezifische Kennwerte beim Heizelementstumpfschweißen von Kunststoffen direkt in der Fügezone zu generieren, und mit Hilfe dieser Kennwerte das Heizelementstumpfschweißverfahren wirtschaftlicher, effizienter und ressourcenschonender in eine Fertigung zu implementieren. Hinzu kommt noch, dass in dieser Arbeit die grundlegenden Entwicklungen getätigt wurden, um sogar bisher verwendete Sensoren (vorwiegend Weg-, Kraftsensoren sowie Thermoelemente) über die Nutzung eines hochtemperaturbeständigen Wärmestromsensors zu substituieren und somit den Einsatz der Wärmestrombilanzierung nahezu kostenneutral zu realisieren. Die Möglichkeit der Inline-Qualitätssicherung entwickelt das Heizelementstumpfschweißverfahren zukunftsorientiert weiter und legt den Grundstein für einen verstärkten Einsatz dieses Fügeverfahrens.



Schwarz, Andreas; Schleicher, Kathrin; Srugies, Alice; Rothenberger, Liane
Die Krisenkommunikation von Jugendämtern in Deutschland : Befunde zur Medienberichterstattung und strategischen Kommunikation insbesondere im Kontext schwerer Fälle von Kindeswohlgefährdung. - Ilmenau : Universitätsverlag Ilmenau, 2017. - XIII, 280 Seiten ISBN 3863601548 = 978-3-86360-154-6

In den vergangenen Jahren kam es in Deutschland wiederholt zu tragischen Fällen von Kindesmisshandlung oder Kindstötung, über die bundesweit in den Medien berichtet wurde. Oft wurde dabei auch die Rolle der zuständigen Jugendämter thematisiert, denen nicht selten Behördenversagen vorgeworfen wird. Aufgrund des hohen gesellschaftlichen Interesses sind deutsche Jugendämter regelmäßig aktive oder passive Akteure der öffentlichen Krisenkommunikation. Dies stellt die Behörden intern und extern vor große Herausforderungen. Um die innerbehördliche Kommunikation sowie die öffentliche mediale Wahrnehmung besser zu verstehen, wurden im Zeitraum von 2013 bis 2015 zwei wissenschaftliche Studien an der TU Ilmenau durchgeführt. Das Projekt wurde gefördert vom Nationalen Zentrum Frühe Hilfen (NZFH), getragen von der Bundeszentrale für gesundheitliche Aufklärung (BZgA) in Kooperation mit dem Deutschen Jugendinstitut (DJI), aus Mitteln des Bundesministeriums für Familie, Senioren, Frauen und Jugend (BMFSFJ). Dabei wurden 32 leitfadengestützte Interviews in bundesweit neun Jugendämtern geführt und die Medienberichterstattung in regionalen bzw. überregionalen Tageszeitungen über Jugendämter sowie Fälle von Kindeswohlgefährdung von 2009 bis 2013 analysiert. Die Ergebnisse beider Studien sind in diesem Band dokumentiert und geben erstmals umfassende Einblicke in die innerbehördlichen Prozesse bzw. Strukturen der Krisenkommunikation und im Vergleich dazu die öffentliche gesellschaftliche Thematisierung von Kindesmisshandlung.



Schwerdfeger, Robert;
Vertikaler Netzbetrieb : ein Ansatz zur Koordination von Netzbetriebsinstanzen verschiedener Netzebenen. - Ilmenau : Universitätsverlag Ilmenau, 2017. - X, 161 Seiten. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA) ; Band 17)
Technische Universität Ilmenau, Dissertation 2016

ISBN 978-3-86360-148-5

Die in Deutschland zunehmende Abschaltung und Stilllegung konventioneller Kraftwerke resultiert in einem Defizit an regelbarer Erzeugung. Folglich bedarf es zu dessen Ausgleich Verfahren, die sich neuer betrieblicher Freiheitsgrade wie bspw. aktiver Netzanschlussnehmer in den Verteilernetzen bedienen. Diese Arbeit widmet sich der Fragestellung, wie genau diese neuen betrieblichen Freiheitsgrade in den Verteilernetzebenen nutzbar gemacht werden können, ohne dass deren Abruf bzw. Aktivierung einen negativen Einfluss auf deren Anschlussnetze hat. Hierfür bedarf es einer Interaktion bzw. Koordination der Netzbetriebsinstanzen der verschiedenen Netzebenen. Dementsprechend werden drei mögliche Netzbetriebsansätze diskutiert. Dabei stellt sich das hier vorgeschlagene Verfahren "Vertikaler Netzbetrieb" als favorisierter Ansatz heraus. Für die Umsetzung dieses Konzepts bedarf es einer neuartigen Koordinationsschnittstelle zwischen den Netzbetreibern. Die hierfür vorgestellte PQu(t) Kapabilität ist in ihrer Anwendung nicht ausschließlich auf den Vertikalen Netzbetrieb beschränkt und kann ebenso für horizontale Netzkopplungen genutzt werden. Des Weiteren wird im Rahmen dieser Arbeit eine Methode zur Berechnung der abgangsscharfen Arbeitspunktänderungen entworfen. Alle Methoden berücksichtigen die dedizierten Arbeitsbereiche der einzelnen Anlagentypen, die PQu(t) Kapabilitäten etwaiger unterlagerter Netze sowie je nach Netzebene das (n 1) Netzsicherheitskriterium. Die Validierung der Zulässigkeit des vorgeschlagenen Ansatzes inklusive der entworfenen Methoden erfolgt mittels numerischer Fallstudien. Dabei bedingt die Untersuchung die Abbildung verschiedener Netzstrukturen und -ebenen. Im Rahmen dieser Arbeit werden dafür bestehende Referenznetze ausgewählt und hinsichtlich der sich aus der Abbildung der vertikalen Koordination ergebenden Anforderungen angepasst. Hierbei sind neben der Last-, EE-Anlagen- und Potenzialverteilung sowie deren Dimensionierung auch die etwaig angeschlossenen unterlagerten Netze zu berücksichtigen. Es wird gezeigt, dass der Vertikale Netzbetrieb für die Koordination von Netzbetriebsinstanzen verschiedener Netzebenen geeignet ist und die Nutzbarmachung der betrieblichen Freiheitsgrade in den Verteilernetzen ohne Gefährdung der Netzsicherheit möglich ist.



Binder, Sebastian;
Aerosol jet printing : contactless deposition technique for solar cell metallization. - Ilmenau : Universitätsverlag Ilmenau, 2017. - xiv, 184 Seiten. - (Werkstofftechnik aktuell ; Band 15)
Technische Universität Ilmenau, Dissertation 2016

ISBN 3-86360-153-X
Dissertation erschienen unter dem Titel: Contactless deposition technique for solar cell metallization

Der Ansatz, zwei Schichten bestehend aus einer Saatschicht und einer Galvanikschicht zur Kontaktierung von Solarzellen zu verwenden ist ein etabliertes Konzept in der Photovoltaikforschung. Die Kombination aus gedruckter und gefeuerter Saatschicht zur optimierten Kontaktbildung der Tinte mit dem Zellemitter und dem anschließenden galvanischen Abscheiden von hochleitfähigen Metallen auf dieser Saatschicht, ermöglicht eine Verbesserung der Solarzellenleistung und Reduzierung des eingesetzten teuren Silbers. Hierfür ist eine schmale Saatschicht erwünscht. Der Aerosoldruck ist eine vielversprechende Technologie, um solch eine Saatschicht herzustellen. In dieser Arbeit wurde die Aerosoldrucktechnik gründlich untersucht und verbessert. Eine effiziente und zuverlässige Abscheidung schmaler und gleichmäßiger Saatschichten ist ermöglicht. Mit Düsendurchmessern von 150 [my]m wurden auf Wafern mit Pyramidenoberflächen Linienbreiten von nur 18 [my]m erzeugt. Um diese Drucktechnologie zu beschreiben wurde ein Modell entworfen. Mit diesem Modell kann die Breite der gedruckten Saatschicht vorhergesagt und der Einfluss von Prozessparametern und Druckdüsen unterschiedlicher Größe erklärt werden. Das Auftreffen des Aerosols auf dem Substrat und die Qualität und Breite der gedruckten Linien wurden numerisch und empirisch untersucht. Mit numerischen Strömungssimulationen der Gas- und Partikelströmung wurden neue Aerosoldruckköpfe entwickelt. Um einen schnellen und zuverlässigen Druck der Saatschicht zu erlauben, wurde eine fortschrittliche Strömungsführung integriert. Ein Aerosoldruckkopf mit 78 Düsen, geeignet zur Massenproduktion von Solarzellen, wurde hergestellt und getestet. Auf einem 15.6 x 15.6 cm^2 großen Wafer wurde die Saatschicht in nur 3.9 s gedruckt. Eine Linienbreite von L = 38 ± 5 [my]m wurde erzielt. Das Benetzen der Tinte auf Solarwaferoberflächen ist verknüpft mit den Prozessbedingungen und der Topographie der Wafer. Die abgeschiedenen Saatschichten wurden für einen niedrigen elektrischen Kontaktwiderstand zum Emitter optimiert. Dünne Saatschichten schnitten hierbei am besten ab und sind zugleich am kostengünstigsten. Die Menge an gedrucktem Silber zum Kontaktieren industrieller Siliciumsolarzellen beträgt nur weniger als 9 mg pro 15.6 x 15.6 cm^2 Wafer. Niedrig dotierte Bor- und Phosphoremitter der nächsten Generation sowie neu entwickelte Solarzellendesigns wurden erfolgreich mit dem Aerosoldruckverfahren kontaktiert. Wirkungsgrade von [eta] > 20 % wurden auf industrienahen Solarzellen erreicht. In dieser Arbeit wurde das Aerosoldruckverfahren verbessert, um den Druck von Saatschichten auch im industriellen Maßstab zu ermöglichen. Mit dieser Technologie ist es nun möglich Solarzellen der nächsten Generation zu kontaktieren.



Blauth, Michael;
Parametrisierte Modelle zur konstruktiven Auslegung optimierter elektrischer Steckverbinderkontakte. - Ilmenau : Universitätsverlag Ilmenau, 2017. - XII, 221 Seiten. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte und Anlagentechnik ; Band 18)
Technische Universität Ilmenau, Dissertation 2017

ISBN 3-86360-155-6

Im Rahmen dieser Arbeit wird die konstruktive Auslegung von Steckverbindern hinsichtlich der Stromtragfähigkeit untersucht. Zunächst werden bekannte analytische Modelle aus verschiedenen physikalischen Phänomenen (mechanische, elektrische, thermische und kontaktphysikalische) miteinander kombiniert, um die Stromerwärmung von Steckverbinderkontakten incl. der angeschlossenen Leitung analytisch zu berechnen. Die Modelle werden mit Hilfe von Experimenten und FE-Analysen verifiziert. Anschließend werden die analytischen Modelle umgeformt, um wichtige Fragestellungen bei der konstruktiven Auslegung von Steckverbinderkontakten zu berechnen. Dazu zählen unter anderem der maximal zulässige Durchgangswiderstand von Steckverbinderkontakten, der Zusammenhang zwischen Durchgangswiderstand und Stromerwärmung, sowie die optimale Anzahl an Kontaktfedern für einen Steckverbinderkontakt. Zudem werden Sensitivitätsanalysen durchgeführt, um den Einfluss konstruktionsrelevanter Parameter auf die Stromerwärmung von Steckverbinderkontakten darzustellen. Durch die gewonnenen Ergebnisse wird schließlich ein Vorgehen zur systematischen Auslegung von Steckverbinderkontakten hinsichtlich der Stromtragfähigkeit erarbeitet. Dieses nutzt analytische Modelle (parametrisierte Modelle), mit denen sich wesentliche geometrische Abmessungen und Werkstoffkennwerte berechnen lassen. Dadurch können Baureihen von Steckverbinderkontakten entwickelt werden, die einer einheitlichen Methodik folgen, eine Überdimensionierung vermeiden und sich für verschiedene Stromstärken skalieren lassen. Die Arbeit stellt damit einen Ansatz zur parametrischen Konstruktion von Steckverbindern dar.



Kelm, Andreas;
Modellierung des Abtragsverhaltens in der Padpolitur. - Ilmenau : Universitätsverlag Ilmenau, 2017. - XIII, 147 Seiten
Technische Universität Ilmenau, Dissertation 2016

ISBN 3863601491 = 978-3-86360-149-2

Im Rahmen dieser Dissertation wird ein Modell vorgestellt, mit dem eine Vorhersage über den Materialabtrag bei der Padpolitur von Oberflächen möglich ist. Es ermöglicht die Vorhersage des Materialabtrags auf Basis physikalischer Parameter. Die Berechnung ist für beliebige Oberflächengeometrien ausgelegt und liefert ortsabhängige Abtragsfunktionen. Das Modell beinhaltet die Geometrie des Werkstücks, d.h. die dadurch verursachte Änderung der Abtragsfunktion ist integraler Teil der Simulation. Dies stellt eine wesentliche Verbesserung zu kommerziell erhältlichen Poliermaschinen dar, die teilweise mit festen Abtragsfunktionen arbeiten. Zu den berücksichtigten variablen Parametern zählen der lokale Verlauf der Werkstückoberfläche, die Geometrie des Werkzeugs, die Drehzahlen von Werkzeug und Werkstück sowie die Kraft auf das Werkzeug. Der Vergleich realer Polituren mit den Ergebnissen der Simulation liefert eine hohe Übereinstimmung mit Abweichungen im Bereich von 10% und darunter. Die starke Positionsabhängigkeit von Form und Größe der Abtragsspuren in der Rundtischpolitur zeigt sich gleichermaßen in der Simulation als auch der realen Politur. Das Modell bildet die Positionsabhängigkeit des Abtrags bei Verwendung von Offsetwerkzeugen ab. Die Wirksamkeit eines theoretisch hergeleiteten Vorschubprofils zur Beseitigung dieser Eigenheit von Offsetwerkzeugen zeigt die Simulation ebenso. Die in der Literatur genannte Abhängigkeit des Preston-Koeffizienten von der Relativgeschwindigkeit zwischen Werkzeug und Werkstück wird experimentell nachvollzogen und ein Verfahren zur Bestimmung des Reibungskoeffizienten während des Polierprozesses vorgestellt. Die so gemessenen Werte stimmen gut mit den in der Literatur angegebenen Werten überein.



Marekfia, Wolfgang;
Strategisches GRC-Management : Anforderungen, Forschungsagenda und datenseitiges Modell. - Ilmenau : Universitätsverlag Ilmenau, 2017. - 523 Seiten. - (Ilmenauer Schriften zur Wirtschaftsinformatik ; Band 3)
Technische Universität Ilmenau, Dissertation 2016

ISBN 3-86360-151-3

GRC als Akronym für Governance, Risk- und Compliance-Management wird gegenwärtig in der Unternehmenspraxis überwiegend als Schlagwort aufgegriffen und durch isolierte, kurzfristige Initiativen umgesetzt. GRC wird mehrheitlich als Bürde gesehen und die Integrationsmöglichkeiten sowie die strategische Bedeutung des Themas werden unzureichend erkannt, wodurch Nutzenpotentiale und mögliche Synergieeffekte nicht genutzt werden können. Obwohl erste integrierte GRC-Ansätze existieren, ist das Thema bislang wenig strukturiert und die Eingrenzung bleibt vage. Relevante Detailfragen, wie die Automatisierung der Compliance-Sicherung und Risikosteuerung, die Modellierung von GRC-Informationen und die Determinanten des Compliance-Verhaltens können nur schwer in den Gesamtzusammenhang eingeordnet werden. Die vorliegende Arbeit verfolgt daher das Ziel der Grundlegung eines allgemeinen Verständnisses für ein integriertes und strategisch ausgerichtetes Management von GRC, das als strategisches GRC-Management bezeichnet wird. Hierfür werden basierend auf einem umfangreichen Literaturreview Anforderungen an das strategische GRC-Management hergeleitet, der Forschungsstand strukturiert analysiert und eine Forschungsagenda entwickelt. Diese Forschungsergebnisse werden durch eine Delphi-Studie bestehend aus drei Befragungsrunden abgesichert. Die Studie bestimmt zudem die Bedeutung der einzelnen Anforderungen und Forschungsbedarfe, wodurch eine Priorisierung ermöglicht wird. Darüber hinaus wird ein datenseitiges Modell für das strategische GRC-Management entwickelt, das die strukturellen Zusammenhänge von GRC auf Informationsebene darstellt. Das Datenmodell wird an Hand eines Beispiels demonstriert und mit Hilfe einer Auswertung von publizierten Praxisbeispielen evaluiert. Die Arbeit stellt durch die Forschungsagenda vielfältige Anknüpfungspunkte für weitere Forschung zur Verfügung. Die Anforderungen sowie das datenseitige Modell ermöglichen eine Bewertung und Weiterentwicklung des GRC-Managements in der Unternehmenspraxis.



Richter, Katja;
Gesundheits-Roboter für Senior/innen : neue Informations- und Kommunikationstechnologien in der alternden Gesellschaft. - Ilmenau : Universitätsverlag Ilmenau, 2017. - XIII, 166 Seiten. - (Kommunikationswissenschaft interdisziplinär ; 6)
Technische Universität Ilmenau, Dissertation 2016

ISBN 3863601505 = 978-3-86360-150-8

Im Rahmen der vorliegenden Dissertation wurden mobile Service-Roboter, die ältere Menschen zukünftig dabei unterstützen sollen, möglichst lange selbstständig im eigenen Haushalt zu leben, als innovative Informations- und Kommunikationstechnologien insbesondere hinsichtlich Gesundheitskommunikation in den Blick genommen. Im Sinne eines nutzerzentrierten Entwurfs wurde ermittelt, welche Lösungen zur Gesundheitsförderung und Gesundheitsunterstützung, wie implementiert werden müssen, was die Zielgruppe angesichts noch fehlender Praxiserfahrung mit Robotern bisher nur bedingt angeben kann. Zunächst wurde eine in Entwicklung befindliche lauffähige Roboter-Plattform durch Senior/innen (n=9) im Rahmen einer Fallstudie in mehrtägigen Feldtests formativ evaluiert. So konnte ermittelt werden, wie die Mensch-Roboter-Interaktion eines Gesundheits-Roboters beschaffen sein muss, damit er effektiv, effizient und zufriedenstellend genutzt werden kann. Aussagen zur Nützlichkeit bestimmter Anwendungen für die Alltagsunterstützung waren aufgrund der begrenzten Testdauer (max. drei Tage) und des begrenzten Funktions-Umfangs allerdings limitiert. Um die Vision einer roboterunterstützten Gesundheits-Assistenz im hohen Alter weiter konkretisieren zu können, wurde im zweiten Schritt zunächst mittels einer qualitativen Interviewstudie (n=12) umfassende, detaillierte Informationen zu Alltag und v.a. Tageslaufstrukturen älterer Menschen erfasst und ermittelt, wie sich ein Gesundheits-Roboter langfristig darin einfügen sollte. Anhand der Ergebnisse konnten Personas entwickelt werden. Diese wurden mit Hilfe der Szenario-Technik im dritten Schritt systematisch mit dem aktuellen Forschungs- und Entwicklungsstand zu Gesundheits-Robotern zu drei normativen, narrativen Nutzungs-Szenarien verknüpft. Im abschließenden vierten Schritt wurden die Szenarien durch Fachleute wie Laien im Rahmen einer Interviewstudie diskutiert (n=12 Einzel- und Gruppeninterviews mit n=28 Befragungspersonen). Die Ergebnisse der vier Teilstudien zeigen, dass Gesundheits-Roboter mit Chancen für Gesundheit, gesellschaftliche Partizipation und interpersonale Kommunikation sowie einem konkreten Nutzen für die selbstständige Lebensführung, aber auch mit Risiken wie Datenschutzverletzungen, Kontroll- und Fähigkeitsverlusten verknüpft werden. Es konnten überindividuelle Anknüpfungspunkte identifiziert werden, um Roboter-Funktionen bedarfsgerecht gestalten und in individuelle Tagesverläufe integrieren zu können.



Scheibe, Hannes;
Aktiv-adaptive Polierwerkzeuge zur Herstellung rotationssymmetrischer Asphären. - Ilmenau : Universitätsverlag Ilmenau, 2017. - XVIII, 163 Seiten. - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; Band 28)
Technische Universität Ilmenau, Dissertation 2016

ISBN 978-3-86360-147-8

Optische Technologien sind einer der wesentlichen wirtschaftlichen Treiber des 21. Jahrhunderts. Aus heutiger Sicht besteht speziell für die wirtschaftliche Einzelteilfertigung asphärischer Optikkomponenten als auch optischer Freiformelemente steigender Handlungsbedarf. Diese sind in der geforderten Qualität zwar herstellbar, jedoch verhindern zeitintensive und aufwändige Fertigungsprozesse ihren breiten Einsatz. Der Miniaturisierung und Integration zusätzlicher Funktionalitäten sind unter ausschließlicher Verwendung sphärischer Optikkomponenten enge Grenzen gesetzt, an denen sich heutige Technologien bewegen. Der Einsatz asphärischer Optikkomponenten erlaubt hingegen eine Reduzierung der Anzahl optischer Bauelemente, welche den Bauraumbedarf, das Gewicht, den konstruktiven Aufwand und somit auch die gesamte Komplexität des optischen Systems zu verringern vermag. Ziel dieser Arbeit ist es, eine spürbare Kostensenkung für die Herstellung asphärischer Optikkomponenten zu realisieren. Die dazu erforderliche Weiterentwicklung aktueller Fertigungsprozesse setzt dabei eine tiefgründige wissenschaftliche Auseinandersetzung mit dem Themenkomplex heutiger Optiktechnologien im Allgemeinen sowie der Optikfertigung im Speziellen voraus. Den Einstieg dafür bildet die systematische Analyse bestehender Prozesse zur Herstellung asphärischer Optikkomponenten. Darin wird der Vorpolierprozess als wesentlicher Kostentreiber der Asphärenfertigung identifiziert. Ursachen dafür sind drei wesentliche prozess- und technologiebedingte Nachteile, deren Auswirkungen es zur Realisierung einer kosteneffizienten Fertigung mindestens zu reduzieren, idealerweise zu beseitigen gilt. Darauf aufbauend erfolgt eine Erarbeitung und Vorstellung dreier Lösungsansätze. Deren Vergleich und Bewertung zeigt, dass vollaperturige, aktiv-adaptive Polierwerkzeuge die größten Erfolgsaussichten versprechen. Im Folgenden wird dieser Lösungsansatz durch die Erarbeitung des Lösungsraums untersetzt. Die sukzessive Überführung und Ausgestaltung des vollaperturigen, aktiv-adaptiven Polierwerkzeugs hin zu einem Konstruktionsentwurf erfolgt in Anlehnung an die Systematik der Ilmenauer Konstruktionslehre. Den Abschluss der Arbeit bilden der praktische Verfahrensnachweis des entwickelten Werkzeugs, eine Einflussgrößenanalyse, eine Abschätzung des Einsparpotentials sowie Empfehlungen zur Weiterentwicklung.



Fremerey, Max;
Entwurf und Validierung eines biologisch inspirierten mechatronischen Antriebssystems für aquatische Roboter. - Ilmenau : Universitätsverlag Ilmenau, 2016. - XIV, 353 Seiten. - (Berichte aus der Biomechatronik ; Band 12)
Technische Universität Ilmenau, Dissertation 2016

ISBN 978-3-86360-137-9

Mit Zunahme der Aktivitäten im Feld der Tiefseeforschung und -erkundung gewinnen autonome Unterwasserroboter an Bedeutung. Die Aufgabenerfüllung dieser mobilen Serviceroboter soll zukünftig verstärkt auch in solchen Gewässern erfolgen, welche dicht bewachsen oder mit Abfällen verunreinigt sind. Dadurch werden Antriebssysteme erforderlich, welche die Gefahr eines Funktionsausfalls aufgrund der Arbeitsumgebung des Roboters minimieren. Somit erfolgen innerhalb der vorliegenden Arbeit der systematische Entwurf sowie die Validierung eines biologisch inspirierten Antriebssystems, welches analog der Fortbewegung stetig schwimmender Fische den Vortrieb über gerichtete Verformung anstelle der Vollrotation eines Propellers erzeugt. Die Neuartigkeit dieses Antriebssystems besteht darin, dass der Vortrieb mittels einer variablen Anzahl an wechselsinnig bewegten Starrkörperelementen generiert wird, welche untereinander federnd verkoppelt sind. Unter Einbezug des derzeitigen Standes der Wissenschaft und Technik besteht die Herausforderung in der Reduktion der für die Fortbewegung erforderlichen Anzahl der Aktuatoren unter Beibehaltung eines technisch nutzbaren Vortriebs sowie der Manövrierfähigkeit des Roboters. Zudem sollen die gezielt platzierten Energiespeicher innerhalb des Mechanismus eine Optimierung des Leistungsbedarfs eines schwimmenden aquatischen Roboters ermöglichen: die während der Oszillation auftretende kinetische Energie wird in potentielle und für den nächsten Schlagzyklus nutzbare Energie gewandelt. Anhand von Mehrkörpermodellen werden daher der Leistungsbedarf sowie das Bewegungsverhalten mittels numerischer Simulationen ermittelt und geeignete Konfigurationen durch systematische Parametervariation herausgearbeitet. Anschließend erfolgt die konstruktive Umsetzung der simulativ gewonnenen Erkenntnisse in der EXPERIMENTALPLATTFORM URMELE 1.0, einem Vertreter der aquatischen Roboterfamilie URMELE. Unter Verwendung eines ebenfalls innerhalb dieser Arbeit entworfenen Versuchsstandes wird die Experimentalplattform im Versuch validiert. Die Experimentaldaten werden anschließend mit den Simulationsdaten verglichen. Ausgesuchte Baugruppen werden modifiziert. Die durchgeführten Untersuchungen bestätigen hierbei, dass sich durch Beeinflussung der das Antriebssystem wesentlich charakterisierenden Parameter, wie beispielsweise Amplitude und Federsteifigkeit, günstige Konfigurationen hinsichtlich des Leistungsbedarfs sowie des Bewegungsverhaltens ergeben.



Tudor, Ana-Despina;
Development of a virtual audience concept for public speaking training in immersive virtual environments. - Ilmenau : Universitätsverlag Ilmenau, 2016. - XV, 293 Seiten. - (Kommunikationswissenschaft interdisziplinär ; Band 5)
Technische Universität Ilmenau, Dissertation 2015

ISBN 978-3-86360-146-1

Die vorliegende Dissertation schlägt einen neuen Ansatz für Kommunikationstrainings und Sprechübungen vor, und führt ein Konzept für ein virtuelles Publikum ein. Das Publikum soll hierbei als Trainingsinstrument dienen und richtet sich an diejenigen, welche ihre rhetorischen Fähigkeiten und Präsentationstechniken verbessern möchten. Die Schlüssel-Komponente des Publikums bilden virtuelle Menschen, wobei diese möglichst realistisch aussehen und agieren sollen. Dies wirft eine zentrale Frage auf: Was sind die Merkmale eines realen Publikums und was machen die Menschen überhaupt, wenn sie vor einem Sprecher sitzen? Um diese Frage zu beantworten, wurden zwei Studien durchgeführt. Die erste explorative Studie beschäftigt sich mit Experten im Kommunikationstraining und VR Bereich. Sieben Experten wurden sowohl über die Rolle von Publikumsanpassung, Interaktion, und Gruppendynamik als auch über technische Anwendungsmöglichkeiten in der virtuellen Realität befragt. Die Ergebnisse zeigen, dass die Kommunikationstrainingsprogramme hohe Publikumsanpassungen und Interaktivitätsmöglichkeiten erfordern. Um die Ergebnisse zu komplementieren, wurde ein Trainingsseminar beobachtet. Die Resultate der Beobachtung verdeutlichen die Bedeutung von Sprechübungen im Rahmen eines Kommunikationsprogramms sowie die bevorzugten Feedbackmethoden. Die zweite Studie umfasst die Beobachtung eines studentischen Publikums im Rahmen einer Vorlesung an der Technischen Universität Ilmenau. Die nonverbalen Verhaltensweisen von 14 Studierenden wurden kodiert und in aufmerksame oder unaufmerksame Verhaltensweisen aufgeteilt. Weiterhin wurde die Frequenz, Komplexität und Dauer der ausgewiesenen Reaktionen analysiert. Die Ergebnisse dieser zwei Studien bilden das Fundament für die Entwicklung eines Designkonzepts für ein virtuelles Publikum. Dieses bezieht unterschiedliche Merkmale (z.B. demographische Charakteristika, Vorschläge für virtuelle Räumlichkeiten, etc.) ein. Zusätzlich wird eine Liste mit Indikatoren für Aufmerksamkeit und Unaufmerksamkeit eingebunden und ein fünfminütiges Szenario mit fünf virtuellen Menschen vorgestellt.



Resch, Jens;
Kontextorientierte Entwicklung und Absicherung von festen Verbindungen im Produktentstehungsprozess der Automobilindustrie. - Ilmenau : Universitätsverlag Ilmenau, 2016. - xv, 227 Seiten. - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; Band 27)
Technische Universität Ilmenau, Dissertation 2016

ISBN 978-3-86360-143-0

Die Anforderungen an die Entwicklung und Absicherung von Produkten in der Automobilindustrie sind in den vergangenen Jahren erheblich gestiegen. Während einer Absicherung werden die Ist-Eigenschaften des Produktes analysiert und mit den geforderten Soll-Eigenschaften verglichen. Neben den bekannten Herausforderungen hinsichtlich Zeit, Kosten und Qualität steigt auch der Anspruch aufgrund der hohen Varianz der angebotenen Produkte. Produkte werden aufgrund funktionaler, herstellungs- oder wartungstechnischer Belange in eine Vielzahl von Einzelteilen und Baugruppen zerlegt. Gefügt werden diese Komponenten durch diverse Verbindungsarten, welche ein ungewolltes Lösen der Einzelteile verhindern. Prinzipiell lassen sich diese festen Verbindungen in lösbare Verbindungen und nicht-lösbare Verbindungen unterteilen. Abhängig von der jeweiligen Verbindungsart wird eine Verbindung entweder mit oder ohne zusätzliche Verbindungshilfsmittel/-stoffe (z.B. Schrauben, Muttern, Kleber) gefügt. In den frühen Phasen der Produktentwicklung werden die zukünftigen Eigenschaften des Produktes definiert und dessen Merkmale ausgearbeitet. Während der Produktentstehung müssen dann alle Eigenschaften aus nachfolgenden Lebensphasen hinsichtlich ihrer Realisierbarkeit analysiert und bewertet werden. Dies geschieht beispielsweise durch Simulationen oder reale Prototypen. Mit Hilfe von digitalen Absicherungen lassen sich die Merkmale der beteiligten Systeme in den unterschiedlichen Lebensphasen mit den Merkmalen des Produktes in einem gemeinsamen Kontext analysieren. Eine Analyse der Entwicklungsprozesse eines Automobilherstellers hat ergeben, dass innerhalb des Produktentstehungsprozesses unterschiedliche Methoden zur Dokumentation und Absicherung von festen lösbaren sowie festen nicht-lösbaren Verbindungen zum Einsatz kommen. Daher wurde im Rahmen dieser Arbeit ein Konzept zur Dokumentation von Verbindungen entwickelt, welches auf alle festen Verbindungen anwendbar ist. Neben der Vereinheitlichung steht auch die Dokumentation von Kontextinformationen, d.h. Informationen die sich auf unterschiedlichen Lebensphasen des Produktes beziehen, im Vordergrund. Sowohl die allgemeinen, als auch die kontextabhängigen Informationen werden dabei in Verbindungsobjekten archiviert. Diese Informationen lassen sich anschließend in digitalen Absicherungsuntersuchungen nutzen.



Finke, Thomas;
SEREMA : self-organized routing in heterogeneous mobile ad hoc networks. - Ilmenau : Universitätsverlag Ilmenau, 2016. - xvi, 211 Seiten
Technische Universität Ilmenau, Dissertation 2016

Enthält Thesen

Nach Naturkatastrophen, wie beispielsweise Erdbeben, Wirbelstürmen, Flutwellen oder auch nach durch den Menschen verursachten Katastrophen wie Terroranschlägen oder Unfällen, ist es sehr wichtig die Ersthelfer zu organisieren. Hierfür ist eine Kommunikationsinfrastruktur, welche zum Beispiel Basisstationen für Mobilfunknetze enthält, von entscheidender Bedeutung. Diese Infrastruktur kann durch die Katastrophe jedoch schwer beeinträchtigt oder vollkommen zerstört sein. Heutzutage sind Ersthelfer als auch Opfer üblicherweise mit leistungsfähigen mobilen Endgeräten, wie Smartphones oder Notebooks, ausgerüstet. Diese mobilen Endgeräte, welche über eine Vielzahl von Netzzugangstechnologien verfügen, können zu einem sogenannten Ad-hoc-Netzwerk zusammengeschlossen werden und bilden anschließend eine infrastrukturlose Kommunikationsbasis. Die Leistungsfähigkeit von kabellosen Ad-hoc-Netzwerken ist dabei stark von der Anzahl bekannter Verbindungen im Netz abhängig. Diese Verbindungen, auch Routen genannt, werden durch das verwendete Routingprotokoll gesucht und ständig aktualisiert. Hierzu stehen verschiedenartige Routingprotokolle zur Verfügung, welche Topologieinformationen zwischen den einzelnen Knoten eines Netzwerks austauschen. Für kabellose Ad-hoc-Netzwerke sind hierfür zahlreiche Routingprotokolle verfügbar, jedoch sind diese bereits existierenden Protokolle nur eingeschränkt für hochdynamische mobile Ad-hoc-Netzwerke geeignet. Dies liegt darin begründet, dass sie nicht in der Lage sind, sich an große Änderungen im Netzwerk anzupassen. In Katastrophenszenarien können allerdings hochdynamische Netzwerke vorkommen, in welchen beispielsweise die Größe des Netzes zwischen einigen wenigen und einigen hundert Knoten schwankt oder sich die Knotengeschwindigkeit von statischen bis hin zu hochmobilen Knoten verändert. Die vorliegende Arbeit präsentiert einen adaptiven Ansatz, welcher in der Lage ist, die gegebenen Parameter des Netzwerks in einer dezentralen Weise zu ermitteln und anschließend das verwendete Routingprotokoll während der Laufzeit zu wechseln, um somit das Routing sehr flexibel an die Gegebenheiten des Netzwerks anzupassen.



Karmo, Diala;
Beiträge zur Erhöhung der Effektivität von Lamellenrohr-Wärmeübertragern. - Ilmenau : Universitätsverlag Ilmenau, 2016. - XVIII, 115 Seiten
Technische Universität Ilmenau, Dissertation 2016

ISBN 978-3-86360-145-4

Die Anforderungen an die Verwendung hocheffizienter Komponenten in Kälte- und Klimaanlagen nehmen ständig zu, wobei Energieeffizienz, geringer Material- bzw. Platzbedarf angestrebt werden. Eine der wesentlichen Komponenten stellt dabei der Lamellenrohr-Wärmeübertrager dar. Eine Erhöhung der Leistung oder eine Reduzierung des Volumens von Wärmeübertragern haben einen großen Einfluss auf die Eigenschaften der Gesamtanlage. Die bestehenden Veröffentlichungen in diesem Bereich zeigen jedoch, dass die Effektivität der Wärmeübertragungsoberflächen nur geringfügig oder gar nicht verbessert werden konnten. Die vorliegende Arbeit konzentriert sich daher auf die Entwicklung neuer Methoden zur effektiven Auslegung von Lamellenrohr-Wärmeübertragern. Dabei sollte die Wärmeübertragung verbessert werden, ohne dass sich die Abmaße des Wärmeübertragers, der Material- und Energieverbrauch vergrößern. Durch eine Recherche über vorhandene interessante Entwicklungsmethoden und die Durchführung von Voruntersuchungen sind Schlussfolgerungen zu ziehen, die als Basis für neue Auslegungsmethoden verwendet werden. Ausgehend davon werden zwei innovative Hauptauslegungen entwickelt. Die neu entwickelten Methoden werden so beschrieben, dass konventionelle Modelle nach systematischen Schritten effektiv ausgelegt werden können. Einerseits ermöglicht die erste Auslegung (Lamellenversetzung) eine verbesserte Turbulenz und eine leichte Erhöhung der Luftgeschwindigkeit zwischen den Lamellen, andererseits sollte die zweite entwickelte Auslegung (Zickzackform) zusätzlich dazu eine größere Kontaktfläche (ellipsenförmig) zwischen den Lamellen und Rohren garantieren. Zur Bewertung der Eigenschaften der entwickelten Modelle werden hauptsächlich die Wärmeübertragungswerte, Druckverluste, Leistungskennzahlen, Materialverbräuche und die Energieeffizienz berücksichtigt. In diesem Zusammenhang werden anhand eines typischen Wärmeübertragers adäquate neue Modelle ausgelegt, die numerisch und zum Teil experimentell untersucht werden. Durch additive Fertigungsverfahren werden dazu zwei Exemplare für ein konventionelles und ein neu entwickeltes Modell modelliert, hergestellt bzw. untersucht.



Lutz, Frederick Gordon;
Einflüsse individueller Muskelkräfte auf dehnungsinduzierten femoralen Knochenumbau. - Ilmenau : Universitätsverlag Ilmenau, 2016. - IX, 119 Seiten. - (Berichte aus der Biomechatronik ; Band 13)
Technische Universität Ilmenau, Dissertation 2016

ISBN 978-3-86360-138-6

Die folgende Arbeit untersucht mittels Simulationen postulierte Einflussgrößen auf dehnungsinduzierte Knochenumbauprozesse an den unteren Extremitäten. Dabei liegt der Schwerpunkt in der Betrachtung von Optimierungsalgorithmen zur inversen Berechnung von Muskel- und Gelenkkräfte. Die Motivation hierfür ist, dass bisher publizierte Berechnungsergebnisse von femoralen Beanspruchungen auf Basis invers-dynamisch bestimmter Muskelkräfte zum Teil ungewöhnlich hohe Biegespannungen im diaphysären Femur aufweisen. Als Grund hierfür wird mit Bezug auf die Hypothesen des Wolffschen Transformationsgesetzes, der Entwicklungsmechanik der Organismen von Roux und der Mechanostat-Theorie von Frost eine nicht adäquate Berücksichtigung mechanobiologischer Zusammenhänge zwischen Knochen- und Muskelmasse postuliert. Unter Nutzung neuer Erkenntnisse aus klinischen Studien erfolgt die Prüfung folgender Hypothese: "Muskelkräfte an den unteren Extremitäten wirken derart, dass Biegebeanspruchungen im diaphysären Bereich der Femora minimiert werden und vorrangig Druckkräfte entstehen". Die mathematische Abbildung der Hypothese erfolgt durch eine Erweiterung etablierter Optimierungsalgorithmen. Das Modell von Knochen und Muskeln der unteren Extremitäten sowie die Finite-Elemente-Modelle (FEM) basieren auf Magnetresonanztomographische Daten eines gesunden männlichen Probanden. In einem Ganglabor erhobene Positionsdaten und Bodenreaktionskräfte liefern Randbedingungen. Für drei charakteristische Zeitpunkte eines Gangzyklus wird gezeigt, dass die berechneten Muskelkräfte die postulierte Hypothese stützen und positive Assoziationen mit elektromyographischen Messdaten bestehen. Die resultierenden Hüftgelenkkräfte betragen das 1,2- bis 3,2-fache des Körpergewichts und sind damit quantitativ vergleichbar mit publizierten Messwerten instrumentierter Hüftprothesen. Die finale Untersuchung möglicher ossärer Transformationen am Berechnungsmodell des gesunden Femur und am Modell mit Hüftimplantat erfolgt mit Referenz zur dritten Hauptdehnung. Ergebnisse der FE-Berechnungen zeigen im Gegensatz zu den bisherigen Optimierungsstrategien, dass zu Beginn der mittleren Standphase und am Ende der terminalen Standphase überwiegend weder Knochenauf- noch -abbau stattfindet. Die Simulation des FE-Modells Femur mit Hüftprothese erlaubt Rückschlüsse auf das bekannte Phänomen des "Stress Shielding".



Döbel, Christian;
Ein Smart Home Management-System basierend auf adaptive Lernalgorithmen des Verhaltenserwerbs (ENKOS). - Ilmenau : Universitätsverlag Ilmenau, 2016. - XIII, 242 Seiten
Technische Universität Ilmenau, Dissertation 2015

Mit der vorliegenden Arbeit ist es gelungen, ein adaptives Lernsystem "ENKOS" ("Energie- und Komfortmanagementsystem") auf Basis von Learning Classifier Systems zu entwickeln, um menschliche Verhaltensweisen in Bezug auf die Benutzung elektrischer Geräte in einem Haushalt zu lernen. Diese konnten für die Steigerung des Wohnkomforts durch eine intelligente Vorhersage eingesetzt werden. Der Lernalgorithmus bezieht zum einen die Korrektur der Entscheidung von ENKOS durch den Nutzer und zum anderen die Korrekturzeit ein und realisiert damit adaptives "Smart Home"-System mit einem völlig neuen Ansatz. Die Informationen, die durch die Benutzungsmuster von elektrischen Geräten durch die Nutzer erhoben werden können, werden außerdem zum Aufbau von logischen und elektrischen Modellen der Wohnung benutzt, womit eine signifikante Energiereduzierung erreicht werden konnte. Beide Ziele, die Komfortsteigerung sowie die Energieminimierung in einem standardisierten Haushalt, wurden in eine Zielfunktion integriert und damit quantifiziert. Für die Anpassung der Zielfunktion wurden auch verhaltenspsychologische Methoden der menschlichen Entscheidungsfindung herangezogen, um die objektive Steuerstrategie aller Geräte im simulierten Haushalt in die subjektive Empfindung von Menschen überführen zu können. Danach wurde die Topologie von ENKOS, dem zentralen Lern- und Steuersystem der elektrischen Geräte, aus mehreren Möglichkeiten ausgewählt. Insbesondere für die Integration der einfachen physikalischen Modelle in ein komplexes Verhaltensmodell (abgebildet durch die LCS-Regeln) wurden mehrere grundsätzliche Fragestellungen gegeneinander abgewogen, um eine entsprechende Gesamttopologie zu generieren. Die Zielvariante wurde "Kognitive Learning Classifier Systems" (KLCS) genannt, da die LCS die Grundlage des Ansatzes bilden und um Methoden der kognitiven Verhaltensforschung erweitert wurden. Nach dem Aufstellen der Systemstruktur wurde eine Standardsimulationsumgebung geschaffen, um verschiedene Parameter des geschaffenen KLCS objektiv bewerten zu können, um die Zielfunktion zu maximieren. Dabei kam heraus, dass zwei von drei untersuchten Methoden der Energieminimierung aussichtsreich sind, wobei bei der Parametrisierung der LCS-Komponenten lediglich zwei von sechs Parametern einen signifikanten Einfluss auf den Zielfunktionswert haben. Es konnte gezeigt werden, dass das aufgestellte System ENKOS sowohl eine Steigerung des Komforts für die Nutzer ermöglicht sowie die signifikante Reduzierung des Energieverbrauchs in der simulierten Standardwohnung realisiert. Damit ist ein wirklich adaptives Smart Home-System im Sinne des Anwenders als Ansatz geschaffen und evaluiert worden.



Leben, Leslie;
Non-negative operators in Krein spaces and rank one perturbations. - Ilmenau : Universitätsverlag Ilmenau, 2016. - 116 Seiten
Technische Universität Ilmenau, Dissertation 2016

ISBN 978-3-86360-141-6

In der vorliegenden Arbeit werden eindimensionale Störungen von nichtnegativen Operatoren in Kreinräumen betrachtet. Dabei wird untersucht wie sich die Anzahl der Eigenwerte und deren Vielfachheit in einer Lücke des essentiellen Spektrums unter einer Störung ändern können. Zudem wird beschrieben wie sich an einem Eigenwert die Anzahl und die Länge der linear unabhängigen Jordanketten ändern können.



Probstmeyer, Kristin;
Gendersensibilität von Lehrveranstaltungen des ingenieurwissenschaftlichen Grundlagenstudiums : Voraussetzungen, Umsetzung und Evaluation von Vorlesungen an der Technischen Universität Ilmenau. - Ilmenau : Universitätsverlag Ilmenau, 2016. - 202, XLIV Seiten. - (Kommunikationswissenschaft interdisziplinär ; Band 4)
Technische Universität Ilmenau, Dissertation 2015

ISBN 978-3-86360-140-9

In Anbindung an das Thüringer Verbundprojekt Gender in der akademischen Lehre (2009 bis 2012) wurde im Rahmen der vorliegenden Arbeit eine erste Bestandsaufnahme zur Gendersensibilität von Vorlesungen des ingenieurwissenschaftlichen Grundlagenstudiums der Technischen Universität Ilmenau mit dem Ziel der Verbesserung durchgeführt. Anhand von drei empirischen Teilstudien (Teilstudie A: Sekundäranalyse der Lehrveranstaltungsevaluation des Qualitätsmanagements mit 1.591 Studierenden; Teilstudie B: Primäranalyse einer quantitativen Studierendenbefragung mit 517 Studierenden; Teilstudie C: einer qualitativen Lehrveranstaltungsbegleitung mit 12 Vorlesungen) konnte im Rahmen eines Mehrmethodendesigns verdeutlicht werden, dass (1) die bisherigen Lehrveranstaltungsevaluationen der TU Ilmenau gendersensible Lehre nur unzureichend erfassen, (2) sich die Lehr- und Lernbedürfnisse von Studierenden in stärkerem Maße nach Fachkultur als nach Geschlecht unterscheiden, (3) Lehrende in ihren Vorlesungen bereits gendersensibel agieren, dies jedoch als Anspruch an eine gute Lehre und in Abgrenzung zur gendersensiblen Lehre tun, (4) sich die im Rahmen der Arbeit konzipierten Didaktik-Bausteine zur Gestaltung einer gendersensiblen Lehre in den Ingenieurwissenschaften (Gendertoolbox) als praxistauglich erweisen.



Reich, René;
Möglichkeiten und Grenzen bei der Auslegung von Schraubendruckfedern auf Basis von Umlaufbiegeprüfungen. - Ilmenau : Universitätsverlag Ilmenau, 2016. - XXII, 179 Seiten. - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; 26)
Technische Universität Ilmenau, Dissertation 2016

ISBN 978-3-86360-139-3

Im Rahmen dieser Arbeit wird die Fragestellung bearbeitet, inwiefern zeit- und kostenintensive Dauerschwingversuche am Bauteil Schraubendruckfeder durch zeit- und kostengünstigere dynamische Versuche am Federausgangsmaterial Draht in Form von Umlaufbiegeprüfungen substituiert werden können. In diesem Zusammenhang werden Methoden zur Übertragung von Biegewechselfestigkeitswerten des Drahtes auf Torsionsschwellfestigkeitswerte des zur Schraubendruckfeder gewundenen Drahtes gesucht und hinsichtlich ihrer Ergebnisqualität diskutiert. Um eine entsprechende Datenbasis für die Entwicklung von Methoden zur Übertragung zu generieren, werden dynamische Versuche an präparierten ölschlussvergüteten Drähten in Form von Umlaufbiegeprüfungen, Torsionswechselprüfungen und Torsionsschwellprüfungen sowie Dauerschwingversuche an aus diesen Drähten hergestellten Schraubendruckfedern durchgeführt. Ergänzt werden diese dynamischen Versuche durch Härtemessungen, Eigenspannungsmessungen und Bruchanalysen an gebrochenen Proben und Bauteilen. Als Ergebnis dieser Arbeit werden auf Basis der durchgeführten Untersuchungen Methoden zur Übertragung von zulässigen Spannungsamplituden und bruchmechanischen Kennwerten aus Umlaufbiegeprüfungen auf Schraubendruckfedern abgeleitet. Die abgeleiteten Methoden beinhalten eine Übertragung der Kennwerte aus Umlaufbiegeprüfung auf wechselnde Torsion, die Übertragung von wechselnder Torsion auf schwellende Torsion sowie die Übertragung von Kennwerten des Drahtes auf die der Schraubendruckfedern. Die aus Umlaufbiegeprüfungen an Drähten berechneten zulässigen Spannungsamplituden liegen im Schwingspielzahlbereich zwischen 106 und 107 zwischen 85 und 97% der direkt durch Dauerschwingversuche an kugelgestrahlten Schraubendruckfedern abgeprüften zulässigen Spannungsamplituden. Ähnliche Genauigkeiten wurden auch für kugelgestrahlte Federn aus patentiert gezogenem Draht festgestellt. Darüber hinaus werden unter Verwendung statistischer Methoden und Rechenansätze zur Bestimmung des hochbelasteten Werkstoffvolumens Zusammenhänge abgeleitet, mit deren Hilfe auslegungsrelevante Einschlussgrößen der jeweiligen Schraubendruckfeder ermittelt werden können. Zusätzlich werden Rechenansätze entwickelt, mit deren Hilfe auf der Seite der zulässigen Spannungen eine Berücksichtigung der verschiedenen Größeneinflüsse bei geometrisch unterschiedlichen Schraubendruckfedern erfolgen kann.



Patschger, Andreas;
Grundlegende Untersuchungen zum Prozessverständnis des Laserstrahl-Mikroschweißens von metallischen Folien. - Ilmenau : Universitätsverlag Ilmenau, 2016. - 243 Seiten. - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; Band 3)
Technische Universität Ilmenau, Dissertation 2016

ISBN 3-86360-136-X

Für die prozesssichere Anwendung des Laserstrahl-Mikroschweißens im industriellen Umfeld ist die Kenntnis des Prozesses von immanenter Bedeutung. Daher wird in vorliegender Arbeit der Laserstrahl-Mikroschweißprozess anhand von metallischen Folien systematisch charakterisiert. Während des Laserstrahl-Mikroschweißens von metallischen Folien beeinträchtigen der thermisch induzierte Verzug und die daraus resultierende Spaltbildung den reproduzierbaren Schweißprozess. Der freie, unbehinderte Verzug steigt exponentiell mit sinkender Materialstärke an. Daher muss der Verzug durch Maßnahmen der Prozessführung und durch eine optimierte Spannvorrichtung minimiert werden. Dafür werden die Einflüsse auf den Verzug und die korrespondierenden Temperaturfelder untersucht und Regeln für die verzugsarme Bearbeitung abgeleitet. Diese betreffen die Gestaltung des Schweißregimes, die Wahl von Fokusdurchmesser und Péclet-Zahl für den Schweißprozess sowie das eingesetzte Strahlprofil. Zusätzlich erreicht ein neuartiges Spannkonzept für metallische Folien einen minimierten Verzug zwischen den Fügepartnern. Aufgrund von prozessbedingten Schwankungen und äußeren Einflussfaktoren variiert die Schweißnahttiefe und kann zu ungenügender Anbindung der Fügepartner führen. Daher sind Durchschweißungen für das prozesssichere Mikroschweißen notwendig. Das Prozessfenster für Durchschweißungen in Abhängigkeit von der Leistung und von der Vorschubgeschwindigkeit hat daher eine große Bedeutung für die Prozessführung. Das Prozessfenster wird durch die Prozessgrenzen bestimmt, welche in Abhängigkeit vom Aspektverhältnis und von der bezogenen Leistung beschrieben werden können. Ein weiterer prozesslimitierender Einfluss ergibt sich durch den Humping-Effekt, der den Anbindungsquerschnitt und die Festigkeit der Schweißverbindung beeinträchtigt. Basierend auf dem Modell der Rayleigh-Plateau-Instabilität kann durch das Verhältnis von Schmelzbadlänge zu Fokusdurchmesser der Eintritt des Humping-Effekts abgeschätzt werden. Der Vergleich von verschiedenen hochlegierten Stählen zeigt, dass sich die gewonnen Ergebnisse im Mikroschweißen auf die untersuchten Stähle übertragen lässt. Während der Bearbeitung der ergänzend charakterisierten Titan- und Aluminiumwerkstoffe lassen sich die gleichen Prozessphänomene im Mikroschweißprozess beobachten, die aufgrund der differierenden thermomechanischen Eigenschaften bei anderen Werten der Prozessgrößen auftreten.



Küster, Markus Gerd Heinz;
Einfluss von Toleranzen auf das Betriebsverhalten von elektromagnetischen Ventilen. - Ilmenau : Universitätsverlag Ilmenau, 2016. - XV, 159 Seiten
Technische Universität Ilmenau, Dissertation 2015

ISBN 3863601319 = 978-3-86360-131-7

Die vorliegende Arbeit knüpft an die aktuellen Forderungen aus Wirtschaft und Industrie nach erhöhter Zuverlässigkeit und Qualität in der Fertigung von elektromagnetischen Ventilen unter zunehmenden Kostengesichtspunkten an. Toleranzen, die bei der Produktion von elektromagnetischen Ventilen auftreten können, werden analysiert, klassifiziert und Wege werden aufgezeigt, wie diese in der Auslegungsphase zu berücksichtigen sind. Ein besonderes Augenmerk liegt auf den Lagetoleranzen, die an Topfmagneten mit radialen Flussübertritten zu Querkräften führen. Es werden verschiedene Berechnungsmethoden untersucht und mit Messergebnissen verglichen. Verschiedene stochastische Verfahren und aktuelle Berechnungsmöglichkeiten werden vorgestellt und zunächst an einfachen Modellen angewendet. Das Zusammenspiel von variierenden magnetischen und geometrischen Eigenschaften wird beispielhaft an einem ausgewählten polarisierten Aktor mit Hilfe der Netzwerkmethode betrachtet. Aufbauend auf dem Modell wird der Einfluss von Eingangsverteilungen und unterschiedlichen Justageprozessen ermittelt. Abschließend wird die simulierte Fertigung mit einer Musterfertigung verglichen. Anhand der gewonnenen Erkenntnisse wird an einem Topfmagnet eine Methodik aufgezeigt, welche die Berücksichtigung von Toleranzen im Entwurfsprozess ermöglicht. Es wird der Einfluss des Auslegungspunktes auf die Sensitivität des Topfmagneten gezeigt. Für die unterschiedlich gewählten Auslegungspunkte wird eine Kosten-Toleranz-Optimierung durchgeführt. Damit die Toleranzen im Entwurfsprozess mit einbezogen werden können, wird ein Algorithmus implementiert. Die Optimierung bietet dem Konstrukteur Unterstützung bei der Festlegung von Toleranzen und ein Hilfsmittel zur aktiven Bewertung und Reduktion von Kosten im Entwurfsprozess. Die reale Serienproduktion wird in den virtuellen Entwurf miteinbezogen. Bereits in einem sehr frühen Stadium der Entwicklung ist es möglich, die Robustheit des Systems in Hinsicht auf eine Serienfertigung vorherzusagen. Der gesamte Entwicklungsprozess wird somit von Beginn an effektiver und effizienter. Die aus der virtuellen Entwicklung stammenden Verteilungsmaße können für Prozessüberlegungen genutzt werden. Die Integration des Fertigungsprozesses bzw. der Fertigungsstrategie kann in einer früheren Entwicklungsphase stattfinden.



Reinhardt, Dominik;
Virtualisierung eingebetteter Echtzeitsysteme im Mehrkernbetrieb zur Partitionierung sicherheitsrelevanter Fahrzeugsoftware. - Ilmenau : Universitätsverlag Ilmenau, 2016. - xiv, 194 Seiten
Technische Universität Ilmenau, Dissertation 2016

ISBN 978-3-86360-135-5
Dissertation erschienen unter dem Titel: Virtualisierung eingebetteter Echtzeitsysteme zur Partitionierung sicherheitsrelevanter Software im Automobil

Die Automobilindustrie verzeichnete innerhalb der letzten Jahre einen enormen Zuwachs an neuen elektrischen und elektronischen Fahrzeugfunktionen. Dies führt gleichzeitig zu einer Mehrung der Softwareumfänge in eingebetteten Systemen. Nicht-funktionale Anforderungen wie Sicherheit, Performanz, Verlässlichkeit und Wartbarkeit stellen zusätzliche Herausforderungen an die Entwicklung zukünftiger Fahrzeugsysteme dar. Um die Anzahl der Steuergeräte zu reduzieren, sollen Fahrzeugfunktionen auf gemeinsamen Integrationssteuergeräten konsolidiert werden. Systemvirtualisierung kann hierfür eine zielführende Herangehensweise darstellen, um die Softwaremigration auf Integrationssteuergeräte zu erleichtern und gleichzeitig den geforderten Isolationsansprüchen neuer Sicherheitsstandards gerecht zu werden. In dieser Arbeit wird die Partitionierung sicherheitsrelevanter Fahrzeugfunktionen auf einer gemeinsamen Hardwareplattform fokussiert. Unter Verwendung von Methoden zur Bewertung sozialer Netzwerke wird eine graphenbasierte Herangehensweise vorgestellt, um die Partitionierbarkeit von Softwarenetzen mit sicherheitsrelevanten Anteilen abschätzen zu können. Zur Realisierung der Systempartitionierung wird eine Methodik zur Auswahl der geeignetsten Kernelarchitektur eingeführt. Dabei werden aus gewählten nicht-funktionalen Eigenschaften potentielle technische Lösungskonzepte innerhalb einer Baumstruktur abgeleitet und ingenieurmäßig bewertet. Darauf aufbauend wird ein Hypervisor für eingebettete Echtzeitsysteme der Firma ETAS Ltd. evaluiert. Um die Kosten einer zusätzlichen Hypervisorschicht beurteilen zu können, werden in diesem Rahmen Laufzeitmessungen durchgeführt. Somit werden die Auswirkungen einer zusätzlichen Virtualisierungsschicht auf Fahrzeugsoftwaresysteme zur Erfüllung ausgewählter nicht-funktionaler Eigenschaften aufgezeigt. Die Anbindung virtualisierter Systeme an die Kommunikationsschnittstellen des Hypervisors stellt einen weiteren Schwerpunkt dar. Virtuelle Steuergeräte tauschen sich weiterhin über bereits implementierte Kommunikationskanäle aus und greifen auf gemeinsame Hardwareressourcen zu. Es wird somit ein Konzept eingeführt, um sicherheitsrelevante Anteile des AUTOSAR Microcontroller Abstraction Layers zu entkoppeln. Der Hypervisor selbst wird hierzu an relevanten Stellen erweitert und ein verlässliches Kommunikationskonzept implementiert. Ein Demonstratoraufbau, zur Konsolidierung von produktiver Fahrzeugsoftware auf einer gemeinsamen Hardwareplattform, finalisiert die Arbeit. Hierfür werden unabhängige Softwarestände paravirtualisiert. Als Resümee der Arbeit erhält der Leser sowohl einen technischen Überblick über den Mehrwert als auch der Kosten paravirtualisierter Fahrzeugplattformen, welche auf Kleinststeuergeräten integriert sind.



Neute, Nadine;
Innovationswirkung der Netzneutralität : statische und dynamische Effekte der Ausgestaltung von Priorisierungsregimen. - Ilmenau : Universitätsverlag Ilmenau, 2016. - xxii, 353 Seiten
Technische Universität Ilmenau, Dissertation 2015

ISBN 978-3-86360-134-8

Regeln zur Netzneutralität werden sowohl in Europa als auch in den USA intensiv diskutiert. Die Arbeit untersucht die ökonomischen Aspekte möglicher Priorisierungsregimen. Basierend auf Erkenntnissen der Theorie der zweiseitigen Märkte und der Industrieökonomik werden allgemeine Aussagen zu möglichen Regulierungsansätzen entwickelt, und es wird gezeigt, welche Implikationen sie für die innerhalb der theoretischen Literatur verwendeten Netzneutralitätsoperationalisierungen besitzen. Ein summarischer Überblick über die vorhandenen Modelle dient zur Herleitung von Folgerungen für eine angemessene Regulierung. Innovationspolitischen Aspekte des Themas werden gesondert untersucht. Die Autorin differenziert zwischen der Wirkung der Netzneutralität auf Innovationsanreize und Innovationsfähigkeit der einzelnen Marktteilnehmer und den einzelnen Innovationsphasen.



Schober, Fabian;
Elektrische Leitfähigkeit und dielektrisches Verhalten von Pressspan in HGÜ-Isoliersystemen. - Ilmenau : Universitätsverlag Ilmenau, 2016. - XII, 155 Seiten. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA) ; Band 16)
Technische Universität Ilmenau, Dissertation 2016

ISBN 978-3-86360-133-1

Die Hochspannungsgleichstromübertragung (HGÜ) wird als effektive Übertragungsart für große Leistungen immer wichtiger. Die Isoliersysteme von HGÜ-Betriebsmitteln werden sowohl mit Wechsel- als auch mit Gleichspannung beansprucht. Neben den Permittivitäten müssen dann auch die elektrischen Leitfähigkeiten der Materialien berücksichtigt werden. Das Isoliersystem von Konvertertransformatoren enthält ölimprägnierten Pressspan, welcher im Fokus dieser Arbeit liegt. Bisher bestand ein erhebliches Verständnisdefizit bezüglich der elektrischen Leitfähigkeit und des dielektrischen Materialverhaltens von Pressspan. Besonders die dominanten Leitungsprozesse sind bislang nicht ausreichend verstanden. In dieser Arbeit werden die Leitungsprozesse Ionen-, Elektronen-Loch- und Protonenleitung am Pressspan diskutiert, sowie die relevanten Polarisationsmechanismen behandelt. Zur Erforschung des Materialverhaltens von Pressspan unter Gleichspannungsbelastung wurde dieser chemisch und physikalisch analysiert. Pressspan setzt sich mikroskopisch größtenteils aus den Komponenten Zellulose, Hemizellulosen und Lignin zusammen, und besteht makroskopisch aus einer Vielzahl von Fasern und Imprägniervolumina. Es wurden interdisziplinäre Messmethoden wie die UV/Vis-Spektroskopie und die Rasterelektronenmikroskopie angewandt, um relevante Materialinformationen zu erhalten und geometrische Verhältnisse im Pressspan abzuschätzen. Um einen Bezug zwischen der Struktur und den elektrischen Eigenschaften zu schaffen, wurden elektrische Leitfähigkeiten mittels Sprungantwortmessungen im Zeitbereich erfasst. Die im Rahmen dieser Arbeit untersuchten Einflussgrößen auf die elektrische Leitfähigkeit wurden in die anwendungstechnischen Parameter Wassergehalt, Temperatur und Feldstärke, in den mikroskopischen Parameter Ligningehalt sowie in die makroskopischen Parameter Dichte, Faserorientierung und imprägnierendes Fluid unterteilt. Der Wassergehalt hat den größten Einfluss auf das Materialverhalten von Pressspan, gefolgt von der Temperatur. Von nachgeordneter Bedeutung sind der Ligningehalt des Pressspans und dessen Dichte, die während der Zellstoff- bzw. Pressspanherstellung verändert werden können, woraus sich geänderte Leitfähigkeiten ergeben. Die Faserorientierung hingegen ist im Transformator kaum beeinflussbar. Ebenso kann sich die Feldstärkebelastung je nach Last und Leitfähigkeitsverhältnis von Öl zu Pressspan ändern. Die Quantifizierung und das Verständnis der Einflussfaktoren auf das elektrische Verhalten von Pressspan stellen den ersten Schritt da, um in Zukunft Materialien mit definierten Leitfähigkeiten und erwünschtem dielektrischen Verhalten für HGÜ-Betriebsmittel herzustellen.



Heidler, Nils;
Untersuchungen zylindrischer Gasführungselemente für Hochvakuumanwendungen. - Ilmenau : Universitätsverlag Ilmenau, 2016. - XXIV, 180 Seiten. - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; Band 25)
Technische Universität Ilmenau, Dissertation 2015

ISBN 978-3-86360-130-0

Eine hochgenaue, stabile Positionierung innerhalb einer Vakuumumgebung kann mit Hilfe von aerostatischen Führungselementen realisiert werden. Um das Abströmen des Speisegases in die Vakuumumgebung zu minimieren, wird im Stand der Technik ein mehrstufiges berührungsloses Dicht- und Absaugsystem verwendet. Die Evakuierung der ersten Absaugstufe hat eine Reduzierung des direkten Umgebungsdruckes der Gasführungselemente und somit eine Beeinflussung der Eigenschaften zur Folge. Die Arbeit präsentiert experimentelle und theoretische Ergebnisse zu Untersuchungen an aerostatischen, zylindrischen Führungselementen mit poröser Drosselschicht für Hochvakuumanwendungen. Ziel der Arbeit ist es, den Einfluss des Umgebungsdruckes, des Speisegasdruckes und der konzentrischen Spalthöhe auf die statischen und dynamischen Eigenschaften der Führungselemente zu ermitteln. Die Eignung der Gasführungselemente für Hochvakuumanwendungen soll nachgewiesen werden. Ausgehend von der theoretischen Beschreibung der Druckverteilung innerhalb des Lagerspaltes werden ein vereinfachtes und ein FEM-basiertes numerisches Strömungsmodell entworfen. Mit den Modellen können die statischen Eigenschaften (Tragkraft, statische Steifigkeit, Kippsteifigkeit, Gasverbrauch) eines Gasführungselementes ermittelt werden. Die dynamischen Eigenschaften beziehen sich auf die Dämpfungsparameter und die Stabilität der Elemente gegenüber selbsterregten Schwingungen. Das Dämpfungsverhalten der Gasführungselemente wird aus der Systemantwort auf eine sprungförmige Anregung abgeleitet. Für konstante absolute Speisegasdrücke steigen sowohl Tragkraft, statische Steifigkeit als auch Gasverbrauch durch den Übergang in eine Vakuumumgebung an. Die Anstiege können durch Berechnungen mit den vorgestellten Modellen gut wiedergegeben werden. Für alle durchgeführten Untersuchungen treten keine selbsterregten Schwingungen auf, was durch ein Stabilitätskriterium auf Basis von statischer und dynamischer Steifigkeit unterlegt wird. Die Dämpfungsuntersuchungen ergeben experimentell die Überlagerung einer niederfrequenten, sehr stark gedämpften Schwingung und einer hochfrequenten, schwach gedämpften Schwingung. Die Schwingungen sind für Auslenkungsamplituden von bis zu 2,5 [my]m nach ca. 70 ms abgeklungen. Die Ergebnisse der Arbeit belegen die Tauglichkeit von Gasführungselementen für den Hochvakuumeinsatz. Durch die Ableitung von Richtlinien wird die Auslegung von stabilen Führungselementen mit guten Trageigenschaften und geringem Gasverbrauch unterstützt.



Nissen, Volker; Stelzer, Dirk; Straßburger, Steffen; Fischer, Daniel
. - Multikonferenz Wirtschaftsinformatik (MKWI) 2016 ; Band 3. - Ilmenau : Universitätsverlag Ilmenau. - Seite 1269-1858 ISBN 978-3-86360-132-4

Nissen, Volker; Stelzer, Dirk; Straßburger, Steffen; Fischer, Daniel
. - Multikonferenz Wirtschaftsinformatik (MKWI) 2016 ; Band 2. - Ilmenau : Universitätsverlag Ilmenau. - Seite 615-1264 ISBN 978-3-86360-132-4

Nissen, Volker; Stelzer, Dirk; Straßburger, Steffen; Fischer, Daniel
. - Multikonferenz Wirtschaftsinformatik (MKWI) 2016 ; Band 1. - Ilmenau : Universitätsverlag Ilmenau. - 610 Seiten ISBN 978-3-86360-132-4

Hoppe, Imke;
Klimaschutz als Medienwirkung : eine kommunikationswissenschaftliche Studie zur Konzeption, Rezeption und Wirkung eines Online-Spiels zum Stromsparen. - Ilmenau : Universitätsverlag Ilmenau, 2016. - 276 Seiten. - (Nachhaltigkeits-, Energie- und Umweltkommunikation ; Band 3)
Technische Universität Ilmenau, Dissertation 2014

ISBN 3-86360-126-2

Um die CO2-Reduktionsziele der europäischen Ländern zu erreichen, bedarf es neben politischen, wirtschaftlichen und technischen Anstrengungen auch der Veränderung individueller Konsumgewohnheiten. Aus der Perspektive der Rezeptions- und Wirkungsforschung stellt sich die Frage, wie mediale Kommunikation dazu beitragen kann, dass Menschen klimabewusster handeln. Die bisherigen Ergebnisse zeigen, dass viele der typischen Darstellungsformen des Klimawandels - wie Katastrophenbilder - eher kontraproduktiv wirken. Die vorliegende Arbeit widmet sich deswegen der Frage, welche Medieneigenschaften klimaschonendes Handeln positiv unterstützen. Den theoretischen Ausgangspunkt bildet das Forschungsfeld Nachhaltigkeitskommunikation. Der hier verortete Ansatz der Handlungsorientierung nimmt an, dass Menschen in Lernsituationen selbst aktiv handeln müssen, damit sie das Gelernte in ihren Alltag übertragen. Handeln wird durch fünf Merkmalen charakterisiert: Intentionalität, Erstellen eines Produktes, Handlungsspielraum, Bewusstheit des Handelns und der Prozesscharakter. Hieraus werden Gestaltungsempfehlungen für ein Online-Spiel formuliert und Variablen für die empirische Studie abgeleitet. Als zweite theoretische Säule wird das Forschungsfeld "Interactive Storytelling" erschlossen und das dramentheoretische Modell von Lessing ausgewählt. Um das entwickelte Variablenmodell zu testen, wird das Online-Spiel "RED - Renewable Energy Drama" (ca. 10 Spielminuten) konzipiert. Es thematisiert das Stromsparen im eigenen Haushalt. Eine quantitative Online-Befragung (n=287) prüft die theoretischen Annahmen, ergänzend werden Interaktionsdaten aus dem Spielverlauf erfasst. Die Ergebnisse der Studie zeigen, dass ein hoher Alltagsbezug der entscheidende Faktor ist. Stehen verschiedene, alltagsnahe Möglichkeiten zur Verfügung, um eine Aufgabe zu lösen (Handlungsspielraum), dann denken die Spieler stärker darüber nach, wie sie diese Aufgabe üblicherweise zuhause lösen (Bewusstheit). Dies wiederum hat einen positiven Effekt auf alle Dimension von Handlungskompetenz: die Spielenden haben den Eindruck, alltagstaugliche Heuristiken zum Stromsparen zu lernen, sich die Bedeutung ihres eigenen Handelns für den Klimaschutz bewusst zu machen und eigene Verhaltensweisen zu reflektieren und/oder zu verändern. Einen ebenso positiven Effekt hat es, wenn das Feedback zu den gelösten Aufgaben als hilfreich bewertet wird, was besonders dann der Fall ist, wenn Verhaltensalternativen miteinander verglichen werden. Auch Spielcharaktere, die ein realistisches Verhalten mit typischen, konfligierenden Gedanken und Gefühle in alltäglichen Entscheidungssituationen zeigen, haben einen positiven Effekt auf die Handlungskompetenz.



Schlegel, Steffen;
Wahrung der Netzsicherheit durch Nutzung flexibler Lasten am Beispiel des gesteuerten Ladens von Elektrofahrzeugen. - Ilmenau : Universitätsverlag Ilmenau, 2016. - IX, 135 Seiten. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA) ; Band 15)
Technische Universität Ilmenau, Dissertation 2015

ISBN 978-3-86360-128-7

Die Erzeugungsstruktur für elektrische Energie im europäischen Verbundnetz ist geprägt von ökologischen, ökonomischen und sozialen Wandlungsprozessen. Diese Prozesse sind unter anderem an dem Ausbau Erneuerbarer Energien sowie durch den länderspezifischen Ausstieg aus der Kernkraftnutzung erkennbar. Mit der steten Veränderung der Erzeugungsstruktur ändern sich auch die Standorte der Erzeugung. Daraus resultiert eine zunehmende Belastung der elektrischen Netze, welche sich in der Folge vor allem im Anstieg von Gefährdungen der Netzsicherheit bemerkbar macht. Eine Anpassung der Last zur Reduzierung von Netzbelastungen kann ein probates Mittel zur Lösung des Problems darstellen. Insbesondere durch die zukünftige Beeinflussung von Elektrofahrzeugen während des Ladevorgangs kann eine flexible Leistung für den sicheren Betrieb elektrischer Netze zur Verfügung gestellt werden. Diese Arbeit widmet sich der Fragestellung, inwieweit die Nutzung von Elektrofahrzeugen der Wahrung der Netzsicherheit dienen kann. Für die Beantwortung der Fragestellung wird ein Verfahren vorgeschlagen, welches die bisher nicht berücksichtigten Anpassungsoptionen durch Elektrofahrzeuge methodisch bestimmt und in eine mit technologischen Alternativen vergleichbare Beschreibungsform überführt. Weiterhin wird eine innovative Methode zur optimalen Bestimmung der Anpassungsmaßnahmen vorgeschlagen. Dabei findet das (n-1)-Netzsicherheitskriterium zur Beurteilung des Netzbetriebszustandes Anwendung. Zudem wird eine Entkopplung der rechenintensiven Ausfallsimulation von der eigentlichen Optimierung betrachtet. Der zur Optimierung verwendete genetische Optimierungsalgorithmus, welcher den Kern der Methode darstellt, erweist sich als besonders robust für Optimierungsprobleme von Netzen mit hoher Knotenanzahl und einer gemischten Art von Steuerungsvariablen. Zusätzlich können in der Optimierung neben dem Netzsicherheitsproblem beliebige partielle Optimierungsziele formuliert werden. In Bezug auf die wechselnden Anforderungen an die Netzführung, die teilweise im Rahmen der Modellierung nicht vollständig beschreibbar sind, erscheint die damit gegebene Adaptierbarkeit als besonderer Vorteil. Die dargestellte Methode wird, basierend auf stationärer Netzberechnung, an einem realistisch modellierten Höchstspannungsnetz verifiziert. Unter Nutzung der beschriebenen Methoden werden numerische Fallstudien durchgeführt. Als Ergebnis kann festgestellt werden, dass bei entsprechender Anzahl an Elektrofahrzeugen ausreichend flexible Leistung bereit gestellt werden kann, um die andernfalls notwendige Reduzierung der Einspeiseleistung von Erneuerbaren Energien-Anlagen zur Wahrung der Netzsicherheit zu vermeiden.



Nissen, Volker; Stelzer, Dirk; Straßburger, Steffen; Fischer, Daniel
Multikonferenz Wirtschaftsinformatik (MKWI) 2016 : Technische Universität Ilmenau, 09. - 11. März 2016. - Ilmenau : Universitätsverlag Ilmenau ISBN 3863601327 = 978-3-86360-132-4

Huschenbett, Martin;
The model-theoretic complexity of automatic linear orders. - Ilmenau : Universitätsverlag Ilmenau, 2016. - xiii, 228 Seiten
Technische Universität Ilmenau, Dissertation 2015

ISBN 978-3-86360-127-0

Automatische Strukturen sind auf dem Forschungsgebiet "Logik in der Informatik" seit etwa 15 Jahren ein viel beachtetes Thema. Eine Struktur ist automatisch, wenn ihre Trägermenge, ihre Relationen und ihre Funktionen allesamt durch endliche Automaten auf Wörtern oder Bäumen erkennbar sind. Insbesondere sind derartige Strukturen endlich darstellbar. Die Hauptmotivation zur Untersuchung automatischer Strukturen liegt in der uniformen Entscheidbarkeit ihrer prädikatenlogischen Theorien erster Stufe. In dieser Dissertation untersuchen wir die modelltheoretische Komplexität automatischer linearer Ordnungen bezüglich der zwei Komplexitätsmaße Kondensationsrang und Ramsey-Grad. Der Kondensationsrang einer linearen Ordnung misst ihre Abweichung von der Eigenschaft der Dichtheit durch eine Ordinalzahl. Unsere Hauptergebnisse in diesem Zusammenhang leiten für verschiedene Begriffe von Automatizität optimale obere Schranken für die Kondensationsränge automatischer linearer Ordnungen her. Dabei liegt der Fokus vor allem auf Teilklassen automatischer Strukturen, die die zugrundeliegenden Trägermengen anhand sprachtheoretischer Eigenschaften einschränken. Des Weiteren zeigen wir, dass die Trennlinie zwischen wort- und baumautomatischen verteilten linearen Ordnungen auch vermittels des Kondensationsranges gezogen werden kann. Eine Anwendung dieses Ergebnisses ermöglicht uns eine teilweise Lösung des Isomorphieproblems für baumautomatische Ordinalzahlen. Der Ramsey-Grad einer Ordinalzahl misst ihre modelltheoretische Komplexität mithilfe von Partitionsrelationen aus der kombinatorischen Mengenlehre. Wir untersuchen dieses Konzept sowohl aus rein mengentheoretischer Sicht als auch im Kontext automatischer Strukturen. Im mengentheoretischen Fall zeigen wir, dass alle Ordinalzahlen unterhalb von omega^omega einen endlichen Ramsey-Grad besitzen und geben einen Bereich von Ordinalzahlen oberhalb von omega^omega an, deren Ramsey-Grade unendlich sind. Die Ergebnisse im automatischen Fall sind sehr ähnlich, mit Ausnahme der Tatsache, dass die Ramsey-Grade aller Ordinalzahlen oberhalb von omega^omega unendlich sind. Zu guter Letzt schließen wir diese Dissertation mit dem Beweis einer baumautomatischen Version des Satzes von Ramsey ab.



Schellenberg, Sebastian;
Naming and adress resolution in heterogeneous mobile ad hoc networks. - Ilmenau : Universitätsverlag Ilmenau, 2016. - xvi, 177 Seiten
Technische Universität Ilmenau, Dissertation 2015

ISBN 978-3-86360-129-4

Die vorliegende Dissertation befasst sich mit der Adressierung und Adressauflösung in heterogenen Kommunikationsnetzen. Die Anwendungsfälle für die Motivation des Themas stellen Katastrophenszenarien wie Naturkatastrophen oder Terroranschläge dar. Nach solchen Ereignissen kann die Infrastruktur und speziell die Kommunikationsinfrastruktur teilweise oder ganz beschädigt sein. Um trotzdem eine funktionierende Kommunikation sicherzustellen, die sowohl für die Einsatzkräfte wie auch für die Opfer unerlässlich ist, können sogenannte Mobile Ad-hoc-Netze (MANET) zum Einsatz kommen. Die Benutzung dieser infrastrukturlosen Vernetzung verlangt aber die weitgehende Eliminierung von zentralen Einheiten. Daraus resultierend befasst sich die Dissertationsschrift mit der Ersetzung des in Infrastrukturnetzen gebräuchlichen Domain Name Systems (DNS) durch eine MANET-taugliche Alternative. Zusätzlich wurde durch die Einführung einer den Knoten identifizierenden Adressschicht die Notwendigkeit zur Auflösung der Identitäten zu den lokalen, vom Internet Protokoll (IP) eingesetzten, Adressen gegeben.Das in der Arbeit vorgestellte dezentrale System zur Namensauflösung basiert vollständig auf den eingesetzten Wegewahlprotokollen. Durch eine strikte Integration der Funktionalität der Namensauflösung in das Routing kann komplett auf zentrale Einheiten verzichtet werden. Die Lösung wird weiterhin kombiniert mit einem adaptiven Routingkonzept, welches es Knoten ermöglicht, während der Laufzeit von einem Routingprotokoll zum anderen zu wechseln. Dies bietet eine bessere Reaktionsmöglichkeit auf Änderungen des Szenarios und dadurch eine erhöhte Performanz für die Wegesuche und die Namensauflösung. Der konzipierte und im Click Modular Router (Click) implementierte Ansatz wird weiterhin im Laufe der Arbeit evaluiert und auf die Performanz bezüglich des zusätzlich generierten Verkehrs, der Zeitverzögerung bis zur Auflösung eines Namens zu einer Adresse und der Erfolgsrate getestet. Hierzu werden Simulationen mit dem Netzwerksimulator 3 (ns-3) durchgeführt.Im letzten Teil der Arbeit werden drei mögliche Erweiterungen des präsentierten Systems gezeigt. Die erste zielt auf die Verbesserung der Performanz durch Hashing des aufzulösenden Namens. Die zweite Erweiterung beschäftigt sich mit der Realisierung eines Dienstlokalisierungsmechanismus, basierend auf dem System zur Namensauflösung. Zusätzlich wird die Erweiterung hin zu einer Standort-sensitiven Namensauflösung bzw. Dienstlokalisierung aufgezeigt.



Yan, Yong;
Plasma-assisted synthesis of hydrogenated TiO 2 for energy storage and conversion. - Ilmenau : Univ.-Verl. Ilmenau, 2015. - XXII, 96 S.. - (Werkstofftechnik aktuell ; 14) : Zugl.: Ilmenau, Techn. Univ., Diss., 2015
ISBN 978-3-86360-125-6

Titandioxid (TiO 2) wird bereits häufig in den Bereichen Energiespeicherung und -umwandlung eingesetzt. Aufgrund der begrenzten Solarabsorption, Ladungsübertragungsgeschwindigkeit und elektrochemischer Aktivität ist die Leistung des TiO 2 allerdings wesentlich niedriger als es für die praktische Anwending erforderlich ist. In dieser Studie wird hydriertes TiO 2 (H-TiO 2) mit unterschiedlichen physikalischen und chemischen Eigenschaften durch Wasserstoff (H 2)-Plasmabehandlung kontrolliert hergestellt, welches hervorragende Leistungen in der Anwendung von Lithium-Ionen-Batterien, Fotokatalyse und fotothermischer Umwandlung aufweist. Darüber hinaus werden die Mikrostrukturen des H-TiO 2 und die Abhängigkeit der Anwendungsleistung des H-TiO 2 von den Vorliegenden Mikrostrukturen umfassend untersucht. Diese Studie bietet neue Erkenntnisse über Synthese, Eigenschaften und Anwendungen von H-TiO 2, durch welche die Entwicklung leistungsfähiger und vielseitiger TiO 2-Materialien für die Energiespeicherung und -umwandlung ermöglicht werden kann. Erstens werden hydrierte Anatas TiO 2-Nanopartikel mit deutlich verbesserter Speicherleistung von Lithium-Ionen durch eine Hochtemperatur (390 &ring;C) H 2-Plasmabehandlung in hergestellt. Die systematische elektrochemische Analyse zeigt, dass sich aus dem verbesserten Beitrag der pseudokapazitiven Lithium-Speicherung auf der Partikeloberfläche eine verbesserte Leistungsdichte von H-TiO 2 ergibt. Es wird gezeigt, dass die ungeordneten Oberflächenschichten und die vorliegenden Ti 3+ -Spezies von H-TiO 2 eine wichtige Rolle bei der Verbesserung der pseudokapazitiven Lithiumspeicherung spielen. Zweitens erfolgt eine schnelle Synthese des H-TiO 2 mit unterschiedlichem Hydrierungsgrad durch Hochleistungs-H 2-Plasmabehandlung. Dessen fotokatalytische Aktivitäten werden mit Hilfe von Methylenblau (MB)-Degradation und CO 2-Reduktion in wässrigen und gasförmigen Medien ausgewertet. Im Vergleich zum ursprünglichen TiO 2 zeigt das leicht hydrierte TiO 2 (s-H-TiO 2) eine weiße Färbung und eine verbesserte Fotoaktivität, während das graue oder schwarze H-TiO 2 mit höherem Hydrierungsgrad (h-H-TiO 2) eine viel schlechtere katalytische Leistung aufweist. Wie weitere Untersuchungen gezeigt haben, stellen das höhere Verhältnis der gefangenen Löcher (O - -Zentren) und die niedrige Rekombinationsrate, welche durch die Erhöhung der Oberflächendefekte verursacht sind, die kritischen Faktoren für die hohe Aktivität von s-H-TiO 2 dar. Im Gegensatz dazu besitzt das h-H-TiO 2 eine hohe Konzentration an Gitterdefekten, was zu einer signifikant verringerten Menge an O-Zentren und der vergrößerten strahlungslosen Rekombination führt. Dadurch sinkt die Fotokatalyseaktivität deutlich. Drittens wird das hydrierte schwarze TiO 2 mit großer Infrarotabsorption (aufgrund seiner erheblich vergrößerten, strahlungslosen Rekombination) für die fotothermische Tumortherapie untersucht. Um die Stabilität der Suspension zu verbessern, wurden die H-TiO 2-Nanopartikel (NP s) mit Polyethylenglycol (PEG) beschichtet. Nach PEG-Beschichtung zeigen die H-TiO 2 NP s einen erhöhten fotothermischen Umwandlungswirkungsgrad von 40,8% und eine gute Suspensionsstabilität im Serum. Der Therapieeffekt von H-TiO 2-PEG NP s zeigt, dass dieses Material eine geringe Toxizität besitzt und MCF07- sowie 4T1-Tumorzellen (transplantierbaren Tumorzellen des menschlichen Brustgewebes) unter Infrarotstrahlung effektiv abtöten kann. Zusätzlich werden Si (core) / N-dotiertes TiO 2 (shell) Nanopillar-Arrays mit einer nanoporösen Struktur durch ein einfaches, proteinvermittelndes TiO 2-Abscheidungsverfahren hergestellt. Dieses Ergebnis kann als ein fortschrittlicher Ansatz für die großtechnische Herstellung der H-TiO 2 basierten Nanokompositen angesehen werden.



Becker, Felix;
Zur Mechanik vibrationsgetriebener Roboter für terrestrische und aquatische Lokomotion. - Ilmenau : Univ.-Verl. Ilmenau, 2015. - XIX, 149 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2015
ISBN 978-3-86360-124-9

Der Gegenstand der Arbeit ist die Mechanik von mobilen Robotern für terrestrische und aquatische Lokomotion. In den untersuchten Systemen wird die periodische Erregung eines inneren Antriebs durch nicht symmetrische Systemeigenschaften in eine gerichtete Fortbewegung gewandelt. Eine zweidimensionale Steuerbarkeit der Systeme wird durch frequenzabhängige mechanische Eigenschaften erreicht. Der Schwerpunkt der Arbeit liegt auf der mathematisch-mechanischen Beschreibung der Roboter mittels analytischer und numerischer Methoden sowie ihrer experimentellen Untersuchung. Prototypen mobiler Roboter dienen dem funktionellen Nachweis. Auf Basis von mechanischen Grundlagen werden terrestrische und aquatische Lokomotionsarten vorgestellt und klassifiziert. Mit Blick auf die praktische Realisierung von mobilen Robotern für unterschiedliche Umgebungsbedingungen werden Antriebssysteme in ihrer Eignung als Vibrationsquellen bewertet. Piezoelektrische Antriebe besitzen dabei besonderes Potential. Eine umfassende Analyse des Standes der Technik zeigt die Anwendbarkeit von vibrationsgetriebener Lokomotion für miniaturisierte technische Anwendungen. Systeme mit Borsten dienen der unidirektionalen terrestrischen Lokomotion. Mittels eines Mehrkörpersystemmodells und experimentellen Untersuchungen werden die verschiedenen Wirkungsmechanismen analysiert. Ein Prototyp für die Fortbewegung in Röhren wird vorgestellt. Für eine steuerbare zweidimensionale Lokomotion mit nur einem Antrieb müssen die Grenzen von klassischen Starrkörpersystemen überwunden werden. Der verfolgte Lösungsansatz nutzt das frequenzabhängige Schwingungsverhalten von elastischen Systemen, wie Balken oder Platten. Zur Untersuchung werden kontinuumsmechanische Modelle sowie Finite-Elemente-Methoden verwendet und durch experimentelle Untersuchungen erweitert. Die Erkenntnisse werden für die Entwicklung eines programmier- und fernsteuerbaren Prototyps benutzt. Sein Bewegungsverhalten kann durch die Änderung der Antriebsfrequenz auf verschiedenen Untergründen gesteuert werden. Das System erreicht Geschwindigkeiten bis 100 mm/s und kann das Fünffache seiner Masse transportieren. Abschließend wird ein innovativer Prototyp vorgestellt, der mit einem einzigen Antrieb eine steuerbare Lokomotion auf festem Untergrund und an der Oberfläche von Flüssigkeiten durchführen kann. Das terrestrische und aquatische Bewegungsverhalten wird untersucht und die Tragfähigkeit solcher Systeme auf Basis eines hydrostatischen Modells bestimmt.



Rennenkampff, Alexander von;
Management von IT-Agilität : Entwicklung eines Kennzahlensystems zur Messung der Agilität von Anwendungslandschaften. - Ilmenau : Univ.- Verl. Ilmenau, 2015. - XVIII, 369 S.. - (Ilmenauer Schriften zur Wirtschaftsinformatik ; Band 2) : Zugl.: Ilmenau, Techn. Univ., Diss., 2015
ISBN 978-3-86360-123-2
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=26281

Die Veränderungsfähigkeit eines Unternehmens hängt zunehmend von der Veränderungsfähigkeit seiner IT, der IT-Agilität, ab. Eine hohe IT-Agilität kann einen Beitrag zu erhöhter Unternehmens-Agilität leisten und stellt damit eine potenzielle Quelle für nachhaltige Wettbewerbsvorteile dar. Als Basis stellt insbesondere die Anwendungslandschaft eine wertvolle, seltene, nicht substituierbare und schwer imitierbare Ressource dar. Anhand von Prinzipien zur Gestaltung agiler Architekturen von Anwendungslandschaften und unter Nutzung geeigneter Metriken kann die Agilität von Anwendungslandschaften bestimmt und optimiert werden. Hierfür werden anhand von Agilitätszielen (Geringe Abhängigkeiten, Hohe Homogenität, Hohe Modularität, Redundanzfreiheit und Skalierbakeit) Kennzahlen zur Messung der Agilität der Architektur von Anwendungslandschaften entwickelt, zu einem Kennzahlensystem zusammengefasst und anhand von Experteninterviews und Fallstudien plausibilisiert und evaluiert. Das Kennzahlensystem kann für die aktive Steuerung der IT-Agilität in Unternehmen eingesetzt werden und stellt eine gute Ausgangsbasis für die Entwicklung ähnlicher Metriken in anderen Bereichen der IT-Agilität dar.



Linß, Sebastian;
Ein Beitrag zur geometrischen Gestaltung und Optimierung prismatischer Festkörpergelenke in nachgiebigen Koppelmechanismen. - Ilmenau : Univ.-Verl. Ilmenau, 2015. - LI, 126 S.. - (Berichte der Ilmenauer Mechanismentechnik (BIMT) ; 4) : Zugl.: Ilmenau, Techn. Univ., Diss., 2015
ISBN 978-3-86360-122-5
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=26249

Zur Realisierung von Bewegungen mit hohen Anforderungen an die Präzision werden Starrkörpermechanismen zunehmend durch nachgiebige Mechanismen ersetzt, in denen die Beweglichkeit durch stoffgekoppelte Drehgelenke realisiert wird. In diesen nachgiebigen Koppelmechanismen kommen überwiegend prismatische Festkörpergelenke mit einfachen geometrischen Aussparungen zum Einsatz. Im Gegensatz zu form- und kraftgekoppelten Gelenken ist der Auslenkwinkel eines Festkörpergelenkes begrenzt, wodurch der Bewegungsbereich des Mechanismus eingeschränkt wird. Zudem lässt sich mit einem Festkörpergelenk keine exakte relative Drehung zweier starrer Glieder realisieren, da grundsätzlich eine Drehachsenverlagerung stattfindet. Dadurch ergeben sich Bahnabweichungen des nachgiebigen Mechanismus im Vergleich zum Starrkörpermechanismus. Wesentlicher Aspekt bei der Synthese eines nachgiebigen Koppelmechanismus ist die in dieser Arbeit untersuchte Phase der geometrischen Gestaltung und Optimierung der prismatischen Festkörpergelenke hinsichtlich geforderter Mechanismuseigenschaften. Hierzu erfolgt eine ganzheitliche, d. h. vom Gelenk auf den Mechanismus übertragbare Betrachtung. Für die durchgeführte Untersuchung von Einzelgelenken ist ein geeigneter Ansatz zur Drehachsenmodellierung von entscheidender Bedeutung. Die anschließende mehrkriterielle Optimierung der Gelenkkontur findet für ein Einzelgelenk und im Mechanismus statt. Als Ergebnis der Arbeit wird eine allgemein anwendbare Synthesemethode nachgiebiger Koppelmechanismen abgeleitet, die ausgehend vom Starrkörpermechanismus eine gezielte Gestaltung sowie beschleunigte FEM-basierte Optimierung mit identischen oder unterschiedlichen Gelenken ermöglicht. Hiermit lassen sich der Bewegungsbereich vergrößern und die Bahngenauigkeit erhöhen. Die Besonderheit der Synthesemethode besteht in der Berücksichtigung der Gestaltung prismatischer Festkörpergelenke mit Standard- oder Polynomkonturen. Hierfür werden grundlegende Hinweise sowie drei neue Ansätze zur Bestimmung der geometrischen Parameter der Gelenkkontur und -abmessungen mittels Umsetzungstabelle, Kurventafel oder computergestützter Konturoptimierung vorgestellt. Auf diese Weise gestaltete Mechanismen eignen sich besonders für die Präzisionstechnik. Das Potenzial der Synthesemethode wird am Beispiel einer nachgiebigen Schubkurbel zur Realisierung einer Punktgeradführung aufgezeigt.



Aristizabal Tolosa, Ekine;
Finite element simulation for the cold-joining of high power connectors. - Ilmenau : Universitätsverlag Ilmenau, 2015. - XVII, 133 Seiten. - (Werkstofftechnik aktuell ; 13)
Technische Universität Ilmenau, Dissertation 2015

ISBN 978-3-86360-120-1

Im Rahmen dieser Arbeit wird eine neue Methode zur Beschreibung von massiven Kupfer-Einpresskontakte entwickelt. Die Berechnung von Pressverbänden nach DIN 7190 ist bei der Auslegung von massiven Kupferkontakten nicht anwendbar da während des Fügevorganges hohe Verformungsgrade und Reibspannungen auftreten. Das neue Modell bietet nicht nur verkürzte und effiziente Auslegungszyklen für neue Hochleistungskontakte (HLK) an, sondern vertieft auch das Grundverständnis des Fügeprozesses und der Kontakteigenschaften. Nach einer kurzen Motivation des Themas und einer Einführung in die kalte Kontaktiertechnik, werden im dritten Kapitel die Grundlagen der experimentellen Arbeiten sowie der Simulationsmethoden erarbeitet. Die Herausforderungen bei der Modellierung von Fügeprozessen liegen in der Materialbeschreibung und Reibungscharakterisierung. Deshalb werden die beiden Themen in zwei eigenständigen Kapiteln vorgestellt, ausgehend vom jeweiligen Stand der Technik bis zur Validation der entwickelten Methoden und Modelle. Das vierte Kapitel beschäftigt sich mit der Materialbeschreibung und beinhaltet zwei neue Methoden zur bauteilnahen Ermittlung der Fließeigenschaften von Kupferwerkstoffen. Das Reibverhalten in einem Einpressvorgang wird im fünften Kapitel untersucht. Hierzu wurde ein neuer Prüfstand zur Ermittlung von Reibkoeffizienten und Beschreibung der auftretenden Verschleißmechanismen aufgebaut. Die Materialbeschreibung und die Reibungscharakterisierung sind eng miteinander verknüpft. Beide Modelle wurden deshalb in ein Finiten-Elementen (FE)-Tool zusammengeführt, um die komplexen Wechselwirkungen beschreiben zu können. Für eine genaue aber mit möglichst wenig Aufwand verbundene FE-Beschreibung von Einpressvorgängen werden Richtlinien erarbeitet und vorgeschlagen. Auf Basis des FE-Modells werden neue Hochstromkontakte entwickelt. Über den Vergleich der simulierten und der realen Eigenschaften wurde das Modell erfolgreich validiert und seine Aussagekraft eindrücklich nachgewiesen.



Sass, Florian;
Diversitäre Redundanz gemischter AC-HGÜ-Netze durch schnelle korrektive Maßnahmen. - Ilmenau : Univ.-Verl. Ilmenau. - XVII, 67 S.. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik ; 14) : Zugl.: Ilmenau, Techn. Univ., Masterarb., 2015
ISBN 978-3-86360-113-3
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=26162

Vermaschte HGÜ-Netze können zum Aufbau eines dem AC-Netz überlagerten Overlay-Netzes eingesetzt werden. Der Betrieb eines solchen Netzes erfordert eine schnelle Reaktion auf Störungen im AC- und im HGÜ-Netz. Um diese seitens der HGÜ-Umrichter zu ermöglichen, ist ein schnelles Anpassen der Umrichter-Arbeitspunkte erforderlich. Um dem teilweise sehr zeit-kritischen Verlauf solcher Störszenarien zu begegnen, wird ein Verfahren vorgestellt, das eine schnelle Korrektur der Umrichter-Arbeitspunkte ermöglicht. Entsprechend einer Liste möglicher kritischer Betriebsmittelausfälle werden auf zentraler Ebene mittels einer Optimal Power Flow-Berechnung korrektive Umrichter-Arbeitspunkte erstellt und auf lokaler Ebene innerhalb der Umrichter-Steuerung abgelegt. Lokale Messungen ermöglichen die Identifikation von eintretenden kritischen Ausfallszenarien und eine Aktivierung der entsprechend vorberechneten Korrekturmaßnahmen. Auf diese Weise kann der AC-HGÜ-Netzverbund bei Ausfall eines Betriebsmittels durch korrektive Maßnahmen in den (n-1)-sicheren Zustand überführt werden. Der Begriff der Diversitären Redundanz wird an dieser Stelle eingeführt.



Zhao, Xin;
A contribution to the computer aided development of an electrical window regulator system : mechatronic models, parameter identification and numerical simulations. - Ilmenau : Univ.-Verl. Ilmenau, 2015. - XX, 192 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2015

Die Arbeit orientiert sich daran, Modelle und Simulationen von elektrischen Fensterhebersystemen zu entwickeln. Das Ziel ist ein verbessertes Verständnis des Systemverhaltens und Einfluss von Parametern zu erlangen. Vor dem Hintergrund, dass Fensterhebersysteme komplizierte mechatronische Systeme darstellen, wird die Simulation als Werkzeug vermehrt eingesetzt. In dieser Arbeit werden verschiedene Simulationen von mechatronischen Systemen auf unterschiedlichen Ebenen verglichen. Applikationen von Fensterhebersimulationen werden zusummengefasst und bewertet. Basierend auf dieser Auswertung wurde die Systemsimulation mit der Modellierungssprache, VHDL-AMS, als Methode ausgewählt. Bevor sich tiefgründig mit der Modellierung von Fensterhebersystemen beschäftigt wird, soll zuvor ein stark abstrahiertes analytisches Modell für die Bewertung des dynamischen Verhaltens erstellt werden. Grundlegend besitzt das Modell 2 Freiheitsgrade und besteht aus 2 Massen, die über eine Feder und einen Dämpfer verbunden sind. Eine Masse stellt die Glasscheibe und die andere die Massenträgheit des Motorankers dar. Mit der Mittelwertmethode wird das analytische Modell hinsichtlich der Stabilitätsbedingungen untersucht. Die Modellbildung des Fensterhebersystems beginnt mit der Aufteilung des Systems in einzelne Komponenten, basierend auf deren Funktion. Die Komponenten, wie z.B. elektrische Motoren, Hebemechaniken, Türrahmen, Elektroniken, etc., werden untersucht und anschließend Modelle erstellt, um ihre elektrische oder mechanische Funktionsweise zu beschreiben. Abhängig von der Komplexität wird die Technik der Modellierung ausgesucht, zum Beispiel physikalische oder verhaltensmäßige Modellierung oder eine Kombination von beiden. Die Parameter der Modelle wurden anhand von gesammelten Informationen von Komponentenlieferanten, existierenden Datenbanken und Messungen ermittelt. Komponentenmodelle wurden anhand von Messdaten verifiziert, z.B. Motorkennlinie. Die Systemsimulation beschäftigt sich mit der Integration von allen Komponentenmodellen in eine Simulation und imitiert Ausführung der Fensterhebersysteme in verschiedenen Lastfällen. In einer konkreten Applikation wurden die Ergebnisse der Messung und der Simulation anhand der Werte von wichtigen Signalen, die den Status des Systems abbilden, wie zum Beispiel Drehzahl und Strom des Motors, verglichen. Außerdem wurde die Einklemmschutzfunktion quantitativ durch Messung der Einklemmkräfte bei verschiedenen Spannungen verglichen. Trotzdem sind die Simulationen nicht auf die demonstrierten Beispiele dieser Arbeit limitiert. Teilsystemsimulationen mit dem Schwerpunkt auf der Untersuchung von Komponenten können auch mit den Komponentenmodellen entwickelt werden.



Marten, Anne-Katrin;
Operation of meshed high voltage direct current (HVDC) overlay grids : from operational planning to real time operation. - Ilmenau : Univ.-Verl. Ilmenau, 2015. - XXXVII, 146 S.. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik ; 12) : Zugl.: Ilmenau, Techn. Univ., Diss., 2015
ISBN 978-3-86360-112-6
Parallel als Online-Ausg erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=26077

Weltweit aber besonders in Europa steigt der Bedarf große Leistungen über weite Strecken zu transportieren. Dies ist hauptsächlich in der Energiewende und dem damit zusammenhängenden stark ansteigenden Anteil Erneuerbarer Energien und deren Erzeugungszentren begründet. Ein bedeutender Teil der Erneuerbaren Energien wird zukünftig weitab der Lastzentren produziert. Zur Lösung dieser daraus resultierenden neuen Transportaufgabe ist die Hochspannungsgleichstromübertragung (HGÜ) besonders geeignet. Eine redundante und damit auch wirtschaftliche Ausführung stellt das vermaschte HGÜ-Netz dar, das in der Energieversorgungsnetzhiearchie eine neue Netzebene dargestellt und somit als Overlay-HGÜ-Netz bezeichnet wird. Diese Arbeit widmet sich der Fragestellung der Betriebsführung eines Overlaynetzes. Dazu wird eine dreistufige Betriebsführung vorgeschlagen. In Anlehnung an die im europäischen AC-Verbundnetz bestehende Dreiteiligkeit wird eine Untergliederung in folgende Regelungsinstanzen vorgenommen: Tertiär-, Sekundär und Primärregelung. Die Tertiärregelung übernimmt die Koordinierungsaufgabe der Umrichter untereinander und mit dem unterlagerten AC-Netz im Rahmen einer Betriebsplanung. Es ist ein betriebstypisches Aktualisierungsintervall von 15 Minuten vorgesehen, indem die Umrichtersollwerte vorgegeben werden. Deren Bestimmung erfolgt durch ein auf dieses nichtlineare Problem zugeschnittenen AC/DC Optimal Power Flow. Dieses Verfahren fußt auf der Verfügbarkeit aller AC- und DC-Netzinformationen im Gebiet des Overlaynetzes. Im Falle einer föderalen Organisation eines HGÜ-Overlaynetzes in Europa müssen die Zielsetzungen mehrere Übertragungsnetzbetreiber (ÜNB) bei der Bestimmung eines Umrichtersollwertfahrplans berücksichtig werden. Für diesen Fall wird hier eine Methode vorgeschlagen, die mittels eines Aushandlungsprozesses die ÜNB spezifischen Kostenfunktionen für den Einsatz von HGÜ-Umrichtern in der entsprechenden Regelzone zu einer für das gesamte Overlaynetz gültigen Zielfunktion konsolidiert. Dabei werden Grenzwerte der einzelnen beteiligten ÜNB ebenso berücksichtigt wie lokale Zielfunktionen. Die Sekundärregelung passt die von der Tertiärregelung vorgegebenen Umrichtersollwerte innerhalb des 15-min-Betriebsintervalls vor allem im Fall von Störungen an. Dafür wird ein Verfahren vorgeschlagen, das sich der Informationen eines Weitbereichsüberwachungssystems bedient, um signifikante Abweichung der geplanten Leistungsflüsse zu erfassen. Die Umrichterwirkleistungssollwerte werden entsprechend angepasst. Eine Aufteilung von unplanmäßigen Leistungsflüssen zwischen AC und DC-Netz sorgt für eine Entlastung des AC-Netzes und beugt Betriebsmittelüberlastungen und dadurch verursachten Instabilitätsphänomenen vor. Die Primärregelung gewährleistet das Gleichgewicht zwischen ein- und ausgespeister Wirkleistung in das / aus dem HGÜ-Overlaynetz. Ist die diesbezügliche Leistungsbilanz ausgewogen, ist das Energiegleichgewicht, die sogenanntes Energiestabilität, gewahrt. Die DC-Zeitkonstanten sind klein. Nur eine dezentral (am Umrichterstandort) angeordnete Regelung kann zeitlich angemessen reagieren. Diese nutzt eine p-u-Regelcharakteristik, die die Umrichtersollleistung entsprechend der Abweichung von der DC-Sollspannung anpasst. Dafür werden eine kontinuierliche p-u-Charakteristik sowie Verfahren zu deren Parametrierung vorgeschlagen. Für die Bereitstellung von DC-Regelleistung besonders geeignete AC-Knoten können so angemessen für das HGÜ-Overlaynetz genutzt werden. Die Funktionalität des hier vorgeschlagenen dreiteiligen Bertriebsführungsverfahrens für vermaschte HGÜ-Netze wird anhand von numerischen Fallstudien auf Basis einer typischen Netztsituation in Zentraleuropa validiert.



Röhrig, Markus;
Methodische Arbeitsplatz- und Prozessanalyse in der Akkordarbeit. - Ilmenau : Univ.-Verl. Ilmenau, 2015. - XXIII, 217 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2015

Diese wissenschaftliche Arbeit befasst sich mit physiologischen Belastungen von Personen, die aufgrund ökonomischer Gesichtspunkte ihre Tätigkeit nach dem Prinzip des Akkordlohnes ausüben. Dabei ist zu berücksichtigen, dass dieser Entlohnungsgrundsatz einen besonderen Aspekt der Belastung darstellt. Ein weiterer Einflussfaktor ist das Schichtsystem, welches ebenfalls thematisiert wird. Zur Ermittlung der individuellen physiologischen Belastung/Beanspruchung wurden die geläufigsten und der gegenwärtige arbeitswissenschaftliche Forschungsstand an Beurteilungs- und Bewertungsmethoden vorgestellt. Durch eine Matrixbewertung konnte für diese Untersuchung die arbeitswissenschaftlich sinnvollste Bewertungsmethode definiert werden. In dieser Arbeit war dies das CUELA-Verfahren und die Leitmerkmalmethode zur Risikoabschätzung von physiologischen Belastungen bei manuellen Arbeitsprozessen. Auf Basis von dadurch entstandenen Erkenntnissen zum Beispiel in Form von ungünstigen Körperhaltungen oder zu hohen Körperkräften ergaben sich Fragestellungen und wurden Hypothesen aufgestellt. Diese konnten im Laufe der Arbeit systematisch untersucht und beantwortet werden. Eine Untersuchungsmethodik definierte dazu den Umfang der Erhebung. Dabei kam die statistische Versuchsplanung zum Einsatz. Mittels der daraus resultierenden Ergebnisse war eine Überprüfung der Hypothesen möglich. Außerdem konnten andlungsempfehlungen für das Unternehmen und bestehende arbeitswissenschaftliche Defizite abgeleitet werden. So wurde z. B. ein Modell entwickelt, welches eine Kennzahlenberechnung zur physiologischen Gesamtbelastung/-beanspruchung der oberen Extremitäten ermöglicht. Um diesen neuen Modell einen praktikablen Aspekt zu verleihen, wurde eine eigenständige Software entwickelt. Diese ermöglicht dem Benutzer einen effektiven Umgang unter softwareergonomischen Bedingungen. Mit diesen Maßnahmen konnten arbeitswissenschaftliche Beiträge geleistet werden und gleichzeitig durch diverse technische und organisatorische Maßnahmen eine Reduktion von physiologischen Belastungen/Beanspruchungen im Unternehmen erzielt werden.



Illing, Björn;
Der Einfluss von Netznutzungsentgelten auf die Last im Verteilernetz. - Ilmenau : Univ.-Verl. Ilmenau. - XI, 190 S.. - (Ilmenauer Beiträge zur elektrischen Energiesystem, Geräte und Anlagentechnik ; 13) : Teilw. zugl.: Ilmenau, Techn. Univ., Diss., 2014 u.d.T.: Berechnungsansätze für Netznutzungsentgelte zur Beeinflussung des Lastverlaufs in der Verteilernetzebene
ISBN 978-3-86360-119-5

Grieseler, Rolf;
Untersuchung der Eigenschaften sowie der Anwendung von reaktiven Mehrschichtsystemen in der Aufbau- und Verbindungstechnik. - Ilmenau : Univ.-Verl. Ilmenau, 2015. - 140 S.. - (Werkstofftechnik aktuell ; 12) : Zugl.: Ilmenau, Techn. Univ., Diss., 2015
ISBN 978-3-86360-117-1
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=25769

Diese Dissertation beschäftigt sich mit den thermischen Eigenschaften reaktiver Mehrschichtsysteme. Reaktive Mehrschichtsysteme sind schichtweise aufgebaute Materialien oder Folien, die zumeist aus Einzelschichtdicken zwischen 1 und 100 nm und einer Gesamtschichtdicke zwischen 1 und 500 [my]m bestehen. In den meisten Fällen sind derartige Schichten aus metallischen oder oxidischen Materialien aufgebaut, die nach dem Erreichen der Aktivierungsenergie exotherm reagieren. Im Fall von metallischen Schichten geschieht die Erzeugung von Wärme meist unter Bildung intermetallischer Phasen. Die Vorteile bei rein metallischen Schichten bzw. Folien liegen darin, dass die Reaktion ohne Zufuhr von Sauerstoff oder anderen Gasen stattfinden kann. Die erreichten Temperaturen können dabei mehr als 1600&ring;C betragen. Demzufolge sind diese Schichten und Folien gut geeignet, um Bauteile stoffschlüssig zu fügen. Die Reaktionszeiten liegen dabei lediglich im Mikro- und Millisekundenbereich. Dadurch kann die thermische Belastung für die zu fügenden Bauteile sehr viel geringer sein als bei herkömmlichen Fügemethoden, zum Beispiel dem Schweißen. Ziel der folgenden Ausführungen und Untersuchungen war die Analyse verschiedener Materialkombinationen, die als reaktive Mehrschichtsysteme zum Fügen von Bauteilen geeignet erscheinen. Als mögliche Materialkombinationen wurden die Systeme Aluminium-Nickel, Aluminium-Titan, Titan-Silizium und Aluminium-Kupfer untersucht. Diese sollten insbesondere auf die erzeugte Wärmemenge und auf die Reaktionsgeschwindigkeit bzw. die Geschwindigkeit der Reaktionsfront hin untersucht werden. Es hat sich gezeigt, dass auch das Wissen um die Diffusionseigenschaften der Materialien essenziell für die Bestimmung verschiedener thermischer Eigenschaften derartiger Materialsysteme ist. Die Diffusionskoeffizienten für die vier genannten Materialsysteme wurden mittels optischer Glimmentladungsspektroskopie an 2 [my]m dicken Doppelschichtsystemen bestimmt. Resultierend aus der im Vergleich zur Literatur geringeren Aktivierungsenergie für die Diffusion wurde als dominierender Diffusionsmechanismus für diese gesputterten Schichten die Korngrenzendiffusion ermittelt. Die Geschwindigkeiten der Reaktionsfront lagen zwischen 0,5 m/s für das Aluminium-Kupfer System als Beispiel für ein langsam reagierendes System und 22 m/s für das Titan-Silizium System als das am schnellsten reagierende Mehrschichtsystem. Die Reaktionsenergie wurde mittels Differential Thermoanalyse untersucht. Dabei konnte neben den Reaktionsenthalpien auch die Aktivierungsenergie für reaktive Mehrschichtsysteme in Abhängigkeit von der Gesamtschichtdicke ermittelt werden. Es zeigte sich, dass zwei verschiedene Mechanismen als entscheidend für die Reaktion in Betracht kommen. Zum Einen ist bei den Systemen Aluminium-Nickel, Titan-Silizium und Aluminium-Kupfer die Diffusion die treibende Kraft der Reaktion und somit die Aktivierungsenergie der Reaktion auch sehr nah zur Aktivierungsenergie der Diffusion. Zum Anderen zeigte sich im System Aluminium-Titan, dass die Reaktion eher durch Grenzflächenmechanismen bestimmt wird, was zu einer erhöhten Aktivierungsenergie der Reaktion im Vergleich zur Diffusion führt. Weiterhin wurde die Anwendung reaktiver Mehrschichtsysteme zum Bonden zweier Bauteile untersucht. Dazu wurden neben den gesputterten Schichten aus dem Aluminium-Nickel System auch kommerziell erhältliche Nanofoils ® basierend auf dem gleichen Schichtsystem untersucht. Es konnte gezeigt werden, dass die Verwendung solcher reaktiven Schichten vergleichsweise gut geeignet ist, um Materialien und Bauteile miteinander zu fügen. Es konnte eine maximale Haftfestigkeit für das Bonden zweier Aluminiumoxid-Substrate mit Hilfe kommerzieller Nanofoils® von 10 bis 30 N/mm 2 erreicht werden. Zudem zeigte sich, welchen Einfluss die Rauheit der Bauteile auf die Qualität des Bonds hat und inwieweit reaktive Schichten im Vergleich zu herkömmlichen Lotmaterialien auf Grund ihrer Wärmeleitfähigkeit nach der Reaktion geeignet sind, um wärmeerzeugende Bauteile mit Wärmesenken zu verbinden. Die erzielten Ergebnisse können als Beitrag für das Erstellen eines Modells genutzt werden, um sowohl die Reaktion als auch den Einfluss der Reaktion und der daraus resultierenden Temperatur auf die umgebenden Materialien und Bauteile abzubilden und zu beschreiben. Sinnvoll wäre in einem nachfolgenden Schritt die Implementierung eines solchen Modells, um einem zukünftigen Anwender reaktiver Mehrschichtsysteme die Möglichkeit zu geben, aus der Vielzahl reaktiver Mehrschichtsysteme die am Besten geeigneten für den jeweiligen Anwendungsbereich zu ermitteln und den Einfluss auf die Bondpartner zu erhalten.



Reichert, Frank;
Numerische Simulation strömungsmechanischer Vorgänge in SF 6 -Hochspannungsleistungsschaltern. - Ilmenau : Univ.-Verl. Ilmenau. - X, 163 S., Anh. (II, 95 S.) Zugl.: Ilmenau : Techn. Univ., Habil.-Schr., 2014

In der vorliegenden Habilitationsschrift werden die strömungsmechanischen Vorgänge in der Unterbrechereinheit von SF6-Hochspannungsleistungsschaltern während eines Ausschaltvorganges betrachtet. Zunächst wird über eine Analyse des Ausschaltvorganges das physikalische Gesamtsystem zur Beschreibung des Ausschaltvorganges herausgearbeitet, welches auf der Zusammen- und Wechselwirkung verschiedener Teilsysteme (Antrieb und Schaltermechanik, Strömungsgeometrie, Gasströmung, Schaltlichtbogen, Wiederverfestigung und Externer Stromkreis) basiert. Aus der Kopplung der Teilmodelle für die separierten Teilsysteme resultiert ein modulares Simulationsmodell, welches eine numerische Simulation der strömungsmechanischen Vorgänge in SF 6 -Hochspannungsleistungsschaltern während des Ausschaltvorganges ermöglicht. Mit dem entwickelten Simulationsmodell werden Leer- und Kurzschlussabschaltungen simuliert. In diesem Zusammenhang wird u.a. die Rückwirkung des Schaltlichtbogens auf die Antriebs- und Ventiloperation, der Einfluss der Düsenablation auf die Druckverteilung in der Unterbrechereinheit und der Einfluss der Lichtbogenzeit auf die Wiederverfestigung untersucht. Die aufgezeigte Vorgehensweise ist universell und kann auf die verschiedensten mechanischen Schaltgeräte in der Nieder-, Mittel- und Hochspannung angewendet werden.



Brighton, Denisa; Zajko, Marian; Pezoldt, Kerstin
Successful innovations? : efficient knowledge and technology transfer and international collaboration. - Ilmenau : Univ.-Verl. Ilmenau, 2015. - 183 S.Literaturverz. S. 171 - 179

Steege, Frank-Florian;
Einsatz adaptiver Lernverfahren zur Regelung industrieller Verbrennungsprozesse. - Ilmenau : Univ.-Verl. Ilmenau, 2015. - IX, 355 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2015
ISBN 978-3-86360-114-0
Enth. außerdem: Thesen

In dieser Arbeit wird dargestellt, wie lernfähige adaptive Prozessmodelle zum Verbessern der Prozessführung in großen industriellen Verbrennungsanlagen beitragen können. Dazu werden die wesentlichen Bestandteile eines solchen Verbrennungsprozesses dargestellt, und es wird erläutert, warum konventionelle Regelungsverfahren (z.B. PID-Regler) Teile dieses Prozesses nicht oder nur unzureichend beherrschen können. Lernfähige Modelle sind prinzipiell in der Lage eine bessere Prozessführung zu gewährleisten. Ebenso wird gezeigt, welche Probleme die Standard-Lernverfahren mit den Daten realer Prozesse haben. Im Hauptteil der Arbeit werden drei Verbesserungsansätze erarbeitet: Der Einfluss von verrauschten Daten auf den Lernvorgang. Um trotz solcher Daten gute Modelle zu erhalten, werden sowohl verrauschte Punkte (Ausreißer) aus dem Datensatz entfernt als auch robuste Trainingsverfahren eingesetzt. Die Anpassung eines lernfähigen Modells an Veränderungen des Prozesses über langen Zeiträumen. Es wird gezeigt, dass ein Adaptieren des Modells zu Vorteilen gegenüber einem statischen Modell führt. Auf Verbrennungsdaten werden die besten Ergebnisse mit der gewichteten Kombination von adaptiven Modellen in Ensembles erreicht. Die funktionale Sicherheit der Stellstrategie eines lernfähigen Modells. Lernfähige Standardverfahren scheitern oft an der Verteilung der Daten in bereits geregelten Prozessen. Zur Vermeidung solcher Fehler werden mehrere sich ergänzende Ansätze entwickelt. Bedeutsam ist dabei das Einfügen von Expertenwissen in den Lernprozess. Durch Abgleich mit bereits vorhandenen Daten der Anlage kann gezielt Wissen für unbekannte Bereiche integriert und die Zuverlässigkeit lernfähiger Regler erhöht werden. Das wesentliche Herausstellungsmerkmal dieser Arbeit im Vergleich zu anderen Arbeiten auf dem Gebiet der lernfähigen Prozessmodelle liegt im unmittelbaren praktischen Bezug zu Verbrennungsprozessen. Die vorgestellten Verfahren wurden auf verschiedenen Müllverbrennungsanlagen und Zementwerken über mehrere Wochen und Monate erprobt. Es werden Lösungsmöglichkeiten aufgezeigt, die es ermöglichen, lernfähige Systeme über lange Zeiträume aktiv Stellgrößen regeln zu lassen und so eine erhebliche Verbesserung der Prozessführung zu erreichen.



Katkhouda, Kamal;
Aluminum-based PVD rear-side metallization for front-junction nPERT silicon solar cells. - Ilmenau : Univ.-Verl. Ilmenau, 2015. - 204 S.. - (Werkstofftechnik aktuell ; 11) : Zugl.: Ilmenau, Techn. Univ., Diss., 2014
ISBN 978-3-86360-111-9
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=25639

Diese Arbeit befasst sich mit Al-basierter physikalischer Gasphasenabscheidung als alternatives Herstellungsverfahren einer Rückseitenmetallisierung für nPERT Siliziumsolarzellen. Al-basierte Metallisierungssysteme wie Al, Al-Si-Legierung (1 at% Si) und Al-Si/Al- Schichtstapel wurden in Bezug auf Al-Spiking, spezifischem Kontaktwiderstand und Rückseitenreflexion untersucht und verglichen. Bei Verwendung einer Al-Einzelschichtmetallisierung kam es zur Bildung von Al-Spikes. Wurde eine Al-Si-Legierung aufgebracht, konnte das Al-Spiking vermieden werden, jedoch gleichzeitig mit einer Bildung von starkausgeprägten Si-Präzipitaten. Deswegen wurde ein neuer Ansatz mit einem Al-Si/Al-Schichtstapel statt Einzelschichtsystemen entwickelt. Mit diesem Ansatz und mit einer optimierten Dicke der Al-Si-Schicht konnten sowohl das Al-Spiking als auch die Si-Präzipitation deutlich reduziert werden. Der optimierte Al-Si/Al-Schichtstapel zeigte zusätzlich einen ausreichend niedrigen spezifischen Kontaktwidestand und eine hohe Rückseitenreflexion und darüber hinaus eine deutlich höhere thermische Stabilität verglichen mit dem Al-Einzelschichtmetallisierung.



Balzer, Felix Gerhard;
Entwicklung und Untersuchungen zur 3-D-Nanopositioniertechnik in großen Bewegungsbereichen. - Ilmenau : Universitätsverlag Ilmenau, 2015. - xx, 231 Seiten
Technische Universität Ilmenau, Dissertation 2014

In der Dissertation wird die Entwicklung einer neuen Nanopositionier- und Nanomessmaschine NPMM-200 beschrieben. Das Gesamtsystem wird im Überblick dargestellt. Im Detail werden die Konstruktion und Realisierung des Positioniersystems behandelt. Ein Schwerpunkt der experimentellen Verifikation ist die Analyse der Leistungsfähigkeit und der Grenzen der Positioniereigenschaften dieses Messgeräts. Darüber hinaus werden erste Ergebnisse des metrologischen Nachweises anhand einer ausgewählten Messaufgabe und mehrere Anwendungsbeispiele vorgestellt. Die NPMM-200 hebt sich mit einem Messvolumen von 200 mm x 200 mm x 25 mm bei gleichzeitiger Messauflösung in subatomarer Größenordnung sowie einer angestrebten 3-D-Messunsicherheit von weniger als 30 nm vom derzeitigen Stand der Technik ab. Gegenwärtig existiert kein Antastsystem, das universell für die Bewältigung der Vielzahl von Messaufgaben an Mikro- und Nanostrukturen geeignet ist. Deshalb wurde die NPMM-200 für Multisensorik konzipiert.



Rau, Thomas S.;
Optimierung der Insertion von Cochlea-Implantaten unter Berücksichtigung des Verformungsverhaltens der Elektrodenträger : mechatronik-gestützte, minimal traumatische CI-Chirurgie. - Ilmenau : Univ.-Verl. Ilmenau, 2015. - XXIV, 376 S.. - (Berichte aus der Biomechatronik ; 11) : Zugl.: Ilmenau, Techn. Univ., Diss., 2014
ISBN 978-3-86360-110-2
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=25269

Die Entwicklung von Cochlea-Implantaten (CI) ist eine einzigartige Erfolgsgeschichte in der Neuroprothetik, welche die Behandlung von tauben und zunehmend hochgradig schwerhörigen Patienten ermöglicht. Die Implantation eines CIs ist dabei ein komplexer Eingriff, der ein erhebliches Risiko des Resthörverlusts birgt. Die aktuelle CI-Versorgung ist jedoch dominiert von der wachsenden Forderung nach sicherem Resthörerhalt. Das führt zu hohen Erwartungen an die Verbesserung der CI-Chirurgie und insbesondere an die Insertion der Elektrodenträger. Wesentliche Fortschritte und die damit verbundenen, technischen Herausforderungen sind nur noch durch ganzheitliche und domänenübergreifende Lösungsansätze zu bewältigen, wie sie die Biomechatronik bietet. Daraus folgt das erklärte Ziel dieser Arbeit: eine eng verzahnte Weiterentwicklung aller für den Resthörerhalt relevanten Prozessschritte. Fokussiert auf das chirurgische Vorgehen wurden für die mechanische Schaffung eines minimal-invasiven Zugangs ins Innenohr, dessen anatomieerhaltende Eröffnung und die automatisierte Insertion der CI-Elektrodenträger mechatronische Komponenten entwickelt und evaluiert. Geprägt waren diese Entwicklungen von einer biologisch fundierten Betrachtungsweise, um die anatomischen Aspekte in der Optimierung bestmöglich auszuschöpfen. Den Ausgangspunkt der Arbeit bildete eine systematische Sekundäranalyse zur Biomechanik der Insertion in Kombination mit einer Analogiebetrachtung zu technischen Füge- bzw. Handhabungsprozessen. Daraus folgte, dass die Anpassung der Gestalt des Implantats an die individuelle Form des Innenohrs von zentraler Bedeutung für den Resthörerhalt ist. In der darauf aufbauenden, simulationsgestützten Optimierung des Insertionsprozesses wurde erstmalig gezeigt, dass die patientenspezifische Adaption des Verformungsverhaltens des Elektrodenträgers an die Cochleaanatomie ein erhebliches und bislang ungenutztes Optimierungspotential bietet. Für die notwendige Automatisierung der Insertion wurde ein modulares Insertionstool konzipiert. Dessen Entwurf ging mit Designempfehlungen für zukünftige Elektrodenträger einher, welche erstmalig die räumlichen Anforderungen des minimal-invasiven Zugangs berücksichtigen. Durch die ganzheitliche, biomechatronische Herangehensweise wurde somit aufgezeigt, wie ein sicheres und zukunftsweisendes Operationsverfahren bereitgestellt werden kann.



Gramstat, Sebastian;
Methoden der in-situ Visualisierung der Reibzonendynamik trockenlaufender Reibpaarungen unter Ergänzung physikalischer und chemischer Charakterisierungen der Reibpartner. - Ilmenau : Univ.-Verl. Ilmenau, 2015. - XIII, 333 S.. - (Kraftfahrzeugtechnische Berichte ; 7) : Zugl.: Ilmenau, Techn. Univ., Diss., 2014 u.d.T.: Gramstat, Sebastian: Methodische Entwicklung von Verfahren der in-situ Visualisierung der Reibzonendynamik trockenlaufender Reibpaarungen im Zusammenhang mit physikalischen und chemischen Charakterisierungen der Reibpartner
ISBN 978-3-86360-107-2
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=24859

Das tribologische Verhalten trockenlaufender Reibpaarungen ist bis heute nicht vollständig beschreibbar. Der Bedarf an der Kenntnis daran, was während einer Bremsung in der Reibzone geschieht, ist enorm groß. Die Zielstellung der vorliegenden Arbeit betrifft daher die Überwindung bisheriger Grenzen der in-situ Betrachtung der Reibzonenvorgänge auf einem Multiskalenniveau (Nano, Mikro, Makro), um die Wirkmechanismen der Reibschicht zu charakterisieren. Hierfür wurden neuartige in-situ Visualisierungsuntersuchungen unter Nutzung speziell entwickelter Bremsscheiben und originalen Komplettreibbelägen von Personenkraftwagen unternommen. Für Letztere erfolgte eine Berücksichtigung verschiedener Rezepturen (ECE, NAO sowie kupferfreie ECE-Mischungen). Als Ergebnis kann zunächst die Vergleichbarkeit der Erkenntnisse des in-situ Prüfkonzepts auf konventionelle Reibpaarungen (Grauguß-Bremsscheibe - organischer Reibbelag) nachgewiesen werden, was die Tauglichkeit und Aussagefähigkeit der neuartigen Methode verdeutlicht. Das sich einstellende Patchverhalten zeigt direkte Analogien hinsichtlich der Anzahl, Größe und Gestalt der Plateaus. Mit Hilfe der Visualisierungs- und ergänzenden Analysemethoden wird nun erstmals die Dynamik der Patchlebenszyklen als Patchfläche über die Bremsungsdauer charakterisiert. Auch die reibkraftübertragenden Reibzonenanteile zwischen den Bremsungen werden bestimmt und lassen somit Rückschlüsse auf die Ausprägung von Restbremsmomenten zu. Neben den Patchanalysen werden erstmalig die Bewegungsgeschwindigkeiten und -bahnen sowie die Verweildauern der Abriebpartikel in der Reibzone charakterisiert. Dabei zeigt sich nicht nur, daß sie sich zumeist im Vergleich zur Rotorgeschwindigkeit deutlich langsamer bewegen, sondern auch, daß die Belagrezeptur einen wesentlichen Einfluß auf die Ausprägung der Partikelbahnen sowie die gegenseitige Beeinflussung des Partikelbewegungsverhaltens ausübt. Der Charakterisierungsansatz, der zudem lokal aufgelöste Belagtopographie-, Kompressibilitäts- und Porositätsanalysen (mittels dreidimensionaler Computertomographie) sowie chemische Analysen mittels EDX vorsieht, offenbart zudem Zusammenhänge zwischen der Patchdynamik und der Reibbelagphysik und -chemie in Bezug auf das tribologische (Naß- und Trockenreibung) und thermische (Thermoelastische Instabilität) Verhalten. Letzteres erlaubt es zum ersten Mal, Hitzeflecken in der Reibzone zu beschreiben, indem ihre Anzahl und Flächen dynamisch bestimmt werden. Mittels der vorgestellten Methode ist es nun möglich, die Dynamik und Wirkmechanismen vom einzelnen Patch über verschiedene Patchzonen bis hin zur kompletten Reibzone (inklusive Reibringverlagerungen) zu charakterisieren.



Wolling, Jens; Arlt, Dorothee
Fukushima und die Folgen : Medienberichterstattung, Öffentliche Meinung, Politische Konsequenzen. - Ilmenau : Universitätsverlag Ilmenau, 2014. - 367 Seiten. - (Nachhaltigkeits-, Energie- und Umweltkommunikation ; Band 2) ISBN 3-86360-100-9

Am 11. März 2011 ereignete sich vor der japanischen Küste ein schweres Erdbeben. Es löste einen gewaltigen Tsunami aus, der an der Ostküste Japans schwere Schäden hervorrief und fast 20.000 Menschen das Leben kostete. Im Atomkraftwerk Fukushima verursachte der Tsunami eine Reaktorkatastrophe, in deren Folge insbesondere in Deutschland eine heftige Diskussion über die Atomenergie entflammte, die schließlich zum deutschen Atomausstieg führte. Die Reaktorkatastrophe erfuhr international eine große öffentliche (Medien-) Aufmerksamkeit und rief auch die kommunikationswissenschaftliche Forschung auf den Plan. Ergebnisse dieser Forschungen, die an verschiedenen Stellen unabhängig voneinander durchgeführt wurden, sind in diesem Band versammelt. - In insgesamt 13 Beiträgen werden die medialen und öffentlichen Reaktionen auf das Unglück empirisch analysiert. Die Beiträge befassen sich zum einen mit der Darstellung der Atomenergie in historischer Vergleichsperspektive, wobei die Reaktorkatastrophe in Tschernobyl als Referenzpunkt für Fukushima diente. In weiteren Beiträgen wird die Dynamik der Berichterstattung in Deutschland fokussiert. Fünf Beiträge betrachten die Reaktionen der Medien in internationaler Vergleichsperspektive und weitere vier untersuchen die Reaktionen der Bevölkerung auf die Ereignisse in Fukushima. Durch die Zusammenführung der unterschiedlichen Perspektiven wird eine differenzierte Einschätzung der medialen und gesellschaftlichen Konsequenzen des Extremereignisses möglich. Die Umrisse eines Forschungsprogramms für die Nachhaltigkeits-, Energie- und Umweltkommunikation werden sichtbar.



Fuchs, Karsten; Novitskiy, Alexander; Berger, Frank; Westermann, Dirk
Hochspannungsgleichstromübertragung - Eigenschaften des Übertragungsmediums Freileitung. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - Getr. Zählung [ca. 208 S.]. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik ; 7) ISBN 978-3-86360-075-4
Literaturverz. S. 52 - 56

Die Änderung des Erzeugungsmixes in Deutschland erfordert den Zubau neuer Transportkapazitäten. Die für das deutsche Verbundnetz neue Aufgabe des Hochleistungs-/Langstreckentransports elektrischer Energie erfordert den Einsatz von Hochspannungsgleichstromübertragungsstrecken (HGÜ-Strecken), eingebettet in das synchrone Drehstromverbundnetz. Als Übertragungsmedium können dabei Freileitungen zum Einsatz kommen. Die vorliegende Publikation beschäftigt sich mit den technischen Grundlagen und einer Gegenüberstellung der heute im Einsatz befindlichen Technologievarianten. Für mögliche Ausführungsformen zukünftiger Freileitungen werden je nach Spannungsebene die zu erwartenden Emissionen der elektrischen und magnetischen Feldemissionen im Nenn- und Fehlerbetrieb beschrieben. Die Analysen erfolgen anhand der im Juni 2013 novellierten Fassung der 26.BImSchV, den berufsgenossenschaftlichen Regeln zum Arbeitnehmerschutz und aktuellen Studien der Weltgesundheitsorganisation zu elektromagnetischen Beeinflussungsfragen. Das Buch wendet sich an die Übertragungsnetzbetreiber und Hersteller sowie an das interessierte Fachpublikum an den Universitäten.



Richter, Johannes;
Entwicklung einer Prozessregelung für das atmosphärische Plasmaspritzen zur Kompensation elektrodenverschleißbedingter Effekte. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - XIV, 221 S.. - (Fertigungstechnik - aus den Grundlagen für die Anwendung ; 2) : Zugl.: Ilmenau, Techn. Univ., Diss., 2013
ISBN 978-3-86360-108-9
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=24874

Die Herstellung von keramischen Wärmedämmschichten auf Gasturbinenschaufeln stellt eine komplexe Herausforderung dar, da der atmosphärische Plasmaspritzprozess durch eine Vielzahl von Einflussgrößen und hohe Sensitivität gegenüber äußeren Einwirkungen gekennzeichnet ist. Eine Sonderstellung unter den Störgrößen nimmt der Elektrodenverschleiß ein, da durch diesen Effekt eine kontinuierliche Veränderung der Beschichtungsergebnisse bezüglich Spritzeffzienz und Schichtmikrostruktur hervorgerufen wird. Ziel der vorliegenden Arbeit ist es, eine Prozessregelung zu entwickeln, die eine Stabilisierung des atmosphärischen Plasmaspritzprozesses und damit eine Reduzierung der Schwankungen der Beschichtungsergebnisse über die Elektrodenlaufzeit ermöglicht. Die Versuche sollen im fertigungsnahen Umfeld anhand von Turbinenschaufeln durchgeführt werden, um eine direkte Implementierung der Regelung in die Serienfertigung zu ermöglichen. Als Basis für die Entwicklung der Prozessregelung erfolgt zunächst die Beschreibung der Grundlagen zu Wärmedämmschichten, Herstellungsverfahren und Prozessdiagnostik. Darauf aufbauend werden die Einflussfaktoren mit den stärksten Effekten auf die Beschichtungsergebnisse anhand der elektrodenverschleißinduzierten Veränderungen im ungeregelten Langzeitbeschichtungsversuch ermittelt und als Regelgrößen definiert. Nach der Bestimmung der Steuergrößen werden im Anschluss die Prozessregelungsansätze in Langzeitbeschichtungsversuchen überprüft und die Prozessfähigkeiten berechnet. Die Versuche zeigen insgesamt eine signifikante Stabilisierung der Beschichtungsergebnisse unter Verwendung der entwickelten Prozessregelung auf Basis der Regelgrößen (i) Partikelintensität, (ii) Partikelgeschwindigkeit und (iii) elektrischer Spannung. Als Steuergrößen werden die elektrische Stromstärke, sowie das primäre und sekundäre Plasmagas verwendet. In den Verifizierungsversuchen wird darüber hinaus gezeigt, dass mit Hilfe der konventionellen Leistungsregelung nur eine bedingte Stabilisierung des Beschichtungsprozesses ermöglicht wird und die entwickelte Prozessregelung auch auf andere atmosphärische Plasmaspritzprozesse mit veränderten Parametern und Brennerkonfigurationen anwendbar ist.



Jaenichen, Sebastian; Steinrücken, Torsten
Gebiets- und Funktionalreformen im Spannungsfeld von Bürgerinteressen und politischem Gestaltungsauftrag : Analysen unter besonderer Berücksichtigung Thüringer Gebietsreformen. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - 184 S. ISBN 978-3-86360-105-8
Literaturangaben

Henfling, Bernd; Blindenhöfer, Gerd; Coburger, Reiner; Günther, Karsten; Bergmann, Jean Pierre
AWUSYS : Entwicklung eines hochpräzisen und zeiteffizienten industriellen Auswuchtsystems. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - VIII, 101 S.. - (Fertigungstechnik - aus den Grundlagen für die Anwendung : Schriften aus der Ilmenauer Fertigungstechnik ; 1) ISBN 978-3-86360-106-5
Förderkennzeichen BMBF 02PK2249 - 02PK2252. - Verbund-Nr. 01126885

Im Rahmen des Projektes "Awusys" erfolgte die disziplinübergreifende Entwicklung eines hochpräzisen und zeiteffizienten industriellen Auswuchtsystems, welches neben der Unwuchtbestimmung zeitgleich Unwuchtkorrekturen mit höchster Genauigkeit umsetzen kann. Im Vergleich zu bestehenden Systemen sollte eine Genauigkeit bei der Unwuchtbestimmung von üblicherweise +/- 0,1 g auf +/- 0,01 g umgesetzt werden. Selbiges galt für den notwenigen Masseauf- und Masseabtrag, der mit einer Genauigkeit im 1/100 Bereich realisiert werden sollte. Die Entwicklung eines derartigen Systems wurde durch die Erarbeitung und Entwicklung unterschiedlicher Ansätze aus den Bereichen der Konstruktion, der Softwaretechnik, der Messtechnik, der Handhabetechnik und der Fertigungstechnik erfolgreich umgesetzt und in Form eines rechnergestützten Versuchsstandes zusammengeführt.



Jiménez López, Omar Eduardo;
Development of biomechatronic devices for measurement of wrenches occurring in animal and human prehension. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - 118 S.. - (Berichte aus der Biomechatronik ; 9) : Zugl.: Ilmenau, Techn. Univ., Diss., 2011
ISBN 978-3-86360-102-7
Enth. außerdem: Thesen

Biomechatronik und speziell Biosensoren unterstützen auf der Grundlage biologischer Inspiration das Entstehen neuer Anwendungen in der ganzen Spanne vom Fahrzeugbau bis zur Bio-Robotik. Dabei werden Mechatronik, technologisches Wissen, Bionik und Biologie miteinander kombiniert. "There is a market trend towards the use of intelligent sensors. In the past the main reasons for this have been increased measurement accuracy, programmability, decreased inventory cost from the larger turndown available, and a decreased maintenance cost for self-diagnostics." (Expertise, 1997).



Schäfer, Michael;
Bildungscoaching durch Kompetenzmonitoring und adaptive E-Learning-Unterstützung am Beispiel der Mathematik-Grundqualifikation an Hochschulen. - Ilmenau : Universitätsverlag Ilmenau, 2014. - 333 Seiten. - (Kommunikationswissenschaft interdisziplinär ; 3)
Technische Universität Ilmenau, Dissertation 2014

ISBN 3-86360-104-1

Im Rahmen der vorliegenden Arbeit ist ein Gesamtsystem entwickelt, betrieben und evaluiert worden, mit dem die Mathematik-Eingangsfähigkeiten von Studienanfängerinnen und Studienanfängern vor Beginn der ersten Vorlesungen verbessert und homogenisiert werden sollen. Die globale Zielsetzung der vorliegenden Arbeit war es, ein übertragbares Konzept zu entwickeln und zu verifizieren, das es ermöglicht, Leistungsproblemen vorzubeugen und die Studienabbruchquote zu senken. Im Kern folgt die Gesamtkonzeption dem Ansatz, dass durch eine passgenaue Abstimmung der Unterstützungsmaßnahmen auf die individuellen Mathematikkompetenzen der Studierenden ein hoher Lernerfolg erzielt werden kann. Hierzu wurden die Mathematikkompetenzen der Studierenden in einer Datenbank erfasst, die zur individuellen Adaption der Präsenz- und E-Learning-Kurse genutzt wurde. Zeitlich gliederte sich die Vorgehensweise in die Konzeptions- und Realisierungsphase, die mit der Systementwicklung abgeschlossen wurde, und zwei Praxisphasen mit jeweils anschließender Evaluation. Das System wurde hochschulweit zur Vorqualifizierung aller Studienanfängerinnen und Studienanfänger genutzt. Die formative Evaluation des Systems ergab eine hohe individuelle Passgenauigkeit der Anforderungen in den Vorkursen und eine positive Einschätzung der adaptiven Maßnahmen auf den persönlichen Lernerfolg. Die summative Evaluation ergab einen großen Lernzuwachs der Studierenden durch den Einsatz des Systems. In einem t-Test abhängiger Stichproben wurde ein starker Effekt (d=1,83) nachgewiesen. Die erreichte mittlere Punktzahl im Mathematik-Ausgangstest hat sich im Vergleich zum Mathematik-Eingangstest mehr als verdoppelt (Eingangstest: M=13,70; SD=8,82; n=132, Ausgangstest: M=28,48; SD=7,31; n=132) und die Leistungsunterschiede zwischen den Studierenden haben sich angeglichen. Somit leistet die aktuelle Arbeit einen wertvollen Erkenntnisgewinn für die Forschung, Entwicklung und praktische Umsetzung von Qualifizierungsmaßnahmen in Form von integrierten Blended-Learning-Systemen in der Studieneingangsphase, die vor dem Hintergrund der Inhomogenität der Mathematik-Eingangskompetenzen der Studienanfängerinnen und -anfänger durch eine individuelle Adaption einen hohen Lernerfolg erzielen.



Scharff, Peter; Schneider, Andrea
Shaping the future by engineering : 58th IWK, Ilmenau Scientific Colloquium, Technische Universität Ilmenau, 8 - 12 September 2014 ; programme
Red.-Schluss: 8. August 2014. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - 152 S.Enthält nur Abstracts, keine ausgearb. Vorträge

Abdelrahman, Mohamed;
A contribution to the development of a special-purpose vehicle for handicapped persons : dynamic simulations of mechanical concepts and the biomechanical interaction between wheelchair and user. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - XVII, 225 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2014
ISBN 978-3-86360-103-4
Parallel als Online-Ausg erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=24390

Die Arbeit diskutiert die mathematische Modellbildung von ausgewählten Fortbewegungssystemen mit Rädern. Die Kinematik und Dynamik eines radgetriebenen Fahrzeuges mit Mecanum-Rädern wird beschrieben. Die dynamischen und kinematischen Modelle sind die Voraussetzung für Simulationsrechnungen und gleichzeitig für die praktische Anwendung beim Betrieb der Systeme. Außerdem wird das Bewegungsverhalten von Behinderten während der Fahrt im Rollstuhl für verschiedene Umgebungsbedingungen analysiert. Nach der Darlegung der Motivation der Arbeit wird eine Analyse des Standes der Technik auf dem Gebiet der Fahrzeuge mit Mecanum-Rädern vorgestellt. Eine Übersicht über aktuelle Aspekte der Fortbewegungssysteme für Behinderte und ihre Vor- und Nachteile ist ein weiterer Gegenstand der Arbeit. Im Kapitel 2 sind die mathematischen Grundlagen, die in dieser Arbeit verwendet werden, zusammengefasst. Es handelt sich um die Kinematik der starren Körper und ausgewählte Prinzipien und Gleichungen der analytischen Mechanik. Die Transformationsmatrizen für ebene Drehungen, die Arten der kinematischen Zwangsbedingungen, die Dynamik der starren Körper mit einem speziellen Fokus auf die LAGRANGE Gleichung 2. Art mit Multiplikatoren werden vorgestellt. Die Fortbewegungssysteme sind vor allem mit analytischen Methoden in der Kinematik und Dynamik beschrieben worden. Der Fokus liegt auf 2 Grundmodellen, die auch aktuell technisch genutzt werden. Das erste Modell gilt für zweirädrige Bewegungssysteme, wie zum Beispiel für einen Rollstuhl. Das zweite Modell wurde für ein vierrädriges Fahrzeug mit Mecanum-Rädern entwickelt. Detaillierte Herleitungen für die kinematischen und dynamischen Modelle sind für beide Fortbewegungssysteme dargestellt. Für die Dynamik des Fahrzeuges mit Mecanum-Rädern wird eine exakte Methode, basierend auf den Grundlagen der nichtholonomen Mechanik mit einer zweiten, häufig in der Literatur angeführten, Näherungsmethode verglichen. Aus der nichtholonomen Mechanik werden die LAGRANGE Gleichungen mit Multiplikatoren als effizientes Verfahren eingesetzt, um ein exaktes Modell zu generieren. Diese Modellgleichungen können alle möglichen Bewegungsbahnen des Fahrzeuges mit vier Mecanum-Rädern erfassen. Das Approximationsverfahren aus der Literatur nutzt eine Pseudoinverse Matrix und kann nur ausgewählte Standardtrajektorien abbilden. Simulationsergebnisse, basierend auf der numerischen Integration der Dynamikgleichungen aus beiden Verfahren werden in Kapitel 4 vorgestellt. Die resultierenden Bewegungsbahnen sind für vorgegebene Antriebsmomente dargestellt. Ein virtuelles 3D-Modell des vierrädriges Mecanum-Fahrzeuges ist mit Hilfe von MATLAB®, SIMULINK® und VIRTUAL REALITY TOOLBOX® erstellt worden. Ein Vorteil der 3D-Umgebung ist die anschauliche Darstellung komplexer Bewegungsbahnen bei kombinierten Translations- und Rotationsbewegungen des Systems. Zwei Experimentalfahrzeuge, eines mit klassischer Vierradstruktur inklusive Vorderachslenkung und ein weiteres mit vier omnidirektionalen Rädern vom Typ Mecanum, wurden aufgebaut. Sie dienen als Demonstratoren eines möglichen Plattformkonzeptes für Behindertenfahrzeuge. In der Arbeit werden die aus Simulationsrechnungen gewonnenen Trajektorien mit den tatsächlichen Bahnen des Prototyps verglichen. In einem abschließenden Kapitel wird für ausgewählte Szenarien mittels Motion Capturing Verfahren die Mensch-Maschine-Interaktion am Beispiel von Rollstuhlfahrern untersucht. Die Bewegung des menschlichen Körpers und des Rollstuhls wurde in ihren kinematischen Daten erfasst und mit den Werkzeugen ALASKA-DYNAMICUS® und ERGO TOOL® analysiert.



Al Khateeb, Ayman;
Planung und Optimierung von Fließmontagesystemen : ein Beitrag unter Berücksichtigung sich ändernder Anforderungen an Prozesszuverlässigkeit, Produktqualität und Flexibilität. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - XXII, 187 S. Teilw. zugl.: Ilmenau : Techn. Univ., Diss., 2014 u.d.T.: Al Khateeb, Ayman: Beitrag zur Planung und Optimierung von Fließmontagesystemen unter Berücksichtigung sich ändernder Anforderungen, insbesondere an Prozesszuverlässigkeit, Produktqualität und Flexibilität

Ursprünglich zielte die Gestaltung von Montagesystemen in Form von Fließsystemen auf eine gleichmäßig hohe Stückzahl eines einzelnen Produkts bei hohem Automatisierungsgrad ab. Aus Gründen wie z.B. ständig zunehmende Anforderungen durch Kundenwünsche oder Absatzveränderungen sind Montageprozesse fortwährend an die veränderten Rahmenbedingungen anzupassen. Derartige Anforderungen haben Auswirkungen auf Struktur und Gestaltung von Fließmontagesystemen. So gewinnen bei der Planung solcher Systeme Gesichtspunkte wie z.B. Redundanz, Pufferung und die Integration von Qualitätsstationen an Bedeutung. Entwickelt werden daher neue Methoden zur Verbesserung der Konfiguration bzw. des Betriebs von Nachbearbeitungsschleifen, der konvergierenden bzw. divergierenden und parallelen Strukturen. Die entwickelten Strukturen weisen mehr Vorteile bezüglich Flexibilität, Redundanz, Verfügbarkeit, Nutzungsgrad und Pufferkapazitäten im Vergleich zu konventionellen Strukturen auf.



Gerth, Julia;
Produktionswirtschaftliche Beschreibungs- und Optimierungsmodelle für die Wertstoffsortierung. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - XVII, 273 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2013

In den letzten dreißig Jahren hat sich die Entsorgungswirtschaft in Deutschland grundlegend gewandelt. Insbesondere mit der Einführung des Dualen Systems wurden Sortierprozesse immer wichtiger. Ziel war es von nun an, die Verpackungsabfälle in möglichst sortenreine Wertstofffraktionen zu trennen, die als Sekundärrohstoffe weiter vermarktet werden sollen. Während dazu auf verfahrenstechnischer Seite eine Vielzahl technischer Anlagen, mit denen eine nahezu sortenreine Abtrennung möglich ist, entwickelt worden sind, existierten in der Betriebswirtschaftslehre bislang nur wenige lückenhafte Ansätze, die sich mit Abfallsortierprozessen auseinandersetzen, sie beschreiben oder ökonomisch optimieren. Die vorliegende Arbeit leistet einen Beitrag, diese Forschungslücke ein Stück weit zu schließen und liefert ein betriebswirtschaftliches Entscheidungsmodell für Sortierprozesse. In Teil I werden konzeptionelle Grundlagen erarbeitet, die u. a. eine betriebswirtschaftliche Definition und die Einordnung der Wertstoffsortierung in das allgemeine Kreislaufmodell enthalten. Sie umfassen zudem auch eine umfassende Auseinandersetzung mit dem Verpackungsabfallgemisch als wichtigstem Faktor des Prozesses. Es wird ein innovativer Ansatz zur Messung von Vermischung vorgestellt. Eine aktivitätsanalytische Untersuchung der Prozessstrukturen erfolgt in Teil II. Hier wird anschließend die Strukturanalogie von Sortier- und Transportprozessen genutzt und darauf aufbauend ein deterministisches Grundmodell für Sortierprozesse entwickelt. Dieses Modell wird in Teil III evaluiert und um stochastische Aspekte erweitert. Mit diesem Modell wurde eine betriebswirtschaftliche Basis zur Beschreibung und Optimierung von Sortierprozessen geschaffen, die zur Simulation, Planung und Steuerung der Prozesse eingesetzt werden kann.



Adler, Bernhard; Müller, Ralf
Seltene Erdmetalle : Gewinnung, Verwendung und Recycling. - Ilmenau : Univ.-Verl. Ilmenau. - 247 S.. - (Berichte aus der Biomechatronik ; 10) ISBN 978-3-86360-093-8
Literaturverz. S. 197 - 205

Das vorliegende Buch gibt ausgehend von der Struktur, den physikalischen und chemischen Eigenschaften der Seltenen Erdmetalle eine umfassende Übersicht der ständig an Bedeutung wachsenden Anwendungs- und Einsatzmöglichkeiten, dem Vorkommen und der außerordentlich bedeutsamen Recyclingmaßnahmen der Elemente. Eine Vielfalt von Anwendungsfeldern der Seltenen Erden für die Volkswirtschaften wie der Einsatz als Legierungsmetalle zur Fertigung von Permanentmagneten für Windkraftanlagen, Hybridmotoren, Elektroantrieben, zur Herstellung von Leuchtstoffen, Brennstoffzellen, Batterien, Energiesparlampen, als Bestandteile für Farb- und UV-Filter, Stabilisatoren von Keramiken und ihre Anwendung in der Medizin (Pharmazeutika, Diagnosemittel u. a.) werden diskutiert. Ausführlich wird auf die Fragen der Erzgewinnung, -aufarbeitung wie Aufschlussverfahren, Trennung der Seltenen Erden sowie ihre Gewinnung als Metalle eingegangen. Neben analytischen Fragestellungen zur Identifizierung werden gleichermaßen ökologische und toxikologische Probleme abgehandelt. Das Buch soll vor allem Ingenieur-, Wirtschafts- und Politikwissenschaftler sowie Wirtschaftsunternehmen für die außerordentliche strategische Bedeutung der Seltenen Erden mobilisieren.



Ifland, Mike;
Lastmanagement privater Letztverbraucher zwischen Energiemarkt und Smart Grid. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - XII, 140 S.. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA) ; 11) : Zugl.: Ilmenau, Techn. Univ., Diss., 2013
ISBN 978-3-86360-095-2
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=23674

Der Systemwechsel von konventioneller, nachfrageorientierter Erzeugung hin zu angebotsabhängigem Verbrauch wirft die Frage nach einer Beteiligung privater Verbraucher auf, die in 2011 mit einem Gesamtanteil von 26% des Bedarfs an elektrischer Energie in Deutschland eine entscheidende Rolle spielten. Die vorliegende Arbeit untersucht die Flexibilisierung der Last "privater Letztverbraucher" mittels variabler Tarifierung und deren Anwendung als Methode im System Smart Grid. Mit Blick auf den Stand der Forschung bezüglich technischer und ökonomischer Hintergründe wird die Frage nach der Integration privater Letztverbraucher in die Netzbetriebsführung beantwortet. Dazu werden sowohl flexible Tarifierungen als auch Smart Metering als Voraussetzungen erläutert, sowie die Netzentwicklungskennzahl (GDI) als Klassifizierung der Entwicklungsstufe eines Smart Grids eingeführt. In einem Feldversuch werden die theoretischen Erkenntnisse auf ein Verteilernetz einer suburbanen Kleinstadt in Deutschland angewendet. Anhand der vorliegenden, realen Messdaten wird anschließend geprüft, ob Demand Side Management, welches sich auf variable Tarife stützt, die Anforderungen an ein Smart Grid in suburbanen und ländlichen Gebieten erfüllt.



Schorcht, Hagen;
Ein Beitrag der Informationstechnik zur strategischen Wissensplanung : Konzeption einer IT-Architektur und deren prototypische Realisierung. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - XX, 379 S.. - (Ilmenauer Schriften zu Wirtschaftsinformatik ; Band 1) : Zugl.: Ilmenau, Techn. Univ., Diss., 2013
ISBN 978-3-86360-099-0
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=24088

Materielle und finanzielle Ressourcen bilden die grundlegenden Faktoren für den Geschäftserfolg einer Organisation. Seit einigen Jahren hat sich das Wissen eines Unternehmens als zusätzlicher, werttreibender Faktor herauskristallisiert. Das sich hieraus ergebende Forschungsfeld der strategischen Wissensplanung legt den Fokus auf den zielgerichteten Umgang von Wissen in einer Organisation. Dabei werden wettbewerbsrelevante Wissensgebiete und deren strategische Ausrichtung identifiziert, um übergeordnete Unternehmensziele zu erreichen.Es zeigt sich, dass die strategische Wissensplanung und dementsprechend der strategische Umgang mit Wissen in der Praxis ein wichtiges Thema darstellen, eine intensive Beschäftigung aber nur bedingt erfolgt. Ein möglicher Hinderungsgrund ist die unzureichende Unterstützung durch IT-Lösungen, die den Planungsprozess aus der Wissensperspektive betrachten.In der Arbeit wird dieser Aspekt aufgegriffen und eine IT-Architektur entwickelt, die den Wissensplanungsprozess umfassend unterstützt. Es erfolgen zunächst ein Vergleich bestehender Konzepte und die Ableitung von Anforderungen an IT-basierte Systeme zur Unterstützung der strategischen Wissensplanung. Darauf aufbauend wird eine IT-Architektur mit ihren Komponenten und Schnittstellen entworfen. Die Realisierbarkeit der IT-Architektur wird durch die Entwicklung eines Prototyps und einer praxisorientierten Fallstudie dargestellt.



Busch, Christian;
Ein Beitrag zum modellbasierten Regelungsentwurf elektropneumatischer Applikationen. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - XVI, 228 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2014

Diese Arbeit stellt einen Überblick über die Funktionalität und Funktionsweise industrieller Regelungstechnik im Anwendungsfeld elektropneumatischer Applikationen dar. Das Ergebnis der physikalischen Modellierung beinhaltet Analogiebetrachtungen zu passiven Bauelementen der Elektrotechnik auf der Grundlage verallgemeinerter Zustandsgrößen. Dies führt zu einem leicht erweiterbaren, parameterlinearen aber dennoch nichtlinearen Zustandsraummodell. Am Beispiel eines experimentell bestimmten Datensatzes wurden verschiedene Methoden zur Schätzung bzw. Rekonstruktion der für die Regelung notwendigen Zustandsgrößen vorgestellt, geprüft und bewertet. Der Fokus der ausgewählten Methoden liegt vor allem darauf, brauchbare und insbesondere präzise (bzw. erwartungstreue) Schätzergebnisse auch unter vorhandenen Modellfehlern zu liefern. Der implementierte Zustandsschätzalgorithmus ist als fester Bestandteil der Reglerstruktur im Gesamtkonzept anzusehen. Durch die Verwendung einer Zustandstransformation und der sich daraus ergebenden E/A-Darstellung, konnte dem System eine integrale Streckencharakteristik aufgeprägt werden. In den üblichen Anwendungsfällen lässt sich so die Forderung nach stationärer Genauigkeit auch mit groben Modellierungsfehlern und ohne die Verwendung eines integralen Reglers oder gar einer Vorfilteradaption erreichen. Abschließend wurde gezeigt, dass auch der Vorgang eines Stofftransports in Form einer sich ergebenden Totzeit mit in das verallgemeinerte Streckenmodell integriert werden kann. Die Anwendbarkeit einiger in der Literatur existierender Methoden zur Modellierung einer Totzeit im Zeitbereich wurde entsprechend geprüft und beurteilt. Weil das entwickelte Regelungskonzept strukturell gleich für räumlich konzentrierte, wie auch für räumlich ausgedehnte Industrieanlagen aufgebaut sein soll, ist es wiederum wichtig eine dieser Totzeitapproximationsmethoden mit in den entworfenen Algorithmus aufzunehmen. Für den Gesamtregelkreis bedeutet das somit eine Erweiterung des Zustandsschätzsystems.



Friedrich, Christoph;
Konfiguration des hochschulseitigen Wissens- und Technologietransfers in Deutschland : eine situative Analyse. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - XXVI, 420 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2013

Forschung gilt als treibende Kraft nachhaltigen Wirtschaftswachstums in heutigen Wissensgesellschaften. Damit nehmen auch die Interaktionen zwischen Hochschulen und Industrie eine wesentliche Rolle zur Gewährleistung der Innovationskraft moderner Volkswirtschaften ein. Ein erfolgreicher Wissen- und Technologietransfer (WTT) erfordert neben geeigneten Forschungsergebnissen eine Reihe administrativer Aufgaben. Debackere/Veugelers (2005) nennen (1) den Aufgabenbereich "Vertragsbasierte Zusammenarbeit", der die Unterstützung der Wissenschaftler in rechtlichen, finanziellen und personalen Fragen der Vertragsgestaltung und -verhandlungen umfasst. (2) Im Bereich "Management geistigen Eigentums" sind Fragen des Patentrechts, der Marktpotenziale und konkreter Verwertungsalternativen zu klären. (3) Die Realisierung von "Hochschul-Spin-offs" beinhaltet sachlich-personelle Aspekte, wie z.B. die Entwicklung von Business Plänen mit potenziellen Gründern. Die Frage der organisatorischen Gestaltung dieser drei Supportprozesse wurde bisher nur in wenigen Einzelfallstudien aufgegriffen. Organisation ist jedoch ein zentraler Erfolgsfaktor der Unternehmensführung bzw. Hochschulleitung zur Realisierung von Effizienz-/Effektivitätsgewinnen. Durch spezialisierte Aufgabenträger im WTT-Support sind so etwa Skaleneffekte möglich, während sich die Wissenschaftler auf Forschung und Netzwerkbildung fokussieren (Bercovitz et al. (2001), Debackere/Veugelers (2005)). In dieser Arbeit werden zunächst analytisch mögliche Formen bzw. Konfigurationsmuster der Arbeitsteilung und Spezialisierung der Supportprozesse des WTT entwickelt. Dem situativen Ansatz der Organisationstheorie folgend wird anschließend das Konfigurationsmodell durch relevante Kontextfaktoren der organisatorischen Gestaltung ergänzt und im Rahmen einer explorativen Fallanalyse an deutschen Hochschulen auf Plausibilität geprüft. Zielsetzung ist eine Analyse der Wirkungszusammenhänge zwischen Kontextfaktoren und alternativen Konfigurationsmustern. Dazu werden aus Sekundärdaten zu deutschen Hochschulen typische Konstellationen von (Hochschul-)Kontext und Konfiguration identifiziert und diskutiert. Im Ergebnis zeigen sich als dominierende Einflussfaktoren bei der Wahl einer Organisationslösung zum einen das zu bewältigende Transfervolumen, zum anderen die räumliche Nähe der die Supportprozesse nutzenden Hochschulen.



Kornhaas, Alexander;
Experimentelle Untersuchungen zur Druckentwicklung in einem SF 6 -Selbstblasschalter beim Schalten großer Ströme. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - X, 133 S.. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (BEGA) ; 10) : Zugl.: Ilmenau, Techn. Univ., Diss., 2013
ISBN 978-3-86360-092-1
Parallel als Online-Ausg erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=23722

In der vorliegenden Arbeit werden die Ergebnisse der experimentellen Untersuchungen an einem originalen 145 kV Selbstblasschalter vorgestellt und analysiert. Es wird ein Messsystem entwickelt, mit dem die parallele Messung von prägnanten physikalischen Größen möglich ist. Die umfassende Analyse der physikalischen Effekte mit Hilfe des komplexen Messsystems beinhaltet die Untersuchung der Vorgänge während des Ausschaltvorgangs innerhalb der Antriebseinheit, der Unterbrechereinheit und der auftretenden Wechselwirkungen zwischen beiden Schalterkomponenten. Bei den Messungen werden die Parameter Ausschaltstrom, Lichtbogenzeit, Düsenmaterial und Düsenaufbau gezielt variiert. Besonderes Augenmerk bei den Untersuchungen liegt auf der Analyse des Druckaufbaus zum Löschen des Lichtbogens. Damit verbunden ist die Untersuchung des für den Selbstblasschalter charakteristischen Abbrandeffektes. Unter anderem wird mit dem Einsatz von segmentierte PTFE-Düsen bei Lastschaltungen, eine ortsaufgelösten Abbrandrate ermittelt. Durch die gezielte Variation der Ausschaltparameter werden zudem wichtige Validierungsdaten zur Überprüfung neu entwickelter Simulationsmodelle, vor allem im Bereich des Grenzausschaltstromes, geschaffen.



Liers, Florian;
Forwarding on gates : a flexible and scalable inter-network layer supporting in-network functions. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - XII, 258 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2013

Flexibilität und Skalierbarkeit sind mit heutigen Architekturen für Computernetzwerke schwierig zu erzielen. Das Internet wurde zum Beispiel als einfaches Transportnetzwerk für Pakete mit einer kleinen und eingeschränkten Menge von Funktionen entworfen. Erweiterungen für Mobilität oder Dienstgüte erzeugen einen hohen Verwaltungsaufwand und skalieren nicht. Insbesondere letzteres ist das schwerstwiegende Problem für flexible Netzwerke. Deshalb beschreibt diese Dissertation eine neue Architektur mit dem Namen "Forwarding on Gates" (FoG), welche beliebige Funktionen für große Netzwerke auf flexible und skalierende Weise bereitstellt. FoG nutzt die Vorteile eines rekursiven Referenzmodells und folgt nicht dem traditionellen OSI Referenzmodell. Es ist allgemeiner anwendbar als andere Architekturen und bietet beispielweise mehr Funktionsmerkmale als eine aus dem Internet und MPLS kombinierte Architektur. FoG stellt durch die dynamische Mischung von verbindungsorientierten und verbindungslosen Aspekten einen optimalen Dienst bereit. FoG basiert auf einem neuen Kommunikationsmodell, welches ausschließlich mit Funktionsblöcken operiert. Durch die Verkettung dieser Blöcke ist es FoG möglich, Anforderungen von Anwendungen auf dynamische und flexible Weise zu erfüllen. Im Gegensatz zu anderen Ansätzen ist die Verkettung nicht nur in den Stacks von Endsystemen sondern auch in Weiterleitungssystemen im Netzwerk möglich. Diese flexible Platzierung von Funktionen eröffnet einen Markt für Funktionen. Kunden können dabei flexibel die zu ihren Anforderungen passenden Funktionen auswählen. Anbieter können diese Auswahl durch Richtlinien beeinflussen, welche sie autonom festlegen können. FoG ermöglicht das skalierende Anbieten von Funktionen durch eine flexible Verteilung von Zuständen zwischen Funktionsanbietern und -nutzern. Im Gegensatz zu Lösungen, die auf IP basieren, erreicht FoG eine signifikante Reduzierung der maximalen Anzahl von Zuständen, die ein Knoten handhaben können muss und eine wesentlich homogenere Verteilung der Zustände im Allgemeinen. Darüber hinaus kann sich das Routing von FoG an eine optimale Kombination von Routenanfragen und Informationsmengen anpassen. In Abhängigkeit von der Kombination kann es mit weniger Informationen auszukommen, als für IP-Netzwerke benötigt würden.



Bauer, Gerd;
EasyKit : eine Entwicklungsmethodik für das Rapid Engineering miniaturisierter mechatronischer Systeme. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - 178 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2013
ISBN 978-3-86360-091-4
Parallel als Online-Ausg erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=23594

Die heutige Entwicklung mechatronischer Systeme ist meist durch einen sequentiellen Entwurfsprozess von Elektronik, Software und Mechanik gekennzeichnet. Gleichzeitig erfordert der domänenspezifische Entwurf häufig Entwicklungswerkzeuge in den einzelnen Fachgebieten, die einen hohen Grad an Expertenwissen erfordern und nur bedingt zueinander kompatibel sind. Die Entwicklungsmethodik EasyKit hat das Ziel, durch eine Modularisierung auf Hard- und Softwareebene diesen Entwicklungsprozess zu vereinfachen. Dem Anwender werden hierfür Werkzeuge zur Verfügung gestellt, in die bereits umfangreiches Expertenwissen eingeflossen ist, so dass er mit einfachen Mitteln und Grundkenntnissen selbstständig die Hard- und Software für mechatronische Systeme entwickeln und aufbauen kann. Die vorliegende Arbeit beschreibt diese Werkzeuge und die damit verbundenen Technologien. Vorgestellt werden verschiedene Möglichkeiten für eine lösbare Verbindung elektronischer Bausteine. Daneben wird ein Schnittstellenkonzept in Form eines außen liegenden Busses aufgezeigt, mit dem elektronische Funktionsträger einfach übereinander gestapelt werden können. Vorhandene Vorlagen für das Leiterplattenlayout und Testadapter unterstützen dieses Vorgehen. Ein weiteres wesentliches Ziel dieser Arbeit ist es, den Entwicklungsprozess zu beschleunigen und wirtschaftlicher zu gestalten. Hierzu wurde ein Drei-Stufen-Modell entwickelt, das einen einfachen Übergang vom Funktionsmuster (Stufe 1) über die Kleinserie (Stufe 2) bis hin zum Serienprodukt (Stufe 3) ermöglicht. Vorliegende Funktionsblöcke in Hard- und Software führen zu einem schnellen Aufbau erster Funktionsmuster. Durch eine Wiederverwendung dieser Funktionsblöcke in allen drei Stufen kann die Überführung vom Funktionsmuster zum Serienprodukt stark beschleunigt werden. Dieses Konzept wurde ebenso auf die Software übertragen. Durch eine grafische Programmieroberfläche und verfügbare Funktionsbibliotheken sind Programme und lauffähige Codes deutlich leichter zu erzeugen. An zwei praktischen Beispielen, einem Temperaturmesssystem und einem geregelten Pneumatikzylinder wird der komplette Entwurfsprozess dargestellt und Vorteile und Nachteile werden aufgezeigt. Ein Kostenvergleich zum konventionellen Vorgehen hebt die wirtschaftlichen Vorteile der Entwicklungsmethodik hervor.



Uhlig, Robert Peter;
An experimental validation of Lorentz force eddy current testing. - Ilmenau : Univ.-Verl. Ilmenau. - XV, 167 S. Teilw. zugl.: Ilmenau : Techn. Univ., Diss., 2013 u.d.T.: Uhlig, Robert Peter: Identification of material defects in metallic materials using Lorentz force eddy current testing

The adoption of metallic materials in industry and building construction is of enormous importance. To make sure, that a component is without defects and will withstand the applied loads, usually a 100% check-up is performed. Therefore, several nondestructive material testing techniques are available. Their applicability is often limited. The novel nondestructive material testing technique named "Lorentz force eddy current testing" is a contactless electromagnetic testing technique. It is capable of detecting deeply hidden defects in electrically conducting materials at high testing speeds due to the use of a direct magnetic field. Using a conceptually simple prototype model some limits of the measurement technique are presented and the basic physical principle is explained. In order to prove the functionality of the testing technique experimental data for specimens with artificial defects are presented. The measurement signal is analyzed and conclusions are used for improvement.



Fischer, Martin S.; Gorb, Stanislav N.; Karguth, Andreas; Mämpel, Jörg; Witte, Hartmut
InspiRat : biologisch inspirierter Kletterroboter für die externe Inspektion linearer Strukturen. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - 165 S.. - (Berichte aus der Biomechatronik ; Bd. 8) ISBN 978-3-86360-052-5
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=23583

TETRA GmbH Ilmenau und drei universitäre Lehrstühle zeigen im Projekt InspiRat, dass bei wissenschaftlicher Unterstützung auch die deutsche Industrie in der Lage ist, in der Robotik internationale Standards zu setzen. InspiRat und RatNics als Akronyme sollen Assoziationen wecken: Analyse des Kletterns insbesondere von Ratten trieb den Bau einer neuen Klasse von Robotern. Waren zu Beginn des Projektes integrierte Kletterroboter mit Massen > 35 kg verfügbar, so gibt es nun Maschinen mit 1 kg bis 2 kg Masse, experimentell modulare Systeme mit 250 g Masse. Nebenergebnis ist die weltweite Definition des Standes der Technik der Röntgenvideographie zusammen mit der Siemens® AG: biplanar 2.000 Röntgenbilder/Sekunde in HD. Ergebnisse universitärer Studien werden in Journalen publiziert, doch belegt die Nachfrage nach dem Abschlussbericht des Projektes für das BMBF das Interesse an einer übergreifenden, transdisziplinären Darstellung des bionischen Entwicklungsprozesses. Wir publizieren deswegen diesen Abschlussbericht nur geringfügig redaktionell überarbeitet. Er beschreibt somit den wissenschaftlichen Stand 2011 in einer auf den Fördermittelgeber zugeschnittenen Darstellungsweise. Die Wissenschaft ist nicht stehen geblieben, wir erleichtern die Nachverfolgung durch Angabe einiger Publikationen aus der Zeit nach Projektende. Doch ist unser Anspruch nicht prospektiv wie bei Zeitschriftenartikeln, wir wollen retrospektiv die Analyse eines erfolgreich abgeschlossenen Prozesses ermöglichen.



Troitzsch, Constanze;
Netzfehler in vermaschten HGÜ-Netzen : ein Verfahren zur Berechnung, Detektion, Fehlerklärung. - Ilmenau : Univ.-Verl. Ilmenau. - IX, 121 S.. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik ; 9) : Teilw. zugl.: Ilmenau, Techn. Univ., Masterarbeit, 2013
ISBN 978-3-86360-076-1

Weltweit wird der Aufbau von Energieübertragungsnetzen basierend auf Hochspannungsgleichstromübertragung (HGÜ) diskutiert. Eine mögliche Anwendung ist der Transport verbraucherfern regenerativ erzeugter Energie in die Lastzentren, wodurch bestehende Drehstromübertragungssysteme entlastet werden. In diesem Zusammenhang sind die Verfügbarkeit von HGÜ-Netzen und damit der Umgang mit DC-Fehlern von enormer Bedeutung. Durch die fehlenden natürlichen Nulldurchgänge und großen Anstiege der Fehlerströme ist eine Anwendung bestehender AC-Schutztechniken nicht möglich. Dies erfordert den Entwurf neuartiger HGÜ-Netzschutzkonzepte, die die in Drehstromsystemen etablierten Anforderungen hinsichtlich Schnelligkeit, Zuverlässigkeit, Empfindlichkeit, Selektivität und Wirtschaftlichkeit erfüllen. Damit Fehlerklärungsprozesse diesen Anforderungen gerecht werden, ist die Implementierung eines zuverlässigen Fehlerdetektionskonzepts essentiell, das die Charakteristik und Größenordnung auftretender Fehlerströme zu Grunde legt. Der Gegenstand dieser Arbeit ist die Ermittlung von Netzfehlercharakteristiken in ausgedehnten vermaschten HGÜ-Netzen und daraus abgeleitet die Konzeption und Analyse von Fehlerdetektions- und Fehlerklärungsverfahren. Dabei wird der Fokus in dieser Arbeit auf DC-Leitungsfehler gelegt. Unter anderem wird gezeigt, dass die Fehlerströme in HGÜ-Netzen eine Wanderwellencharakteristik besitzen. Daran anknüpfend wird ein telekommunikationsloses Fehlerdetektionskonzept vorgestellt, das sich vor allem durch seine Schnelligkeit und hohe Selektivität auszeichnet. Dessen Funktionalität wird in verschiedenen numerischen Fallstudien nachgewiesen. Abschließend werden ansatzweise die Auswirkungen der DC-Fehlerklärung auf ein unterlagertes AC-Netz untersucht.



Pölck, Anja;
Small TCBs of policy-controlled operating systems. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - XIII, 249 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2013

IT Systeme mit qualitativ hohen Sicherheitsanforderungen verwenden zur Beschreibung, Analyse und Implementierung ihrer Sicherheitseigenschaften zunehmend problemspezifische Sicherheitspolitiken, welche ein wesentlicher Bestandteil der Trusted Computing Base (TCB) eines IT Systems sind. Aus diesem Grund sind die Korrektheit und Unumgehbarkeit der Implementierung einer TCB entscheidend, um die geforderten Sicherheitseigenschaften eines Systems herzustellen, zu wahren und zu garantieren. Viele der heutigen Betriebssysteme zeigen, welche Herausforderung die Realisierung von Sicherheitspolitiken darstellt; seit mehr als 40 Jahren unterstützen sie wahlfreie identitätsbasierte Zugriffssteuerungspolitiken nur rudimentär. Dies führt dazu, dass große Teile der Sicherheitspolitiken von Anwendersoftware durch die Anwendungen selbst implementiert werden. Infolge dessen sind die TCBs heutiger Betriebssysteme groß, heterogen und verteilt, so dass die exakte Bestimmung ihres Funktionsumfangs sehr aufwendig ist. Im Ergebnis sind die wesentlichen Eigenschaften von TCBs - Korrektheit, Robustheit und Unumgehbarkeit - nur schwer erreichbar. Dies hat zur Entwicklung von Politik gesteuerten Betriebssystemen geführt, die alle Sicherheitspolitiken eines Betriebssystems und seiner Anwendungen zentral zusammenfassen, indem sie Kernabstraktionen für Sicherheitspolitiken und Politiklaufzeitumgebungen anbieten. Aktuelle Politik gesteuerte Betriebssysteme basieren auf monolithischen Architekturen, was dazu führt, dass ihre Komponenten zur Durchsetzung ihrer Politiken im Betriebssystemkern verteilt sind. Weiterhin verfolgen sie das Ziel, ein möglichst breites Spektrum an Sicherheitspolitiken zu unterstützen. Dies hat zur Folge, dass ihre Laufzeitkomponenten für Politikentscheidung und -durchsetzung universal sind. Im Ergebnis sind ihre TCB-Implementierungen groß und komplex, so dass der TCB- Funktionsumfang nur schwer identifiziert werden kann und wesentliche Eigenschaften von TCBs nur mit erhöhtem Aufwand erreichbar sind. Diese Dissertation verfolgt einen Ansatz, der die TCBs Politik gesteuerter Betriebssysteme systematisch entwickelt. Die Idee ist, das Laufzeitsystem für Sicherheitspolitiken so maßzuschneidern, dass nur die Politiken unterstützt werden, die tatsächlich in einer TCB vorhanden sind. Dabei wird der Funktionsumfang einer TCB durch kausale Abhängigkeiten zwischen Sicherheitspolitiken und TCB-Funktionen bestimmt. Das Ergebnis sind kausale TCBs, die nur diejenigen Funktionen enthalten, die zum Durchsetzen und zum Schutz der vorhandenen Sicherheitspolitiken notwendig sind. Die präzise Identifikation von TCB-Funktionen erlaubt, die Implementierung der TCB-Funktionen von nicht-vertrauenswürdigen Systemkomponenten zu isolieren. Dadurch legen kausale TCBs die Grundlage für TCB-Implementierungen, deren Größe und Komplexität eine Analyse und Verifikation bezüglich ihrer Korrektheit und Unumgehbarkeit ermöglichen. Kausale TCBs haben ein breites Anwendungsspektrum - von eingebetteten Systemen über Politik gesteuerte Betriebssysteme bis hin zu Datenbankmanagementsystemen in großen Informationssystemen.



Karl, Andreas;
Laserauftragschweißen hochlegierter Duplexstähle. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - 230 S.. - (Werkstofftechnik aktuell ; 10) : Zugl.: Ilmenau, Techn. Univ., Diss., 2013
ISBN 978-3-86360-089-1
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=23455

In der vorliegenden Arbeit ist die Entwicklung korrosionsbeständiger Beschichtungen auf dem niedrig legierten Druckbehälterstahl P265GH beschrieben. Die Funktionsschichten aus Duplexstahl werden über den Prozess des Laserauftragschweißens aufmischungsarm erzeugt. Abhängig von den Prozessparametern entstehen 1 bis 2 mm dicke, nahezu defektfreie, Schichten mit einer Porosität von unter 1 %. Über eine hohe Energiedichte und dem daraus resultierenden lokal eng begrenzten Schmelzbad auf der Substratoberfläche ist es möglich, einen Aufschmelzgrad von unter 3 % ohne Anbindungsfehler zu erzielen. Die Parameter des laserbasierten Beschichtungsprozesses wurden aus numerischen Berechnungen abgeschätzt und auf die vorhandene Anlage übertragen. Haupteinflüsse sind neben der Laserleistung und dem Vorschub der zugeführte Pulvermassenstrom. Für den Spur- bzw. Schichtaufbau besitzt außerdem die geometrische Ausrichtung der Komponenten zueinander einen großen Einfluss. Für den Schweißprozess kommen pulvermetallurgisch erzeugte Eisen-Basiswerkstoffe mit einem Cr/Ni-Äquivalent zwischen 1,5 und 3,4 zum Einsatz. Daraus resultieren im rasch erstarrten Gefüge Austenitanteile zwischen 100 und 20 %. Hierbei ist zu beachten dass das Gefüge in mehrere Zonen unterteilt ist, welche abhängig von der jeweiligen lokalen Wärmezufuhr innerhalb der aufgebrachten Schicht unterschiedliche Phasenverhältnisse und Morphologien aufweisen. Speziell Stickstoff besitzt dabei einen wichtigen Einfluss auf die Phasenbildung der Duplexstähle. Eine ortsaufgelöste Analyse der Stickstoffverteilung im Schweißgefüge zeigt, dass sich Stickstoff im Gegensatz zu den substituierenden Legierungselementen Chrom, Nickel und Molybdän trotz der raschen Abkühlung fast vollständig im Austenit anreichert. Jedoch bilden sich innerhalb großer Ferritkörner bei Abkühlung aus der Schmelze Chromnitride. Gründe hierfür sind eine geringe Löslichkeit von Stickstoff im kubisch raumzentrierten Gitter sowie kurze Diffusionslängen. Abschließend wird mit der Entwicklung eines cannerbasierten Schweißprozesses aufgezeigt, wie die Auftragsrate deutlich gesteigert werden kann. Hieraus ergeben sich Potentiale eines laserbasierten Beschichtungsprozesses im Hinblick auf Kostenersparnis und Ressourcenschonung.



Exner, Nadine;
Entwicklung und Überprüfung eines Modells zur langfristigen Nutzung von Smart Metern : eine Panelstudie mit drei Wellen. - Ilmenau : Universitätsverlag Ilmenau, 2014. - 262 Seiten. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik ; 8)
Technische Universität Ilmenau, Dissertation 2013

ISBN 978-3-86360-088-4

Das Ziel dieser Dissertation ist die Erforschung von Determinanten der kurzfristigen und langfristigen Nutzung von Smart Metern und damit im Zusammenhang stehenden Produkten. Dabei wird auf das Rubikon-Modell, wie auch Ergebnisse aus der Technikakzeptanzforschung und der umweltpsychologischen Forschung zur Energienutzung und Lebensstilen zurückgegriffen. Auf dieser Grundlage wird das eigene Forschungsmodell LIMA (Longterm Intelligent Metering Adoption) entwickelt. Im Rahmen des RESIDENS-Projekts werden die benötigten Daten mit Hilfe eines Paneldesigns mit drei Wellen erfasst. Bei der Datenerhebung wird ein Methodenmix zur Erfassung von objektiven und subjektiven Daten eingesetzt. Die Überprüfung der Messmodelle und des LIMA-Modells erfolgt mit Hilfe von Strukturgleichungsmodellen und Pfadanalysen. Mit kleinen Anpassungen beschreiben die Modelle die empirischen Daten relativ gut. Insgesamt zeigen die Studienergebnisse, dass Smart Metering und damit im Zusammenhang stehende Produkte von einem Teil der Bevölkerung sowohl zum gegenwärtigen Stand der Technik, als auch in einem Zukunftsszenario mit automatisierter Steuerung der Haushaltsgeräte akzeptiert werden. Dieser Teil der Bevölkerung sind die Innovatoren, die neue Technologien als Erste nutzen.



Kloos, Oliver;
Generierung von Simulationsmodellen auf der Grundlage von Prozessmodellen. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - XIV, 508 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2013

Um dynamische Analysen auf Prozessmodelle anzuwenden, müssen diese als dynamische Modelle vorliegen. Bei Prozessmodellen eigenen sich für diesen Anwendungszweck diskrete Simulationsmodelle. Aufgrund des unterschiedlichen Einsatzzweckes von Prozess- und Simulationsmodellen können Prozessmodelle nicht direkt für eine Simulation verwendet werden. Als Ansatz, das statische Prozessmodell in ein dynamisches Simulationsmodell umzuwandeln, wurde das ProSiT Konzept entwickelt und auf die Geschäftsprozessnotationen eEPK, BPMN und das UML Aktivitätsdiagramm angewendet. Das ProSiT Konzept stellt eine zentrale Instanz zwischen verschiedenen Geschäftsprozessnotationen und Simulationsumgebungen dar. Das Konzept umfasst Transformationsregeln, ein Transformationsmodell - das ProSiT Modell - und Normalisierungsregeln zur Vorbereitung des Modells auf eine Simulation. Prozessmodelle werden zunächst mit Vorbereitungsregeln für eine Transformation in das ProSiT Modell vorbereitet. Das vorbereitete Modell wird anschließend mit Transformationsregeln überführt. Normalisierungsregeln im Kontext des ProSiT Modells vereinfachen den Prozessablauf und fügen fehlende Informationen hinzu, die für eine Simulation notwendig sind, aber nicht im ursprünglichen Prozessmodell vorhanden sind. Diese Regeln liegen als automatische, semi-automatische und manuelle Normalisierungsregeln vor. Ist ein Modell normalisiert, kann mittels Anwendbarkeitsregeln geprüft werden, ob eine Simulationsumgebung das Modell simulieren kann. Trifft dies zu, wird mittels Transformationsregeln das Simulationsmodell aus dem normalisierten Transformationsmodell erzeugt.



Berger, Thomas;
On differential-algebraic control systems. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - 329 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2013
Literaturverz. S.301 - 318

In der vorliegenden Dissertation werden differential-algebraische Gleichungen (differential-algebraic equations, DAEs) der Form d dt Ex = Ax + f betrachtet, wobei E und A beliebige Matrizen sind. Falls E nichtverschwindende Einträge haben, dann kommen in der Gleichung Ableitungen der entsprechenden Komponenten von x vor. Falls E eine Nullzeile hat, dann kommen in der entsprechenden Gleichung keine Ableitungen vor und sie ist rein algebraisch. Daher werden Gleichungen vom Typ d dt Ex = Ax + f differential-algebraische Gleichungen genannt. Ein Ziel dieser Dissertation ist es, eine strukturelle Zerlegung einer DAE in vier Teile herzuleiten: einen ODE-Anteil, einen nilpotenten Anteil, einen unterbestimmten Anteil und einen überbestimmten Anteil. Jeder Anteil beschreibt ein anderes Lösungsverhalten in Hinblick auf Existenz und Eindeutigkeit von Lösungen für eine vorgegebene Inhomogenität f und Konsistenzbedingungen an f. Die Zerlegung, namentlich die quasi-Kronecker Form (QKF), verallgemeinert die wohlbekannte Kronecker-Normalform und behebt einige ihrer Nachteile. Die QKF wird ausgenutzt, um verschiedene Konzepte der Kontrollierbarkeit und Stabilisierbarkeit für DAEs mit f = Bu zu studieren. Hier bezeichnet u den Eingang des differential-algebraischen Systems. Es werden Zerlegungen unter System- und Feedback-Äquivalenz, sowie die Folgen einer Behavioral-Steuerung K_x x + K_u u = 0 für die Stabilisierung des Systems untersucht. Falls für das DAE-System zusätzlich eine Ausgangs-Gleichung y =Cx gegeben ist, dann lässt sich das Konzept der Nulldynamik wie folgt definieren: die Nulldynamik ist, grob gesagt, die Dynamik, die am Ausgang nicht sichtbar ist, d.h. die Menge aller Lösungs-Trajektorien (x,u,y) mit y = 0. Für rechts-invertierbare Systeme mit autonomer Nulldynamik wird eine Zerlegung hergeleitet, welche die Nulldynamik entkoppelt. Diese versetzt uns in die Lage, eine Behavior-Steuerung zu entwickeln, die das System stabilisiert, vorausgesetzt die Nulldynamik selbst ist stabil. Wir betrachten auch zwei Regelungs-Strategien, die von den Eigenschaften der oben genannten System-Klasse profitieren: Hochverstärkungs- und Funnel-Regelung. Ein System d dt Ex = Ax + Bu, y =Cx, hat die Hochverstärkungseigenschaft, wenn es durch die Anwendung der proportionalen Ausgangsrückführung u = -ky, mit k > 0 hinreichend groß, stabilisiert werden kann. Wir beweisen, dass rechts-invertierbare Systeme mit asymptotisch stabiler Nulldynamik, die eine bestimmte Relativgrad-Annahme erfüllen, die Hochverstärkungseigenschaft haben. Während der Hochverstärkungs-Regler recht einfach ist, ist es jedoch a priori nicht bekannt, wie groß die Verstärkungskonstante k gewählt werden muss. Dieses Problem wird durch den Funnel-Regler gelöst: durch die adaptive Justierung der Verstärkung über eine zeitabhängige Funktion k(.) und die Ausnutzung der Hochverstärkungseigenschaft wird erreicht, dass große Werte k(t) nur dann angenommen werden, wenn sie nötig sind. Eine weitere wesentliche Eigenschaft ist, dass der Funnel-Regler das transiente Verhalten des Fehlers e = y - y ref der Bahnverfolgung, wobei y ref die Referenztrajektorie ist, beachtet. Für einen vordefinierten Performanz-Trichter (funnel) [Psi] wird erreicht, dass e(t) < [Psi](t). Schließlich wird der Funnel-Regler auf die Klasse von MNA-Modellen von passiven elektrischen Schaltkreisen mit asymptotisch stabilen invarianten Nullstellen angewendet. Dies erfordert die Einschränkung der Menge der zulässigen Referenztrajektorien auf solche die, in gewisser Weise, die Kirchhoffschen Gesetze punktweise erfüllen.



Bergmann, Sören;
Automatische Generierung adaptiver Modelle zur Simulation von Produktionssystemen. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - XXXVII, 221 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2013

Die Simulation von Produktionsprozessen wird heute in einer Vielzahl von Branchen eingesetzt. Simulation dient hierbei zur Analyse, dem Design und der Optimierung der Produktions- und Logistikprozesse und dem dabei anfallenden Ressourceneinsatz und kann hierbei sowohl in der Planung, Inbetriebnahme als auch während des operativen Betriebs genutzt werden. Den unbestritten großen Potentialen der Materialflusssimulation in Unternehmen stehen entsprechend hohe Aufwände entgegen. Diese entstehen sowohl bei der Implementierung der Modelle als auch deren Nutzung. Durch schlechte Integration und Standardisierung der Simulation, steigende Anforderungen der Unternehmen bzgl. Genauigkeit, Flexibilität, Anpassbarkeit, Geschwindigkeit, Kosten, Wiederverwendbarkeit, Zyklen und phasenübergreifender Nutzbarkeit usw. werden die Aufwände teils unnötig gesteigert. Ein Ansatz, der seit einigen Jahren immer wieder als ein Lösungsbeitrag für eine bessere Nutzung der Simulation auch gerade in KMU's betrachtet wird, ist die automatische Generierung von Simulationsmodellen. Unter automatischer Modellgenerierung werden verschiedene Ansätze subsumiert, die erlauben Simulationsmodelle oder zumindest Teile von Modellen mittels Algorithmen zu erzeugen. Bisher wurde kein Ansatz veröffentlicht, der für einen breiteren Nutzerkreis und über einen speziellen Teilbereich hinaus gute Ergebnisse liefert.In dieser Arbeit wurde ein umfassendes Rahmenwerk zur Integration bzw. Automatisierung der Simulation entworfen und validiert. Es wurden sowohl organisatorische, methodische als auch prototypisch technische Komponenten betrachtet. In diesem Zusammenhang wird die These vertreten, dass eine breit anwendbare automatische Modellgenerierung allein durch die Nutzung von Standards zum Datenaustausch bzw. zur Konzeptmodellerstellung sinnvoll zu implementieren ist. Konkret wurde der Core Manufacturing Simulation Data (CMSD) Standard genutzt bzw. bildet die Referenzanwendung des Standards die Basis der gesamten Arbeit. Die Unterstützung aller Simulationsphasen, d.h. nicht allein der Modellerstellung sondern auch der Alternativenbildung, Initialisierung, Ergebnisauswertung usw. in allen Komponenten wird durchgehend gewährleistet. Weiterhin wurden konkret Modellgenerierungsmethoden und Verfahren zur Abbildung des dynamischen Verhaltens in Modellen klassifiziert und einzelne Lösungsansätze vorgestellt.



Zentner, Lena
10. Kolloquium Getriebetechnik : Technische Universität Ilmenau, 11.-13. September 2013. - Ilmenau : Universitätsverlag Ilmenau, 2013. - 454 Seiten. - (Berichte der Ilmenauer Mechanismentechnik ; Band 2) ISBN 978-3-86360-065-5
Beitr. teilw. dt., teilw. engl. - Literaturangaben. - Zusätzliches Online-Angebot unter urn:nbn:de:gbv:ilm1-2013100033

In diesem Band sind die Beiträge des 10. Kolloquiums Getriebetechnik 2013 in Ilmenau zusammengestellt. Getriebe für Web- und Flechtmaschinen, für Schränke und Sessel, ein Schlagmechanismus für eine bevorstehende Marsmission, Robotersysteme für Mensch-Maschine-Schnittstellen, ein Mechanismus in einem Großteleskop oder Präzisionsmessgerät, ein einfacher Federbügel sowie nachgiebige Aktuatoren und Mechanismen - das sind nur einige von den hoch interessanten Systemen, die in diesem Band vorzufinden sind.



Be&hacek;no, Rastislav;
Ergonomics in business logistics. - Ilmenau : Univ.- Verl. Ilmenau. - 146 S.. - (Scientific monographs in automation and computer science, 12) : Teilw. zugl.: Trnava, Univ., Diss.
ISBN 978-3-86360-079-2
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=23075

This monograph deals with the possibilities of ergonomics implementation in business logistics with the aim to provide sustainable competitiveness of enterprises via effective human work in ergonomically acceptable and flexible conditions. For the purposes of the current monograph, business logistics is studied on the level of logistic operations involving all employees who perform work activities directly initiating disorders and damages to the musculoskeletal system. The monograph analyses the methodology of ergonomics implementation in business logistics through the improvement of work activities and reducing employees stress. In the above-mentioned methodology, an employee represents both, an object and a subject of all efforts building the work environment. This includes supporting the sustainable quality of employees work life while simultaneously considering both environmental and economic conditions.



Špendla, Lukáš;
Design for a testing model of a communication subsystem for a safety-critical control system. - Ilmenau : Univ.-Verl. Ilmenau. - 140 S.. - (Scientific monographs in automation and computer science ; 13) : Teilw. zugl.: Trnava, Univ., Diss.
ISBN 978-3-86360-083-9
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=23087

This monograph focuses on a proposal for a testing model in safety critical systems. Due to the large scope of these systems, we have focused on the system testing and we have included requirements for testing the communication subsystem. After establishing the theoretical background for testing, we have defined the differences and specifics of traditional software systems and safety critical systems, based on standards and guidelines analysis for various safety critical systems. The system testing that we are using is not clearly integrated into the process of design and development of safety critical systems. Therefore, we have proposed basic steps of this process to which we have integrated system testing. Given the scope of the system testing, we have decided to propose two testing models. We have focused on performance and step stress testing. These models implement requirements for testing of safety critical systems specified by us. To verify the proposed models, we have defined a metric. Based on its value we can determine whenever the proposed model meets testing requirements specified by us.



Kop&bovko;cek, Michael;
Optimal pilot bus selection for the secondary voltage control using parallelism. - Ilmenau : Univ.-Verl. Ilmenau. - 147 S.. - (Scientific monographs in automation and computer science ; 10) : Teilw. zugl.: Trnava, Univ., Diss.
ISBN 978-3-86360-077-8
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=22885

The scientific monograph submitted deals with the subject of power system set and its control on the secondary level. The power system can be characterized due to its size, complexity and load unknown in advance, in addition to time variability. Since large electric power is transferred, even small changes in setting can frequently represent significant economic savings. Regarding the power system properties as well as the basics of secondary control, it is obvious that the optimal selection of pilot bus plays an important role in the quality of control and the related economic impact. The monograph focuses on the methods of optimal selection of the pilot buses for the dispatch control of bus voltage in a complex power system. The aim is to modify them so that it is possible to investigate the issue via using the parallelism principle and grid computer structure aimed at multiple shortening of the computing time.



&bovko;Skulavik, Tomá&bovko;s;
PLC-based fuzzy control system for a robotic manipulator. - Ilmenau : Univ.-Verl. Ilmenau. - 115 S.. - (Scientific monographs in automation and computer science ; 11) : Teilw. zugl.: Trnava, Univ., Diss.
ISBN 978-3-86360-078-5
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=23064

The submitted monograph deals with the design of robotic arm fuzzy control and its implementation in the PLC-based control system. In the introduction section, the robots and their control systems, as well as their properties and the possible solutions for the selected control tasks are analyzed. Then the author focuses on fuzzy control integration within the systems of the Siemens PLC company. Subsequently, the aims of the monograph and related subject matters to be investigated are defined. The main aim is to propose and implement the control for a robotic arm, whose mathematical model is unknown. The robotic arm, for which the control system has to be proposed, is described in detail. This section is followed by chapters focused on the design itself, its implementation and testing of the individual parts of the control system as a whole. The last chapter deals with analyzing the achieved results.



Risto, Uwe;
Zur Charakterisierung und Anwendung des Durchschlagverhaltens von nachgiebigen rotationssymmetrischen Strukturen. - Ilmenau : Univ.-Verl. Ilmenau, 2013. - XXXIII, 152 S.. - (Berichte der Ilmenauer Mechanismentechnik (BIMT) ; 3) : Zugl.: Ilmenau, Techn. Univ., Diss., 2013
ISBN 978-3-86360-074-7
Parallel als Online-Ausgabe erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=22982

Instabiles Verhalten von festen und nachgiebigen Strukturen wird in den meisten Fällen der technischen Anwendung vermieden. Dennoch kann das instabile Verhalten von nachgiebigen Strukturen in Form von Durchschlag positiv eingesetzt werden. Das Durchschlagverhalten stellt eine sprunghafte Änderung von einem Gleichgewichtszustand in einen anderen dar. In der vorliegenden Arbeit werden signifikante Eigenschaften des instabilen Verhaltens in Form von Durchschlag beschrieben. Dies wird am Beispiel einer sphärisch geformten Struktur, und anderen, durchgeführt. Des Weiteren wird das Verhalten der Strukturen unter einem gleichmäßigen Außendruck und unter Berücksichtigung eines nichtlinearen elastischen Materials untersucht. Ergänzend werden die ermittelten Ergebnisse experimentell überprüft. Die Forschungsergebnisse fließen anschließend in die Entwicklung von innovativen Ventilsystemen für beispielsweise solarthermische Anlagen. In solarthermischen Anlagen müssen für deren sichere und effiziente Funktion die durch Ausgasung aus dem Solarfluid anfallenden Gase regelmäßig aus dem System abgeleitet werden. Im Rahmen dieser Arbeit soll die Entwicklung eines neuartigen Funktionselementes für Ventilanwendungen erläutert werden, der eine regelmäßige und vollkommen autonome Entlüftung solarthermischer Anlagen ermöglicht. Die Besonderheit dieser Innovation besteht darin, dass das Funktionselement keine externe Energieversorgung benötigt und dass auf Steuerungselektronik und Sensorik verzichtet werden kann. Die Neuentwicklung beruht auf den mechanischen Eigenschaften einer partiellen Nachgiebigkeit eines Körpers aus hochelastischem Material und nutzt die vorhandene Wärmeenergie des Betriebsmediums in einer solarthermischen Anlage. Die erzielten Forschungsergebnisse werden weiterhin für die Entwicklung eines Ventilsystems für medizinische Anwendungen eingesetzt. Bei dem medizinischen Ventilsystem handelt es sich um eine Struktur die es ermöglichen soll, in Form eines Implantates, Inkontinenzpatienten die Unannehmlichkeiten ihrer Krankheit zu überwinden.



Arlt, Dorothee;
Laufzeitverlängerung von Atomkraftwerken - Nein, Danke!? : eine kommunikationswissenschaftliche Studie zum Einfluss medialer Kommunikation auf Einstellungen gegenüber Atomkraft. - Ilmenau : Univ.-Verl. Ilmenau, 2013. - 259 S.. - (Nachhaltigkeits-, Energie- und Umweltkommunikation ; Bd. 1) : Zugl.: Ilmenau, Techn. Univ., Diss., 2013
ISBN 978-3-86360-073-0

In dieser Studie wurde der Einfluss der individuellen Mediennutzung auf Einstellungen gegenüber Atomkraft am Beispiel der im Jahr 2010 geplanten Laufzeitverlängerung deutscher Atomkraftwerke untersucht. Die Studie wurde im Zwei-Methoden-Design durchgeführt. In einer repräsentativen Telefonbefragung wurden die Einstellungen und das Mediennutzungsverhalten von n=551 Thüringern erhoben. Die Argumente in der Berichterstattung für bzw. gegen eine Laufzeitverlängerung wurden durch eine quantitative Inhaltsanalyse von n=480 Medienbeiträgen erfasst. Bei der Datenverknüpfung wurden Variablen zum individuellen Medieninput an Argumenten aus der Berichterstattung gebildet. Auf Basis dieser Variablen wurden dann Einstellungseffekte geprüft. Die Befunde zeigten, dass der individuelle Medieninput an Argumenten die Einstellungen gegenüber Atomkraft sowohl mittel- als auch langfristig beeinflusste. Deutlich wurde auch, dass sich Einstellungen gegenüber der Laufzeitverlängerung besser durch generelle Einstellungen zu Atomkraft, Energie und Politik vorhersagen ließen, als durch die individuelle Nutzung medialer Kommunikationsinhalte.



Dietz, Saskia;
Die Presseberichterstattung über die "NSU-Terrorzelle" aus medienrechtlicher Sicht : eine Untersuchung im Hinblick auf Persönlichkeitsrechtsverletzungen. - Ilmenau : Univ.-Verl. Ilmenau. - LXXXIX, 95 S.. - (Medienrechtliche Schriften ; Bd. 11) : Teilw. zugl.: Ilmenau, Techn. Univ., Masterarbeit, 2013
ISBN 978-3-86360-082-2

Die Presse bewegt sich bei ihrer Tätigkeit der Berichterstattung grundsätzlich im Spannungsfeld der verfassungsrechtlich verankerten Grundrechte der Meinungsfreiheit, der Pressefreiheit und des Allgemeinen Persönlichkeitsrechts. Gerade durch Presseberichte über mutmaßliche Straftäter und die zumeist negative Vorwegqualifikation kann das Persönlichkeitsrecht Betroffener in erheblichem Maße beeinträchtigt werden. Der spektakuläre und medial viel diskutierte Fall der terroristischen Vereinigung Nationalsozialistischer Untergrund (kurz: NSU) stellt in diesem Zusammenhang ein besonders untersuchungswürdiges Beispiel dar, weil dabei spezielle Fallkonstellationen wie vorherige Öffentlichkeitsfahndungen und unterschiedliche Personengruppen von durch die Presseberichterstattung Betroffenen vorliegen. Das Ziel der Arbeit besteht in einer Untersuchung hinsichtlich möglicher Persönlichkeitsrechtsverletzungen durch eine sachlich und zeitlich abgegrenzte Presseberichterstattung über die NSU-Terrorzelle, die den besonderen Begleitumständen Rechnung trägt. Dabei werden exemplarisch sowohl Positiv- als auch Negativbeispiele aus den periodischen Presseerzeugnissen BILD, F.A.Z., DER SPIEGEL und Freies Wort im Zeitraum November 2011 herausgegriffen, um die einzelnen juristischen Problemfelder zu verdeutlichen. Nach einer formalen Einleitung, einer Beschreibung von Sachverhalt und Hintergrund der NSU-Terrorzelle sowie Erläuterungen zur diesbezüglichen Presseberichterstattung beschäftigt sich die Arbeit zunächst ausführlich mit möglichen Persönlichkeitsrechtsverletzungen der Haupttatverdächtigen Beate Zschäpe durch Bildberichterstattung, Namensnennung und Wortberichterstattung. Auf dieser Basis werden anschließend Unterschiede und Besonderheiten bezüglich möglicher Persönlichkeitsrechtsverletzungen der mutmaßlichen Unterstützer der Terrorzelle wie Holger G., Andre E. und Ralf Wohlleben herausgearbeitet. Die danach folgenden Ausführungen widmen sich der besonderen Konstellation eines eventuellen postmortalen Persönlichkeitsrechtsschutzes bezüglich der beiden verstorbenen Tatverdächtigen Uwe Böhnhardt und Uwe Mundlos sowie der vermeintlichen Opfer des NSU. Abschließend werden die gewonnenen Erkenntnisse zusammengefasst und kritisch gewürdigt.



Schaaf, Peter
Thüringer Werkstofftag 2013 : Werkstoffe - Wissenschaft - Wirtschaft ; Technische Universität Ilmenau, 21. März 2013. - Ilmenau : Univ.-Verl. Ilmenau, 2013. - 226 S.. - (Werkstofftechnik aktuell ; 9) ISBN 978-3-86360-080-8
Beitr. überw. dt., teilw. engl. - Literaturangaben

Der Tagungsband "Thüringer Werkstofftag 2013" sind die Proceedings des 11. Thüringer Werkstofftages, der im März 2013 an der TU Ilmenau unter dem Motto "Werkstoffe - Wissenschaft -Wirtschaft" stattfand. Der Band beinhaltet die Wissenschaftlichen Beiträge (Vorträge und Poster), die auf dem Thüringer Werkstofftag 2013 vorgestellt wurden und die als Manuskript zur Veröffentlichung eingereicht wurden. Somit wird hier ein kleiner Überblick über die aktuelle Werkstoffforschung in Thüringen gegeben.



Neundorf, Werner;
Numerik gewöhnlicher Differentialgleichungen mit Computeralgebrasystemen : Anfangswertprobleme. - Ilmenau : Univ.-Verl. Ilmenau, 2013. - XI, 772 S.Literaturverz. S. [767] - 772

Dieses Buch ist aus Vorlesungen und Seminaren für die Mathematik- und Ingenieurstudenten an der TU Ilmenau hervorgegangen. Es widmet sich der numerischen Behandlung von Anfangswertproblemen gewöhnlicher Differentialgleichungen, im notwendigen Maße der Theorie, mehr jedoch den Fragen der Algorithmisierung sowie der Nutzung von Software. So findet der Leser zahlreiche Hinweise, Beispiele und Illustrationen zur numerischen Behandlung von Differentialgleichungen im Studium und in der Praxis. Es ist klar, dass in einem solchen Buch nur ein Teil der mit dieser Problematik verbundenen Aspekte dargestellt werden kann. Im Literaturverzeichnis gibt es weiterführende einschlägige und Fachliteratur. Die Umsetzung der Formeln und Verfahren sowie die Darstellung von Ergebnissen, ob zu den numerischen Methoden, ihrer Herleitung, Genauigkeit, Stabilität und Konvergenz erfolgt vorwiegend unter Verwendung der Computeralgebrasysteme Maple und MATLAB. Für die praktischen Rechnungen wurden auch die angegebenen Programme verwendet. Die Darstellungen werden durch 45 Beispiele mit sehr vielen gDGl und SysgDGl, durch mehr als 600 Abbildungen und 50 Tabellen sowie weitere algorithmische Notationen, Schemata und Rechenergebnisse unterstützt. Zahlreiche Testbeispiele, Arbeitsblätter und Computerprogramme ergänzen den Stoff. Aus der immensen Fülle des Angebots auf diesem Gebiet, das auch im Internet problemlos auffindbar ist und zur Verfügung steht, wird hier eine beachtliche, wenn auch nur subjektive Auswahl getroffen. Die Übungsaufgaben dienen zur Vertiefung der Erkenntnisse.



Taubmann, Rebekka;
Untersuchungen zur Erweiterung der thermogravimetrischen Messung mit Magnetschwebewaage für die Differenzthermoanalyse durch Einführung einer stabilen rotationsfreien magnetischen Lagerung. - Ilmenau : Univ.-Verl. Ilmenau, 2013. - XVI, 128 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2013
ISBN 978-3-86360-070-9
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=22627

Vorliegende Dissertation beschreibt die Realisierung eines rotationsfreien stabilen Lagers für den Einsatz in einer Magnetschwebewaage, um neben dem thermogravimetrischen Signal auch eine Differenzthermoanalyse durchführen zu können. Die Differenzthermoanalyse kann durch die schwebende Lagerung der Probe in der Messzelle nicht konventionell über Thermoelemente durchgeführt werden. Daher soll auf eine pyrometrische Temperaturmessung zurückgegriffen werden. Dazu ist geplant - durch ein Sichtfenster in der Messzelle hindurch - die Temperatur der stabil rotationsfrei gelagerten Probe mittels Pyrometer zu bestimmen. Daraus ergeben sich bestimmte Anforderungen an die Lagerung der Probe, die einerseits eine stabile berührungsfreie Kraftübertragung und andererseits eine rotationsfreie Lagerung ermöglichen muss. Zur Realisierung dieses Ziels erfolgen zuerst einige theoretische Betrachtungen. Dabei wird geklärt, welche generellen Möglichkeiten es zur Erzeugung eines Schwebezustands gibt. Danach kann abgewogen werden, welche Prinzipien sich zum Einsatz in der Magnetschwebewaage eignen. Daneben finden Untersuchungen zur Optimierung der Robustheit statt. Nach der Definition der Anforderungskriterien an eine stabile rotationsfreie Lagerung werden verschiedene Möglichkeiten zur Realisierung eines solchen Lagers gegenübergestellt. Daraus lassen sich geeignete Varianten berechnen, aufbauen und prüfen. Im Rahmen der Berechnung werden sowohl analytische als auch FEM-Modelle (Finite Element Methode) genutzt. Die Funktionsprüfung findet, mit geeigneten Methoden, an einem dafür konstruierten Versuchsstand statt. Dabei haben Magnetlager mit einer gezahnten Gehäuseform und einer zusätzlichen permanentmagnetischen Erregung alle Anforderungskriterien erfüllt. Solche Magnetlager können ohne Änderung der Konstruktion in der Magnetschwebewaage genutzt werden, sind einfach herstellbar und kostengünstig. Durch den Einsatz dieses neu entwickelten Magnetlagers, kann neben der thermogravimetrischen Messung auch eine Differenzthermoanalyse durchgeführt werden. Damit ergeben sich für die Magnetschwebewaage weitere Anwendungsbereiche.



Selva Ginani, Luciano;
Optical scanning sensor system with submicron resolution. - Ilmenau : Univ.-Verl. Ilmenau, 2013. - XVIII, 142 S.. - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; 24) : Zugl.: Ilmenau, Techn. Univ., Diss., 2013
ISBN 978-3-86360-068-6
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=22505

Laser-Scanning Mikroskopie ist eine im Bereich der Oberflächenmessung wichtige und vielversprechende Technologie für schnelle, genaue und wiederholbare Messungen. Es ist im Grunde eine Technik zur Erhöhung von Kontrast und Auflösung in optischen Abbildungssystemen. Ein Prüfling wird punktweise abgetastet und ein dreidimensionales Bild seiner Oberfläche mit Hilfe eines Rechners erfasst und rekonstruiert. In dieser Arbeit werden Autofokus- und optische Abtastverfahren in der Entwicklung und Konstruktion eines alternativen, vereinfachten Scanning Mikroskops für Oberflächenmessungen im Millimeterbereich mit Sub-Mikrometer Auflösung zusammengebracht. Das entwickelte System verwendet einen auf dem Foucault'sches Schneidenverfahren basierenden Autofokussensor um die Fokuslage zu bestimmen und einen Piezo-Linearantrieb für die Verschiebung des Objektivs entlang der optischen Achse und das Abtasten des Prüflings in der axialen Richtung. Die laterale Abtastung des Prüflings wird durch den Einsatz eines Piezo-Spiegels realisiert, der um zwei Achsen schwenkbar ist. Das entwickelte Mikroskop hat eine reduzierte Anzahl von optischen Komponenten und bietet einen einfachen und vielseitigen Versuchsaufbau zur Messung und Analyse von Fehlern, die durch die bewusste Verwendung von unkompensierten Optiken auftreten. Die damit verbundenen Abbildungsfehler erzeugen Asymmetrien in den Autofokussensoren und beeinträchtigen die Gesamtleistung. Die herkömmliche Lösung dieser Problematik ist das System durch Addition zusätzlicher Komponenten zu verbessern, sodass es wie ein paraxiales System wirkt. Diese Verbesserung bringt aber die Nachteile von Baugröße, Gewicht und Kosten mit sich. Durch das Brechen des Paradigmas der Verbesserung der Optik bis zu einem paraxialen System und die Betrachtung der Optik als Teil eines komplexen Systems ist es möglich, simplere Optik zu verwenden, und die resultierenden Fehler rechnerisch zu korrigieren. Diese Fehler sind systematisch und können - solange sie modelliert und gemessen werden können - vorhergesagt und korrigiert werden. Damit wird das Design des optischen Systems flexibler und die Aufgabe der Fehlerbehandlung zwischen Optimierung der Optik und rechnerischer Korrektur aufgeteilt. Baugröße, Gewicht und Kosten können dann reduziert werden und die Systemdynamik erhöht sich, ohne Einschränkung der Präzision. Das Ziel ist nicht jeden Abbildungsfehler individuell zu untersuchen, sondern deren Zusammenwirken auf die Messungen zu beobachten und zu modellieren. Verschiedene Strategien für die Behandlung dieser Messfehler werden in dieser Arbeit vorgeschlagen, diskutiert und experimentell validiert.



Bönicke, Holger;
Flexible und plattformunabhängige Entwicklung mikrocontrollerbasierter mechatronischer Systeme für Nutzer ohne Vorwissen. - Ilmenau : Univ.-Verl. llmenau, 2013. - XXIV, 205 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2013

In dieser Arbeit werden Konzepte vorgestellt, mit deren Hilfe Entwicklungssysteme für mechatronische Systeme realisiert werden können. Die Ansätze gewährleisten auch für Nutzer ohne Vorwissen eine flexible und einfache Arbeit. In diesem Zusammenhang werden Ansätze vorgestellt, mit welchen die Funktionsweise der Sensoren, der Aktoren und des informationstechnischen Systems transparent dargestellt wird, so dass der Nutzer hierfür ein technisches Verständnis entwickeln kann. Nach der Erläuterung der Grundlagen zur Arbeit und des Stands der Technik werden zunächst die Konzepte der mikrosystemtechnischen Entwicklungssysteme "EasyKit" und "EasyKit macht Schule" vorgestellt. Als informationstechnische Systeme werden hier Mikrocontroller eingesetzt, da diese bereits eine hohe funktionelle Integration besitzen und somit meist das Mittel der Wahl für unerfahrene Nutzer sind. Die elektronischen Schaltungen werden in Form von Hardwaremodulen bereitgestellt und mit modularen Softwarebausteinen graphisch programmiert. Dabei werden die Vorteile von Ablaufdiagrammen mit den Vorteilen von Datenflussplänen kombiniert, wodurch eine hohe Flexibilität erreicht wird. Nutzertests zeigten, dass auch Nutzer ohne technisches Vorwissen grundsätzlich mit dieser Art der Programmierung arbeiten können. Dieses Konzept wurde anschließend erweitert, um die Programmierung weiter zu vereinfachen und zu flexibilisieren. Außerdem bestand das Ziel, auch die Hardwareentwicklung auf der Schaltungsebene für Nutzer ohne Vorwissen zu ermöglichen, um so Abstand von Ansätzen, bei welchen vorgefertigte Komponenten genutzt werden, nehmen zu können. Hierfür werden in der Arbeit Anforderungen formuliert und Ansätze für Lösungskonzepte vorgestellt. Der wichtigste Ansatz zur Flexibilisierung der Programmierung ist die Einführung einer neuen ergänzenden Programmierebene, auf welcher parallel mit graphischen und textuellen Methoden gearbeitet wird. Zur Unterstützung der Hardwareentwicklung auf der Schaltungsebene werden Ansätze vorgestellt, welche eine weitestgehend auf ihre Schnittstellenarten abstrahierte Modellierung von Sensoren und Aktoren innerhalb der Entwicklungsumgebung ermöglichen. So kann der Nutzer bei der Entwicklung der Anpassungsschaltungen zwischen den Sensoren, Aktoren und dem Mikrocontroller unterstützt werden. Außerdem können so Signale und Signalwandlungen an den Schnittstellen in der graphischen Oberfläche dargestellt und vom Nutzer nachvollzogen werden. Weitere Ansätze zur Vereinfachung der Entwicklung werden ebenso in der Arbeit vorgestellt. Die erfolgversprechendsten Ansätze wurden in eine Testumgebung implementiert und mit Mitgliedern der möglichen Nutzergruppen getestet.



Schwarzer, Steffen;
Optimierung der Auslegung und des Betriebsverhaltens von hohlradgetriebenen Innenzahnradpumpen. - Ilmenau : Univ.-Verl. Ilmenau, 2013. - XVI, 172 S.. - (Kraftfahrzeugtechnische Berichte ; 6) : Zugl.: Ilmenau, Techn. Univ., Diss., 2013
ISBN 978-3-86360-071-6
Parallel als Online-Ausg. erschienen unter der Adresse www.db-thueringen.de/servlets/DocumentServlet?id=22629 =Q text/html =X ilmedia/DBT =Z kostenfrei =4 LF

Zahnradpumpen werden nach wie vor sehr verbreitet in der Antriebstechnik sowie in Anlagensystemen zur hydraulischen Kraftübertragung verwendet. Für die industrielle Anwendbarkeit der Pumpen sind vor allem niedrige Geräuschemissionen, niedrige Herstellungskosten und hohe Leistungen zu vereinen. Werden Innenzahnradpumpe mit Außenzahnradpumpen verglichen, zeichnen sich Innenzahnradpumpen durch niedrigere Geräuschemissionen aus, sind jedoch wegen ihrer höheren Herstellungskosten weniger verbreitet und erforscht. Die vorliegende Arbeit leistet einen Beitrag zur Optimierung der Auslegung und des Betriebsverhaltens von hohlradgetriebenen Innenzahnradpumpen. Ziel ist es, allgemeingültige Auslegungsregeln für industriell umsetzbare Innenzahnradpumpen zu entwickeln. Die erarbeiteten Gestaltungskriterien führen vornehmlich zu einer Minderung von Druckpulsationen und Druckwechselkräften. Um den Druck im Druckabbauvorgang zu reduzieren, wird mit einem neuen geometrischen Verfahren die Pumpenverzahnungsgeometrie dahingehend ausgelegt, große Druckerhöhungen in der Zahnkammer zu vermeiden. Die im Gehäuse platzierten Stege werden über das Berechnungsverfahren so angepasst, dass eine weitere Reduzierung des Spitzendrucks erfolgt. Für die Ermittlung des Druckgradienten im Druckaufbauvorgang wird ein analytisches Verfahren erstellt, das es ermöglicht den Druck in der Zahnkammer während einer Umdrehung zu berechnen. Damit können im Bereich der Sichel über Nutungen gezielte Leckströme erzeugt werden, um den Druckgradienten zu senken. Für die Verifikation des Auslegungsmodells wird der Druckverlauf in der Zahnkammer mit einem im Zahnfuß eingebauten Miniaturdruckaufnehmer gemessen. Durch das Antriebskonzept können bei hohlradgetriebenen Innenzahnradpumpen aufgrund exzentrisch angreifender Kräfte Verkippungen an den Pumpenrädern auftreten. Die Verkippungen werden unter dynamischen Bedingungen mit zwei Wirbelstromsensoren überprüft. Es wird ein Kennfeld erarbeitet, das es dem Konstrukteur ermöglicht, Verkippungen bereits unter Beachtung des Wirkungsgrads im Auslegungsstadium zu vermindern. Aus den erhaltenen Erkenntnissen wird das Programm HGP-SIM zur Auslegung von hohlradgetriebenen Innenzahnradpumpen mit optimiertem Betriebsverhalten erstellt. Über die Eingabe von Vorgabedaten werden in Unterprogrammen optimierte Auslegungsgeometrien für die einzelnen Teilbereiche ausgegeben. Nach den erarbeiteten Regeln ausgelegte hohlradgetriebene Innenzahnradpumpen zeichnen sich bei ähnlichen Herstellungskosten durch niedrigere Schallemissionen wie Außenzahnradpumpen aus. Dadurch wird das Potenzial von hohlradgetriebenen Innenzahnradpumpen zur industriellen Anwendung und Umsetzung bewiesen.



Gossel, Britta
Entrepreneurship research - discussing today the awareness of tomorrow : YERC 2012, Young Entrepreneurship Research Colloquium, Ilmenau, 20. - 21. Oktober 2012. - Ilmenau : Univ.-Verl. Ilmenau, 2013. - 162 S.. - (Menschen, Märkte, Medien, Management ; 8) ISBN 978-3-86360-072-3
Literaturangaben. - Enth. 7 Beitr.

The first Young Entrepreneurship Research Colloquium (YERC) was held 2012 in Ilmenau. Initiated as a new innovative format, young scientists from all over Germany discussed their research with colleagues and experts from the fields of education, capital investment and real entrepreneurs. The discussion is continued in this volume, according to the idea that the young of today might be the established entrepreneurship researchers of tomorrow. The invited article of Leona Achtenhagen, Professor of Entrepreneurship and Business Development at Jönköping International Business School, Sweden, offers a shift from the German to an international perspective and a critical but encouraging reflection of each contribution from a profound entrepreneurship scientists' perspective.



Blumer, Tim;
Persönlichkeitsforschung und Internetnutzung. - Ilmenau : Universitätsverlag Ilmenau, 2013. - 332 Seiten. - (Kommunikationswissenschaft interdisziplinär ; 2)
Technische Universität Ilmenau, Dissertation 2013

ISBN 978-3-86360-066-2

Die Arbeit leistet einen Beitrag zum Verständnis des Zusammenhangs zwischen Persönlichkeit und Internetnutzung. Dazu werden im theoretischen Teil persönlichkeitspsychologische sowie medienpsychologische Theorien und Ansätze vorgestellt und zu verschiedenen Kausalmodellen des Zusammenhangs zwischen Persönlichkeit und Online-Verhalten integriert. Der empirische Teil der Arbeit besteht aus drei unabhängigen Studien. Die erste Studie untersucht anhand des Fünf-Faktoren-Modells der Persönlichkeit, ob sich Persönlichkeit am Computer und im Internet anders ausdrückt als außerhalb der digitalen Umgebung. Es wird gezeigt, dass der Ausdruck der vier Eigenschaften Extraversion, Offenheit für Erfahrung, Verträglichkeit und Gewissenhaftigkeit im Internet signifikant schwächer ausfällt. Der Ausdruck der Eigenschaft Neurotizismus verstärkt sich jedoch in dem Sinne, dass Personen am Computer und im Internet emotional deutlich stabiler sind als außerhalb der digitalen Umgebung. Die zweite Studie geht der Vermutung nach, dass besonders narzisstische Personen eine besondere Vorliebe für Online-Social-Networking haben. Eine Online-Fragebogenstudie ergibt, dass Nutzer von Social Networking Sites jedoch nicht generell narzisstischer sind als Nicht-Nutzer. Die Annahme, dass die typischen Bedürfnisse narzisstischer Personen nach Aufmerksamkeit und Bewunderung, Selbstoffenbarung und Selbstdarstellung sowie Selbstwert auf Social Networking Sites besser befriedigt werden können als in Face-to-Face-Kommunikation, lässt sich ebenfalls nicht bestätigen. Die dritte Studie untersucht, ob die in der Literatur oft berichtete Vorliebe von schüchternen Personen für textbasierte, computervermittelte Kommunikation auch auf Social Networking Sites übertragbar ist. Eine Online-Fragebogenstudie kann zeigen, dass die typischen Bedürfnisse schüchterner Personen nach Kontrolle, Zugehörigkeit und Selbstwert tatsächlich auf Social Networking Sites besser befriedigen können als in Face-to-Face-Kommunikation. Alle drei Studien belegen gleichermaßen die Wichtigkeit von Interaktionen zwischen Persönlichkeitseigenschaften und situativen Aspekten und unterstreichen zudem, dass sich computervermittelte Kommunikation in einigen, psychologisch relevanten Aspekten deutlich von Face-to-Face-Kommunikation unterscheidet.



Zink, Markus;
Zustandsbewertung betriebsgealterter Hochspannungstransformatordurchführungen mit Öl-Papier-Dielektrikum mittels dielektrischer Diagnose. - Ilmenau : Univ.-Verl. Ilmenau, 2013. - XVI, 157 S.. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA) ; 6) : Zugl.: Ilmenau, Techn. Univ., Diss., 2013
ISBN 978-3-86360-067-9
Parallel als Online-Ausg erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=22461

Ziel dieser Arbeit ist es, geeignete Verfahren für die Zustandsdiagnose von Durchführungen mit Öl-Papier-Dielektrikum aufzuzeigen. Dazu wurden an drei 400 kV-Transformatordurchführungen, die 28 Jahre lang in Betrieb waren, betriebsfrequente Kapazitäts- und Verlustfaktormessungen sowie Polarisations- und Depolarisationsstrommessungen (PDC) und Frequenzbereichsspektroskopie-Messungen (FDS) vorgenommen und Möglichkeiten zur qualitativen Analyse der Messergebnisse angegeben. Durch Simulationen lassen sich die Ergebnisse der PDC- und FDS-Messung auch quantitativ bewerten, wodurch u.a. eine Abschätzung des Wassergehalts der Isolation möglich ist. Die Eignung der verwendeten Mess-, Analyse- und Simulationsverfahren wurde durch die Demontage und Untersuchung des Papiers eines der Prüflinge verifiziert. Neben vielen praktischen Hinweisen zu dielektrischen Messungen und deren Störeinflüsse werden auch neuartige Verfahren zur Temperaturkompensation dielektrischer Kurven im Zeitbereich sowie zur Herleitung einfacher Ersatzschaltbilder für die Simulation vorgestellt.



Arnold, Heinrich;
Robert Döpel and his model of global warming : an early warning - and its update
4., rev. and transl. ed.. - Ilmenau : Univ.-Verl. Ilmenau, 2013. - 114 S.Literaturverz. S. 96 - 114

Robert Döpel's personality and his scientific achievements are briefly introduced. His climate model from 1973 is historically placed. In a simplifying way, it treats a "geophysical limit" to the global waste heat without taking into account the anthropogenic greenhouse effect. This limit will be reached during the next centuries even if photovoltaics and other sustainable energies are used exhaustively, if the growth of global energy production holds up. The calculations that agree with recent literature data, have been updated. They are compared with prognoses for global warming through the greenhouse effect until the year 3000 from the 2007 IPCC report that ignored waste heat. But for later generations, this anthropogenic heat release can also become dangerous if the growth of energy production is not greatly reduced.



Ußfeller, Christoph;
Beiträge zur Lokalisation und zur modellbasierten Lageregelung mobiler Roboter. - Ilmenau : Univ.-Verl. Ilmenau, 2013. - XI, 177 S., S. XIII - XLII : Zugl.: Ilmenau, Techn. Univ., Diss., 2012
ISBN 978-3-86360-061-7
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=22198

Auf dem Gebiet der autonomen Robotik haben Wettkämpfe im Roboterfußball Relevanz als Standardproblem gewonnen. Der Kernpunkt dieser Wettkämpfe besteht darin, die Aufgabe des koordinierten Verhaltens technischer Systeme in einer dynamischen Umgebung zu bewältigen. Die vorliegende Arbeit leistet Beiträge zur Objektlokalisierung und zur Lageregelung für Roboter der RoboCup Small SizeLeague. Im ersten Teil dieser Arbeit werden die Grundlagen eines segmentorientierten Bildverarbeitungssystems für die Objektlokalisierung vorgestellt. Das Bildverarbeitungssystem zeichnet sich durch hohe Verarbeitungsgeschwindigkeit und Robustheit aus. Für die Segmentierung wird ein statischer Farbklassifikator benutzt. Der Aufbau des Farbklassifikators als Generalisierung vonTrainingsdaten geschieht durch eine approximierte diskrete Voronoidekompositiondes RGB-Farbraumes. Für den Aufbau des Klassifikators sind zugeordnete Trainingsdaten erforderlich. Diese sollen durch ein Verfahren mit minimalen Vorwissen aus dem Videostrom gewonnen werden. Untersucht werden hierzu die Verfahren DBSCAN, k-means sowie RANSAC. Zur Interpretation der detektierten Segmente als Objektpositionen wird das Verfahren der Helmert-Transformationgenutzt. Im zweiten Teil der Arbeit wird ein Lageregelkreis realisiert. Den Schwerpunkt dieses Teils stellen die Begrenzungen von Stellgröße und Zustand des Roboters dar. Die Begrenzungen der Stellgröße werden durch die Haftreibungsgrenze und die von den eingesetzten Elektromotoren erzeugbaren Momenten verursacht. Sie werden mit Hilfe eines Mehrkörpermodells beschrieben. Diese Beschreibung wird in ein lineares Optimierungsproblem überführt. Auf diese Weise ergeben sich sowohl die Beschleunigungsfähigkeit des Roboters, als auch die hierfür notwendigen Antriebskräfte. Dieses Modell wird in einem Geschwindigkeits- und zwei Lagereglern verwendet. Auf das Problem geometrischer Nebenbedingungen wird durch die Anwendung eines Pfadplaners eingegangen. Der Pfadplaner basiert auf dem A*-Algorithmus und sucht nach dem kürzesten Weg in einem Navigationsgraphen. Varianten zur Erzeugung des Navigationsgraphen werden mit einem Sichtbarkeitsgraphen und einer adaptiven Rasterung durch einen Quadtree bereitgestellt. Als Funktionsnachweis des Gesamtsystems wird der Pfadplaner in einer reaktiven Struktur eingesetzt. Hiermit werden erfolgreich Torschüsse ausgeführt.



Taubmann, Peter;
Analyse der Ventilfederbewegungen als Beitrag zur Beeinflussung der Verschleißursachen an den Auflageflächen. - Ilmenau : Univ.-Verl. Ilmenau, 2013. - XX, 153 S.. - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; 22) : Zugl.: Ilmenau, Techn. Univ., Diss., 2013
ISBN 978-3-86360-059-4
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=22024

Ventilfedern führen im Motorbetrieb außer den funktionsbedingten Längsbewegungen auch Drehbewegungen aus, was zu Verschleiß an den Federauflageflächen und benachbarten Bauteilen führt. Die Drehbewegungen sind aber gewollt, da sie sich auf den Ventilstößel mit Ventilteller übertragen. Dadurch werden die Ventilsitze sauber gehalten, und die thermische Belastung verteilt sich gleichmäßiger über deren Umfang. Das Phänomen der Drehbewegungen ist bisher ungeklärt, weshalb deren Ursachen und Beeinflussungsmöglichkeiten ermittelt werden sollten. Ein erster Schritt zur Klärung des Problems bestand in der Ermittlung der Verdrehung der Federenden zueinander beim statischen Einfedern. Weiterhin fanden umfangreiche experimentelle Untersuchungen an einem Versuchsstand statt, wobei die Drehbewegungen von Feder und Ventilstößel bzw. oberem Federteller als Funktion von Nockenwellendrehzahl und Federvorspannung erfasst wurden. Ein mathematisches Modell lieferte erste theoretische Erkenntnisse zum Entstehen der Drehbewegungen. Weitere Untersuchungen hierzu wurden mit dem Programm SimulationX® durchgeführt. Das verwendete Prinzipmodell besteht aus zwei parallelen Feder-Masse-Systemen, von denen das eine linear, das andere drehend schwingt. Da die Federmasse kontinuierlich über die Feder verteilt ist, wurden von einer Mehrköpersimulation die besten Ergebnisse erwartet, die mit Hilfe des Programms RecurDyn® erfolgt ist. Die Versuche ergaben, dass die Drehbewegungen hauptsächlich von der Federwinderichtung, der Federvorspannung und der Nockenfunktion und Nockenwellendrehzahl abhängen. Hochgeschwindigkeitsaufnahmen zeigten, dass es sich um sehr komplexe Bewegungen handelt und Resonanzen Ursache der Drehbewegungen sind. Für das Entstehen von Drehbewegungen ist ein Entlasten der Federenden erforderlich, was durch Oberschwingungen der Nockenfunktion, die in der Nähe der Längseigenfrequenzen der Feder liegen, verursacht wird. Außerdem beeinflusst das Verhältnis der Oberschwingungen zu den Dreheigenfrequenzen die Drehbewegungen. Das mathematische Modell zeigt, dass es beim Überschreiten der Resonanzfrequenz zur Richtungsumkehr kommen kann. Die Einflussmöglichkeiten auf die Drehbewegungen von Feder und Ventilstößel sind in Hinweisen für den Konstrukteur zum Entwurf und zur Optimierung von Ventiltrieben zusammengefasst. Eine Vorausberechnung bedarf jedoch noch weiterer Untersuchungen.



Erbe, Torsten;
Beitrag zur systematischen Aktor- und Aktorprinzipauswahl im Entwicklungsprozess. - Ilmenau : Univ.-Verl. Ilmenau, 2013. - 246 S.. - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; 23) : Zugl.: Ilmenau, Techn. Univ., Diss., 2013
ISBN 978-3-86360-060-0
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=21895

Die vorliegende Arbeit stellt zwei Ansätze zum Vergleich von Aktorprinzipen auf Basis bekannter Aktoren vor. Dem Entwickler bietet ein solcher Vergleich die Möglichkeit, schon früh im Entwicklungsprozess im Hinblick auf die gegebenen Anforderungen geeignete Aktorprinzipe zu wählen. Die Schritte der Aktorauswahl werden hierzu in den Entwicklungsprozess eingeordnet. Dem Entwickler soll die Möglichkeit gegeben werden, geeignete Aktorprinzipe anhand von Möglichkeitsbereichen zu identifizieren bzw. in einem zweiten Schritt, wenn keines möglich erscheint - naheliegende Aktorprinzipe zu betrachten und die Zielkonflikte zwischen den Anforderungen in frühen Phasen des Entwicklungsprozesses zu erkennen. Die hierfür vorgestellten Ansätze und Modelle sind am Beispiel der Aktoren ausgeführt, die Übertragbarkeit auf andere Anwendungsgebiete und Bauelemente wird diskutiert



Terschüren, Anna;
Die Reform der Rundfunkfinanzierung in Deutschland : Analyse der Neuordnung und Entwicklung eines idealtypischen Modells. - Ilmenau : Univ.-Verl. Ilmenau, 2013. - CIX, 294 S.. - (Medienrechtliche Schriften ; 10) : Zugl.: Ilmenau, Techn. Univ., Diss., 2013
ISBN 978-3-86360-062-4
Literaturverz. S. XXVII - LXXIV

In der vorliegenden Arbeit wird die öffentlich-rechtliche Rundfunkfinanzierung in Deutschland unter juristischen und ökonomischen Aspekten analysiert. Hierbei liegt der Fokus auf der Neuordnung der Rundfunkfinanzierung im Jahre 2013, in dem die gerätebezogene Rundfunkgebühr durch den geräteunabhängigen Rundfunkbeitrag abgelöst wurde. Da die Reform wesentliche Schwachpunkte der ehemaligen Rundfunkgebühr nicht lösen konnte und verfassungsrechtliche Verstöße sowie weitere Probleme mit sich brachte, wird in einem zweiten Schwerpunkt der Arbeit ein idealtypisches Modell der Rundfunkfinanzierung entwickelt. Diesem liegen die Prämissen zugrunde, sowohl die Finanzausstattung der Rundfunkanstalten zu gewährleisten, als auch die gerechte Belastung der Abgabepflichtigen sicherzustellen, wobei der europäische und nationale Rechtsrahmen zu wahren sind. Weiterhin wird an verschiedenen Stellen der Arbeit betrachtet, wie die Inhalte der öffentlich-rechtlichen Rundfunkangebote unter verfassungsrechtlichen und volkswirtschaftlichen Gesichtspunkten zu gestalten sind. Bei dieser Dissertation handelt es sich um eine interdisziplinäre Arbeit der Rechts- und Wirtschaftswissenschaften. Neben eingehenden verfassungs- und europarechtlichen Analysen werden zum einen die wirtschaftlichen Auswirkungen ermittelt, die die betrachteten Finanzierungssysteme auf die Rundfunkanstalten, die Abgabepflichtigen und - im idealtypischen Modell - auf den Staat bzw. die Haushalte der Bundesländer haben. Zum anderen werden anhand ökonomischer Kriterien die Aufgaben des öffentlich-rechtlichen Rundfunks als Ausgestaltung der dienenden Rundfunkfreiheit bestimmt.



Müller-Sommer, Hannes;
Wirtschaftliche Generierung von Belieferungssimulationen unter Verwendung rechnerunterstützter Plausibilisierungsmethoden für die Bewertung der Eingangsdaten. - Ilmenau : Univ.-Verl. Ilmenau, 2013. - XVIII, 159 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2012

Das Konzept der Digitalen Fabrik bietet die Möglichkeit, ein Planungssystem mit einer einheitlichen Datengrundlage aufzubauen. Dies schafft die Voraussetzungen, um Belieferungssimulationen mit plausibilisierten Eingangsdaten weitestgehend automatisiert generieren zu können. Die Eingangsdaten sind der Schlüssel zum Erfolg. Nur wer in gewachsenen IT-Landschaften mit unzähligen Schnittstellen Transparenz schaffen kann, weiß, woher welche Daten kommen und wie diese erhoben werden, kann damit auch die Qualität der Eingangsdaten - und dadurch auch die Qualität der Simulationsergebnisse beurteilen. Diese Dissertation möchte einen Beitrag leisten, wie diese Eingangsdaten mit unterschiedlichen, unabhängigen Methoden untersucht werden können. Es sollen nicht nur Fragen zur Vollständigkeit der Eingangsdaten beantwortet werden, sondern vielmehr Antworten gegeben werden, ob die Eingangsdaten korrekt sind. Es wird aufgezeigt, wie diese Methoden im Umfeld der Digitalen Fabrik zentral in einem Simulationsgerüst gebündelt werden können, um eine einheitliche Plattform zur Plausibilisierung zu schaffen. Darauf aufbauend können diese plausibilisierten Daten verwendet werden, um eine Belieferungssimulation aufzubauen. Dies spart nicht nur Zeit, sondern kann auch falsche Schlussfolgerungen auf Basis fehlerhafter Eingangsdaten verhindern.



Lübbers, Benedikt;
AlGaN-based pH-sensors : impedance characterisation, optimisation and application for foetal blood sampling. - Ilmenau : Univ.-Verl. Ilmenau, 2013. - XXVIII, 352 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2012
ISBN 978-3-86360-055-6
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=21442

Die fötale Mikroblutuntersuchung wird zur Überwachung der Sauerstoffversorgung von Föten während der Geburt eingesetzt. Mit herkömmlichen Blutgasanalysatoren kommt es allerdings immer wieder zu Schwierigkeiten da nur sehr geringe Mengen fötalen Blutes (wenige 10 myl) für die Untersuchung zur Verfügung stehen. Ionensensitiven Feldeffekttransistoren (ISFET) bieten durch ihre Miniaturisierbarkeit das Potential das benötigte Volumen wesentlich zu reduzieren. In der vorliegenden Arbeit wird die Grundlage für die Anwendung von Aluminium-Gallium-Nitrid(AlGaN)-basierten ISFETs für die fötale Mikroblutuntersuchung geschaffen. Dazu werden AlGaN/GaN-Heterostrukturen mit Metall- und Elektrolytkontakt impedanzspektroskopisch charakterisiert. Es wird gezeigt, dass das standardmäßig verwendete eindimensionale Ersatzschaltbild die zweidimensionale Verarmungscharakteristik des zweidimensionalen Elektronengases nicht ausreichend genau beschreibt. Daher wird ein erweitertes Ersatzschaltbild unter Verwendung von sogenannten "constant phase elements" hergeleitet und verifiziert. Auf Basis des neuen Ersatzschaltbildes werden Drifteinflüsse charakterisiert sowie die pH-Sensitivität der AlGaN-pH-Sensoren bestimmt. Neben der lichtinduzierten Drift durch persistente Photoleitung, kann auch eine langsame elektrochemische Korrosion des Sensors nachgewiesen werden. Für die Reduzierung der lichtinduzierten Drift wird die kontinuierliche Beleuchtung der Sensoren untersucht und eine deutliche Verkürzung der Driftdauer für rotes Licht festgestellt. Die Vergrößerung der Dicke der GaN-Deckschicht und die Reduzierung des Aluminiumgehalts in der AlGaN Barriereschicht erhöht nachweislich die Korrosionbeständigkeit der Sensoren.Unter Verwendung dieser Optimierungsschritte wird gezeigt, dass eine Genauigkeit von ±0.03pH für die pH-Wert-Bestimmung in verschiedenste wässrige Lösungen sowie für Nabelschnurblut erreicht werden kann. Die erzielten Ergebnisse werden für die Entwicklung eines Mikro-Blut-pH Analysators mit einem Minimal-Probenvolumen von nur 10myl verwendet, der die Genauigkeits- und Präzisionsanforderungen der Richtlinie der Bundesärtzekammer erfüllt. Im Rahmen dieser Arbeit wird damit erstmalig gezeigt, dass AlGaN-basierte pH-Sensoren für die genaue und präzise Bestimmung des pH-Wertes in komplexen biochemischen Flüssigkeiten wie z.B. Nabelschnurblut geeignet sind.



Heßling, Wolfgang von;
Informationseffizienz des Devisenmarktes : eine empirische Untersuchung der hochfrequenten Wechselkursreaktion auf makroökonomische Publikationen. - Ilmenau : Univ.-Verl. Ilmenau, 2013. - XLII, 433 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2013
ISBN 978-3-86360-057-0
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=21591

Der Devisenmarkt gilt als der umsatzstärkste, liquideste und technologisch fortschrittlichste Finanzmarkt weltweit. So zieht der Handel mit Fremdwährungen eine große Vielzahl an hochprofessionellen Marktteilnehmern an, die unter Einsatz von modernen elektronischen Kommunikationsmitteln in kürzester Zeit auf Änderungen der Marktdaten reagieren können. Die vorliegende Monographie fokussiert auf die Frage, ob dies im Hinblick auf neu publizierte makroökonomische Informationen tatsächlich der Fall ist, indem die ultrahochfrequente Reaktion der wichtigsten Wechselkurse des US-Dollar im Sekundenbereich analysiert wird. Dazu erfolgt zunächst eine umfassende Darstellung der Funktionsweise des Devisenmarktes und der Prinzipien der Wechselkursbildung. Weitere inhaltliche Schwerpunkte betreffen die Informationsverarbeitung an Finanzmärkten, das Konzept der Informationseffizienz sowie die Ereignisstudienmethodik. Die Ergebnisse der empirischen Untersuchung ergänzen die bisherigen Erkenntnisse zu News-Effekten auf Devisenmärkten, und werfen erstmals ein Licht auf die Einpreisung von neuen Informationen im Sekundenbereich.



Dobermann, Dirk;
Stabilisierung der Bildlage abbildener optischer Systeme. - Ilmenau : Univ.-Verl. Ilmenau, 2013. - LXVI, 120 S.. - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; 21) : Zugl.: Ilmenau, Techn. Univ., Diss., 2012
ISBN 978-3-86360-056-3
Enth. außerdem: Thesen

In der vorliegenden Arbeit werden Möglichkeiten für die Stabilisierung der Bildlage handgeführter terrestrischer Doppelfernrohre erläutert. Bevor die Erstellung eines Lösungskonzeptes erfolgt, werden wesentliche Kriterien bestimmt, die für die Auslegung der Bildstabilisierung von Bedeutung sind. Hierfür wird das Frequenzspektrum der Bewegungsunruhe bei Freihandbeobachtung für eine Probandengruppe analysiert, die sich aus Personen unterschiedlichen Alters und Geschlechts zusammensetzt. In einem weiteren Schritt wird eine Auswahl der zur Kompensation der Bewegungsunruhe (Störgröße) verwendeten Optik sowie deren Bewegungsfreiheitsgrade, bezogen auf die Ziellinie, getroffen. Dabei wird das Ziel verfolgt, die durch die Bildstabilisierung verursachten Abbildungsfehler gering zu halten. Auf Basis der erarbeiteten Kriterien werden potentielle Lösungswege für eine passive und aktive Bildstabilisierung sowie die Kombination aus beiden, die als hybride Stabilisierung bezeichnet werden kann, untersucht. Alle Lösungen besitzen eine Knickbrücke, welche die Gehäusehälften zur Anpassung an den Augenabstand des Beobachters drehbar miteinander verbindet. Diese Bauform ist für Doppelfernrohre üblich, jedoch für Doppelfernrohre mit Bildstabilisation bisher nicht umgesetzt. Für die Realisierung der Stabilisierungsfunktion werden bestehende Lösungen geprüft, erweitert und mit neuen Ansätzen kombiniert. Das Vorgehen wird stellvertretend am Beispiel der optischen Komponenten des Doppelfernrohres Zeiss Conquest 15x45 BT* erläutert. Diesem liegen die angestellten Berechnungen und Simulationen sowie die konstruktiven Gestaltungsvorschläge zugrunde. Das Hauptaugenmerk der Betrachtungen liegt auf der passiven Bildstabilisierung, die eine Trägheitsstabilisierung darstellt. Hierfür wird ein analytisches Modell erstellt, welches das Schwingungsverhalten durch einen fremderregten gedämpften Einmassenschwinger beschreibt. Die Anregung erfolgt dabei über eine Fußpunktbewegung, die gleichzeitig über Drehfeder und Dämpfer eingeleitet wird. Eine Bedämpfung des mechanischen Schwingers erfolgt durch eine Wirbelstromdämpfung, die eine Form der viskosen Dämpfung darstellt. Die theoretischen Annahmen werden anhand von Experimenten überprüft, in deren Ergebnis die Richtigkeit der Hypothesen nachgewiesen werden konnte. Eine genaue Vorhersage des Schwingungsverhaltens ist durch Einführen von Korrekturkoeffizienten möglich. Das gefundene "reale Schwingermodell" vereinfacht und verkürzt die Entwicklung zukünftiger Systeme zur Stabilisierung der Bildlage. Des Weiteren wird auf eine Anpassung der Stabilisierungseinrichtung eingegangen, die es ermöglicht, das Verhalten an die Beobachtungssituation anzupassen. Somit ist es denkbar, die Bildstabilisierung bei einer Nachführbewegung zur Objektverfolgung zu unterdrücken. Umfassende Überlegungen werden zur prinzipiellen Anordnung der Stabilisatorbaugruppe und zu deren fehlerarmer Montage und Justage angestellt. Für die Umsetzung in einem Funktionsdemonstrator wird die Ausführungsform des Duostabilisators gewählt, bei dem zwei voneinander unabhängige identische Stabilisatorbaugruppen in einem Fernrohrgehäuse erbaut sind. Dabei kann ein synchrones Schwingungsverhalten beider Stabilisatorbaugruppen nachgewiesen werden, wodurch sich ein geringer dynamischer binokularer Gerätefehler einstellt. Die bestehenden Erfahrungen im Fernrohrbau werden mit den neu gewonnenen Erkenntnissen dieser Arbeit kombiniert und fließen in die Entwicklung eines Konzeptes für ein die Bildlage stabilisierendes Doppelfernrohr mit klassischer Knickbrücke ein. Das Grundkonzept lässt sich sowohl auf eine passive wie auch eine aktive Bildstabilisierung übertragen und ermöglicht eine wirtschaftliche und zielgerichtete Entwicklung zukünftiger Produkte mit vorhersagbaren Resultaten. Aus dem vorgestellten Konzept gehen Richtlinien für die Konstruktion hervor, die auf ähnlich gelagerte Anwendungen, wie beispielsweise die Schwingungsdämpfung taktiler Messköpfe, übertragen werden können. Infolgedessen ist der Wissenszuwachs in weiteren technischen Gebieten nutzbar.



Maus, Horst-Moritz;
Towards understanding human locomotion. - Ilmenau : Univ.-Verl. Ilmenau, 2013. - 159 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2012

Die zentrale Frage, die in der vorliegenden Arbeit untersucht wurde, ist, wie man die komplizierte Dynamik des menschlichen Laufens besser verstehen kann. In der wissenschaftlichen Literatur werden zur Beschreibung von Laufbewegungen (Gehen und Rennen) oftmals minimalistische "Template"-Modelle verwendet. Diese sehr einfachen Modelle beschreiben nur einen ausgewählten Teil der Dynamik, meistens die Schwerpunktsbahn. In dieser Arbeit wird nun versucht, mittels Template-Modellen das Verständnis des Laufens voranzubringen. Die Analyse der Schwerpunktsbewegung durch Template-Modelle setzt eine präzise Bestimmung der Schwerpunktsbahn im Experiment voraus. Hier für wird in Kapitel 2.3 eine neue Methode vorgestellt, welche besonders robust gegen die typischen Messfehler bei Laufexperimenten ist. Die am häufigsten verwendeten Template-Modelle sind das Masse-Feder-Modell und das inverse Pendel, welche zur Beschreibung der Körperschwerpunktsbewegung gedacht sind und das Drehmoment um den Schwerpunkt vernachlässigen. Zur Beschreibung der Stabilisierung der Körperhaltung (und damit der Drehimpulsbilanz) wird in Abschnitt 3.3 das Template-Modell "virtuelles Pendel" für das menschliche Gehen eingeführt und mit experimentellen Daten verglichen. Die Diskussion möglicher Realisierungsmechanismen legt dabei nahe, dass die Aufrichtung des menschlichen Gangs im Laufe der Evolution keine große mechanische Hürde war. In der Literatur wird oft versucht, Eigenschaften der Bewegung wie Stabilität durch Eigenschaften der Template-Modelle zu erklären. Dies wird in modifizierter Form auch in der vorliegenden Arbeit getan. Hierzu wird zunächst eine experimentell bestimmte Schwerpunktsbewegung auf das Masse-Feder-Modell übertragen. Anschließend wird die Kontrollvorschrift der Schritt-zu-Schritt-Anpassung der Modellparameter identifiziert sowie eine geeignete Näherung angegeben, um die Stabilität des Modells, welches mit dieser Kontrollvorschrift ausgestattet wird, zu analysieren. Der Vergleich mit einer direkten Bestimmung der Stabilität aus einem Floquet-Modell zeigt qualitativ gute Übereinstimmung. Beide Ansätze führen auf das Ergebnis, dass beim langsamen menschlichen Rennen Störungen innerhalb von zwei Schritten weitgehend abgebaut werden. Zusammenfassend wurde gezeigt, wie Template-Modelle zum Verständnis der Laufbewegung beitragen können. Gerade die Identifikation der individuellen Kontrollvorschrift auf der Abstraktionsebene des Masse-Feder-Modells erlaubt zukünftig neue Wege, aktive Prothesen oder Orthesen in menschenähnlicher Weise zu steuern und ebnet den Weg, menschliches Rennen auf Roboter zu übertragen.



Schwerdfeger, Robert;
Entwurf eines Betriebsführungsverfahrens für Mittel- und Niederspannungsnetze unter Berücksichtigung von bidirektionalem vertikalem Leistungsfluss. - Ilmenau : Univ.-Verl. Ilmenau. - XLIII, 90 S.. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik ; 4) : Zugl.: Ilmenau, Techn. Univ., Masterarbeit, 2012
ISBN 978-3-86360-046-4

Globale Trends zeigen eine weltweit wachsende Energienachfrage und immer knapper werdende fossile Ressourcen. Damit auch zukünftig eine sichere und zuverlässige elektrische Energieversorgung gewährleistet werden kann, gewinnt der Aspekt einer nachhaltigen elektrischen Energieerzeugung immer mehr an Bedeutung. Dieser Herausforderung wird mit einem stetig steigenden Anteil Erneuerbarer Energien begegnet. Infolgedessen verlagert sich speziell in Deutschland, durch der Abschaltung konventioneller Kraftwerke, ein zunehmender Teil der Stromerzeugung in die Mittel- und Niederspannungsebenen. Die daraus folgend zunehmende Bedeutung der Verteilnetze an der Energieversorgung bedarf einer Umstrukturierung der Netzbetriebsführung. Eine mögliche Lösung bildet das in dieser Arbeit entworfene Betriebsführungsverfahren, dessen Fokus, aufgrund zeitweise benötigter Rückspeisungen in die Hochspannungsebene, auf dem bidirektionalen, vertikalen Leistungsfluss zwischen der 20-kV- und 110-kV-Spannungsebene liegt. Dabei werden unter anderem Konzepte zur Regelung und Steuerung von Speichern und elektrischen Energieerzeugungsanagen vorgestellt. Anhand von numerischen Fallstudien konnte nachgewiesen werden, dass das entworfene Betriebsführungsverfahren vordefinierte Leistungsflüsse zwischen der 20-kV- und 110-kV-Spannungsebene realisieren kann, ohne dabei netzkritische Zustände zu erzeugen.



Harzer, Alexandra;
Erfolgsfaktoren im Crowdfunding. - Ilmenau : Universitätsverl. Ilmenau. - 173 S.. - (Menschen, Märkte, Medien, Management : Schriftenreihe ; 7) : Teilw. zugl.: Ilmenau, Techn. Univ., Diplomarbeit, 2012 u.d.T.: Harzer, Alexandra: Crowdfunding als alternative Finanzierungsmethode kultureller und kreativer Projekte - eine empirische Untersuchung über die Erfolgsfaktoren kreativer Crowdfunding Projekte auf Basis internationaler Vergleiche
ISBN 978-3-86360-039-6
Literaturverz. S. 129 - 146

Das Finanzierungsmodell Crowdfunding, zu Deutsch Schwarmfinanzierung, ermöglicht es Künstlern und Kreativen ihre Vorhaben, Ideen und klar definierten Projekte mit Hilfe Dritter, wie beispielsweise Fans, Freunden und Firmen, zu finanzieren. Ziel der vorliegenden Studie ist es, Faktoren für den erfolgreichen Abschluss eines kulturellen und kreativen Crowdfunding-Projektes zu identifizieren und diese anhand qualitativer und quantitativer Untersuchungen zu belegen. Dazu werden unter anderem die Kulturfinanzierungssysteme in Deutschland und den Vereinigten Staaten umfangreich betrachtet und die für das Crowdfunding relevanten Grundlagen des Web 2.0 dargestellt. Ferner wird eine Crowdfunding-Kampagne strukturell aufbereitet und Faktoren, die den Erfolg eines Projektes beeinflussen, werden hervorgehoben. Abschließend werden diese im Rahmen von empirischen Untersuchungen auf ihre Bedeutung und Relevanz hin überprüft.



Westermann, Dirk; Döring, Nicola; Bretschneider, Peter
Smart Metering : zwischen technischer Herausforderung und gesellschaftlicher Akzeptanz - interdisziplinärer Status Quo. - Ilmenau : Univ.-Verl. Ilmenau, 2013. - 237 S.. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik ; Bd. 5) ISBN 978-3-86360-050-1
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=21399

Die Energiewende, also die Umstellung der elektrischen Energieversorgung auf überwiegend regenerative Energieerzeugungsanlagen, erfordert grundsätzliche und umfangreiche Änderungen im Versorgungssystem. Ein Baustein stellt die aktive Involvierung der privaten Endverbraucher dar, die mittels Smart-Metering-Technologie eine neue Schnittstelle zum Versorgungssystem erhalten. Das Forschungsprojekt RESIDENS (effizienteRe Energienutzung durch Systemtechnische Integration Des privaten ENdabnehmerS) ist eine Kooperation zwischen Ingenieuren und Sozialwissenschaftlern aus Ilmenau und Jena und untersucht die Potentiale von Smart Metering aus Netz- und Kundenperspektive. In dieser Publikation werden die technischen, juristischen und sozialwissenschaftlichen Ergebnisse des Projekts, als auch praktische Erfahrungen, die mit der Anwendung der Technik im Zusammenhang stehen, erläutert.



Brähler, Gernot; Trost, Ralf
Besteuerung, Finanzierung und Unternehmensnachfolge in kleinen und mittleren Unternehmen. - Ilmenau : Universitätsverlag Ilmenau, 2012. - VIII, 489 Seiten ISBN 978-3-86360-027-3
Enthält 17 Beiträge

Der Mittelstand wird gemeinhin als Rückgrat der deutschen Wirtschaft bezeichnet. Aufgrund der spezifischen Strukturen kleiner und mittlerer Unternehmen werden diese von der Dynamik ihres wirtschaftlichen Umfelds immer wieder vor neue Herausforderungen gestellt. Wesentliche Problemfelder stellen hier die Besteuerung, Finanzierung und Unternehmensnachfolge dar. Zu diesen Themenbereichen enthält das Werk daher wissenschaftlich fundierte sowie praxisorientierte Beiträge: - Im Bereich der Besteuerung werden speziell für KMU bestehende steuerliche Gestaltungsspielräume aufgedeckt und Handlungsempfehlungen zur Steueroptimierung gegeben. - Im Bereich der Finanzierung werden die erhöhten Anforderungen an das Finanzmanagement ebenso wie alternative Finanzierungsmöglichkeiten diskutiert und Lösungsvorschläge erarbeitet. - Im Bereich der Unternehmensnachfolge werden sowohl die Gestaltungsmöglichkeiten des Übergangsprozesses als auch aktuelle Ansätze der Unternehmensbewertung vorgestellt. Das Buch richtet sich an Dozenten und Studenten mit den Schwerpunkten Steuern, Finanzierung und Unternehmensnachfolge sowie an unternehmerische Entscheidungsträger.



Junghähnel, Manuela;
Herstellung und Charakterisierung von transparenten, elektrisch leitfähigen TiO2:Nb-Dünnschichten durch Gleichstrom- und Puls-Magnetron-Sputtern. - Ilmenau : Univ.-Verl. Ilmenau, 2012. - XIV, 158, IV S.. - (Werkstofftechnik aktuell ; Bd. 6) : Zugl.: Ilmenau, Techn. Univ., Diss., 2011
ISBN 978-3-86360-017-4
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=19654

Die vorliegende Dissertation befasst sich mit der Abscheidung von neuartigen transparenten leitfähigen Niob-dotierten Titanoxidschichten TiO2:Nb auf großen Flächen durch Magnetron-Sputtern. Schwerpunkt der Arbeit war die Untersuchung der optischen und elektrischen Eigenschaften von TiO2:Nb sowie der Struktur in Abhängigkeit von den Bedingungen bei der Schichtabscheidung und einer anschließenden thermischen Behandlung. Durch Gleichstrom- und Puls-Magnetron-Sputtern von oxidischen Targets und einer anschließenden thermischen Behandlung bei 450&ring;C im Hochvakuum wurden auf eine Fläche von (300 x 300) mm 2 transparente leitfähige TiO2:Nb-Schichten mit einem spezifischen elektrischen Widerstand im Bereich (7 ... 9) x 10-4 Ohm*cm und einem Extinktionskoeffizienten bei 550 nm von 0,02 abgeschieden. Die Eigenschaften der Schichten sind stark abhängig von ihrem Gefüge. TiO2:Nb in der Anatas-Modifikation zeigt gute elektrische Leitfähigkeit. Freie Ladungsträger werden durch fünfwertige Nb-Ionen erzeugt, die sich auf einem regulären Ti-Gitterplatz befinden. Die Ladungsträgerkonzentration steigt mit steigender Zahl der substituierten Ionen. Die Korngrenzen bestimmen und begrenzen die Beweglichkeit der Ladungsträger. Transparentes leitfähiges TiO2:Nb zeichnet sich durch einen hohen Brechungsindex von ca. 2,5 bei 550 nm aus und ist besonders chemisch beständig. Die Beschichtungen und ein Großteil der Untersuchungen wurden am Fraunhofer-Institut für Elektronenstrahl- und Plasmatechnik Dresden im Rahmen des Projektes "Plaspro" durchgeführt, welches von der Europäischen Union und dem Freistaat Sachsen gefördert wurde (Fördernummer 12896/2155).



&hacek;Duriš, Rastislav; Murín, Justín
A solution for 1D non-linear problems for finite elements with full stiffness matrices. - Ilmenau : Univ.-Verl. Ilmenau. - 126 S.. - (Scientific monographs in automation and computer science ; 9) : Teilw. zugl.: Trnava, Univ., Diss.
ISBN 978-3-86360-053-2
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=21421

Structural analysis of structural parts with stiffness variation can be difficult. The stiffness variation of elements can be modelled by average values of cross-sectional and material parameters and applying the fine FE mesh. For elimination of mentioned disadvantages of classical finite element applications, a two-node nonlinear bar element with the continuous longitudinal variation of stiffness was developed in the first part of the monography. The stiffness matrices of the bar element were derived using full geometric nonlinear nonincremental formulation of equilibrium equations without any linearization. In the second part, the stiffness matrices of geometrically nonlinear beam finite element were derived using full nonlinear nonincremental formulation. The matrices of two-node plane beam element with symmetric cross-section and constant stiffness were formulated. The accuracy of new nonlinear elements were compared and assessed by numerical experiments against ANSYS analyses.



Moravčík, Oliver; Vrban, Anton
Analysis of dynamic system properties. - Ilmenau : Univ.-Verl. Ilmenau. - 142 S.. - (Scientific monographs in automation and computer science ; 8) ISBN 978-3-86360-051-8
Literaturverz. S. 139 - 140

This publication deals with the sensitivity, tolerance and robustness of dynamic systems. It brings general approach to solve specific issues in the field of presented topic. This approach is unusual, as it does not consist of partial solutions and summarization of knowledge, but it offers new methodology for problem solving, which is targeted to the nature of the problem. The methodology is designed to be well applicable. The textbook is useful for studying topics related to sensitivity, tolerance and robustness in dynamic systems. It can be also used by the designers of various complex dynamic systems and also as the stimulus for further theoretical, algorithmic and software supported development in the field of presented topic.



Halenár, Igor;
Using neural networks for detection of anomalous traffic in automation networks. - Ilmenau : Univ.-Verl. Ilmenau. - 89 S.. - (Scientific monographs in automation and computer science ; 7) : Teilw. zugl.: Trnava, Slovak Univ. of Technology Bratislava, Diss., 2010 (in Slowakisch)
ISBN 978-3-86360-049-5
Literaturverz. S. 80 - 87

Opening of local communication means of technological devices towards networks available to public, supervision of devices, and remote technological devices administration are the characteristics of modern automation. As a result of this process the intrusion of unwanted elements from the Internet to control networks is seen. Therefore, in communication and control networks we have to build in active means to ensure the access to individual technological process components. The contribution is focused on the insurance of control systems data communication via neural networks technologies in connection with classical methods used in expert systems. The solution proposed defines the way of data elements identification in transfer network, solves the transformation of their parameters for neural network input and defines the type and architecture of a suitable neural network. This is supported by the experiments with various architecture types and neural networks activation functions and followed by subsequent real environment tests. A functional system proposal with possible practical application is the result.



Kebísek, Michal;
Data mining in the industry. - Ilmenau : Univ.-Verl. Ilmenau. - 104 S.. - (Scientific monographs in automation and computer science ; 6) : Teilw. zugl.: Trnava, Univ., Diss.
ISBN 978-3-86360-048-8
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=21240

The monograph proposes a suitable process application for a knowledge discovery process in industry databases. The entire process was divided into distinct stages. First, the subject matter to be resolved by employing the knowledge discovery process was identified. Next, the data of the production system was analysed. Several mining models, in which various methods and techniques of data mining in dependence on analyzed data and subject matter investigated, were developed. In order to examine how interesting and useful the knowledge discovered was, it was applied to a production system, whose data operated as input data to the process of KDD. The results achieved proved that the knowledge discovered was useful and a modified simulation model achieved the predicted behaviour. Finally, the proposal of the process application methodology of knowledge discovery in industry databases is discussed. This methodology describes the particular steps of implementing the process of KDD. The proposed methodology can help identify specific requirements and potential problems in the process stages that might be encountered in the course of its application in the industry.



Bezák, Pavol;
Using motion planning and genetic algorithms in movement optimization of industrial robots. - Ilmenau : Univ.-Verl. Ilmenau. - 92 S.. - (Scientific monographs in automation and computer science ; 5) : Teilw. zugl.: Trnava, Univ., Diss.
ISBN 978-3-86360-047-1
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=21239

The issues of path and trajectory planning algorithms and optimization of industrial manipulator trajectory generation are still not completely solved due to their variability and increasing complexity with the growing number of robot degrees of freedom. Generation of an optimal trajectory can be solved in several ways, such as traditional numeric and more recent approaches, which include evolutionary algorithms and genetic algorithms within them. The first chapter is devoted to a brief overview of path planning methods, especially in mobile robots. The second chapter deals with a more detailed overview of robot path planning methods in continuous and discrete environments. The third chapter describes the most popular motion planning algorithms. The fourth chapter is dedicated to genetic algorithms which we used as an optimization method. The fifth chapter focuses on optimal robot motion control and optimization methods using genetic algorithms as the method for an industrial manipulator control. The next chapter contains a solution and its implementation in support software, as well as the experimental verification of the results. The last chapter evaluates the results and their benefits.



Einecke, Nils;
Stereoscopic depth estimation for online vision systems. - Ilmenau : Univ.-Verl. Ilmenau, 2012. - XIII, 161 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2012

Die visuelle Wahrnehmung des Menschen wird in hohem Maße vom stereoskopischen Sehen beeinflusst. Die dreidimensionale Wahrnehmung entsteht dabei durch die leicht unterschiedlichen Blickwinkel der beiden Augen. Es ist eine nahe liegende Annahme, dass maschinelle Sehsysteme ebenfalls von einem vergleichbaren Sinn profitieren können. Obwohl es bereits zahlreiche Arbeiten auf dem Gebiet des maschinellen stereoskopischen Sehen gibt, erfüllen die heutigen Algorithmen entweder nicht die Anforderungen für eine effiziente Berechnung oder aber sie haben nur eine geringe Genauigkeit und Robustheit. Das Ziel dieser Doktorarbeit ist die Entwicklung von echtzeit- und realweltfähigen stereoskopischen Algorithmen. Insbesondere soll die Berechnung der Algorithmen leichtgewichtig genug sein, um auf mobilen Plattformen eingesetzt werden zu können. Dazu werden im Rahmen dieser Arbeit zwei neue Methoden vorgestellt, welche sich durch eine gute Balance zwischen Geschwindigkeit und Genauigkeit auszeichnen. Als erstes wird die "Summed Normalized Cross-Correlation" (SNCC) vorgestellt, eine neue Kostenfunktion für blockvergleichende,stereoskopische Tiefenschätzung. Im Unterschied zu den meisten anderen Kostenfunktionen ist SNCC nicht anfällig für den qualitätsmindernden "Fattening"-Effekt, kann aber trotzdem sehr effizient berechnet werden. Die Auswertung der Genauigkeit auf Standard Benchmark-Tests zeigt, dass mit SNCC die Genauigkeit von lokaler,blockvergleichsbasierter, stereoskopischer Berechnung nahe an die Genauigkeit von global optimierenden Methoden basierend auf "Graph Cut" oder "Belief Propagation" heran kommt. Die zweite vorgestellte Methode ist das "Direct Surface Fitting", ein neuerAlgorithmus zum Schätzen parametrischer Oberflächenmodelle an Hand von Stereobildern. Dieser Algorithmus ist inspiriert vom Homographie-beschränkten Gradientenabstieg, welcher häufig dazu benutzt wird um die Lage von planaren Oberflächen im Raum zu schätzen. Durch die Ersetzung des Gradientenabstiegs mit der direkten Suchmethodik von Hooke und Jeeves wird die planare Schätzung auf beliebige parametrische Oberflächenmodelle und beliebige Kostenfunktionen erweitert. Ein Vergleich auf Standard Benchmark-Tests zeigt, dass "Direct Surface Fitting" eine vergleichbare Genauigkeit wie Methoden aus dem Stand der Technik hat, im Gegensatz zu diesen aber höhere Robustheit in anspruchsvollen Situationen besitzt. Um die Realwelttauglichkeit und Effizienz der vorgestellten Methoden zu untermauern wurden diese in ein Automobil- und in ein Robotersystem integriert. Die mit diesen mobilen Systemen durchgeführten Experimente demonstrieren die hohe Robustheit und Stabilität der eingeführten Methoden.



Weißenbach, Andreas;
Verbundinstandhaltung bei Kleinstunternehmen, kleinen und mittleren Unternehmen (KMU) : ein Konzept für neue Organisationsformen der Instandhaltung. - Ilmenau : Univ.-Verl. Ilmenau, 2012. - XXII, 273 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2012

Die betriebliche Instandhaltung ist für die Sicherstellung einer betriebsspezifisch erforderlichen Verfügbarkeit und zuverlässigen Funktions- und Leistungsfähigkeit von technischen Einheiten verantwortlich. Nicht alle Unternehmen erkennen diesen Zusammenhang. Vor allem bei Kleinstunternehmen, kleinen und mittleren Unternehmen (KMU) wird der betrieblichen Instandhaltung häufig nur wenig Beachtung geschenkt. Eine Vernachlässigung der technischen Einheiten wird in Kauf genommen, wodurch sich die KMU gegenüber großen Unternehmen in eine nachteilige Lage bringen. Andreas Weißenbach erörtert diese Problematik und leitet aus der Betrachtung organisatorischer-struktureller Aspekte neue Formen der partnerschaftlichen Zusammenarbeit im Bereich der betrieblichen Instandhaltung bei KMU ab. Davon induziert, entwickelt er einen möglichen Lösungsansatz. Eine "horizontale Instandhaltungskooperation" zur Leistungsbündelung von Instandhaltungsressourcen in einem Verbund von Unternehmen beinhaltet im Vergleich zu den bislang üblichen Vorgehensweisen der Eigen- und Fremdinstandhaltung große Potenziale für KMU. Anhand von praxisrelevanten Fallbeispielen sowie mittels Simulationen unterschiedlicher Szenarien der geplanten und ungeplanten Instandhaltung weist er dies eindrucksvoll nach - die Ergebnisse sind eindeutig. Die Verbundinstandhaltung im Rahmen einer horizontalen Instandhaltungskooperation von Unternehmen eröffnet für die betriebliche Instandhaltung bei KMU ganz neue Möglichkeiten. Sie ist ein wichtiger Schritt auf dem Weg hin zu einem verantwortungsvollen und professionellen Instandhaltungsmanagement.



Zentner, Lena
Mechanismentechnik in Ilmenau, Budapest und Niš : Technische Universität Ilmenau, 29.-31. August 2012. - Ilmenau : Universitätsverlag Ilmenau, 2012. - 144 Seiten. - (Berichte der Ilmenauer Mechanismentechnik ; Band 1) ISBN 978-3-86360-034-1
Literaturangaben

In diesem Band sind Beiträge des Workshops "Mechanismentechnik in Ilmenau, Budapest und Niš 2012" zusammengestellt. Diese spiegeln gemeinsame Arbeiten der drei Universitäten - Technische Universität Ilmenau, Universität Budapest (Budapest University of Technology and Economics) und Universität Niš (University of Niš) - wider. Der Inhalt des Bandes ist in drei Abschnitte aufgeteilt. Im ersten Abschnitt handelt es sich um Beiträge über die Entwicklung und Untersuchung nachgiebiger Mechanismen mit Anwendung in der Ventiltechnik sowie Mechanismen mit stoffschlüssigen Gelenken für spezielle Anforderungen. Nachgiebige Sensoren und Aktuatoren für die Greifer- und Robotertechnik werden im zweiten Abschnitt vorgestellt. Abschließend wird die Problematik der Materialcharakterisierung und von neuen Simulationsmethoden nachgiebiger Mechanismen diskutiert.



Schaffernicht, Erik;
Lernbeiträge im Rahmen einer kognitiven Architektur für die intelligente Prozessführung. - Ilmenau : Univ.-Verl. Ilmenau, 2012. - VIII, 296 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2012
ISBN 978-3-86360-043-3
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

In dieser Arbeit werden wichtige Aspekte einer kognitiven Architektur für das Erlernen von Regelungsaufgaben beleuchtet. Dabei geht es primär um die Merkmalsextraktion, das Reinforcement Learning und das Lernmanagement im Rahmen des Wahrnehmungs-Handlungs-Zyklus. Für die Merkmalsextraktion werden dabei mit Hilfe informationstheoretischer Größen, wie der Transinformation, neue hybride Merkmalsextraktionsverfahren vorgestellt. Neuartig ist dabei der Ansatz, Merkmale zu suchen, die explizit mit den gemachten Fehlern eines lernenden Systems verknüpft sind. Es wird gezeigt, dass diese residuumsbasierten Ansätze klassischen Methoden überlegen sind. Es wird ebenfalls untersucht, welche Schätzverfahren für die Bestimmung der Transinformation im Sinne der Merkmalsextraktion geeignet sind. Als Entscheidungsinstanz der Gesamtarchitektur werden aktuelle Reinforcement Learning Verfahren auf ihre Eignung für komplexe Anwendungen hin untersucht. Dabei wird auch auf Probleme des Lernmanagements, wie das Explorations-Exploitations-Dilemma, das Stabilitäts-Plastizitäts-Dilemma und das Rewarddekompositionsproblem eingegangen. Neue Beiträge werden dabei in Form des Diffusionsbaumbasiertes Reinforcement Learning und des SMILE-Algorithmus geliefert. Ebenso wird eine Architekturerweiterung zum Organisieren der Lernprozesse vorgeschlagen, welche im Kern um eine Prozesskarte angeordnet ist. Der experimentelle Nachweis, dass das vorgestellte System die Lösung für reale Probleme erlernen kann, wird am herausfordernden Szenarioder intelligenten Feuerungsführung erbracht. Dabei wird das Gesamtsystem zur Regelung eines mit Steinkohle gefeuerten Kraftwerks eingesetzt, wobei Ergebnisse erzielt werden, die bisher existierende Systeme und auch menschliche Experten übertreffen.



Marten, Anne-Katrin;
Integration der Betriebsführung eines HGÜ-Overlay-Netzes in die Leitungs-Frequenz-Regelung eines Drehstrom-Verbundnetzes. - Ilmenau : Univ.-Verl. Ilmenau. - XXXIII, 82 S.. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik ; 3) : Zugl.: Ilmenau, Techn. Univ., Masterarbeit, 2011
ISBN 978-3-86360-038-9
Parallel als Online -Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=20858

Der Anteil Erneuerbarer Energien in Deutschland und in Europa allgemein nimmt signifikant zu, um so den Ausstoß von Kohlenstoffdioxid zu senken. Die Errichtung eines Großteils derartiger Erzeugungsanlagen kann aufgrund von klimatischen Gegebenheiten nur an wenigen Orten erfolgen, die Lasten bleiben weiterhin dezentral verteilt und konventionelle Kraftwerke werden sukzessive abgeschaltet. Daher wird ein durchgängig automatisiertes und leistungsfähiges Elektroenergieübertragungsnetz zum Langstreckentransport großer Energiemengen unverzichtbar. Eine mögliche Lösung dieser Herausforderung ist ein europaweit vermaschtes Overlay-Netz. Dieses kann auf der HGÜ-Technologie basieren und verbindet Regionen großer Einspeisung aus regenerativen Quellen mit Lastzentren. Aufgrund seiner technologischen Eigenschaften gegenüber einem AC-Netz muss ein HGÜ-Overlay-Netz Systemdienstleistungen wie die Leistungs-Frequenz-Regelung aktiv unterstützen, damit die Systemstabilität und Versorgungssicherheit ebenso sichergestellt werden können, wie mit dem heutigen auf allen Netzebenen realisierten AC-Netz. In dieser Arbeit wird ein neuartiges Verfahren für die Beteiligung eines HGÜ-Overlay-Netzes am Regelleistungstransport entwickelt. Gleichzeitig realisiert diese Betriebsführung auch die anteilige Übernahme anderweitig hervorgerufener Leistungsflüsse z.B. durch Energiehandelsgeschäfte. Numerische Fallstudien zeigen einige Vorteile dieses Verfahrens bei unterschiedlichen Störungen des AC-DC-Übertragungsnetzes auf. Es wird gezeigt, dass ein HGÜ-Overlay-Netz mit der entwickelten Betriebsführung das AC-Netz um einen einstellbaren Anteil der Leistungsflüsse entlastet und die Leitungs-Frequenz-Regelung z.B. im Hinblick auf Schnelligkeit und Frequenzabweichungen verbessert.



Hecht, Kerstin;
Entwicklung eines Laserstrahlpolierverfahrens für Quarzglasoberflächen. - Ilmenau : Univ.-Verl. Ilmenau, 2012. - 200 S.. - (Werkstofftechnik aktuell ; 8) : Zugl.: Ilmenau, Techn. Univ., Diss., 2012
ISBN 978-3-86360-041-9
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=20857

Ziel der Laserstrahlpolitur ist die schnelle, gleichmäßige, formerhaltende Glättung des Rauheitsprofils einer Quarzglasoberfläche. Der Laser wirkt dabei geometrieunabhängig, in der Art eines schnellen Subaperturwerkzeuges. Verschieden spanend bearbeitet Proben werden mittels Laserstrahlung poliert, wobei die Prozesseinflussgrößen, die Wechselwirkungen zwischen Laserstrahlung und Quarzglas sowie die Auswertung der Ergebnisse hinsichtlich Oberflächenqualität und Beeinflussung von Spannungen bzw. mechanischen Eigenschaften, die Untersuchungen und die Entwicklung eines industriell einsetzbaren Laserstrahlpolierverfahrens unterstützen. Experimentplanung, -durchführung und -auswertung erfolgen unter Anwendung statistischer Methoden. Die Temperatur wird während der Politur mit Pyrometer und Wärmebildkamera überwacht. Die Einsatzgebiete des Verfahrens liegen u.a. beim Polieren von 2D- und 2D Bauteilen, Werkzeugformeinsätzen (Kunststoffverarbeitung) und in Teilbereichen optischer Komponenten.



Großmann, Marcus;
Transmission strategies for broadband wireless systems with MMSE turbo equalization. - Ilmenau : Univ.-Verl. Ilmenau, 2012. - XIII, 228 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2012
ISBN 978-3-86360-040-2
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=20875

Die vorliegende Arbeit beschäftigt sich mit dem Entwurf und der Analyse von effizienten Übertragungskonzepten für drahtlose, breitbandige Einträger-Kommunikationssysteme mit iterativer (Turbo-) Entzerrung und Kanaldekodierung. Dies beinhaltet einerseits die Entwicklung von empfängerseitigen Frequenzbereichsentzerrern mit geringer Komplexität basierend auf dem Prinzip der Soft Interference Cancellation Minimum-MeanSquared-Error (SC-MMSE) Filterung und andererseits den Entwurf von senderseitigen Algorithmen, die durch Ausnutzung von Kanalzustandsinformationen die Bandbreiten- und Leistungseffizienz in Ein-und Mehrnutzersystemen mit Mehrfachantennen (sog. Multiple-InputMultiple-Output (MIMO) verbessern. Im ersten Teil dieser Arbeit wird ein allgemeiner Ansatz für Verfahren zur Turbo-Entzerrung nach dem Prinzip der linearen MMSE-Schätzung, der nichtlinearen MMSE-Schätzung sowie der kombinierten MMSE- und Maximum-a-Posteriori (MAP)-Schätzung vorgestellt. In diesem Zusammenhang werden zwei neue Empfängerkonzepte, die eine Steigerung der Leistungsfähigkeit und Verbesserung der Konvergenz in Bezug auf existierende SC-MMSE Turbo-Entzerrer in verschiedenen Kanalumgebungenerzielen, eingeführt. Der erste Empfänger - PDA SC-MMSE - stellt eine Kombination aus dem Probabilistic-Data-Association (PDA) Ansatz und dem bekannten SC-MMSE Entzerrer dar. Im Gegensatz zum SC-MMSE nutzt der PDASC-MMSE eine interne Entscheidungsrückführung, so dass zur Unterdrückung von Interferenzen neben den a priori Informationen der Kanaldekodierungauch weiche Entscheidungen der vorherigen Detektionsschritteberücksichtigt werden. Durch die zusätzlich interne Entscheidungsrückführung erzielt der PDA SC-MMSE einen wesentlichen Gewinn an Performance in räumlich unkorrelierten MIMO-Kanälen gegenüber dem SC-MMSE, ohne dabei die Komplexität des Entzerrers wesentlich zu erhöhen. Der zweite Empfänger - hybrid SC-MMSE - bildet eine Verknüpfung von gruppenbasierter SC-MMSE Frequenzbereichsfilterung und MAP-Detektion.Dieser Empfänger besitzt eine skalierbare Berechnungskomplexität und weist eine hohe Robustheit gegenüber räumlichen Korrelationen in MIMO-Kanälen auf. Die numerischen Ergebnisse von Simulationen basierend auf Messungen mit einem Channel-Sounder in Mehrnutzerkanälen mit starken räumlichen Korrelationen zeigen eindrucksvoll die Überlegenheit des hybriden SC-MMSE-Ansatzes gegenüber dem konventionellen SC-MMSE-basiertem Empfänger. Im zweiten Teil wird der Einfluss von System- und Kanalmodellparametern auf die Konvergenzeigenschaften der vorgestellten iterativen Empfänger mit Hilfe sogenannter Korrelationsdiagramme untersucht. Durch semi-analytischeBerechnungen der Entzerrer- und Kanaldecoder-Korrelationsfunktionen wird eine einfache Berechnungsvorschrift zur Vorhersage der Bitfehlerwahrscheinlichkeit von SC-MMSE und PDA SC-MMSE Turbo Entzerrern für MIMO-Fadingkanäle entwickelt. Des Weiteren werden zwei Fehlerschranken für die Ausfallwahrscheinlichkeit der Empfänger vorgestellt. Die semianalytische Methode und die abgeleiteten Fehlerschranken ermöglichen eine aufwandsgeringe Abschätzung sowie Optimierung der Leistungsfähigkeitdes iterativen Systems.Im dritten und abschließenden Teil werden Strategien zur Raten- undLeistungszuweisung in Kommunikationssystemen mit konventionellen iterativen SC-MMSE Empfängern untersucht. Zunächst wird das Problem der Maximierung der instantanen Summendatenrate unter der Berücksichtigung der Konvergenz des iterativen Empfängers für einen Zweinutzerkanal mit festerLeistungsallokation betrachtet. Mit Hilfe des Flächentheorems von Extrinsic-Information-Transfer (EXIT)-Funktionen wird eine obere Schranke für die erreichbare Ratenregion hergeleitet. Auf Grundlage dieser Schranke wird ein einfacher Algorithmus entwickelt, der für jeden Nutzer aus einer Menge von vorgegebenen Kanalcodes mit verschiedenen Codierraten denjenigen auswählt, der den instantanen Datendurchsatz des Mehrnutzersystems verbessert. Neben der instantanen Ratenzuweisung wird auch ein ausfallbasierter Ansatz zur Ratenzuweisung entwickelt. Hierbei erfolgt die Auswahl der Kanalcodes für die Nutzer unter Berücksichtigung der Einhaltung einer bestimmten Ausfallwahrscheinlichkeit (outage probability) desiterativen Empfängers. Des Weiteren wird ein neues Entwurfskriterium für irreguläre Faltungscodes hergeleitet, das die Ausfallwahrscheinlichkeit von Turbo SC-MMSE Systemen verringert und somit die Zuverlässigkeit der Datenübertragung erhöht. Eine Reihe von Simulationsergebnissen von Kapazitäts- und Durchsatzberechnungen werden vorgestellt, die die Wirksamkeit der vorgeschlagenen Algorithmen und Optimierungsverfahren in Mehrnutzerkanälen belegen. Abschließend werden außerdem verschiedene Maßnahmen zur Minimierung der Sendeleistung in Einnutzersystemen mit senderseitiger Singular-Value-Decomposition (SVD)-basierter Vorcodierunguntersucht. Es wird gezeigt, dass eine Methode, welche die Leistungspegeldes Senders hinsichtlich der Bitfehlerrate des iterativen Empfängersoptimiert, den konventionellen Verfahren zur Leistungszuweisung überlegen ist.



Beruscha, Frank;
Nutzerorientierte Gestaltung haptischer Signale in der Lenkung : zum Einsatz direktionaler Lenkradvibrationen in Fahrerassistenzsystemen. - Ilmenau : Univ.-Verl. Ilmenau, 2012. - X, 256 S.. - (Kraftfahrzeugtechnische Berichte ; 5) : Zugl.: Ilmenau, Techn. Univ., Diss., 2012
ISBN 978-3-86360-042-6
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=20885

Die vorliegende Arbeit widmet sich dem Einsatz von Lenkradvibrationen zur Informationsübermittlung an der Schnittstelle zwischen Fahrzeug und Fahrer unter Berücksichtigung physiologischer und psychologischer Aspekte. Als besondere Eigenschaft wird die Möglichkeit zur Erzeugung örtlich aufgelöster Vibrationen erkannt. Damit ist es möglich, über einseitige Lenkradvibrationen Richtungsinformationen an Fahrer zu kommunizieren. In drei Hauptstudien werden mit insgesamt 150 Probanden verschiedene Aspekte der Fahrerreaktion auf einseitige Lenkradvibrationen untersucht. Zunächst wird in einem grundlegenden Laborexperiment die intuitive Reaktion auf einseitige Lenkradvibrationen ermittelt. Im Anschluss wird die subjektive Präferenz der einseitigen Lenkradvibration in der Anwendung als Spurverlassenswarnsignal nachgewiesen. Zuletzt wird der Versuch unternommen, die einseitige Lenkradvibration zur Initiierung einer Ausweichreaktion in einer drohenden Frontalkollisionssituation einzusetzen.



Sendler, Jan;
Untersuchungen zur ergonomiegerechten Gestaltung der Mensch-Maschine-Schnittstellen von aktuellen Pkw-Bremsanlagen. - Ilmenau : Univ.-Verl. Ilmenau, 2012. - XII, 153 S.. - (Kraftfahrzeugtechnische Berichte ; 4) : Zugl.: Ilmenau, Techn. Univ., Diss., 2012
ISBN 978-3-86360-037-2
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=20865

Die Rückgewinnung von kinetischer Fahrzeugenergie beim Bremsvorgang ist eine wichtige Maßnahme zur Effizienzerhöhung von Kraftfahrzeugen mit Elektromotor. Heute sind noch keine Kraftfahrzeuge im Serieneinsatz bekannt, die ausschließlich per rekuperativem Bremsmoment gebremst werden und damit vollständig auf eine Reibbremse verzichten können. Je nach maximal verfügbarem rekuperativen Bremsmoment und Bremssituation muss ein zusätzlicher Anteil an Reibbremsmoment erzeugt werden, um das Zielbremsmoment zu erreichen. Solche Bremsanlagen stellen besondere Anforderungen an die Ausgestaltung der Mensch-Maschine-Schnittstellen. Die vorliegende Arbeit ist ein Beitrag zur ergonomiegerechten Gestaltung der Mensch-Maschine-Schnittstellen von aktuellen Pkw-Bremsanlagen. Dazu zählen insbesondere rekuperative Bremsanlagen und entkoppelte Bremsanlagen. Es sollen grundlegende Methodiken erarbeitet werden, mit denen neben den technischen Aspekten der Thematik auch physiologische und psychologische Faktoren berücksichtigt werden. Zunächst werden Möglichkeiten zur Erfassung der Abläufe bei der Bremsbetätigung aus humanphysiologischer Sicht beschrieben. Untersucht werden Einflüsse des Cockpitdesigns, des Bremsmanövers, des Probanden und der Pedalcharakteristik auf die Betätigungsabläufe. Die Besonderheiten unterschiedlicher entkoppelter Bremsanlagen werden unter Nutzung einer speziell für solche Anwendungen entwickelten Pedalbetätigungsautomatik herausgearbeitet. Insbesondere die potenziell für den Fahrer störenden Effekte, die bei der Bremsenergierückgewinnung (z. B. Störungen im Verzögerungsverlauf) und bei der Pedalcharakteristiksimulation (ungeeignete und/oder synthetische Pedal- und Bremscharakteristiken) auftreten können, stehen dabei im Vordergrund. Einen weiteren Schwerpunkt bilden gezielte Probandenuntersuchungen zu Fühlbarkeits- und Akzeptanzschwellen des Fahrers bei der Bremsbetätigung. Es werden Grundsatzuntersuchungen vorgestellt, die Hinweis darauf geben, welche der Besonderheiten von entkoppelten Bremsanlagen für den Fahrer spürbar und welche sogar störend sein können. Abschließend werden Empfehlungen für die Auslegung von Bremsanlagen mit Schwerpunkt auf den Pedalcharakteristiksimulatoren und Bremsmomenterzeugungssystemen von entkoppelten Bremsanlagen abgeleitet.



Jauernig, Uta;
Herstellung funktioneller Dünnschichtelemente auf den Stirnflächen von Lichtleitfasern mittels hochauflösender lithografischer Strukturierungsverfahren. - Ilmenau : Univ.-Verl. Ilmenau, 2012. - 160 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2012

Die vorliegende Arbeit beschäftigt sich mit der Entwicklung von Technologien für lithografische Prozesse zur Herstellung von hochfrequenten diffraktiven Dünnschichtbauelementen direkt auf den Stirnflächen von Lichtleitfasern. Dazu müssen für die Prozessdurchführung auf Wafern optimierte lithografische Verfahren geeignet modifiziert werden. Dies betrifft sowohl die Herstellung der Schichten als auch die einzustellenden Prozessparameter sowie die Prozessführung. In Abhängigkeit von den eingesetzten Materialien und der Strukturdimensionierung können unterschiedliche Funktionalitäten der strukturierten Schichten erzeugt werden. Für die Belichtung kommen zwei Systeme zum Einsatz. Zur Herstellung von Strukturen mit Perioden größer 3 mym findet die direkt schreibende Laserbelichtung bei einer Wellenlänge von 442 nm Anwendung. Zur Erzeugung hochfrequenter Gitter mit Perioden kleiner 1 mym wird die DUV-Interferenzlithografie unter Nutzung eines bei einer Wellenlänge von 248 nm emittierenden Excimerlasers eingesetzt. Bei dieser Wellenlänge wird die interferenzoptische Strukturierbarkeit eines ursprünglich für die Elektronenstrahllithografie spezifizierten Resists untersucht, der aufgrund seiner Eigenschaften wie geringe Feuchteempfindlichkeit, hohe Langzeitstabilität, gute Haftung und vereinfachte Prozessführung bei der Entwicklung für die Herstellung von Strukturen auf den Stirnflächen von Lichtleitfasern besonders gut geeignet ist. Es werden die für die Realisierung hochfrequenter Gitterstrukturen geeigneten Belichtungs- und sonstigen Prozessierungsparameter für die Prozessführung auf Substratschichten aus unterschiedlichen Materialien ermittelt. Die Strukturierung metallischer Schichten auf den Stirnflächen von Lichtleitfasern führt zu faserbasierten Lithografiemasken, mit deren Hilfe mittels Faser-zu-Faser-Belichtung eine effiziente und reproduzierbare Fotolithografie auf Faserstirnflächen ermöglicht wird. Durch die direkte Oberflächenstrukturierung von Hochfrequenzgittern in auf die Stirnflächen von Quarzglaslichtleitfasern aufgebrachten hochbrechenden Schichten aus As35S65 mittels Excimerlaser-Interferenzlithografie entstehen effiziente fasergekoppelte Gitter mit hohem Brechungsindexkontrast. Es werden auf solchen Gitterstrukturen basierende Wellenlängen- und Polarisationsfilter entworfen, geeignete Belichtungsbedingungen ermittelt und die Eigenschaften von realisierten Strukturen mit Simulationsergebnissen verglichen.



Rock, Michael;
Prüfgeneratoren zur Simulation von Blitzimpulsströmen im Labor und ihre Wechselwirkung mit den Prüfobjekten. - Ilmenau : Univ.-Verl. Ilmenau. - XIX, 294 S. : Zugl.: Ilmenau, Techn. Univ., Habil.-Schr., 2012
ISBN 978-3-86360-032-7
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=20709

Die vorliegende Arbeit behandelt die mathematische Beschreibung und Analyse von elektrischen Schaltungen zur Erzeugung von impulsförmigen Strömen. Der Schwerpunkt liegt auf der reproduzierbaren Nachbildung von Blitzstromkomponenten, wie diese für die Untersuchung von Blitzwirkungen und von Überspannungs-Schutzeinrichtungen benötigt werden. Als Blitzstromkomponenten werden die Erst- und Folgeblitzstoßströme und der Blitzlangzeitstrom betrachtet, für die in Standards repräsentative Stromformen eingeführt wurden. Die Grundformen von Stoßstromkreisen mit Kondensatoren als primärem Energiespeicherelement werden analytisch beschrieben. Aperiodische Impulsströme (10/350 my, 1/200 mys) oder schwingende Stoßströme (8/20 mys) können mit gedämpften CLR-Reihenkreisen erzeugt werden. Zur Dimensionierung der Generatoren werden die Schaltungselemente aus Bestimmungsgleichungen berechnet. Veränderungen zu vorgegebenen Stromformen treten bei Variationen der Schaltungselemente oder angeschlossener Prüfobjekte auf. Abweichungen von Dimensionierungswerten dürfen Grenzen nicht überschreiten, damit die Impulsstromkenngrößen Scheitelwert, Stirn- und Rückenhalbwertszeit, Ladung und Spezifische Energie die Toleranzen einhalten. Ein umfangreicher Vergleich von CLR-Reihenkreis und Crowbar-Stoßkreis zeigt in Abhängigkeit vom Charakter der Belastung (Impedanz, Lichtbogen, Varistor) die unterschiedlichen Rückwirkungen auf den Stromverlauf. Die Erzeugung von Langzeitströmen wird am Beispiel von Kettenleitern und von stark bedämpften CLR-Kreisen betrachtet. Speziell ausgelegte Generatorschaltungen sind geeignet, weitere Stromformen, wie unipolare Stoßströme der Form 8/20 mys oder Sinushalbwellenströme, zu liefern. Untersucht wird, wie ein Generator als Kombinationsstoßkreis mit geringem Umgestaltungsaufwand aufgebaut werden kann, um die zwei häufig benötigten, aber deutlich unterschiedlichen Stromformen 10/350 mys und 8/20 mys zu erzeugen.



Guliyev, Elshad;
Eine Nanopositioniervorrichtung mit integrierten piezoresistiven Sensoren für Hochgeschwindigkeits-Rastersondenmikroskopie-Anwendungen. - Ilmenau : Univ.-Verl. Ilmenau, 2012. - XII, 117 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2011
Enth. außerdem: Thesen

Der Fokus dieser Arbeit liegt auf der Entwicklung einer quasi-monolithischen Nanopositioniervorrichtung für die Anwendung in Hochgeschwindigkeits-Rastersondenmikroskopie-Systemen. Das Konzept der in dieser Arbeit entwickelten neuen Nanopositioniervorrichtung stellt die quasi-monolithische Integration der kinematischen Konstruktion aus monokristallinem Silizium, der piezoelektrischen Aktoren und der piezoresistiven Sensoren dar. Eine monolithische Integration der Piezowiderstände in die Verformungselemente der kinematischen Konstruktion aus Silizium ermöglicht eine Kompensation von möglichen Nichtlinearitäten. Die entwickelte Positioniervorrichtung wurde als Prototyp implementiert und die Funktionsfähigkeit experimentell bestätigt. In einem Rasterkraftmikroskopiesystem wurden Kalibrierung und Probemessungen erfolgreich durchgeführt.



Schaaf, Peter
(Werkstoffe für die Energietechnik) : Ilmenau University of Technology, 4 - 7 September 2012 ; [proceedings of the workshop "Materials for Energy and Power Engineering" held in September 2012 during the IWK 2012 in Ilmenau]
Materials for energy and power engineering. - Ilmenau : Univ.-Verl. Ilmenau, 2012. - 106 S.. - (Werkstofftechnik aktuell ; 7) ISBN 978-3-86360-035-8
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=20825

This booklet represents the proceedings of the workshop "Materials for Energy and Power Engineering" held in September 2012 during the IWK 2012 in Ilmenau. Here, the latest developments related to materials in energy and power engineering are reported. This comprises the latest research results and developments from university and industry. The topics are covering advanced materials for energy transport, advanced materials for energy distribution and delivery, advanced materials for energy storage, advanced materials for energy conversion, and advanced materials for energy control and management. Thus, it gives a current overview of the field of materials for energy and power engineering.



Seitz, Jochen; Heubach, Michael; Wilken, Johannes H.
12. Ilmenauer TK-Manager-Workshop : Technische Universität Ilmenau, 7. September 2012 : Tagungsband. - Ilmenau : Universitätsverlag Ilmenau, 2012. - 134 Seiten ISBN 978-3-86360-036-5
Literaturangaben

Im Februar 1995 veranstaltete das Fachgebiet Kommunikationsnetze erstmalig einen Workshop zu "Branchentypischen Anwendungen in der Informations- und Telekommunikationstechnik". Er diente der Diskussion des Weiterbildungsbedarfs mit Partnern aus der Praxis in Vorbereitung des berufsbegleitenden Weiterbildungsstudienganges "Telekommunikations-Manager". Dieser, kurz TK-Manager genannte Studiengang wird seit 1996 erfolgreich durchgeführt, hat bereits etwa 100 Absolventen in einen neuen Arbeitsabschnitt entlassen. Seit 1998 findet regelmäßig der "Ilmenauer TK-Manager Workshop" statt, an welchem Absolventen des Studienganges mit interessierten Partnern aus anderen Bildungseinrichtungen und der Wirtschaft ihre Erfahrungen austauschen und aktuelle Entwicklungen aus dem Informations- und Kommunikationssektor diskutieren. Das Spektrum der Vorträge umfasst daher Themen aus der Informations- und Kommunikationstechnik über Protokoll- und Dienstaspekte in speziellen Anwendungsbereichen (wie beispielsweise Green Computing, Automotive, Cloud Computing) bis hin zu ökonomischen, personellen oder rechtlichen Fragstellungen mit Bezug zur Telekommunikation. In diesem Jahr führen wir nunmehr den Workshop zum zwölften Mal durch, das dritte Mal innerhalb des Internationalen Wissenschaftlichen Kolloquiums (IWK). Die Beiträge des Workshops und darüber hinaus aktuelle Forschungsthemen des Fachgebiets Kommunikationsnetze, das für den TK-Manager federführend ist, sind in diesem Tagungsband zusammengefasst.



Novitskiy, Alexander; Arlt, Dorothee; Wolling, Jens; Westermann, Dirk
Freileitungen oder Erdkabelleitungen? : eine Metastudie über die Kriterien und Ergebnisse von Untersuchungen zum Netzausbau. - Ilmenau : Univ.-Verl. Ilmenau, 2012. - 150 S.. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik ; Bd. 2) ISBN 978-3-86360-029-7
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=20515

In der Vorbereitungs- und Bewilligungsphase von Netzausbaumaßnahmen im Übertragungsnetz werden verschiedene Technologieoptionen auf sehr unterschiedlichen inhaltlichen Ebenen diskutiert. Im Fokus der Diskussion steht dabei der Vergleich zwischen Freileitungen und Erdkabelleitungen. In diesem Zusammenhang sind in den letzten Jahren eine Vielzahl von Untersuchungen und Publikationen angefertigt worden, die sich in allgemeiner Weise und auch bezüglich konkreter Ausbauvorhaben der Problematik des Technologievergleichs annehmen. Durch eine Analyse dieser Primäruntersuchungen und Projekte wird in der vorliegenden Metastudie der vorhandene Erkenntnisstand zum Thema Freileitungen und Erdkabelleitungen aufgearbeitet und zusammenfassend dargestellt. Untersucht wurden dazu Studien zum Netzausbau im Höchstspannungs-Übertragungsnetz (220kV und 380kV), die im Zeitraum 2000 bis Anfang 2011 im europäischen Raum durchgeführt und publiziert wurden. Dazu wurde ein Kriterienkatalog verwendet, der sowohl technische, ökonomische, ökologische, gesundheitliche als auch soziale Faktoren mit einbezieht. In der Publikation werden die Befunde zu den einzelnen Kriterien zusammenfassend dargestellt und für Freileitungen und Erdkabelleitungen gegenübergestellt.



Hilgers, Peter;
Verteilte Zustandsschätzung nichtlinearer Systeme. - Ilmenau : Univ.-Verl. Ilmenau, 2012. - XXVIII, 202 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2012
ISBN 978-3-86360-031-0
Zsfassung in engl. Sprache

Die Arbeit handelt von der Kombination des Unscented Kalman-Filters mit den Methoden der Dezentralisierung, Verteilung und Fusion. Zu Anfang werden die allgemeinen Grundlagen der optimalen Zustandsschätzung für das lineare Filter hergeleitet. Aus diesen Betrachtungen, die auch mit Blick auf die praktische Umsetzbarkeit geführt werden, wird dann das Unscented Kalman-Filter beschrieben, welches gegenüber anderen nichtlinearen Erweiterungen deutliche Vorteile bietet. Die Gemeinsamkeiten beider Filterstrukturen werden herausgearbeitet. In der Folge werden zunächst die Dezentralisierung und Verteilung des linearen Filters präsentiert. Auf Grund der Ähnlichkeiten der beiden Filter können diese dann erfolgreich übertragen werden, so dass das Verteilte Und Dezentrale Unscented Kalman-Filter präsentiert werden kann. Zum erfolgreichen Einsatz dieser Methoden ist eine Verteilung eines globalen, nichtlinearen Systemmodells notwendig. Das vorgestellte Verfahren beruht auf einer Partitionierung des Systems. Für direkte Zustände werden die Differentialgleichungen formuliert. Für weitere Zustände wird eine Modellierung ohne eigene Dynamik vorgenommen. Der Frage der Beobachtbarkeit für nichtlineare Filter und deren dezentrale und verteilte Anwendung wird ebenfalls nachgegangen. Es wird gezeigt, dass die Benutzung der empirischen Gramschen Beobachtbarkeitsmatrix für den praktischen Einsatz besonders gut geeignet ist. Die Anwendung dieser Konzepte erfolgt auf zwei Systemen mit unterschiedlichen Voraussetzungen. An einem Dreitanksystem wird das verteilte Filter gezeigt. Danach folgt der Einsatz in einem Multilasertrackersystem. Dieses wird sowohl dezentral als auch verteilt benutzt. Der dezentrale Einsatz des Filters zeigt, dass in allen Filterknoten die Schätzungen miteinander übereinstimmen. Bei der verteilten Schätzung wird durch die damit verbundene Ordnungsreduktion erreicht, dass in den einzelnen Knoten nie der gesamte globale Zustandsvektor geschätzt werden muss. Neben diesen Ansätzen werden auch der Ausfall von Messeinrichtungen und die Umkonfiguration des Systems simuliert. Durch das Filternetzwerk entsteht ein gegenüber Störungen robuster Beobachter. Ebenso können zur Laufzeit Anpassungen der Topologie vorgenommen werden. Die durch die Verteilung entstehende Ordnungsreduktion schlägt sich in einem verringerten Rechenbedarf pro Knoten nieder.



Husung, Stephan;
Simulation akustischer Produkteigenschaften unter Nutzung der Virtual Reality während der Produktentwicklung. - Ilmenau : Univ.-Verl. Ilmenau, 2012. - XXI, 190 S.. - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK) ; 20) : Zugl.: Ilmenau, Techn. Univ., Diss., 2011
ISBN 978-3-86360-026-6
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=20309

In der Dissertation werden Grundlagen zur Nutzung der audio-visuellen VR in der Produktentwicklung erarbeitet. Damit die akustischen Produkteigenschaften technischer Systeme in der VR hörbar gemacht werden können, wird eine Repräsentation für diese Eigenschaften, verbunden mit der Gestaltbeschreibung, geschaffen. Ein Schwerpunkt der Untersuchungen ist die Repräsentation der richtungsabhängigen Schallabstrahlung technischer Systeme im VR-Modell. Weiterhin werden Modelle entwickelt, die eine echtzeitfähige Simulation akustischer Produkteigenschaften auf der Körperschallebene ermöglichen. Hierfür wird eine komponentenweise Modellierung eingeführt. Durch eine generische Modellierung mit getrennter Datenhaltung und bereitstellung lassen sich die Parameter den Modellen effizient zuweisen. Für den Datenaustausch zwischen Simulations- und VR-Modell wird ein Kommunikationsserver entwickelt. Anhand eines Anwendungsbeispiels werden die Vorteile der parametrischen Modellbeschreibung erörtert.



Kuchinke, Björn A.; Sundmacher, Torsten; Zerth, Jürgen
Märkte und Versorgung : [... ausgewählte Beiträge des siebten Duisburg-Ilmenau-Bayreuther Oberseminars zur Gesundheitsökonomie und Sozialpolitik (DIBOGS) ... am 27. und 28. Oktober 2011 in Hamburg]. - Ilmenau : Univ.-Verl. Ilmenau. - 93 S.. - (DIBOGS-Beiträge zur Gesundheitsökonomie und Sozialpolitik ; 6) ISBN 978-3-86360-028-0
Literaturangaben

Mit dem vorliegenden sechsten Band der Reihe "DIBOGS-Beiträge zur Gesundheitsökonomie und Sozialpolitik" werden nun wieder ausgewählte Workshopbeiträge einer breiten Öffentlichkeit vorgestellt. Der Schwerpunkt des vorliegenden Bandes liegt auf der Analyse von alternativen Märkten und Aspekten der Versorgung mit Gesundheitsdienstleistungen. Im ersten Beitrag von Birg wird die Frage von Großhandelspannen und Parallelhandel behandelt. Kuchinke/Akmaz/Janetzky gehen in in ihrem Artikel auf die Frage einer spezifischen Erkrankung, nämlich Morbus Parkinson, ein und analysieren die Auswirkungen einer frühen Diagnose sowie einer angepassten medikamentösen Therapie auf die Kosten. Schmid gibt einen Überblick über die Konzentrationsprozesse auf deutschen Krankenhausmärkten und analysiert deren Implikationen. Schneider/Schneider untersuchen hingegen die Wartezeiten bei Facharztbesuchen und die Folgen für die Gesundheit.



Agsten, Michael;
Einfluss gesteuerten Ladens von Elektrofahrzeugen auf die Netzbetriebsführung bei volatiler Windeinspeisung. - Ilmenau : Univ.-Verl. Ilmenau, 2012. - 142, LVII S.. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik ; 1) : Teilw. zugl.: Ilmenau, Techn. Univ., Diss., 2011
ISBN 978-3-86360-023-5
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=20196

Die Arbeit fasst Erkenntnisse zum gesteuerten Laden von Elektrofahrzeugen (EVs) bei volatiler Windeinspeisung zusammen. Ausgehend vom Stand der Technik zur gesteuerten Ladung von EVs werden auf Grundlage sich in Entwicklung befindlicher Verfahren zum Austausch von Informationen zwischen EV und Ladepunkt zur Aushandlung von Ladevorgängen zwei Betriebsverfahren gezeigt. Das Wind-2-Vehicle-Verfahren (W2V) ist Beispiel für die Nutzung gesteuerten Ladens von EVs, um einen regenerativer Einspeisung folgenden Bedarf zu realisieren. Das Lokale Lastmanagement (LLM) ist ein Beispiel, um Informationen aus dem Verteilnetz zu nutzen, um die Ladeleistung von EVs zeitlich zu begrenzen. In einer Fallstudie werden fünfzig EVs durch einen reduzierten W2V-Ansatz gesteuert. In einer zweiten Fallstudie wird anhand von Zeitreihensimulationen nachgewiesen, dass gesteuertes und ungesteuertes Laden zu Verletzungen festgelegter Grenzwerte in Verteilnetzen führen kann. Die Anwendung des entwickelten LLM Verfahrens zeigt, dass bei geringer Reduktion der erzielbaren W2V-Güte große und kleine Flotten gesteuert geladen werden können, ohne dass weiterhin betrieblich festgelegte Grenzwerte verletzt werden.



Spiegler, Andreas;
Dynamics of biologically informed neurals mass models of the brain. - Ilmenau : Univ.-Verl. Ilmenau, 2012. - 193 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2011
ISBN 978-3-86360-024-2
Literaturverz. S. 165 - 189

Die vorliegende Arbeit stellt einen Beitrag zur Entwicklung und Analyse von Computermodellen zum Verständnis von Hirnfunktionen dar. Es wird die mittlere Aktivität eines Hirnareals analytisch einfach und dabei biologisch plausibel modelliert. Auf Grundlage eines Neuronalen Massenmodells (NMM) werden die Wechsel zwischen Oszillationsregimen (z.B. durch pharmakologisch, epilepsie-, schlaf- oder kontextbedingte Zustandsänderungen) als geordnete Folge beschrieben und Resonanzphänomene in einem Photic-Driving-Experiment erklärt. Dieses NMM kann sehr komplexe Dynamiken (z.B. Chaos) innerhalb biologisch plausibler Parameterbereiche hervorbringen. Um das Verhalten abzuschätzen, wird das NMM als Funktion konstanter Eingangsgrößen und charakteristischer Zeitenkonstanten vollständig auf Bifurkationen untersucht und klassifiziert. Dies ermöglicht die Beschreibung wechselnder Regime als geordnete Folge durch spezifische Eingangstrajektorien. Es wird ein Prinzip vorgestellt, um komplexe Phänomene durch Prozesse verschiedener Zeitskalen darzustellen. Da aufgrund rhythmischer Stimuli und der intrinsischen Rhythmen von Neuronenverbänden die Eingangsgrößen häufig periodisch sind, wird das Verhalten des NMM als Funktion der Intensität und Frequenz einer periodischen Stimulation mittels der zugehörigen Lyapunov-Spektren und der Zeitreihen charakterisiert. Auf der Basis der größten Lyapunov-Exponenten wird das NMM mit dem Photic-Driving-Experiment überein gebracht. Dieses Experiment findet routinemäßige Anwendung in der Diagnostik verschiedener Erkrankungen wie Epilepsie, Migräne, Schizophrenie und Depression. Durch die Anwendung des vorgestellten NMM wird der für die Diagnostik entscheidende Mitnahmeeffekt reproduziert und es werden Vorhersagen für eine Verbesserung der Indikation getroffen.



Fechner, Frank
Zeugenbeeinflussung durch Medien : philosophische, psychologische und juristische Gedanken zu einem Aspekt der "Litigation-PR". - Ilmenau : Univ.-Verl. Ilmenau, 2012. - 146 S.. - (Medienrechtliche Schriften ; Bd. 9) ISBN 3-86360-025-8
Literaturangaben

Band 9 der "Medienrechtlichen Schriften" geht der Frage nach, inwieweit und auf welche Weise Medien in der Lage sind, Einfluss auf Zeugen auszuüben. Denkbar sind Vorverurteilungen des Angeklagten ebenso wie umgekehrt das Erwecken von Mitleid für seine Person, wodurch zumindest Zeugen bei ihrer Aussage, möglicherweise auch Richter beim Urteilsspruch, beeinflusst werden können. Im Folgenden soll indessen noch einer weitergehenden Fragestellung nachgegangen werden. Kann es sein, dass ein Zeuge aufgrund eines Medienberichts unbewusst falsch aussagt? Können Medienberichte stärker wirken als die eigene Wahrnehmung? Um sich einer Antwort zu nähern, bedarf es eines interdisziplinären Ansatzes.



Franck, Andreas;
Efficient algorithms for arbitrary sample rate conversion with application to wave field synthesis. - Ilmenau : Univ.-Verl. Ilmenau, 2012. - XX, 249 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2011
Enth. außerdem: Thesen

Verfahren zur unbeschränkten Abtastratenwandlung (arbitrary sample rate conversion,ASRC) ermöglichen die Änderung der Abtastrate zeitdiskreter Signale um beliebige, zeitvariante Verhältnisse. ASRC wird in vielen Anwendungen digitaler Signalverarbeitung eingesetzt. In dieser Arbeit wird die Verwendung von ASRC-Verfahren in der Wellenfeldsynthese(WFS), einem Verfahren zur hochqualitativen, räumlich korrekten Audio-Wiedergabe, untersucht. Durch ASRC-Algorithmen kann die Wiedergabequalität bewegter Schallquellen in WFS deutlich verbessert werden. Durch die hohe Zahl der in einem WFS-Wiedergabesystem benötigten simultanen ASRC-Operationen ist eine direkte Anwendung hochwertiger Algorithmen jedoch meist nicht möglich. Zur Lösung dieses Problems werden verschiedene Beiträge vorgestellt. Die Komplexität der WFS-Signalverarbeitung wird durch eine geeignete Partitionierung der ASRC-Algorithmen signifikant reduziert, welche eine effiziente Wiederverwendung von Zwischenergebnissen ermöglicht. Dies erlaubt den Einsatz hochqualitativer Algorithmen zur Abtastratenwandlung mit einer Komplexität, die mit der Anwendung einfacher konventioneller ASRC Algorithmen vergleichbar ist. Dieses Partitionierungsschema stellt jedoch auch zusätzliche Anforderungen an ASRC-Algorithmen und erfordert Abwägungen zwischen Performance-Maßen wie der algorithmischen Komplexität, Speicherbedarf oder -bandbreite. Zur Verbesserung von Algorithmen und Implementierungsstrukturen für ASRC werden verschiedene Maßnahmen vorgeschlagen. Zum Einen werden geschlossene, analytischeBeschreibungen für den kontinuierlichen Frequenzgang verschiedener Klassen von ASRCStrukturen eingeführt. Insbesondere für Lagrange-Interpolatoren, die modifizierte Farrow-Struktur sowie Kombinationen aus Überabtastung und zeitkontinuierlichen Resampling-Funktionen werden kompakte Darstellungen hergeleitet, die sowohl Aufschluss über dasVerhalten dieser Filter geben als auch eine direkte Verwendung in Design-Methoden ermöglichen. Einen zweiten Schwerpunkt bildet das Koeffizientendesign für diese Strukturen, insbesondere zum optimalen Entwurf bezüglich einer gewählten Fehlernorm und optionaler Entwurfsbedingungenund -restriktionen. Im Gegensatz zu bisherigen Ansätzen werden solche optimalen Entwurfsmethoden auch für mehrstufige ASRC-Strukturen, welche ganzzahlige Überabtastung mit zeitkontinuierlichen Resampling-Funktionen verbinden, vorgestellt. Für diese Klasse von Strukturen wird eine Reihe angepasster Resampling-Funktionen vorgeschlagen, welche in Verbindung mit den entwickelten optimalen Entwurfsmethoden signifikante Qualitätssteigerungen ermöglichen. Die Vielzahl von ASRC-Strukturen sowie deren Design-Parameter bildet eine Hauptschwierigkeit bei der Auswahl eines für eine gegebene Anwendung geeigneten Verfahrens. Evaluation und Performance-Vergleiche bilden daher einen dritten Schwerpunkt. Dazu wird zum Einen der Einfluss verschiedener Entwurfsparameter auf die erzielbare Qualität von ASRC-Algorithmen untersucht. Zum Anderen wird der benötigte Aufwand bezüglich verschiedener Performance-Metriken in Abhängigkeit von Design-Qualität dargestellt. Auf diese Weise sind die Ergebnisse dieser Arbeit nicht auf WFS beschränkt, sondern sind in einer Vielzahl von Anwendungen unbeschränkter Abtastratenwandlung nutzbar.



Neher, Jochen;
Rechnerische und experimentelle Untersuchungen der Schallabstrahlung bei Fahrzeuggetrieben. - Ilmenau : Univ.-Verl. Ilmenau, 2012. - XVI, 173 S.. - (Kraftfahrzeugtechnische Berichte ; 3) : Zugl.: Ilmenau, Techn. Univ., Diss., 2011
ISBN 978-3-86360-020-4
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=19761

Mit der vorliegenden Arbeit soll ein Beitrag zur Verbesserung der Akustiksimulation von Fahrzeuggetrieben geleistet werden. Zunächst wird das Betriebsgeräusch eines Getriebes bei konstanten Drehzahlen simuliert. Dabei wird eine Methode zur Entkopplung des rechenintensiven vom drehzahlabhängigen Teil der Simulation aufgezeigt. Ferner werden die berechneten Geräusche an einem PC Arbeitsplatz auralisiert. Die Ergebnisse sind aufgrund getroffener Annahmen als Vorgriff zu verstehen, das synthetische Betriebsgeräusch hört sich jedoch authentisch an. Die Bauteilverbindungs-Modellierung beeinflusst die Ergebnisse der Köperschallberechnung innerhalb der Akustiksimulation entscheidend. FE Modelle mit Schraubenverbindungen und Wälzlagern werden deshalb schrittweise, separat und systematisch durch Messungen verifiziert. Nach der Klassifizierung von Simulationsmodellen für Schraubenverbindungen werden Modellvarianten abgeleitet und bei drei unterschiedlichen etriebebaugruppen mit Flanschverbindungen umgesetzt. Die Ergebnisse der Rechnerischen Modalanalysen werden in einem breiten Frequenzbereich ausführlich mit Messungen verglichen. Weil sie annähernd Einzelbauteil-Qualität aufweisen, kann eine Modellierungs-Empfehlung gegeben werden. Bei ähnlichen Baugruppen sind die zu erwartende Ergebnisgüte und der Stellenwert von Schraubenverbindungen nun a priori abschätzbar. Das Nachgiebigkeitsverhalten von Wälzlagern wird durch linearisierte Steifigkeitsmatrizen beschrieben. Die FE Modelle zweier Baugruppen werden bei relevanten Eigenfrequenzen mit Messungen an Getrieben mit stillstehenden Wellen verifiziert. Unsicherheiten bei der Wälzlagermodellierung und wichtige Einflüsse sind damit abschätzbar. Insgesamt wird mit den Untersuchungen zur Körperschallsimulation eine Entscheidungshilfe bei der Bauteilverbindungs-Modellierung gegeben.An drei Getriebegehäusen mit unterschiedlich komplexen Abstrahlflächen werden auf Basis von Körper und Luftschallmessungen sowie mittels hochwertiger FE Modelle umfangreiche Untersuchungen der Luftschallsimulation mit der DBEM, der IBEM, der Fast-Multipole BEM und der FEM in einem breiten Frequenzbereich durchgeführt. Durch messtechnisch optimierte Eingangsdaten werden die Abweichungen der Luftschallsimulation von der Messung separiert. Es zeigt sich, dass Schallkennfelder mit verschiedenen Verfahren sehr genau vorausberechnet werden können. Auch andere Aspekte zur Wahl des Simulationsverfahrens werden umfangreich diskutiert, beispielsweise die Rechenzeiten. Die Genauigkeit der Luftschallsimulation lässt sich abhängig von der Komplexität der abstrahlenden Oberflächen darstellen. Die Ergebnisse eines verrippten Getriebegehäuses werden für Akustikmodelle mit und ohne Rippen ausgewertet, so dass der Einfluss der Vernachlässigung dieser Geometriedetails erkennbar wird. Ferner werden verschiedene Möglichkeiten zur Verhinderung fiktiver Resonanzen bei der BEM bewertet. Insgesamt erweitert die vorliegende Arbeit die Möglichkeiten der Akustiksimulation in mehreren Bereichen.



Brčina, Robert;
Zielorientierte Erkennung und Behebung von Qualitätsdefiziten in Software-Systemen am Beispiel der Weiterentwicklungsfähigkeit. - Ilmenau : Univ.-Verl. Ilmenau, 2012. - XVI, 207 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2011
Enth. außerdem: Thesen

Für unternehmenskritische Software-Systeme, die langlebig und erweiterbar sein sollen, ist das Qualitätsziel Weiterentwicklungsfähigkeit essentiell. Kontinuierliche Änderungen und Erweiterungen sind unabdingbar, um solche Software-Systeme an neue oder veränderte Anforderungen anzupassen. Diese Maßnahmen verursachen aber auch oft Qualitätsdefizite, die zu einem Anstieg der Komplexität oder einem Verfall der Architektur führen können. Gerade Qualitätsdefizite in der Spezifikation oder Architektur können Software-Systeme stark beeinträchtigen. Um dem entgegenzuwirken, wird in dieser Arbeit eine Methode entwickelt, welche die Einhaltung von Qualitätszielen bewerten kann. Dadurch wird sowohl das Erkennen als auch das Beheben von Qualitätsdefiziten in der Software-Entwicklung ermöglicht. Qualitätsdefizite werden anhand einer am Qualitätsziel orientierten und regelbasierten Analyse erkannt und durch zugeordnete Reengineering-Aktivitäten behoben. Als Beispiel für ein Qualitätsziel wird die Weiterentwicklungsfähigkeit von Software-Systemen betrachtet. Es wird gezeigt, wie dieses Qualitätsziel anhand von strukturellen Abhängigkeiten in Software-Systemen bewertet und durch gezielte Reengineering-Aktivitäten verbessert werden kann. Um die Methode zu validieren, wurde eine industrielle Fallstudie durchgeführt. Durch den Einsatz der Methode konnten eine Vielzahl von Qualitätsdefiziten erkannt und behoben werden. Die Weiterentwicklungsfähigkeit des untersuchten Software-Systems wurde durch die vorgeschlagenen Reengineering-Aktivitäten entscheidend verbessert.



Maxl, Emanuel;
Mobile Markt- und Sozialforschung : methodische Qualität selbst-administrierter mobiler Forschung. - Ilmenau : Universitätsverlag Ilmenau, 2012. - 297 Seiten
Technische Universität Ilmenau, Dissertation 2011

ISBN 978-3-86360-021-1

Die vorliegende Arbeit behandelt ausgewählte Aspekte methodischer Qualität von selbst-administrierten mobilen Forschungsmethoden auf der Grundlage von etablierten Qualitätskriterien: Coverage, Sampling, Nonresponse und Measurement. Sie stellt selbst-administrierte mobile Forschungsmethoden, deren technische Verortung und den Mobile Marketing Hintergrund dar. Eine Unterteilung von mobilen Methoden erfolgt anhand der Kriterien 'Push'- vs. 'Pull'-Rekrutierung und 'Kontextbezug der Studie'. Ausgewählte Fragen der Qualität von mobilen Methoden werden in drei empirischen Studien behandelt. Eine Push-Studie ohne Kontext-Bezug untersucht den Response auf zwei technische Einladungsvariationen. In einer explorativen Studie werden Rahmenbedingungen für eine erfolgreiche Durchführung von ortsbezogenen, mobilen Umfragen diskutiert. Eine mobile Pull-Studie im Kontext unter Nutzung eines Mobile Blogging Systems belegt die Chancen und Limitierungen für die qualitative, ethnographische Forschung.



Vrábel', Róbert;
Nonlinear dynamical systems with high-speed feedback. - Ilmenau : Univ.-Verl. Ilmenau. - 107 S.. - (Scientific monographs in automation and computer science ; 4) : Teilw. zugl.: Bratislava, Univ., Habil.-Schr.
ISBN 978-3-86360-016-7
Literaturangaben

The aim of the work is to contribute to the qualitative and quantitative analysis of nonlinear dynamical systems of the second order with high-speed feedback, which can also be generally introduced into higher order systems which at present are gaining an increasing amount of popularity in use of the high-frequency oscillators in electronic circuits. Singular Perturbation Theory is the mathematical framework that yields the tools to explore the complicated dynamical behavior of these systems. The work gives an overview of some methods used to investigate the dynamics of singularly perturbed nonlinear systems, for which does not exist a comprehensive theory that would give us an overall view of their behavior. This issue is currently happening world wide, not only in the mathematical community when dealing with the theory and application of nonlinear dynamical systems, but also in the field of electrical engineering and automation.



Bezák, Tomáš;
Usage of IEC 61131 and IEC 61499 standards for creating distributed control systems. - Ilmenau : Univ.-Verl. Ilmenau. - 121 S.. - (Scientific monographs in automation and computer science ; 3) : Teilw. zugl.: Bratislava, Univ., Diss.
ISBN 978-3-86360-015-0
Literaturverz. S. 114 - 119

This publication deals with the application of standards for industrial automation during distributed control systems design. Control systems design consists of a choice between two approaches based on the standards, IEC 61131 and IEC 61499. The question is which of the standards to use for distributed control systems design. The most commonly used standards are briefly listed in the introduction section. Then follows a more detailed description of the IEC 61131 and IEC 61499 standards, future development of the IEC 61499 standard and its usage during the creation of distributed control systems. Further on are lists and descriptions of existing commercial and research software tools, which are necessary in implementing this standard. The main section deals with the methodology for standard application comparison and criteria selection for comparing. This methodology is then verified on real control systems. The final section includes methodology generalization for suitable approach selection, resulting in recommendations for which standard to choose during creation of distributed control systems.



Strémy, Maximilán;
Combined discrete control systems. - Ilmenau : Univ.-Verl. Ilmenau. - 94 S.. - (Scientific monographs in automation and computer science ; 2) : Teilw. zugl.: Bratislava, Univ., Diss.
ISBN 978-3-86360-014-3
Literaturverz. S. 76 - 80

Combined control dynamic systems comprise both parts of discrete systems: real-time activated discrete dynamic systems as well as discrete event dynamic systems. The combination of cyclically recurring processes with stochastically generated events significantly intervenes into the control, while also affecting the choice of the right sample period, as it is necessary to process all the generated interruptions within the cycle. The current monograph focuses on the analysis of combined control systems and determination of the stochastic event element of the sample period. It proposes an appropriate sample period for combined control systems and introduces a methodology for determining the impact of a stochastic element on the system stability and properties. The main contribution of the monograph is the design of an adaptive algorithm for events processing and auto-correction of the event element of sample period.



Eliáš, Michal;
3D model reconstruction from vector perpendicular projections. - Ilmenau : Univ.-Verl. Ilmenau. - 102 S.. - (Scientific monographs in automation and computer science ; 1) : Teilw. zugl.: Bratislava, Univ., Diss.
ISBN 978-3-86360-013-6
Literaturverz. S. 88 - 96

This scientific monograph deals with the issue of 3D model reconstruction of a rotation part from its orthogonal projections recorded on a digitalized drawing in vector format and with computer-aided automation of the process. The topic is a partial task of the domain focused on generating the 3D part model or product from a technical drawing. The introduction comments on the analysis of the current state of information in the field. The rules of projecting the parts in a technical drawing are described as well as the related terminology and methods in computer graphics, mathematics and geometry. The computer-aided ways of modeling solids are analyzed. The introductory part is complemented by an overview of existing solutions by other authors and by the possibilities of my own method development. The monograph core is focused on the proposal of proceedings and algorithms for transformation process automation of 2D vector record comprising orthogonal projections representing the rotation part on a 3D model. The pilot implementations of algorithms and their verification by testing on the selected sample of geometric shapes are added.



Schneider, Matthias;
Entwicklung eines generischen Planungs- und Managementsystems für Verbände heterogener autonomer maritimer Fahrzeuge. - Ilmenau : Univ.-Verl. Ilmenau, 2012. - XIV, 196 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2011

Das stetig wachsende Interesse an der Erforschung und Industrialisierung der Ozeane führt zu immer neuen technischen Aufgaben und Herausforderungen in diesem Bereich. Vor allem die unter Wasser herrschenden extremen Bedingungen begünstigen den Einsatz heterogener autonomer Robotersysteme, welche selbstständig Missionen ausführen können. Diese Arbeit stellt ein neuartiges und umfassendes Konzept zur Missionsplanung und zum Management von Verbänden heterogener autonomer maritimer Fahrzeuge vor, welches die Umsetzung komplexer Missionsszenarios ermöglicht. Den Schwerpunkt dieser Arbeit bildet ein neuartiges zweistufiges Managementsystem, mit dem sich bestehende einzelautonome Systeme erweitern lassen, um diese kooperiert einsetzen zu können. Auf der Grundlage eines flexibel erweiterbaren Portfolios an Missionselementen ermöglicht es die Koordination von Fahrzeugverbänden, wobei sich die Komplexität einer Manöveraufgabe lediglich auf das entwickelte Teammanagement beschränkt. Weiterhin werden auf Basis eines festen Befehlssatzes die bestehenden einzelautonomen Fähigkeiten der Systeme genutzt, wodurch keine Änderung der fahrzeugeigenen Hard- und Software notwendig ist. Des Weiteren stellt diese Arbeit ein neu entwickeltes Konzept der Missionsplanung für Fahrzeugverbände vor, welches dem Anwender die Möglichkeit bietet ohne tiefgreifende Vorkenntnisse komplexe Teammissionen planen zu können. In diesem Zusammenhang wird ein neuartiges Konzept zum formationstreuen Ausweichen bekannter Hindernisse vorgestellt, welches in einem zusätzlichen Planungsschritt durchgeführt werden kann. Ein neuartiges parametrisierbares Fahrzeugmodell, welches auf einem geregelten Fahrzeugverhalten basiert, bildet den Kernpunkt der entwickelten Simulationsumgebung, die einen einfachen Test des vorgestellten Managementsystems gestattet. Somit lassen sich im Gegensatz zu bisherigen Ansätzen mit physikalischen Fahrzeugmodellen realitätsnahe Simulationen auf der Grundlage weniger Parameter durchführen. Das entwickelte Gesamtkonzept wurde sowohl in simulativen Tests als auch in realen Seeversuchen validiert und bestätigt.



Schühler, Mario;
Zum Entwurf planarer Antennen mit Hilfe periodischer Strukturen. - Ilmenau : Univ.-Verl. Ilmenau, 2012. - XV, 277 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2011

Periodisch strukturierte Oberflächen besitzen eine Reihe interessanter Eigenschaften, die sie unter anderem für den Einsatz im Antennenbereich attraktiv erscheinen lassen. In der vorliegenden Arbeit steht insbesondere deren Anwendung beim Entwurf planarer Antennen im Vordergrund. In diesem Zusammenhang wird zunächst die Wechselwirkung zwischen elektromagnetischen Wellen und periodisch strukturierten Oberflächen diskutiert. Aufgrund der starken Anisotropie periodisch strukturierter Oberflächen ergeben sich dabei zwei grundlegende Betrachtungsweisen: die Wellenausbreitung entlang der Oberfläche, die durch ein ausgeprägtes Dispersionsverhalten gekennzeichnet ist, und die Reflexion an der Oberfläche. Beiden Aspekten wird besondere Aufmerksamkeit geschenkt, dies schließt sowohl die analytische Modellierung als auch die messtechnische Charakterisierung ein. Weiterhin wird das Strahlungsverhalten periodisch strukturierter Oberflächen untersucht, dass mit dem Leckwellenbereich verbunden ist. Der Leckwellenbereich beschreibt einen bestimmten Frequenzbereich im Dispersionsverhalten und stellt die Verknüpfung zwischen der Dispersion entlang und der Reflexion an der Oberfläche dar, wie anhand von Messungen verdeutlicht wird. Bei der Analyse des Strahlungsverhaltens steht insbesondere der Einfluss der Begrenzung der Struktur im Mittelpunkt, die bei der Implementierung zwangsläufig erfolgen muss. Es wird erörtert, inwieweit die begrenzte gegenüber der unbegrenzten Struktur im Hinblick auf eine bestimmte Strahlungscharakteristik zu modifizieren ist. Im Anschluss an die Untersuchungen zum Strahlungsverhalten wird ausführlich auf den Entwurf einer planaren Leckwellenantenne eingegangen, die auf einer begrenzten periodisch strukturierten Oberfläche basiert. Die Antenne zeigt bei zirkularer Polarisation ein konisches Richtdiagramm und misst bei der Mittenfrequenz eine Höhe von˜$\lambda/25$ mit der Freiraumwellenlänge˜$\lambda$. Aufgrund des flachen Aufbaus lässt sich die Antenne prinzipiell auf einer ebenen Oberfläche montieren bzw. in diese einbetten. Das Beispiel hebt hervor, dass Leckwellenantennen auch in Bereichen Anwendung finden können, in denen bisher andere Antennenkonzepte eingesetzt werden. Die Besonderheit von Leckwellenantennen besteht in dem zusätzlichen Freiheitsgrad beim Entwurf, der sich aus dem dispersiven Verhalten ergibt. Neben der Beispielimplementierung wird auch auf eine Reihe weiterer Realisierungen planarer Antennen eingegangen.



Dorn, Ludwig;
Zum Einfluß von Arbeitsanforderungen an Cockpitbesatzungen auf die Flugsicherheit. - Ilmenau : Univ.-Verl. Ilmenau, 2011. - XXV, 220, XXVII S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2011
ISBN 978-3-86360-004-4
Enth. außerdem: Thesen

Der vorliegende Beitrag propagiert am Beispiel des kommerziellen Luftverkehrs einen Paradigmenwechsel für die wissenschaftliche Auseinandersetzung mit Frage- und Problemstellungen zum menschlichen Leistungsvermögen aus dem sicherheitsbezogenen Kontext gesellschaftlicher Mobilität. Mit Hilfe eines physikalisch-mathematisch orientierten Ansatzes wird auf der Grundlage einer Belastungs-Beanspruchungskonzeption und wissenschaftlicher Erkenntnisse zur Selbstorganisation dissipativer Systeme eine interdisziplinär ausgerichtete und synchrone Betrachtungsweise des arbeitenden Menschen in wenig Fehler verzeihenden Bereichen erschlossen. Dabei steht die konsequente Anwendung des Prozessgedankens im Vordergrund der Forschungsaktivität. Im Einzelnen richten sich die theoretischen Analysen auf den Piloten als Willenszentrale des Transportträger-Arbeitssystems im trilateralen Spannungsfeld von ergonomischer Arbeitsgestaltung, ökonomischer Effizienz und zu garantierender Betriebssicherheit. Damit erhält die Frage nach den Grenzen seines Regulationsvermögens einen allseitig ausgerichteten existenzrelevanten Stellenwert. Diese Limits gilt es zu identifizieren und zu verorten. Dazu wird der Konstruktansatz eines hypothetischen Lösungsmodells vorgestellt. In diesem Erkenntnisprozess ergibt sich die Möglichkeit, ein mehrdimensionales Kriteriensystem aufstellen zu können. Mit noch hypothetischem Charakter kann dies den Rahmen sowohl für angestrebte Optimierungen von Cockpitarbeit im Sinne einer menschengerechten Gestaltung als auch im Hinblick auf eine zu erhöhende Flugsicherheit abstecken und liefert damit die Aussicht auf eine Verbesserung langfristig ausgerichteter flugbetrieblicher Effektivität und Zufriedenheit sowohl für Luftfahrtgesellschaften als auch für deren Kunden. Für die empirische Konstruktverifizierung und Praxistauglichkeit wird eine mehrstufige Methodik vorgeschlagen. Der Ansatz kann dabei generell auf andere berufliche Tätigkeitsbereiche übertragbar sein. Aus den im Vorfeld der Konstrukterstellung durchgeführten Analysen über die augenblickliche Situation zur sicherheitsrelevanten Stellung von operationell tätigem Luftfahrtpersonal in einer sich technisch, sozial und organisatorisch schnell wandelnden Lebens- und Arbeitsumgebung lassen sich Gestaltungsmaßnahmen ableiten, die langfristig den Betrieb von Flugzeugen als attraktive Transportträger sichern könnten. Im Hinblick auf eine anzustrebende Verbesserung der Verträglichkeit von existenziellen, gesellschaftlichen und ökonomischen Bedürfnisbefriedigungen werden ein arbeitswissenschaftlich determinierter Argumentationspfad und ein entsprechender Vorschlag für die Um- bzw. Neustrukturierung europäischer Flugbetriebssysteme aufgezeigt.



Radler, Oliver;
Ein Beitrag zur Messung statischer und dynamischer Eigenschaften von elektro-magneto-mechanischen Energiewandlern und deren Komponenten. - Ilmenau : Univ.-Verl. Ilmenau, 2011. - XIV, 139 S.. - (Ilmenauer Schriften zur Mechatronik ; 1) : Zugl.: Ilmenau, Techn. Univ., Diss., 2011
ISBN 978-3-86360-007-5
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=18897

In dieser Arbeit werden, aufbauend auf bekannten Verfahren, neue Methoden zur Messung magnetischer Eigenschaften abgeleitet. Die Besonderheit des hier beschriebenen Messverfahrens im Vergleich zu herkömmlichen besteht darin, dass die magnetischen Eigenschaften elektromagnetischer Aktoren mit frei wählbarer Ansteuerung über die im Aktor enthaltene Spule bestimmbar sind. Neben Antriebselementen können auch genormte Proben und ein breites Spektrum an ferromagnetischen Bauteilen mit der Induktionsmethode im Wechselfeld gemessen werden. Durch das im Rahmen dieser Arbeit entwickelte adaptive Reglerkonzept ist die Realisierung eines kostengünstigen Messgeräts möglich. Neben dem Reglerkonzept werden die zur Realisierung des Verfahrens benötigten elektronischen Komponenten beschrieben. Das Potential des entstandenen Demonstrators wird an Messbeispielen aus den Bereichen Entwicklung, Produktion und Applikation elektromagnetischer Aktoren aufgezeigt.



Kanka, Mario;
Bildrekonstruktion in der digitalen inline-holografischen Mikroskopie. - Ilmenau : Univ.-Verl. Ilmenau, 2011. - XII, 113 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2011

Ein kohärent beleuchtetes Pinhole erzeugt sphärische Wellenfronten, welche durch ein mikroskopisches Objekt beeinflusst werden. Das hinter dem Objekt entstehende Interferenzmuster heißt Hologramm und wird mit einem 2D-Bild-Detektor aufgezeichnet. In der digitalen inlineholografischen Mikroskopie wird mit einem Computer aus einem solchen Hologramm ein Bild des mikroskopischen Objekts rekonstruiert. Das 1. Rayleigh-Sommerfeld Beugungsintegral beschreibt die Wellenausbreitung in skalarer Näherung und eignet sich zur Rekonstruktion von Inline-Hologrammen für eine linsenlose Mikroskopie. Der numerische Aufwand ist aufgrund einer notwendigen Interpolation des Hologramms direkt abhängig von der optischen Auflösung im Objektbild. Bei Verwendung von 2D-Bild-Sensoren (CCD, CMOS) mit 4 Millionen oder mehr Pixel sowie handelsüblicher Desktop-PCs ist mit Rekonstruktionszeiten von mehreren Minuten und oft auch mit einem die Kapazitäten des Computers übersteigenden Speicherbedarf zu rechnen. In der vorliegenden Arbeit werden zwei neue Rekonstruktionsmethoden für die linsenlose digitale inline-holografische Mikroskopie vorgestellt. Diese Methoden berechnen das 1. Rayleigh-Sommerfeld Integral für sphärische Wellenfronten. Dabei wird das Hologramm ähnlich einem Schachbrett in identisch große Teilhologramme zerlegt. Diese Teilhologramme werden nacheinander phasenmodifiziert, interpoliert und zu einer neuen Wellenfront wieder zusammengefügt. Auf diese Weise sind die Anforderungen an den Speicher des Computers erheblich reduziert. Die Methoden führen die notwendige Interpolation des Hologramms indirekt im Fourier-Raum aus, sodass der numerische Aufwand nicht länger von der optischen Auflösung abhängt. Die erste der Methoden verursacht geringfügige Interpolationsartefakte, welche mit der zweiten, einer um den Faktor 2.5 langsameren Methode vermieden werden. Mit einer weiteren Methode zur Vorfilterung des Hologramms ist es nun auch möglich, einen beliebigen Ausschnitt der Objektebene zu rekonstruieren. Ein Desktop-PC (2.66 GHz) rekonstruiert ein Hologramm mit 4 Millionen Pixel in etwa 6 Sekunden. Spezielle Hardware-Komponenten wie Grafikkarten kamen dabei nicht zum Einsatz. In Experimenten wurden Hologramme von 1 my m großen Polymethylmethacrylat-Kugeln (PMMA) ohne abbildende Optik detektiert und Bilder dieser Kugeln mit einer NA von 0.7 rekonstruiert, wobei das lichtübertragende Medium Luft war (Brechungsindex n = 1). Das dabei rekonstruierte, erweiterte Bildfeld hatte einen Durchmesser von etwa 260 my m. Damit im Zusammenhang wird eine Dimensionierung für ein digitales inline-holografisches Mikroskop vorgeschlagen sowie die sich daraus ergebenden Grenzen und mögliche Erweiterungen diskutiert.



Rosenbaum, Sören;
Entwurf elektromagnetischer Aktoren unter Berücksichtigung von Hysterese. - Ilmenau : Univ.-Verl. Ilmenau, 2011. - XXVIII, 168 S.. - (Ilmenauer Schriften zur Mechatronik ; 2) : Zugl.: Ilmenau, Techn. Univ., Diss., 2011
ISBN 978-3-86360-008-2
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=18835

Elektromagnete sind Antriebselemente, die für verschiedenste Aufgaben in Automatisierungstechnik und Automobilbau eingesetzt werden. Aktuelle Anforderungen nach hoher Dynamik und Energieeffizienz bewegen sich dabei oft an den Grenzen des physikalisch Möglichen. Gerade um in diesen Grenzbereichen einen zuverlässigen und robusten modellbasierten Entwurf gewährleisten zu können, ist es nötig, alle relevanten physikalischen Effekte zu berücksichtigen. Elektromagnetische Hysterese ist dabei ein Effekt, der sich stark auf das Verhalten eines Antriebs auswirkt, bisher aber im Entwurf in der Regel nicht berücksichtigt werden konnte. Im Rahmen dieser Arbeit wurde versucht, genau diese Lücke bereits für frühe Entwurfsphasen zu schließen. Dafür wurden in der Literatur bekannte Hysteresemodelle zur Abbildung der reinen Materialeigenschaft miteinander verglichen und das bestgeeignetste ausgewählt. Aufgrund seiner Genauigkeit und Recheneffizienz eignet sich das Jiles-Atherton-Modell gut für umfangreiche Simulationsrechnungen. Verschiedene Methoden zur Identifizierung und Optimierung des Modell-Parametersatzes aus gemessenen Materialkennlinien werden vorgestellt und miteinander verglichen sowie für eine automatisierte Bestimmung aufbereitet. Durch die erfolgreiche Implementation in das an der Technischen Universität Ilmenau entwickelte Entwurfstool SESAM kann der Einfluss von Hysterese auf das Verhalten von Elektromagneten anhand von Netzwerkmodellen analysiert und so in den Entwurfsprozess mit einbezogen werden. Denkbar sind so z. B. Berechnungen von hysteresebehafteten statischen und dynamischen Kennlinienfeldern oder Optimierungsrechnungen zum Minimieren von Remanenzkräften oder Ummagnetisierungsverlusten. Anhand von typischen Beispielen beim Elektromagnetentwurf wird die Leistungsfähigkeit des Algorithmus unter Beweis gestellt.



Schliewe, Jana;
Akzeptanz innovativer Self-Service-Technologien : eine geschlechtsfokussierte Betrachtung der Akzeptanz von Selbstbedienungskassen im Einzelhandel. - Ilmenau : Univ.-Verl. Ilmenau, 2011. - LXXV, 240 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2011

Die Nutzung innovativer Technologien, wie Selbstbedienungskassen (SB-Kassen) bietet Einzelhändlern einen Ansatz, um die Qualität der Unternehmens-Kunden-Beziehung zu erhöhen. Die Frage nach den demografischen Einflussfaktoren, wie z. Bsp. dem Geschlecht, auf die Nutzungsbereitschaft dieser neuen Technologie wurde bisher nur unzureichend untersucht. Dr. Jana Schliewe präsentiert eine geschlechtsfokussierte Analyse der Akzeptanz von SB-Kassen. Sie analysiert die Erkenntnisse der Technikakzeptanz sowie der Geschlechterforschung und integriert diese in ein umfassendes Gesamtmodell. Die Autorin überprüft das entwickelte Hypothesenmodell anhand einer empirischen Studie durch einen Mehrgruppenvergleich im Rahmen der Strukturmodellierung. Aufbauend auf den gewonnenen Erkenntnissen gibt sie Empfehlungen für Forschung und Praxis.



Kuchinke, Björn A.; Sundmacher, Torsten; Zerth, Jürgen
Marktstrukturen und Marktverhalten im deutschen Gesundheitswesen: die Bereiche Pharma und stationäre Versorgung im Fokus gesundheitsökonomischer Forschung : [ausgewählte Beiträge des sechsten Duisburg-Ilmenau-Bayreuther Oberseminars zur Gesundheitsökonomie und Sozialpolitik (DIBOGS) ... vom 29. bis 33. Oktober 2010 in Neuss]. - Ilmenau : Univ.-Verl. Ilmenau. - 119 S.. - (DIBOGS-Beiträge zur Gesundheitsökonomie und Sozialpolitik ; 5) ISBN 978-3-86360-005-1
Enth. 8 Beitr.

Mit dem vorliegenden fünften Band der Reihe "DIBOGS-Beiträge zur Gesundheitsökonomie und Sozialpolitik" werden nun wieder ausgewählte Workshopbeiträge einer breiten Öffentlichkeit vorgestellt. Der Schwerpunkt dieses Bandes liegt auf der Analyse von Marktstrukturen und Marktverhalten in den Bereichen Pharma und stationäre Versorgung. Im ersten Beitrag von Birg wird der Einfluss von Rabattverträgen zwischen Krankenkassen und pharmazeutischen Herstellern auf die Anzahl der Unternehmen im Markt untersucht. Dewenter/Jaschinski/Kuchinke untersuchen in ihrem Artikel die Frage der Zwei-Klassen-Medizin anhand von unterschiedlichen Wartezeiten im Krankenhaussektor unter besonderer Berücksichtigung des räumlichen Wettbewerbs zwischen stationären Aktuhäusern. Schmid gibt einen Überblick über den Forschungsstand im stationären Sektor mit dem Fokus auf Konzentration und Wettbewerb im Markt. Schwegel untersucht abschließend die kirchlichen Trägerstrukturen im deutschen Krankenhausmarkt.



Vogt, Sebastian;
Ich bin der Musikant mit Laptop in der Hand!? : vom Einfluss technischer Innovationen auf den Produktionsprozess von elektronischer Musik ; ein Rückblick auf die Jahre 1997 bis 2007. - Ilmenau : Univ.-Verl. Ilmenau, 2011. - 350 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2011
Literaturverz. S. 309 - 347

Im Mittelpunkt dieser Arbeit steht die Suche nach Antworten auf die Frage, wie technische Innovationen den Produktionsprozess von elektronischer Musik in den Jahren 1997 bis 2007 beeinflusst haben. Dafür wurden im Jahr 2008 Entwickler von technischen Innovationen, Fachautoren, Künstler sowie Wissenschaftler aus dem Bereich der elektronischen Musik mit Hilfe von siebzehn problemzentrierten Interviews deutschlandweit befragt. Dies war mit dem Ziel verbunden, technische Innovationen in der Produktion von elektronischer Musik sowie deren Einfluss auf den Produktionsprozess im Sinne der Grounded Theory zu erkennen und zu systematisieren. Es zeigte sich, dass die zentralen Innovationen die Virtualisierung des Tonstudios sowie die digitale Vernetzung (Peer Production, Demokratisierung des Vertriebs, Reputationsökonomie, Verbindung von Angebot und Nachfrage) sind. Weiterhin bietet diese Arbeit eine systematische Differenzierung des Innovationsbegriffs sowie einen Überblick über die Entwicklung der elektronischen Musik von ihren Anfängen bis in die Gegenwart.



Cimalla, Irina Nicoleta;
AlGaN/GaN sensors for direct monitoring of fluids and bioreactions. - Ilmenau : Univ.-Verl. Ilmenau, 2011. - 216 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2010
ISBN 978-3-86360-003-7
Enth. außerdem: Thesen

In dieser Arbeit wurden AlGaN/GaN-Heterostrukturen, die ein hohes Potenzial für pH-Sensoren aufweisen, charakterisiert und weiterentwickelt für die elektronische Erfassung von Zellreaktionen. Dazu wurden NG108-15 Nervenzellen auf den Sensoroberflächen kultiviert und deren Antwort auf Stimulierung mit verschiedenen Neuroinhibitoren aufgezeichnet. Zunächst wurde ein Messaufbau für das Erfassen extrazellularer Potenzialänderungen entworfen und das bestehende Chipdesign sowie die Herstellungstechnologie weiterentwickelt. Für die Auswahl optimaler Sensoren für die Transistor-Zell-Kopplung wurden sowohl mittels PIMBE und MOCVD gewachsene Heterostrukturen charakterisiert bezüglich ihrer elektronischen Transporteigenschaften und ihres Verhaltens als pH-Sensor. Auf AlGaN- und GaN-Oberflächen konnte eine sehr gute Kultivierung verschiedener Zelllinien erzielt werden ohne die sie sonst übliche Verwendung organischer Zwischenschichten zur Erhöhung von Adhäsion (z.B. Fibroplasten). Der Einfluss verschiedener Technologie- und sensorrelevanter Behandlungsschritte auf die Oberflächeneigenschaften der AlGaN/GaN-Sensoren wurde untersucht und die Medienstabilität bzw. Wechselwirkungen wurden analysiert. In einem offenen Setup mit Gasaustausch zur Umgebung wurde eine spontane Zellaktivität erfasst ("Zellatmung"), die in einem abgeschlossenen Setup aufgrund des reduzierten Gasaustausches nicht auftrat. Weiterhin wurde die Empfindlichkeit des Sensors auf Potenzialänderungen durch Na+ and K+ Ionen und deren Reaktionen mit Neurotoxinen bestätigt. Durch Titration in komplexe Elektrolyte und durch Kultivierung von NG108-15 Nervenzellen auf der Sensoroberfläche wurde demonstriert, dass die Sensoren in der Lage sind, komplexe Zellreaktionen zu erfassen. Berechnungen mit Hilfe von Simulationen und vereinfachten analytischen Beschreibungen für die Ionenflüsse belegten, dass bei der Zell-Transistor-Kopplung das Sensorsignal im Wesentlichen durch die Na+ Flüsse erzeugt wird. Die experimentellen Beobachtungen und die theoretischen Modellierung zeigte dafür eine gute Übereinstimmung. Zusammenfassend wurde in dieser Arbeit gezeigt, dass AlGaN/GaN-ISFETs stabil unter physiologischen Bedingungen arbeiten, sehr gute Signalauflösung ermöglichen und für Langzeitmessungen mit lebenden Zellen geeignet sind.



Evers, Florian;
Prädiktive Middleware-basierte Mobilitätsunterstützung für multikriterielle Handover. - Ilmenau : Univ.-Verl. Ilmenau, 2011. - XX, 481 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2011
Enth. außerdem: Thesen

Die vorliegende Dissertation befasst sich mit Mobilitätsunterstützungen für moderne mobile Endgeräte, welche auf das Internet zugreifen sollen. Um die Vielzahl der bereits verfügbaren Lösungen zu klassifizieren, werden Anforderungen definiert, welche sich an "unbedarften Nutzern" orientieren, die ihre Geräte wie gewohnt auch im mobilen Umfeld benutzen möchten. Es stellte sich heraus, dass lediglich die Gruppe der Middleware-basierten Mobilitätsunterstützungen diese Anforderungen erfüllen kann. Da jedoch noch keine der gefundenen Lösungen dazu in der Lage war, wurde die "Roaming-Enabled Architecture" (REACH) entwickelt. REACH tritt mit der Maßgabe an, alle gestellten Anforderungen zu erfüllen. Dazu werden Proxyserver eingesetzt, welche als "Ankerpunkte" fungieren und die Server im Internet vor den negativen Auswirkungen von Mobilitätsereignissen abschotten. Werden mehrere Proxyserver gleichzeitig involviert, kann sogar den negativen Auswirkungen durch das "Dreiecks-Routing" entgegengewirkt werden. Eine große Herausforderung bestand jedoch darin, die Datenströme der nicht modifizierten Anwendungen abzufangen, damit die Sicherungsmechanismen von REACH greifen können. Dazu wird eine Vielzahl an Möglichkeiten diskutiert, wobei ein besonderes Leistungsmerkmal von REACH darin besteht, diese Mechanismen auch in Kombination anbieten zu können. So stellen beispielsweise längerfristige Isolationssituationen keine Probleme mehr für die Anwendungen dar, und es steht erstmalig eine Mobilitätsunterstützung zur Verfügung, welche in solchen Situationen auch die Benutzer mit einbeziehen kann. Weiterhin wird ein prädiktiv arbeitender Handoverentscheider vorgestellt, welcher durch Beobachtung von Signalstärkewerten drahtlos arbeitender Netzzugangstechnologien drohende Abrisse erkennen kann. REACH unterstützt prinzipiell beliebige Netzzugangstechnologien, solange diese einen Zugang zum Internet ermöglichen können, und erlaubt "weichere vertikale Handover" sowie Kanalbündelungsszenarien. So kommen im Demonstrator bereits drahtgebundenes Ethernet, drahtloses arbeitendes WLAN sowie GPRS mittels eines per Bluetooth angebundenen Mobiltelefons zum Einsatz. Der Demonstrator stellt eine praxistaugliche Mobilitätsunterstützung dar, was durch Tests belegt wird und bereits während zahlreicher praktischer Vorführungen einem breit gefächerten Publikum vorgestellt werden konnte.



Anke, Manfred; Müller, Ralf
Das Widerspiegelungsvermögen des Mengen-, Spuren- und Ultraspurenelementstatus durch Hautderivate bei Mensch und Tier in Abhängigkeit von Unterversorgung bzw. Intoxikation. - Ilmenau : Univ.-Verl. Ilmenau. - 181 S.. - (Berichte aus der Biomechatronik ; 7) ISBN 978-3-86360-002-0

Das Integument des Menschen und anderer Wirbeltiere ist mit seinen Anhängen (Haare, Borsten, Nägel, Klauen und Federn) neben Vollblut, Blutserum und Harn das wichtigste Indikatororgan, um Überschuss oder Mangel wichtiger Mengen-, Spuren- und Ultraspurenelemente anzuzeigen. Das darin enthaltene schwefelreiche Keratin ist besonders geeignet, Metallionen dauerhaft zu binden. Deren quantitative analytische Bestimmung ermöglicht Human- und Veterinärmedizinern wichtige Rückschlüsse auf Mangelerkrankungen bzw. Intoxikationen zu ziehen. Die Elementbestimmung in Keratinen ist eine sehr geeignete Methode zur Erstellung fundierter Diagnosen und Therapien. Den Umweltwissenschaftlern ermöglicht es, chemische Belastungen in der Biosphäre zu identifizieren.



Jödicke, Ralph;
Modellbildung und Simulation der großen Deformationen menschlicher Weichteile beim Sitzen. - Ilmenau : Univ.-Verl. Ilmenau, 2011. - 174 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2010
Enth. außerdem: Thesen

Im Rahmen dieser Arbeit wurde ein FE-Modell des menschlichen Weichteilgewebes entworfen, das den Anforderungen entspricht, die sich aus dem Entwurf ergonomischer Sitzsysteme ergeben. Das Modell des Weichteilgewebes wurde in das Menschmodell DYNAMICUS integriert und mit RAMSIS-Daten anthropometrisch parametrisiert. Dazu wurde das Mehrkörpersimulationswerkzeug alaska um eine nichtlineare FE-Schnittstelle erweitert. Auf der Grundlage von Messungen der Druckverteilungen und der Schwingungsübertragungen wurde ein transparentes Verfahren entworfen, um viskoelastische Materialparameter des menschlichen Körpers bei vernachlässigbarer gesundheitlicher Belastung durch Parameteroptimierung zu ermitteln. Das dazu verwendete Verfahren ist schlank und gut dokumentiert. Damit kann es auch für beliebige Haltungen und Probanden angewendet werden. Da bei diesem Verfahren statistische Parameter eine zentrale Rolle spielen, ist es roboust gegenüber Änderungen der Modellaufl ösung, der Modellierungstiefe und quantitativer Versuchsbedingungen. Zu diesen quantitativen Versuchsbedingungen gehören die Auflösung der Druckmessmatten, die Messzeit, die Amplitude der Anregung und die Abtastrate der Beschleunigungsmessungen. Für statische und dynamische Untersuchungen wurde in dieser Arbeit dasselbe Modell verwendet, das mit vertretbarem Aufwand anthropometrisch skalierbar ist. Dieses Modell ist damit einfacher und schneller anzuwenden als für ähnliche Anwendungen bereits vorliegende Lösungen.



Koch, Jürgen;
Laserendbearbeitung metallischer Werkstoffe. - Ilmenau : Univ.-Verl. Ilmenau, 2011. - 230 S.. - (Werkstofftechnik aktuell ; 5) : Zugl.: Ilmenau, Techn. Univ., Diss., 2010
ISBN 978-3-939473-95-4
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=17418

Die Laserendbearbeitung metallischer Werkstoffe fasst die Einzelprozesse der abtragenden Mikromaterialbearbeitung von Metallen mit Laserpulsen von ns-Dauer zusammen. Dabei wird erstmals die Strahlausbreitung in die Betrachtungen einbezogen. Somit gelingt es, ein Modell zu erarbeiten, das Vorhersagen zu Optimierungsbemühungen erlaubt und ein tieferes Verständnis dieser Abtragprozesse ermöglicht. Schließlich führen Optimierungsergebnisse auf Basis der entwickelten Modellvorstellung zu einer Verkürzung der Prozesskette. So gelingt einerseits die Aufteilung des Bearbeitungsprozesses in Schruppen und Schlichten, andererseits motiviert die Beobachtung von erstarrten Schmelzefilmen zur Erzeugung einer definierten Schmelzeschicht. Damit kann die Qualität der gefertigten Oberflächen bei reduzierter Bearbeitungszeit gesteigert werden, wobei sich die Fertigung in einer Aufspannung realisiert lässt.



Humbla, Stefan; Hein, Matthias A.
Proceedings of the 17th International Student Seminar "Microwave and Optical Applications of Novel Phenomena and Technologies" : June 8 - 10, 2010, Ilmenau, Germany. - Ilmenau : Univ.-Verl. Ilmenau, 2011. - VII, 79 S.

The first International Student Seminar, inspired by Prof.es O. and I. Vendik (St. Petersburg Electrotechnical University) and supported by Prof. E. Kollberg (Chalmers University of Technology), was held in 1994. Later on hosted in St. Petersburg and other renowned places in Sweden, France, Germany, UK, and Finland, the seminar has developed to a truly European platform for the scientific exchange, inspiration, and social networking of students and young researchers in the area of "microwave and optical applications of novel phenomena and technologies". - In 2010, the 17th International Student Seminar was organised by the Institute for Micro- and Nanotechnologies IMN MacroNano® at Ilmenau University of Technology, Germany. Topics including optical plasmons, metamaterials, superconductivity, as well as novel device, system, and technology aspects for highfrequency applications were covered by invited tutorials and regular contributions, such as those compiled in the present volume.



Heubach, Michael
11. Ilmenauer TK-Manager-Workshop : Technische Universität Ilmenau, 17. September 2010 : Tagungsband. - Ilmenau : Universitätsverlag Ilmenau, 2011. - 106 Seiten ISBN 978-3-939473-97-8
Literaturangaben

Im Februar 1995 veranstaltete das Fachgebiet Kommunikationsnetze erstmalig einen Workshop zu "Branchentypischen Anwendungen in der Informations- und Telekommunikationstechnik". Er diente der Diskussion des Weiterbildungsbedarfs mit Partnern aus der Praxis in Vorbereitung des berufsbegleitenden Weiterbildungsstudienganges "Telekommunikations-Manager". Dieser, kurz TK-Manager genannte Studiengang, wird seit 1996 erfolgreich durchgeführt, hat bereits etwa 100 Absolventen ausgebildet und ist somit zu einer Institution geworden. Seit 1998 findet der "Ilmenauer TK-Manager Workshop" regelmäßig alle zwei Jahre begleitend zum Weiterbildungsstudiengang "TK-Manager" statt. Das Ziel besteht in der Förderung des Erfahrungsaustausches zwischen Absolventen und Studenten des Studienganges und interessierten Partnern aus anderen Bildungseinrichtungen und der Wirtschaft. Das Spektrum der Vorträge umfasst aktuelle Themen aus den Bereichen IT/TK-Technik, Wirtschaft und Recht. Der Workshop stand unter dem Motto: "Informationstechnik als Motor der Zukunft". In diesem Jahr führten wir nunmehr den Workshop zum elften Mal durch und nehmen dies zum Anlass, die Beiträge des Workshops und darüber hinaus aktuelle Forschungsthemen des Fachgebiets Kommunikationsnetze, das für den TK-Manager federführend ist, in einem Tagungsband zu veröffentlichen.



Fröber, Ulrike;
Mikrosystembasierte Zellkultivierung und Zellmanipulation zur Applikation mechanischer Reize auf Zellen. - Ilmenau : Univ.-Verl. Ilmenau, 2011. - 200 S.. - (Berichte aus der Biomechatronik ; 6) : Zugl.: Ilmenau, Techn. Univ., Diss., 2010
ISBN 978-3-939473-96-1
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=17492

Die übergeordnete Fragestellung der vorliegenden Arbeit ist biomedizinischer Art und seit mehr als 150 Jahren anhängig: Wie verhalten sich Zellen unter definierter Belastung? In vivo ist die Beobachtung zellulärer Prozesse bisher nicht ohne invasive Methoden möglich. Das verlangt nach einer Lösung in vitro, welche die natürlichen Bedingungen adäquat nachahmt und gleichzeitig optimale Bedingungen für die Beobachtung und Beeinflussung der Prozesse bietet. Dass sich dafür Mikrozellkultivierungssysteme (MZKS) eignen, wird in dieser Arbeit nachgewiesen. Anhand der Analyse des Standes der Technik zur herkömmlichen und zur mikrosystembasierten Zellkultivierung sowie zur Zellmanipulation erfolgt die Ableitung von Anforderungen, welche die Zellkultur und die Nutzer an ein MZKS stellen. Ein Mikrosystem bildet mit der Kultivierungskammer, den Schlauchanschlüssen, dem integrierten Scaffold, dem optischen und mechanischen Zugang und anderen Bestandteilen die physische Basis des Gesamtsystems. Es wird durch periphere Module zur Versorgung der Zellen und zur Einstellung der Umgebungsbedingungen, zur Beobachtung der Prozesse und Zustände und zur Manipulation der Zellen und technischen Komponenten ergänzt. Dieser Aufbau wird anhand exemplarischer Umsetzungen erläutert.



Rebhan, Sven;
Task- and knowledge-driven scene representation : a flexible on-demand system architecture for vision. - Ilmenau : Univ.-Verl. Ilmenau, 2011. - XII, 172 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2010

Die Umgebung des Menschen ist voller visueller Details. Diese immense Menge an Information kann, unter der Annahme von begrenzten Verarbeitungs- und Speicherresourcen, nur teilweise aufgenommen und gespeichert werden. Daraus ergibt sich die Notwendigkeit einer selektiven Verarbeitung, die, je nach Aufgabenstellung, zu einer unterschiedlichen Repräsentation der visuellen Szene führt. Psychophysische Experimente zeigen, dass dabei die erfasste Umgebung nicht nur örtlich, sondern auch im Merkmalsraum selektiv bearbeitet wird, dass heißt es wird nur die visuelle Information aufgenommen, die für das Lösen der jeweiligen Aufgabe erforderlich ist. Im Rahmen dieser Arbeit werden eine flexible Systemarchitektur und eine Kontrollstruktur zur aufgabenbezogenen Szenenrepräsentation vorgestellt. Im Gegensatz zu existierenden Arbeiten ermöglicht dieser Ansatz eine selektive Informationsaufnahme. Die vorgeschlagene Architektur enthält neben einem Lang- und Kurzzeitgedächtnis sowie einer Aufmerksamkeitskarte auch mehrere Verarbeitungsmodule zur Merkmalsextraktion. Diese Verarbeitungsmodule sind spezialisiert auf die Extraktion eines Merkmals und arbeiten unabhängig voneinander. Sie können jedoch je nach Aufgabenstellung dynamisch miteinander gekoppelt werden um gezielt die benötigte Information aus der Szene zu extrahieren. Die Entscheidung, welche Information benötigt wird und welche Module zur Extraktion dieser Merkmale gekoppelt werden müssen, trifft die im Rahmen der Arbeit entwickelte Kontrollstruktur, welche das gespeicherte Wissen des Systems und die gestellte Aufgabe berücksichtigt. Weiterhin stellt die Kontrollstruktur sicher, dass algorithmische Abhängigkeiten zwischen den Verarbeitungsmodulen unter Zuhilfenahme von systemimmanentem Prozesswissen automatisch aufgelöst werden. Die hier vorgestellte Systemarchitektur und die ebenfalls vorgeschlagene Kontrollstruktur werden experimentell anhand einer realen Tischszene evaluiert. Bei den durchgeführten Experimenten zeigt sich, dass bei Lösung einer gestellten Aufgabe die Menge der vom System verarbeiteten und gespeicherten Informationen deutlich reduziert wird. In der Folge werden die Anforderungen an die Verarbeitungs- und Speicherressourcen ebenfalls deutlich reduziert. Diese Arbeit leistet damit einen Beitrag zur aufgabenbezogenen Repräsentation von visuellen Szenen, da nur noch die Information verarbeitet und gespeichert wird, die tatsächlich zur Lösung der Aufgabe erforderlich ist.



Klimsa, Paul; Grobe, AnettKlimsa, Anja;
Lernstand Medien in Thüringen : Ergebnisse einer digitalen Befragung zur Überprüfung der Medienkompetenz der Thüringer Schüler und Schülerinnen der 7. Klassen sowie zur Bewertung der Eignung von Erhebungssoftware aus der Sicht der Schüler und Lehrer. - Ilmenau : Univ.-Verl. Ilmenau, 2011. - 95 S. ISBN 978-3-939473-87-9
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=17104

Die Medienkompetenz wird als eine wichtige Voraussetzung für die Teilhabe an einer demokratischen Gesellschaft angesehen. Was ist jedoch Medienkompetenz? Kann man sie erfassen? Wie kompetent sind junge Menschen im Schulalter? Diese Fragen sollten in einem gemeinsamen Forschungsprojekt des Thüringer Ministeriums für Bildung, Wissenschaft und Kultur und der Technischen Universität Ilmenau, unter der Leitung von Prof. Dr. Paul Klimsa und Prof. Dr. Anja Klimsa beantwortet werden. In diesem Buch sind Ergebnisse einer Befragung von Schülerinnen und Schülern der 7. Klassenstufe ausgewählter Thüringer Schulen zu finden. Das mit der Studie ermittelte Bild der Medienkompetenz der Schülerinnen und Schüler liefert Hinweise auf Stärken und Schwächen der medialen Bildung. Es deutet auch an, dass eine weitere systematische Medienkompetenzentwicklung in den Schulen notwendig ist.



Sondermann, Mario;
Mechanische Verbindungen zum Aufbau optischer Hochleistungssysteme. - Ilmenau : Univ.-Verl. Ilmenau, 2011. - XVI, 162 S.. - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion ; 19) : Zugl.: Ilmenau, Techn. Univ., Diss., 2010
ISBN 978-3-939473-94-7

Optische Technologien gelten als eine der Schlüsseltechnologien des 21. Jahrhunderts. Die Vielfalt an optischen Systemen und die Anforderungen an diese Systeme nehmen stetig zu und machen deshalb eine kontinuierliche Entwicklung unter wissenschaftlichen Gesichtspunkten notwendig. Die Herstellung optischer Systeme erfolgt in der Regel in mehrstufigen Prozessen. Wichtige Prozessschritte sind das Verbinden optischer Bauelemente mit mechanischen Bauelementen und das Verbinden bereits gefasster optischer Bauelemente zu optischen Systemen. Die vorliegende Arbeit zeigt den aktuellen Entwicklungsstand bei der Umsetzung dieser Verbindungsaufgaben anhand von optischen Hochleistungssystemen auf und stellt anschließend Möglichkeiten für eine Weiterentwicklung vor. Die dargestellten Betrachtungsweisen sind ebenso wie die aufgezeigten Lösungsräume allgemein auf die Gestaltung von mechanischen Verbindungen übertragbar und bieten besonders für feinwerktechnische Anwendungen Vorteile.



Jaenichen, Sebastian; Steinrücken, Torsten
Wettbewerbsstrategien auf Medien- und Standortmärkten : eine vergleichende Analyse des Zusammenhangs zwischen Wettbewerb, Strategiewahl und Marktergebnis unter Berücksichtigung regulatorischer Instrumente. - Ilmenau : Univ.-Verl. Ilmenau, 2010. - 209 S. ISBN 978-3-939473-92-3
Enth. 3 Beiträge

Der vorliegende Sammelband enthält drei Aufsätze, in denen aktuelle Herausforderungen gestaltender Wirtschafts- und Wettbewerbspolitik in großer Detailschärfe beleuchtet werden. Dazu spüren die Autoren den Wettbewerbskräften auf Medienmärkten und auf Standortmärkten nach und liefern mit überraschenden Einsichten wichtige Impulse für die Einschätzung des Erfordernisses staatlicher Intervention sowie für eine Würdigung konkreter wettbewerbspolitischer Instrumente auf diesen Märkten.



Norén, Markus;
Flip-Chip-Technologie auf keramische Substrate. - Ilmenau : Univ.-Verl. Ilmenau, 2010. - 186 S.. - (Werkstofftechnik aktuell ; 4) : Zugl.: Ilmenau, Techn. Univ., Diss., 2009
ISBN 978-3-939473-91-6
Parallel erschienen als Onlineausg. unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=16797

Das Ziel dieser Arbeit ist, die Grenzen des traditionellen thermischen Managements für die Flip-Chip-Technologie auf LTCC-Modulen für mobile Handgeräte aufzuzeigen und die Zuverlässigkeit bezüglich rascher und langsamer Temperaturwechselbelastungen zu untersuchen. In der traditionellen LTCC-Technologie gibt es zwei Varianten, um den Wärmetransport zu erhöhen, vertikal angeordnete thermische Durchkontaktierungen und horizontale Wärmespreizer. Weiter wird der Einfluss des Underfillers und des Bump-Materials untersucht. Für die thermischen Untersuchungen werden sowohl Messungen an produktnahen Proben als auch FE-Simulationen verwendet. Ferner sollen weiterführende Möglichkeiten des thermischen Managements gefunden und bewertet werden, auch wenn die aufwendigeren Prozesse und Materialkombinationen noch nicht die Anforderungen an eine Massenfertigung erfüllen. Um das thermische Management zu verbessern, wurden die Möglichkeiten der Cavities, die mechanische Nachbearbeitung von LTCC-Modulen, das Sputtern und das galvanische Abscheiden zur Metallisierung eingesetzt. Die Zuverlässigkeit des traditionellen LTCC-Flip-Chip-Moduls wurde durch experimentelle Zuverlässigkeitsuntersuchungen charakterisiert. Dafür wurden Daisy-Chain-Aufbauten mit und ohne Underfill verwendet. Zur Beurteilung der Lotstelle und der Rissausbreitung wurden Querschliffe, Lichtmikroskop- und REM- Aufnahmen benutzt.



Hopfe, Norman;
Feedback control : systems with higher unknown relative degree, input constraints and positivity. - Ilmenau : Univ.-Verl. Ilmenau, 2010. - 270 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2010

Diese Dissertation behandelt die Regelung von linearen Systemen mit m Eingängen und m Ausgängen und unbekanntem, aber beschränktem, Relativgrad und lineare Volterra-Stieltjes Systeme. Die folgenden Regler werden betrachtet: adaptive Rückführung des Ausgangssignals und dessen Ableitung und Funnel Regelung. Das Ziel dieser Arbeit ist die Entwicklung eines Reglers, der ohne Systemidentifikation auskommt. Die Systeme erfüllen die klassischen Annahmen der adaptiven Regelung. Insbesondere werden Systeme mit höherem Relativgrad betrachtet. Zunächst wird ein adaptiver Regler entwickelt, der vom Systemverhalten lernt und ein vorab festgelegtes Regelungsziel gewährleistet. Der bekannteste Regler ist der lambda Regler. Dieser Regler folgt jedem System, dessen Relativgrad bekannt ist. Dieser Regler wird auf Systeme mit unbekanntem Relativgrad erweitert für die eine obere Schranke bekannt ist. Dies wird dadurch erreicht, dass eine Rückführung des Ausgangssignals und dessen Ableitungen benutzt werden. Ein Vorteil des vorgestellten Reglers ist seine Einfachheit. Hauptnachteil ist, dass die Regelgüte nicht direkt in den Entwurf eingeht und die Verstärkung groß werden kann. Das bekannte Konzept der Funnel Regelung für Systeme mit Relativgrad eins wird eingeführt. Es wird gezeigt, dass der klassische Funnel Regler, angewendet auf Eingangsbeschränkungen, die Regelungsziele des Funnel Reglers gewährleistet. Eingangsbeschränkungen sind ein wichtiges Merkmal dieser Arbeit. Ein zweites Ziel ist es, die Ergebnisse des Funnel Reglers auf Systeme mit Relativgrad zwei zu verallgemeinern. Die Einfachheit der Kontrollstrategie kann erhalten werden, wenn die Rückführung der Ableitungen erlaubt ist. Dieser neue Funnel Regler ist robust gegenüber Systemen mit unbekanntem Relativgrad eins oder zwei und Eingangsbeschränkungen können auf Systeme mit Relativgrad zwei verallgemeinert werden. Letztlich werden Volterra-Stieltjes Systeme hinsichtlich Positivität, verschiedenen Stabilitätskonzepten, Nulldynamik und Funnel Regler betrachtet. Explizite Kriterien für die Stabilitätskonzepte werden abgeleitet. Diese Ergebnisse werden genutzt, um den Funnel Regler auf Volterra-Stieltjes Systeme zu verallgemeinern. Positivität der Lösung des geschlossenen Systems ist sicher gestellt, Eingangsbeschränkungen sind möglich und Nicht- Negativität des Einganges kann unter weiteren Annahmen gewährleistet werden.



Mämpel, Jörg;
Definition und exemplarische Realisation eines modularen Systems für die Kletterrobotik. - Ilmenau : Univ.-Verl. Ilmenau, 2010. - 183 S.. - (Berichte aus der Biomechatronik ; 5) : Zugl.: Ilmenau, Techn. Univ., Diss., 2010
ISBN 978-3-939473-90-9
Enth. außerdem: Thesen

Kletterroboter finden heute schon vielfältige Anwendung bei Reinigungs- und Inspektionsaufgaben. Dennoch sind aktuelle Kletterroboter Spezialentwicklungen mit einem oft eingeschränkten Anwendungsbereich. Mit Hilfe des modularen Ansatzes wird die Funktionsvariabilität solcher Systeme erweitert. Ein modularer Kletterroboter wird im Rahmen eines dreistufigen mechatronischen Entwurfsprozesses entwickelt, der sowohl mechanische als auch elektronische und informationelle Aspekte berücksichtigt. Ergebnisse dieses Konstruktionsprozesses sind zwei Bewegungsmodule, drei Greifmodule, ein Energiemodul, angepasste mechanische Verbinder zur Kopplung der Module und die modulinterne und -externe Elektronik. Durch Rekombination dieser Modultypen können unterschiedliche Roboterstrukturen aufgebaut werden. Die Kletterfähigkeit auf rundem Substrat einer Beispielkonfiguration wird nachgewiesen. Das entwickelte modulare System bietet das Potential für die zukünftige Entwicklung unterschiedlicher Kletterroboter.



Lewandowska, Agnieszka;
Kontextsensitive Dienste und Informationen für mobile Teilnehmer. - Ilmenau : Univ.-Verl. Ilmenau, 2010. - XVII, 240 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2010

Die Kommunikation zwischen Menschen basiert auf Sprache (explizite Kommunikation) und auf unmittelbaren Informationen (implizite Kommunikation). Die unbewusste Berücksichtigung von Kontextinformationen während der Kommunikation kann aber vom Computer nicht automatisch umgesetzt werden. Deswegen ist die Interaktion zwischen Mensch und Computer weitaus schwieriger zu realisieren. Die vorliegende Arbeit befasst sich mit der Erfassung, Verarbeitung und Anwendung der Kontextinformationen bei mobilen Benutzern. Dafür werden die Ergebnisse einer Literaturrecherche über Informationssysteme für mobile Teilnehmer und die daraus abgeleiteten Bewertungskriterien für ein kontextsensitives System vorgestellt. Für die Architektur des Informationssystems SFINKS werden Datenverarbeitungsprozesse konzipiert, die eine optimale Informationsanpassung an einen mobilen Benutzer und seinen wechselnden Kontext ermöglichen. Das System kann seinen Benutzern individuell zugeschnittene Informationen und Dienste zu jedem Zeitpunkt und an jedem Ort bereitstellen.



Niebelschütz, Florentina;
Mikrostrukturierungstechniken zur Herstellung von MEMS aus Halbleitern großer Bandlücke. - Ilmenau : Univ.-Verl. Ilmenau, 2010. - 200 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2009

Die Erweiterung des Anwendungsspektrums Mikroelektromechanischer Systeme (MEMS) um das Einsatzgebiet der chemischen, biologischen, gasartspezifischen und mikrofluidischen Sensoren stellt hohe Anforderungen an Stabilität (chemisch und mechanisch), Biokompatibilität, Miniaturisier- und Integrierbarkeit der verwendeten Materialien. Trotz der für diese Sensoren vorteilhaften Materialeigenschaften von Gruppe III-Nitriden gibt es bis heute nur eine beschränkte Anzahl von Forschergruppen, die sich mit der Prozessierung von MEMS auf Basis von GaN bzw. AlGaN/GaN-Heterostrukturen beschäftigen. Eine Hauptursache besteht vor allem in der aufwendigen Strukturierung dieser chemisch hoch stabilen Materialien. Die vorliegende Arbeit widmet sich daher der Entwicklung von Strukturierungstechniken zur Herstellung von MEMS aus Halbleitern großer Bandlücke mit einem besonderen Fokus auf nass- und trockenchemische Ätzverfahren. Diese sollen dazu verwendet werden, AlGaN/GaN-Resonatoren auf Si- und 4H-SiC-Substraten, sowie 3C-SiC/Si- und AlN/Saphir-Pseudosubstraten zu realisieren. Dabei wird das zweidimensionale Elektronengas (2DEG), welches sich an der Grenzfläche der AlGaN/GaN-Heterostruktur ausbildet, als Rückelektrode zur piezoelektrischen Anregung genutzt. Das entwickelte Technologiepaket vermeidet daher eine negative Beeinflussung der 2DEG-Rückelektrode und somit gleichzeitig der Funktionalität der MEMS. Zuletzt konnte die Funktionalität der so gefertigten piezoelektrisch angeregten AlGaN/GaN-Resonatoren nachgewiesen und zusätzlich die uniaxiale Verspannung der freigelegten AlGaN/GaN-Schichten auf den unterschiedlichen Substraten unter Anwendung einer Resonanzfrequenzanalyse ermittelt werden.



Kuchinke, Björn A.; Sundmacher, Torsten; Zerth, Jürgen
Wettbewerb und Gesundheitskapital : [ausgewählte Beiträge des sechsten Duisburg-Ilmenau-Bayreuther Oberseminar zur Gesundheitsökonomie und Sozialpolitik (DIBOGS) ... vom 29. bis 31. Oktober 2009 in Berlin]. - Ilmenau : Univ.-Verl. Ilmenau, 2010. - 175 S.. - (DIBOGS-Beiträge zur Gesundheitsökonomie und Sozialpolitik ; 4) ISBN 3-939473-85-5
Literaturangaben

Der vorliegende Sammelband enthält ausgewählte Beiträge des sechsten Duisburg-Ilmenau-Bayreuther Oberseminars zur Gesundheitsökonomie und Sozialpolitik (DIBOGS). Dieser Workshop hat vom 29. bis 31. Oktober 2009 in Berlin stattgefunden. Ein Schwerpunkt des vierten Bandes dieser Schriftenreihe liegt auf wettbewerbspolitischen Aspekten im Gesundheitswesen und in einem zweiten wird der Fokus auf die Patienten bzw. die Versicherten gerichtet.



Preuß, Roman;
Verfahren und Anlagenprototyp zur Herstellung dünnwandiger Hohlzylinder aus Silikonelastomer mit integrierten Fluidkammern und -kanälen. - Ilmenau : Univ.-Verl. Ilmenau, 2010. - XII, 198 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2010

Die minimal-invasive Chirurgie gewinnt innerhalb der invasiven Therapieverfahren weiterhin an Bedeutung, verspricht man sich davon doch eine schnellere Genesung des Patienten, verbunden mit einer Reduktion der finanziellen Aufwände für das Gesundheitssystem. Zu diesem Zweck werden Lokomotionssysteme benötigt, die sich aktiv in den natürlichen Körperhöhlen des Patienten fortbewegen können, um Arbeitskanäle und Operationswerkzeuge des Chirurgen von außen zum gewünschten Operationsfeld zu transportieren. Vollständig nachgiebige, miniaturisierte Systeme mit wurmartiger Fortbewegung sind dabei im Fokus der internationalen Entwicklungen. Eine wesentliche Limitation bei der Entwicklung und weiteren Miniaturisierung solcher Lokomotionssysteme besteht durch die verfügbaren Herstellverfahren. Die vorliegende Arbeit stellt ein neues Verfahren und einen Anlagenprototyp zur Herstellung dünnwandigen Hohlzylinders aus Elastomer vor, in deren Wandung im Rahmen des Verfahrens Fluidkammern und -kanäle integriert werden. Durch Befüllung der Miniaturfluidsysteme mit Fluid und Steuerung des ein- bzw. ausgepumpten Fluidvolumens, kann eine zielgerichtete Verformung der Kammern erzeugt werden. Durch Ausstattung des Hohlzylinder mit einer ganzen Reihe von Kammern und Kanälen soll so im Rahmen weiterer Entwicklungen eine peristaltische Sonde entstehen, die sich wurmartig im Wirbelkanal fortbewegen kann. Das vorgestellte Verfahren besteht aus den folgenden Schritten: 1. Auf einen Metallstab wird durch Tauchen (Dip-Coating) eine lösbare Trennschicht aus Photoresist aufgebracht. 2. Anschließend wird auf der Trennschicht und ebenfalls durch Tauchen eine erste, die innere Schicht aus Silikonelastomer erzeugt. 3. Diese Silikonschicht wird durch Aufsprühen (Spray-Coating) unter Nutzung spezieller Prozeßparameter mit Photoresist beschichtet, welches anschließend mittels Laser-Lithografie belichtet wird. 4. Nach dem Entwickeln, Spülen und Trocknen verbleiben auf der Oberfläche der Silikonschicht Resiststrukturen, die die späteren Fluidkammern und Zuläufe repräsentieren. 5. Diese Resiststrukturen sind Platzhalter für das innere, später mit Fluid gefüllte Volumen, wenn in einem weiteren Schritt erneut durch Tauchen die äußere Silikonelastomerschicht aufgebracht wird. In Anlehnung an die klassische Gießerei- und an die Mikrosystemtechnik können die Resiststrukturen auch als Opferstrukturen bezeichnet werden. 6. Anschließend wird der entstandene Silikonkörper mit entsprechenden Schlauchzuleitungen verbunden und über diese wird Lösungsmittel zugeführt, welches die Resiststrukturen auflöst. 7. Nach dem Spülen der Kammern und Zuläufe können diese mit dem Arbeitsfluid (z.B. sterile, isotonische Kochsalzlösung) befüllt werden.



Schultheiss, Daniel;
Spielen im Internet : eine Längsschnittstudie zu personellen Variablen, Motivation, Nutzung, Erleben und deren Interdependenzen in verschiedenen Typen internetbasierter digitaler Spiele (mit Hinweisen für Praxis und Game-Design). - Ilmenau : Univ.-Verl. Ilmenau, 2010. - 287 S.. - (Menschen, Märkte, Medien, Management : Schriftenreihe ; 6) : Zugl.: Ilmenau, Techn. Univ., Diss., 2010
ISBN 978-3-939473-83-1
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=16374

Die vorliegende Arbeit setzt sich mit dem Gebrauch internetbasierter digitaler Spiele auseinander. Diese sowohl ökonomisch als auch gesellschaftlich und kulturell relevante Form digitaler Spiele erlebt seit einigen Jahren einen Aufschwung in Form von Nutzerzahlen, die allein bei deutschen Anbietern in die Dutzende Millionen geht. Wie der nutzungsbezogene Erfolg jedoch zustande kommt und wie der Gebrauch dieser Spiele stattfindet ist bisher weitgehend ungeklärt. In dieser Arbeit werden personelle Variablen, Motivation, Nutzung und Bewertung von internetbasierten digitalen Spielen analysiert und kausale Zusammenhänge zwischen den Konstrukten gemessen. Der Untersuchungsgegenstand wird aus kommunikationswissenschaftlicher Sicht mithilfe von medienpsychologischen Anleihen beleuchtet, geht aber sowohl in inhaltlicher als auch methodischer Sicht über bestehende Studien hinaus. So werden alle Daten (N=1.775) per Online-Befragung im Längsschnitt im Abstand von sechs Monaten (Panel-Design) erhoben. Die Auswertung wird mittels uni- und multivariater Analysemethoden (Mittelwerte, Regression, Varianzanalyse, etc.) durchgeführt. Zentrale Erkenntnisse betreffen vor allem die Bedeutsamkeit von Leistungs-, Community- und Unabhängigkeitsmotivationen für die Spieler, während auf der anderen Seite Transfermotivationen den größten Einfluss auf die Nutzungsintensität und das Spielerleben haben. Ebenso zentral sind die Erkenntnisse über die Nutzung von internetbasierten digitalen Spielen, die sich je nach Spieltyp sehr unterschiedlich gestalten kann. So bieten browserbasierte Architekturen die Möglichkeit, Spiele auch am Arbeitsplatz zu nutzen, während dies bei clientbasierten Spielen eher selten der Fall ist. Weiter konnte die Bewertung der Nutzung als extrinsisch motiviert als großer Einflussfaktor für die Motivation zu einem späteren Zeitpunkt und damit für den weiteren Spielgebrauch aufgezeigt werden. Die Interpretation der Ergebnisse mit Implikationen für die Praxis sowie Ansätze für die weitere Forschung schließen die Arbeit ab.



Roth, Hans-Klaus; Heinemann, Klaus; Gobsch, Gerhard
Proceedings : 18 - 20 May 2010, Rudolstadt/Germany. - Ilmenau : Univ.-Verl. Ilmenau
Stettner, Rupert; Scheel, Tobias; Nishido, Shoichiro; Fechner, Frank
Pluralismus, Finanzierung und Konvergenz als Grundfragen des Rundfunkrechts. - Ilmenau : Univ.-Verl. Ilmenau, 2010. - 98 S.. - (Medienrechtliche Schriften ; 8) ISBN 978-3-939473-82-4

Rupert Stettner (Universität der Bundeswehr München) analysiert die aktuelle Aufsichtsstruktur des Privatrundfunks und hinterfragt sie, insbesondere aus verfassungsrechtlicher Sicht. Mit einem Plädoyer für eine einheitliche Rundfunkabgabe stellt Tobias Scheel (Duale Hochschule Baden-Württemberg Stuttgart) den Diskussionsstand zur Erhebung der Rundfunkgebühr des öffentlichrechtlichen Rundfunks dar. Shoichiro Nishido (Universität Seijo, Tokyo) bietet einen Überblick über die Grundfragen der Medienkonvergenz und Meinungsfreiheit in Japan, beleuchtet aktuelle Bestrebungen zur Reform des japanischen Rundfunkrechts und setzt diese in Beziehung zum deutschen Rundfunkrecht.



Hellbach, Sven;
Entwicklung von Methoden zur Unterscheidung und Interpretation von Bewegungsmustern in dynamischen Szenen. - Ilmenau : Univ.-Verl. Ilmenau, 2010. - XXV, 244 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2010
ISBN 978-3-939473-79-4
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=15612

Im Forschungsfeld der mobilen Assistenzroboter spielen Bewegungsabläufe eine zunehmend wichtige Rolle. Gerade in den Bewegungen der mit dem Assistenzroboter handelnden Person verstecken sich eine ganze Reihe Informationen, die zur Verbesserung der Interaktion herangezogen werden können. Eine wichtige Fragestellung bezüglich der Analyse von Bewegungen stellt die Repräsentation der Bewegungstrajektorien dar. Außerdem muss geklärt werden, welche Ähnlichkeitsmaße in den komplexeren Verfahren zum Einsatz kommen können bzw. welche speziellen Anforderungen sie erfüllen müssen. Den Kern der Arbeit stellen drei Verfahren dar, die im Wesentlichen den weiteren Verlauf einer beobachteten Bewegung über einen längeren Zeitraum vorhersagen können. Dabei handelt es sich um Echo State Netzwerke, Local Models und die spatio-temporale nicht-negative Matrixfaktorisierung (NMF). Die Arbeit als Ganzes versteht sich als einer der ersten Schritte zur systematischen Untersuchung von Bewegungsabläufen. Mit dieser Arbeit soll ein Entwickler in der Lage sein, aus einer breiten Palette an Werkzeugen sich für das Richtige für seinen speziellen Anwendungsfall zu entscheiden.



Kirstein, Stephan;
Interactive and life-long learning for identification and categorization tasks. - Ilmenau : Univ.-Verl. Ilmenau, 2010. - XII, 150 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2010
ISBN 978-3-939473-80-0
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=15700

Die vorgelegte Arbeit beschäftigt sich mit lebenslangem und interaktivem Lernen von Identifikations- und Kategorisierungsaufgaben. Das grundlegende Problem von lebenslangem Lernen mit Hilfe künstlicher neuronaler Netze ist das sogenannte "Stabilitäts-Plastizitäts Dilemma". Um die Plastizität zu gewährleisten muss ein neuronales Netz in der Lage sein, neues Wissen zu erwerben. Zusätzlich muss für die Stabilität dieses Wissen vor dem Verlust bewahrt werden. Um die Fähigkeit des interaktiven Lernens zu gewährleisten wurde die Aufteilung in eine temporäres und schnell lernendes Kurzzeitgedächtnis und ein langsamer lernendes Langzeitgedächtnis vorgeschlagen. Zum inkrementellen Aufbau des Kurzzeitgedächtnisses wurde ein ähnlichkeitsbasiertes und sogenanntes "one-shot learning" Verfahren vorgeschlagen. Für die Konsolidierung dieser Repräsentation in das Langzeitgedächtnis wurden zwei verschiedene Methoden betrachtet, die für das Lösen von nahezu beliebigen Identifikations- und Kategorisierungsaufgaben geeignet sind. Um diese Lernfähigkeit für Identifikationsprobleme zu erreichen, wurden verschiedenen Erweiterungen für die sogenannte "Learning Vector Quantization (LVQ)" Netzwerkarchitektur vorgeschlagen. Die wichtigstens änderungen sind die Einführung einer fehlerbasierten Knoten-Einfügeregel und die Verwendung einer knotenspezifischen Lernrate. Beide Erweiterungen ermöglichen inkrementelles und lebenslanges Lernen für Identifikationsaufgaben. Im Gegensatz dazu wurde für das Lernen von Kategorien dieses modifizierte LVQ Netzwerkmodell mit einem Verfahren zur Merkmalsselektion kombiniert. Dieses Verfahren selektiert kategoriespezifische Merkmalsdimensionen und ist daher geeignet um besonders kompakte Kategorierepräsentationen zu lernen. In verschiedenen Erkennungsexperimenten konnte die Effizienz und die Leistungsfähigkeit der vorgeschlagenen Verfahren belegt werden. Zusätzlich wurde ein integriertes Erkennungssystem entwickelt, welches die vorgeschlagenen Verfahren einsetzt. Dieses Gesamtsystem ermöglicht das interactive Lernen visueller Repräsentationen von beliebigen Gegenständen, welche, in der Hand gehalten, dem System gezeigt werden.



Walter, Axel;
Konstruktive Ausführung und Berechnung der geometrischen Abmessungen und des Betriebsverhaltens von bürstenlosen Permanentmagnetmotoren in Abhängigkeit vom Anwendungsfall. - Ilmenau : Univ.-Verl. Ilmenau, 2010. - 189 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2010
ISBN 978-3-939473-81-7
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=15871

Die vorliegende Arbeit befasst sich mit dem Entwurf von Elektronikmotoren und der dynamischen Simulation ihres Betriebsverhaltens. Mit dem entwickelten Programm und dem darin enthaltenen Motormodell ist die Behandlung von Innen- und Außenläufermotoren in genuteter Ausführung oder mit Luftspaltwicklung möglich. Die Betrachtung beschränkt sich auf dreiphasige Anordnungen mit oberfl ächenmontierten Magneten. Die schriftliche Arbeit stellt zusammen mit dem Programmpaket ein Werkzeug dar, das einen Erstentwurf eines permanenterregten bürstenlosen Motors unter gegebenen Randbedingungen ermöglicht.



Kuchar, Annika; Herbert, Stefan
Guerilla Werbung : kein weißer Fleck mehr in der Werbelandschaft ; nur fehlt bislang die gemeinsame Sprache. - Ilmenau : Univ.-Verl. Ilmenau. - 124 S.. - (Menschen, Märkte, Medien, Management : Schriftenreihe ; 5) : Teilw. zugl.: Ilmenau, Techn. Univ., Bachelor-Arbeit, 2009 u.d.T.: Herbert, Stefan; Kuchar, Annika: Guerilla Marketing - Erkennen, Vergleichen, Bewerten : Entwicklung eines Kategorienschemas zur Beschreibung von Guerilla Marketing-Maßnahmen anhand einer punktuellen Abgrenzung zu traditionellen Werbeformen und der qualitativen Untersuchung crossmedialer Marketingkampagnen
ISBN 978-3-939473-76-3
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=14605

Das Buch Guerilla Werbung wurde im Rahmen der Bachelorarbeit an der TU Ilmenau erstellt und beschäftigt sich mit der Definition von Guerilla Marketing im kommunikationspolitischen Bereich sowie der Abgrenzung zu traditionellen Werbeformen. Ziel dieser Ausführungen ist die Förderung des gemeinsamen Verständnisses über Guerilla Marketing zwischen und innerhalb der Theorie und Praxis. Die Aufarbeitung der Guerilla Marketing-Literatur mündet in ein zunächst deduktiv hergeleitetes Kategoriensystem, das mittels qualitativer Expertenbefragungen verifiziert wird. Darüber hinaus wird von den Autoren eine abschließende Definition von Guerilla Marketing und Guerilla Werbung angeführt. Die Erläuterung und Zusammenhänge der Merkmale dieser Werbeform werden in dem Buch umfassend diskutiert und in dem Kategorienschema zusammenfassend verbildlicht. Eine kritische Auseinandersetzung mit den Terminologien der Guerilla-Merkmale und -Instrumente sowie der Rolle von Public Relations bestimmen den Wesensgehalt des vorliegenden Buches.



Teschke, Marcel;
Das interferometrische Phasenkontrastverfahren und seine Anwendung zur Herstellung diffraktiver optischer Elemente. - Ilmenau : Univ.-Verl. Ilmenau, 2010. - XIII, 190 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2010

Zur flexiblen und günstigen Fertigung analoger Mikrooptik wurde ein interferometrisches Belichtungskonzept entworfen, welches als interferometrisches Phasenkontrastverfahren bezeichnet wird. Die vorliegende Arbeit beschreibt das interferometrische Phasenkontrastverfahren analytisch und mathematisch. Aus dem interferometrischen Phasenkontrast werden zusätzlich zwei Modelle entwickelt, mit denen auf Fourierfilterung basierende Phasenkontrastverfahren berechnet werden können. Mit Hilfe eines dieser Modelle wird die Phasenkontrastabbildung mittels Phasenverzögerung des gebeugten Lichtes abgeleitet. Bei der Optimierung des interferometrischen Belichtungsaufbaus wird ein neuer Typ von Halbtonmaske für die analoge Lithographie gewonnen. Aus dem physikalischen Wirkungsprinzip dieser neuen Halbtonmaske werden vier weitere Halbtonmasken abgeleitet, welche allesamt die günstige Fertigung analoger Mikrooptik ermöglichen.



Lauer, Kevin;
Untersuchungen zur Ladungsträgerlebensdauer in kristallinem Silizium für Solarzellen. - Ilmenau : Univ.-Verl. Ilmenau, 2010. - VII, 122 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2009

Die Lebensdauer von Lichtgenerierten Ladungsträgern in Silizium ist ein wichtiges Qualitätskriterium des Siliziums. Sie hat einen wesentlichen Einfluss auf den Wirkungsgrad einer kristallinen Silizium-Solarzelle. In der vorliegenden Arbeit werden die Einflussfaktoren auf die Ladungsträgerlebensdauer in kristallinem Silizium, das zur Herstellung von Solarzellen verwendet wird, und die Messmethodik zur Bestimmung der Ladungsträgerlebensdauer eingehend untersucht. Insbesondere das Mikrowellendetektierte Photoleitfähigkeitsabklingen (MWPCD) wird detailliert analysiert und mit quasi-stationären Photoleitfähigkeits (QSSPC)-Lebensdauermessungen verglichen. Es wird ein neues, zeitaufgelöstes Auswerteverfahren des MWPCD Signals entwickelt und zur Charakterisierung von Silizium angewendet. Mit Hilfe dieses Verfahrens wird der interstitielle Eisengehalt ortsaufgelöst bestimmt und der Einfluss von Minoritätsladungsträgerhaftstellen untersucht.Ein weiterer Schwerpunkt dieser Arbeit liegt auf der Untersuchung und Charakterisierung des Siliziums, das zur Herstellung von Solarzellen verwendet wird. Es wird die Wirkung einer Eisenverunreinigung in Silizium auf die Solarzellparameter mittels Simulationsrechnungen veranschaulicht. Die Blockhöhenabhängigkeit der Siliziumqualität in multikristallinem Silizium wird empirisch analysiert und mit dem Wirkungsgrad der Solarzellen korreliert. In stark verunreinigtem nach dem Czochralski-Verfahren gezogenem Silizium wird der Einfluss des industriellen Solarzellprozesses auf die Siliziumqualität untersucht.



Jahn, Michael;
Ein Beispiel zur Entwicklung kooperierender mobiler Roboter : konstruktives Design und Steuerungsentwurf. - Ilmenau : Univ.-Verl. Ilmenau. - XXI, 135 S. Teilw. zugl.: Ilmenau : Techn. Univ., Diss., 2009 u.d.T.: Jahn, Michael: Ein Beispiel zur Entwicklung kooperierender mobiler Roboter

In dieser Arbeit werden die wesentlichen Ergebnisse zur Konstruktion des RoboCup-Small-Size-Roboters LUKAS und des Aufbaus der koordinierenden Mastersoftware XBase vorgestellt. Die erreichte Kompaktheit und das notwendige Masse-Leistungs-Verhältnis des Roboters beruhen im Wesentlichen auf der orthogonalen Achskonfiguration. Spezielle Material- und Strukturlösungen für Leichtbau und Bauraumnutzung finden sich im Polyamid-Chassis, im motorintegrierenden Dribbler und im energieeffizienten Schussmechanismus. Im Einsatz sind omnidirektionale Räder mit solider Rundlauf-, Traktions- und Stabilitätseigenschaft. Der dreirädrige Roboter setzt ein hierarchisches Konstruktionskonzept um, welches hohe Zuverlässigkeit, Flexibilität und Robustheit in verstärktem Maße durch technische Funktionsintegration einer minimalen Anzahl von Bauteilen realisiert. Nach Analyse der kinematischen und dynamischen Zusammenhänge konnte für den Roboter eine Reglerarchitektur entwickelt werden, die unter Berücksichtigung von Radschlupf und Schwerpunktverlagerung die omnidirektionale Manövrierbarkeit und Bewegungspräzision gestattet. Die weiterentwickelte Mastersoftware XBase verbindet eine modifizierten Bildverarbeitung zur Detektierung der Roboter und eine anwenderfreundliche Mensch-Maschine-Schnittstelle mit dem Instrument zur Roboterkoordinierung. Stabile Bildraten und geringer Berechnungsaufwand werden durch die Verwendung einer Look-Up-Tabelle zur Maximum-Likelihood-Farbklassifizierung, Bildsegmentierung mit Zeilenkoinzidenzverfahren und ressourcenschonende Operationen garantiert. Ein geeigneter Trainingseinstieg wurde mit verschiedenen Formationsvarianten zur koordinierten Kontrolle einer Robotergruppe gefunden. Das Modell gestattet durch individuelle Freigabe von Freiheitsgraden einen Übergang vom starren zum flexiblen Verband. Anhand der Beispielformationen Block, Reihe und Rotte ist die Flexibilität und Wandlungsfähigkeit dargestellt. Das System XBase kann sowohl als Multi-Roboter-System unter der Kontrolle einer Verhaltenssteuerung, wie auch als verteiltes Multi-Agenten-System mit mehreren parallelen Verhaltenssystemen fungieren.



Tonisch, Katja;
AlGaN/GaN-Schichtsysteme für piezoelektrisch angeregte Resonatoren. - Ilmenau : Univ.-Verl. Ilmenau, 2010. - 192 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2009
ISBN 978-3-939473-72-5
Enth. außerdem: Thesen

Auf Grund der gestiegenen Anforderungen für mikroelektromechanische Systeme (MEMS) hinsichtlich Stabilität, Miniaturisier- und Integrierbarkeit, steigt das Interesse an neuen Materialsystemen wie den Halbleitern großer Bandlücke. Die vorliegende Arbeit gliedert sich in zwei Schwerpunkte, die für die Herstellung GaN-basierter MEMS bewältigt werden mussten: zum Einen wurde das Wachstum auf selektiv zu GaN ätzbaren Substraten untersucht. In der vorliegenden Arbeit werden drei Substrate vorgestellt, welche sowohl das epitaktische Wachstum von GaN als auch das Freistellen der Struktur erlauben. Dazu gehört die Verwendung von 4H-SiC als Substrat, welches sich kürzlich als isotrop ätzbar erwiesen hat. Als zweites wird das epitaktische GaN-Wachstum auf nanokristallinen, gesputterten AlN-Opferschichten gezeigt, welches die MEMS-Herstellung auf Saphir ermöglicht. Im letzten Fall erfolgt das Wachstum auf Siliziumsubstraten mit Hilfe einer 3C-SiC-Zwischenschicht. Die piezoelektrischen Eigenschaften von (GaN/)AlGaN/GaN-Heterostrukturen standen im zweiten Schwerpunkt im Fokus. Dabei dient die AlGaN-Schicht und in einigen Fällen eine zusätzliche GaN-Deckschicht als piezoelektrisch aktive Schicht. Das hochleitfähige 2D Elektronengas (2DEG) an der unteren AlGaN/GaN-Grenzfläche stellt dabei die zur Anregung benötige Rückelektrode zur Verfügung. Mit Hilfe der Elektroreflexion konnte die elektrische Feldverteilung in Abhängigkeit von der angelegten elektrischen Spannung bestimmt werden. In Kombination mit der Piezokraftmikroskopie, bei welcher die spannungsabhängige Auslenkung der Schichten untersucht wurde, konnte das piezoelektrische Modul d33 für Al0.31Ga0.69N zuverlässig mit 5 pm/V bestimmt werden. Die Prozessierung der ersten GaN-basierten MEMS wird schließlich auf allen drei zuvor eingeführten Substraten vorgestellt, das Schwingungsverhalten für die piezoelektrische Anregung von Transversalschwingungen mit Hilfe von Vibrometermessungen sowie das rein elektrische Auslesen von Longitudinalschwingungen (ebenfalls für piezoelektrische Anregung) demonstriert.



Glotzbach, Thomas;
Ein Beitrag zur Steuerung von mobilen Systemen auf Grundlage der Bioorientierten Adaptiven Autonomie. - Ilmenau : Univ.-Verl. Ilmenau, 2010. - XXX, 218 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2009

Die Forschung im Bereich mobiler Systeme hat in den letzten Jahren ständig an Bedeutung gewonnen. Als Ziel steht häufig das Erlangen von Autonomie im Vordergrund. Unterschiedliche Vorstellungen von "Autonomie" erschweren dabei eine notwendige interdisziplinäre Zusammenarbeit von Spezialisten unterschiedlicher Fachrichtungen. Die vorliegende Dissertation schlägt mit der Bioorientierten Adaptiven Autonomie ein neuartiges Autonomie-Konzept vor. Indem Autonomie als variabler Zustand in einem Spektrum zwischen vollautonom und teleoperiert betrachtet wird, lassen sich alle vorhandenen Vorstellungen von Autonomie einordnen. Auch beschreibt das Konzept die Möglichkeit, den Autonomiegrad von Systemen durch einen Softwareadapter ständig den aktuellen Gegebenheiten anzupassen. Damit kann ein autonomes System auf Daten oder Rechenkapazitäten von außerhalb zugreifen. Auch kann ein Mensch in die Missionsausführung autonomer Systeme eingebunden werden, da die juristische Verantwortung immer bei einem Menschen liegen muss. Es wird herausgearbeitet, dass nicht das Erlangen eines möglichst hohen Autonomiegrades das Ziel sein sollte, sondern eines optimal angepassten. Besonders effizient ist das neuartige Autonomiekonzept bei der Realisierung von Teams aus unbemannten Systemen. Hier stehen die Zielstellungen "Autonomie" und "Kooperation" im klaren Widerspruch zueinander. Durch das Senken der einzelnen Autonomiegrade kann auf verschiedene Weisen Teamverhalten erzeugt werden. Im Rahmen dieser Arbeit werden unterschiedliche Umsetzungen von Teams aus mobilen Systemen beschrieben. Es werden verschiedene wissenschaftliche Methoden angewandt und verglichen. Als neuartig wird ein hybrider Ansatz mit analytischen, regel- und zustandsbasierten Umsetzungen angegeben und mit stochastikorientierten Verfahren sowie einem aus der Literatur entnommenen analytischen Ansatz verglichen. Ein wertender Vergleich der unterschiedlichen Realisierungsmöglichkeiten wird besonders im Hinblick auf praxistaugliche Anwendungen vorgenommen. Die vorgestellten Aussagen werden durch verschiedene Simulationen veranschaulicht, welche auch zur Verdeutlichung des Vergleichs der unterschiedlichen Teamstrategien herangezogen werden. Als Ausblick wird auf verschiedene Anwendungsmöglichkeiten hingewiesen, bei welchen gegenwärtig unter Mitarbeit des Autors das beschriebene Autonomiekonzept in die Praxis übertragen wird.



Volmer, Christian;
Compact antenna arrays in mobile communications : a quantitative analysis of radiator coupling. - Ilmenau : Univ.-Verl. Ilmenau, 2010. - XV, 251 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2009
Enth. außerdem: Thesen

Um der anhaltenden Nachfrage nach höheren Übertragungsraten und größerer Mobilität zu begegnen, setzen moderne Mobilfunksysteme zunehmend adaptive Gruppenantennen ein. Rückt man Strahlerelemente zur Unterbringung in kleinen tragbaren Endgeräten (z.B. Handys) jedoch eng zusammen, so beeinträchtigen Verkopplungseffekte deren Abstrahleigenschaften. Um diese Beeinträchtigungen im Vergleich zu den üblichen Betrachtungsweisen anschaulicher zu beschreiben, erweitert die vorliegende Arbeit den bekannten Effizienzbegriff einer Einzelantenne auf beliebige Antennengruppen durch die Einführung orthogonaler Strahlungsfreiheitsgrade. Die Auswirkungen von Strahlerverkopplung werden anhand von Beispielen aufgezeigt. Anpass- und Entkoppelnetzwerke können der Strahlerverkopplung entgegenwirken. Für eine breite Klasse von ntennengruppen wird eine systematische Entwurfsvorschrift vorgestellt und durch zahlreiche Beispiele bestätigt, dabei stellen sich Ohm'sche Netzwerkverluste und schmale Bandbreiten als allgemeine Hauptschwächen derartiger Netzwerke heraus. Zur Untersuchung des Einflusses der Strahlerverkopplung auf die Übertragungsqualität eines Diversitätsempfängersystems werden geschlossene Ausdrücke für seinen Diversitätsgewinn hergeleitet und diskutiert. Diese Analyse wird anschließend durch ein umfassendes Rauschmodell erweitert. Diversitäts- und Rauschmessungen bestätigen die theoretischen Betrachtungen. Die vorliegende Arbeit möchte ein anschaulicheres Verständnis von Strahlerverkopplung vermitteln und Bewusstsein dafür schaffen, dass eine Betrachtung des Gesamtsystems essentiell für eine objektive Beurteilung der Leistungsfähigkeit kompakter Gruppenantennen ist.



Jöckel, Sven; Hesser, Nico
Trendsetter, Innovatoren, Studentenbudget? : eine Mehr-Methoden-Studie zur Werbung und Produktpräferenzen bei Studierenden. - Ilmenau : Univ.-Verl. Ilmenau. - VI, 182, IV S.. - (Menschen, Märkte, Medien, Management : Schriftenreihe ; 4) ISBN 978-3-939473-70-1
Literaturangaben

Studierende stellen für die werbetreibende Wirtschaft eine ganz besondere Zielgruppe dar. Einerseits verfügen Studierende nur über ein eingeschränktes Budget, andererseits sind sie Neuerungen gegenüber scheinbar besonders aufgeschlossen. Der vorliegende Band untersucht die Bedeutung von Studierenden als Trendsetter, Innovatoren und Market Maven: Wie aufgeschlossen sind Studierende tatsächlich neuen Produkten gegenüber? Welche Rolle spielen Medien in ihrem Alltag? Oder, was machen Studierende in ihrer Freizeit? Aus verschiedenen Perspektiven nähern sich Studierende selbst diesen Fragen und beantworten sie mit Hilfe verschiedener Methoden der empirischen Sozialforschung (Sekundärdatenanalyse, Experiment, Befragung). Diese studentischen Arbeiten wurden so neu aufbereitet, dass sie als praxisnaher Einblick in die Methoden der Marktforschung dienen können. Gleichzeitig liefert der Band einen Einblick in die studentische Lebens- und Konsumwelt. Im Zentrum des Bandes steht eine deutschlandweite Befragung von mehr als 4.000 Studierenden.



Dickhuth, Moritz;
Jugendschutzprogramme gemäß § 11 JMStV : eine kritische Analyse. - Ilmenau : Univ.-Verl. Ilmenau. - XII, 101 S.. - (Medienrechtliche Schriften ; 7) : Zugl.: Ilmenau, Techn. Univ., Diplomarbeit, 2009 u.d.T.: Dickhuth, Moritz: Das Konzept der Jugendschutzprogramme gemäß § 11 JMStV : eine kritische Analyse
ISBN 978-3-939473-69-5

Mit dem Inkrafttreten des Jugendmedienschutz-Staatsvertrags im April 2003 beschritt der Gesetzgeber neue Wege zur Kontrolle jugendschutzrelevanter Medieninhalte. Neben der geschlossenen Benutzergruppe für beschränkt unzulässige Angebote sollte mit dem Konstrukt der Jugendschutzprogramme nach § 11 JMStV eine technik- und entwicklungsoffene Möglichkeit geschaffen werden, entwicklungsbeeinträchtigende Internetinhalte zu veröffentlichen. Hierbei wurde bewußt auf enge Vorgaben verzichtet, um der Entwicklung neuer technischer Jugendschutzmöglichkeiten so viel Raum wie nötig zu geben. Diese Rechnung ging offensichtlich nicht auf. Über sechs Jahre und drei gescheiterte Modellversuche nach Inkrafttreten des JMStV ist die Anerkennung eines Jugendschutzprogramms durch die KJM nach wie vor in weiter Ferne. Anbietern von entwicklungsbeeinträchtigenden Medien ist es somit nicht möglich, die privilegierende Wirkung der Verwendung eines anerkannten Jugendschutzprogramms zu nutzen. Die vorliegende Arbeit hat zum Ziel, die Regelung der Jugendschutzprogramme kritisch zu durchleuchten, die Gründe für die bisher ausbleibende Anerkennung eines Jugendschutzprogramms zu eruieren und zu klären, ob die Schwächen der Norm im Gesetzestext des § 11 JMStV selber liegen oder vielmehr in der Interpretation desselben. Hierauf aufbauend werden Lösungsvorschläge erarbeitet, welche in einen Novellierungsvorschlag für den § 11 JMStV münden.



Spieß, Lothar; Rädlein, Edda; Schaaf, Peter
Thüringer Werkstofftag 2010 : Technische Universität Ilmenau, 24. März 2010 ; wissenschaftliche Beiträge. - Ilmenau : Univ.-Verl. Ilmenau, 2010. - IX, 214 S.. - (Werkstofftechnik aktuell ; 2) ISBN 978-3-939473-74-9
Literaturangaben

Der Tagungsband "Thüringer Werkstofftag 2010" sind die Proceedings des 8. Thüringer Werkstofftages, der im März 2010 an der TU Ilmenau stattfindet. Der Band beinhaltet die Wissenschaftlichen Beiträge (Vorträge und Poster), die auf dem Thüringer Werkstofftag 2010 vorgestellt werden und die als Manuskript zur Veröffentlichung eingereicht wurden. Für alle weiteren Beiträge, für die kein Manuskript eingereicht wurde, ist die Zusammenfassung des jeweiligen Beitrages in den Tagungsband aufgenommen worden.



Köster, Jens; Schultheiss, Daniel
Doppelklick statt Doppelherz - Medien für die Zielgruppe 50plus. - Ilmenau : Univ.-Verl. Ilmenau, 2010. - 221 S.. - (Menschen, Märkte, Medien, Management : Schriftenreihe ; 3) ISBN 3-939473-67-7
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=14573

Die soziale Entwicklung Deutschlands ist durch den demografischen Wandel hin zu einer immer älter werdenden Gesellschaft geprägt. Auch die Mediennutzung unterscheidet sich in der heterogenen Zielgruppe 50plus zum Teil stark. Deshalb widmet sich der vorliegende Band der Mediennutzung von über 50-Jährigen und verschiedenen - auch innovativen - Medienangeboten für diese Zielgruppe. So wird zu Beginn ein allgemeiner Überblick über die Soziodemografie und Heterogenität der Zielgruppe geliefert (Jens Köster & Daniel Schultheiss). Hiernach wird das Internet als Instrument für politische Partizipation (Dorothee Arlt, Marco Bräuer & Jens Wolling) im Alter analysiert. Die Verständlichkeit und das Angebot von Fernsehnachrichten für ältere Menschen (Julia Lange) und die Nutzung von digitalen Spielen (Daniel Schultheiss & Christina Schumann) sind weitere Schwerpunkte. Abschließend werden innovative Medienangebote wie interaktives Fernsehen (Aurel Butz) und MobileTV (Adele Rager) im Hinblick auf ihre Eignung für ältere Menschen beleuchtet.



Günter, Friedhelm;
Ausfallmechanismen, Ausfallmodelle und Zuverlässigkeitsbewertung von kalten Kontaktiertechniken. - Ilmenau : Univ.-Verl. Ilmenau, 2010. - 192 S.. - (Werkstofftechnik aktuell ; 3) : Zugl.: Ilmenau, Techn. Univ., Diss., 2009
ISBN 978-3-939473-77-0
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=15337

Die vorliegende Arbeit beschäftigt sich mit Schadensbildern, Ausfallmechanismen und Zuverlässigkeitsbewertungen von Schneid-Klemm-Verbindungen (SKV) sowie Einpress-Verbindungen (EPV) unter thermischen und mechanischen Belastungen. Im ersten Teil der Arbeit wurden hierzu neuartige Prüfkonzepte entwickelt, die einerseits eine Trennung der mechanischen und thermischen Belastungen ermöglichen und andererseits für die produktunabhängige Erprobung realer Kontaktgeometrien geeignet sind. Die Grundidee die mechanische Belastung direkt und nicht über eine thermomechanische Belastung einzubringen wurde für vier verschiedene Schneid-Klemm-Verbindungen und zwei Verbindungen aus der Einpresstechnik in Labor-Prüfeinrichtungen umgesetzt. Anhand dieser Prüfstände wurden in einem ersten Schritt die Schadensbilder und Ausfallmechanismen der Verbindungen unter niederfrequenten, weggesteuerten mechanischen Belastungen detailliert erarbeitet. Für die Praxis wurde hierdurch eine breite Basis zur Beurteilung von Feldausfällen und zur Auslegung der Verbindungen geschaffen. Außerdem wurde aus den Versuchsergebnissen ein Kriterium abgeleitet, dass eine Abschätzung des aktivierten Ausfallmechanismus bereits in FE-Modellen ermöglicht. Aufbauend auf der systematischen Beschreibung der Ausfallmechanismen und ausgehend von Grundkonzepten zur Reibkorrosion wurde für die 1,5-mm-SKV eine Methode zur Lebensdauervorhersage entwickelt. Die Form der Kraft-Weg-Kurve und deren Entwicklung unter einer mechanischen Last ermöglichen Belastungsregime einzuführen. Diese Einteilung eine Abschätzung der Lebensdauer bereits nach wenigen Lastwechseln, also in einem frühen Stadium der Belastung. In einem zweiten Schritt wurde die Methodik der Kraft-Weg-basierten Lebensdauerprognose erfolgreich auf Einpressverbindung\-en übertragen. Am Beispiel der 1,5-mm-SKV wurde im vierten Teil der Arbeit das Grundlagenverständnis der Schadensbilder sowohl auf statische Temperaturauslagerungen wie auch auf die Kombination von thermischen und mechanischen Belastungen erweitert. Rein statische Temperaturbelastungen beeinträchtigen die Lebensdauer der Verbindung unter extremen Belastungen (T=220 grad C und t>1 Jahr). Grundvoraussetzung für einen Ausfall bei Umgebungstemperaturen bis 150 grad C ist hingegen die Kombination mit eine mechanische Belastung der Kontaktzone. Die Gegenüberstellung von Temperaturwechselversuchen und direkter mechanischer Belastung bildet die Basis neuer Erprobungskonzepte, die durch den Einsatz einer direkten mechanischen Wechselbelastung Entwicklungszeiträume deutlich verkürzen. Über die im Rahmen der Arbeit eingeführte Trennung von thermischer und mechanischer Belastung konnten drei Faktoren identifiziert werden, die die Lebensdauer der Verbindungen beeinflussen: thermisch-aktivierte Ausfallmechanismen (Oxidation und Spannungsrelaxation), mechanische Belastungen und die Umlagerungsgeschwindigkeit. Aus dieser differenzierten Beschreibung ergibt sich die Möglichkeit in weiteren Versuchen Alterungsgesetze für kraft- und formschlüssige Verbindungen abzuleiten. Auch aus neuen Anwendungsfeldern ergeben sich eine Vielzahl an offenen Arbeitsthemen. Mit der zunehmenden Anzahl an Fahrzeugen mit Hybrid- oder Elektroantrieb steigen auch die Anforderungen an die Stromtragfähigkeit von kraft- und formschlüssigen Kontakten. Um diesen gestiegenen Erwartungen sicher begegnen zu können, sind Untersuchungen an bestromten Kontakten und an neuen Werkstoffpaarungen erforderlich.



Schmidt, Katja;
Das Vertriebspotenzial von Sonderausstattungsprodukten bei Vermarktung über eine Bundlingstrategie auf dem deutschen Markt : eine empirische Untersuchung der Präferenzstruktur und der Kaufraten mittels Conjoint-Analyse. - Ilmenau : Univ.-Verl. Ilmenau. - XVIII, 213 S.. - (Menschen, Märkte, Medien, Management ; 2) : Zugl.: Ilmenau, Techn. Univ., Dipl.-Arbeit, 2009
ISBN 978-3-939473-54-1
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=13125

In der vorliegenden Forschungsarbeit wird schrittweise ein Prognosemodell entwickelt, welches die Ermittlung des Vertriebspotenzials von drei Produktinnovationen eines mittelständischen Automobilzulieferers bei Vermarktung dieser über eine Bundlingstrategie auf dem deutschen Markt ermöglicht. Im Rahmen einer Feldstudie werden Präferenzdaten über eine schriftlich-postalische Befragung sowie eine Online-Befragung auf einem zuvor abgesteckten Simulationsmarkt erhoben. Aufgrund eines vermuteten heterogenen Gesamtmarktes sowie dem Anspruch einer möglichst realistischen Prognose erfolgt eine A-Priori-Segmentierung nach der Fahrzeugklasse des Konsumenten. Über das dekompositionelle Design der Conjoint-Analyse werden die Präferenzen aller möglichen Ausstattungsvarianten pro Segment erhoben, um eine für jedes Segment optimale Bundlingstrategie herzuleiten. Ein Marktsimulationsprozess überführt die segmentspezifisch optimalen Ausstattungsvarianten in Kaufraten. Durch die Verknüpfung der empirischen Daten mit den zukünftigen Produktionszahlen der definierten Fahrzeugmodelle und den Verkaufspreisen der Sonderausstattungen entsteht das Vertriebspotenzial aus Sicht des Zulieferers.



Jaenichen, Sebastian; Steinrücken, Torsten; Seifferth-Schmidt, Nicole; Itzenplitz, Anja
Empirische und theoretische Analysen aktueller wirtschafts- und finanzpolitischer Fragestellungen. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - 258 S. ISBN 978-3-939473-63-3
Literaturangaben

Im vorliegenden Sammelband präsentieren acht deutschsprachige Ökonomen ihre Forschungsergebnisse zu aktuellen Herausforderungen gestaltender Wirtschaftspolitik. Einen Schwerpunkt bilden dabei hintergründige Untersuchungen zum Stand des innerdeutschen Konvergenzprozesses und zu den politischen Antworten auf die persistierenden Unterschiede der Lebensverhältnisse zwischen Ost und West. Neben dieser zwanzig Jahre nach dem Fall des Eisernen Vorhangs unvermindert aktuellen Frage holen die Autoren bisher wenig beachtete Argumente aus den Bereichen Wettbewerbspolitik und Wirtschaftstheorie ans Licht und liefern mit überraschenden Ansätzen und Einsichten wichtige Impulse zur wissenschaftlichen Exploration neuer Forschungspfade.



Akmaz, Bülent L.; Kuchinke, Björn A.; Sundmacher, Torsten; Zerth, Jürgen
Gesundheitspolitik, Wettbewerb und Gesundheitssystemforschung : [ausgewählte Beiträge des vierten Duisburg-Ilmenau-Bayreuther Oberseminars zur Gesundheitsökonomie und Sozialpolitik (DIBOGS) ... am 6. und 7. November 2008 in Bayreuth]. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - 127 S.. - (DIBOGS-Beiträge zur Gesundheitsökonomie und Sozialpolitik ; 3) ISBN 3-939473-65-0
Enth. 10 Beitr. - Literaturangaben

In dem vorliegenden dritten Band der Reihe "DIBOGS-Beiträge zur Gesundheitsökonomie und Sozialpolitik" wird ein breites Spektrum an gesundheitsökonomischen und gesundheitspolitischen Themen diskutiert und der Öffentlichkeit vorgestellt. Die Beiträge sollen tiefer gehende fachwissenschaftliche Veröffentlichungen an anderer Stelle nicht ersetzen, sondern vielmehr auf diese "Appetit machen" und inhaltlich Hilfestellung für weitere, umsetzungsbezogene Aufgaben geben. Der Schwerpunkt liegt auf den theoretischen und ökonometrischen Ergebnissen der aktuellen Gesundheitsforschung. Die Überlegungen analysieren zentral den bestehenden Ordnungsrahmen in Deutschland und beleuchten neue Trends und Entwicklungen in Deutschland sowie in Gesundheitssystemen weltweit.



Meissner, Manfred
Die Geschichte der Metallfedern und der Federntechnik in Deutschland. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - XII, 270 S.Literaturverz. S. [235] - 263

Das Buch behandelt die historische Entwicklung des Maschinenelements "Feder" von den ersten Überlieferungen aus der Bronzezeit bis in die Gegenwart. Die Autoren beschränken sich dabei auf Metallfedern, wobei an einigen Stellen auch Federn aus nichtmetallischen Werkstoffen genannt werden. Neben der handwerklichen und späteren industriellen Fertigung der Federn, deren Entwicklung in Deutschland aufgezeigt wird, widmen sich die Autoren auch in einem größeren Abschnitt der Entwicklung der Federberechnungen mit Darlegung ihrer Grundlagen. Die Normung auf dem Gebiet der Federn wird in einem eigenen Kapitel von der Herausgabe der ersten "Federnorm" 1933 bis in die Gegenwart mit der Erarbeitung europäischer Normen umfassend dargestellt. Schließlich wird an einigen Beispielen von Firmenchroniken das Entstehen einer industriellen Fertigung von Federn in Deutschland aufgezeigt. Ein kurzer Abschnitt behandelt auch die Herausbildung von Forschungseinrichtungen, die sich mit den umfangreichen Aufgabenstellungen der automatisierten Fertigung, der Qualitätssicherung und einer sicheren Konstruktion der Metallfedern befassen.



Schröter, Christof;
Probabilistische Methoden für die Roboter-Navigation am Beispiel eines autonomen Shopping-Assistenten. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - XIV, 293 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2009

Die autonome Navigation stellt neben der Interaktionsfähigkeit eine Grundlage für die Funktion eines mobilen Serviceroboters dar. Wichtige Teilleistungen sind dabei die Selbstlokalisation, die Pfadplanung und die Bewegungssteuerung unter Vermeidung von Kollisionen. Eine Voraussetzung für viele Navigationsaufgaben ist zudem die Erstellung eines Umgebungsmodells aus sensorischen Beobachtungen, unter Umständen in Verbindung mit einer selbständigen Exploration. Diese Teilprobleme wurden in der vorgelegten Arbeit vor dem Hintergrund der Entwicklung eines interaktiven mobilen Shopping-Lotsen bearbeitet, welcher Kunden eines Baumarktes Informationen zu Produkten zur Verfügung stellen und sie auf Wunsch zum Standort der gesuchten Waren führen kann. Den methodischen Kern der Arbeit bildet die initiale Umgebungskartierung. Dafür wurde ein Verfahren zum Simultaneous Localization and Mapping (SLAM) entwickelt, welches im Gegensatz zu vergleichbaren Ansätzen nicht auf den Einsatz hochgenauer Laser-Range-Scanner ausgerichtet ist. Stattdessen wurden hauptsächlich Sonar-Sensoren benutzt, die sich durch eine wesentlich geringere räumliche Auflösung und höhere Messunsicherheit auszeichnen. Der entwickelte Map-Match-SLAM-Algorithmus beruht auf dem bekannten Rao-Blackwellized Particle Filter (RBPF), welcher mit einer lokalen Karte zur Repräsentation der aktuellen Umgebungsbeobachtungen sowie einer Map-Matching-Methode zum Vergleich der lokalen und globalen Karte kombiniert wurde. Durch eine speichereffiziente Darstellung der globalen Karte und dynamische Adaption der Partikel-Anzahl ist trotz der aus den sensorischen Beschränkungen resultierenden großen Zustandsunsicherheit die Online-Kartierung möglich. Durch die Transformation der Beobachtungen in eine lokale Karte und die sensorunabhängige Bewertungsfunktion ist das Map-Match-SLAM Verfahren für ein breites Spektrum unterschiedlicher Sensoren geeignet. Dies wurde exemplarisch durch die Kartierung unter Nutzung einer Stereo-Kamera-Anordnung und einer einfachen Kamera in Verbindung mit einem Depth-from-Motion-Verfahren gezeigt. Aufbauend auf dem Kartierungsalgorithmus wurde zudem ein SLAM-Assistent entwickelt, welcher während der Kartierungsphase Aktionsvorschläge für den menschlichen Bediener präsentiert, die eine optimale Funktion des SLAM-Algorithmus gewährleisten. Der Assistent stellt damit eine Zwischenstufe zwischen rein manueller Steuerung und komplett autonomer Exploration dar. Einen weiteren Schwerpunkt der Arbeit stellen die Verfahren für die autonome Funktion des Roboters dar. Für die Selbstlokalisation wird ebenso wie beim SLAM ein Map Matching mit lokalen Karten eingesetzt. Eine Verbesserung der Robustheit und Genauigkeit wird durch die Kombination dieses Ansatzes mit einem vorhandenen visuellen Selbstlokalisations-Verfahren auf Basis einer omnidirektionalen Kamera erzielt. Für die Bestimmung des optimalen Pfades zu einem Zielpunkt kommen Standard-Algorithmen zur Pfadsuche in Graphen zum Einsatz, die Zellen der Karte werden dazu als Graphknoten interpretiert. Die Arbeit präsentiert vergleichende Untersuchungen zur Effizienz von Algorithmen mit und ohne Suchheuristik (A*/Dijkstra-Algorithmus) in der konkreten Einsatzumgebung. Für die Bewegungssteuerung und Kollisionsvermeidung wurden zwei verschiedene Algorithmen entwickelt: Einem reaktiven Verfahren, welches eine Weiterentwicklung des bekannten Vector Field Histogram (VFH) darstellt, wird ein neues antizipatives Verfahren auf Basis von Sampling und stochastischer Suche im Raum der möglichen Bewegungstrajektorien gegenüber gestellt und experimentell verglichen. Die entwickelten Methoden kommen auf mehreren Shopping-Robotern zum Einsatz, die sich seit ca. sechs Monaten im dauerhaften öffentlichen Testbetrieb in einem Baumarkt befinden. Neben den Navigationsmethoden gibt die Arbeit einen Überblick über die weiteren Module des Roboters, z.B. für die Nutzer-Interaktion, und beschreibt detailliert die Steuerarchitektur zur Koordinierung der Teilleistungen. Die Eignung aller eingesetzten Methoden für den Einsatz in einer realen Anwendung und die hohe Akzeptanz der Nutzer für das entwickelte Gesamtsystem werden durch die Auswertung von Langzeittests nachgewiesen.



Müller, Alexander;
Selbstreferenzierendes Personalisiertes Miniaturisiertes Dosimeter (PMD) zur Bestimmung individueller Belastungs-Beanspruchungs-Beziehungen. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - XX, 271 S.. - (Berichte aus der Biomechatronik ; 4) : Zugl.: Ilmenau, Techn. Univ., Diss., 2009
ISBN 978-3-939473-62-6
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=13921

In einer modernen Kommunikationsgesellschaft ist der Verlust des Gehörs eine tiefgreifende soziale Behinderung, die zu einer weitgehenden Isolation des Betroffenen führt. Die Erkennung lärmbedingter Funktionsveränderungen des Innenohrs ist demnach nicht nur ein humanes, sondern auch ein ökonomisches Anliegen. Präventive Gesichtspunkte sind so zu gestalten, dass Gesundheitsgefahren vermieden und /oder beginnende Erkrankungen in einem sehr frühen Stadium erkannt werden können. Die Grundlage dafür ist eine möglichst genaue und sichere Quantifizierung der äußeren Noxen und Symptome. Deshalb haben Arbeitgeber wie Arbeitnehmer Interesse an der Verfügbarkeit nichtbelastender ständig vorhandener (technischer) Möglichkeiten zur Messung und Kontrolle individueller Lärmbelastungen und -beanspruchungen. Für die Präventionsforschung und in der Folge für den Arbeitsschutz ergeben sich aus der Miniaturisierung mechatronischer Systeme vielfältige Einsatzmöglichkeiten. Eine davon ist die Entwicklung eines tragbaren Personalisierten, Miniaturisierten Lärm-Dosimeters (PMD), mit dem eine (quasi-)simultane Messung der tatsächlichen Lärm-Immission in situ und der individuellen Beanspruchung des Gehörs möglich wird.Aus einem Grundkonzept einer Familie Personalisierter Miniaturisierter Dosimeter für beliebige physio-chemische Qualitäten und Größen sowie einem Messkonzept zur Bestimmung individueller Belastungs-Beanspruchungs-Beziehungen konnte in dieser Arbeit ein Anforderungskatalog für ein selbstreferenzierendes PMD zum Einsatz in der primären Lärmprävention definiert werden. Dieser wurde in eine exemplarische Umsetzung überführt und einem ausführlichen Funktionstest nach aktuellen Normen und Richtlinien der akustischen Messtechnik unterzogen.Da bisher noch kein Messverfahren existiert, um die Vulnerabilität des Innenohres zu erfassen, wurden zunächst die Möglichkeiten individueller Risikoanalyse mittels otoakustischer Emissionen (OAE) untersucht. Dabei konnte die Wirkung des Lärms auf TEOAE-Eingangs-/Ausgangsfunktionen als mögliche Indikatoren der Lärm-Vulnerabilität geprüft werden. Aus den Daten wurde ein neues Modell zur Quantifizierung der individuellen Vulnerabilität (IdiV-Modell) gebildet. Dieses Modell soll in die prototypische Umsetzung des PMD integriert werden.



Norbey, Marcel;
Benutzerinformation für "seniorengerechte" Geräte der Unterhaltungselektronik : eine kritische Bestandsaufnahme und Erweiterung wissenschaftlicher und praktischer Annäherungen aus systemischer Sicht. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - XII, 313 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2008
ISBN 978-3-939473-61-9
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=14007

Aufgrund der absehbaren demografischen Veränderungen ist eine systemisch-systematische Auseinandersetzung mit der Nutzung von Alltagstechnik und der zugehörigen Bedienungsanleitungen durch ältere Menschen bedeutsam. Für diese Personengruppe besitzen insbesondere Geräte aus dem Bereich der Unterhaltungselektronik, die für die Rezeption massenmedialer Angebote geeignet sind (z. B. Radio, Fernsehen), eine hohe Relevanz. Vor diesem Hintergrund ist das Ziel der Arbeit die kritische Reflexion vorhandener theoretischer und praktischer Annäherungen zu Benutzerinformation, vor allem zu Bedienungsanleitungen. Eigene Daten werden hierzu in Beziehung gesetzt. Besondere Berücksichtigung findet die Betrachtung in Abhängigkeit vom Lebensalter der Nutzer - bei einer ausgeprägten Fokussierung auf "ältere" Menschen. Herausgearbeitet wird das Eingebundensein von Bedienungsanleitungen in komplexe soziotechnische Systemverbünde. Ausgangspunkt ist das Modell des soziotechnischen Systems nach Günter Ropohl. In der Arbeit werden sowohl die Entstehungs- als auch Verwendungszusammenhänge betrachtet, wobei vor allem die Verschränkungen mit dem Sachsystem (Geräte der Unterhaltungselektronik) und dem personalen Handlungssystem (ältere Menschen ab etwa 50 Lebensjahre) deutlich werden. Bedienungsanleitungen können innerhalb der Modellvorstellung des soziotechnischen Systems als logistische Unterstützungssysteme verstanden werden. Sie ermöglichen den Nutzern den Aufbau bzw. die Erweiterung des Handlungswissens, das zur sicheren und sachgerechten Geräteverwendung notwendig ist. Auf der Basis des Modells soziotechnischer Systeme kann eine systemische Herangehensweise bei der Gestaltung von Bedienungsanleitungen entwickelt werden. Dabei stehen vor allem die Eigenschaften des Handlungssystems im Vordergrund. Diese müssen bei der Konzeption der Anleitungstexte berücksichtigt werden. Augenblicklich ist dies kaum der Fall. Ausgehend von eigenen Daten und Fremdstudien finden sich Hinweise, welche Merkmale bei der Konzeption von Bedienungsanleitungen berücksichtigt werden müssen. Im Wissen um die Vielgestaltigkeit von Altern und Alter sind diese bedachtsam anzuwenden. Im Unternehmen ist zur Konzeption von Bedienungsanleitungen ein integriertes Management empfehlenswert. Das integrative Element besteht in der engen Verbindung zwischen der technisch-technikwissenschaftlichen und der kommunikativ-kommunikationswissenschaftlichen Perspektive, begleitet durch iterativ-zirkuläre Verfahren des Usability Enginerings und unterstützt durch die Managementebene im Unternehmen.



Schade, Hans-Peter; Schön, Eckhardt; Walterscheid, Heike; Wolling, Jens
Individualisierte Nutzung der Medien : Tagungsband Medienforum Ilmenau 2008 : Technische Universität Ilmenau, 20.-21. Juni 2008. - Ilmenau : Universitätsverlag Ilmenau, 2009. - 241 Seiten ISBN 3-939473-55-3

Pawlaszczyk, Dirk;
Skalierbare agentenbasierte Simulation : Werkzeuge und Techniken zur verteilten Ausführung agentenbasierter Modelle. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - XV, 327 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2009

Simulation stellt eine Analysemethode für viele Anwendungsbereiche zur Verfügung. Im Mittelpunkt der vorliegenden Arbeit steht eine spezielle Simulationsmethode - die Agentenbasierte Simulation (ABS). Im Rahmen der ABS werden Modelle betrachtet, die sich aus Agenten zusammensetzen. Agenten sind in der Lage, ihre Umgebung wahrzunehmen und unter Rückgriff auf lokal hinterlegtes Wissen, Schlüsse über ihre Wahrnehmungen ziehen. Darauf aufbauend wählt ein Agent Aktionen aus, mit denen er seine Umwelt gezielt verändern kann. Neben ihrer Autonomie sind Software-Agenten häufig durch soziale Eigenschaften charakterisiert und der Fähigkeit benachbarte Systeme zu erkennen und mit diesen zu kommunizieren. Agentenbasierte Simulation erlaubt es, das Verhalten komplexer Systeme sowie emergente Phänomene zu studieren. Die Komplexität der mittels Agententechnologie zu lösenden Problemstellungen und die Größe der zu simulierenden Modelle nehmen stetig zu. Auf der anderen Seite wird der Entwicklung von Werkzeugen zur effizienten Durchführung von agentenbasierten Simulationsexperimenten bisher vergleichsweise wenig Beachtung geschenkt. Die verteilte Simulation versucht, unabhängige Ereignisse nebenläufig auszuführen, um so die Simulationsexperimente zu beschleunigen und die Effizienz zu verbessern. Die Ansätze der verteilten Simulation sind jedoch vielfältig. Die Auswahl des richtigen Verfahrens fällt schwer. Die vorliegende Dissertation diskutiert Strategien zur Parallelisierung agentenbasierter Simulation. Ziel der Arbeit ist es, Chancen und Risiken die durch die Verteilung von Agentenmodellen entstehen näher zu untersuchen. Insbesondere werden Möglichkeiten sowie Grenzen der Skalierung dieser Anwendungsklasse analysiert. Hierfür wird zunächst der Begriff der Skalierbarkeit eingeführt. Mit ihrer Hilfe ist es möglich, Aussagen über die Effizienz eines verteilten Systems zu treffen. Die Entwicklung und Erprobung neuer sowie die Untersuchung bestehender Verfahren für die verteilte Simulation und deren Übertragung auf den Bereich der agentenbasierten Simulation bilden weitere Schwerpunkte der Arbeit.



Mueller, Markus;
Output feedback control and robustness in the gap metric. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - 254 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2009
ISBN 978-3-939473-60-2
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=13790

Die vorgelegte Arbeit behandelt den Entwurf und die Robustheit von drei verschiedenen Regelstrategien für lineare Differentialgleichungssysteme mit mehrdimensionalen Ein- und Ausgangssignalen (MIMO): Stabilisierung durch Ausgangs-Ableitungs-Rückführung, Lambda-tracking und Funnel-Regelung. Damit diese Regler bei der Anwendung auf ein lineares System die gewünschten Stabilisierung/Regelung erbringen, ist eine explizite Kenntnis der Systemmatrizen nicht notwendig. Es müssen nur strukturelle Eigenschaften des Systems bekannt sein: der Relativgrad, dass das System minimalphasig ist, und dass die sogenannte "high-frequency gain" Matrix positiv definit ist. Diese stukturellen Eigenschaften werden für MIMO-Systeme in den ersten Kapiteln der Arbeit ausführlich behandelt. Für MIMO-Systeme mit nicht striktem Relativgrad wird eine Normalform hergeleitet, die die gleichen Eigenschaften wie die bekannte Normalform für SISO-Systeme oder MIMO-Systeme mit striktem Relativgrad aufweist. Die Normalform sowie Minimalphasigkeit und Positivität der "high-frequency gain" Matrix bilden die Grundlage dafür, dass die oben genannten Regelstrategien Systeme mit diesen Eigenschaften im jeweiligen Sinn stabilisieren. Robustheit bzw. robuste Stabilisierung beschreibt folgendes Prinzip: falls ein geschlossener Kreis aus einem linearen System und einem Regler in gewissem Sinne stabil ist und die Gap-Metrik (der Abstand) zwischen dem im geschlossenen Kreis betrachteten System und einem anderen "neuen" System hinreichend klein ist, so ist der geschlossene Kreis aus dem "neuen" System und dem gleichen Regler wieder stabil. Die gleiche Aussage stimmt auch für den Fall, dass man den Regler und nicht das System austauscht. - Für Ausgangs-Ableitungs-Rückführung wird gezeigt, dass, falls diese ein System stabilisiert, die auftretenden Ableitungen des Ausgangs durch Euler-Approximationen der Ableitungen ersetzt werden können, falls diese hinreichend genau sind. Für Lambda-tracking und Funnel-Regelung wird gezeigt, dass beide Regler auch für die Stabilisierung linearer Systeme verwendet werden können, die einen geringen Abstand zu einem System haben, dass die o.g. Voraussetzungen erfüllt, selbst diese Voraussetzungen aber nicht erfüllen.



Trenn, Stephan;
Distributional differential algebraic equations. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - 189 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2009
ISBN 978-3-939473-57-2
Literaturverz. S. 173 - 179

Lineare implizite Differentialgleichungen der Form Ex'=Ax+f werden untersucht. Da die Matrix E nicht als invertierbar angenommen wird, enthält das Gleichungssystem neben den Differentialgleichungen auch algebraische Gleichungen. Deshalb werden diese Gleichungen differential-algebraische Gleichungen (differential algebraic equations, DAEs) genannt. Ein wesentliches Ziel der Dissertation ist es, Distributionen (oder verallgemeinerte Funktionen) als Lösungen zuzulassen und gleichzeitig soll es möglich sein, zeitvariante DAEs zu untersuchen, deren Koeffizientenmatrizen Sprünge haben können. Dazu wird zunächst ein geeigneter Lösungsraum hergeleitet. Insbesondere ist es mit diesem Lösungsraum möglich, die wichtige Klasse der geschalteten DAEs (switched DAEs) zu untersuchen. Als Lösungsraum wird der Raum der stückweise glatten Distributionen (piecewise-smooth distributions) eingeführt. Für diesen Raum ist es möglich, eine Multiplikation zu definieren, so dass auch DAEs betrachtet werden können, deren Koeffizienten ebenfalls distributionelle Einträge haben. Eine distributionelle DAE ist eine Gleichung der Form Ex'=Ax+f, bei der die Matrizen E und A stückweise glatte Distributionen als Einträge enthalten und die Lösungen x sowie die Inhomogenitäten f ebenfalls stückweise glatte Distributionen sind. Für distributionelle DAEs wird die Existenz und Eindeutigkeit von Lösungen untersucht, dazu wird das Konzept der Regularität für distributionelle DAEs eingeführt. Es werden notwendige und hinreichende Bedingungen für die Existenz und Eindeutigkeit von Lösungen hergeleitet. Als Spezialfälle werden die beiden Gleichungen x'=Ax+f (so genannte distributionelle ODEs) und Nx'=x+f (so genannte reine distributionelle DAEs) untersucht, für die explizite Lösungsformeln angegeben werden können. Geschaltete DAEs sind distributionelle DAEs mit stückweise konstanten Koeffizientenmatrizen. Es werden hinreichende Bedingung hergeleitet, die sicherstellen, dass die Lösungen von geschalteten DAEs keine Impulse enthalten. Weiterhin wird untersucht, unter welchen Bedingungen das beliebige Schalten zwischen stabilen Teilsystemen zu einem stabilen Gesamtsystem führt.Schließlich werden Steuerbarkeit und Beobachtbarkeit für distributionelle DAEs untersucht. Hierbei wird berücksichtigt, dass das Eingangssignal Impulse enthalten kann und damit theoretisch eine "instantane" Steuerung möglich ist. Für eine DAE der Form N'=x+bu, y=cx, mit Konstanten, nilpotenten N sowie konstanten Vektoren b und c wird eine Normalform angegeben, die eine einfache Charakterisierung der Steuerbarkeit und Beobachtbarkeit ermöglicht.



Angermann, André;
Nasschemische Herstellung und Eigenschaften verlustarmer Mangan-Zink-Ferrite für Hochfrequenzanwendungen. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - XIV, 230 S.. - (Werkstofftechnik aktuell ; 1) : Zugl.: Ilmenau, Techn. Univ., Diss., 2009
ISBN 978-3-939473-53-4
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=13022

Im Zuge des Miniaturisierungstrends elektronischer Bauelemente sind höhere Arbeitsfrequenzen gefordert, wobei die Bauteile das gleiche Niveau der Energieübertragung besitzen sollen. Um diesen Anforderungen gerecht zu werden, werden neue Mangan-Zink-Ferritmaterialien mit geringer Verlustleistung bei hohen Arbeitsfrequenzen benötigt. Mangan-Zink-Ferrite sind weichmagnetische Materialien, die zur verlustarmen Leistungsübertragung, z.B. in den Schaltungsnetzteilen eingesetzt werden. Es gibt drei Beiträge zum Gesamtleistungsabfall: Hysterese- (PH), Wirbelstrom- (PE) und Restverluste (PR), wobei die beiden letztgenannten die dominierenden Verlustbeiträge bei hohen Arbeitsfrequenzen (> 500 kHz) sind. In dieser Arbeit wird das Potenzial von Mangan-Zink-Ferritnanopulvern für die Herstellung verlustleistungsarmer Ferrite erforscht. Dafür werden nanoskalige Ferritpulver mit Hilfe nasschemischer Präparationsverfahren synthetisiert. Der Einfluss von oxidischen Dotierungen und des Sinterprozesses auf die Verlustleistungseigenschaften sind ebenfalls Gegenstand der Untersuchungen dieser Arbeit.



Spannhake, Jan;
Hochtemperaturstabile Mikroheizer für miniaturisierte Sensorsysteme. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - XVII, 164 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2008

In den vergangenen Jahren wurden von Mikroheizern für die Gassensorik, aber auch für thermische Infrarotquellen zunehmend höhere Betriebstemperaturen gefordert. Bei Temperaturen von über 600 &ring;C stoßen die bisher verwendeten Heizermaterialien jedoch an ihre Leistungsgrenzen. Ziel dieser Doktorarbeit war es daher, alternative Materialien und Technologien zu erforschen, welche einen langzeitstabilen Betrieb dieser Mikrosysteme auch bei Temperaturen von 800 &ring;C und mehr ermöglichen. Als repräsentative Hochtemperaturanwendung wurden thermische IR-Emitter mit unterschiedlichen Heizermetallisierungen mikromechanisch aus Silizium und Siliziumkarbid hergestellt und auf ihre Eigenschaften hin untersucht. Die gewonnenen Erkenntnisse führten schließlich zur Entwicklung einer hochtemperaturfähigen Heizermetallisierung aus Antimondotiertem Zinnoxid (SnO2:Sb), welche einen permanenten Betrieb bei Temperaturen von bis zu 950 &ring;C über einen Zeitraum von mindestens 10 Jahren ermöglicht. Diese Tatsache eröffnet der Mikrosystemtechnik ein weites Feld neuer Anwendungsgebiete im Hochtemperaturbereich.



Weber, Jörn;
Entwurf miniaturisierter Antennengruppen. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - XIX, 197, XXVIII S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2008
ISBN 978-3-939473-52-7
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=12714

Die hier präsentierte Arbeit beschreibt Entwurfsaspekte kompakter Antennengruppen. Die Begriffe kompakte oder miniaturisierte Antennengruppen stehen dabei als Synonyme für Antennengruppen mit einem Elementeabstand, der kleiner als der herkömmliche lambda/2-Abstand ist. Der Schwerpunkt der Ausarbeitung liegt in der Verbesserung der Diversitätseigenschaften von Antennengruppen zur besseren Ausnutzung des Frequenzspektrums. Hierzu wird diskutiert, welche theoretischen und praktischen Grenzen die Miniaturisierung von Antennengruppen limitieren. Das physikalische Phänomen der Superdirektivität, das für eine starke Verkopplung eng benachbarter Antennenlemente verantwortlich ist, wird beschrieben. Eine Analyse der physikalischen Grenzen anhand theoretischer Multipolfelder deckt auf, dass für sehr kleine Antennengruppen sechs orthogonale Strahlungsmoden aufgrund von Polarisationsfreiheitsgraden existieren. Dementsprechend kann die Nutzung der Polarisationsfreiheitsgrade zur Verbesserung der Eigenschaften kompakter Antennengruppen beitragen. Als optimale Beschreibungsgrößen miniaturisierter Antennengruppen werden die Gesamteffizienzen ihrer Eigenmoden identifiziert. Die Eigenmoden können als orthogonale Funktionsbasis der Antennengruppe verstanden werden. Anhand realisierter Beispiele wird gezeigt, dass sich die Anpassung und die Güte der Eigenmoden als Optimierungsgrößen kompakter Antennengruppen eigenen. Der nächste Untersuchungsgegenstand ist die Verwendung von Anpass- und Entkoppelnetzwerken zur Vermeidung von Reflextionsverlusten. Eine allgemeingültige Entwurfsmethode für Anpass- und Entkoppelnetzwerke erlaubt die Ausnutzung aller Freiheitsgrade im Entwurf und die Berücksichtigung von auftretenden Netzwerkverlusten. Erstmals ermöglicht eine Orthogonalisierung gewünschter Richtcharakteristiken deren näherungsweise Realisierung. Zur praktischen Umsetzung der Anpass- und Entkoppelnetzwerke werden Methoden vorgestellt, die die Reduktion der Netzwerkkomplexität, die Bestimmung und Optimierung der Toleranzen der Netzwerkelemente und eine geeignete Auswahl verschiedener Realisierungsarten der Netzwerkelemente gestatten. Anhand zahlreicher realisierter Antennensysteme wird eine praktische Erhöhung des Diversitätsgewinnes von zwei bis drei Dezibel durch die Anpassung nachgewiesen. Eine weitere in dieser Arbeit behandelte Fragestellung befasst sich mit den Vor- und Nachteilen verschiedener Netzwerkrealisierungen. Hierbei wird gezeigt, dass es theoretisch unbedeutend ist, welche orthogonale Basis von Richtcharakteristiken für den Netzwerkentwurf verwendet wird. Bei der praktischen Umsetzung der Netzwerke ist allerdings auf eine hohe Effizienz und möglichst minimale parasitäre Energiespeicher zu achten.



Arnold, Heinrich;
Robert Döpel und sein Modell der globalen Erwärmung : eine frühe Warnung - und die Aktualisierung. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - 82 S.Literaturverz. S. 73 - 82

Eine geophysikalische Grenze der anthropogenen Abwärmeproduktion für kommende Jahrhunderte wurde bereits 1973 von R. Döpel (1895-1982) aufgezeigt. Sein bestechend einfaches Modell der globalen Erwärmung bei exponentiellem Wachstum der industriellen Energieerzeugung, das den anthropogenen Treibhauseffekt nicht berücksichtigt, wird hier historisch eingeordnet und aktualisiert. Die Resultate werden den vom UN-Klimarat 2007 vorgestellten Projektionen zum Kohlendioxideinfl uss bis zum Jahr 3000 gegenübergestellt, die ihrerseits die anthropogene Abwärme nicht beachteten. Nicht nur als der Experimentalphysiker, der zusammen mit dem Theoretiker Werner Heisenberg zuerst die Nutzungsmöglichkeit von Kernenergie für friedliche Zwecke nachwies, verdient Robert Döpel besondere Würdigung, sondern auch als ein Wissenschaftler mit hohem Ethos, der frühzeitig globale Probleme erkannte und für deren nachhaltige Lösung eintrat. Seine Aussagen zu energetischen Wachstumsgrenzen werden zu wenig beachtet.



Terschüren, Anna;
Regulierte Selbstregulierung im öffentlich-rechtlichen Rundfunk : Verfahren zur Ausgestaltung des Funktionsauftrages im Vergleich zur Regulierung des Jugendmedienschutzes im Privatrundfunk. - Ilmenau : Univ.-Verl. Ilmenau. - XI, 138 S.. - (Medienrechtliche Schriften ; 6) : Zugl.: Ilmenau, Techn. Univ., Diplomarbeit, 2009 u.d.T.: Terschüren, Anna Katharina: Regulierte Selbstregulierung zur Ausgestaltung des Funktionsauftrages des öffentlich-rechtlichen Rundfunks
ISBN 978-3-939473-51-0
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=12518

In dieser Arbeit wird die Ausgestaltung des Funktionsauftrages der öffentlich-rechtlichen Rundfunkanstalten durch die sogenannten Selbstverpflichtungen nach § 11 des Staatsvertrages für Rundfunk- und Telemedien (RStV) betrachtet. Schwerpunktmäßig wird das gegenwärtige Regulierungssystem beleuchtet, da das bisherige Verfahren zur Auftragsausgestaltung nicht zufriedenstellend funktioniert. Dabei wird ein Vergleich zu einem ähnlichen Regulierungssystem gezogen: der regulierten Selbstregulierung im Jugendmedienschutz des Privatrundfunks. Dieses funktionierende Regulierungsmodell soll als Vorlage für den öffentlich-rechtlichen Rundfunk dienen, um eine effiziente Ausgestaltung des Funktionsauftrages zu ermöglichen. Die Betrachtungen werden unter Berücksichtigung der Reformen des Rundfunkrechts durch den 12. Rundfunkänderungsstaatsvertrag (RÄndStV) vorgenommen, wobei insbesondere der einzuführende Drei-Stufen-Test erläutert und in das Regulierungsumfeld eingeordnet wird.



Oster, Jan; Fechner, Frank
Konvergenz - Datenschutz - Meinungsforen: Fragestellungen des Internetrechts. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - 100 S.. - (Medienrechtliche Schriften ; 5) ISBN 978-3-939473-47-3
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=12187

Saleh, Kutaiba;
Erweiterung eines Gefäßmodells zur Validierung von Gefäßmessalgorithmen in der Retina sowie theoretische und experimentelle Untersuchungen zu Messfehlerquellen der Gefäßanalyse. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - XI, 113 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2009

Das retinale Gefäßsystem ermöglicht als diagnostisches Fenster in den menschlichen Körper nicht nur diagnostische Aussagen über vaskuläre Augenerkrankungen, sondern ggf. auch Schlussfolgerungen auf systemische Gefäßerkrankungen. Dabei analysiert die retinale Gefäßanalyse vaskuläre Veränderungen insbesondere über die Messung retinaler Gefäßdurchmesser und ihres dynamischen Verhaltens unter unterschiedlichen Mess- und Stimulationsbedingungen. Für retinale Gefäßdurchmessermessungen werden unterschiedliche Messverfahren eingesetzt. Bei Anwendung dieser Messverfahren bestimmen eine Vielzahl von messtechnischen Parametern (optische Eigenschaften der Messkette, Beleuchtungsparameter) sowie von biologischen Einflußgrößen (zeitliche und örtliche biologische Variabilität, Kopf- und Augenbewegungen) die Aufnahmebedingungen und sind damit Quellen von Messfehlern. Objektive Kriterien zur Überprüfung der Messergebnisse bzw. zum Vergleich von Messmethoden können mit Gefäßabbildungsmodellen erarbeitet werden. Da körperliche Abbildungsmodelle bezüglich ihrer Komplexität und Variabilität nicht sinnvoll mit ausreichender Genauigkeit und hinreichender Praktikabilität realisierbar sind, wird dafür in dieser Arbeit ein numerisches Modell entwickelt. Mit diesem Modell können die Auswirkungen einer Vielzahl von technischen sowie biologischen Einflußgrößen auf die Messergebnisse mit hoher Flexibilität simuliert werden. Ein vorhandenes numerisches Basismodell wird im Rahmen dieser Arbeit umfassend neu strukturiert, aktualisiert, wesentlich erweitert und implementiert. Dabei wird der Abbildungsvorgang der retinalen Gefäße bis auf das aufgenommene Pixelbild realitätsnah simuliert. Die Modellerweiterung ermöglicht die Betrachtung zusätzlicher Einflussgrößen. Störungen bei der Gefäßdarstellung sowie die optischen Eigenschaften des Blutes (Vene-Arterie) werden dabei berücksichtigt. Außerdem sind weitere Parameter zur Beschreibung der Eigenschaften von Bildsensoren implementiert. Anschließend wurde eine Ausgabemöglichkeit der modellierten Gefäßbilder als Bilddatei geschaffen. Dadurch besteht die Möglichkeit, beliebige Messverfahren auf diese Bilder anzuwenden und die Ergebnisse der Gefäßdurchmessermessungen zu vergleichen. Mit diesem Modell ist nun eine Evaluierung von Messalgorithmen zur Gefäßdurchmesserbestimmung möglich. Dadurch besteht auch die Möglichkeit, den Einfluss verschiedener Modellparameter auf die Linearität der Messbeziehung isoliert zu erfassen. Dafür werden verschiedene Modellparameter in realen Fundusbildern zur experimentellen Bestimmung ihrer Wertebereiche untersucht. Andere Parameterbereiche werden aus der Literatur entnommen. Innerhalb dieser Wertbereiche werden die Abweichungen der gemessenen Werte von den Sollwerten erfasst und damit der systematische Fehler bzw. eine Korrekturkurve der im Modell integrierten automatischen Messmethode ermittelt. Zusätzlich wird der Einfluss von Änderungen ausgewählter Modellparameter (z. B. Kontrast, Helligkeit, optische Auflösung) auf den Gefäßdurchmesser gezeigt. Der Einfluss der zufälligen Änderungen der Modellparameter wird durch das Modell quantifiziert und systematisch simuliert. Außerdem ermöglicht das Modell durch frei einstellbare Parameter die Bestimmung eines Arbeitsbereiches, in dem das Messverfahren zuverlässig arbeitet. Dadurch können Qualitätsanforderungen an die Fundusabbildung abgeleitet werden, die für ein zu testendes Messverfahren unbedingt erfüllt werden müssen, um die Genauigkeit und Zuverlässigkeit der Messwerte zu gewährleisten.



Carl, Kathrin;
Technische Biologie des Tasthaar-Sinnessystems als Gestaltungsgrundlage für taktile stiftführende Mechanosensoren. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - XIX, 203 S.. - (Berichte aus der Biomechatronik ; 3) : Zugl.: Ilmenau, Techn. Univ., Diss., 2008
ISBN 978-3-939473-45-9
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=12023

Die Natur bietet ein unerschöpfliches Potential an Phänomenen mit technischer Relevanz. Oft scheitert die breite Anwendung von Ideen aus der Biologie am Fehlen einer effektiven Transfermethode zwischen Forschung und industrieller Anwendung. In der vorliegenden Arbeit wird basierend auf einer vergleichenden Betrachtung biologischer Sinnesorgane und technischer Sensorsysteme ein Konzept zur systematischen Analyse der funktionell entscheidenden Grundprinzipien biologischer Sinnesorgane dargestellt. Dieses Konzept des Reizleitungsapparates ermöglicht die Aufbereitung und Systematisierung biologischen Wissens und eignet sich für eine Anwendung auf technische Sensoren zur Identifikation des Optimierungspotentials und Entwicklung von Lösungsansätzen. Am Beispiel taktiler stiftführender Sensoren wird das Konzept zum Reizleitungsapparat als methodische Leitlinie angewandt. Als Untersuchungsobjekt wird aufgrund seiner technisch relevanten Charakteristika das Tasthaar-Sinnessystem von Säugetieren mit den peripheren Strukturen Haarschaft, Follikel-Sinus-Komplex und Mechanorezeptoren ausgewählt. Ziel der Untersuchungen dieses Sinnesorgans ist nicht die detaillierte Aufklärung aller funktionellen Zusammenhänge von der Peripherie bis zu der neuronalen Verarbeitungskette, sondern eine Abstraktion entscheidender Grundprinzipien, die den Ausgangspunkt für Lösungsansätze sensortechnischer Problemstellungen darstellen. Daher erfolgt die Aufarbeitung der biologischen Kenntnisse unter Zuhilfenahme ingenieur-wissenschaftlicher Methoden und Modelle. Die Peripherie des Tasthaar-Sinnesorgans wird als Biegebalken mit nachgiebiger Lagerung interpretiert, deren Steifigkeit aktiv einstellbar ist. Während der Haarschaft bezüglich seiner Struktur und der mechanischen Eigenschaften mit verschiedenen experimentellen Methoden untersucht werden kann, muss bei der Analyse des Follikel-Sinus-Komplexes auf deduktive Methoden der Modellbildung zurückgegriffen werden. Es wird ein auf Grundprinzipien reduziertes mechanisches Modell vorgestellt und dessen Reaktion einerseits als statisches und andererseits als dynamisches System auf verschiedene Erregerkräfte analysiert. Abschließend werden Ansatzpunkte zur Optimierung taktiler stiftführender Sensoren entwickelt. Schwerpunkte liegen neben Gestaltungsvorschlägen für die reizaufnehmende Struktur auf der Umsetzung einer nachgiebigen und in ihrer Steifigkeit einstellbaren Lagerung.



Grzesik, Axel;
Physiologiebasierte Simulation des Bremsverhaltens von Fahrzeugführern. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - 193 S.. - (Kraftfahrzeugtechnische Berichte ; 2) : Zugl.: Ilmenau, Techn. Univ., Diss., 2009
ISBN 978-3-939473-48-0
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=12343

Die Schnittstelle zwischen Fahrzeug und Fahrzeugführer ist nach wie vor ein Feld, das im Automobilbereich große Aufmerksamkeit erfährt. Ein Verständnis der Fahrer-Fahrzeug-Interaktion wird Entwicklungsingenieuren früh im Entwicklungsprozess die Berücksichtigung der Fahrerreaktionen in unterschiedlichen Fahrsituationen ermöglichen und somit Sicherheit und Komfort der Fahrzeuge erhöhen und gleichzeitig zu einer Reduktion der Entwicklungskosten beitragen. Trotz reichhaltiger Literatur zum Thema Fahrermodellierung wird in dieser Arbeit argumentiert, dass konventionelle Ansätze den Anforderungen beim Einsatz von Fahrermodellen in einem industriellen Kontext nicht genügen. Insbesondere mangelt es ihnen entweder an Wirklichkeitstreue oder an Weite des Validitätsbereich. In dieser Arbeit wird ein neuartiger Ansatz vorgeschlagen, der wohlbekannte neurophysiologische Konzepte aufgreift, um sie erfolgreich auf die Nachbildung menschlichen Bremsverhaltens zu übertragen. Der so entwickelte Regler formalisiert die menschimmanente Fähigkeit, ständig Vorhersagen über die Zukunft zu treffen. Er beinhaltet zwanglos Verzögerungszeiten, die dem menschlichen Regelkreis unweigerlich innewohnen und umgeht die kontroverse explizite Modellierung von Reaktionszeiten. Zur Bewältigung der Bremsaufgabe nutzt der Regler ebenso kinematisches Größen wie propriozeptives Feedback am Bremspedal. Zur Parametrierung und Validierung des Reglerentwurfs wurde menschliches Bremsverhalten in Realfahrzeugexperimenten mit insgesamt 73 Probanden durchgeführt.Die Experimente wurde in einer kontrollierten Umgebung auf Teststrecken der Robert Bosch GmbH mit einem Fahrzeug mit programmierbarem Bremssystem durchgeführt. Insbesondere zeigen die Versuchsdaten, dass sich die menschliche Strategie zur Kontrolle der Bremsaufgabe aus dem Wechselspiel zweier Wahrnehmungsvariablen ergibt. Dies ist eine Verallgemeinerung bekannter Ergebnisse über menschliche Bremsstrategien beim Bremsen in den Stand in künstlichen Umgebungen Diese Ergebnisse werden hier auch erstmals in Realfahrzeugversuchen bestätigt. Das Fußen dieses neuartigen Reglers auf neurophysiologischen Fakten trägt zu seiner Validität bei. Die Ideen, die in dieser Arbeit vorgestellt werden, lassen sich nach der in dieser Arbeit erarbeiteten Simulation von Bremsverhalten insbesondere zwanglos auf das Lenkverhalten übertragen, und sollten daher wegweisend für zukünftige Anstrengungen sein, menschliches Fahrverhalten realistisch nachzubilden.



Rau, Thomas S.;
Optimierungspotentiale für das Einwachsverhalten lasttragender Implantate in Knochengewebe : eine strukturierte, biomechanische Analyse regenerativer und adaptiver Fähigkeiten des Knochens. - Ilmenau : Univ.-Verl. Ilmenau. - XVI, 200 S.. - (Berichte aus der Biomechatronik ; 2) : Teilw. zugl.: Ilmenau, Techn. Univ., Diplomarbeit, 2005
ISBN 978-3-939473-36-7
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=12009

Umbauvorgänge im Knochen werden in der Endoprothetik häufig als Störgröße und Hauptursache beschrieben, die zu aseptischen Lockerungen und somit Implantatversagen führen. Dem entgegen ist es Ziel des vorliegenden Buches, die adaptiven und regenerativen Fähigkeiten des Knochens als Potential für die Optimierung lasttragender Implantate darzulegen. Durch die strukturierte Aufbereitung der knocheninternen Gesetzmäßigkeiten - wie reparative Prozesse, adaptive Fähigkeiten, biomechanische und hydrodynamische Gestaltungsmerkmale einschließlich der Mechanismen der Mechanosensorik - werden diese für den konstruktiven Entwicklungsprozess zukünftiger Prothesensysteme zugänglich. Dadurch kann verbesserte knöcherne Integration und dauerhafte Verankerung durch die konsequente Ausnutzung der Dynamik des Knochens realisiert werden. Der darauf aufbauende Optimierungsprozess des Implantatdesigns folgt diesem biologisch-orientierten Ansatz und mündet im beispielhaften Konzept einer hydrodynamischen Hüftendoprothese. Deren Integration in die flüssigkeitsvermittelte Knochenphysiologie stellt eine grundlegende Neuerung in der bionisch inspirierten Endoprothetik dar und soll fehlgeleitete Umbauvorgänge im Knochen vermeiden.



Kloock, Joachim P.;
Herstellung und Charakterisierung von Sensormembranen aus Chalkogenidglasschichten für den Einsatz als Schwermetallsensoren in Flüssigkeiten. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - XVI, 171 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2008
Enth. außerdem: Thesen

Die Detektion und Überwachung von Umweltparametern wie z.B. Schwermetallen gewinnt in der heutigen Zeit zunehmend an Bedeutung. Eine Möglichkeit zur Messung von Schwermetallen bieten ionenselektive Elektroden auf der Basis von Chalkogenidgläsern. Allerdings ist die Herstellung dieser Materialien zeit- und kostenintensiv. Weiterhin fehlt die Möglichkeit der Miniaturisierung für die Herstellung von Sensorsystemen für ''Vor-Ort''-Messungen. Um dieses Problem zu lösen, werden im Rahmen dieser Arbeit Chalkogenidglasschichten für den Nachweis von Cadmium, Blei, Kupfer, Thallium und Silber in Flüssigkeiten mittels gepulster Laserabscheidung (PLD: Pulsed Laser Deposition) hergestellt und charakterisiert. Die Abscheidung der Schichten erfolgt auf Silizium-Substrate. Die physikalische Charakterisierung der Schichten erfolgt mittels Video-Mikroskopie, Rutherfordrückstreuung (RBS) und Rasterelektronenmikroskopie (REM). Elektrochemisch werden die hergestellten Schichten mittels ionenselektiver Potentiometrie sowie Impedanzspektroskopie untersucht. Weiterhin werden die charakterisierten Schichten in ein siliziumbasiertes Sensorarray integriert und untersucht. Für eine zusätzliche Materialcharakterisierung werden feldeffektbasierte Sensorstrukturen, wie die Elektrolyt/ Isolator/ Halbleiter (EIS)-Struktur, der lichtadressierbare potentiometrische Sensor (LAPS) und der ionenselektive Feldeffekttransistor (ISFET) verwendet. Für ein besseres Verständnis der Vorgänge zum Potentialbildungsmechanismus an der Phasengrenze ''Fest/ Flüssig'' der Chalkogenidglasschichten wird exemplarisch ein Cadmium-selektives Chalkogenidglasmaterial mittels Impedanzspektroskopie charakterisiert. Für das untersuchte System wird ein theoretisches Modell in Form eines elektrischen Ersatzschaltbildes erstellt und mit den gemessenen Daten verglichen. Der Einsatz des entwickelten Sensorsystems für die Untersuchung von komplexen Flüssigkeitsmischungen auf der Basis einer ''elektronischen Zunge'' wird diskutiert.



Schultheiss, Daniel;
Im Reich der interstellaren Händler: Internetgames als innovative Spielform : eine Längsschnittstudie zu Spielmotivationen, Spielerleben und Spielverhalten am Beispiel eines Langzeit-Browsergames. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - 198 S.. - (Menschen, Märkte, Medien, Management ; Bd. 1) ISBN 978-3-939473-44-2
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=11732

Debes, Maik;
Konzeption und Realisierung eines kontextsensitiven Routingverfahrens. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - XV, 215 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2008

Das Angebot von Kommunikations- und Informationsdiensten richtet sich einerseits nach den individuellen Bedürfnissen der Nutzer andererseits aber auch nach den Möglichkeiten der verwendeten Netztechniken. Um einen optimal auf den Nutzer angepassten Dienst bereitstellen zu können, muss dessen Kontext berücksichtigt werden. Ein Dienstzugriff soll dabei möglichst flexibel und unabhängig vom Netz erfolgen. Den mobilen Zugriff auf solche Dienste können Infrastrukturnetze, durch ihre Topologie bedingt, nicht überall bedienen. Mobile Ad-hoc-Netze sind dagegen an keine Infrastruktur gebunden und deshalb sehr flexibel einsetzbar. Durch deren dynamische Topologie ergeben sich jedoch gegenüber den herkömmlichen Netzen auch spezielle Anforderungen an die Routen- und Dienstsuche. Konventionelle Verfahren sind hierbei in der Regel weder nutzbar, noch für einen Einsatz in heterogenen Umgebungen geeignet. Gerade mit der fortschreitenden Konvergenz der Netze ist aber eine netzübergreifende Lösung unumgänglich.Die vorliegende Arbeit befasst sich deshalb mit den Themen Ad-hoc-Netze sowie den hierbei eingesetzten Routingprotokollen und -verfahren. Es werden Möglichkeiten zur Dienstsuche erläutert und gegenübergestellt. Mit den Erkenntnissen daraus wird ein Architekturkonzept entwickelt, das die Dienstsuche sowohl in Ad-hoc- als auch in herkömmlichen Infrastrukturnetzen erlaubt. Die Dienstsuche erfolgt dabei in Verbindung mit einem für diesen Zweck erweiterten Routingverfahren. Warum diese Art einer Dienstsuche auf Netzwerkebene vorteilhaft ist, wird erläutert und begründet. Kernstück der entwickelten Architektur bilden die so genannten Kontextrouter, die eine Dienstsuche unabhängig von der Adresse eines Dienstanbieters unterstützen. Auch der Nutzer benötigt keine Kenntnis über eine solche Adresse. Eine Suche erfolgt lediglich über den Dienst und den zur Verfügung stehenden Informationen über den Kontext des Nutzers. Damit wird ein auf den Nutzer optimal angepasster Dienst ausgewählt. Das Konzept unterstützt die Weiterleitung von Daten zu einem alternativen Server, sofern der ursprüngliche Server ausfällt, und bietet Providern die Möglichkeit, steuernd auf die Dienstsuche und -kommunikation einzuwirken. Das Verifizieren des vorgestellten Konzeptes erfolgt auf Basis praktischer Realisierungen. Das dazu aufgebaute Demonstratornetzwerk dient für eine Reihe von Tests zum Nachweis der Funktionen und der Leistungsfähigkeit der Architektur. Die daraus resultierenden Ergebnisse beweisen, dass das Konzept den gestellten Anforderungen genügen kann.



Dörmann Osuna, Hans W.;
Ansatz für ein prozessintegriertes Qualitätsregelungssystem für nicht stabile Prozesse. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - XIII, 110 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2008

Für die umfassende qualitätsorientierte Serienfertigung sind bei den immer komplexer werdenden Fertigungsprozessen die Kenntnis über die Kausalzusammenhänge zwischen Eingangs- und Zielgrößen sowie die rechtzeitige gezielte Fehlerbeseitigung notwendig. Aus diesem Grund wird ein prozessintegriertes Qualitätsregelungssystem benötigt, innerhalb dessen die Kausalzusammenhänge transparent aufgezeigt, die einzelnen Prozessparameter überwacht und bei Verlassen der vorgegebenen Grenzen auch Maßnahmen abgeleitet werden. Zusätzlich dazu soll das Qualitätsregelungssystem aber auch in der Lage sein, die Prozessschritte dynamisch gestalten zu können, um präventiv in den Prozess einzugreifen. Für die Regelung statistisch beherrschter Prozesse sind Verfahren wie zum Beispiel die SPC (Statistical Process Control) Standard, setzten aber immer einen fähigen und beherrschten Prozess voraus. Trotzdem werden auch für nicht fähige und nicht beherrschte Prozesse, die so genannten nicht stabilen Prozesse, Verfahren zur Prozessregelung benötigt. Die vorliegende Arbeit beschreibt einen Ansatz für ein Qualitätsregelungssystem am Beispiel eines nicht stabilen Fertigungsprozesses in einer Leichtmetallgießerei. Für den Aufbau des Qualitätsregelungssystems wird eine Verkettung zweier unterschiedlich gerichteter Qualitätsregelkreise eingesetzt. Ein reaktiver Qualitätsregelkreis dient der Bestimmung der Kausalzusammenhänge innerhalb des Produktionsvorganges und der Ableitung von Maßnahmen zur Produktionsoptimierung. Zusätzlich dazu wird ein präventiver Qualitätsregelkreis implementiert, in dem Anpassungsmaßnahmen für die weitere Steuerung des Prozesses inklusive der zur Auslieferungsfreigabe notwendigen Bauteilprüfungen initiiert werden.Kernbestandteil beider Qualitätsregelkreise sind analytische Verfahren zur Modellbildung aus dem Bereich des Data Minings. Für den Einsatz sind unterschiedliche Verfahren diskutiert und ausgewählt worden. Am Beispiel mehrerer Untersuchungen in der Leichtmetallgießerei von BMW ist der methodische datengetriebene Ansatz bestätigt und mittlerweile fest in den Problemlösungsprozess integriert worden. Es gilt folgender Ansatz: Von der Vergangenheit lernen, die Gegenwart zu gestalten, um die Zukunft zu verbessern. Für die umfassende qualitätsorientierte Serienfertigung sind bei den immer komplexer werdenden Fertigungsprozessen die Kenntnis über die Kausalzusammenhänge zwischen Eingangs- und Zielgrößen sowie die rechtzeitige gezielte Fehlerbeseitigung notwendig. Aus diesem Grund wird ein prozessintegriertes Qualitätsregelungssystem benötigt, innerhalb dessen die Kausalzusammenhänge transparent aufgezeigt, die einzelnen Prozessparameter überwacht und bei Verlassen der vorgegebenen Grenzen auch Maßnahmen abgeleitet werden. Zusätzlich dazu soll das Qualitätsregelungssystem aber auch in der Lage sein, die Prozessschritte dynamisch gestalten zu können, um präventiv in den Prozess einzugreifen. Für die Regelung statistisch beherrschter Prozesse sind Verfahren wie zum Beispiel die SPC (Statistical Process Control) Standard, setzten aber immer einen fähigen und beherrschten Prozess voraus. Trotzdem werden auch für nicht fähige und nicht beherrschte Prozesse, die so genannten nicht stabilen Prozesse, Verfahren zur Prozessregelung benötigt. Die vorliegende Arbeit beschreibt einen Ansatz für ein Qualitätsregelungssystem am Beispiel eines nicht stabilen Fertigungsprozesses in einer Leichtmetallgießerei. Für den Aufbau des Qualitätsregelungssystems wird eine Verkettung zweier unterschiedlich gerichteter Qualitätsregelkreise eingesetzt. Ein reaktiver Qualitätsregelkreis dient der Bestimmung der Kausalzusammenhänge innerhalb des Produktionsvorganges und der Ableitung von Maßnahmen zur Produktionsoptimierung. Zusätzlich dazu wird ein präventiver Qualitätsregelkreis implementiert, in dem Anpassungsmaßnahmen für die weitere Steuerung des Prozesses inklusive der zur Auslieferungsfreigabe notwendigen Bauteilprüfungen initiiert werden.Kernbestandteil beider Qualitätsregelkreise sind analytische Verfahren zur Modellbildung aus dem Bereich des Data Minings. Für den Einsatz sind unterschiedliche Verfahren diskutiert und ausgewählt worden. Am Beispiel mehrerer Untersuchungen in der Leichtmetallgießerei von BMW ist der methodische datengetriebene Ansatz bestätigt und mittlerweile fest in den Problemlösungsprozess integriert worden. Es gilt folgender Ansatz: Von der Vergangenheit lernen, die Gegenwart zu gestalten, um die Zukunft zu verbessern.



Gernroth, Jana;
Die Internet Corporation for Assigned Names and Numbers (ICANN) und die Verwaltung des Internets. - Ilmenau : Univ.-Verl. Ilmenau. - LXXXVI, 102 S.. - (Medienrechtliche Schriften ; 4) : Zugl.: Ilmenau, Technis. Univ., Diplom-Arb., 2006
ISBN 978-3-939473-28-2
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=10122

Das in den USA der 60er Jahre geborene Internet entwickelte sich in kürzester Zeit zu einem Massenmedienphänomen der Informationsgesellschaft und erlangte wirtschaftliche, politische, rechtliche und soziale Bedeutung. Die Konnektivität des Netzes ermöglicht grenzenlosen Datentransfer. Sie wirft neue juristische Sachverhalte auf und führt zu zahlreichen Grundsatzdiskussionen. Durch seine umfangreichen Wirkungen und die voranschreitende Globalisierung verwischen einst geordnete Strukturen, die Welt muss sich mit moralischen, gesellschaftlichen, ökonomischen, politischen oder technischen Aspekten auseinandersetzen. Die anfangs rein wissenschaftliche Internet-Nutzung bedurfte keiner staatlichen Regelungen, seine Gemeinschaft verwaltete sich allein mittels impliziter Verhaltensregeln. Jedoch entstanden mit der wachsenden Bedeutung zusehends Probleme und die Selbstverwaltung funktionierte kaum noch. Mit der Gründung der privatrechtlichen US-Institution Internet Corporation for Assigned Names and Numbers (ICANN), hoffte man, eine geeignete Lösung gefunden zu haben. Ziel der Arbeit ist es, sich mit dem Phänomen ICANN auseinanderzusetzen. Der Fokus richtet sich auf die durch die Organisation verursachten Problembereiche und Konflikte. Aus der kritischen Betrachtung heraus werden alternative Formen der Internet-Regulierung dargestellt. Anschließend wird untersucht, ob ICANN weiterhin die zu erfüllenden Aufgaben wahrnehmen kann und soll bzw. ob und welche anderen Mechanismen geeigneter sein könnten. Der letzte Teil widmet sich dem Machteinfluss der USA über das Internet und ICANNs Zukunft. Den Einstieg bilden allgemeine geschichtliche und technische Internet-Grundlagen gefolgt von der Beschreibung der Institution ICANN anhand ihrer Organisations- und Vertragsstrukturen und Aufgaben. Es folgt eine kritische Auseinandersetzung mit ICANN, indem auf hervorzuhebende Basisprobleme und spezielle aktuelle Konfliktbereiche eingegangen wird. - Der Fokus der Arbeit beinhaltet die Struktur und Organisation des Internets und ICANNs. Es werden verschiedene Lösungsansätze dargelegt und auf geschichtlich begründete und aktuelle rechtliche und formaljuristische Hintergründe eingegangen. Daran schließen Theorien zur Internet-Governance an. Es werden Vor- und Nachteile von Selbstregulierung und staatlicher Regulierung dargestellt und ICANN darin eingeordnet. Anschließend werden alternative Internet-Regulierungsansätze dargestellt. Das folgende Kapitel widmet sich der besonderen Stellung der USA im Internet und der Zukunft ICANNs. Mit dem globalen Überblick wird die Internationalität ICANNs als US-Institution beleuchtet und die damit verbundenen Probleme aufgezeigt. Ein kurzes Fazit bildet den Abschluss.



Arlt, Dorothee;
Nicht-Erreichbarkeit in der Mobilkommunikation : eine medienpsychologische Experimentalstudie zur SMS-Kommunikation. - Ilmenau : Universitätsverlag Ilmenau. - XIII, 143 Seiten. - (Kommunikationswissenschaft interdisziplinär ; Band 1)
Technische Universität Ilmenau, Diplomarbeit 2007

ISBN 978-3-939473-20-6
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

Die vorliegende Untersuchung befasst sich mit dem Problem der Nicht-Erreichbarkeit in der SMS-Kommunikation. In bisherigen Studien galt das Forschungsinteresse eher dem "Erreichbarkeits-Dilemma". Deshalb will die Forschungsarbeit die Aufmerksamkeit auf das Dilemma der Nicht-Erreichbarkeit lenken, wobei der Untersuchungsgegenstand auf psychologische und kommunikationswissenschaftliche Theorien bezogen wird. Es wurde untersucht, ob Zusammenhänge zwischen der Nicht-Erreichbarkeit in der SMS-Kommunikation und den Emotionen der Mobilfunkteilnehmer sowie ihren Reaktionen und Verhaltensweisen auf die Nicht-Erreichbarkeit nachweisbar sind. Ferner fanden persönliche, soziale und motivationale Aspekte menschlichen Verhaltens als mögliche Einflussfaktoren Berücksichtigung. Es wurde ein Experiment mit N=675 Studenten durchgeführt, die einen Onlinefragebogen mit einer Fallvignette zur Nicht-Erreichbarkeit ausfüllen sollten. Die Ergebnisse zeigen, dass sich mobile Nicht-Erreichbarkeit und das Geschlecht der Mobilfunkteilnehmer unterschiedlich auf menschliches Verhalten auswirken. Es traten insbesondere signifikante geschlechtsspezifische Unterschiede auf. Aus methodischer Sicht erwies sich die interdisziplinäre Integration verschiedener Theorieansätze als zweckmäßig. Eine wissenschaftliche Auseinandersetzung mit Nicht-Erreichbarkeit in der SMS-Kommunikation, insbesondere aus psychologischer Perspektive, befindet sich noch in den Anfängen. Allerdings legen die vorliegenden Befunde nahe, dass weiterführende Untersuchungen einzelner Aspekte der Nicht-Erreichbarkeit zu einem besseren Verständnis der Problematik beitragen könnten.



Paul, Christian; Jaenichen, Sebastian; Steinrücken, Torsten
Demografischer Wandel in Deutschland und die Wirkungen auf Wirtschaftswachstum und öffentliche Finanzen. - Ilmenau : Univ.-Verl. Ilmenau. - 97 S.Literaturverz. S. 91 - 97

Schade, Hans-Peter; Röder, Jan
Live-Studioproduktion 3.0 : IT-basiert in die Zukunft ; Technische Universität Ilmenau, 07. Oktober 2008 ; Tagungsband ; Workshop. - Ilmenau : Univ.-Verl. Ilmenau, 2008. - 108 S. ISBN 3939473324 = 978-3-939473-32-9

Jaenichen, Sebastian; Steinrücken, Torsten; Itzenplitz, Anja; Seifferth-Schmidt, Nicole
Ordnungspolitische Standpunkte zu aktuellen Fragen der Umwelt-, Wettbewerbs- und Wirtschaftspolitik. - Ilmenau : Univ.-Verl. Ilmenau, 2008. - 271 S. ISBN 978-3-939473-41-1
Enth. 8 Beitr.

Seitz, Jochen; Heubach, Michael; Rink, Wolfram
Tagungsband : Technische Universität Ilmenau, 12. September 2008. - Ilmenau : Univ.-Verl. Ilmenau, 2008. - 96 S. ISBN 978-3-939473-33-6
Literaturangaben

Gießler, Cornelia;
Theoretical investigations of electromagnetic control of glass melt flow. - Ilmenau : Univ.-Verl. Ilmenau, 2008. - X, 103 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2008
ISBN 3-939473-37-5
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=11218

Die elektromagnetische Strömungskontrolle von Flüssigkeiten mit hoher elektrischer Leitfähigkeit wird bereits in verschiedenen Bereichen industriell genutzt. Vergleichsweise neu ist die Anwendung elektromagnetischer (Lorentz) Kräfte zur Beeinflussung von Fluiden mit geringer elektrischer Leitfähigkeit, wie beispielsweise Glasschmelzen. Die Lorentzkraft in Glasschmelzen wird durch die Überlagerung eines eingeprägten elektrischen Stromes und eines externen Magnetfeldes erzeugt.Grundsätzlich kann die Lorentzkraft zur Durchflussregulierung und für das Durchmischen genutzt werden. Diese theoretische Arbeit widmet sich beiden Anwendungsmöglichkeiten unter Berücksichtigung der charakteristischen Materialeigenschaften von Glasschmelzen. Im ersten Teil der Dissertation wird die Rohrströmung von Glasschmelzen anhand eines eindimensionalen analytischen Modells untersucht. Die Strömung wird durch Lorentzkraft und Gravitation beeinflusst. Weiterhin werden Temperaturänderungen durch Wärmeverluste, direkte elektrische Heizung, Konvektion und Wärmeleitung in die Betrachtung einbezogen. Wie bei laminarer Rohrströmung mit konstanten Materialeigenschaften hängt die mittlere Geschwindigkeit im Bereich hoher und sehr niedriger antreibender Kräfte linear von diesen ab. Für reine Heizung wird eine neue laminare Strömungscharakteristik beobachtet das Quadrat der mittleren Geschwindigkeit ist proportional zur antreibenden Kraft. Bei Kühlung jedoch kann das Strömungsverhalten Bifurkationen mehrwertige Lösungen aufweisen, die bereits durch ein einfaches nicht-magnetisches Experiment nachgewiesen werden können. Dieses nichtlineare Verhalten wird durch die starke Kopplung von Geschwindigkeit, Temperatur und temperaturabhängigen Materialeigenschaften hervorgerufen. Die Ergebnisse des analytischen Modells werden durch zweidimensionale, axialsymmetrische Simulationen validiert. Im zweiten Teil dieser Arbeit wird dreidimensionale Strömungssimulationen von Glasschmelze in einem Tiegel präsentiert. Die Lorentzkraft führt insgesamt zu einer Zunahme der kinetischen Energie. Die mittlere Geschwindigkeit ist eine lineare Funktion der Lorentzkraft, falls diese dominiert. Der Übergang von einer vorwiegend durch Auftrieb angetriebenen Strömung zu einer elektromagnetisch gesteuerten Strömung ist durch eine Hysterese gekennzeichnet. Man erhält zwei verschiedene stationäre Strömungsstrukturen für einen gegebenen Steuerparameter. Die Lösung hängt dabei von den Anfangsbedingungen der Berechnung ab. Weiterhin kann das dreidimensionale Problem auf eine Strömung in einem geschlossenen Rohrkreislauf reduziert werden. Die mittlere Geschwindigkeit wird dabei durch eine algebraische Gleichung beschrieben. Der geschlossene Rohrkreislauf ist die stark vereinfachte Darstellung einer geschlossenen Stromlinie in einem Tiegel unter dem Einfluss der Lorentzkraft. Das Modell ermöglicht klar den Einfluss der temperaturabhängigen Viskosität und elektrischen Leitfähigkeit auf das Strömungsverhalten aufzuzeigen.



Leutwein, Hans-Ulrich;
Einfluss von Autofrettage auf die Schwingfestigkeit an innendruck-belasteter Bauteile aus Kugelgraphitguss. - Ilmenau : Univ.-Verl. Ilmenau, 2008. - 198 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2008

Diese wissenschaftliche Arbeit behandelt die Ermüdungsfestigkeit von autofrettierten Bauteilen aus Kugelgraphitguss EN-GJS unter Innendruck-Schwellbeanspruchung. An Bauteilproben mit einer 90&ring;-Bohrungsverschneidung aus EN-GJS-400-18, EN-GJS-500-7 und EN-GJS-600-3 wurden die Bauteil-Wöhlerlinien in Einstufenversuchen bei den Spannungsverhältnissen R ˜ 0 und R = 0,5 ermittelt und die Druckfestigkeitssteigerung durch die Autofrettage bestimmt. Weiter wurden Innendruckschwell-Zweistufenversuche bei konstantem Maximaldruck durchgeführt, um den Schädigungseinfluss (Omission-Level) von kleinen Schwingspielen auf die Druckfestigkeit dieser Bauteile zu bewerten. Auf der Basis des Kerbdehnungs-Berechnungskonzepts wurden die vollständigen Anriss-Wöhlerlinien der nicht autofrettierten und autofrettierten Bauteilproben berechnet und mit den experimentellen Ergebnissen verglichen. Die hier eingehenden Werkstoffkennwerte ergaben sich aus statischen Zugversuchen und dehnungs-kontrollierten Schwingversuchen an nicht gekerbten Zugstäben. Für die nicht autofrettierten Bauteile wurde zusätzlich mit dem Konzept der Synthetischen Wöhlerlinien die Bruch-Wöhlerlinie konstruiert und den Ergebnissen aus den Innendruckschwell-Einstufenversuchen gegenübergestellt.



Jaenichen, Sebastian;
Preisdiskriminierung auf Standortmärkten : über den Zusammenhang und die Wohlfahrtswirkungen von Wirtschaftsförderung, Standortwahl und Steuerwettbewerbsregulierung. - Ilmenau : Univ.-Verl. Ilmenau, 2008. - XVI, 270 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2008
ISBN 978-3-939473-38-1
Literaturverz. S. 252 - 270

Das vorliegende Buch behandelt die Frage nach der gesamtwirtschaftlichen Wünschbarkeit dezentraler staatlicher Eingriffe in die räumliche Verteilung unternehmerischer Aktivität mit steuer- und budgetpolitischen Instrumenten.Dazu arbeitet der Autor die wesentlichen Argumente für den Einsatz unternehmensspezifischer Standortpreise durch im Standortwettbewerb agierende Jurisdiktionen heraus und konfrontiert diese mit den Gegenargumenten der Theorie des Steuerwettbewerbs. Aus dieser Gegenüberstellung ergibt sich ein einfacher Vorschlag zur Verbesserung der europäischen Regulierung des mitgliedstaatlichen Standortwettbewerbs.



Akmaz, Bülent L.; Kuchinke, Björn A.; Sundmacher, Torsten; Zerth, Jürgen
Gesundheitspolitische Rahmenbedingungen und ihre Wettbewerbswirkungen : [ausgewählte Beiträge des dritten Duisburg-Ilmenau-Bayreuther Oberseminars zur Gesundheitsökonomie und Sozialpolitik (DIBOGS) ... am 8.und 9. November 2007 in Ilmenau]. - Ilmenau : Univ.-Verl. Ilmenau, 2008. - 121 S.. - (DIBOGS-Beiträge zur Gesundheitsökonomie und Sozialpolitik ; 2) ISBN 3-939473-34-0
Enth. 11 Beitr. - Literaturangaben

Schulz, Olaf;
Bestimmung physikalischer und technischer Randbedingungen zur Umsetzung eines photoakustischen Gassensors in der Mikrosystemtechnik. - Ilmenau : Univ.-Verl. Ilmenau, 2008. - VII, 129 S., [9] Bl. Zugl.: Ilmenau : Techn. Univ., Diss., 2007
Enth. außerdem: Thesen

In dieser Dissertation werden physikalische und technische Grenzwerte für die Miniaturisierung neuartiger photoakustischer Gassensoren untersucht. In Erweiterung zu existierenden Arbeiten auf dem Gebiet miniaturisierter photoakustischer Gasdetektoren wird hier ein komplexes mathematisches Modell entwickelt, welches physikalische, technische und Umweltbedingungen als spezifische Parameter berücksichtigt. Das Model berücksichtigt sowohl den Zeit- als auch Frequenzbereich. Es kombiniert die zwei traditionellen Modellierungsansätze der ratengleichgewichtsbasierten Zeitbereichsuntersuchung nichtresonanter akustischer Systeme und wellengleichungsbasierten Frequenzbereichsanalyse akustischer Resonatoren. Die Äquivalenz dieser Betrachtung zu bestehenden Modellen kann gezeigt werden. Als wesentlicher Vorteil gegenüber diesen Modellen bietet der hier gezeigte Ansatz jedoch den Vorteil, die eingeführten Parameter entkoppelt voneinander über einen breiten Variationsbereich betrachten zu können. Mit diesem erweiterten Modell werden komplexe System- und Verhaltenssimulationen möglich. Während in den existierenden Arbeiten zur Photoakustik nur Reingase betrachtet werden, untersucht diese Dissertation den Einfluss der Interaktion unterschiedlicher Moleküle und führt dies als Parameter in das theoretische Model ein. Sowohl in simulierten als auch experimentellen Untersuchungen wird gezeigt, dass die zu beobachtenden Effekte in solchen Gasgemischen für die Verbesserung der Sensitivität und Selektivität neuartiger Gassensoren nutzbar sind. Es wird demonstriert, wie durch die Verwendung moderner Technologien und Prozesse aus der Mikrosystemtechnik zuverlässige und leistungsfähige Gasdetektoren ermöglicht werden. Die in dieser Arbeit entwickelten und umgesetzten Konzepte berücksichtigen dabei schon im Ansatz die Bedürfnisse einer preisbewussten Massenfertigung und potentielle Anwendungen. Schließlich werden diese Detektoren zusammen mit ebenfalls neuartigen mikromechanischen Emittern in einem integrierten Sensorkonzept untersucht. Die verbesserten Eigenschaften dieses Demonstrators können im Vergleich zu verfügbaren, vergleichbaren Sensoren nachgewiesen werde. In Kapitel 1 wird der gegenwärtige Entwicklungsstand der Photoakustik im Allgemeinen betrachtet. Weiterhin werden konkurrierende Detektortypen vorgestellt. In Kapitel 2 folgen eine theoretische Betrachtung der Grundlagen des photoakustischen Effekts sowie die Entwicklung des parametrischen Modells. Die Vergleichbarkeit zu existierenden Modellierungsansätzen wird gezeigt. Der Aufbau einer experimentellen Plattform, die Evaluierung des parametrischen Modells und die Untersuchung verschiedener Einflussfaktoren auf das Sensorverhalten sind Gegenstand des Kapitels 3. Es wird ebenfalls eine spezifische Methodik entwickelt, um typische Parameter wie Sensitivität, rauschäquivalente Leistung und Detektivität zu bestimmen. Unter Berücksichtigung der gewonnenen Erkenntnisse und Nutzung moderner Methoden der Mikrosystemtechnik werden in Kapitel 4 schließlich Konzepte für miniaturisierte photoakustische Detektoren entwickelt und umgesetzt. Da die messbare Gasempfindlichkeit eines Detektors letztlich auch vom Messaufbau abhängt, wird an dieser Stelle das integrierte Sensorkonzept vorgestellt, umgesetzt und untersucht. Im abschließenden Kapitel 5 werden die in dieser Arbeit entwickelten Detektor- und Sensorkonzepte mit jenen konkurrierenden Systemen verglichen, welche in Kapitel 1 beschrieben wurden. Weitere Entwicklungs- und Anwendungsmöglichkeiten bieten einen Ausblick auf die Zukunft der photoakustischen Gasdetektion.



Knoth, Andreas Friedrich;
Internationalisierung und Rechtsformenwahl innerhalb der Europäischen Union : Synergieeffekte durch die Wahl einheitlicher Rechtsformen für Muttergesellschaft und ausländische Tochterunternehmen unter besonderer Berücksichtigung von Investitionen kleiner und mittlerer Unternehmen in den osteuropäischen Mitgliedsstaaten der Europäischen Union. - Ilmenau : Univ.-Verl. Ilmenau, 2008. - 273 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2007
ISBN 978-3-939473-31-2
Literaturverz. S. 252 - 273

Bisher waren deutsche Unternehmen bei ihrem grenzüberschreitenden Engagement in anderen Mitgliedstaaten der Europäischen Union auf die Nutzung rechtlich unselbständiger Zweigniederlassungen oder auf die Gründung von Tochtergesellschaften in der Rechtsform des jeweiligen Investitionslandes angewiesen. Im ersteren Fall besteht keine Haftungstrennung zum Mutterunternehmen, im zweiten Fall ist ein grenzüberschreitend agierendes Unternehmen gezwungen, seine Geschäfte in anderen Mitgliedstaaten der Europäischen Union über Tochtergesellschaften des jeweiligen nationalen Rechts bzuwickeln, mit der Konsequenz, dass bei einer Tätigkeit in 27 Mitgliedstaaten der Europäischen Union 27 verschiedene nationale Rechtsordnungen und damit auch unterschiedlichste nationale Rechtsformen zur Anwendung gelangen. Insoweit wurde sich auch im Internationalen Marketing wie auch in der Internationalen Unternehmensführung bei der systematischen Planung von Internationalisierungsvorhaben mit der Nutzung ausländischer und in der Regel unbekannter Rechtsformen des Investitionslandes und ebenso mit dem Betreten unbekannter ausländischer Gesellschaftsrechtsordnungen abgefunden. Aufgrund der Rechtsprechungsentwicklung des Europäischen Gerichtshofes im Bereich der Niederlassungsfreiheit der Art. 43, 48 EGV wird jedoch der Bereich der Rechtsformenwahl bei Internationalisierungsvorhaben einen neuen Stellenwert gewinnen, da Unternehmen bei Auslandsinvestitionen innerhalb der Europäischen Union nicht mehr allein auf die vom Investitionsland zur Verfügung gestellten Rechtsformen angewiesen sind. Innerhalb der Europäischen Union müssen Unternehmen bei der Gründung von Tochtergesellschaften nicht mehr auf die Rechtsformen des jeweiligen Investitionslandes zurückgreifen, sondern können im Rahmen der Internationalisierungsrechtsformenwahl auf sämtliche nationalen Kapitalgesellschaften aus den Mitgliedstaaten der Europäischen Union zurückgreifen. Durch die Nutzung einer einheitlichen Rechtsform für Mutterunternehmen und sämtlicher Tochtergesellschaften kommt es nicht nur zu einer drastischen Vereinheitlichung im Rahmen der statutarischen Organisationsstruktur, weil innerhalb des Gesamtunternehmens für sämtliche Gesellschaften ein einheitliches Gesellschaftsrecht zur Anwendung gelangt. Ebenso kommt es zu weiteren erheblichen Synergieeffekten weil in den unterschiedlichsten Investitionsländern innerhalb der europäischen Union auch im Außenverhältnis etwa gegenüber Geschäftspartnern, Banken oder Konsumenten grundsätzlich allein nur das Gesellschaftsrecht des Gründungsstaates und damit allein das Gesellschaftsstatut der einheitlichen Rechtsform zur Anwendung gelangt. Diese Entwicklung wird gerade auch das Auslandsengagement kleiner und mittlerer Unternehmen innerhalb der Europäischen Union in Zukunft weiter erleichtern.



Kocourek, Vaclav;
Elektromagnetisches Abstützen von Flüssigmetall-Tropfen. - Ilmenau : Univ.-Verl. Ilmenau, 2008. - XIV, 89 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2007
Enth. außerdem: Thesen

In der Beschichtungsindustrie werden Metalle in einem wassergekühlten Tiegel mit Hilfe eines Elektronenstrahls geschmolzen und verdampft. Bei diesem Vorgang führt Marangoni-Konvektion im Inneren der Schmelze zu höchst unerwünschten Wärmeverlusten an den wassergekühlten Seitenwänden des Tiegels. Um den Wirkungsgrad zu erhöhen, wäre es deshalb günstig, die radial nach außen gerichtete Schmelzenströmung zu bremsen und die Oberfläche als Kuppel auszubilden. Die zu dieser Verformung der freien Oberfläche erforderlichen Lorentzkräfte können durch ein elektromagnetisches Feld aufgebaut werden. Für die Realisierung dieser Technik es ist nötig, die Wirkung des Magnetfeldes, d.h. die Form und Stabilität der Oberfläche zu analysieren. In der vorliegenden Arbeit wird ein Experiment vorgestellt, bei dem ein einfaches System, bestehend aus einer flachen Induktorspule und Flüssigmetall, untersucht wird. Als Flüssigmetall wird Galinstan verwendet. Galinstan ist eine Gallium-Indium-Zinn - Legierung, die bei Zimmertemperatur flüssig ist und sich somit sehr gut für Experimente eignet, da keine Vorkehrungen für hohe Temperaturen getroffen werden müssen. Der Galinstantropfen wird auf eine gewölbte Glasplatte gegeben und mit dem von einem ringförmigen Induktor erzeugten magnetischen Wechselfeld verformt. Die Oberflächenkontur des Tropfens wird mittels einer Hochgeschwindigkeitskamera beobachtet. Die aufgezeichneten Daten werden mit Hilfe von Bildbearbeitungsverfahren analysiert. Im Experiment werden Induktorstrom, Tropfenvolumen und Frequenz verändert. Wird der Induktorstrom bis zu einem kritischen Strom 0A < I < Icrit erhöht, so wird der Tropfen zunächst statisch achsensymmetrisch zusammengedrückt. Bei überschreiten des kritischen Stromes I > Icrit wird dieser statische, symmetrische Zustand jedoch instabil und es bilden sich oszillierende Wellen entlang des Tropfenumfangs. Die Anzahl der Spitzen wird als Modenzahl bezeichnet. Die Abhängigkeit des kritischen Stromes, der Modenzahl und der Wellenamplitude wird über ein breites Spektrum der Frequenz und des Tropfenvolumens analysiert. Die Abhängigkeit der Schwingungsfrequenz von der Modenzahl bestätigt die theorethische Vorhersage.



Langebach, Jan;
Beiträge zur thermischen Auslegung von Automobilscheinwerfern. - Ilmenau : Univ.-Verl. Ilmenau, 2008. - XVI, 153 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2007
ISBN 978-3-939473-27-5
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=10113

In der vorliegenden Arbeit wird der Wärmetransport in Automobilscheinwerfern numerisch und experimentell untersucht. Die Scheinwerfer unterteilen sich dabei in Bezug auf die Lichtquelle in zwei Klassen: Scheinwerfer mit Halbleiter-Lichtquellen (Light-Emitting-Diodes) und Scheinwerfer mit Temperaturstrahlern (Halogen-Glühlampen). Das Auslegungskonzept beider Klassen unterscheidet sich grundlegend. Deshalb entstehen für die Arbeit zwei Schwerpunkte: Die optimale Kühlung von Halbleiter-Lichtquellen im Scheinwerfer und die Verminderung von lokalen Überhitzungen an der Abdeckscheibe von Scheinwerfern mit Temperaturstrahlern, sogenannten Hot-Spots. Halbleiter-Lichtquellen werden zum verbesserten Wärmetransport mit Kühlkörpern versehen. Sind diese im geschlossenen Gehäuse des Scheinwerfers platziert, muss die Wärme vom Kühlkörper an die Innenluft des Scheinwerfers und von dort an die Gehäusewand abgegeben werden. Der erste Teil der Arbeit untersucht den Einfluss der erzwungenen und gemischten Konvektion auf den Wärmetransport von Kühlkörper zu Gehäuse und vergleicht ihn mit dem Einfluss der natürlichen Konvektion im geschlossenen Scheinwerfergehäuse. Im Gegensatz zu bestehenden Studien wird die erzwungene Konvektion zur Erhöhung des Wärmeüberganges am Kühlkörper und dem Gehäuse genutzt und nicht zum Abtransport von erwärmten Fluid. Der Einsatz der gemischten Konvektion erhöht den Wärmetransport im untersuchten Modell um mehr als 50% gegenüber natürlicher Konvektion. Der Wärmetransport kann durch Positionierung der Wärmequelle in der Hauptströmung, durch Vergrößerung der Gehäusefläche und durch den Einsatz eines Abdeckrahmens maximiert werden. Wird der Kühlkörper anstelle einer ebenen Platte durch eine Oberfläche mit Rippen ersetzt, erhöht sich der Wärmetransport maximal um den Faktor 2,2. Behindern benachbarte Bauteile das kühlende Fluid am Zu- und Abströmen vom Kühlkörper, so wird der Wärmetransport stark reduziert. Der Abstand und die Größe der Begrenzungen vermindern den Wärmetransport im untersuchten Parameterbereich für natürliche Konvektion um bis zu 65%. Die Untersuchungen werden numerisch durchgeführt und mit Modellexperimenten validiert. Die Entstehung des Hot-Spots an der Abdeckscheibe von Scheinwerfern wird im zweiten Teil der Arbeit studiert. Anhand eines experimentellen Aufbaus kann der Druck innerhalb eines Scheinwerfermodells reduziert werden und somit erlauben die Experimente die Variation der Rayleigh-Zahl über sechs Größenordnungen. Dies mindert den Einfluss des konvektiven Wärmetransportes stark und die Kopplung von Konvektion und Strahlung wird direkt beeinflusst. Die gefundenen Ergebnisse erweitern die wenigen, in diesem Parameterbereich verfügbaren Literaturdaten erheblich. In den Experimenten werden die Rayleigh-Zahl, Abstand von Reflektor und Abdeckscheibe und Emissionskoeffizient des Reflektors als Kennzahlen des Modells ermittelt. Begleitende numerische Simulationen bilden die Strömungsverhältnisse innerhalb der Geometrie nach und erklären die auftretenden Effekte. Eine zweite numerische Studie untersucht ein Modell der Abdeckscheibe, die alle vorher variierten Parameter in sich vereint. Weitere Parameter der Abdeckscheibe, wie die Scheibendicke, werden so in die Untersuchungen aufgenommen. Das Modell ist mit dem einer ebenen Platte, mit diskreter Wärmequelle und gekoppeltem Wärmetransport auf zwei Seiten vergleichbar und stellt eine neuartige Kombination zum Studium des Wärmetransportes dar. Es kommt außerdem ohne die Benutzung eines Strahlungsmodells für gerichtete Strahlung aus.



Trzewik, Jürgen;
Experimental analysis of biaxial mechanical tension in cell monolayers and cultured three-dimensional tissues : the CellDrum technology. - Ilmenau : Univ.-Verl. Ilmenau, 2008. - IX, 126 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2007

Die biomechanische Integrität und Leistungsfähigkeit von Gewebe und Organen beeinflusst die Gesundheit des Menschen in extremer Weise. Weitverbreitete Erkrankungen wie Hernienbildung (Eingeweidebruch) und Beckenbodendefekte (jährlich alleine zehn Million Patientinnen in den USA) stehen mit einer verminderten biomechanischen Gewebefunktionalität in einem klaren Zusammenhang. Diese exemplarisch genannten Erkrankungen, aber auch Dysfunktionen des Herz-Kreislaufsystems sind auf biomechanische Veränderungen auf zellulärer Ebene zurückzuführen. Grundlagenforschung hierzu am Menschen ist aus ethischen und praktischen Gründen, insbesondere bei der Erprobung aktiver Substanzen problematisch. In der Literatur werden zur Evaluierung biologischer Materialeigenschaften in vitro Testsysteme vorgeschlagen, welche relativ unkritisch aus Methoden der konventionellen Materialprüfung abgeleitet worden sind. Dies betrifft insbesondere einachsiale Zugversuche. Die meisten Spannungssituationen in biologischen Systemen sind aber dreiachsial oder zweiachsial. Der einachsiale Spannungszustand tritt allenfalls in dünnen Sehnenstrukturen auf. In dieser Arbeit wurde ein Messprinzip entwickelt, welches es erlaubt, Zellmonolayer und dünne Gewebeschichten unter biaxialer Belastung zu züchten und mechanisch zu analysieren. Ein grundlegender Bestandteil des Messverfahrens ist, das CellDrum genannte, Zellkultivierungsmodul. Die entwickelte CellDrum besteht aus einem biokompatiblen, Polycarbonatzylinder, welcher mit einer ebenfalls biokompatiblen, dünnen (< 1 mikron) und extrem flexiblen Siliconmembran einseitig verschlossen ist. Die Silikonmembran kann einerseits mit Zellmonolayern besiedelt werden oder dient als Halte-und Unterstützungschicht bei der Kultivierung von auf Zell-Kollagengel basierenden Gewebeäquivalenten. Die CellDrum Technologie ist universell verwendbar für beinahe jede Art der Materialprüfung dünner Schichten. Untersuchungen können prinzipiell dynamisch und quasistatisch durchgeführt werden. Im dynamischen Ansatz wird die Resonanzfrequenz und somit die Eigenspannung des Gewebeverbundes analysiert, welcher durch einen Druckimpuls zum Schwingen angeregt wird. Der quasistatische Ansatz ermöglicht die Untersuchung des Spannungs-Dehnungsverhaltens der Testmaterialien (in dieser Arbeit: Zellmonolayer und Gewebeäquivalente). Den verschiedenen Fragestellungen und Testsituationen angepasst, wurden Technologien entwickelt, die von der Herstellung flexibler, biokompatibler Membranen mit Dicken im Mikrometerbereich über Hard- und Softwarelösungen bis hin zur biomechanischen Problemanalyse zur Ableitung geeigneter biomechanischer Parameter reichten. Es war diese extreme Interdisziplinarität zwischen Zell- und Molekularbiologie, Polymerchemie, Mechanik und anderen Ingenieurwissenschaften, die gleichermaßen gut beherrscht werden mussten, was die Herausforderung dieser Arbeit darstellte. Zellbasierte Systeme reagieren hinsichtlich Orientierung, Morphologie, Stoffwechsel sowie Protein- und Genexpression auf Veränderungen ihrer mechanischen Umgebung. Diese Problematik wurde bei der CellDrumkonzeption bedacht, experimentell evaluiert sowie technisch und theoretisch realisiert. Neben den zuvor genannten Problemlösungen mussten Tests zur Eignung verschiedener Adhäsionsproteine durchgeführt werden. Ungeeignete Proteine zeigten im statischen Spannungszustand biokompatibles Verhalten; bei dynamischer Belastung initiierten dieselben Proteine ein Zellsterben. Ein anderes, nicht kleines Problem war die Verankerung des Randes der künstlichen Gewebeschicht an der Peripherie. Das Zusammenspiel zwischen Gewebespannung, Zellproliferation und Zellkonzentration wurde in der Vergangenheit mit verschiedenen Verfahren experimentell analysiert. Die Neuheit des in dieser Arbeit beschriebenen Verfahrens besteht darin, die Zellverbände über lange Zeiten (Wochen) statisch oder dynamisch unter genau definierten mechanischen Randbedingungen kultivieren zu können und gleichzeitig die Möglichkeit zu haben, den mechanischen Spannungszustand des gezüchteten Konstruktes zu beliebigen Zeiten zu messen. Es wurde hier der Zusammenhang zwischen Gewebespannung und Zellproliferation für mit Fibroblasten besiedelte Gewebeäquivalente exemplarisch dargestellt. Die gewonnenen Erkenntnisse, insbesondere Plateaueffekte bei der Gewebespannungsgeneration, lassen aufschlussreiche Rückschlüsse auf die Spannungshomeostase im Gewebe zu. Die Stimulierung von Gewebeäquivalenten durch Wirkstoffe und die Variation von Prozessparameteren während der Zellkultivierung bestimmen Eigenspannung und E-Modul des Messobjektes mit. Durch die Anpassung bestehender Verfahren der Mikrosystemtechnik konnte ein Verfahren in die biologische Materialprüfung transferiert werden. Dieses quasistatische Verfahren ermöglicht die Messung von Gewebeeigenspannung und E-Modul in nur einem Messdurchlauf.Die Zellaktivität (Morphologie, Metabolik, Protein- und Genexpression) wird durch ihr mechanisches Umfeld determiniert. Viele in der Literatur beschriebene Messverfahren induzieren ein inhomogenes Spannungsfeld mit van Mieses Vergleichsspannungen, die im selben Gewebekonstrukt um mehr als 75% variieren. Die kreisrunde Geometrie der CellDrum erlaubt ein weitestgehend homogenes Spannungsfeld. Zur Untersuchung von autolog und synchron schlagenden Kardiomyozyten (Herzmuskelzellen) wurden geeignete Zellkulturtechniken entwickelt, um diese als Monolayer oder Gewebeäquivalente mit der CellDrum Technik untersuchen zu können. Es wurde eine Methode entwickelt, um primäre Kardiomyozyten aus zehn Tage alten Embryos angebrüteter Hühnereier zu gewinnen. Die Methode wurde später mit einem Partner auf neonatale Rattenmyocyten transferiert. Zur Entwicklung, Optimierung und Standardisierung zellbiologischer Messprotokolle ist insbesondere die Möglichkeit einer optischen Überwachung während der Kultivierungsphase von großer Bedeutung. Die Möglichkeit der kontinuierlichen mikroskopischen Evaluierung, bei gleichzeitig minimaler Störung der Messumgebung ist einmalig und in der beschriebenen Apparatur gewährleistet. In allen Anwendungen ist für die Interpretation von Meßdaten auch die Zelldichte ein entscheidender Parameter. In Verbindung mit einem invertierten konfokalen Lasermikroskop können Zelldichte und Orientierung während der Kultivierungsperiode ermittelt werden. Neben der weitgehend unbefriedigenden biomechanischen Situation früherer Methoden, war oft auch die Versuchsdurchführung kritisch, kompliziert und fehlerbehaftet. Zum Sekundärscreening potentieller therapeutischer Wirksubstanzen müssen zehntausende Substanzen funktionell getestet werden. Das CellDrum-Verfahren liefert als bisher einzige Technik die Grundlage für ein automatisierbares Hochdurchsatz-Screening-Konzept. Dies wurde an Fibroblasten-Kollagen Verbunden exemplarisch gezeigt.



Andrada, Emanuel;
A new model of the human trunk mechanics in walking. - Ilmenau : Univ.-Verl. Ilmenau, 2008. - Getr. Zählung. - (Berichte aus der Biomechatronik ; 1) : Zugl.: Ilmenau, Techn. Univ., Diss., 2007
ISBN 978-3-939473-25-1
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=9548

Beim menschlichen Gehen interagiert der Rumpf systematisch mit den Extremitäten. Aus diesem Grund kann man Rumpfamplituden, Frequenzen und Phasen als eine Funktion der Fortbewegungsgeschwindigkeit beobachten. Das Bewegungsbild des Rumpfes aber ist individuell. Um die Ursachen der intra- und interindividuellen Variation der Kinematik des Rumpfes zu finden, wurden zwei Hypothesen geprüft: 1) die intra- und interindividuelle Variation der Kinematik des Rumpfes ist eine Funktion der Massenverteilung, 2) hat man eine bestimmte Masseverteilung und eine gegebene Geschwindigkeit, dann wird die intra- und interindividuelle Variation in der Kinematik des Rumpfes durch die Änderungen in den visco-elastischen Eigenschaften des Bewegungsapparates realisiert. Um Hypothese 1 zu testen, wurde eine Studie mit 106 Probanden (50 w, 56 m) durchgeführt. Bei dieser Studie wurde keine einfachen Zusammenhänge zwischen den 48 anthropometrischen und den kinematischen Parametern der Rumpfbewegung (Freiheitsgrad 6) bei 4 km/h (energetische Optimalgeschwindigkeit nach Cavagna) gefunden. Die in der vorliegenden Arbeit präsentierten kinematischen Ergebnisse stellen dar, dass die Dämpfungsmechanismen (Dm) in der Frontalebene betont sind, und auch, dass die Dm bei den Frauen stärker ausgeprägt sind als bei den Männern. Außerdem zeigen die Ergebnisse, dass die so genannten Kompensationsmechanismen zwischen Kopfrotationen und Schultertranslationen geschwindigkeitsabhängig sind, und auch, dass Frauen und Männer unterschiedliche Strategien nutzen. Um die Hypothese 2 zu testen, wurde ein Morpho-Funktionaelles Modell des Rumpfes mit Freiheitsgrad 14, basierend auf den Hanavan Modell, vorgeschlagen. Die Ergebnisse der Simulationen konnten nicht widerlegen, dass die visco-elastischen Parameter, die bei der Simulation berechnet werden, eine solide erklärende Kenngröße für die Änderungen der Amplituden, Frequenzen und Phasen der verschiedenen Körpersegmenten des Rumpfes beim Gehen sind. Sie sind auch in der Lage, die intra- und interindividuellen kinematischen Variationen zu erklären. Die hier vorliegende Arbeit stellt zwei unterschiedliche Anwendungsfelder für die visco-elastischen Parameter dar. Das erste ist eine medizinisch orientierte Applikation, während sich das zweite auf bionisch inspirierte Robotik oder morpho-funktionell Maschinen bezieht.



Frank, Sebastian;
Entwurf einer modularen Steuerung für Nanopositionier- und Nanomessmaschinen. - Ilmenau : Univ.-Verl. Ilmenau, 2007. - IX, 121 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2007
ISBN 978-3-939473-23-7
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=9337

Nanopositionier- und Nanomessmaschinen (NPM-Maschinen) sind Werkzeuge, die den Zugang zum Nanometerbereich ermöglichen. Durch die spezielle Konstruktion der Maschinen ist es möglich, auch in großen Arbeitsbereichen (Ziel: 350 x 350 x 50 mm&dzcy;), Objekte mit einer Genauigkeit von wenigen Nanometern zu positionieren und mithilfe geeigneter Messsysteme zu vermessen. Die denkbaren Einsatzgebiete sind dabei nicht auf die Vermessung nanostrukturierter Bauteile begrenzt, sondern dringen durch die Entwicklung geeigneter Nanowerkzeuge auch in den Bereich der gezielten Bearbeitung kleinster Objekte vor. Durch den Einsatz geeigneter Programme werden die Fachleute auf dem Gebiet der Messtechnik in die Lage versetzt, die Leistungsfähigkeit der NPM-Maschine auszunutzen, ohne selbst zu Softwarespezialisten werden zu müssen. Die vorliegende Dissertation zeigt die Ergebnisse des Entwurfs einer modularen Steuerung für Nanopositionier- und Nanomessmaschinen. Die wichtigsten Ergebnisse der Dissertation sind zunächst der vollständige Entwurf eines NPM-Maschinenbefehlssatzes auf der Basis des Datenformates XML. Dieser spezielle Datensatz bildet die Grundlage für einen grafischen Programmeditor zur Erstellung von Messprogrammen für NPM-Maschinen. Der Bediener kann mithilfe des Editors auf grafischem Wege, unterstützt durch entsprechende Dialoge zur Parametrierung der Befehle, umfangreiche Messprogramme erstellen. Diese werden ebenfalls in Form von XML-Dateien gespeichert. Die Abarbeitung der Messprogramme wird von einem neu programmierten Interpreter realisiert. Dieser dient der Steuerung des Programmablaufes und der Überwachung von Fehlerzuständen. Ein weiterer wichtiger Teil der Dissertation beschäftigt sich mit den Teleservicefunktionen für NPM-Maschinen. Die Ergebnisse zahlreicher Untersuchungen zu Technologien zur Realisierung verteilter Anwendungen führten zur Entwicklung eines Webdienstes, der der Maschinendiagnose dient. An einem weiteren Beispiel in Form einer Handsteuerung für die NPM-Maschine wurden die Möglichkeiten der Fernsteuerung und die Echtzeitvisualisierung des Maschinenzustandes demonstriert. Für alle aufgeführten Gebiete werden die damit im Zusammenhang stehenden Technologien ausführlich beschrieben.



Fechner, Frank; Dörr, Dieter
Crossmediale Fusionen und Meinungsvielfalt : juristische und ökonomische Betrachtungen. - Ilmenau : Univ.-Verl. Ilmenau, 2007. - 189 S.. - (Medienrechtliche Schriften ; 3) ISBN 978-3-939473-24-4
Literaturangaben

Pohl, Eva;
Individuelle Weiterbildung von Arbeitnehmern : der Einfluss institutioneller Rahmenbedingungen. - Ilmenau : Univ.-Verl. Ilmenau, 2007. - XXIII, 271 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2007
ISBN 978-3-939473-21-3
Literaturverz. S. 238 - 271

Arbeitsplatzrelevantes Wissen und Können haben aus einzel- und gesamtwirtschaftlicher Sicht eine große Bedeutung. Da es sich aufgrund inter- und intrasektoraler Prozesse stetig verändert, müssen die Beschäftigten regelmäßig an Weiterbildungsmaßnahmen teilnehmen. Verschiedene Erhebungen zur beruflichen Weiterbildung kommen zu dem Schluss, dass die Arbeitnehmer in Deutschland bislang nur in unzureichendem Umfang an entsprechenden Maßnahmen teilnehmen. Da Weiterbildungen in der bildungsökonomischen Literatur als Investitionen betrachtet werden, erstaunen diese empirischen Befunde und es stellt sich unweigerlich die Frage nach den Ursachen. Die vorliegende Monographie trägt zu einer Beantwortung dieser Frage bei, indem sie aufbauend auf der traditionellen und in der Bildungsliteratur anerkannten Humankapitaltheorie, erstmals eine Analyse der Anreizwirkungen institutioneller Rahmenbedingungen für die individuelle Weiterbildungsentscheidung durchführt. Im Mittelpunkt stehen relevante Aspekte des Kündigungsschutz- und Steuersystems sowie der verschiedenen Sozialversicherungssysteme. Auf der Basis eines Vorteilhaftigkeitskalküls werden daher Modellrahmen entwickelt, die jeweils verschiedene institutionelle Faktoren beinhalten. Mit Hilfe dieser Modellansätze werden die institutionellen Einflüsse auf die Erträge und die Amortisationsdauer einer Maßnahme sowie deren Auswirkungen auf die Weiterbildungsanreize der Arbeitnehmer analysiert. Es ist ein wesentliches Ergebnis der vorliegenden Arbeit, dass vor dem Hintergrund der wirtschaftlichen und gesellschaftlichen Strukturveränderungen eine Teilnahme an Weiterbildungen nur dann einzelwirtschaftlich rational und damit gesellschaftlich attraktiv sein kann, wenn entsprechende Belohnungs- und Sanktionsmechanismen existieren.



Klimsa, Paul; Vogt, Sebastian
Tagungsband : Technische Universität Ilmenau, 26. Januar 2007. - Ilmenau : Univ.-Verl. Ilmenau, 2007. - 78 S. ISBN 978-3-939473-22-0
Literaturangaben

Akmaz, Bülent L.; Kuchinke, Björn A.
Steuerungsprobleme im deutschen Gesundheitssystem : aktuelle Ergebnisse empirischer Forschung ; [ausgewählte Beiträge des zweiten Duisburg-Ilmenau-Bayreuther Oberseminars zur Gesundheitsökonomie und Sozialpolitik (DIBOGS) ... am 9. und 10. November 2006 in Duisburg]. - Ilmenau : Univ.-Verl. Ilmenau, 2007. - 89 S.. - (DIBOGS-Beiträge zur Gesundheitsökonomie und Sozialpolitik ; 1) ISBN 3-939473-18-9
Enth. 4 Beitr.

Heiber, Juliane;
Einige Möglichkeiten zur Beeinflussung der Struktur und der Eigenschaften von PZT-Keramik-Fasern. - Ilmenau : Univ.-Verl. Ilmenau, 2007. - XVI, 126, XVII-XLVI S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2007
ISBN 978-3-939473-19-0
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=8507

PZT-Fasern können über verschiedene Verfahren in einem breiten Durchmesserspektrum hergestellt werden (5 æm bis 1000 æm). Während des Sinterprozesses von PZT-Materialien kommt es zum Verdampfen von Bleioxid. Es ist daher zu erwarten, dass bei gleichen Sinterbedingungen der Durchmesser einen Einfluss auf die mikrostrukturellen und dadurch auch auf die elektromechanischen Eigenschaften der Fasern hat. In der vorliegenden Arbeit wurde der Einfluss des Durchmessers extrudierter Grünfasern im Bereich zwischen 70 æm und 300 æm und damit des Oberflächen/Volumen-Verhältnisses auf das Gefüge und die daraus resultierenden ferroelektrischen Eigenschaften keramischer PZT-Fasern untersucht. In Abhängigkeit vom Durchmesser und den Sinterparametern (Temperatur, Zeit) konnten für Fasern, die in einer PbO-reichen Atmosphäre gesintert wurden, folgende Zusammenhänge gefunden werden: Fasern mit kleineren Abmessungen können bei niedrigeren Temperaturen und kürzeren Haltezeiten dicht gesintert werden und weisen bei höheren Temperaturen und längeren Haltezeiten ein ausgeprägtes Kornwachstum auf. Bei gleichen Sinterbedingungen bestehen dünnere Fasern außerdem aus einem höheren Anteil an rhomboedrischer Phase. Gleichzeitig ändert sich die Phasenzusammensetzung über den Faserdurchmesser. Der Anteil an rhomboedrischer Phase nimmt von außen nach innen ab, der an tetragonaler Phase zu. Im Hinblick auf den Einfluss der Porosität, der Korngröße und der Phasenzusammensetzung auf die ferroelektrischen Eigenschaften der Fasern konnten die aus der Literatur bekannten Abhängigkeiten bestätigt werden. Für die technische Umsetzung bedeutet dies, dass beim Sintern in einer PbO-reichen Atmosphäre die Sinterparameter an die jeweiligen Faserdurchmesser angepasst werden müssen, um die optimalen ferroelektrischen Eigenschaften für die jeweiligen Faserabmessungen erzielen zu können.



Zenin, Stepan;
Numerische und experimentelle Untersuchungen zum Wärmetransport in einem Automobilscheinwerfer. - Ilmenau : Univ.-Verl. Ilmenau, 2007. - IX, 101 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2007

In der vorliegenden Arbeit wird der Wärmetransport in einem Automobilscheinwerfer numerisch und experimentell untersucht. Der Wärmetransport wird durch das gleichzeitige Auftreten von Konvektion, Wärmeleitung und Wärmestrahlung charakterisiert. Im vorliegenden Fall dominiert Strahlung den Wärmetransport. Durch die gekoppelten Transportmechanismen bilden sich lokale Überhitzungen (sog. Hot Spots) an Gehäuse und Abschlussscheibe. Das Entstehen dieser Hot Spots und damit ein Verständnis des Wärmetransports gehören zu den Schwerpunkten der Arbeit.Zur Modellierung des gekoppelten Wärmetransports werden zwei- und dreidimensionale numerische Modelle entworfen. Die numerische Simulation wird mit Hilfe eines kommerziellen Strömungssimulationsprogramms STAR-CD durchgeführt, das über die DTRM-Methode zur Strahlungsberechnung verfügt. Diese Methode beschränkt die Strahlungsberechnung auf die diffuse Komponente. Die gerichtete Komponente bleibt zunächst unberücksichtigt. Das Verhalten des Wärmetransports wird in 2D-Modellen in verschiedenen Kombinationen untersucht: reine Konvektion, reine Strahlung und Konvektion gekoppelt mit Strahlung. Als Ergebnis werden Korrelationen zum Wärmeübergang ermittelt und daraus Maßnahmen zur Reduzierung des Temperaturniveaus des Hot Spots abgeleitet.Dazu zählen die Erhöhung der konvektiven Kräfte (Erhöhung der Ra-Zahl), die Reduzierung des Emissionsgrads der Lampe und die Erhöhung der Wärmeleitfähigkeit der Abschlussscheibe (Reduzierung Rl). Anschließend werden die Ergebnisse aus der 2D-Simulation in der 3D-Geometrie verifiziert.Neben der numerischen Modellierung werden die strömungsmechanischen Phänomene auch experimentell untersucht. Dafür werden Versuchsmodelle zur Strömungs- und Temperaturanalyse aufgebaut. Die Strömungsanalyse wird mit Hilfe eines optischen PIV-Messverfahrens (Particle Image Velocemetry) durchgeführt. Damit wird sowohl das globale Strömungsfeld als auch die Strömung in der Nähe des Hot Spots an der Scheibe analysiert. In einem weiteren Experiment wird das Verhalten des Hot Spots in Abhängigkeit vom Innendruck experimentell untersucht. Mittels der Druckvariation wird das Verhältnis zwischen Konvektion und Strahlung verändert. Dazu wird der Wärmetransport in einem Parameterbereich untersucht, für den bisher keine Untersuchungen vorliegen. So kann die Ra-Zahl im Bereich 10 < Ra < 1000000 variiert werden. Zur Analyse des Wärmeübergangs wird eine neuartige Messmethode vorgestellt, die auf dem Einsatz einer Leuchtdichtemesskamera in Verbindung mit thermochromen Flüssigkristallen basiert. Diese Methode wird zur berührungslosen Bestimmung der Temperaturverteilung auf der Innenseite des Modells eingesetzt. Gleichzeitig wird die Temperaturverteilung an Außenoberflächen mittels Infrarot-Messkamera erfasst. Dadurch können Aussagen zum Wärmeübergang an der Abschlussscheibe getroffen werden. Die Anwendung dieser Methode an einem Scheinwerfermodell zeigt die Genauigkeit von +/- 0.35 im Vergleich zu Standardmethoden.Die Erkenntnisse aus numerischen und experimentellen Untersuchungen werden für die Analyse des Wärmetransports in einem realen Scheinwerfer angewandt. Die DTRM-Methode mit der diffusen Strahlung führt zu großen Abweichungen zur Realität. Zur Verbesserung der Strahlungsmodellierung wird eine optimierte Berechnungsmethode entwickelt, die auf der Kopplung zwischen einem kommerziellen Strömungssimulationsprogramm und einem Ray Tracing Programm beruht. Mit diesem Verfahren gelingt es, die korrekte Lage des Hot Spots und dessen Temperaturniveau in realer Geometrie zu bestimmen.



Trutschel, Ralf;
Analytische und experimentelle Untersuchung der Mensch-Maschine-Schnittstellen von Pkw-Bremsanlagen. - Ilmenau : Univ.-Verl. Ilmenau, 2007. - XV, 189 S.. - (Kraftfahrzeugtechnische Berichte ; 1) : Zugl.: Ilmenau, Techn. Univ., Diss., 2007
ISBN 978-3-939473-14-5
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=7970

Moderne Pkw zeichnen sich durch einen hohen technischen Stand aus und sind für den Kunden technologisch immer weniger differenzierbar. Deshalb sind Eigenschaften, die in der unmittelbaren Interaktion mit dem Fahrzeug erlebt werden, bedeutende Differenzierungsmerkmale. Der Betriebsbremse kommt hierbei besondere Bedeutung zu, weil sie den Fahrprozess und damit die aktive Fahrzeugsicherheit unmittelbar betrifft. Da es der Fahrzeugforschung bisher nicht gelungen ist, zuverlässige Methoden zur zielgerichteten Entwicklung des Bremspedalgefühls bereitzustellen, wird die kritische Auseinandersetzung mit der bisherigen Methodik und den erarbeiteten Ergebnissen zunehmend gefordert. Die vorliegende Arbeit greift diese Forderung auf und verfolgt sie systematisch. Zunächst wird der veröffentlichte Stand kritisch analysiert. Nach der grundsätzlichen Auseinandersetzung mit der mechanischen Mensch-Maschine-Interaktion folgt die Charakterisierung der Teilsysteme Fahrer und Fahrzeug sowie der Fahrer- Fahrzeug-Interaktion beim Abbremsen. Auf dieser Grundlage werden drei Schwerpunkte verfolgt. Zunächst wird eine objektive Methode zur Beschreibung der Pedalund Bremscharakteristik moderner Mittelklasse-Pkw entwickelt. Resultat sind u. a. eine Pedalbetätigungsautomatik zur experimentellen Identifikation sowie ein parametrisches Modell, das die Pedal- und Bremscharakteristik bei Komfortbremsungen umfassend beschreibt. Den zweiten Schwerpunkt bilden Subjektiv-Objektiv- Untersuchungen. Eingesetzt wird das Forschungsfahrzeug PEGASYS, dessen besonderes Merkmal die Fähigkeit zur modellbasierten Veränderung der Pedal- und Bremscharakteristik ist. Nach der Beschreibung wesentlicher Anforderungen an eine authentische Haptiksimulation und deren technische Umsetzung in PEGASYS werden Probandenfahrversuche vorgestellt, die Auskunft über das Betätigungsverhalten des Normalfahrers, die subjektive Wirkung objektiver Parameter und das Potenzial neuartiger Konzepte für die Pedal- und Bremscharakteristik geben. Aus den Ergebnissen werden Gestaltungsrichtlinien für komfortoptimale Pedal- und Bremscharakteristiken abgeleitet. Der dritte Schwerpunkt ist schließlich die Benennung konstruktiver Einflussgrößen auf die Pedal- und Bremscharakteristik. Zu diesem Zweck wird ein detailliertes physikalisches Modell der Bremsanlage eines Mittelklasse-Pkw entwickelt. Anhand von Messungen und Simulationsrechnungen werden die Merkmale der Schnittstellencharakteristik bis zur Einzelkomponente zurückverfolgt. Die Arbeit schließt mit Vorschlägen für Schwerpunkte zukünftiger Forschungstätigkeit zur Mensch-Maschine-Interaktion beim Abbremsen.



Novitskiy, Alexander;
Elektromagnetische Verträglichkeit und Blindleistungskompensation in Elektrostahlwerksnetzen : die Gewährleistung der elektromagnetischen Verträglichkeit und einer optimalen Blindleistungskompensation in Elektrostahlwerksnetzen mit nichtlinearen Belastungen unter dem Aspekt der Minimierung der harmonischen Störungen. - Ilmenau : Univ.-Verl. Ilmenau. - 248 S. Zugl.: Ilmenau : Techn. Univ., Habil.-Schr., 2006 u.d.T.: Novitskiy, Alexander: Die Gewährleistung der elektromagnetischen Verträglichkeit und einer optimalen Blindleistungskompensation in Elektrostahlwerksnetzen mit nichtlinearen Belastungen unter dem Aspekt der Minimierung der harmonischen Störungen

Abaza, Khaldoun;
Ein Beitrag zur Anwendung der Theorie undulatorischer Lokomotion auf mobile Roboter : Evaluierung theoretischer Ergebnisse an Prototypen. - Ilmenau : Univ.-Verl. Ilmenau, 2007. - VIII, 126 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2006
ISBN 3-939473-12-X
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=7716

Im Mittelpunkt dieser Arbeit stehen undulatorische Lokomotionssysteme. In diesem Zusammenhang wurden die Begriffe Undulation und Lokomotion definiert. Die gerichtete Ortsveränderung natürlicher oder technischer Systeme ist generell als Lokomotion zu verstehen, aber es erweist sich als schwierig, eine aus Sicht der Mechanik umfassende Definition des Begriffes Lokomotion zu geben. Er wurde in dieser Arbeit, mathematisch, wie folgt beschrieben: Lokomotionssysteme sind technische Systeme, die in der Lage sind, alle ihre Punkte in einem ausgewählten charakteristischen Zeitintervall zu bewegen, wobei durchaus Größe und Richtung der Lageänderung der Punkte verschieden sein können. Die Mechanik versteht unter Undulation die Bewegung durch eine Erregung der Aktuatoren des Systems, die sowohl von außen kommen oder im Inneren erzeugt werden kann. Der Aktuator erzeugt seinerseits eine in der Regel periodische Gestaltänderung, welche durch die Wechselwirkung mit der Umgebung eine globale Lageänderung erzeugt. In der vorliegenden Arbeit wurden undulatorische Lokomotionssysteme theoretisch und mittels zweier entwickelter Prototypen untersucht. Der Prototyp (TM-ROBOT) wurde nach dem undulatorischen Bewegungsprinzip des Regenwurms (Längenänderung von Segmenten) aufgebaut. Ein Bewegungssystem, das für die Bewegung das peristaltische Bewegungsprinzip nutzt, bewegt sich mit periodischen Verformungen seines Körpers und nichtsymmetrischen Reibkräften unter Einbeziehung der Wechselwirkung mit der Umgebung. Der Prototyp (MINCH-ROBOT) im Rahmen dieser Arbeit ist ein Mikroroboter, der keine klassische undulatorische Lokomotion umsetzt. Er besteht aus einem Piezoaktuator und ist mit zwei passiven Beinen und einem Schwanz ausgerüstet. Die Undulation besteht in der Übertragung von den hochfrequenten Schwingungen seines Körpers (Piezoaktuator) auf die Beine. Somit werden komplexe räumliche Trajektorien der Beinendpunkte erzeugt. Bei dem Steuerprinzip dieses Mikroroboters spielt die Nichtsymmetrie der beiden Beine eine wesentliche Rolle. Diese (absichtlich realisierte) Nichtsymmetrie zwischen rechtem und linkem Bein ist die Ursache für eine Verschiebung der Resonanzbereiche der Beine. Damit wird der Roboter in seiner Richtung steuerbar. Numerische Simulationen der beiden Prototypen und Messungen an realem Objekt stützen die Theorie dieser Arbeit, die sich somit in das breite Feld der Lokomotionssysteme eingliedert.



Fiedler, Matthias;
Verfahren zur Analyse von Ähnlichkeit im Ortsbereich. - Ilmenau : Univ.-Verl. Ilmenau, 2007. - 126 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2007
ISBN 978-3-939473-13-8
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=7887

Aus der zunehmenden Nutzung von hochauflösenden Bildsensoren in stationären sowie mobilen Anwendungsbereichen erwachsen neue Anforderungen an die Algorithmen der Bilderkennnung. Eines der ursprünglichsten Kriterien zur Beurteilung der Ähnlichkeit von Bildpunkten als Mengen findet aber nur wenig Beachtung, die Hausdorff-Distanz. Daher behandelt die vorliegende Arbeit ein Verfahren zum Einsatz dieses Abstandsmaßes. Die Darlegungen umfassen die Einführung eines geeigneten Modells zur Beschreibung von linearen Abweichungen, deren Kompensation und Beurteilung anhand zugehöriger Wahrscheinlichkeitsverteilungen. Ausgangspunkt dieser Arbeit sind die mathematische Beschreibung des genannten Kriteriums und die Berechnung einer Abweichungsinformation, die als dreidimensionales Distanzvektorfeld auch die Richtung zur Verringerung der Unterschiede enthält. Sie bilden die Grundlage für die Darstellungsformen der Häufigkeitsverteilungen und Wahrscheinlichkeitsdichten, anhand derer die Entscheidungen in Bezug auf Ähnlichkeit gefällt werden. Die Interpretation der Distanztransformation als vektorieller Zufallsprozeß eröffnet völlig neue Möglichkeiten zur Kompensation von geometrischem Versatz der Bildinhalte. Unter Nutzung des eingeführten Abweichungsmodells erfolgt die Anwendung einer Regelschleife zur Minimierung der linearen Deformation. Gleichzeit erweist sich das Filtersystem als unempfindlich gegenüber normalverteilten Störsignalen. Die Zulässigkeit einer gewissen Gleichberechtigung der Metriken $d_2$ und $d_1$ für normalverteiles Rauschen wird gezeigt. Daraus ergibt sich die wesentliche Voraussetzung für den Einsatz von schaltungstechnischen Beschleunigungsmaßnahmen, die im Entwurf eines Distanzprozessors münden. Mit der Unterstützung des Distanzprozessors gelingt der Nachweis der Stabilität der Regelschleife. Gleichzeitig ist eine Erhöhung des Korrelationsfaktors der betrachteten Bildausschnitte unter Nutzung der Richtungsinformation des Distanzvektorfeldes zu beobachten. Die Einbeziehung der Nachbarschaftsregionen in die Beurteilung der Ähnlichkeit zur Korrektur von Verformungen erzielt besonders beim Vergleich von Gesichtern hervorragende Ergebnisse in Bezug auf Stabilität der Regelschleife und Erhöhung der Aussagekraft der Häufigkeitsverteilungen.



Brauhardt, Nadja;
Die Entwicklung der Zensur im deutschen und chinesischen Recht und daraus folgende ökonomische Auswirkungen. - Ilmenau : Univ.-Verl. Ilmenau. - XI, 85 S.. - (Medienrechtliche Schriften ; 2) : Zugl.: Ilmenau, Techn. Univ., Diplomarbeit, 2003/04
ISBN 3-939473-10-3

Seit Mao Zedongs Nachfolger Deng Xiaoping (politischer Führer Chinas von 1976 bis 1990) das Reich der Mitte Ende der siebziger Jahre wieder für die Außenwelt öffnete, wächst und wächst das Land. Doch wächst mit dem zunehmenden wirtschaftlichen Wohlstand und der Weiterentwicklung auch die persönliche Freiheit des Einzelnen? Wie sich in China Zensur im rechtlichen Sinne im Vergleich zu Deutschland entwickelte und ob sich daraus Auswirkungen für die Ökonomie ergeben, wird in der folgenden Abhandlung diskutiert.



Graf, Bernd;
Validierung von Methoden zur Berechnung und Reduzierung der Schallabstrahlung von Getriebegehäusen. - Ilmenau : Univ.-Verl. Ilmenau, 2007. - XIV, 133 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2007

An drei unterschiedlich komplexen Getriebegehäusen, einem unverrippten Prinzip-Getriebegehäuse, einem Hinterachsgetriebegehäuse und einem hochgradig verrippten Synchrongetriebegehäuse, wird die quantitative Aussagekraft der Schwingungs- und Schallabstrahlungsberechnung mittels der Finite-Element- bzw. der Boundary-Element-Methode bei den ersten 40 Eigenfrequenzen untersucht und optimiert. Um die Genauig-keit der einzelnen Simulationsschritte und die Auswirkungen der Fertigungsungenauigkeiten auf die Strukturdynamik quantitativ bestimmen zu können, werden auch digitalisierte Modelle verwendet und deren Ergebnisse parallel zu jedem Schritt den Messungen gegenübergestellt. Eine Validierung der Berechnungsverfahren kann durch einen mittleren MAC-Wert von bis zu 98 % und die Reduzierung der Streuung der Schallabstrahlungsberechnung auf 0,7 dB auf hohem Niveau erreicht werden. Die experimentell ermittelten Größen fließen in zusätzliche Berechnungen ein, um die Effektivität von globalen Model-Updating-Methoden zu quantifizieren. Diese Vergleiche ermöglichen es dem Anwender, die Genauigkeit von Schallabstrahlungsberechnungen, in Abhängigkeit von der Komplexität des Gehäuses, der Modellgüte und der Updating-Methode, abzuschätzen. Ein effizienterer Einsatz von Messungen und eine Verringerung der Anzahl an Prototypen ist damit möglich. Die validierte Methodik der Schallabstrahlungsberechnung wird in einem folgenden Schritt angewendet, um mittels Parameterstudien Richtlinien für die Konstruktion von akustisch optimierten Getriebegehäuse-Verrippungen bis 4000 Hz aufzustellen. Die Einführung und Anwendung von gemittelten generalisierten Anregungskräften ermöglicht es hierbei, die Neigung jeder Eigenform zur Schallabstrahlung unabhängig vom Anregungsort zu ermitteln. Dadurch kann die Effektivität von Verrippungen bei allen Eigenfrequenzen eindeutig und frequenzbereichsabhängig analysiert werden.



Loewenheim, Ulrich; Fechner, Frank
Die Privatkopie : juristische, ökonomische und technische Betrachtungen. - Ilmenau : Univ.-Verl. Ilmenau, 2007. - 139 S.. - (Medienrechtliche Schriften ; 1) ISBN 3-939473-06-5
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=7543

Bader, Daniel;
Eine flexible akustische Messmethode zur Detektierung von verzahnungstechnischen Problemen. - Ilmenau : Univ.-Verl. Ilmenau, 2007. - XI, 124 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2006 u.d.T.: Bader, Daniel: Entwicklung einer flexiblen akustischen Messmethode zur Detektierung von verzahnungstechnischen Qualitätsproblemen

Die Untersuchung von Geräusch- und Schwingungsereignissen gewinnt in der Fahrzeugtechnik weiter an Bedeutung. Dabei stellt neben der Auswertung harmonischer Signalanteile auch die Erkennung kleinster zeitlich beschränkter Ereignisse in Signalen ein wichtiges Feld dar. Ziel der vorliegenden Arbeit ist die Erkennung solcher nichtstationärer Signalanteile. Sie orientiert sich dabei am praktischen Bedarf und untersucht Körperschallsignale von Stirnradverzahnungen am Ende des Fertigungsprozesses. Das Einsatzgebiet dieser Verzahnungen liegt im Antrieb von Massenausgleichssystemen, welche für die Eliminierung von freien Massenkräften im Motor verantwortlich sind. Aus diesem Grund bestehen an ihr Schwingungsverhalten die höchsten in der Fahrzeugtechnik bekannten Anforderungen. Ausgehend von den bekannten Methoden der Schwingungsanalyse und den zu erkennenden Signalanteilen werden verschiedene Anforderungen an eine Analyseumgebung abgeleitet. Diese ergeben sich sowohl aus der Verwendung einer geeigneten Signaltransformation, als auch aus der statistisch geprägten Weiterverarbeitung der Transformationsergebnisse hinsichtlich der Generierung von zielführenden Merkmalsparametern zur Fehlerdetektion. An beispielhaften Untersuchungen wird die Eignung der Wavelet-Analyse als mögliche Transformation nachgewiesen und danach eine Analysestrategie erarbeitet. Als Ergebnis entsteht eine modulare Layerstruktur, die alle Anforderungen an die zu erstellende Auswerteumgebung vereint. Basierend auf den abgeleiteten Anforderungen wird ein modulares Analysewerkzeug entwickelt, welches als Kernfunktion die schnelle Diskrete Wavelet- Transformation nutzt. Mit diesem Werkzeug werden Untersuchungen zur Erkennung von Einzelfehlern von Verzahnungen unter den Bedingungen der Fertigungskontrolle durchgeführt. Die Ergebnisse zeigen, dass mit der auf der Wavelet-Transformation basierenden Analysemethode eine neue Qualitätsstufe in der Erkennung von Einzelfehlern erreicht wird. Es wird weiterhin dargestellt, dass diese Auswertemethode, deren zentrale Operationen auf der Wavelet-Transformation beruhen, auch bei der Erkennung verteilter Fehler Einsatzpotenzial besitzt. Um die Einsatzmöglichkeiten der gewählten Transformation auch in weiteren Bereichen der Fahrzeugtechnik zu demonstrieren, werden mit dem Analysewerkzeug beispielhaft Untersuchungen an typischen Bremssignalen durchgeführt. Es zeigt sich dabei, dass auch von gestörten Signalen aus rauen Umgebungen, bei denen die Standardauswertemethoden versagen, qualitativ hochwertige Ergebnisse gewonnen werden können. Die vorgestellten Untersuchungen liefern einen neuartigen Ansatz in der Analyse von Signalen der Fahrzeugtechnik, dargestellt anhand von Einsätzen in der Praxis. Sie machen die Einsatzmöglichkeiten der Wavelet-Analyse parallel zu den klassischen auf der Fourier-Transformation basierenden Methoden sichtbar. Zusätzlich legen sie eine Grundlage für weitere Arbeiten auf dem Gebiet der Einzelfehlererkennung, die in Klassifizierungssystemen ihren Abschluss finden können.



Steinrücken, Torsten; Jaenichen, Sebastian
Wirtschaftspolitik und wirtschaftliche Entwicklung : Analysen unter besonderer Berücksichtigung ostdeutscher Regionen. - Ilmenau : Univ.-Verl. Ilmenau, 2007. - 267 S. ISBN 978-3-939473-08-4
Enth. 11 Beiträge

Gramsch, Torsten;
Kaskadierte Aktoren als biomimetische Antriebselemente. - Ilmenau : Univ.-Verl. Ilmenau, 2006. - XIII, 136 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2006
ISBN 3-939473-05-7
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=6613

Die vorliegende Arbeit gliedert sich in die Entwicklung neuer Antriebe und die Bewertung von Aktorprinzipien ein. Ausgangspunkt sind Untersuchungen zur Übertragung mechanischer Energie vom Aktor zum Wirkelement mit dem Ziel daraus Auswahlkriterien für Aktoren abzuleiten. Zunächst wird der statische Fall analysiert. Im statischen Fall können zwischen linearen Elementen maximal 25% der Aktorenergie an das Wirkelement weitergegeben werden. Mit nichtlinearen Antriebskennlinien ist ein höherer Wirkungsgrad der Energieübertragung erreichbar. Die Bewertung des dynamischen Verhaltens der Antriebe erfolgt nicht über Variantenvergleich, sondern durch das Bestimmen eines optimalen Beschleunigungsprozesses, der als Vergleichstrajektorie für Antriebskennlinien dient. Das Ergebnis der Optimierung sind nichtlineare Kennlinien, die denen biologischer Antriebe qualitativ sehr ähneln. Mit biomimetischer Kaskadierung von Aktoren können sowohl lineare als auch nichtlineare Kennlinien erzeugt werden, was in Simulationen nachgewiesen wird. Sowohl Kraft als auch Weg können aufsummiert, aber auch in feiner inkrementierte Schritte unterteilt werden. Die Steifigkeit der kaskadierten Antriebe kann mit fortschreitender Kontraktion durch die konstruktive Gestaltung variiert und die Antriebe so für statische oder dynamische Aufgaben zugeschnitten werden. Neben dem veränderten Bewegungsablauf ermöglichen räu Bewegungsqualität. Das Konzept eines kaskadierten Antriebes mit polarisierten Magnetbrücken wird entwickelt. Die magnetische Vollbrücke als besonders empfindliche, bistabile, polarisierte Magnetanordnung wird an die Forderungen einer Magnetkaskade angepasst. Damit liegt das Konzept einer integrierten magnetomechanischen Logik zur Ansteuerung der Magnetbrücken vor. Einsatzgebiete biomimetischer, kaskadierter Aktoren sind vor allem integrierte Direktantriebe, die Objekte in eine Position bringen und dort energiefrei halten sollen. Die mikrotechnische Herstellung kaskadierter Mikroaktoren ist eine Voraussetzung für deren industriellen Einsatz.



Nützel, Jürgen;
Die informatorischen Aspekte virtueller Güter und Waren. - Ilmenau : Univ.-Verl. Ilmenau. - XII, 162 S. Zugl.: Ilmenau : Techn. Univ., Habil.-Schr., 2005
ISBN 3939473049 = 978-3-939473-04-6

Steinrücken, Torsten; Jaenichen, Sebastian
Wirtschaftspolitik und Wirtschaftsförderung auf kommunaler Ebene : theoretische Analysen und praktische Beispiele. - Ilmenau : Univ.-Verl. Ilmenau, 2006. - 264 S. ISBN 978-3-939473-03-9
Enth. 12 Beitr

Großmann, Uwe;
Frequenzselektive Regelung eines parallelen Hybridfilters zur Oberschwingungskompensation in Energieversorgungsnetzen. - Ilmenau : Univ.-Verl. Ilmenau, 2006. - II, 114 S. : Zugl.: Ilmenau, Techn. Univ., Diss., 2006
ISBN 3-939473-02-2
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=6242

In dieser Arbeit wird eine neuartige, kostengünstige Lösung zur Kompensation nichtsinusförmiger Lastströme, insbesondere von 6-Puls-Gleichrichtern, untersucht. Sie besteht in der Kombination eines parallelen Hybridfilters mit einer frequenzselektiven Regelung in ruhenden Koordinaten. Der parallele Hybridfilter besteht aus einem passiven Reihenschwingkreis und einem Spannungswechselrichter. Diese Hybridstruktur erlaubt die Regelung eines großen Oberschwingungsstromes mit einer kleinen Wechselrichterleistung. Allerdings erfordert die sinnvolle Anwendung eines Parallelfilters zur Kompensation eines Gleichrichters, dass ein bestimmter Wert für die Kommutierungs- und Gleichstrominduktivität im Gleichrichter nicht unterschritten wird. Die Regelungsstruktur in ruhenden Koordinaten ergibt sich durch die Anwendung der Tiefpass-Bandpass-Transformation auf einen herkömmlichen Proportional-Integral-Regler. Dadurch wird für ein Signal mit der gewählten Modulationsfrequenz erreicht, dass keine stationäre Regelabweichung auftritt. Die Struktur wird als Infinite-Impulse-Response-Filter zweiter Ordnung in einem Digitalen Signalprozessor implementiert und benötigt weniger Rechenzeit als ein herkömmlicher Regler in rotierenden Koordinaten. Für jede charakteristische Oberschwingung eines 6-Puls-Gleichrichters wird ein frequenzselektiver Regler eingesetzt. Untersuchungen bezüglich Stabilität und Dynamik werden im kontinuierlichen und diskreten Zeitbereich anhand eines vereinfachten Regelkreises vorgenommen. Die Regelstrecke wird als Verzögerungsglied zweiter Ordnung modelliert. Im zeitdiskreten Regelkreis wird eine Totzeit von einer Abtastperiode eingefügt. Es ergibt sich eine Nullstelle im Stabilitätsbereich bei einer bestimmten Proportionalverstärkung, wo kein stabiles Verhalten des Systems erreichbar ist und welche bei der praktischen Anwendung vermieden werden muss. Diese Ergebnisse wurden durch Messungen an einem Prototyp bestätigt. Ein einphasiges lineares System, welches den Filter und das Netz repräsentiert, wird vorgestellt und validiert. Dieses System wird verwendet, um die Polstellen des geschlossenen Regelkreises zu berechnen. Durch Variation verschiedener Netz- und Filterparameter werden Ortskurven der Polstellen im z-Bereich ermittelt. Damit steht ein leistungsfähiges Hilfsmittel zur Einstellung der Regelungsparameter und Berechung der Stabilitätsgrenzen für reale Anwendungsfälle sowie zur Optimierung der Hybridfilterkomponenten zur Verfügung.



Niggl, Karl-Heinz; Kahle, Reinhard; Elbl, Birgit
5th International Workshop on Proof, Computation, Complexity : PCC '06 ; Ilmenau, July 24 - 25, 2006 ; [technical report]. - Ilmenau : Univ.-Verl. Ilmenau, 2006. - 57 S. ISBN 3-939473-01-4
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=6361

Lohmann, Adolf W.; Sinzinger, Stefan
Optical information processing
1. Auflage. - Ilmenau : Universitätsverlag Ilmenau, 2006. - 504 Seiten ISBN 978-3-939473-00-8