http://www.tu-ilmenau.de

Logo TU Ilmenau


Ansprechpartner

BibDir Gerhard Vogt

Bibliotheksdirektor

Telefon +49 3677 69-4701

E-Mail senden

Ihre Position

INHALTE

Universitätsverlag Ilmenau - Liste

Liste

Anzahl der Treffer: 610
Erstellt: Sun, 15 Sep 2019 10:12:38 +0200 in 1.8150 sec


Rabenbauer, Pascal;
Entwicklung eines bleifreien, niedrigschmelzenden und hochbrechenden Spezialglases für den Einsatz als Streuschichtmatrix in organischen Leuchtdioden - Ilmenau : Universitätsverlag Ilmenau, 2019 - xiv, 138, XXXVIII Seiten. . - (Werkstofftechnik aktuell. - Band 20)
Technische Universität Ilmenau, Dissertation 2019

ISBN 978-3-86360-208-6

Bleifreie, niedrigschmelzende und hochbrechende Spezialgläser wurden mit dem Ziel synthetisiert, diese als Streuschicht in einer organischen Leuchtdiode (OLED) zu verarbeiten und damit die interne Lichtauskopplung zu erhöhen. Ausgehend von ternären Systemen auf Basis eines B2O3- und/oder SiO2-Netzwerks wurden zunächst Bi2O3- respektive TeO2-haltige Gläser hergestellt. Darüber hinaus wurden der Einfluss und die Wirkungsweise weiterer Oxide auf diese Glassysteme analytisch erfasst. Ausgewählte Gläser wurden als Pulver zusammen mit 1-3 [my]m großen TiO2- oder SiO2-Streupartikeln zu einer Paste verarbeitet, in einem Siebdruckprozess auf ein Substrat aus Kalk-Natron-Silicatglas appliziert und abschließend verglast. Um daraus eine funktionsfähige OLED herzustellen wurde in einem Reinraumprozess auf die Komponente aus Substratglas und Streuschicht eine Schichtabfolge aus ITO-Anode, Emitterschichten und Kathode aufgebracht. Als besonders geeignet stellten sich Gläser aus dem System Bi2O3-B2O3-SiO2-ZnO-SrO-BaO (B:BSZSB) heraus. Mit ihnen konnten neben der Anpassung der Wärmeausdehnung an das Substrat auch die Brechzahlanpassung an die ITO-Anode mit nd = 1,90 ± 0,1, eine Transformationstemperatur Tg < 450 &ring;C und eine hohe Transmission im sichtbaren Bereich gewährleistet werden. Als ideal für die Verglasung von B:BSZSB-haltigen Schichten stellte sich ein Partikeldurchmesser d90 = 4,76 [my]m und eine möglichst enge Kornverteilung aus abgerundeten Partikeln dar. Die Partikel sollten dabei idealerweise gleichverteilt sein. Ziel war es, die Auskoppeleffizienz der OLED mittels Glasstreuschicht um mindestens 50 % zu steigern. Konkret bedeutet das, eine Lichtausbeute von [eta] ≥ 40 lm/W zu erreichen. Das optimale Streuvermögen für die Lichtextraktion aus einer OLED konnte durch einen Haze von 0,6-0,9 erzielt werden. Maßgeblich dafür sind die Schichtdicke und die darin enthaltene Streupartikelkonzentration. Die höchste Lichtausbeute von [eta] = 55 lm/W konnte für OLEDs mit einer eigenentwickelten 15 [my]m dicken Streuschicht der Zusammensetzung 23Bi2O3-38B2O3-4SiO2-24ZnO-4SrO-7BaO (mol-%) und einer Streupartikelkonzentration von 2,5 Vol.-% TiO2 realisiert werden. Im Vergleich zur Referenz-OLED ohne Streuschicht ([eta] = 26 lm/W) entspricht die erzielte Lichtausbeute, bei einer konstanten Leuchtdichte von 2000 cd/m2, einer Steigerung um 110 %. Die Übertragung des Prozesses vom Labormaßstab in die industrielle Fertigung im Reinraum konnte durch die Übergabe des Beschichtungsverfahrens inklusive aller nötigen optimierten Prozessschritte und -parameter an die OSRAM OLED GmbH gewährleistet werden.



Niedermeyer, Lars;
Filtrationskinetik offener Partikelfilter - Ilmenau : Universitätsverlag Ilmenau, 2019 - 1 Online-Ressource (XXXI, 201 Seiten). . - (Kraftfahrzeugtechnische Berichte. - Band 10)
Technische Universität Ilmenau, Dissertation 2019

Das Reinigen eines partikelbeladenen Aerosols mit Hilfe faserbasierter Filter ist eine weit verbreitete Methode. Die der Reinigung zugrunde liegenden Vorgänge sind hochkomplex und in einfachen Modellen mathematisch nicht zu beschreiben. Die numerische Berechnung faserbasierter Filter in ihrer Gesamtheit stellt heutzutage immer noch eine sehr große Hürde dar. Bekannte Ansätze beschränken sich meist auf die ausschnittsweise Beschreibung der Vorgänge in kleinen Teilen des Filters oder betrachten nur einzelne Fasern des Filters. Die ganzheitliche Berechnung der Vorgänge in einem Partikelfilter muss stets unter Berücksichtigung aller, die Abscheidung von Partikeln betreffender Größenskalen erfolgen. Die vorliegende Arbeit beschäftigt sich mit der methodischen Entwicklung eines Berechnungsansatzes für die numerische Berechnung der zeitabhängigen Filtration eines Gesamtfilters in einer 3D Simulation. Berücksichtigt werden dabei insbesondere die in verschiedenen Größenskalen ablaufenden Vorgänge der Filtration. Dazu zählen vor allem das Abscheiden von Partikeln an einzelnen Fasern, die Durchströmung des Vlieses, das Durchströmen des Gesamtfilters sowie die zeitabhängige Beladung des Filters. Den Beginn der Arbeit stellt die Entwicklung eines Programms zur Bestimmung der Einzelfasereffektivität durch die Berechnung der Partikeltrajektorien um die Faser für verschiedene Partikeldurchmesser und Anströmgeschwindigkeiten dar. Berücksichtigung in dieser Berechnung finden Abscheidemechanismen wie die Diffusion, die Interzeption und die Impaktion. Das Ergebnis der Berechnungen ist eine Datenbank, die die Einzelfasereffektivität für das Intervall von Partikelgrößen und Anströmgeschindigkeiten über einen gegebenen Faserdurchmesser wiedergibt. Aufbauend auf diesem Ergebnis wird ein 3D CFD Simulationsmodell des Partikelfilters erstellt und zunächst für den stationären Fall das Strömungsfeld und die Abscheideeffektivität berechnet. Strömungsfeld und Abscheideeffektivität werden anhand geeigneter, experimenteller Untersuchungen plausibilisiert. Mit der Kenntnis der stationären Ergebnisse wird die zeitabhängige Beladung des Modells berechnet. Abschließend wird gezeigt, dass die erarbeitete Methodik für beliebige, faserbasierte Filter anwendbar ist.



https://www.db-thueringen.de/receive/dbt_mods_00038502
Niedermeyer, Lars;
Filtrationskinetik offener Partikelfilter - Ilmenau : Universitätsverlag Ilmenau, 2019 - XXXI, 201 Seiten. . - (Kraftfahrzeugtechnische Berichte. - Band 10)
Technische Universität Ilmenau, Dissertation 2019

ISBN 978-3-86360-206-2

Das Reinigen eines partikelbeladenen Aerosols mit Hilfe faserbasierter Filter ist eine weit verbreitete Methode. Die der Reinigung zugrunde liegenden Vorgänge sind hochkomplex und in einfachen Modellen mathematisch nicht zu beschreiben. Die numerische Berechnung faserbasierter Filter in ihrer Gesamtheit stellt heutzutage immer noch eine sehr große Hürde dar. Bekannte Ansätze beschränken sich meist auf die ausschnittsweise Beschreibung der Vorgänge in kleinen Teilen des Filters oder betrachten nur einzelne Fasern des Filters. Die ganzheitliche Berechnung der Vorgänge in einem Partikelfilter muss stets unter Berücksichtigung aller, die Abscheidung von Partikeln betreffender Größenskalen erfolgen. Die vorliegende Arbeit beschäftigt sich mit der methodischen Entwicklung eines Berechnungsansatzes für die numerische Berechnung der zeitabhängigen Filtration eines Gesamtfilters in einer 3D Simulation. Berücksichtigt werden dabei insbesondere die in verschiedenen Größenskalen ablaufenden Vorgänge der Filtration. Dazu zählen vor allem das Abscheiden von Partikeln an einzelnen Fasern, die Durchströmung des Vlieses, das Durchströmen des Gesamtfilters sowie die zeitabhängige Beladung des Filters. Den Beginn der Arbeit stellt die Entwicklung eines Programms zur Bestimmung der Einzelfasereffektivität durch die Berechnung der Partikeltrajektorien um die Faser für verschiedene Partikeldurchmesser und Anströmgeschwindigkeiten dar. Berücksichtigung in dieser Berechnung finden Abscheidemechanismen wie die Diffusion, die Interzeption und die Impaktion. Das Ergebnis der Berechnungen ist eine Datenbank, die die Einzelfasereffektivität für das Intervall von Partikelgrößen und Anströmgeschindigkeiten über einen gegebenen Faserdurchmesser wiedergibt. Aufbauend auf diesem Ergebnis wird ein 3D CFD Simulationsmodell des Partikelfilters erstellt und zunächst für den stationären Fall das Strömungsfeld und die Abscheideeffektivität berechnet. Strömungsfeld und Abscheideeffektivität werden anhand geeigneter, experimenteller Untersuchungen plausibilisiert. Mit der Kenntnis der stationären Ergebnisse wird die zeitabhängige Beladung des Modells berechnet. Abschließend wird gezeigt, dass die erarbeitete Methodik für beliebige, faserbasierte Filter anwendbar ist.



Brethauer, Andreas;
Entwicklung einer Methode zur Temperaturbestimmung von Fluiden mithilfe von Berührungsthermometern bei niedrigen Eintauchtiefen - Ilmenau : Universitätsverlag Ilmenau, 2019 - XVI, 229 Seiten.
Technische Universität Ilmenau, Dissertation 2019

ISBN 978-3-86360-207-9

Die exakte Bestimmung der Temperatur gewinnt u. a. in der Wärmeverbrauchsmessung eine immer höhere Bedeutung. Hier wird mithilfe der Temperaturdifferenz an einem Vor- und Rücklauf in Kombination mit der Durchflussmenge die entnommene Wärme bestimmt. Messabweichungen haben hier eine direkte Auswirkung auf die Kostenabrechnung. Konstruktionsbedingt ist bei den gängigen Wärmemengenzählern an der Thermometer-Einbaustelle des Rücklaufs nur wenig Platz. Hier wird häufig tangential in das Medium eingetaucht, was eine nicht vernachlässigbare Messabweichung verursacht. In der Arbeit wird die Messabweichung durch Wärmeableitung und das Ansprechverhalten von Widerstandsthermometern bei geringen Eintauchtiefen in ein zu messendes Medium näher untersucht. Dabei wird die Bedeutung einer thermischen Ankopplung des Sensors an das Medium, sowie die Entkopplung von der anders temperierten Umgebung deutlich. Einen Einfluss hat auch das verwendete Medium. In der Wärme-/Kälteübertragung werden häufig Wasser-Glykol-Gemische verwendet. Deren Verwendung hat gerade bei niedrigen Strömungsgeschwindigkeiten einen hohen Einfluss auf die thermische Messabweichung und das Ansprechverhalten eines Widerstandsthermometers. Zudem wurde auch die Möglichkeit zur Nutzung des Loop Current Step Response Tests in der Wärmeverbrauchsmessung validiert. Dies erlaubt das Messen von Ansprechzeiten unter Einbaubedingungen. Ziel der Arbeit ist die Nutzbarmachung erzielter Erkenntnisse. So wurde eine Prüfeinrichtung zur Untersuchung von Widerstandsthermometern unter Einbaubedingungen entwickelt und validiert. Diese, als Strömungskanal konzipierte Prüfeinrichtung, erlaubt die Untersuchung des statischen und dynamischen Verhaltens von Thermometern, sowie den direkten Vergleich unterschiedlicher Einbaustellen. Die Messstrecken sind über ein Kleinflansch-Verbindungssystem austauschbar. Die Durchführung und Auswertung der unterschiedlichen Messprogramme läuft automatisch über eine eigens entwickelte Software ab. Eine weitere Neuentwicklung ist ein für niedrige Eintauchtiefen optimiertes Widerstandsthermometer. Hier wurden wärmeleitfähige und thermisch isolierende Kunststoffe kombiniert. So wurde eine gute Ankopplung des Temperatursensors an das zu messende Medium, sowie eine Entkopplung von der anders temperierten Umgebung realisiert.



Jancke, Roland;
Modellierung der Zuverlässigkeit bei Entwurf und Verifikation von Mixed-Signal-Schaltungen - Ilmenau : Universitätsverlag Ilmenau, 2019 - 1 Online-Ressource (190 Seiten).
Technische Universität Ilmenau, Dissertation 2018

Die zunehmende Verbreitung von Elektronik im Alltag und die weitere Verringerung der Strukturgrößen stellt neue Anforderungen an die Zuverlässigkeit und Verfügbarkeit integrierter Schaltungen. Modellierung zur Unterstützung des Schaltkreis- und Systementwurfs wird seit langer Zeit eingesetzt, bisher hauptsächlich zur Nachbildung des funktionalen Verhaltens einer Schaltung. Die vorliegende Arbeit verfolgt zwei Ziele: - Zu bekannten Modellierungsverfahren für das funktionale Verhalten wird eine Systematik entwickelt und in einen durchgängigen Modellierungsablauf abgebildet. - Die Methodik wird um die Modellierung nichtfunktionaler Eigenschaften erweitert, insbesondere werden Verfahren zur Berücksichtigung der Zuverlässigkeit entwickelt. Für die Zuverlässigkeitsmodellierung werden in erster Linie Degradationseffekte betrachtet, die während des bestimmungsgemäßen Betriebs entstehen und sich auf das elektrische Verhalten integrierter Bauelemente auswirken. Als eine wesentliche Voraussetzung für die entwickelten Verfahren zur Berücksichtigung der elektrischen Degradation wird lineare Schadensakkumulation angenommen. Dies bedeutet, dass die zeitliche Abfolge des anliegenden Stresses keine Rolle spielt, sondern sich die entstehende Schädigung linear akkumuliert. Das Ergebnis der Arbeit ist eine systematische Vorgehensweise zur Modellierung des funktionalen Verhaltens von analogen und Mixed-Signal-Schaltungen. Diese wird ergänzt um neue Verfahren zur Berücksichtigung zuverlässigkeitsrelevanter Eigenschaften der Schaltung. Analogien zur Mechanik erlauben es, in diesem Bereich etablierte Vorgehensweisen zur Beschreibung und Analyse der Zuverlässigkeit zu übernehmen und auf die Degradationseffekte integrierter Halbleiterbauelemente anzuwenden. Entsprechende Lebensdauermodelle zu relevanten Degradationsmechanismen sind dargestellt. Ausgehend von der generellen Struktur solcher Modelle werden allgemeine Maße zur Zuverlässigkeitsbewertung von Bauelementen unter Anwendungsbedingungen abgeleitet. Die Diskussion von Methoden zur Analyse der Zuverlässigkeit ganzer Schaltungen im Entwurf rundet die Darstellung ab. Die entwickelten Verfahren dienen der Unterstützung eines schnellen und fehlerfreien Entwurfs sicherer und zuverlässiger Schaltungen. Anhand der Optimierung einer Schaltung auf der Grundlage ihres Alterungsverhaltens wird dieser Nutzen verdeutlicht.



https://www.db-thueringen.de/receive/dbt_mods_00038399
Weiß, Heiko;
Optimierung des dynamischen Verhaltens von linearen Hybridschrittmotoren unter besonderer Betrachtung von Schwingungen und Geräuschen - Ilmenau : Universitätsverlag Ilmenau, 2019 - 1 Online-Ressource (XXI, 171 Seiten).
Technische Universität Ilmenau, Dissertation 2018

Diese Arbeit befasst sich mit der Entwicklung von Methoden und Reglern zur Reduzierung von Schwingungen und Geräuschen von linearen Hybridschrittmotoren (LHSM). Die Ursachen der Schwingungen und Geräusche sind Kraftschwankungen, die elektromagnetisch durch das Antriebsprinzip bedingt sind. Der untersuchte Motor ist ein Prototyp, der von der Firma Pasim Direktantriebe GmbH zur Verfügung gestellt worden ist. Dieser ist durch ein Zusatzspulensystem gekennzeichnet, das eine variable magnetische Erregung ermöglicht. Somit kann der Motor mit einer konstanten magnetischen als auch mit einer sich ändernden magnetischen Erregung betrieben werden. Diese beiden Betriebsmodi werden in dieser Arbeit als Ausgangssituationen verwendet, um damit mögliche Reduzierungen von Schwingungen und Geräuschen zu erzielen. Für den als Standardmotor zu betrachtenden konstant erregten LHSM werden drei Methoden untersucht. Dazu gehören die Lastwinkel-Optimierung, die Rastkraft-Kompensation sowie die Optimierung der Kommutierung. Unter diesen Methoden lassen sich mit der optimierten Kommutierung die Horizontalschwingungen am besten verringern. Wahrnehmbare Lautstärkeänderungen können damit allerdings nicht erreicht werden. Das Ziel des mit variabler Erregung betriebenen LHSM ist ebenfalls eine Reduzierung von Schwingungen und Geräuschen. Zu diesem Zweck werden die sich mit der variablen Erregerkomponente ändernden Eigenschaften des LHSM ausgenutzt, um ein antriebseffizientes und schwingungsreduzierendes Betriebsverhalten zu erhalten. Dafür ist es erforderlich, den variabel erregten LHSM zu modellieren und die dazugehörigen Parameter zu identifizieren. Schließlich wird eine Ansteuerfunktion für die variable Erregerkomponente auf der Grundlage eines Optimierungsproblems entwickelt. Die Ansteuerfunktion wird im positionsgeregelten Betrieb angewendet und zeigt dabei eine Reduzierung der Schwingungen um ein Vielfaches in allen Raumrichtungen. Das führt dazu, dass die wahrgenommene Lautstärke um annähernd die Hälfte gegenüber einem Motor mit konstanter magnetischer Erregung gesenkt werden kann. Zur weiteren Verbesserung der Betriebseigenschaften werden verschiedene Reglerstrategien entwickelt und getestet. Die Ergebnisse zeigen, dass sich für diesen Zweck ein optimierter PID-Regler mit modellbasierter Vorsteuerung am besten eignet.



https://www.db-thueringen.de/receive/dbt_mods_00038427
Jancke, Roland;
Modellierung der Zuverlässigkeit bei Entwurf und Verifikation von Mixed-Signal-Schaltungen - Ilmenau : Universitätsverlag Ilmenau, 2019 - 190 Seiten.
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-204-8

Die zunehmende Verbreitung von Elektronik im Alltag und die weitere Verringerung der Strukturgrößen stellt neue Anforderungen an die Zuverlässigkeit und Verfügbarkeit integrierter Schaltungen. Modellierung zur Unterstützung des Schaltkreis- und Systementwurfs wird seit langer Zeit eingesetzt, bisher hauptsächlich zur Nachbildung des funktionalen Verhaltens einer Schaltung. Die vorliegende Arbeit verfolgt zwei Ziele: - Zu bekannten Modellierungsverfahren für das funktionale Verhalten wird eine Systematik entwickelt und in einen durchgängigen Modellierungsablauf abgebildet. - Die Methodik wird um die Modellierung nichtfunktionaler Eigenschaften erweitert, insbesondere werden Verfahren zur Berücksichtigung der Zuverlässigkeit entwickelt. Für die Zuverlässigkeitsmodellierung werden in erster Linie Degradationseffekte betrachtet, die während des bestimmungsgemäßen Betriebs entstehen und sich auf das elektrische Verhalten integrierter Bauelemente auswirken. Als eine wesentliche Voraussetzung für die entwickelten Verfahren zur Berücksichtigung der elektrischen Degradation wird lineare Schadensakkumulation angenommen. Dies bedeutet, dass die zeitliche Abfolge des anliegenden Stresses keine Rolle spielt, sondern sich die entstehende Schädigung linear akkumuliert. Das Ergebnis der Arbeit ist eine systematische Vorgehensweise zur Modellierung des funktionalen Verhaltens von analogen und Mixed-Signal-Schaltungen. Diese wird ergänzt um neue Verfahren zur Berücksichtigung zuverlässigkeitsrelevanter Eigenschaften der Schaltung. Analogien zur Mechanik erlauben es, in diesem Bereich etablierte Vorgehensweisen zur Beschreibung und Analyse der Zuverlässigkeit zu übernehmen und auf die Degradationseffekte integrierter Halbleiterbauelemente anzuwenden. Entsprechende Lebensdauermodelle zu relevanten Degradationsmechanismen sind dargestellt. Ausgehend von der generellen Struktur solcher Modelle werden allgemeine Maße zur Zuverlässigkeitsbewertung von Bauelementen unter Anwendungsbedingungen abgeleitet. Die Diskussion von Methoden zur Analyse der Zuverlässigkeit ganzer Schaltungen im Entwurf rundet die Darstellung ab. Die entwickelten Verfahren dienen der Unterstützung eines schnellen und fehlerfreien Entwurfs sicherer und zuverlässiger Schaltungen. Anhand der Optimierung einer Schaltung auf der Grundlage ihres Alterungsverhaltens wird dieser Nutzen verdeutlicht.



Weiß, Heiko;
Optimierung des dynamischen Verhaltens von linearen Hybridschrittmotoren unter besonderer Betrachtung von Schwingungen und Geräuschen - Ilmenau : Universitätsverlag Ilmenau, 2019 - XXI, 171 Seiten.
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-205-5

Diese Arbeit befasst sich mit der Entwicklung von Methoden und Reglern zur Reduzierung von Schwingungen und Geräuschen von linearen Hybridschrittmotoren (LHSM). Die Ursachen der Schwingungen und Geräusche sind Kraftschwankungen, die elektromagnetisch durch das Antriebsprinzip bedingt sind. Der untersuchte Motor ist ein Prototyp, der von der Firma Pasim Direktantriebe GmbH zur Verfügung gestellt worden ist. Dieser ist durch ein Zusatzspulensystem gekennzeichnet, das eine variable magnetische Erregung ermöglicht. Somit kann der Motor mit einer konstanten magnetischen als auch mit einer sich ändernden magnetischen Erregung betrieben werden. Diese beiden Betriebsmodi werden in dieser Arbeit als Ausgangssituationen verwendet, um damit mögliche Reduzierungen von Schwingungen und Geräuschen zu erzielen. Für den als Standardmotor zu betrachtenden konstant erregten LHSM werden drei Methoden untersucht. Dazu gehören die Lastwinkel-Optimierung, die Rastkraft-Kompensation sowie die Optimierung der Kommutierung. Unter diesen Methoden lassen sich mit der optimierten Kommutierung die Horizontalschwingungen am besten verringern. Wahrnehmbare Lautstärkeänderungen können damit allerdings nicht erreicht werden. Das Ziel des mit variabler Erregung betriebenen LHSM ist ebenfalls eine Reduzierung von Schwingungen und Geräuschen. Zu diesem Zweck werden die sich mit der variablen Erregerkomponente ändernden Eigenschaften des LHSM ausgenutzt, um ein antriebseffizientes und schwingungsreduzierendes Betriebsverhalten zu erhalten. Dafür ist es erforderlich, den variabel erregten LHSM zu modellieren und die dazugehörigen Parameter zu identifizieren. Schließlich wird eine Ansteuerfunktion für die variable Erregerkomponente auf der Grundlage eines Optimierungsproblems entwickelt. Die Ansteuerfunktion wird im positionsgeregelten Betrieb angewendet und zeigt dabei eine Reduzierung der Schwingungen um ein Vielfaches in allen Raumrichtungen. Das führt dazu, dass die wahrgenommene Lautstärke um annähernd die Hälfte gegenüber einem Motor mit konstanter magnetischer Erregung gesenkt werden kann. Zur weiteren Verbesserung der Betriebseigenschaften werden verschiedene Reglerstrategien entwickelt und getestet. Die Ergebnisse zeigen, dass sich für diesen Zweck ein optimierter PID-Regler mit modellbasierter Vorsteuerung am besten eignet.



Uhlig, René;
Konzeption und Untersuchung eines bistabilen Sicherheitsventils und simulationsbasierte Entwicklung einer Methode zu dessen Dimensionierung - Ilmenau : Universitätsverlag Ilmenau, 2019 - 1 Online-Ressource (XXI, 146 Seiten). . - (Berichte der Ilmenauer Mechanismentechnik (BIMT). - Band 5)
Technische Universität Ilmenau, Dissertation 2018

In: Ilmenau : Universitätsverlag Ilmenau

Sicherheitsventile für Gasrohrleitungen - sogenannte Gasströmungswächter - sind unverzichtbare mechanische Schutzvorrichtungen, die den unkontrollierten Austritt großer Gasmengen im Havariefall oder bei beabsichtigter Manipulation verhindern. Damit können Gasexplosionen und die resultierenden existenziellen Folgen abgewendet werden. Die bisher bekannten Lösungen für Sicherheitsventile weisen aufgrund ihres monostabilen Schaltverhaltens einen gravierenden Nachteil auf, da diese nach dem Auslösen selbsttätig wieder öffnen und somit den Gasstrom freigeben. Potentielle Gefahrenquellen bleiben damit unerkannt. Der wesentliche Vorteil eines neuartigen Sicherheitsventils besteht in der Realisierung einer bistabilen Schaltcharakteristik durch den Einsatz vorgespannter nachgiebiger Aufhängungselemente. Die zuverlässige Dimensionierung eines solchen neuartigen Ventils erweist sich in der Praxis als äußerst anspruchsvolle Aufgabe und erfordert viel Erfahrung, vor allem im Umgang mit numerischen Simulationswerkzeugen. Die vorliegende Arbeit beschäftigt sich intensiv mit der Untersuchung der nachgiebigen Aufhängungselemente und dem resultierenden Ventilschaltverhalten für unterschiedliche geometrische Abmessungen. Das Ziel und die Motivation der Arbeit besteht darin, die vorhandenen Hürden bei der Dimensionierung abzubauen und ein einfach anzuwendendes Dimensionierungsmodell zur Verfügung zu stellen. Die Ergebnisse der Arbeit stützen sich maßgeblich auf FEM-Simulationen zum Verformungsverhalten der nachgiebigen Aufhängungselemente. Anhand der ermittelten Kraft-Verschiebungs-Kennlinien ist es gelungen, das Schaltverhalten mathematisch anhand von abgeleiteten Dimensionierungsgleichungen zu beschreiben und darauf basierend eine Methode zur Dimensionierung neuartiger Sicherheitsventile zur Verfügung zu stellen. Darüber hinaus wurde das Dimensionierungsmodell anhand experimenteller Untersuchungen an realen Aufhängungselementen sorgfältig validiert. Zum Abschluss der Arbeit wurde auch das Verhalten von verschiedenen Ventilprototypen im praktischen Einsatz an Versuchsanlagen betrachtet. Die gewonnenen Erkenntnisse fließen in die Ergebnisse ein und gewährleisten eine hohe Qualität des Dimensionierungsmodells. Darüber hinaus können die Ergebnisse auch zur Dimensionierung von bistabilen Systemen in anderen Anwendungsfeldern genutzt werden.



https://www.db-thueringen.de/receive/dbt_mods_00038299
Uhlig, René;
Konzeption und Untersuchung eines bistabilen Sicherheitsventils und simulationsbasierte Entwicklung einer Methode zu dessen Dimensionierung - Ilmenau : Universitätsverlag Ilmenau, 2019 - XXI, 146 Seiten. . - (Berichte der Ilmenauer Mechanismentechnik (BIMT). - Band 5)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-203-1

Sicherheitsventile für Gasrohrleitungen - sogenannte Gasströmungswächter - sind unverzichtbare mechanische Schutzvorrichtungen, die den unkontrollierten Austritt großer Gasmengen im Havariefall oder bei beabsichtigter Manipulation verhindern. Damit können Gasexplosionen und die resultierenden existenziellen Folgen abgewendet werden. Die bisher bekannten Lösungen für Sicherheitsventile weisen aufgrund ihres monostabilen Schaltverhaltens einen gravierenden Nachteil auf, da diese nach dem Auslösen selbsttätig wieder öffnen und somit den Gasstrom freigeben. Potentielle Gefahrenquellen bleiben damit unerkannt. Der wesentliche Vorteil eines neuartigen Sicherheitsventils besteht in der Realisierung einer bistabilen Schaltcharakteristik durch den Einsatz vorgespannter nachgiebiger Aufhängungselemente. Die zuverlässige Dimensionierung eines solchen neuartigen Ventils erweist sich in der Praxis als äußerst anspruchsvolle Aufgabe und erfordert viel Erfahrung, vor allem im Umgang mit numerischen Simulationswerkzeugen. Die vorliegende Arbeit beschäftigt sich intensiv mit der Untersuchung der nachgiebigen Aufhängungselemente und dem resultierenden Ventilschaltverhalten für unterschiedliche geometrische Abmessungen. Das Ziel und die Motivation der Arbeit besteht darin, die vorhandenen Hürden bei der Dimensionierung abzubauen und ein einfach anzuwendendes Dimensionierungsmodell zur Verfügung zu stellen. Die Ergebnisse der Arbeit stützen sich maßgeblich auf FEM-Simulationen zum Verformungsverhalten der nachgiebigen Aufhängungselemente. Anhand der ermittelten Kraft-Verschiebungs-Kennlinien ist es gelungen, das Schaltverhalten mathematisch anhand von abgeleiteten Dimensionierungsgleichungen zu beschreiben und darauf basierend eine Methode zur Dimensionierung neuartiger Sicherheitsventile zur Verfügung zu stellen. Darüber hinaus wurde das Dimensionierungsmodell anhand experimenteller Untersuchungen an realen Aufhängungselementen sorgfältig validiert. Zum Abschluss der Arbeit wurde auch das Verhalten von verschiedenen Ventilprototypen im praktischen Einsatz an Versuchsanlagen betrachtet. Die gewonnenen Erkenntnisse fließen in die Ergebnisse ein und gewährleisten eine hohe Qualität des Dimensionierungsmodells. Darüber hinaus können die Ergebnisse auch zur Dimensionierung von bistabilen Systemen in anderen Anwendungsfeldern genutzt werden.



John, Kerstin;
Untersuchung von Umlenkelementen zur Anwendung in der interferometrischen Längenmesstechnik - Ilmenau : Universitätsverlag Ilmenau, 2019 - 1 Online-Ressource (176 Seiten). . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - Band 33)
Technische Universität Ilmenau, Dissertation 2018

Aufgrund ihrer hohen Auflösung in Kombination mit einem großen Messbereich nehmen Interferometer eine Spitzenrolle in der Präzisionslängenmesstechnik ein. Sie müssen stets so angeordnet werden, dass der Messstrahl das Messobjekt auf geradem, unabgeschattetem Weg erreicht. Durch eine Umlenkung und Faltung des Interferometermessstrahls lassen sich Flexibilität des Aufbaus und Zugänglichkeit des Messobjektes verbessern. Diese Arbeit untersucht den Einsatz von Strahlumlenkelementen in interferometrischen Messanordnungen sowie die dadurch entstehenden Messfehler und Möglichkeiten ihrer Kompensation und Korrektur. Zunächst wird das grundlegende Messprinzip von interferometrischen Längenmessungen vorgestellt sowie auf mögliche Fehlerquellen insbesondere im Hinblick auf Strahlumlenkung hingewiesen. Es wird untersucht, wie sich die Änderung von geometrischen und Polarisationseigenschaften des Messstrahls durch ein Umlenkelement auf die interferometrische Messung auswirken. In dieser Arbeit werden verschiedene Modelle vorgestellt, mit denen die Lichtausbreitung und Polarisation sowie das geometrische Übertragungsverhalten von Umlenkelementen untersucht werden können. An Beispielen werden Einflussfaktoren herausgestellt, die auf die Polarisation des Lichtes wirken. Darüber hinaus wird deren Nutzung zur Kompensation von unerwünschten Polarisationsänderungen diskutiert. Eine Übersicht teilt reflektierende und refraktive Umlenkelemente auf Basis von Gemeinsamkeiten in Geometrie und Übertragungsverhalten in Kategorien ein. Der Fokus liegt dabei auf Invarianzachsen für Translation und Rotation der Elemente. Diese erlauben eine Bewegung der Umlenkelemente, ohne dass die untersuchte Funktionsgröße beeinflusst wird. Auf die Existenz und Lage dieser Achsen wird für jede Gruppe von Umlenkelementen hingewiesen. Zusätzlich erfolgt der Nachweis im Experiment, der das qualitative Übertragungsverhalten ausgewählter Umlenkelemente bestätigt. Schließlich werden die Erkenntnisse dieser Arbeit in Gestaltungsrichtlinien zusammengefasst, die den Anwender bei der Auslegung von Umlenkelementen für interferometrische Längenmesssysteme unterstützen.



https://www.db-thueringen.de/receive/dbt_mods_00038358
John, Kerstin;
Untersuchung von Umlenkelementen zur Anwendung in der interferometrischen Längenmesstechnik - Ilmenau : Universitätsverlag Ilmenau, 2019 - 176 Seiten. . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - Band 33)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-197-3

Aufgrund ihrer hohen Auflösung in Kombination mit einem großen Messbereich nehmen Interferometer eine Spitzenrolle in der Präzisionslängenmesstechnik ein. Sie müssen stets so angeordnet werden, dass der Messstrahl das Messobjekt auf geradem, unabgeschattetem Weg erreicht. Durch eine Umlenkung und Faltung des Interferometermessstrahls lassen sich Flexibilität des Aufbaus und Zugänglichkeit des Messobjektes verbessern. Diese Arbeit untersucht den Einsatz von Strahlumlenkelementen in interferometrischen Messanordnungen sowie die dadurch entstehenden Messfehler und Möglichkeiten ihrer Kompensation und Korrektur. Zunächst wird das grundlegende Messprinzip von interferometrischen Längenmessungen vorgestellt sowie auf mögliche Fehlerquellen insbesondere im Hinblick auf Strahlumlenkung hingewiesen. Es wird untersucht, wie sich die Änderung von geometrischen und Polarisationseigenschaften des Messstrahls durch ein Umlenkelement auf die interferometrische Messung auswirken. In dieser Arbeit werden verschiedene Modelle vorgestellt, mit denen die Lichtausbreitung und Polarisation sowie das geometrische Übertragungsverhalten von Umlenkelementen untersucht werden können. An Beispielen werden Einflussfaktoren herausgestellt, die auf die Polarisation des Lichtes wirken. Darüber hinaus wird deren Nutzung zur Kompensation von unerwünschten Polarisationsänderungen diskutiert. Eine Übersicht teilt reflektierende und refraktive Umlenkelemente auf Basis von Gemeinsamkeiten in Geometrie und Übertragungsverhalten in Kategorien ein. Der Fokus liegt dabei auf Invarianzachsen für Translation und Rotation der Elemente. Diese erlauben eine Bewegung der Umlenkelemente, ohne dass die untersuchte Funktionsgröße beeinflusst wird. Auf die Existenz und Lage dieser Achsen wird für jede Gruppe von Umlenkelementen hingewiesen. Zusätzlich erfolgt der Nachweis im Experiment, der das qualitative Übertragungsverhalten ausgewählter Umlenkelemente bestätigt. Schließlich werden die Erkenntnisse dieser Arbeit in Gestaltungsrichtlinien zusammengefasst, die den Anwender bei der Auslegung von Umlenkelementen für interferometrische Längenmesssysteme unterstützen.



Mack, Benjamin;
Untersuchungen zum Schadensmechanismus Torsionsschwingbruch durch Kontaktermüdung an Schraubendruckfedern - Ilmenau : Universitätsverlag Ilmenau, 2019 - xvii, 184 Seiten. . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - Band 34)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-198-0

Ziel der vorliegenden Arbeit ist es, die Wirkzusammenhänge des Schadensmechanismus "Torsionsschwingbruch durch Kontaktermüdung" zu untersuchen und Möglichkeiten zur Quantifizierung des Schadensmechanismus aufzuzeigen. Zu diesem Zweck werden Federvarianten mit unterschiedlichen Anlageverhalten gefertigt, charakterisiert und geprüft. Mit den bisher etablierten Methoden kann das Anlageverhalten nicht lokal und zugleich bei einer definierten Federkraft bewertet werden, was für die Fertigung von Versuchsfedern mit gezielt variierenden Anlageverhalten erforderlich ist. Vor diesem Hintergrund wird die Lichtspaltmethode entwickelt. Die Lichtspaltmethode eignet sich im Gegensatz zu numerischen Verfahren auch zur fertigungsnahen Beurteilung des Anlageverhaltens. Zusätzlich ermöglicht die Lichtspaltmethode einen höherwertigen FE-Abgleich im Endwindungsbereich, als ein Abgleich über die Federrate oder mittels druckempfindlichen Papiers. Aufgrund der Schwingfestigkeitsergebnisse wird eine Untergliederung des Schadensmechanismus hinsichtlich HCF-Kontaktermüdung mit Bruchausgang im Oberflächennahen Bereich und VHCF-Kontaktermüdung mit Bruchausgang unterhalb der Oberfläche vorgenommen. Begleitender Untersuchungen an Federn und Drähten zeigen, dass begünstigende Ursachen für Endwindungsbrüche mit der Ausprägung HCF-Kontaktermüdung sich auf eine fertigungs- bzw. verschleißbedingte Primärschädigung zurückführen lassen. Endwindungsbrüche im Bereich erhöhter Schwingspielzahlen mit einem Bruchausgang unterhalb der Oberfläche weisen auf eine Primärschädigung durch Kontaktermüdungsrissbildung hin. Auf Grundlage der Schwingfestigkeitsversuche an Schraubendruckfedern und numerischen Berechnungen wird eine Vorgehensweise zur Auslegung der Endwindungsgeometrie bei erhöhter Schwingspielzahl erarbeitet. Die Grobauslegung der Endwindungsgeometrie erfolgt über die Analyse des Kontaktwinkels in Abhängigkeit der Torsionsbeanspruchung. Die örtliche Bewertung erfolgt auf Basis der Finiten Elemente Methode und geeigneter Schadensparameter. Die numerische Nachrechnung der Schwingversuche zeigt, dass die lokale Kontaktdruckschwingweite als auch der Schadensparameter nach Dang Van geeignete Kenngrößen zur Beschreibung der VHCF-Kontaktermüdung darstellen. Durch diese Arbeit lassen sich Endwindungsbrüche durch Kontaktermüdung im VHCF-Bereich lokal bewerten.



Mühlbauer, Christoph;
Entwicklung eines Vorgehensmodells für die Evaluation der Fahrzeug-HMI in frühen Phasen der Entwicklung - Ilmenau : Universitätsverlag Ilmenau, 2019 - 1 Online-Ressource (XII, 294 Seiten).
Technische Universität Ilmenau, Dissertation 2018

Ein aktueller Trend in der Automobil-Industrie ist die zunehmende Vernetzung interaktiver Systeme inner- und außerhalb des Fahrzeugs. Dies führt zu einem erhöhten Informationsfluss zwischen dem Fahrer, dem Fahrzeug sowie der Umwelt, was die Gefahr erhöht, dass sich der Fahrer von der eigentlichen Fahraufgabe ablenken lässt. Die Benutzungsschnittstelle, über die der Fahrer mit seinem Fahrzeug interagiert, sollte so gestaltet sein, dass die Ablenkung auf ein Minimum reduziert wird. Es existieren Automotive-HMI Richtlinien wie beispielsweise die NHTSA-Guidelines oder die DIN EN ISO 15005, welche herangezogen werden können, um die Benutzerfreundlichkeit interaktiver Systeme und die Ablenkung zu beurteilen. Bei der Analyse fällt jedoch auf, dass diese vielmehr bereits grafische Prototypen und implementierte Systeme fokussieren. Zudem sieht der aktuelle HMI-Entwicklungsprozess innerhalb der Automobilindustrie eine Produkt-Evaluation erst zum Zeitpunkt der HMI-Implementierungsphase vor. Innerhalb der HMI-Konzept und -Designphase findet keine strukturierte Beurteilung statt. Werden HMI-Probleme zu diesem späten Zeitpunkt identifiziert, ist eine Beseitigung kosten- und zeitintensiv. In dieser Dissertation wird ein Vorgehensmodell vorgestellt, welches die Usability von Spezifikationen für Automotive-Informations- und -Kommunikationssysteme bereits zu Beginn der Entwicklung, in der sogenannten HMI-Konzeptphase, beurteilt. So werden spezifische Beurteilungskriterien extrahiert und ein strukturiertes Evaluations-Vorgehen wird definiert. Die Erkenntnisse leiten sich aus umfangreichen empirischen und analytischen Studien ab. Die Betrachtung des Evaluations-Gegenstands innerhalb der darauffolgenden Design- und Implementierungsphase findet nicht statt, da spezifische Beurteilungskriterien entwickelt werden müssen. Die Beurteilungskriterien der HMI-Konzeptphase können nicht für die Design- und Implementierungsphase herangezogen werden. Das Vorgehensmodell ist so entwickelt, dass sowohl Experten als auch methodisch unerfahrene Evaluatoren und Testleiter dieses anwenden können.



https://www.db-thueringen.de/receive/dbt_mods_00038224
Mühlbauer, Christoph;
Entwicklung eines Vorgehensmodells für die Evaluation der Fahrzeug-HMI in frühen Phasen der Entwicklung - Ilmenau : Universitätsverlag Ilmenau, 2019 - XII, 294 Seiten.
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-196-6

Ein aktueller Trend in der Automobil-Industrie ist die zunehmende Vernetzung interaktiver Systeme inner- und außerhalb des Fahrzeugs. Dies führt zu einem erhöhten Informationsfluss zwischen dem Fahrer, dem Fahrzeug sowie der Umwelt, was die Gefahr erhöht, dass sich der Fahrer von der eigentlichen Fahraufgabe ablenken lässt. Die Benutzungsschnittstelle, über die der Fahrer mit seinem Fahrzeug interagiert, sollte so gestaltet sein, dass die Ablenkung auf ein Minimum reduziert wird. Es existieren Automotive-HMI Richtlinien wie beispielsweise die NHTSA-Guidelines oder die DIN EN ISO 15005, welche herangezogen werden können, um die Benutzerfreundlichkeit interaktiver Systeme und die Ablenkung zu beurteilen. Bei der Analyse fällt jedoch auf, dass diese vielmehr bereits grafische Prototypen und implementierte Systeme fokussieren. Zudem sieht der aktuelle HMI-Entwicklungsprozess innerhalb der Automobilindustrie eine Produkt-Evaluation erst zum Zeitpunkt der HMI-Implementierungsphase vor. Innerhalb der HMI-Konzept und -Designphase findet keine strukturierte Beurteilung statt. Werden HMI-Probleme zu diesem späten Zeitpunkt identifiziert, ist eine Beseitigung kosten- und zeitintensiv. In dieser Dissertation wird ein Vorgehensmodell vorgestellt, welches die Usability von Spezifikationen für Automotive-Informations- und -Kommunikationssysteme bereits zu Beginn der Entwicklung, in der sogenannten HMI-Konzeptphase, beurteilt. So werden spezifische Beurteilungskriterien extrahiert und ein strukturiertes Evaluations-Vorgehen wird definiert. Die Erkenntnisse leiten sich aus umfangreichen empirischen und analytischen Studien ab. Die Betrachtung des Evaluations-Gegenstands innerhalb der darauffolgenden Design- und Implementierungsphase findet nicht statt, da spezifische Beurteilungskriterien entwickelt werden müssen. Die Beurteilungskriterien der HMI-Konzeptphase können nicht für die Design- und Implementierungsphase herangezogen werden. Das Vorgehensmodell ist so entwickelt, dass sowohl Experten als auch methodisch unerfahrene Evaluatoren und Testleiter dieses anwenden können.



Wohlfahrt, Fabian;
Kraftgesteuerte Messzelle für Dilatometeranwendungen - Ilmenau : Universitätsverlag Ilmenau, 2019 - XVI, 168 Seiten. . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - Band 32)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-193-5

Werkstoffinnovation ist eine wesentliche treibende Kraft des 21. Jahrhunderts. Die Forschung und Weiterentwicklung von innovativen Materialien vergrößert stets deren Anwendungsbereich und den ressourceneffizienten Einsatz in technischen Gebilden. Dieser allgemeine Trend der Weiterentwicklung von Materialien führt zu höheren Anforderungen an Messgeräte, welche die zugehörigen Materialkenngrößen ermitteln. Im Bereich der Dilatometrie wird die Längenänderung von thermisch beeinflussten Materialien analysiert. Zukünftige und zum Teil bereits aktuelle messtechnische Anforderungen von z. B. weichen Materialien können mit bestehenden Möglichkeiten der technischen Realisierung nicht mehr sicher erfüllt werden. Hieraus leitet sich ein Handlungsbedarf hinsichtlich technischer und konstruktiver Weiterentwicklung ab. Ziel dieser Arbeit ist es, den aktuellen Entwicklungsstand zur messtechnischen Erfassung von thermisch induzierten Längenänderungen darzustellen und Möglichkeiten für dessen Weiterentwicklung zu erarbeiten. Hierzu wird das Arbeitsfeld begrifflich und inhaltlich abgegrenzt. Mithilfe einer Betrachtung des Standes der Technik werden Anforderungen für die Weiterentwicklung abgeleitet. Im Rahmen der konstruktiven Entwicklung spielt hierbei die Reduzierung wesentlicher Störeinflüsse auf die Längenänderung der Probe eine entscheidende Rolle. Ein besonderes Ziel besteht darin, den Krafteinfluss während der Längenmessung stark zu verringern sowie den Einfluss durch manuelle Bedienung zu eliminieren. In der vorliegenden Arbeit werden für die Entwicklung und Realisierung einer kraftgesteuerten Messzelle systematisch Lösungsräume erarbeitet sowie anschließend schrittweise hinsichtlich der Erfüllung der gegebenen Anforderungen untersucht und bewertet. Aus methodischer Sicht stellt diese Arbeit eine Vorgehensweise zur zielgerichteten Entwicklung einer kraftgesteuerten Messzelle dar. Die Funktionsfähigkeit des erarbeiteten Konstruktionsentwurfs wird durch experimentelle Ergebnisse im Rahmen des messtechnischen Nachweises bestätigt. Den Abschluss dieser Arbeit bilden sowohl eine Einflussgrößenanalyse als auch eine Zusammenfassung ermittelter charakteristischer Eigenschaften der Messzelle gefolgt von einem Ausblick zur Weiterentwicklung.



Kotschote, Christian;
Widerstandspunktschweißen mit Stanzelement : prozesstechnische und werkstoffliche Besonderheiten von Aluminium-Stahl-Blechverbindungen - Ilmenau : Universitätsverlag Ilmenau, 2019 - 1 Online-Ressource (XIX, 165 Seiten). . - (Fertigungstechnik - aus den Grundlagen für die Anwendung. - Band 7)
Technische Universität Ilmenau, Dissertation 2018

In: Ilmenau : Universitätsverlag Ilmenau

Aluminium und Stahl sind Leichtbauwerkstoffe und im Automobilbau nicht mehr wegzudenken. Beide Werkstoffe miteinander zu verbinden, stellt besonders die Fügetechnik vor großen Herausforderungen. Das Fügen mittels Widerstandspunktschweißen oder anderen thermischen Fügeverfahren führt beim Verbinden von Aluminium mit Stahl in der Regel zur Ausbildung von intermetallischen Phasen. Zusätzlich erschweren die unterschiedlichen Eigenschaften der beiden Werkstoffe den Schweißprozess und damit einen Einsatz im Fahrzeugbau. Aufgrund der hohen Zugfestigkeit höchstfester Stähle gelangen mechanische Fügeverfahren, wie beispielsweise das Halbhohlstanznieten, ebenfalls an ihre Prozessgrenzen. Mit Hilfe eines zusätzlichen Stanzelements wurde ein neuartiger Ansatz zum Widerstandspunktschweißen von Aluminium und Stahl entwickelt und dessen prozesstechnische und werkstoffliche Besonderheiten erforscht. Das Ziel war die Bestimmung der Verbindungsausbildung vom Stanzelementprozess und der Einfluss der Schweißlinsenbildung auf die Charakteristik der Gesamtverbindung. In den Untersuchungen konnte die Buckelhöhe als grundlegende Prozessgröße identifiziert werden. Weiterhin wurde festgestellt, dass die Schmelzenbildung im Stahl beginnt. Die Untersuchungen der Schweißlinsenbildung und deren Einfluss auf die Elementverformung brachte die Erkenntnis, dass die Ausprägung des Stanzelements im Aluminiumsubstrat dominierend durch den Stanzelementprozess gesteuert wird. Eine thermische Belastung innerhalb der Schweißbereichsgrenzen beeinflusst die geometrischen Kennwerte nur geringfügig. Mithilfe einer eigens entwickelten Kopfzugmethode konnte der Nachweis erbracht werden, dass die Vorbelastung des Stanzelements einen Einfluss auf das Versagensverhalten hat. Zudem war es mit dieser Prüfung möglich, die Verbindungsfestigkeiten sowohl nach dem Primär- als auch nach dem Sekundärprozess zu bestimmen. Der Vergleich der Kopfzugkräfte ergab eine festigkeitsmindernde Wirkung des Schweißprozesses. Untersuchungen des Aluminiumsubstrates zeigten Erholungs- und Rekristallisationsvorgänge entlang der Prozesskette, welche als Ursache für die festigkeitsmindernde Wirkung identifiziert wurde. Eine Möglichkeit zur Erhöhung der Verbindungsfestigkeit konnte durch eine nachträgliche Ausscheidungshärtung des Aluminiummaterials erreicht werden.



https://www.db-thueringen.de/receive/dbt_mods_00038208
Kotschote, Christian;
Widerstandspunktschweißen mit Stanzelement : prozesstechnische und werkstoffliche Besonderheiten von Aluminium-Stahl-Blechverbindungen - Ilmenau : Universitätsverlag Ilmenau, 2019 - XIX, 165 Seiten. . - (Fertigungstechnik - aus den Grundlagen für die Anwendung. - Band 7)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-199-7

Aluminium und Stahl sind Leichtbauwerkstoffe und im Automobilbau nicht mehr wegzudenken. Beide Werkstoffe miteinander zu verbinden, stellt besonders die Fügetechnik vor großen Herausforderungen. Das Fügen mittels Widerstandspunktschweißen oder anderen thermischen Fügeverfahren führt beim Verbinden von Aluminium mit Stahl in der Regel zur Ausbildung von intermetallischen Phasen. Zusätzlich erschweren die unterschiedlichen Eigenschaften der beiden Werkstoffe den Schweißprozess und damit einen Einsatz im Fahrzeugbau. Aufgrund der hohen Zugfestigkeit höchstfester Stähle gelangen mechanische Fügeverfahren, wie beispielsweise das Halbhohlstanznieten, ebenfalls an ihre Prozessgrenzen. Mit Hilfe eines zusätzlichen Stanzelements wurde ein neuartiger Ansatz zum Widerstandspunktschweißen von Aluminium und Stahl entwickelt und dessen prozesstechnische und werkstoffliche Besonderheiten erforscht. Das Ziel war die Bestimmung der Verbindungsausbildung vom Stanzelementprozess und der Einfluss der Schweißlinsenbildung auf die Charakteristik der Gesamtverbindung. In den Untersuchungen konnte die Buckelhöhe als grundlegende Prozessgröße identifiziert werden. Weiterhin wurde festgestellt, dass die Schmelzenbildung im Stahl beginnt. Die Untersuchungen der Schweißlinsenbildung und deren Einfluss auf die Elementverformung brachte die Erkenntnis, dass die Ausprägung des Stanzelements im Aluminiumsubstrat dominierend durch den Stanzelementprozess gesteuert wird. Eine thermische Belastung innerhalb der Schweißbereichsgrenzen beeinflusst die geometrischen Kennwerte nur geringfügig. Mithilfe einer eigens entwickelten Kopfzugmethode konnte der Nachweis erbracht werden, dass die Vorbelastung des Stanzelements einen Einfluss auf das Versagensverhalten hat. Zudem war es mit dieser Prüfung möglich, die Verbindungsfestigkeiten sowohl nach dem Primär- als auch nach dem Sekundärprozess zu bestimmen. Der Vergleich der Kopfzugkräfte ergab eine festigkeitsmindernde Wirkung des Schweißprozesses. Untersuchungen des Aluminiumsubstrates zeigten Erholungs- und Rekristallisationsvorgänge entlang der Prozesskette, welche als Ursache für die festigkeitsmindernde Wirkung identifiziert wurde. Eine Möglichkeit zur Erhöhung der Verbindungsfestigkeit konnte durch eine nachträgliche Ausscheidungshärtung des Aluminiummaterials erreicht werden.



Benkenstein, Andreas;
Die besonderen Bedingungen der Abscheidung von diamantähnlichen Kohlenstoffschichten in Hohlkathodenanordnungen mit hohen Aspektverhältnissen - Ilmenau : Universitätsverlag Ilmenau, 2019 - 1 Online-Ressource ( 203 Seiten).
Technische Universität Ilmenau, Dissertation 2018

In dieser Arbeit wurde eine Hohlkathodenentladung (engl.: hollow cathode discharge, kurz HCD) und die damit erzeugte diamantartige Kohlenstoffschicht (engl.: diamond-like carbon, kurz DLC) in einer Sacklochgeometrie untersucht. Es wurde eine keramische Kapillare zur Gasführung verwendet, welche über eine Positionierungsstrecke von außerhalb des Sacklocheinganges bis nahe an das innere Sacklochende verfahren wurde. Zur elektrischen Anregung wurde eine gepulste Gleichspannung mit einer Frequenz von 200 kHz direkt an den Probenkörper angeschlossen. Das Hauptziel war die Erarbeitung eines Grundlagenverständnisses über die Wirkmechanismen bei der Plasmagenerierung und der DLC-Beschichtung. Aufbauend auf die Analyse der Gasdruckverteilung und des Anregungssignals wurden Spannungs-Strom-Charakteristiken unter Argonatmosphäre bestimmt. Dabei konnte die Spannungs-Strom-Charakteristik in drei Bereiche unterteilt werden: die anormale Glimmentladung, die Hohlkathodenentladung und ein Übergang zur Lichtbogenentladung. Anhand eines Referenzprozesses wurden DLC-Schichten hergestellt. Die Haupteinflussgrößen elektrische Spannung und Gasdruck wurden während des Argonbombardements zur Plasmafeinreinigung in Bezug auf die Schichthaftung untersucht. Eine Verbesserung der Schichthaftung konnte durch die mit der Spannungssteigerung einhergehende Leistungserhöhung beobachtet werden. Der positive Effekt einer Re-Depositionsschicht aus Kathodenmaterial auf die Schichthaftung konnte nachgewiesen werden. Die Einflüsse auf die Schichteigenschaften wie Wachstumsraten, sowie Schichtdickenprofile und Schichthärte auf der Probenlängsachse konnten messtechnisch identifiziert werden. Die Schichtbereiche mit unterschiedlichen Wachstumsraten hängen stark von der Kapillarenposition ab. In weiteren Beschichtungsexperimenten wurden der Gesamtdruck, die elektrische Anregungsspannung und das Verhältnis aus Reaktivgas und Arbeitsgas variiert. Eine Unterscheidung von Bereichen nach Druck und aktiver Kathodenfläche in der Hohlkathode bei eingefahrener Kapillare konnte vorgenommen werden. Nachdem die Einflussgrößen und Mechanismen in den einzelnen HCD-Zonen identifiziert und analysiert wurden, werden die Prozesse zur Beschichtung von Sacklochgeometrien beherrscht. Aufbauend auf den Ergebnissen der Arbeit können die Parameter der Beschichtung in einer Sacklochgeometrie gezielt verändert werden.



https://www.db-thueringen.de/receive/dbt_mods_00038144
Sass, Florian;
Beitrag zur Systemsicherheit durch kurative Maßnahmen von HGÜ-Systemen - Ilmenau : Universitätsverlag Ilmenau, 2019 - XII, 187 Seiten. . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik : IBEGA. - Band 24)
Technische Universität Ilmenau, Dissertation 2018

ISBN 3-86360-195-5

Das europäische Energiesystem unterliegt derzeit einem strukturellen Wandel. Auslöser sind der verstärkte Zubau erneuerbarer Energieträger und ein sinkender Einsatz der konventionellen verbrauchernahen Kraftwerke. Um den steigenden Leistungstransiten begegnen zu können, sind Netzausbaumaßnahmen geplant, die auch den Einsatz von selbstgeführten HGÜ-Systemen umfassen. Um die Systemsicherheit trotz verzögertem Netzausbau zu gewährleisten, greifen die Übertragungsnetzbetreiber zunehmend auf kostenintensive Redispatch-Maßnahmen zurück. Ein koordinierter Einsatz kurativer Maßnahmen innerhalb des Netzbetriebs stellt derzeit einen relevanten Untersuchungsgegenstand dar, da kurative Maßnahmen eine senkende Wirkung auf den Redispatch-Aufwand versprechen. Die zukünftigen HGÜ-Systeme bieten neue Freiheitsgrade innerhalb der Netzbetriebsführung, die auch zur Erbringung kurativer Maßnahmen genutzt werden können. Wie diese den unterschiedlichen Phänomenen der Systemsicherheit zugeordnet werden können, wird in dieser Arbeit beschrieben. Der Hauptbeitrag liegt im Entwurf eines Verfahrens zur automatisierten Ausführung eventbasierter kurativer Anpassungen der Umrichter-Arbeitspunkte zur Beseitigung von Verletzungen der Systemsicherheit. Das in dieser Arbeit vorgestellte Verfahren wird als HGÜ-RAS bezeichnet. Die Umsetzung erfordert eine Identifikation kritischer Events, eine systemweite Koordination der Arbeitspunktänderungen, sowie einen geeigneten Ansatz zur netzverträglichen Ausführung dieser. Die Anforderungen werden durch drei Komponenten (Identifikation, Berechnung und Aktivierung) umgesetzt, die auch außerhalb des HGÜ-RAS in ähnlichen Problemstellungen Anwendung finden können. Der Methodenentwurf erfolgt unter stetiger Berücksichtigung von - aus Sicht der Übertragungsnetzbetreiber - interessanten Aspekten, um eine mögliche Einbindung in den bestehenden Netzbetrieb zu ermöglichen. Die Realisierbarkeit und Umsetzung der einzelnen Komponenten, sowie des gesamten HGÜ-RAS werden durch stationäre und dynamische Betrachtungen bewiesen. Dazu wird ein geeignetes AC-HGÜ-Benchmarknetz entworfen. Alle Betrachtungen erfolgen zunächst für ein vermaschtes HGÜ-Netz, können aber, wie in einem zusätzlichen Fallbeispiel gezeigt, auf einzelne HGÜ-Verbindungen übertragen werden. Die vorgestellte Methode schafft ein Werkzeug zur Erweiterung der bestehenden Netzbetriebsführung.



Wendl, Michael;
Lokalisierung von Störlichtbögen im Photovoltaiksystem - Ilmenau : Universitätsverlag Ilmenau, 2019 - 1 Online-Ressource (XXV, 189 Seiten). . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - Band 25)
Technische Universität Ilmenau, Dissertation 2018

In: Ilmenau : Universitätsverlag Ilmenau

Gegenstand der vorliegenden Arbeit ist die Erforschung, Verifikation und Validierung von Methoden zur automatischen Lokalisierung von Störlichtbögen im Photovoltaiksystem. Von besonderem Interesse ist hierfür das Verhalten der Brennspannung von Störlichtbögen in Photovoltaik- (PV-) Anlagen bei variablen Umgebungsbedingungen. Es wurden systematisch die hochfrequenten Signalanteile der Brennspannung von Gleichstrom-Lichtbögen im Frequenzbereich von 1 . . . 500 kHz untersucht und dabei realistische Umgebungsbedingungen gewählt, wie sie in Photovoltaikanlagen vorherrschen. Der Strom im Lichtbogen wurde von 2 . . . 17 A, der Elektrodenabstand von 0,2 . . . 4 mm variiert und als Elektrodenmaterialien wurden Kupfer, Aluminium und ein unlegierter Baustahl eingesetzt. Dabei wurde ein von der Literatur abweichender Verlauf des Leistungsdichtespektrums beobachtet, welcher meist für Lichtbögen mit höheren Strömen beschrieben wird. Durch Experimente mit Lichtbögen bei variabler Lastimpedanz konnte gezeigt werden, dass sich der Lichtbogen als hochfrequente Spannungsquelle beschreiben lässt. Basierend auf Charakterisierungsmessungen wurden Ersatzschaltbilder der Bestandteile eines Photovoltaiksystems bei verschiedenen Arbeitspunkten parametrisiert und damit eine reale PV-Anlage als Netzwerk modelliert. Die Simulation von seriellen Störlichtbögen im Photovoltaiksystem mit PSpice zeigte wie sich das Leistungsdichtespektrum des PV-Stroms bei unterschiedlichen Umgebungsbedingungen und Anlagenkonfigurationen verhält. Anhand von Simulationsergebnissen wurden verschiedene Konzepte zur automatischen Lokalisierung von Störlichtbögen in Photovoltaikanlagen bewertet. Das zielführendste Konzept wurde als Prototyp realisiert und einem Praxistest unterzogen. Dieses System war in der Lage, in einer realen Photovoltaikanlage alle dort gezündeten Lichtbögen korrekt zu lokalisieren. Im Rahmen der Forschungsarbeiten entstand ein Konferenzbeitrag (reviewed) zur "27th International Conference on Electrical Contacts" (ICEC) 2014 in Dresden: "HF Characterization of Low Current DC Arcs at Alterable Conditions" [142] Aufbauend auf den gewonnenen Erkenntnissen wurden folgende Erfindungen zum Patent angemeldet: 1. DE 102014226999 A1: Verfahren und Vorrichtung zum Erkennen eines Lichtbogens in einer Fotovoltaikanlage [141] 2. DE 102015204376 A1: Verfahren und Vorrichtung zum Erkennen eines Lichtbogens [144] 3. DE 102013219490 A1: Verfahren und Vorrichtung zum Lokalisieren eines Lichtbogens in einem Strompfad einer Fotovoltaikanlage [140] 4. DE 102013219494 A1: Verfahren und Vorrichtung zum Bestimmen einer Modultemperatur eines Photovoltaikmoduls [139] 5. DE 102012217878 A1: Verfahren und Vorrichtung zum Erkennen zumindest einer aktiven Bypassdiode in einem Photovoltaiksystem [90] 6. DE 102014223593 A1: Verfahren und Vorrichtung zum Ermitteln eines Degradationszustandes eines Fotovoltaikmoduls [143].



https://www.db-thueringen.de/receive/dbt_mods_00038197
Wendl, Michael;
Lokalisierung von Störlichtbögen im Photovoltaiksystem - Ilmenau : Universitätsverlag Ilmenau, 2019 - XXV, 189 Seiten. . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - Band 25)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-201-7

Gegenstand der vorliegenden Arbeit ist die Erforschung, Verifikation und Validierung von Methoden zur automatischen Lokalisierung von Störlichtbögen im Photovoltaiksystem. Von besonderem Interesse ist hierfür das Verhalten der Brennspannung von Störlichtbögen in Photovoltaik- (PV-) Anlagen bei variablen Umgebungsbedingungen. Es wurden systematisch die hochfrequenten Signalanteile der Brennspannung von Gleichstrom-Lichtbögen im Frequenzbereich von 1 . . . 500 kHz untersucht und dabei realistische Umgebungsbedingungen gewählt, wie sie in Photovoltaikanlagen vorherrschen. Der Strom im Lichtbogen wurde von 2 . . . 17 A, der Elektrodenabstand von 0,2 . . . 4 mm variiert und als Elektrodenmaterialien wurden Kupfer, Aluminium und ein unlegierter Baustahl eingesetzt. Dabei wurde ein von der Literatur abweichender Verlauf des Leistungsdichtespektrums beobachtet, welcher meist für Lichtbögen mit höheren Strömen beschrieben wird. Durch Experimente mit Lichtbögen bei variabler Lastimpedanz konnte gezeigt werden, dass sich der Lichtbogen als hochfrequente Spannungsquelle beschreiben lässt. Basierend auf Charakterisierungsmessungen wurden Ersatzschaltbilder der Bestandteile eines Photovoltaiksystems bei verschiedenen Arbeitspunkten parametrisiert und damit eine reale PV-Anlage als Netzwerk modelliert. Die Simulation von seriellen Störlichtbögen im Photovoltaiksystem mit PSpice zeigte wie sich das Leistungsdichtespektrum des PV-Stroms bei unterschiedlichen Umgebungsbedingungen und Anlagenkonfigurationen verhält. Anhand von Simulationsergebnissen wurden verschiedene Konzepte zur automatischen Lokalisierung von Störlichtbögen in Photovoltaikanlagen bewertet. Das zielführendste Konzept wurde als Prototyp realisiert und einem Praxistest unterzogen. Dieses System war in der Lage, in einer realen Photovoltaikanlage alle dort gezündeten Lichtbögen korrekt zu lokalisieren. Im Rahmen der Forschungsarbeiten entstand ein Konferenzbeitrag (reviewed) zur "27th International Conference on Electrical Contacts" (ICEC) 2014 in Dresden: "HF Characterization of Low Current DC Arcs at Alterable Conditions" [142] Aufbauend auf den gewonnenen Erkenntnissen wurden folgende Erfindungen zum Patent angemeldet: 1. DE 102014226999 A1: Verfahren und Vorrichtung zum Erkennen eines Lichtbogens in einer Fotovoltaikanlage [141] 2. DE 102015204376 A1: Verfahren und Vorrichtung zum Erkennen eines Lichtbogens [144] 3. DE 102013219490 A1: Verfahren und Vorrichtung zum Lokalisieren eines Lichtbogens in einem Strompfad einer Fotovoltaikanlage [140] 4. DE 102013219494 A1: Verfahren und Vorrichtung zum Bestimmen einer Modultemperatur eines Photovoltaikmoduls [139] 5. DE 102012217878 A1: Verfahren und Vorrichtung zum Erkennen zumindest einer aktiven Bypassdiode in einem Photovoltaiksystem [90] 6. DE 102014223593 A1: Verfahren und Vorrichtung zum Ermitteln eines Degradationszustandes eines Fotovoltaikmoduls [143].



Benkenstein, Andreas;
Die besonderen Bedingungen der Abscheidung von diamantähnlichen Kohlenstoffschichten in Hohlkathodenanordnungen mit hohen Aspektverhältnissen - Ilmenau : Universitätsverlag Ilmenau, 2019 - 203 Seiten.
Technische Universität Ilmenau, Dissertation 2018

ISBN 3-86360-200-5

In dieser Arbeit wurde eine Hohlkathodenentladung (engl.: hollow cathode discharge, kurz HCD) und die damit erzeugte diamantartige Kohlenstoffschicht (engl.: diamond-like carbon, kurz DLC) in einer Sacklochgeometrie untersucht. Es wurde eine keramische Kapillare zur Gasführung verwendet, welche über eine Positionierungsstrecke von außerhalb des Sacklocheinganges bis nahe an das innere Sacklochende verfahren wurde. Zur elektrischen Anregung wurde eine gepulste Gleichspannung mit einer Frequenz von 200 kHz direkt an den Probenkörper angeschlossen. Das Hauptziel war die Erarbeitung eines Grundlagenverständnisses über die Wirkmechanismen bei der Plasmagenerierung und der DLC-Beschichtung. Aufbauend auf die Analyse der Gasdruckverteilung und des Anregungssignals wurden Spannungs-Strom-Charakteristiken unter Argonatmosphäre bestimmt. Dabei konnte die Spannungs-Strom-Charakteristik in drei Bereiche unterteilt werden: die anormale Glimmentladung, die Hohlkathodenentladung und ein Übergang zur Lichtbogenentladung. Anhand eines Referenzprozesses wurden DLC-Schichten hergestellt. Die Haupteinflussgrößen elektrische Spannung und Gasdruck wurden während des Argonbombardements zur Plasmafeinreinigung in Bezug auf die Schichthaftung untersucht. Eine Verbesserung der Schichthaftung konnte durch die mit der Spannungssteigerung einhergehende Leistungserhöhung beobachtet werden. Der positive Effekt einer Re-Depositionsschicht aus Kathodenmaterial auf die Schichthaftung konnte nachgewiesen werden. Die Einflüsse auf die Schichteigenschaften wie Wachstumsraten, sowie Schichtdickenprofile und Schichthärte auf der Probenlängsachse konnten messtechnisch identifiziert werden. Die Schichtbereiche mit unterschiedlichen Wachstumsraten hängen stark von der Kapillarenposition ab. In weiteren Beschichtungsexperimenten wurden der Gesamtdruck, die elektrische Anregungsspannung und das Verhältnis aus Reaktivgas und Arbeitsgas variiert. Eine Unterscheidung von Bereichen nach Druck und aktiver Kathodenfläche in der Hohlkathode bei eingefahrener Kapillare konnte vorgenommen werden. Nachdem die Einflussgrößen und Mechanismen in den einzelnen HCD-Zonen identifiziert und analysiert wurden, werden die Prozesse zur Beschichtung von Sacklochgeometrien beherrscht. Aufbauend auf den Ergebnissen der Arbeit können die Parameter der Beschichtung in einer Sacklochgeometrie gezielt verändert werden.



Bernhart, Tobias;
Methodik zur Konzeption und Auslegung von Radbremsen für PKW mit elektrischem Antriebsstrang - Ilmenau : Universitätsverlag Ilmenau, 2019 - XVIII, 194 Seiten. . - (Kraftfahrzeugtechnische Berichte. - Band 9)
Technische Universität Ilmenau, Dissertation 2018

ISBN 3-86360-194-7

Angesichts der steigenden Elektrifizierung des Antriebsstrangs, schärferen gesetzlichen Anforderungen, beispielsweise hinsichtlich Feinstaubemissionen, sowie der stärkeren Entlastung des Fahrers durch weiterentwickelte, intelligente Assistenzsysteme und automatisiertes Fahren, steht die Automobil- und Zuliefererindustrie vor neuen Herausforderungen. In der vorliegenden Arbeit werden Methoden zur Konzeption und Auslegung von Radbremsen für PKW mit elektrischem Antriebsstrang entwickelt. Durch die Rückgewinnung kinetischer Energie beim Bremsvorgang (Rekuperation) wird die Radbremse thermisch entlastet. Jedoch sind derzeit keine automobilen Serienanwendungen bekannt, bei denen komplett auf die konventionelle Reibbremse verzichtet werden kann. Nach der Definition des Forschungsbedarfs werden, basierend auf der systematischen Evaluierung der Rückwirkungen der Rekuperation auf die thermische Belastung der Radbremsen und der Quantifizierung des Verschleißverhaltens, Empfehlungen zur konstruktiven Ausführung der Radbremsen abgeleitet. Bei der Quantifizierung der thermischen Beanspruchung werden sowohl leistungsorientierte Tests als auch die alpine Passabfahrt und kundennahe Fahr- und Verbrauchszyklen berücksichtigt. Das Verschleißverhalten der Radbremsen wird am Schwungmassenprüfstand und durch eine Feldstudie untersucht. Mit Blick auf die steigenden Vorgaben an die Reduktion des CO2-Ausstoßes und der Feinstaubemissionen ergeben sich neue Sichtweisen bezüglich der Dimensionierung in Richtung Leichtbau durch Downsizing und neuer Auslegungszyklen, nachdem das Kundennutzungsverhalten an den aktuellen Standards der Bremsenentwicklung gespiegelt wurde. Die Entwicklungstrends auf dem Gebiet des elektrischen Antriebsstrangs, die Wirtschaftlichkeit, die gesetzlichen Rahmenbedingungen und die Anforderungen der Märkte werden in die Methodik integriert. Durch die detaillierten Betrachtungen wird ein Beitrag zur energieeffizienten Auslegung eines PKW mit elektrischem Antriebsstrang geleistet und ein Ansatzpunkt zur Vermeidung von Überdimensionierungen am Beispiel der Radbremse aufgezeigt.



Wolfram, Martin;
Netzbetriebsverfahren zur Koordinierung von Phasenschiebertransformatoren und HGÜ-Verbindungen im Verbundnetz - Ilmenau : Universitätsverlag Ilmenau, 2019 - 1 Online-Ressource (X, 150 Seiten). . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA). - Band 23)
Technische Universität Ilmenau, Dissertation 2018

In: Ilmenau : Universitätsverlag Ilmenau

Die Übertragungsnetzbetreiber (ÜNB) reagieren auf entstehende Überlastungen einzelner AC-Leitungen sowohl mit dem Ausbau des AC-Netzes als auch mit der vermehrten Integration von Power Flow Controlling Devices (PFCD), wie Phasenschiebertransformatoren (PST) und Hochspannungsgleichstromübertragungen (HGÜ), die eine definierte Beeinflussung der AC-Wirkleistungsflüsse ermöglichen. Gleichzeitig verändert der Einsatz der PFCDs auch die Wirkleistungsflüsse auf weiter entfernten AC-Leitungen in anderen Regelzonen. Zur Vermeidung von negativen Wechselwirkungen zwischen PFCDs widmet sich die Arbeit der Fragestellung, wie sich geeignete Arbeitspunkte von PSTs und HGÜs, basierend auf Voltage Source Converter (VSC), zur Wahrung der Netzsicherheit bestimmen lassen. Dazu wird ein Netzbetriebsverfahren entworfen, dass unterschiedliche Methoden zur Koordinierung der PFCDs verwendet, um so auf die verschiedenen zeitlichen Gegebenheiten während der Netzbetriebsplanung und der Netzbetriebsführung einzugehen. Dementsprechend unterteilt sich das Netzbetriebsverfahren in die vorausschauende Planung von PST- und HGÜ-VSC-Netzbetrieb im Day-Ahead und Intraday Zeitbereich sowie in Methoden zur Anpassung der PST- und HGÜ-VSC-Sollwerte bei unplanmäßigen Wirkleistungsflussänderungen im Onlinebetrieb. Dabei wird in der Netzbetriebsplanung die Optimierung der Arbeitspunkte von einer zentralen Instanz koordiniert durchgeführt. Im Onlinebetrieb ist dieser kommunikationsintensive Datenaustausch aufgrund der geforderten kurzen Reaktionszeit auf Störungen nicht möglich. Entsprechend wird bei diesen Methoden auf lokal verfügbare Daten zurückgegriffen. Die Validierung der entworfenen Methoden zur Optimierung der PST- und HGÜ-VSC Sollwerte erfolgt mithilfe numerischer Fallstudien. Ein dafür entworfenes Testnetz ermöglicht eine Abbildung verschiedener Leitungsbelastungssituationen sowie unterschiedlicher Störungen. In den durchgeführten Untersuchungen wird gezeigt, dass die vorgestellten Methoden ein geeignetes Netzbetriebsverfahren für den optimalen Einsatz von PSTs und HGÜ-VSCs darstellen. Einschränkungen ergeben sich bei größeren Störungen, in denen die technischen PFCD-Anpassungsmöglichkeiten nicht ausreichend sind. In diesem Fall sind geeignete weitere Maßnahmen einzuleiten.



https://www.db-thueringen.de/receive/dbt_mods_00038051
Wolfram, Martin;
Netzbetriebsverfahren zur Koordinierung von Phasenschiebertransformatoren und HGÜ-Verbindungen im Verbundnetz - Ilmenau : Universitätsverlag Ilmenau, 2019 - X, 150 Seiten. . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA). - Band23)
Technische Universität Ilmenau, Dissertation 2018

ISBN 3863601920 = 978-3-86360-192-8

Die Übertragungsnetzbetreiber (ÜNB) reagieren auf entstehende Überlastungen einzelner AC-Leitungen sowohl mit dem Ausbau des AC-Netzes als auch mit der vermehrten Integration von Power Flow Controlling Devices (PFCD), wie Phasenschiebertransformatoren (PST) und Hochspannungsgleichstromübertragungen (HGÜ), die eine definierte Beeinflussung der AC-Wirkleistungsflüsse ermöglichen. Gleichzeitig verändert der Einsatz der PFCDs auch die Wirkleistungsflüsse auf weiter entfernten AC-Leitungen in anderen Regelzonen. Zur Vermeidung von negativen Wechselwirkungen zwischen PFCDs widmet sich die Arbeit der Fragestellung, wie sich geeignete Arbeitspunkte von PSTs und HGÜs, basierend auf Voltage Source Converter (VSC), zur Wahrung der Netzsicherheit bestimmen lassen. Dazu wird ein Netzbetriebsverfahren entworfen, dass unterschiedliche Methoden zur Koordinierung der PFCDs verwendet, um so auf die verschiedenen zeitlichen Gegebenheiten während der Netzbetriebsplanung und der Netzbetriebsführung einzugehen. Dementsprechend unterteilt sich das Netzbetriebsverfahren in die vorausschauende Planung von PST- und HGÜ-VSC-Netzbetrieb im Day-Ahead und Intraday Zeitbereich sowie in Methoden zur Anpassung der PST- und HGÜ-VSC-Sollwerte bei unplanmäßigen Wirkleistungsflussänderungen im Onlinebetrieb. Dabei wird in der Netzbetriebsplanung die Optimierung der Arbeitspunkte von einer zentralen Instanz koordiniert durchgeführt. Im Onlinebetrieb ist dieser kommunikationsintensive Datenaustausch aufgrund der geforderten kurzen Reaktionszeit auf Störungen nicht möglich. Entsprechend wird bei diesen Methoden auf lokal verfügbare Daten zurückgegriffen. Die Validierung der entworfenen Methoden zur Optimierung der PST- und HGÜ-VSC Sollwerte erfolgt mithilfe numerischer Fallstudien. Ein dafür entworfenes Testnetz ermöglicht eine Abbildung verschiedener Leitungsbelastungssituationen sowie unterschiedlicher Störungen. In den durchgeführten Untersuchungen wird gezeigt, dass die vorgestellten Methoden ein geeignetes Netzbetriebsverfahren für den optimalen Einsatz von PSTs und HGÜ-VSCs darstellen. Einschränkungen ergeben sich bei größeren Störungen, in denen die technischen PFCD-Anpassungsmöglichkeiten nicht ausreichend sind. In diesem Fall sind geeignete weitere Maßnahmen einzuleiten.



TEST4http://www.gbv.de/dms/ilmenau/toc/1046429817.PDF
Schricker, Klaus;
Charakterisierung der Fügezone von laserbasiert gefügten Hybridverbunden aus teilkristallinen thermoplastischen Kunststoffen und Metallen - Ilmenau : Universitätsverlag Ilmenau, 2018 - 1 Online-Ressource (204 Seiten). . - (Fertigungstechnik - aus den Grundlagen für die Anwendung. - Band 8)
Technische Universität Ilmenau, Dissertation 2018

In: Ilmenau : Universitätsverlag Ilmenau

Das thermische Fügen ermöglicht die direkte Herstellung von Kunststoff-Metall-Verbunden ohne Verwendung von Zusatzstoffen oder Fügehilfselementen. Im Rahmen der Arbeit wurde die Fügezone zwischen teilkristallinen Kunststoffen und Metallen im laserbasierten Fügen beschrieben und der Einfluss auf die mechanischen Verbundeigenschaften ermittelt. Zur Abbildung eines breiten Anwendungsspektrums wurden die Untersuchungen anhand von Aluminium (EN AW 6082) und Stahl (X5CrNi18-10) sowie für PA 6, PA 6.6 und PP durchgeführt. Die Charakterisierung der Fügezone erfolgte an Punktverbindungen sowie unter Einsatz eines Halbschnittversuchsstandes. Auf Basis von experimentellen Untersuchungen sowie der thermischen Simulation konnte die Fügezone anhand charakteristischer Isothermen verallgemeinert werden. Darauf aufbauend wurden wesentliche Vorgänge innerhalb der Fügezone (Schmelzen/Erstarren, Blasenbildung, Strömung) erfasst und mit dem Temperaturfeld bzw. werkstoffspezifischen Eigenschaften verknüpft. Die Schmelzzone innerhalb des Kunststoffes ist dabei maßgeblich für die Verbundherstellung zwischen beiden Werkstoffen und weist gegenüber dem Grundwerkstoff eine veränderte Morphologie sowie modifizierte Materialeigenschaften auf. Die Größe der Schmelzzone zeigt eine hohe Sensitivität gegenüber der Materialstärke des metallischen Fügepartners, der Laserstrahlleistung sowie dem Schmelzintervall des Kunststoffes. Im Hinblick auf die Verbundentstehung wurde die Bedeutung der Temperaturverteilung gegenüber der Fügezeit zur Füllung der Oberflächenstrukturen sowie eine unterstützende Wirkung der Volumenzunahme im Phasenübergang fest-flüssig nachgewiesen.Die gewonnen Erkenntnissen wurden auf Überlappverbindungen übertragen und die Fügezone in Abhängigkeit der Streckenenergie charakterisiert. Darauf aufbauend erfolgte die Untersuchung der mechanischen Eigenschaften eines Verbundes aus PA 6 mit EN AW 6082 hinsichtlich des kohäsiven Versagensverhaltens. Steigende Streckenenergien führten zu einer verringerten Duktilität des Verbundes in der mechanischen Kurzzeitprüfung sowie zu einer nachteiligen Beeinflussung des Ermüdungsverhaltens. Als maßgeblicher Effekt wurde die Sekundärkristallisation des Kunststoffes identifiziert, die auf eine Wärmebehandlung der Schmelzzone im Fügeprozess zurückgeführt und anhand von Auslagerungsversuchen an Vergleichsproben verifiziert werden konnte.



https://www.db-thueringen.de/receive/dbt_mods_00038207
Schricker, Klaus;
Charakterisierung der Fügezone von laserbasiert gefügten Hybridverbunden aus teilkristallinen thermoplastischen Kunststoffen und Metallen - Ilmenau : Universitätsverlag Ilmenau, 2018 - 204 Seiten. . - (Fertigungstechnik - aus den Grundlagen für die Anwendung. - Band 8)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-202-4

Das thermische Fügen ermöglicht die direkte Herstellung von Kunststoff-Metall-Verbunden ohne Verwendung von Zusatzstoffen oder Fügehilfselementen. Im Rahmen der Arbeit wurde die Fügezone zwischen teilkristallinen Kunststoffen und Metallen im laserbasierten Fügen beschrieben und der Einfluss auf die mechanischen Verbundeigenschaften ermittelt. Zur Abbildung eines breiten Anwendungsspektrums wurden die Untersuchungen anhand von Aluminium (EN AW 6082) und Stahl (X5CrNi18-10) sowie für PA 6, PA 6.6 und PP durchgeführt. Die Charakterisierung der Fügezone erfolgte an Punktverbindungen sowie unter Einsatz eines Halbschnittversuchsstandes. Auf Basis von experimentellen Untersuchungen sowie der thermischen Simulation konnte die Fügezone anhand charakteristischer Isothermen verallgemeinert werden. Darauf aufbauend wurden wesentliche Vorgänge innerhalb der Fügezone (Schmelzen/Erstarren, Blasenbildung, Strömung) erfasst und mit dem Temperaturfeld bzw. werkstoffspezifischen Eigenschaften verknüpft. Die Schmelzzone innerhalb des Kunststoffes ist dabei maßgeblich für die Verbundherstellung zwischen beiden Werkstoffen und weist gegenüber dem Grundwerkstoff eine veränderte Morphologie sowie modifizierte Materialeigenschaften auf. Die Größe der Schmelzzone zeigt eine hohe Sensitivität gegenüber der Materialstärke des metallischen Fügepartners, der Laserstrahlleistung sowie dem Schmelzintervall des Kunststoffes. Im Hinblick auf die Verbundentstehung wurde die Bedeutung der Temperaturverteilung gegenüber der Fügezeit zur Füllung der Oberflächenstrukturen sowie eine unterstützende Wirkung der Volumenzunahme im Phasenübergang fest-flüssig nachgewiesen.Die gewonnen Erkenntnissen wurden auf Überlappverbindungen übertragen und die Fügezone in Abhängigkeit der Streckenenergie charakterisiert. Darauf aufbauend erfolgte die Untersuchung der mechanischen Eigenschaften eines Verbundes aus PA 6 mit EN AW 6082 hinsichtlich des kohäsiven Versagensverhaltens. Steigende Streckenenergien führten zu einer verringerten Duktilität des Verbundes in der mechanischen Kurzzeitprüfung sowie zu einer nachteiligen Beeinflussung des Ermüdungsverhaltens. Als maßgeblicher Effekt wurde die Sekundärkristallisation des Kunststoffes identifiziert, die auf eine Wärmebehandlung der Schmelzzone im Fügeprozess zurückgeführt und anhand von Auslagerungsversuchen an Vergleichsproben verifiziert werden konnte.



Brumm, Stefan;
Leistungssteigerung beim Lichtbogenschweißen durch Verwendung von Drahtelektroden größeren Durchmessers - Ilmenau : Universitätsverlag Ilmenau, 2018 - 1 Online-Ressource (xvii, 141 Seiten). . - (Fertigungstechnik - aus den Grundlagen für die Anwendung. - Band 6)
Technische Universität Ilmenau, Dissertation 2018

In: Ilmenau : Universitätsverlag Ilmenau

Bei der Herstellung geschweißter Konstruktionen ergeben sich heute aufgrund wirtschaftlicher Gesichtspunkte hohe Anforderungen an die Quantität, ohne dass dabei die Qualität vernachlässigt werden kann. Das Schweißverfahren bestimmt nicht nur die Mikrostruktur des erstarrten Gefüges und somit die mechanisch-technologischen Verbindungseigenschaften, sondern auch die Wirtschaftlichkeit. Bisher werden beim MSG-Schweißen Drahtelektroden mit Durchmessern bis zu 2,4 mm eingesetzt. In der vorliegenden Arbeit wurde untersucht, wie sich die Vergrößerung des Drahtelektrodendurchmessers auf den MSG-Prozess in seiner Gesamtheit auswirkt. Dafür wurde der Stand der Technik der Hochleistungslichtbogenschweißverfahren beleuchtet und ein Modell aufgestellt. Die experimentellen Versuche erfolgten mit einer vollelektronischen, sekundär getakteten Hochleistungs-Stromquelle und teilten sich in zwei Schwerpunkte. Zum einen zur Schaffung von Grundlagen zur Lichtbogenausbildung sowie zum Prozessverständnis und zum anderen zur Qualifizierung des MSG-Dickdraht-Verfahrens. Dabei stand die Wechselwirkung zwischen Lichtbogen und Schweißnaht im Mittelpunkt. Überprüft wurden mögliche technologische Vorteile. Für die Untersuchung kamen Massivdrahtelektroden (G3Si1) mit unterschiedlichen Durchmessern (dd = 3,2 und 4,0 mm) zum Einsatz. Zur Prozess- und Lichtbogenanalyse wurde auf einem rohrförmigen Probekörper aus niedrig legiertem Stahl sowohl mit CV- als auch CC-Charakteristik geschweißt. Messtechnisch erfasst wurden Stromstärke und Spannung. Synchronisierte Hochgeschwindigkeitsaufnahmen dienten der Betrachtung und Beurteilung von Tropfenentstehung, -ablösung und Lichtbogenausbildung sowie Schmelzbaddynamik. Für die Ermittlung der Schweißverbindungseigenschaften wurden Bleche mit den Dicken von 12, 15 und 20 mm geschweißt. Durch Versuche konnte die optimale Schutzgaszumischung von 30 % Ar Rest CO2 in Bezug auf die Spritzerbildung und das innere sowie äußere Nahtaussehen ermittelt werden. Höhere Anteile an Ar waren nicht zielführend. Die umfassende Prozess- und Lichtbogenanalyse zeigte, dass beim MSG-Schweißen mit "dicken" Drahtelektroden die klassische schweißleistungsabhängige Einteilung der Lichtbogenarten, wie vom MSG-Schweißen mit Drahtdurchmessern bis 1,6 mm bekannt, in Kurz-, Übergangs- und Sprühlichtbogen nicht möglich ist. Ein sehr kurzer Lichtbogen, der unterhalb der Blechoberfläche brennt, erwies sich in allen untersuchten Leistungsbereichen als vorteilhaft, da die Spritzerhäufigkeit mit Steigerung der Lichtbogenlänge zunimmt. Aufgrund der hohen Regelgeschwindigkeit der Schweißmaschine ist ein Schweißen mit solch kurzen Lichtbögen möglich. Bei langen Lichtbögen, die aus der Blechoberfläche heraustreten, wird das Schweißgut aus dem Bereich der Fügezone verdrängt und es kommt zum "Schneid-Effekt". Das Lichtbogenplasma ist dominiert von Metalldampf. Dadurch hat die Schutzgaszusammensetzung keinen wesentlichen Einfluss auf die innere Schweißnahtgeometrie. Vergleichende Schweißversuche zeigten, dass bei Verwendung der CC-Kennlinie sowohl der Prozess stabiler abläuft als auch die Spritzerbildung geringer ist als bei Nutzung der CV-Kennlinie. Bei jeder Tropfenablösung ändert sich die Lichtbogenlänge, die durch die Regelung der Schweißmaschine ausgeglichen wird. Eine Delta U-Regelung verursacht eine Spannungsänderung, die sich auf eine spritzerarme Tropfenablösung positiv auswirkt. Hingegen verursacht die Delta I-Regelung bei einer Lichtbogenlängenänderung Stromschwankungen von bis zu 400 A, was dazu führt, dass die Tropfen unter Entstehung vieler Spritzer regelrecht weggesprengt werden. Für die Schweißverbindungen wurde deshalb mit der CC-Kennlinie gearbeitet. Beim UP-Schweißen wird die Schweißmaschinen-Kennlinie nach dem Drahtdurchmesser gewählt. Eine solche Auswahl kann beim MSG-Dickdraht-Schweißen nicht erfolgen. Die vom UP-Schweißen bekannte Faustformel der Strombelastbarkeit der Drahtelektrode von 200 multipliziert mit dem Drahtdurchmesser (Ergebnis in Ampere) kann für das MSG-Dickdraht-Schweißen angewendet werden. Es ist ein stabiler Prozess mit akzeptabler Schweißnahtqualität beim MSG-Schweißen mit einem Drahtelektrodendurchmesser von 3,2 mm und einer Stromstärke von 640 A möglich. Abschmelzleistungen von über 8 kg/h sind ohne Weiteres erreichbar. Durch Änderung der Streckenenergie infolge der Erhöhung der Stromstärke ist die Einschweißtiefe beeinflussbar. Ein weiterer Einflussfaktor auf die innere Schweißnahtgeometrie ist die Schweißgeschwindigkeit. Eine Steigerung der Schweißgeschwindigkeit führt aufgrund der Senkung der Streckenenergie zur Reduzierung der Einschweißtiefe. Mit dem verwendeten Versuchsaufbau konnte eine maximale Schweißgeschwindigkeit von 120 cm/min realisiert werden. Die obere und untere Grenze für die Schweißgeschwindigkeit ist abhängig von der Schweißleistung. Im Vergleich mit dem UP-Schweißen ist in Bezug auf die Nahtausbildung festzuhalten, dass die Oberflächenschuppung und Formung des Nahtäußeren beim UP-Schweißen wesentlich besser ausfällt. Eine Einstellung der Nahtbreite über die Lichtbogenspannung, wie es beim UP-Schweißen möglich ist, kann bei MSG-Dickdraht-Schweißen aufgrund der sehr kurz einzustellenden Lichtbögen nicht realisiert werden. Die Nahtbreite ist nur geringfügig über die Schweißgeschwindigkeit einstellbar. Es muss erwähnt werden, dass das MSG-Dickdraht-Schweißen im Gegensatz zum UP-Schweißen ein sehr sensibler Prozess ist, bei dem kleinste Prozessinstabilitäten zu Poren und -nestern im Schweißgut führen können. Um die Qualität der Schweißverbindung zu bestimmen, wurden verschiedene zerstörungsfreie und zerstörende Prüfverfahren eingesetzt. Die Sichtprüfungen sowie die Farbeindringprüfungen ergaben, dass die Schweißnähte hinsichtlich der Oberfläche in Bezug auf Einbrandkerben, Oberflächenporen und Risse bis auf wenige Ausnahmen eine hohe Qualität aufwiesen. Bei der Durchstrahlungsprüfung wurde festgestellt, dass aufgrund einer diskontinuierlichen Drahtförderung und Schweißbewegungen Poren im Nahtinneren entstanden. Porenfreie Schweißnähte können aber bei exakter Drahtförderung und kontinuierlicher Schweißgeschwindigkeit prozesssicher erzeugt werden. Härtespitzen im Bereich der Wärmeeinflusszone an der Schmelzlinie erreichen Maximalwerte von 326 HV10. Darüber hinaus erwies sich die Kerbschlagzähigkeit des Schweißgutes als weitaus besser als die des Grundwerkstoffes. Die Zugproben versagten bis auf eine Ausnahme im Grundwerkstoff. Ursache hierfür war ein Porennest am Nahtende, welches durch die oben genannte Prozessinstabilität entstand. Bei Einhaltung aller prozessbedingten Besonderheiten und unter Beachtung der verfahrensspezifischen Randbedingungen können mit dem MSG-Dickdraht-Verfahren anforderungsgerechte Schweißnähte hergestellt werden. Die Untersuchungen ergaben, dass die Lage/Gegenlage-Technik empfehlenswert ist. Schweißungen an 20 mm Blechen konnten mit einer Lage pro Seite und Schweißgeschwindigkeiten von bis zu 90 cm/min prozesssicher ausgeführt werden.



https://www.db-thueringen.de/receive/dbt_mods_00035463
Brumm, Stefan;
Leistungssteigerung beim Lichtbogenschweißen durch Verwendung von Drahtelektroden größeren Durchmessers - Ilmenau : Universitätsverlag Ilmenau, 2018 - xvii, 141 Seiten. . - (Fertigungstechnik - aus den Grundlagen für die Anwendung. - Band 6)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-191-1

Bei der Herstellung geschweißter Konstruktionen ergeben sich heute aufgrund wirtschaftlicher Gesichtspunkte hohe Anforderungen an die Quantität, ohne dass dabei die Qualität vernachlässigt werden kann. Das Schweißverfahren bestimmt nicht nur die Mikrostruktur des erstarrten Gefüges und somit die mechanisch-technologischen Verbindungseigenschaften, sondern auch die Wirtschaftlichkeit. Bisher werden beim MSG-Schweißen Drahtelektroden mit Durchmessern bis zu 2,4 mm eingesetzt. In der vorliegenden Arbeit wurde untersucht, wie sich die Vergrößerung des Drahtelektrodendurchmessers auf den MSG-Prozess in seiner Gesamtheit auswirkt. Dafür wurde der Stand der Technik der Hochleistungslichtbogenschweißverfahren beleuchtet und ein Modell aufgestellt. Die experimentellen Versuche erfolgten mit einer vollelektronischen, sekundär getakteten Hochleistungs-Stromquelle und teilten sich in zwei Schwerpunkte. Zum einen zur Schaffung von Grundlagen zur Lichtbogenausbildung sowie zum Prozessverständnis und zum anderen zur Qualifizierung des MSG-Dickdraht-Verfahrens. Dabei stand die Wechselwirkung zwischen Lichtbogen und Schweißnaht im Mittelpunkt. Überprüft wurden mögliche technologische Vorteile. Für die Untersuchung kamen Massivdrahtelektroden (G3Si1) mit unterschiedlichen Durchmessern (dd = 3,2 und 4,0 mm) zum Einsatz. Zur Prozess- und Lichtbogenanalyse wurde auf einem rohrförmigen Probekörper aus niedrig legiertem Stahl sowohl mit CV- als auch CC-Charakteristik geschweißt. Messtechnisch erfasst wurden Stromstärke und Spannung. Synchronisierte Hochgeschwindigkeitsaufnahmen dienten der Betrachtung und Beurteilung von Tropfenentstehung, -ablösung und Lichtbogenausbildung sowie Schmelzbaddynamik. Für die Ermittlung der Schweißverbindungseigenschaften wurden Bleche mit den Dicken von 12, 15 und 20 mm geschweißt. Durch Versuche konnte die optimale Schutzgaszumischung von 30 % Ar Rest CO2 in Bezug auf die Spritzerbildung und das innere sowie äußere Nahtaussehen ermittelt werden. Höhere Anteile an Ar waren nicht zielführend. Die umfassende Prozess- und Lichtbogenanalyse zeigte, dass beim MSG-Schweißen mit "dicken" Drahtelektroden die klassische schweißleistungsabhängige Einteilung der Lichtbogenarten, wie vom MSG-Schweißen mit Drahtdurchmessern bis 1,6 mm bekannt, in Kurz-, Übergangs- und Sprühlichtbogen nicht möglich ist. Ein sehr kurzer Lichtbogen, der unterhalb der Blechoberfläche brennt, erwies sich in allen untersuchten Leistungsbereichen als vorteilhaft, da die Spritzerhäufigkeit mit Steigerung der Lichtbogenlänge zunimmt. Aufgrund der hohen Regelgeschwindigkeit der Schweißmaschine ist ein Schweißen mit solch kurzen Lichtbögen möglich. Bei langen Lichtbögen, die aus der Blechoberfläche heraustreten, wird das Schweißgut aus dem Bereich der Fügezone verdrängt und es kommt zum "Schneid-Effekt". Das Lichtbogenplasma ist dominiert von Metalldampf. Dadurch hat die Schutzgaszusammensetzung keinen wesentlichen Einfluss auf die innere Schweißnahtgeometrie. Vergleichende Schweißversuche zeigten, dass bei Verwendung der CC-Kennlinie sowohl der Prozess stabiler abläuft als auch die Spritzerbildung geringer ist als bei Nutzung der CV-Kennlinie. Bei jeder Tropfenablösung ändert sich die Lichtbogenlänge, die durch die Regelung der Schweißmaschine ausgeglichen wird. Eine Delta U-Regelung verursacht eine Spannungsänderung, die sich auf eine spritzerarme Tropfenablösung positiv auswirkt. Hingegen verursacht die Delta I-Regelung bei einer Lichtbogenlängenänderung Stromschwankungen von bis zu 400 A, was dazu führt, dass die Tropfen unter Entstehung vieler Spritzer regelrecht weggesprengt werden. Für die Schweißverbindungen wurde deshalb mit der CC-Kennlinie gearbeitet. Beim UP-Schweißen wird die Schweißmaschinen-Kennlinie nach dem Drahtdurchmesser gewählt. Eine solche Auswahl kann beim MSG-Dickdraht-Schweißen nicht erfolgen. Die vom UP-Schweißen bekannte Faustformel der Strombelastbarkeit der Drahtelektrode von 200 multipliziert mit dem Drahtdurchmesser (Ergebnis in Ampere) kann für das MSG-Dickdraht-Schweißen angewendet werden. Es ist ein stabiler Prozess mit akzeptabler Schweißnahtqualität beim MSG-Schweißen mit einem Drahtelektrodendurchmesser von 3,2 mm und einer Stromstärke von 640 A möglich. Abschmelzleistungen von über 8 kg/h sind ohne Weiteres erreichbar. Durch Änderung der Streckenenergie infolge der Erhöhung der Stromstärke ist die Einschweißtiefe beeinflussbar. Ein weiterer Einflussfaktor auf die innere Schweißnahtgeometrie ist die Schweißgeschwindigkeit. Eine Steigerung der Schweißgeschwindigkeit führt aufgrund der Senkung der Streckenenergie zur Reduzierung der Einschweißtiefe. Mit dem verwendeten Versuchsaufbau konnte eine maximale Schweißgeschwindigkeit von 120 cm/min realisiert werden. Die obere und untere Grenze für die Schweißgeschwindigkeit ist abhängig von der Schweißleistung. Im Vergleich mit dem UP-Schweißen ist in Bezug auf die Nahtausbildung festzuhalten, dass die Oberflächenschuppung und Formung des Nahtäußeren beim UP-Schweißen wesentlich besser ausfällt. Eine Einstellung der Nahtbreite über die Lichtbogenspannung, wie es beim UP-Schweißen möglich ist, kann bei MSG-Dickdraht-Schweißen aufgrund der sehr kurz einzustellenden Lichtbögen nicht realisiert werden. Die Nahtbreite ist nur geringfügig über die Schweißgeschwindigkeit einstellbar. Es muss erwähnt werden, dass das MSG-Dickdraht-Schweißen im Gegensatz zum UP-Schweißen ein sehr sensibler Prozess ist, bei dem kleinste Prozessinstabilitäten zu Poren und -nestern im Schweißgut führen können. Um die Qualität der Schweißverbindung zu bestimmen, wurden verschiedene zerstörungsfreie und zerstörende Prüfverfahren eingesetzt. Die Sichtprüfungen sowie die Farbeindringprüfungen ergaben, dass die Schweißnähte hinsichtlich der Oberfläche in Bezug auf Einbrandkerben, Oberflächenporen und Risse bis auf wenige Ausnahmen eine hohe Qualität aufwiesen. Bei der Durchstrahlungsprüfung wurde festgestellt, dass aufgrund einer diskontinuierlichen Drahtförderung und Schweißbewegungen Poren im Nahtinneren entstanden. Porenfreie Schweißnähte können aber bei exakter Drahtförderung und kontinuierlicher Schweißgeschwindigkeit prozesssicher erzeugt werden. Härtespitzen im Bereich der Wärmeeinflusszone an der Schmelzlinie erreichen Maximalwerte von 326 HV10. Darüber hinaus erwies sich die Kerbschlagzähigkeit des Schweißgutes als weitaus besser als die des Grundwerkstoffes. Die Zugproben versagten bis auf eine Ausnahme im Grundwerkstoff. Ursache hierfür war ein Porennest am Nahtende, welches durch die oben genannte Prozessinstabilität entstand. Bei Einhaltung aller prozessbedingten Besonderheiten und unter Beachtung der verfahrensspezifischen Randbedingungen können mit dem MSG-Dickdraht-Verfahren anforderungsgerechte Schweißnähte hergestellt werden. Die Untersuchungen ergaben, dass die Lage/Gegenlage-Technik empfehlenswert ist. Schweißungen an 20 mm Blechen konnten mit einer Lage pro Seite und Schweißgeschwindigkeiten von bis zu 90 cm/min prozesssicher ausgeführt werden.



Sen, Seema;
Development of PVD-coated and nanostructured reactive multilayer films - Ilmenau : Universitätsverlag Ilmenau, 2018 - XVII, 166 Seiten. . - (Werkstofftechnik aktuell. - Band 19)
Technische Universität Ilmenau, Dissertation 2018

ISBN 3863601890 = 978-3-86360-189-8

Als eine neue Klasse von energetischen Materialien speichern die reaktiven Multilagensysteme die chemische Energie. Sie setzen eine große Menge der Energie durch eine schnelle Reaktionspropagation nach einer Aktivierung in der Form von Wärme frei. Im Zusammenhang mit dem zunehmenden Potenzial in den hochmodernen Fügetechnologien und den anderen Industrieanwendungen finden solche Typen von reaktiven Mehrschichtensystemen große Aufmerksamkeit. Das hohe Interesse konzentriert sich auf die Anwendung der sehr schnellen und lokalisierten Energie Freisetzung. Die Kenntnisse über die Materialkombinationen und Morphologie spielt eine wichtige Rolle, um reaktive Mehrschichtensysteme mit entsprechenden Reaktionseigenschaften und Wärmemenge herzustellen. Im Mittelpunkt dieser Arbeit stehen daher die Entwicklung der Schichtweise abgeschiedenen reaktiven Multilagenschichten und die Charakterisierung der Reaktionseigenschaften. Die eingestellten Bereiche können wie folgt zusammengefasst werden; - Die reaktiven Multilagenschichten von binären Ti-Al, Zr-Al und ternären Ti-Al-Si Kombinationen wurden mittels Magnetronsputtern-Deposition produziert, die zu der niedrigen Medium oder hohen Energieklasse gehören. - Die selbstverbreitenden Reaktionseigenschaften wurden in Bezug auf Wärme, Temperatur, Reaktionsgeschwindigkeit und Propagationsweisen charakterisiert. - Herstellung der großflächigen freistehenden reaktiven Folien wurde aufgezeigt. Für die Bestimmung der Reaktionswärme wurde die Standardbildungsenthalpie zu Beginn der Arbeit durch thermodynamische Simulationen mit Thermo-Calc 3.1 berechnet. Die Menge der Reaktionswärme hängt von der chemischen Zusammensetzung des Ti-Al-, Zr-Al- und Ti-Si Systems ab. Dann wurden Ti/Al, Zr/Al und Ti/Si/Ti/nAl Multilagenschichten für unterschiedliche Periodendicken, Molverhältnisse und Multischichtaufbau abgeschieden. Die Ti/nAl (n = 1-3) reaktiven Multilagenschichten wurden mit verschiedenen Al-Molverhältnissen hergestellt. Die Reaktionsgeschwindigkeit änderte sich zwischen (0.68±0.4) m/s und (2.57±0.6) m/s. Die Reaktionstemperatur änderte sich im Bereich 1215-1298 &ring;C. Die 1Ti/3Al Schicht zeigt auch eine instationäre Reaktionspropagation mit der Kräuselungsbandbildung. Außerdem wurden der Temperaturfluss und die chemische Vermischung in nanoskalige Schichten von 1Ti/1Al Zusammensetzung (für 20 nm Periodendicke) erstmals mittels Strömung Simulation berechnet. Die Ergebnisse zeigten, dass der Temperaturfluss viel schneller als das chemische Mischen während der fortschreitenden Reaktion ist. Die 1Zr/1Al Schichten wurden mit der verschiedenen Periodendicken von 20 nm bis 55 nm untersucht. Die Reaktionsgeschwindigkeit und Reaktionstemperatur änderten sich im Bereich 0.23-1.22 m/s und 1581-1707 &ring;C. Hier wurde auch die Oxidationsreaktion während der fortschreitenden Reaktion aufgezeigt. Zum ersten Mal wurden ternäre Multilagenschichten von Ti, Si und Al-Reaktanten für verschiedene Schichtenanordnung (Si/Ti/Al/Si und Ti/Si/Ti/nAl, n = 1-3) abgeschieden. Hier, Reaktionseigenschaften hängten von Schichtenanordnung und Al-Molverhältnissen ab. Für den Ti/Si/Ti/Al Schicht konnte eine maximale Reaktionspropagation von (9.2±2) m/s und eine Reaktionstemperatur von (1807±30) &ring;C bestimmt werden. Danach wurden die vorgenannten ternären Folien erstmals in einem reaktiven Fügeprozess eingesetzt. Für die Herstellung großflächiger freistehenden RMS, würde der Einfluss der Substratwerkstoffe in Hinblick auf der Ablöseverhalten nach der Beschichtung untersucht. Die Verwendung des Kupfersubstrats zeigt eine einfache und schnelle Weise, freistehende Folie zu produzieren. Diese Methode ermöglicht die Produktion von freistehenden 1Zr/1Al und 1Ti/1Si/1Ti/Al Folien mit der großen Fläche von 11 cm × 2 cm × 45 [my]m und 8 cm × 4 cm × 52 [my]m. Außerdem zeigt diese Arbeit einen verbesserten Herstellungsprozess mit der Skalierbarkeit und homogenen Mikrostrukturen von Multilagenschichten. Die Untersuchungen in dieser Arbeit zeigen, dass die Zusammensetzung und Morphologie die Reaktionseigenschaften unmittelbar beeinflussen und bieten potenzielle Möglichkeiten als eine kontrollierbare Wärmequelle auf der Basis Ti/Al-, Zr/Al- und Ti/Si/Al RMS zur Verfügung stellen. Andererseits schließt die Reaktion die Effekte der Oxidation und instationären Reaktionspropagation ein, die dabei hilfreich wären, die Reaktionskinetik zu verstehen. Die Ergebnisse in dieser Arbeit können als ein Beitrag zu einem Modell um ideale RMS in Bezug auf Reaktionseigenschaften zu entwickeln.



TEST4http://www.gbv.de/dms/ilmenau/toc/1034683780.PDF
Yeryomin, Yevgeniy;
Multikriterielle Handoverentscheidung für moderne mobile heterogene Kommunikationsnetze - Ilmenau : Universitätsverlag Ilmenau, 2018 - 1 Online-Ressource (XV, 169 Seiten).
Technische Universität Ilmenau, Dissertation 2018

Die Konvergenz der modernen mobilen Kommunikationsnetze zum Next Generation Network (NGN) und der Einsatz von Multimode-Endgeräten resultieren in einer Kommunikationsumgebung mit mehreren verfügbaren Kommunikationswegen zwischen einem Endgerät und dem Kernnetz. Dabei spielen die Mobilität und demzufolge der Handover eine entscheidende Rolle. Um während einer Handoverentscheidung den Anforderungen verschiedener mobilen Anwendungen zum Beispiel in Bezug auf Quality of Service (QoS) oder Sicherheit Genüge zu tun, sind traditionelle Handoverentscheidungsmethoden aus den Mobilfunknetzen, die im Wesentlichen auf der Auswertung der Empfangssignalstärke basieren, nicht mehr ausreichend. Deswegen wurde in den letzten Jahren eine Reihe von multikriteriellen Handoverentscheidungsmethoden vorgeschlagen. In den vorgeschlagenen Methoden wurden die Themen wie Anwendungssensitivität und Flexibilität der Konfiguration der Handoverentscheidung nicht tief genug analysiert. Weiterhin sind die Optimierungspotentiale während der Handoverentscheidung nicht ausreichend untersucht. Diese Arbeit adressiert die oben angesprochenen Themen und liefert eine Lösung in Form eines FLexible Application-Sensitive HandovEr Decision Frameworks, kurz FLASHED-Framework. Das FLASHED-Framework ist die Implementierung eines multikriteriellen Handover-Entscheidungsalgorithmus, der auf der multikriteriellen Entscheidungsanalyse Multiple-Criteria Decision Making (MCDM) beruht. Das FLASHED-Framework ermöglicht eine flexible, anwendungsabhängige und strukturierte Konfiguration der für eine Handoverentscheidung relevanten Informationssätze. Außerdem sind im FLASHED-Framework drei Handover-Entscheidungsalgorithmen implementiert, die die Optimierungsziele der Nutzer und der Netzwerkbetreiber repräsentieren und mit deren Hilfe die alternativen Kommunikationswege bewertet werden. Zwei dieser Algorithmen wurden im Rahmen der Untersuchungen der Optimierungsmöglichkeiten für eine Handoverentscheidung durch die Reduzierung der überschüssigen Kapazitäten in Abhängigkeit von Anwendungsanforderungen entwickelt. Beim dritten Algorithmus handelt es sich um einen lastverteilungsorientierten Handover-Entscheidungsalgorithmus. Die Verifizierung des vorgeschlagenen und implementierten FLASHED-Frameworks inklusive der vorgeschlagenen Entscheidungsalgorithmen erfolgt in einer im Rahmen dieser Arbeit weiterentwickelten Version der Simulationsumgebung OMNeT++/INET.



https://www.db-thueringen.de/receive/dbt_mods_00035322
Sen, Seema;
Development of PVD-coated and nanostructured reactive multilayer films - Ilmenau : Universitätsverlag Ilmenau, 2018 - 1 Online-Ressource (XVII, 166 Seiten). . - (Werkstofftechnik aktuell. - Band 19)
Technische Universität Ilmenau, Dissertation 2018

Als eine neue Klasse von energetischen Materialien speichern die reaktiven Multilagensysteme die chemische Energie. Sie setzen eine große Menge der Energie durch eine schnelle Reaktionspropagation nach einer Aktivierung in der Form von Wärme frei. Im Zusammenhang mit dem zunehmenden Potenzial in den hochmodernen Fügetechnologien und den anderen Industrieanwendungen finden solche Typen von reaktiven Mehrschichtensystemen große Aufmerksamkeit. Das hohe Interesse konzentriert sich auf die Anwendung der sehr schnellen und lokalisierten Energie Freisetzung. Die Kenntnisse über die Materialkombinationen und Morphologie spielt eine wichtige Rolle, um reaktive Mehrschichtensysteme mit entsprechenden Reaktionseigenschaften und Wärmemenge herzustellen. Im Mittelpunkt dieser Arbeit stehen daher die Entwicklung der Schichtweise abgeschiedenen reaktiven Multilagenschichten und die Charakterisierung der Reaktionseigenschaften. Die eingestellten Bereiche können wie folgt zusammengefasst werden; - Die reaktiven Multilagenschichten von binären Ti-Al, Zr-Al und ternären Ti-Al-Si Kombinationen wurden mittels Magnetronsputtern-Deposition produziert, die zu der niedrigen Medium oder hohen Energieklasse gehören. - Die selbstverbreitenden Reaktionseigenschaften wurden in Bezug auf Wärme, Temperatur, Reaktionsgeschwindigkeit und Propagationsweisen charakterisiert. - Herstellung der großflächigen freistehenden reaktiven Folien wurde aufgezeigt. Für die Bestimmung der Reaktionswärme wurde die Standardbildungsenthalpie zu Beginn der Arbeit durch thermodynamische Simulationen mit Thermo-Calc 3.1 berechnet. Die Menge der Reaktionswärme hängt von der chemischen Zusammensetzung des Ti-Al-, Zr-Al- und Ti-Si Systems ab. Dann wurden Ti/Al, Zr/Al und Ti/Si/Ti/nAl Multilagenschichten für unterschiedliche Periodendicken, Molverhältnisse und Multischichtaufbau abgeschieden. Die Ti/nAl (n = 1-3) reaktiven Multilagenschichten wurden mit verschiedenen Al-Molverhältnissen hergestellt. Die Reaktionsgeschwindigkeit änderte sich zwischen (0.68±0.4) m/s und (2.57±0.6) m/s. Die Reaktionstemperatur änderte sich im Bereich 1215-1298 &ring;C. Die 1Ti/3Al Schicht zeigt auch eine instationäre Reaktionspropagation mit der Kräuselungsbandbildung. Außerdem wurden der Temperaturfluss und die chemische Vermischung in nanoskalige Schichten von 1Ti/1Al Zusammensetzung (für 20 nm Periodendicke) erstmals mittels Strömung Simulation berechnet. Die Ergebnisse zeigten, dass der Temperaturfluss viel schneller als das chemische Mischen während der fortschreitenden Reaktion ist. Die 1Zr/1Al Schichten wurden mit der verschiedenen Periodendicken von 20 nm bis 55 nm untersucht. Die Reaktionsgeschwindigkeit und Reaktionstemperatur änderten sich im Bereich 0.23-1.22 m/s und 1581-1707 &ring;C. Hier wurde auch die Oxidationsreaktion während der fortschreitenden Reaktion aufgezeigt. Zum ersten Mal wurden ternäre Multilagenschichten von Ti, Si und Al-Reaktanten für verschiedene Schichtenanordnung (Si/Ti/Al/Si und Ti/Si/Ti/nAl, n = 1-3) abgeschieden. Hier, Reaktionseigenschaften hängten von Schichtenanordnung und Al-Molverhältnissen ab. Für den Ti/Si/Ti/Al Schicht konnte eine maximale Reaktionspropagation von (9.2±2) m/s und eine Reaktionstemperatur von (1807±30) &ring;C bestimmt werden. Danach wurden die vorgenannten ternären Folien erstmals in einem reaktiven Fügeprozess eingesetzt. Für die Herstellung großflächiger freistehenden RMS, würde der Einfluss der Substratwerkstoffe in Hinblick auf der Ablöseverhalten nach der Beschichtung untersucht. Die Verwendung des Kupfersubstrats zeigt eine einfache und schnelle Weise, freistehende Folie zu produzieren. Diese Methode ermöglicht die Produktion von freistehenden 1Zr/1Al und 1Ti/1Si/1Ti/Al Folien mit der großen Fläche von 11 cm × 2 cm × 45 [my]m und 8 cm × 4 cm × 52 [my]m. Außerdem zeigt diese Arbeit einen verbesserten Herstellungsprozess mit der Skalierbarkeit und homogenen Mikrostrukturen von Multilagenschichten. Die Untersuchungen in dieser Arbeit zeigen, dass die Zusammensetzung und Morphologie die Reaktionseigenschaften unmittelbar beeinflussen und bieten potenzielle Möglichkeiten als eine kontrollierbare Wärmequelle auf der Basis Ti/Al-, Zr/Al- und Ti/Si/Al RMS zur Verfügung stellen. Andererseits schließt die Reaktion die Effekte der Oxidation und instationären Reaktionspropagation ein, die dabei hilfreich wären, die Reaktionskinetik zu verstehen. Die Ergebnisse in dieser Arbeit können als ein Beitrag zu einem Modell um ideale RMS in Bezug auf Reaktionseigenschaften zu entwickeln.



https://www.db-thueringen.de/receive/dbt_mods_00035336
Yeryomin, Yevgeniy;
Multikriterielle Handoverentscheidung für moderne mobile heterogene Kommunikationsnetze - Ilmenau : Universitätsverlag Ilmenau, 2018 - xv, 169 Seiten.
Technische Universität Ilmenau, Dissertation 2018

ISBN 3863601882 = 978-3-86360-188-1

Die Konvergenz der modernen mobilen Kommunikationsnetze zum Next Generation Network (NGN) und der Einsatz von Multimode-Endgeräten resultieren in einer Kommunikationsumgebung mit mehreren verfügbaren Kommunikationswegen zwischen einem Endgerät und dem Kernnetz. Dabei spielen die Mobilität und demzufolge der Handover eine entscheidende Rolle. Um während einer Handoverentscheidung den Anforderungen verschiedener mobilen Anwendungen zum Beispiel in Bezug auf Quality of Service (QoS) oder Sicherheit Genüge zu tun, sind traditionelle Handoverentscheidungsmethoden aus den Mobilfunknetzen, die im Wesentlichen auf der Auswertung der Empfangssignalstärke basieren, nicht mehr ausreichend. Deswegen wurde in den letzten Jahren eine Reihe von multikriteriellen Handoverentscheidungsmethoden vorgeschlagen. In den vorgeschlagenen Methoden wurden die Themen wie Anwendungssensitivität und Flexibilität der Konfiguration der Handoverentscheidung nicht tief genug analysiert. Weiterhin sind die Optimierungspotentiale während der Handoverentscheidung nicht ausreichend untersucht. Diese Arbeit adressiert die oben angesprochenen Themen und liefert eine Lösung in Form eines FLexible Application-Sensitive HandovEr Decision Frameworks, kurz FLASHED-Framework. Das FLASHED-Framework ist die Implementierung eines multikriteriellen Handover-Entscheidungsalgorithmus, der auf der multikriteriellen Entscheidungsanalyse Multiple-Criteria Decision Making (MCDM) beruht. Das FLASHED-Framework ermöglicht eine flexible, anwendungsabhängige und strukturierte Konfiguration der für eine Handoverentscheidung relevanten Informationssätze. Außerdem sind im FLASHED-Framework drei Handover-Entscheidungsalgorithmen implementiert, die die Optimierungsziele der Nutzer und der Netzwerkbetreiber repräsentieren und mit deren Hilfe die alternativen Kommunikationswege bewertet werden. Zwei dieser Algorithmen wurden im Rahmen der Untersuchungen der Optimierungsmöglichkeiten für eine Handoverentscheidung durch die Reduzierung der überschüssigen Kapazitäten in Abhängigkeit von Anwendungsanforderungen entwickelt. Beim dritten Algorithmus handelt es sich um einen lastverteilungsorientierten Handover-Entscheidungsalgorithmus. Die Verifizierung des vorgeschlagenen und implementierten FLASHED-Frameworks inklusive der vorgeschlagenen Entscheidungsalgorithmen erfolgt in einer im Rahmen dieser Arbeit weiterentwickelten Version der Simulationsumgebung OMNeT++/INET.



TEST4http://www.gbv.de/dms/ilmenau/toc/1032709847.PDF
Thomisch, Marco;
Methodik zur Bestimmung optimaler Parameter beim Drahtumformen - Ilmenau : Universitätsverlag Ilmenau, 2018 - XIX, 202 Seiten. . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - Band 31)
Technische Universität Ilmenau, Dissertation 2018

ISBN 3863601874 = 978-3-86360-187-4

Mehrstufige Drahtumformprozesse stellen die fertigungstechnische Grundlage für technisch anspruchsvolle Bauteile dar. Bei diesen mehrstufigen Prozessen ist die Ermittlung der resultierenden Eigenspannungen sowohl analytisch als auch numerisch bisher nur bedingt möglich. Zielsetzung der vorliegenden Arbeit ist die Bereitstellung einer Methodik zur Bestimmung der optimalen Parameter beim Drahtumformen. Als erstes wird die zur Beschreibung des Umformvorgangs nötige Werkstoffcharakterisierung durchgeführt. Diese Charakterisierung basiert auf Experimenten, die sowohl den BAUSCHINGER-Effekt als auch Ver- und Entfestigungsmechanismen untersuchen und quantifizieren. Darauf aufbauend folgt der zweite Teilbereich, die analytische Beschreibung des mehrstufigen Umformprozesses. Durch Anwendung dieses deskriptiven Algorithmus werden sowohl die (Eigen-)Spannungen als auch die elastischen und plastischen Verformungen zu jedem Zeitpunkt des Umformvorgangs bestimmt. Als dritter Teilbereich werden verschiedene Optimierungsalgorithmen mit unterschiedlichen Zielsetzungen für den deskriptiven Algorithmus vorgestellt.



TEST4http://www.gbv.de/dms/ilmenau/abs/1028792255thomi.txt
Lux, Rüdiger;
Wärmebehandlung von SiCr-legiertem, ölschlussvergütetem Federstahldraht - Ilmenau : Universitätsverlag Ilmenau, 2018 - XXI, 149 Seiten. . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - Band 30)
Technische Universität Ilmenau, Dissertation 2018

ISBN 3863601858 = 978-3-86360-185-0

Diese Arbeit befasst sich mit der Frage, inwieweit durch die Kombination der Wärmebehandlungsschritte der Draht- und Federnfertigung die mechanische Auslastbarkeit und die Lebensdauer von Schraubendruckfedern gesteigert werden können. Es wird ein analytisches Modell vorgestellt, welches die Berechnung von Temperatur - Zeit - Verläufen der Drahtvergütung ermöglicht. Anhand von Laborversuchen werden für jeden Teilprozess der Wärmbehandlung optimale Regime bestimmt, die Kenngrößen für die analytische Berechnung ermittelt sowie das Berechnungsmodell validiert. Verschiedene Einflussfaktoren auf die Gefügeausbildung des Drahtmaterials sowie die Auswirkungen aller Prozessabschnitte auf die mechanischen Eigenschaften des vergüteten Feder-stahldrahtes werden diskutiert. Es wird dargelegt, dass torsionsbelastete Federn aus optimiert hergestelltem Material einen deutlich gesenkten Setzbetrag sowie im Rahmen von Dauerschwingversuchen eine gesteigerte Lebensdauer im Zeitfestigkeitsbereich aufweisen.



TEST4http://www.gbv.de/dms/ilmenau/abs/1011867400lux.txt
Scheel, Jörg;
Schaltzustandsoptimierung von 110-kV-Verteilnetzen zur Maximierung des Abtransports von Einspeisungen aus erneuerbaren Energiequellen - Ilmenau : Universitätsverlag Ilmenau, 2018 - XI, 125 Seiten. . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA). - Band 22)
Technische Universität Ilmenau, Dissertation 2018

ISBN 3863601904 = 978-3-86360-190-4

Die elektrischen Energieversorgungsysteme der Bundesrepublik Deutschland sind seit Jahren aufgrund energiepolitischer Vorgaben durch Veränderungen der Erzeugungsstruktur geprägt. Infolge der gezielten Förderung regenerativer Erzeugungsanlagen kam es zu einem massiven Zubau regenerativer Erzeugungsleistung im Bereich der Verteilnetze, der sich bis heute fortsetzt. In einigen Regionen überschreitet die installierte regenerative Erzeugungskapazität bereits die Spitzenlast der unterlagerten Mittelspannungsnetze erheblich, so dass es in ungünstigen Einspeisesituationen zu Überlastungen im Hochspannungsnetz kommen kann. Um die Netz-sicherheit zu gewährleisten, sind die Verteilnetzbetreiber in diesen Situationen gezwungen die Einspeisung aus regenerativen Erzeugungsanlagen zu reduzieren. Diese betrieblichen Eingriffe werden weiter zunehmen, da die Umsetzung von Netzverstärkungs- und Ausbauprojekten nicht mit der kontinuierlich steigenden Integration neuer Erzeugungsanlagen Schritt halten kann. In den überwiegend vermascht betriebenen Hoch- und Höchstspannungsnetzen kann die Anpassung der Netztopologie an die zu erwartende Einspeise- und Lastsituation ein geeignetes Mittel zur Engpassbeseitigung und zur Erhöhung der Transportkapazität darstellen. Die vorliegende Arbeit widmet sich daher der Fragestellung, welche Energiemenge aus regenerativen Erzeugungsanlagen durch eine Schaltzustandsoptimierung bestehender 110-kV-Verteilnetze zusätzlich eingespeist werden kann. Für die Beantwortung der Fragestellung wird ein erweitertes Engpassmanagement-Verfahren vorgeschlagen, das neben den topologischen Freiheitsgraden auch weiteren betrieblichen Anpassungsmaßnahmen, wie z. B. das Einspeisemanagement berücksichtigt. Zur Bewertung des Netzbetriebszustandes erfolgt die Integration der aus der Netzsicherheitsrechnung bekannten Verfahren der Lastfluss- und (n-1)-Ausfallsimulation. In dieser Arbeit wird ein neuartiger, für diskrete Problemstellungen konzipierter Partikel-Schwarm-Optimierungsalgorithmus auf das vorliegende Problem der Schaltzustandsoptimierung zur Beseitigung von Engpässen adaptiert. Dieser Algorithmus hat sich als besonders robust für das vorliegende Optimierungsproblem erwiesen und gestattet auch im Hinblick auf die wechselnden Anforderungen der Netzbetriebsführung die Formulierung weiterer, beliebiger Optimierungsziele. Zur Reduzierung der Anzahl der diskreten Entscheidungsvariablen wird eine neuartige Modellierungsmethode für Quer- und Vollkupplungen vorgeschlagen. Diese Methode berücksichtigt implizit lokale Nebenbedingungen hinsichtlich der Verschaltung und erlaubt die realistische Abbildung aller praktisch umsetzbaren Kuppelmöglichkeiten. Die Validierung der vorgeschlagenen Methode erfolgt mit Hilfe numerischer Fallstudien unter Verwendung der stationären Netzberechnung an zwei realen, mittelgroßen 110-kV-Netzgruppen. Den Untersuchungen liegen reale Einspeise- und Lastzeitreihen in viertelstündlicher Auflösung zu Grunde. Die Ergebnisse zeigen, dass durch eine Schaltzustandsoptimierung des Bestandsnetzes dessen Übertragungskapazität gesteigert und die eingespeiste Energiemenge aus regenerativen Erzeugungsanlagen maximiert werden kann. Das ausschöpfbare Maximierungspotential ist dabei in erheblichem Maß von den Netzstrukturen und dem Vermaschungsgrad des Netzes abhängig. Weiterhin wird der Nachweis erbracht, dass die Definition von mehreren Netznormalschaltzuständen zur Maximierung der Einspeisung aus regenerativen Erzeugungsanlagen einerseits und zur Minimierung der Netzverluste andererseits über den Zeitraum eines Jahres möglich ist.



TEST4http://www.gbv.de/dms/ilmenau/abs/1011933586schee.txt
Scheel, Jörg;
Schaltzustandsoptimierung von 110-kV-Verteilnetzen zur Maximierung des Abtransports von Einspeisungen aus erneuerbaren Energiequellen - Ilmenau : Universitätsverlag Ilmenau, 2018 - 1 Online-Ressource (XI, 125 Seiten). . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA). - Band 22)
Technische Universität Ilmenau, Dissertation 2018

Die elektrischen Energieversorgungsysteme der Bundesrepublik Deutschland sind seit Jahren aufgrund energiepolitischer Vorgaben durch Veränderungen der Erzeugungsstruktur geprägt. Infolge der gezielten Förderung regenerativer Erzeugungsanlagen kam es zu einem massiven Zubau regenerativer Erzeugungsleistung im Bereich der Verteilnetze, der sich bis heute fortsetzt. In einigen Regionen überschreitet die installierte regenerative Erzeugungskapazität bereits die Spitzenlast der unterlagerten Mittelspannungsnetze erheblich, so dass es in ungünstigen Einspeisesituationen zu Überlastungen im Hochspannungsnetz kommen kann. Um die Netzsicherheit zu gewährleisten, sind die Verteilnetzbetreiber in diesen Situationen gezwungen die Einspeisung aus regenerativen Erzeugungsanlagen zu reduzieren. Diese betrieblichen Eingriffe werden weiter zunehmen, da die Umsetzung von Netzverstärkungs- und Ausbauprojekten nicht mit der kontinuierlich steigenden Integration neuer Erzeugungsanlagen Schritt halten kann. In den überwiegend vermascht betriebenen Hoch- und Höchstspannungsnetzen kann die Anpassung der Netztopologie an die zu erwartende Einspeise- und Lastsituation ein geeignetes Mittel zur Engpassbeseitigung und zur Erhöhung der Transportkapazität darstellen. Die vorliegende Arbeit widmet sich daher der Fragestellung, welche Energiemenge aus regenerativen Erzeugungsanlagen durch eine Schaltzustandsoptimierung bestehender 110-kV-Verteilnetze zusätzlich eingespeist werden kann. Für die Beantwortung der Fragestellung wird ein erweitertes Engpassmanagement-Verfahren vorgeschlagen, das neben den topologischen Freiheitsgraden auch weiteren betrieblichen Anpassungsmaßnahmen, wie z. B. das Einspeisemanagement berücksichtigt. Zur Bewertung des Netzbetriebszustandes erfolgt die Integration der aus der Netzsicherheitsrechnung bekannten Verfahren der Lastfluss- und (n-1)-Ausfallsimulation. In dieser Arbeit wird ein neuartiger, für diskrete Problemstellungen konzipierter Partikel-Schwarm-Optimierungsalgorithmus auf das vorliegende Problem der Schaltzustandsoptimierung zur Beseitigung von Engpässen adaptiert. Dieser Algorithmus hat sich als besonders robust für das vorliegende Optimierungsproblem erwiesen und gestattet auch im Hinblick auf die wechselnden Anforderungen der Netzbetriebsführung die Formulierung weiterer, beliebiger Optimierungsziele. Zur Reduzierung der Anzahl der diskreten Entscheidungsvariablen wird eine neuartige Modellierungsmethode für Quer- und Vollkupplungen vorgeschlagen. Diese Methode berücksichtigt implizit lokale Nebenbedingungen hinsichtlich der Verschaltung und erlaubt die realistische Abbildung aller praktisch umsetzbaren Kuppelmöglichkeiten. Die Validierung der vorgeschlagenen Methode erfolgt mit Hilfe numerischer Fallstudien unter Verwendung der stationären Netzberechnung an zwei realen, mittelgroßen 110-kV-Netzgruppen. Den Untersuchungen liegen reale Einspeise- und Lastzeitreihen in viertelstündlicher Auflösung zu Grunde. Die Ergebnisse zeigen, dass durch eine Schaltzustandsoptimierung des Bestandsnetzes dessen Übertragungskapazität gesteigert und die eingespeiste Energiemenge aus regenerativen Erzeugungsanlagen maximiert werden kann. Das ausschöpfbare Maximierungspotential ist dabei in erheblichem Maß von den Netzstrukturen und dem Vermaschungsgrad des Netzes abhängig. Weiterhin wird der Nachweis erbracht, dass die Definition von mehreren Netznormalschaltzuständen zur Maximierung der Einspeisung aus regenerativen Erzeugungsanlagen einerseits und zur Minimierung der Netzverluste andererseits über den Zeitraum eines Jahres möglich ist.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018000344
Thomisch, Marco;
Methodik zur Bestimmung optimaler Parameter beim Drahtumformen - Ilmenau : Universitätsverlag Ilmenau, 2018 - 1 Online-Ressource (XIX, 202 Seiten). . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - Band 31)
Technische Universität Ilmenau, Dissertation 2018

Mehrstufige Drahtumformprozesse stellen die fertigungstechnische Grundlage für technisch anspruchsvolle Bauteile dar. Bei diesen mehrstufigen Prozessen ist die Ermittlung der resultierenden Eigenspannungen sowohl analytisch als auch numerisch bisher nur bedingt möglich. Zielsetzung der vorliegenden Arbeit ist die Bereitstellung einer Methodik zur Bestimmung der optimalen Parameter beim Drahtumformen. Als erstes wird die zur Beschreibung des Umformvorgangs nötige Werkstoffcharakterisierung durchgeführt. Diese Charakterisierung basiert auf Experimenten, die sowohl den BAUSCHINGER-Effekt als auch Ver- und Entfestigungsmechanismen untersuchen und quantifizieren. Darauf aufbauend folgt der zweite Teilbereich, die analytische Beschreibung des mehrstufigen Umformprozesses. Durch Anwendung dieses deskriptiven Algorithmus werden sowohl die (Eigen-)Spannungen als auch die elastischen und plastischen Verformungen zu jedem Zeitpunkt des Umformvorgangs bestimmt. Als dritter Teilbereich werden verschiedene Optimierungsalgorithmen mit unterschiedlichen Zielsetzungen für den deskriptiven Algorithmus vorgestellt.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018000300
Lux, Rüdiger;
Wärmebehandlung von SiCr-legiertem, ölschlussvergütetem Federstahldraht - Ilmenau : Universitätsverlag Ilmenau, 2018 - 1 Online-Ressource (XXI, 149 Seiten). . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - Band 30)
Technische Universität Ilmenau, Dissertation 2018

Diese Arbeit befasst sich mit der Frage, inwieweit durch die Kombination der Wärmebehandlungsschritte der Draht- und Federnfertigung die mechanische Auslastbarkeit und die Lebensdauer von Schraubendruckfedern gesteigert werden können. Es wird ein analytisches Modell vorgestellt, welches die Berechnung von Temperatur Zeit Verläufen der Drahtvergütung ermöglicht. Anhand von Laborversuchen werden für jeden Teilprozess der Wärmbehandlung optimale Regime bestimmt, die Kenngrößen für die analytische Berechnung ermittelt sowie das Berechnungsmodell validiert. Verschiedene Einflussfaktoren auf die Gefügeausbildung des Drahtmaterials sowie die Auswirkungen aller Prozessabschnitte auf die mechanischen Eigenschaften des vergüteten Feder-stahldrahtes werden diskutiert. Es wird dargelegt, dass torsionsbelastete Federn aus optimiert hergestelltem Material einen deutlich gesenkten Setzbetrag sowie im Rahmen von Dauerschwingversuchen eine gesteigerte Lebensdauer im Zeitfestigkeitsbereich aufweisen.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018000210
Hasenpusch, Tim;
Strategic Media Venturing : eine empirische Analyse des Einsatzes von Corporate Venture Capital in der Medienbranche - Ilmenau : Universitätsverlag Ilmenau, 2018 - 1 Online-Ressource (XVI, 261 Seiten). . - (Menschen - Märkte - Medien - Management. - Band 9)
Technische Universität Ilmenau, Dissertation 2017

Die zunehmend digitale Wettbewerbslandschaft ist gekennzeichnet durch steigende Komplexität, kontinuierlichem Wandel, verschwimmende Branchengrenzen, erhöhter Wettbewerbsintensität sowie die daraus resultierenden unsicheren Entwicklungsprognosen. Besonders die durch technologische Veränderungen stark getriebene Medienbranche steht hierdurch vor weitreichenden strukturellen und betrieblichen Herausforderungen. So lösen die technologischen Entwicklungen die 'Gatekeeper'-Funktion traditioneller Medienunternehmen auf und erhöhen die Wettbewerbsintensität sowohl zwischen den Unternehmen traditioneller Mediengattungen (Publishing, TV, Radio etc.) als auch zwischen etablierten Medienunternehmen und neuen Wettbewerbsteilnehmern aus den Branchen Telekommunikation, Unterhaltungselektronik und Internettechnologie. Dabei sind es häufig diese neuen Wettbewerber, die die technologischen Veränderungen nutzen und neue Geschäftsmodelle innerhalb der Medienbranche etablieren. Als Reaktion auf diese hochdynamische und konvergierende Unternehmensumwelt haben Medienunternehmen sowie ihre Wettbewerber aus den verwandten Industrien zur Erschließung und Verteidigung von Geschäftspotenzialen neue Corporate Venture Capital (CVC) Einheiten gegründet bzw. bestehende CVC-Aktivitäten intensiviert. Trotz dieser praktischen Relevanz von CVC haben vorherige Forschungsarbeiten vor allem die CVC-Aktivitäten von Medienunternehmen kaum betrachtet. Des Weiteren wurde - trotz des empirischen Nachweises, dass strategische Zielsetzungen Treiber von CVC-Aktivitäten sind - die strategische Managementperspektive von CVC in der wissenschaftlichen Forschung vernachlässigt. Die vorliegende Dissertationsschrift trägt zur Schließung dieser Forschungslücken bei indem zum einen auf Grundlage der ressourcenorientierten Perspektiven des strategischen Managements ein theoretischer Ordnungsrahmen für das CVC-Management geschaffen und zum anderen eine systematische Datenanalyse der CVC-Investmentaktivitäten entlang des Cross-Industry Standard Process for Data Mining durchgeführt wird. Ergebnis der Analyse ist, neben dem Aufdecken mehrerer branchenspezifischer Unterschiede und Gemeinsamkeiten, die Identifikation branchenspezifischer Investmentstrategien zum Umgang mit den durch die Digitalisierung entstehenden Chancen und Herausforderungen.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2017000529
Hasenpusch, Tim;
Strategic Media Venturing : eine empirische Analyse des Einsatzes von Corporate Venture Capital in der Medienbranche - Ilmenau : Universitätsverlag Ilmenau, 2018 - XVI, 261 Seiten. . - (Menschen - Märkte - Medien - Management. - Band 9)
Technische Universität Ilmenau, Dissertation 2017

ISBN 3-86360-186-6

Die zunehmend digitale Wettbewerbslandschaft ist gekennzeichnet durch steigende Komplexität, kontinuierlichem Wandel, verschwimmende Branchengrenzen, erhöhter Wettbewerbsintensität sowie die daraus resultierenden unsicheren Entwicklungsprognosen. Besonders die durch technologische Veränderungen stark getriebene Medienbranche steht hierdurch vor weitreichenden strukturellen und betrieblichen Herausforderungen. So lösen die technologischen Entwicklungen die 'Gatekeeper'-Funktion traditioneller Medienunternehmen auf und erhöhen die Wettbewerbsintensität sowohl zwischen den Unternehmen traditioneller Mediengattungen (Publishing, TV, Radio etc.) als auch zwischen etablierten Medienunternehmen und neuen Wettbewerbsteilnehmern aus den Branchen Telekommunikation, Unterhaltungselektronik und Internettechnologie. Dabei sind es häufig diese neuen Wettbewerber, die die technologischen Veränderungen nutzen und neue Geschäftsmodelle innerhalb der Medienbranche etablieren. Als Reaktion auf diese hochdynamische und konvergierende Unternehmensumwelt haben Medienunternehmen sowie ihre Wettbewerber aus den verwandten Industrien zur Erschließung und Verteidigung von Geschäftspotenzialen neue Corporate Venture Capital (CVC) Einheiten gegründet bzw. bestehende CVC-Aktivitäten intensiviert. Trotz dieser praktischen Relevanz von CVC haben vorherige Forschungsarbeiten vor allem die CVC-Aktivitäten von Medienunternehmen kaum betrachtet. Des Weiteren wurde - trotz des empirischen Nachweises, dass strategische Zielsetzungen Treiber von CVC-Aktivitäten sind - die strategische Managementperspektive von CVC in der wissenschaftlichen Forschung vernachlässigt. Die vorliegende Dissertationsschrift trägt zur Schließung dieser Forschungslücken bei indem zum einen auf Grundlage der ressourcenorientierten Perspektiven des strategischen Managements ein theoretischer Ordnungsrahmen für das CVC-Management geschaffen und zum anderen eine systematische Datenanalyse der CVC-Investmentaktivitäten entlang des Cross-Industry Standard Process for Data Mining durchgeführt wird. Ergebnis der Analyse ist, neben dem Aufdecken mehrerer branchenspezifischer Unterschiede und Gemeinsamkeiten, die Identifikation branchenspezifischer Investmentstrategien zum Umgang mit den durch die Digitalisierung entstehenden Chancen und Herausforderungen.



Wolling, Jens; ,
Die Vermittlung von Medienkompetenz in allgemeinbildenden Schulen : zentrale Ergebnisse eines Evaluationsprojekts - Ilmenau : Universitätsverlag Ilmenau, 2018 - VIII, 149 Seiten. . - (Kommunikationswissenschaft interdisziplinär. - Band 7) ISBN 3-86360-184-X

In den letzten beiden Jahrzehnten hat sich das Medienumfeld, in dem Kinder und Jugendliche aufwachsen, grundlegend verändert. Diese Veränderungen konfrontieren nicht nur die Eltern, sondern auch die Schulen mit völlig neuen Herausforderungen bei der Vermittlung von Medienkompetenz. Ein pädagogischer Ansatz, um die Heranwachsenden auf diese neue Medienwelt vorzubereiten, besteht in der Integration medienbezogener Inhalte in den Fachunterricht. Im Rahmen der vorliegenden Untersuchung wurde die Umsetzung eines solchen integrativen Konzepts in Thüringen evaluiert. In einer aus verschiedenen qualitativen und quantitativen Teilstudien bestehenden Untersuchung wurde die Praxis der Medienkompetenzvermittlung und ihre Bestimmungsfaktoren analysiert. Kernstück der Untersuchung ist eine repräsentative Befragung von Lehrenden sowie von Schulleiterinnen und Schulleitern des ganzen Bundeslandes. Die Befunde verdeutlichen, welche Faktoren die erfolgreiche Umsetzung des Konzepts begünstigen und welche sich als hinderlich erweisen. Auf der Grundlage der erzielten Ergebnisse wurden Empfehlungen entwickelt, wie das integrative Konzept weiterentwickelt werden sollte und welche Maßnahmen notwendig sind, um die Rahmenbedingungen für eine erfolgreiche Vermittlung von Medienkompetenz zu verbessern.



Wolling, Jens; Berger, Priscila;
Die Vermittlung von Medienkompetenz in allgemeinbildenden Schulen : zentrale Ergebnisse eines Evaluationsprojekts - Ilmenau : Universitätsverlag Ilmenau, 2018 - 1 Online-Ressource (VIII, 149 Seiten). . - (Kommunikationswissenschaft interdisziplinär. - Band 7)

In den letzten beiden Jahrzehnten hat sich das Medienumfeld, in dem Kinder und Jugendliche aufwachsen, grundlegend verändert. Diese Veränderungen konfrontieren nicht nur die Eltern, sondern auch die Schulen mit völlig neuen Herausforderungen bei der Vermittlung von Medienkompetenz. Ein pädagogischer Ansatz, um die Heranwachsenden auf diese neue Medienwelt vorzubereiten, besteht in der Integration medienbezogener Inhalte in den Fachunterricht. Im Rahmen der vorliegenden Untersuchung wurde die Umsetzung eines solchen integrativen Konzepts in Thüringen evaluiert. In einer aus verschiedenen qualitativen und quantitativen Teilstudien bestehenden Untersuchung wurde die Praxis der Medienkompetenzvermittlung und ihre Bestimmungsfaktoren analysiert. Kernstück der Untersuchung ist eine repräsentative Befragung von Lehrenden sowie von Schulleiterinnen und Schulleitern des ganzen Bundeslandes. Die Befunde verdeutlichen, welche Faktoren die erfolgreiche Umsetzung des Konzepts begünstigen und welche sich als hinderlich erweisen. Auf der Grundlage der erzielten Ergebnisse wurden Empfehlungen entwickelt, wie das integrative Konzept weiterentwickelt werden sollte und welche Maßnahmen notwendig sind, um die Rahmenbedingungen für eine erfolgreiche Vermittlung von Medienkompetenz zu verbessern.



https://doi.org/10.22032/dbt.34913
Denk, Frank;
Elektromagnetische Einspritzventile für Ottomotoren : ein Beitrag zur Charakterisierung und Systemintegration schnellschaltender Aktuatoren - Ilmenau : Universitätsverlag Ilmenau - 1 Online-Ressource (XIII, 152 Seiten). Die dieser Publikation zugrundeliegende Dissertation hat der Fakultät für Maschinenbau der Technischen Universität Ilmenau unter folgendem Titel vorgelegen: Beitrag zur Charakterisierung und Systemintegration schnellschaltender elektromagnetischer Aktuatoren - insbesondere Einspritzventile für Ottomotoren

Der gesetzlich zulässige Schadstoffausstoß von Verbrennungsmotoren erfordert die Entwicklung neuer Ansteuerstrategien von Kraftstoffeinspritzventilen. Die vorliegende Arbeit untersucht das einspritzrelevante System aus Elektronik, Software, Einspritzventil sowie Hydraulik und entwickelt neue elektromagnetische Methoden zur Optimierung des hydraulischen Einspritzvorgangs. Insbesondere die dynamischen Vorgänge des hydraulischen Öffnens und des hydraulischen Schließens bilden den Schwerpunkt der Untersuchungen. Auf Basis der Maxwellschen Gleichungen wird dargestellt, dass das dynamische Verhalten des Einspritzventils vor allem durch die Reluktanzkraft erfolgt. Es wird gezeigt, dass die elektromagnetischen Ansteuerparameter Spulenspannung und Spulenstrom bei einem Einspritzventil einen signifikanten Einfluss auf den hydraulischen Einspritzvorgang haben. Die Eigenschaft, dass die mechanisch-hydraulische Reaktion magneto-elektrisch auf die Ansteuerung zurückwirkt, wird genutzt, um den Einspritzablauf zu analysieren. Durch die Parametervariation der Ansteuerung und der Analyse der sensorischen Rückmeldung wird ein robustes hydraulisches Öffnen, ein sicheres hydraulisches Offenhalten und ein schnelles hydraulisches Schließen mit der dafür benötigten elektrischen Energie abgestimmt und optimiert. Mit speziellen Verfahren wird der magnetische Fluss des Einspritzventils berechnet. Diese zeigen eine im Kraftfahrzeugbereich neue Möglichkeit der effizienten Abstimmung des elektrischen Energieeintrags sowie der hydraulischen Reaktion und bieten einen Ausblick in zukünftige Regelkonzepte. Diese Arbeit lehnt sich streng an die Umgebungsbedingungen in einem heutigen elektrischen Bordnetz an. Damit ist die Möglichkeit gegeben, die Ergebnisse technisch in Serienapplikationen umzusetzen.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018100029
Welker, Tilo;
Methoden und Technologien zur Optimierung der Entwärmung aktiver und passiver Komponenten auf keramischen Mehrlagensubstraten - Ilmenau : Universitätsverlag Ilmenau, 2018 - 1 Online-Ressource (XV, 235 Seiten).
Technische Universität Ilmenau, Dissertation 2018

Gegenstand dieser Arbeit ist der thermische Pfad in einem Mehrlagenmodul aus Niedertemperatur-Einbrand-Keramiken (engl.: low temperature co-fired ceramic, kurz: LTCC). Der thermische Pfad beschreibt dabei den Pfad der Wärme von einem verlustbehafteten Bauelement hin zu einer Wärmesenke. Ziel der Arbeit ist es durch neue Materialien, Technologien und Methoden den thermischen Pfad zu optimieren und so die thermische Performance des Mehrlagenmoduls zu verbessern. Der thermische Pfad kann in drei kritische Bereiche unterteilt werden. Der erste Bereich umfasst die Verbindung zwischen Chip und Substrat. Die hier eingesetzten Materialien stellen neben der mechanischen Fixierung auch den thermischen Kontakt zwischen Chip und Substrat her. Im Rahmen dieser Arbeit werden Silberpasten für die Chipmontage untersucht, die bei niedrigen Temperaturen sintern und eine thermisch hoch leitende Verbindung zwischen Chip und Substrat realisieren. Weiterhin werden reaktive Lote untersucht, die nach thermischer Aktivierung kurzzeitig einen starken thermischen Impuls generieren, wodurch das Fügen von Materialien mit unterschiedlichem thermischen Ausdehnungskoeffizient ermöglicht wird. Diese reaktiven Lote und die Silberpasten werden dabei mit den herkömmlichen Materialien der Chipmontage wie Loten und Klebern hinsichtlich ihres thermischen Widerstandes, der mechanischen Festigkeit und Zuverlässigkeit bewertet und verglichen. Der zweite Bereich umfasst das gesamte keramische Substrat. Um die geringe thermische Leitfähigkeit des Keramikgrundmaterials lokal zu verbessern, werden Metalle in Form von Metallzylindern in das Substrat integriert. Diese sog. thermischen Vias bestehen zumeist aus gold- oder silberbasierten Materialien und sind direkt in das Substrat unter die Chipbondfläche integriert. Gegenstand der Untersuchung ist hier der Einfluss der Viageometrie, des Viamaterials und des Sinterprozesses auf die thermische Performance und Hermetizität des Substrates. Weiterhin werden mittels neuen Silberfolien vollflächige Silberstrukturen in das Substrat integriert. Hierbei wird im Co-Fire Prozess das keramische Grundmaterial durch Silberfolie lokal substituiert, was Bereiche mit sehr hoher thermischer Leitfähigkeit im Substrat ermöglicht. Die thermische Performance solcher Silberstrukturen in LTCC Substraten wird anhand zweier Demonstratoren überprüft. Der dritte Bereich umfasst die Wärmesenke. Im Rahmen dieser Arbeit wird die Möglichkeit diskutiert, fluidische Kanäle in das LTCC Substrat zu integrieren und damit eine aktive Kühlung zu realisieren. Die Untersuchungen umfassen das Design und die Fertigung des Kühlkanals und der fluidischen Schnittstellen, sowie die Bewertung der Kühlleistung dieser Methode.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018000120
Lavrenko, Anastasia;
Compressive acquisition and processing of sparse analog signals - Ilmenau : Universitätsverlag Ilmenau, 2018 - 1 Online-Ressource (XV, 235 Seiten).
Technische Universität Ilmenau, Dissertation 2018

Seit dem Aufkommen der ersten digitalen Verarbeitungseinheiten hat die Bedeutung der digitalen Signalverarbeitung stetig zugenommen. Heutzutage findet die meiste Signalverarbeitung im digitalen Bereich statt, was erfordert, dass analoge Signale zuerst abgetastet und digitalisiert werden, bevor relevante Daten daraus extrahiert werden können. Jahrzehntelang hat die herkömmliche äquidistante Abtastung, die durch das Nyquist-Abtasttheorem bestimmt wird, zu diesem Zweck ein nahezu universelles Mittel bereitgestellt. Der kürzlich explosive Anstieg der Anforderungen an die Datenerfassung, -speicherung und -verarbeitung hat jedoch die Fähigkeiten herkömmlicher Erfassungssysteme in vielen Anwendungsbereichen an ihre Grenzen gebracht. Durch eine alternative Sichtweise auf den Signalerfassungsprozess können Ideen aus der sparse Signalverarbeitung und einer ihrer Hauptanwendungsgebiete, Compressed Sensing (CS), dazu beitragen, einige dieser Probleme zu mindern. Basierend auf der Annahme, dass der Informationsgehalt eines Signals oft viel geringer ist als was von der nativen Repräsentation vorgegeben, stellt CS ein alternatives Konzept für die Erfassung und Verarbeitung bereit, das versucht, die Abtastrate unter Beibehaltung des Signalinformationsgehalts zu reduzieren. In dieser Arbeit untersuchen wir einige der Grundlagen des endlichdimensionalen CSFrameworks und seine Verbindung mit Sub-Nyquist Abtastung und Verarbeitung von sparsen analogen Signalen. Obwohl es seit mehr als einem Jahrzehnt ein Schwerpunkt aktiver Forschung ist, gibt es noch erhebliche Lücken beim Verständnis der Auswirkungen von komprimierenden Ansätzen auf die Signalwiedergewinnung und die Verarbeitungsleistung, insbesondere bei rauschbehafteten Umgebungen und in Bezug auf praktische Messaufgaben. In dieser Dissertation untersuchen wir, wie sich die Anwendung eines komprimierenden Messkerns auf die Signal- und Rauschcharakteristiken auf die Signalrückgewinnungsleistung auswirkt. Wir erforschen auch Methoden, um die aktuelle Signal-Sparsity-Order aus den komprimierten Messungen abzuleiten, ohne auf die Nyquist-Raten-Verarbeitung zurückzugreifen, und zeigen den Vorteil, den sie für den Wiederherstellungsprozess bietet. Nachdem gehen wir zu einer speziellen Anwendung, nämlich der Sub-Nyquist-Abtastung und Verarbeitung von sparsen analogen Multibandsignalen. Innerhalb des Sub-Nyquist-Abtastung untersuchen wir drei verschiedene Multiband-Szenarien, die Multiband-Sensing in der spektralen, Winkel und räumlichen-Domäne einbeziehen.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018000167
Lavrenko, Anastasia;
Compressive acquisition and processing of sparse analog signals - Ilmenau : Universitätsverlag Ilmenau, 2018 - XV, 235 Seiten.
Technische Universität Ilmenau, Dissertation 2018

ISBN 3863601831 = 978-3-86360-183-6

Seit dem Aufkommen der ersten digitalen Verarbeitungseinheiten hat die Bedeutung der digitalen Signalverarbeitung stetig zugenommen. Heutzutage findet die meiste Signalverarbeitung im digitalen Bereich statt, was erfordert, dass analoge Signale zuerst abgetastet und digitalisiert werden, bevor relevante Daten daraus extrahiert werden können. Jahrzehntelang hat die herkömmliche äquidistante Abtastung, die durch das Nyquist-Abtasttheorem bestimmt wird, zu diesem Zweck ein nahezu universelles Mittel bereitgestellt. Der kürzlich explosive Anstieg der Anforderungen an die Datenerfassung, -speicherung und -verarbeitung hat jedoch die Fähigkeiten herkömmlicher Erfassungssysteme in vielen Anwendungsbereichen an ihre Grenzen gebracht. Durch eine alternative Sichtweise auf den Signalerfassungsprozess können Ideen aus der sparse Signalverarbeitung und einer ihrer Hauptanwendungsgebiete, Compressed Sensing (CS), dazu beitragen, einige dieser Probleme zu mindern. Basierend auf der Annahme, dass der Informationsgehalt eines Signals oft viel geringer ist als was von der nativen Repräsentation vorgegeben, stellt CS ein alternatives Konzept für die Erfassung und Verarbeitung bereit, das versucht, die Abtastrate unter Beibehaltung des Signalinformationsgehalts zu reduzieren. In dieser Arbeit untersuchen wir einige der Grundlagen des endlichdimensionalen CSFrameworks und seine Verbindung mit Sub-Nyquist Abtastung und Verarbeitung von sparsen analogen Signalen. Obwohl es seit mehr als einem Jahrzehnt ein Schwerpunkt aktiver Forschung ist, gibt es noch erhebliche Lücken beim Verständnis der Auswirkungen von komprimierenden Ansätzen auf die Signalwiedergewinnung und die Verarbeitungsleistung, insbesondere bei rauschbehafteten Umgebungen und in Bezug auf praktische Messaufgaben. In dieser Dissertation untersuchen wir, wie sich die Anwendung eines komprimierenden Messkerns auf die Signal- und Rauschcharakteristiken auf die Signalrückgewinnungsleistung auswirkt. Wir erforschen auch Methoden, um die aktuelle Signal-Sparsity-Order aus den komprimierten Messungen abzuleiten, ohne auf die Nyquist-Raten-Verarbeitung zurückzugreifen, und zeigen den Vorteil, den sie für den Wiederherstellungsprozess bietet. Nachdem gehen wir zu einer speziellen Anwendung, nämlich der Sub-Nyquist-Abtastung und Verarbeitung von sparsen analogen Multibandsignalen. Innerhalb des Sub-Nyquist-Abtastung untersuchen wir drei verschiedene Multiband-Szenarien, die Multiband-Sensing in der spektralen, Winkel und räumlichen-Domäne einbeziehen.


http://www.gbv.de/dms/ilmenau/toc/1025591038.PDFTEST2

Welker, Tilo;
Methoden und Technologien zur Optimierung der Entwärmung aktiver und passiver Komponenten auf keramischen Mehrlagensubstraten - Ilmenau : Universitätsverlag Ilmenau, 2018 - XV, 235 Seiten.
Technische Universität Ilmenau, Dissertation 2018

ISBN 3863601823 = 978-3-86360-182-9

Gegenstand dieser Arbeit ist der thermische Pfad in einem Mehrlagenmodul aus Niedertemperatur-Einbrand-Keramiken (engl.: low temperature co-fired ceramic, kurz: LTCC). Der thermische Pfad beschreibt dabei den Pfad der Wärme von einem verlustbehafteten Bauelement hin zu einer Wärmesenke. Ziel der Arbeit ist es durch neue Materialien, Technologien und Methoden den thermischen Pfad zu optimieren und so die thermische Performance des Mehrlagenmoduls zu verbessern. Der thermische Pfad kann in drei kritische Bereiche unterteilt werden. Der erste Bereich umfasst die Verbindung zwischen Chip und Substrat. Die hier eingesetzten Materialien stellen neben der mechanischen Fixierung auch den thermischen Kontakt zwischen Chip und Substrat her. Im Rahmen dieser Arbeit werden Silberpasten für die Chipmontage untersucht, die bei niedrigen Temperaturen sintern und eine thermisch hoch leitende Verbindung zwischen Chip und Substrat realisieren. Weiterhin werden reaktive Lote untersucht, die nach thermischer Aktivierung kurzzeitig einen starken thermischen Impuls generieren, wodurch das Fügen von Materialien mit unterschiedlichem thermischen Ausdehnungskoeffizient ermöglicht wird. Diese reaktiven Lote und die Silberpasten werden dabei mit den herkömmlichen Materialien der Chipmontage wie Loten und Klebern hinsichtlich ihres thermischen Widerstandes, der mechanischen Festigkeit und Zuverlässigkeit bewertet und verglichen. Der zweite Bereich umfasst das gesamte keramische Substrat. Um die geringe thermische Leitfähigkeit des Keramikgrundmaterials lokal zu verbessern, werden Metalle in Form von Metallzylindern in das Substrat integriert. Diese sog. thermischen Vias bestehen zumeist aus gold- oder silberbasierten Materialien und sind direkt in das Substrat unter die Chipbondfläche integriert. Gegenstand der Untersuchung ist hier der Einfluss der Viageometrie, des Viamaterials und des Sinterprozesses auf die thermische Performance und Hermetizität des Substrates. Weiterhin werden mittels neuen Silberfolien vollflächige Silberstrukturen in das Substrat integriert. Hierbei wird im Co-Fire Prozess das keramische Grundmaterial durch Silberfolie lokal substituiert, was Bereiche mit sehr hoher thermischer Leitfähigkeit im Substrat ermöglicht. Die thermische Performance solcher Silberstrukturen in LTCC Substraten wird anhand zweier Demonstratoren überprüft. Der dritte Bereich umfasst die Wärmesenke. Im Rahmen dieser Arbeit wird die Möglichkeit diskutiert, fluidische Kanäle in das LTCC Substrat zu integrieren und damit eine aktive Kühlung zu realisieren. Die Untersuchungen umfassen das Design und die Fertigung des Kühlkanals und der fluidischen Schnittstellen, sowie die Bewertung der Kühlleistung dieser Methode.



TEST4http://www.gbv.de/dms/ilmenau/toc/1025566335.PDF
Denk, Frank;
Elektromagnetische Einspritzventile für Ottomotoren : ein Beitrag zur Charakterisierung und Systemintegration schnellschaltender Aktuatoren - Ilmenau : Universitätsverlag Ilmenau - XIII, 152 Seiten. ISBN 3863601769 = 978-3-86360-176-8
Die dieser Publikation zugrundeliegende Dissertation hat der Fakultät für Maschinenbau der Technischen Universität Ilmenau unter folgendem Titel vorgelegen: Beitrag zur Charakterisierung und Systemintegration schnellschaltender elektromagnetischer Aktuatoren - insbesondere Einspritzventile für Ottomotoren

Der gesetzlich zulässige Schadstoffausstoß von Verbrennungsmotoren erfordert die Entwicklung neuer Ansteuerstrategien von Kraftstoffeinspritzventilen. Die vorliegende Arbeit untersucht das einspritzrelevante System aus Elektronik, Software, Einspritzventil sowie Hydraulik und entwickelt neue elektromagnetische Methoden zur Optimierung des hydraulischen Einspritzvorgangs. Insbesondere die dynamischen Vorgänge des hydraulischen Öffnens und des hydraulischen Schließens bilden den Schwerpunkt der Untersuchungen. Auf Basis der Maxwellschen Gleichungen wird dargestellt, dass das dynamische Verhalten des Einspritzventils vor allem durch die Reluktanzkraft erfolgt. Es wird gezeigt, dass die elektromagnetischen Ansteuerparameter Spulenspannung und Spulenstrom bei einem Einspritzventil einen signifikanten Einfluss auf den hydraulischen Einspritzvorgang haben. Die Eigenschaft, dass die mechanisch-hydraulische Reaktion magneto-elektrisch auf die Ansteuerung zurückwirkt, wird genutzt, um den Einspritzablauf zu analysieren. Durch die Parametervariation der Ansteuerung und der Analyse der sensorischen Rückmeldung wird ein robustes hydraulisches Öffnen, ein sicheres hydraulisches Offenhalten und ein schnelles hydraulisches Schließen mit der dafür benötigten elektrischen Energie abgestimmt und optimiert. Mit speziellen Verfahren wird der magnetische Fluss des Einspritzventils berechnet. Diese zeigen eine im Kraftfahrzeugbereich neue Möglichkeit der effizienten Abstimmung des elektrischen Energieeintrags sowie der hydraulischen Reaktion und bieten einen Ausblick in zukünftige Regelkonzepte. Diese Arbeit lehnt sich streng an die Umgebungsbedingungen in einem heutigen elektrischen Bordnetz an. Damit ist die Möglichkeit gegeben, die Ergebnisse technisch in Serienapplikationen umzusetzen.



TEST4http://www.gbv.de/dms/ilmenau/toc/102541988X.PDF
Fakih, Bashir;
Tribologisch und elektrisch induzierte Effekte im Kommutator-Bürste-Kontakt im permanent erregten Gleichstrommotor - Ilmenau : Universitätsverlag Ilmenau, 2018 - 1 Online-Ressource (xix, 159 Seiten). . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA). - Band 21)
Technische Universität Ilmenau, Dissertation 2018

Ausschlaggebend für die Lebensdauer eines Gleichstrommotors ist der Verschleiß des tribologischen Systems Kohlebürste-Kommutator. Für eine längere Lebensdauer sollen in dieser Arbeit gezielte Modifikationen im Tribosystem durchgeführt werden, um dessen Verschleißbeständigkeit zu erhöhen. Ausführliche Literaturrecherchen haben verdeutlicht, dass bisher keine Erkenntnisse über die Wirkung der Materialorientierung, den morphologischen Eigenschaften der Kohlebürsten und einer möglichen Beeinflussung durch einen Schmierfilm vorliegen. Da in diesen Bereichen noch Verbesserungspotential im Tribosystem Kohlebürste-Kommutator vermutet wird, bilden die drei Themen den Inhalt dieser Arbeit. Im ersten Teil dieser Dissertation wurde der Einfluss der Materialausrichtung der Kohlebürste auf den Kommutator-Bürste-Kontakt untersucht. Dazu wurden Kohlebürsten mit axialer, radialer und tangentialer Pressrichtung in einem Prüfstand untersucht. Reibungs- und Verschleißwerte differierten zwischen den einzelnen Varianten bei stromlosen Versuchen, wobei die axiale und die radiale Varianten niedrige Verschleißwerte zeigten. Durch die Analyse des Systems konnten unterschiedliche Reibmechanismen festgestellt werden. Bei bestromten Versuchen erhöhten sich die Verschleißwerte markant und zeigten keinen deutlichen Unterschied zwischen den Bürsten mit unterschiedlicher Pressrichtung. Andererseits wiesen die Kommutatorlamellen ungleichmäßigen Verschleiß zwischen der auflaufenden und der ablaufenden Lamellenkante auf. Zur Optimierung dieses Effekts wurde ein Verfahren zur Festigkeitssteigerung des Kupfers angewendet, mit dem das Verschleißverhalten abgesenkt und homogenisiert werden konnte. Im zweiten Teil der Arbeit wird der Einfluss eines Schmierfilms auf den Reibkontakt charakterisiert. Bei bestromten Prüfstandsversuchen kamen schlecht leitende, sowie ein gut leitender Schmierstoff zum Einsatz. Durch die Zugabe einer ionischen Flüssigkeit bei der gut leitenden Variante konnte der hohe Verschleiß von geschmierten Systemen reduziert werden. Im dritten Teil wurde der Einfluss der Sintertemperatur bei der Bürstenherstellung auf das tribologische Verhalten untersucht. Bei der Analyse der Bürsten konnten hochohmige und niederohmige Varianten detektiert werden. Durch chemische Analysen von Bruchflächen konnte eine Anreicherung von Fremdelementen an den Korngrenzen festgestellt werden. Mithilfe eines Stichversuchs konnte jedoch belegt werden, dass die Prozessführung bezüglich der Temperatursteuerung einen übergeordneten Einfluss auf die Entstehung von niederohmigen Bürsten hat, indem sich bei einigen Parametern die Kupferpartikel besser verbinden und somit die Leitfähigkeit gesteigert wird.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018000117
Fakih, Bashir;
Tribologisch und elektrisch induzierte Effekte im Kommutator-Bürste-Kontakt im permanent erregten Gleichstrommotor - Ilmenau : Universitätsverlag Ilmenau, 2018 - xix, 159 Seiten. . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA). - Band 21)
Technische Universität Ilmenau, Dissertation 2018

Ausschlaggebend für die Lebensdauer eines Gleichstrommotors ist der Verschleiß des tribologischen Systems Kohlebürste-Kommutator. Für eine längere Lebensdauer sollen in dieser Arbeit gezielte Modifikationen im Tribosystem durchgeführt werden, um dessen Verschleißbeständigkeit zu erhöhen. Ausführliche Literaturrecherchen haben verdeutlicht, dass bisher keine Erkenntnisse über die Wirkung der Materialorientierung, den morphologischen Eigenschaften der Kohlebürsten und einer möglichen Beeinflussung durch einen Schmierfilm vorliegen. Da in diesen Bereichen noch Verbesserungspotential im Tribosystem Kohlebürste-Kommutator vermutet wird, bilden die drei Themen den Inhalt dieser Arbeit. Im ersten Teil dieser Dissertation wurde der Einfluss der Materialausrichtung der Kohlebürste auf den Kommutator-Bürste-Kontakt untersucht. Dazu wurden Kohlebürsten mit axialer, radialer und tangentialer Pressrichtung in einem Prüfstand untersucht. Reibungs- und Verschleißwerte differierten zwischen den einzelnen Varianten bei stromlosen Versuchen, wobei die axiale und die radiale Varianten niedrige Verschleißwerte zeigten. Durch die Analyse des Systems konnten unterschiedliche Reibmechanismen festgestellt werden. Bei bestromten Versuchen erhöhten sich die Verschleißwerte markant und zeigten keinen deutlichen Unterschied zwischen den Bürsten mit unterschiedlicher Pressrichtung. Andererseits wiesen die Kommutatorlamellen ungleichmäßigen Verschleiß zwischen der auflaufenden und der ablaufenden Lamellenkante auf. Zur Optimierung dieses Effekts wurde ein Verfahren zur Festigkeitssteigerung des Kupfers angewendet, mit dem das Verschleißverhalten abgesenkt und homogenisiert werden konnte. Im zweiten Teil der Arbeit wird der Einfluss eines Schmierfilms auf den Reibkontakt charakterisiert. Bei bestromten Prüfstandsversuchen kamen schlecht leitende, sowie ein gut leitender Schmierstoff zum Einsatz. Durch die Zugabe einer ionischen Flüssigkeit bei der gut leitenden Variante konnte der hohe Verschleiß von geschmierten Systemen reduziert werden. Im dritten Teil wurde der Einfluss der Sintertemperatur bei der Bürstenherstellung auf das tribologische Verhalten untersucht. Bei der Analyse der Bürsten konnten hochohmige und niederohmige Varianten detektiert werden. Durch chemische Analysen von Bruchflächen konnte eine Anreicherung von Fremdelementen an den Korngrenzen festgestellt werden. Mithilfe eines Stichversuchs konnte jedoch belegt werden, dass die Prozessführung bezüglich der Temperatursteuerung einen übergeordneten Einfluss auf die Entstehung von niederohmigen Bürsten hat, indem sich bei einigen Parametern die Kupferpartikel besser verbinden und somit die Leitfähigkeit gesteigert wird.



TEST4http://www.gbv.de/dms/ilmenau/toc/102530022X.PDF
Steiner, Cindy;
Plasmagestützte Nanostrukturierung von ETFE-Folie - Ilmenau : Universitätsverlag Ilmenau, 2018 - 1 Online-Ressource (xiii, 168 Seiten). . - (Werkstofftechnik aktuell. - Band 18)
Technische Universität Ilmenau, Dissertation 2018

Die vorliegende Arbeit befasst sich mit der Untersuchung der Strukturbildung auf Ethylentetrafluorethylen-Folie (ETFE) in einem Plasmaätzprozess. Als Plasmaquelle wird ein Doppel-Magnetron-System mit gepulster Gleichspannung genutzt. In einer reinen Sauerstoffatmosphäre bilden sich negative Sauerstoffionen, die im Kathodenfall zum Substrat beschleunigt werden und mit diesem interagieren. Durch die Wechselwirkung mit der ETFE-Folie wird deren Oberfläche nanostrukturiert. Zunächst wird durch Variation der Energiedosis der Einfluss der Prozessparameter auf die Strukturbildung untersucht. Die Nanostrukturen werden hinsichtlich ihrer reflexionsmindernden und damit transmissionserhöhenden Wirkung sowie ihrer Strukturgrößen, -formen und -tiefen analysiert. Mit steigender Energiedosis zeigt sich ein Anstieg der Strukturtiefe. Damit verbunden steigt die Transmission bis zu einem Maximum an und fällt bei weiterer Steigerung der Energiedosis wieder ab. Der Zusammenhang zwischen der Energiedosis, der Transmissionsänderung und den Strukturdimensionen wird dargestellt und diskutiert. Die zur Analyse der Nanostrukturen genutzten Charakterisierungsmethoden werden miteinander verglichen und auf ihre Anwendbarkeit zur Beschreibung nanostrukturierter ETFE-Folie untersucht und bewertet. Weiterhin wird der Einfluss der kristallinen Bereiche auf die Strukturbildung untersucht. Dafür wird die teilkristalline ETFE-Folie monoaxial verstreckt. Die Kristalllamellen richten sich im ETFE aus. Im Plasmaätzprozess bilden sich auf den gereckten ETFE-Folien Nanostrukturen aus, die sich von denen auf ungerecktem ETFE unterscheiden. Die Dimensionen der Nanostrukturen werden in Bezug zu den Dimensionen der kristallinen Bereiche betrachtet und der Zusammenhang zwischen Strukturbildung und den kristallinen Bereichen des ETFE untersucht und diskutiert. Abschließend werden Möglichkeiten zur weiteren Erhöhung der Transmission dargestellt. Die im Rahmen der Arbeit gewonnenen Erkenntnisse zur Abhängigkeit der Strukturbildung von den Plasmaparametern werden auf das Polymer Polyethylenterephthalat (PET) übertragen. Außerdem wird die Stabilität des nanostrukturierten ETFE gegenüber Witterungseinflüssen gezeigt und damit das Potenzial nanostrukturierten ETFE-Folie für Außenanwendungen wie der Verkapselung von Solarzellen dargestellt.



https://www.db-thueringen.de/receive/dbt_mods_00034643
Steiner, Cindy;
Plasmagestützte Nanostrukturierung von ETFE-Folie - Ilmenau : Universitätsverlag Ilmenau, 2018 - xiii, 168 Seiten. . - (Werkstofftechnik aktuell. - Band 18)
Technische Universität Ilmenau, Dissertation 2018

ISBN 3863601793 = 978-3-86360-179-9

Die vorliegende Arbeit befasst sich mit der Untersuchung der Strukturbildung auf Ethylentetrafluorethylen-Folie (ETFE) in einem Plasmaätzprozess. Als Plasmaquelle wird ein Doppel-Magnetron-System mit gepulster Gleichspannung genutzt. In einer reinen Sauerstoffatmosphäre bilden sich negative Sauerstoffionen, die im Kathodenfall zum Substrat beschleunigt werden und mit diesem interagieren. Durch die Wechselwirkung mit der ETFE-Folie wird deren Oberfläche nanostrukturiert. Zunächst wird durch Variation der Energiedosis der Einfluss der Prozessparameter auf die Strukturbildung untersucht. Die Nanostrukturen werden hinsichtlich ihrer reflexionsmindernden und damit transmissionserhöhenden Wirkung sowie ihrer Strukturgrößen, -formen und -tiefen analysiert. Mit steigender Energiedosis zeigt sich ein Anstieg der Strukturtiefe. Damit verbunden steigt die Transmission bis zu einem Maximum an und fällt bei weiterer Steigerung der Energiedosis wieder ab. Der Zusammenhang zwischen der Energiedosis, der Transmissionsänderung und den Strukturdimensionen wird dargestellt und diskutiert. Die zur Analyse der Nanostrukturen genutzten Charakterisierungsmethoden werden miteinander verglichen und auf ihre Anwendbarkeit zur Beschreibung nanostrukturierter ETFE-Folie untersucht und bewertet. Weiterhin wird der Einfluss der kristallinen Bereiche auf die Strukturbildung untersucht. Dafür wird die teilkristalline ETFE-Folie monoaxial verstreckt. Die Kristalllamellen richten sich im ETFE aus. Im Plasmaätzprozess bilden sich auf den gereckten ETFE-Folien Nanostrukturen aus, die sich von denen auf ungerecktem ETFE unterscheiden. Die Dimensionen der Nanostrukturen werden in Bezug zu den Dimensionen der kristallinen Bereiche betrachtet und der Zusammenhang zwischen Strukturbildung und den kristallinen Bereichen des ETFE untersucht und diskutiert. Abschließend werden Möglichkeiten zur weiteren Erhöhung der Transmission dargestellt. Die im Rahmen der Arbeit gewonnenen Erkenntnisse zur Abhängigkeit der Strukturbildung von den Plasmaparametern werden auf das Polymer Polyethylenterephthalat (PET) übertragen. Außerdem wird die Stabilität des nanostrukturierten ETFE gegenüber Witterungseinflüssen gezeigt und damit das Potenzial nanostrukturierten ETFE-Folie für Außenanwendungen wie der Verkapselung von Solarzellen dargestellt.



TEST4http://www.gbv.de/dms/ilmenau/toc/102241402X.PDF
Krenkel, Sharon;
Anisotrope, hierarchische Strukturierung von nanoporösen Gläsern - Ilmenau : Universitätsverlag Ilmenau, 2018 - 1 Online-Ressource (xvii, 277 Seiten). . - (Werkstofftechnik aktuell. - Band 17)
Technische Universität Ilmenau, Dissertation 2017

Die im Rahmen des Projektes "ANIMON" entstandene Arbeit beschäftigt sich mit der Herstellung und Charakterisierung von glasbasierten, hierarchisch porösen Monolithen mit anisotropem Porensystem im Mikro- bzw. Nanometerbereich. Die Formgebung durch Verziehen von Rohrbündeln unter Anwendung des Draw-Down-Prozesses wurde mit dem Herstellungsprozess für nanoporöse Gläser ausgehend von Alkaliborosilicatgläsern kombiniert. Mit diesem zweistufigen Verfahren wurden hierarchisch poröse Multikapillaren erzeugt. Die Größe der anisotrop orientierten Luft- bzw. Kanalporen liegt zwischen 5*10^-6 und 2 mm, die der Nanometerporen zwischen 2 und 300 nm. Die Grundlagenuntersuchungen zum Entmischungsverhalten und zur Viskosität ausgewählter Natriumborosilicatgläser und die Kontrolle der Prozesstechnik waren Voraussetzungen für die Steuerung der Porengrößen. Durch eine gezielte Auswahl der Prozessparameter, angepasst an die Glaszusammensetzung, ließ sich die Größeneinstellung der Nanometerporen vom Formgebungsprozess trennen. In Hinblick auf zukünftige Anwendungen wurden die mechanischen sowie optischen Eigenschaften bestimmt, erste Versuche zur Biokompatibilität durchgeführt und die Oberfläche modifiziert. In einem weiteren Teil der Arbeit wurde der Ansatz verfolgt, auch die Nanometerporen in der Glaswand zu orientieren. Hierfür war die Ausrichtung der Primärphasen unter Zugbelastung zielführend. Die Quantifizierung der Porenorientierung erfolgte mittels eines eigens entwickelten Bildanalyseverfahrens. Über die im Projekt vorgesehene Umformmethode hinaus wurden generative Fertigungsverfahren zur Herstellung hierarchisch poröser Monolithe mit anisotropen Poren im Mikrometerbereich untersucht. Im Falle des selektiven Lasersinterns mit dem CO2-Laser wurden mechanisch stabile Monolithe erhalten, deren Porengröße von der Formgebung unabhängig kontrollierbar ist. Des Weiteren wurde eine anisotrope Orientierung der Luft- und Kanalporen über die Schwamm-Replika-Technik realisiert. Verziehen und generative Fertigung wurden erfolgreich für entmischbare Gläser optimiert, so dass Glasformkörper mit Nanometerporen in den Wänden, Kanälen mit Durchmessern bis zu Millimetern und einer großen Bandbreite an geometrischen Formen erzeugt werden können. Nach passender Oberflächenfunktionalisierung erlauben sie Anwendungen in der Sensortechnologie, als Mikroreaktoren und für die Katalyse.



https://www.db-thueringen.de/receive/dbt_mods_00034529
Krenkel, Sharon;
Anisotrope, hierarchische Strukturierung von nanoporösen Gläsern - Ilmenau : Universitätsverlag Ilmenau, 2018 - xvii, 277 Seiten. . - (Werkstofftechnik aktuell. - Band 17)
Technische Universität Ilmenau, Dissertation 2017

ISBN 3863601785 = 978-3-86360-178-2

Die im Rahmen des Projektes "ANIMON" entstandene Arbeit beschäftigt sich mit der Herstellung und Charakterisierung von glasbasierten, hierarchisch porösen Monolithen mit anisotropem Porensystem im Mikro- bzw. Nanometerbereich. Die Formgebung durch Verziehen von Rohrbündeln unter Anwendung des Draw-Down-Prozesses wurde mit dem Herstellungsprozess für nanoporöse Gläser ausgehend von Alkaliborosilicatgläsern kombiniert. Mit diesem zweistufigen Verfahren wurden hierarchisch poröse Multikapillaren erzeugt. Die Größe der anisotrop orientierten Luft- bzw. Kanalporen liegt zwischen 5*10^-6 und 2 mm, die der Nanometerporen zwischen 2 und 300 nm. Die Grundlagenuntersuchungen zum Entmischungsverhalten und zur Viskosität ausgewählter Natriumborosilicatgläser und die Kontrolle der Prozesstechnik waren Voraussetzungen für die Steuerung der Porengrößen. Durch eine gezielte Auswahl der Prozessparameter, angepasst an die Glaszusammensetzung, ließ sich die Größeneinstellung der Nanometerporen vom Formgebungsprozess trennen. In Hinblick auf zukünftige Anwendungen wurden die mechanischen sowie optischen Eigenschaften bestimmt, erste Versuche zur Biokompatibilität durchgeführt und die Oberfläche modifiziert. In einem weiteren Teil der Arbeit wurde der Ansatz verfolgt, auch die Nanometerporen in der Glaswand zu orientieren. Hierfür war die Ausrichtung der Primärphasen unter Zugbelastung zielführend. Die Quantifizierung der Porenorientierung erfolgte mittels eines eigens entwickelten Bildanalyseverfahrens. Über die im Projekt vorgesehene Umformmethode hinaus wurden generative Fertigungsverfahren zur Herstellung hierarchisch poröser Monolithe mit anisotropen Poren im Mikrometerbereich untersucht. Im Falle des selektiven Lasersinterns mit dem CO2-Laser wurden mechanisch stabile Monolithe erhalten, deren Porengröße von der Formgebung unabhängig kontrollierbar ist. Des Weiteren wurde eine anisotrope Orientierung der Luft- und Kanalporen über die Schwamm-Replika-Technik realisiert. Verziehen und generative Fertigung wurden erfolgreich für entmischbare Gläser optimiert, so dass Glasformkörper mit Nanometerporen in den Wänden, Kanälen mit Durchmessern bis zu Millimetern und einer großen Bandbreite an geometrischen Formen erzeugt werden können. Nach passender Oberflächenfunktionalisierung erlauben sie Anwendungen in der Sensortechnologie, als Mikroreaktoren und für die Katalyse.



TEST4http://www.gbv.de/dms/ilmenau/toc/1022170546.PDF
Krüger, Jan;
Einfluss des Gütemerkmals Lichtrichtung und Schattigkeit auf Störwirkung und visuellen Diskomfort - Ilmenau : Universitätsverlag Ilmenau, 2018 - 1 Online-Ressource (234 Seiten). . - (Schriften der Ilmenauer Lichttechnik. - Band 23)
Technische Universität Ilmenau, Dissertation 2018

In dieser Forschungsarbeit wurde der Einfluss des Gütemerkmals Lichtrichtung und Schattigkeit bei verschiedenen Arbeitstätigkeiten wie Lesetätigkeit, visuell-motorischer Arbeit und Formerkennung untersucht. Die Versuche waren darauf ausgerichtet, mögliche Zusammenhänge des Gütemerkmals mit dem visuellen Diskomfort aufzuzeigen. Bei allen Arbeitstätigkeiten wurden daher neben objektiven Leistungsparametern subjektive Beanspruchungsdaten sowie visuelle Beschwerden erfasst. Bei der Analyse der Teilversuche konnten signifikante Wirkungen von Lichtrichtung und Schattigkeit auf objektive Leistungsparameter der visuellen Wahrnehmung abgeleitet werden. In Abhängigkeit der Arbeitsaufgabe zeigten sich unterschiedliche Stufen der Beeinträchtigung, welche das Gütemerkmal mit Störwirkung und visuellem Diskomfort in Verbindung bringen. Die Ergebnisse der drei Teilversuche wurden in ein übergreifendes, psychologisches Modell eingeordnet, welches die Auswirkungen auf die Gesundheit von Beschäftigen erklärt und die Relevanz des Gütemerkmals für den Arbeitsschutz darstellt. Das Regelkreismodell beschreibt die Regulierung von Arbeitsleistung bei hoher Arbeitslast und Stressbedingungen unter Berücksichtigung der subjektiv erlebten Anstrengung. Im Modell fungierten die Beleuchtungsbedingungen als Stressor, welche höhere Anforderungen bei der Aufgabenausführung hervorriefen. Mithilfe des Modells können Kompensationseffekte (Leistungs- und Beanspruchungskompensation) erklärt werden, welche bei den Probanden beobachtet werden konnten. Besonders vor dem Hintergrund der zunehmenden Verbreitung der LED-Technologie mit ihren charakteristischen Merkmalen, wie der kleinen Quellengröße und der starken Gerichtetheit des Lichts wird die Notwendigkeit nach einer stärkeren Untersuchung dieses Gütemerkmals aufgezeigt. In den einzelnen Abschnitten des Theorieteils wird sukzessive zu einer Problemstellung hingeführt. Diese betrifft den Umstand, dass Lichtrichtung und Schattigkeit in Normung und Regelsetzung als Faktoren für Wahrnehmung, visuelle Ermüdung bzw. visuellen Diskomfort kaum Berücksichtigung finden. Nicht zuletzt werden Praxisempfehlungen ausgesprochen und weiterführender Forschungsbedarf aufgezeigt. Die Praxisempfehlungen betreffen einerseits die Anpassung von Lichtrichtung und Schattigkeit an den Kontext der Arbeitsaufgabe und andererseits Empfehlungen für die Lichtplanung und Leuchtengestaltung.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018000092
Krüger, Jan;
Einfluss des Gütemerkmals Lichtrichtung und Schattigkeit auf Störwirkung und visuellen Diskomfort - Ilmenau : Universitätsverlag Ilmenau, 2018 - 234 Seiten. . - (Schriften der Ilmenauer Lichttechnik. - Band 23)
Technische Universität Ilmenau, Dissertation 2018

ISBN 3863601807 = 978-3-86360-180-5

In dieser Forschungsarbeit wurde der Einfluss des Gütemerkmals Lichtrichtung und Schattigkeit bei verschiedenen Arbeitstätigkeiten wie Lesetätigkeit, visuell-motorischer Arbeit und Formerkennung untersucht. Die Versuche waren darauf ausgerichtet, mögliche Zusammenhänge des Gütemerkmals mit dem visuellen Diskomfort aufzuzeigen. Bei allen Arbeitstätigkeiten wurden daher neben objektiven Leistungsparametern subjektive Beanspruchungsdaten sowie visuelle Beschwerden erfasst. Bei der Analyse der Teilversuche konnten signifikante Wirkungen von Lichtrichtung und Schattigkeit auf objektive Leistungsparameter der visuellen Wahrnehmung abgeleitet werden. In Abhängigkeit der Arbeitsaufgabe zeigten sich unterschiedliche Stufen der Beeinträchtigung, welche das Gütemerkmal mit Störwirkung und visuellem Diskomfort in Verbindung bringen. Die Ergebnisse der drei Teilversuche wurden in ein übergreifendes, psychologisches Modell eingeordnet, welches die Auswirkungen auf die Gesundheit von Beschäftigen erklärt und die Relevanz des Gütemerkmals für den Arbeitsschutz darstellt. Das Regelkreismodell beschreibt die Regulierung von Arbeitsleistung bei hoher Arbeitslast und Stressbedingungen unter Berücksichtigung der subjektiv erlebten Anstrengung. Im Modell fungierten die Beleuchtungsbedingungen als Stressor, welche höhere Anforderungen bei der Aufgabenausführung hervorriefen. Mithilfe des Modells können Kompensationseffekte (Leistungs- und Beanspruchungskompensation) erklärt werden, welche bei den Probanden beobachtet werden konnten. Besonders vor dem Hintergrund der zunehmenden Verbreitung der LED-Technologie mit ihren charakteristischen Merkmalen, wie der kleinen Quellengröße und der starken Gerichtetheit des Lichts wird die Notwendigkeit nach einer stärkeren Untersuchung dieses Gütemerkmals aufgezeigt. In den einzelnen Abschnitten des Theorieteils wird sukzessive zu einer Problemstellung hingeführt. Diese betrifft den Umstand, dass Lichtrichtung und Schattigkeit in Normung und Regelsetzung als Faktoren für Wahrnehmung, visuelle Ermüdung bzw. visuellen Diskomfort kaum Berücksichtigung finden. Nicht zuletzt werden Praxisempfehlungen ausgesprochen und weiterführender Forschungsbedarf aufgezeigt. Die Praxisempfehlungen betreffen einerseits die Anpassung von Lichtrichtung und Schattigkeit an den Kontext der Arbeitsaufgabe und andererseits Empfehlungen für die Lichtplanung und Leuchtengestaltung.



TEST4http://www.gbv.de/dms/ilmenau/toc/1019349018.PDF
Schirmer, Christopher;
Over-The-Air Testing using Wave-Field Synthesis - Ilmenau : Universitätsverlag Ilmenau, 2018 - 1 Online-Ressource (211 Seiten).
Technische Universität Ilmenau, Dissertation 2018

Moderne Kommunikationsgeräte, z. B. Smartphones und GPS-Empfänger streben einen hohen Integrationsgrad an, um Kosten, Platz und Energie zu sparen. Es existieren auch große Geräte, wie zum Beispiel Fahrzeuge mit integrierten Long Term Evolution-Antennen. Um den Entwicklungsprozess zu beschleunigen, werden adäquate Testverfahren benötigt, die eine korrekte Funktionsweise aller Gerätekomponenten sicherstellen. Das Ziel dieser Arbeit ist es, Testverfahren einschließlich Kalibrierverfahren zu entwickeln, die reproduzierbare Testbedingungen erlauben, um vergleichbare Leistungstests von Kommunikationssystemen zu ermöglichen. Diese Arbeit besteht aus zwei Teilen. Der erste Teil beschäftigt sich mit Wellenfeldsynthese (WFS) für elektrisch kleine Geräte. Der zweite Teil präsentiert ein alternatives Testverfahren für elektrisch große Geräte, welches Wireless Cable (WLC) bezeichnet wird. Im WFS-Teil werden Simulationen durchgeführt, um die Anwendbarkeit der WFS für Over-The-Air-Tests in 2D und 3D zur Erzeugung ebener elektromagnetischer Wellen zu untersuchen. Ein Kalibrierverfahren wird für die 2D-WFS vorgestellt, um den Frequenzgang analoger Systemkomponenten zu entzerren. Das Kalibrierverfahren wird mit Hilfe der Metriken Error Vector Magnitude und Poynting Vector Angular Deviation verifiziert. Es werden zur Verifikation des gesamten WFS-Systems Messungen auf Basis von GPS durchgeführt, die mit kabelgebundenen Tests verglichen werden. Zur Demonstration der Vollständigen Mess- und Testprozedur werden verschiedene Mehrelement-Antennen unter identischen Messbedingungen verglichen. Einflüsse auf ein reales System durch Rauschen, Drift und Temperatureinfluss werden untersucht. Für 3D-WFS wird ein optimierender Algorithmus wird entwickelt und verifiziert, um Emulationsantennen auf einer Sphäre oder Hemisphäre optimal zu verteilen. Im Wireless Cable-Teil wird das gleichnamige Testverfahren vorgestellt, das als alternative Over-The-Air-Testmethode die Untersuchung großer Geräte erlaubt. Die Anwendbarkeit in nicht-reflexionsfreien Umgebungen wird demonstriert. Wie alle Over-The-Air-basierten Testverfahren berücksichtigt Wireless Cable auch Selbstinterferenz. Eine Langzeitstabilitätsanalyse wird durchgeführt, außerdem eine Verifikation der Anwendbarkeit eines realistischen Funkkanals für den Anwendungsfall Long Term Evolution.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018000061
Schirmer, Christopher;
Over-the-air testing using wave-field synthesis - Ilmenau : Universitätsverlag Ilmenau, 2018 - 211 Seiten.
Technische Universität Ilmenau, Dissertation 2018

ISBN 3863601777 = 978-3-86360-177-5

Moderne Kommunikationsgeräte, z. B. Smartphones und GPS-Empfänger streben einen hohen Integrationsgrad an, um Kosten, Platz und Energie zu sparen. Es existieren auch große Geräte, wie zum Beispiel Fahrzeuge mit integrierten Long Term Evolution-Antennen. Um den Entwicklungsprozess zu beschleunigen, werden adäquate Testverfahren benötigt, die eine korrekte Funktionsweise aller Gerätekomponenten sicherstellen. Das Ziel dieser Arbeit ist es, Testverfahren einschließlich Kalibrierverfahren zu entwickeln, die reproduzierbare Testbedingungen erlauben, um vergleichbare Leistungstests von Kommunikationssystemen zu ermöglichen. Diese Arbeit besteht aus zwei Teilen. Der erste Teil beschäftigt sich mit Wellenfeldsynthese (WFS) für elektrisch kleine Geräte. Der zweite Teil präsentiert ein alternatives Testverfahren für elektrisch große Geräte, welches Wireless Cable (WLC) bezeichnet wird. Im WFS-Teil werden Simulationen durchgeführt, um die Anwendbarkeit der WFS für Over-The-Air-Tests in 2D und 3D zur Erzeugung ebener elektromagnetischer Wellen zu untersuchen. Ein Kalibrierverfahren wird für die 2D-WFS vorgestellt, um den Frequenzgang analoger Systemkomponenten zu entzerren. Das Kalibrierverfahren wird mit Hilfe der Metriken Error Vector Magnitude und Poynting Vector Angular Deviation verifiziert. Es werden zur Verifikation des gesamten WFS-Systems Messungen auf Basis von GPS durchgeführt, die mit kabelgebundenen Tests verglichen werden. Zur Demonstration der Vollständigen Mess- und Testprozedur werden verschiedene Mehrelement-Antennen unter identischen Messbedingungen verglichen. Einflüsse auf ein reales System durch Rauschen, Drift und Temperatureinfluss werden untersucht. Für 3D-WFS wird ein optimierender Algorithmus wird entwickelt und verifiziert, um Emulationsantennen auf einer Sphäre oder Hemisphäre optimal zu verteilen. Im Wireless Cable-Teil wird das gleichnamige Testverfahren vorgestellt, das als alternative Over-The-Air-Testmethode die Untersuchung großer Geräte erlaubt. Die Anwendbarkeit in nicht-reflexionsfreien Umgebungen wird demonstriert. Wie alle Over-The-Air-basierten Testverfahren berücksichtigt Wireless Cable auch Selbstinterferenz. Eine Langzeitstabilitätsanalyse wird durchgeführt, außerdem eine Verifikation der Anwendbarkeit eines realistischen Funkkanals für den Anwendungsfall Long Term Evolution.



TEST4http://www.gbv.de/dms/ilmenau/toc/1018361847.PDF
Balbierer, Norbert;
Energiemanagement Ethernet-basierter Fahrzeugnetze - Ilmenau : Universitätsverlag Ilmenau, 2018 - xvi, 215 Seiten.
Technische Universität Ilmenau, Dissertation 2018

Die Einführung von Ethernet als Vernetzungstechnologie für neue Fahrzeuggenerationen eröffnet ein weites Feld an Möglichkeiten für vernetzte Funktionen und Systeme im Automobil. Die wachsende Anzahl elektronischer Systeme heutiger Fahrzeuge hat jedoch auch einen zunehmend deutlichen Anteil am gesamten Energiebedarf und damit einhergehend an Kraftstoffverbrauch und CO2-Emission. Gleichzeitig steigt das Bestreben, Fahrzeuge effizienter zu gestalten, um Energieverbrauch und Emissionen zu reduzieren. Neben der Erhöhung der Energieeffizienz der einzelnen Komponenten ist das selektive Abschalten vernetzter Steuergeräte während des Betriebs des Fahrzeugs (Teilnetzbetrieb) ein Mittel zur Optimierung der Leistungsaufnahme der Bordelektronik. In der vorliegenden Arbeit werden Konzepte zur Umsetzung von Teilnetzbetrieb für Ethernet-basierte Netzwerke vorgeschlagen. Um Steuergeräte durch das Netzwerk aufwecken zu können wurde ein ruhestromloser Weckempfänger entwickelt, realisiert und getestet. Zur Koordination des Teilnetzbetriebs wurden zwei Netzwerkmanagement-Protokolle erarbeitet, implementiert und evaluiert. Die beschriebenen Konzepte wurden in einem Testfahrzeug unter realen Bedingungen eingesetzt und erprobt.



https://www.db-thueringen.de/receive/dbt_mods_00034376
Günther, Karsten;
Werkstofftechnische Betrachtungen zum Heißdraht unterstützten MSG-Auftragschweißen hartstoffverstärkter Verschleißschutzlegierungen - Ilmenau : Universitätsverlag Ilmenau, 2018 - 1 Online-Ressource (XVI, 141 Seiten). . - (Fertigungstechnik - aus den Grundlagen für die Anwendung. - Band 5)
Technische Universität Ilmenau, Dissertation 2018

Das Metall-Schutzgas(MSG)-Auftragschweißen von hartstoffverstärkten Verschleiß-schutzlegierungen weist trotz der einfachen Bedienbarkeit und des hohen Mechanisierungsgrades nur eine geringe Akzeptanz im Bereich der Beschichtungstechnik auf. Gründe hierfür liegen insbesondere in der unmittelbaren Korrelation zwischen dem Material- und Energieeintrag, wodurch hohe Drahtvorschübe zwangsläufig eine zunehmende thermische Werkstoffbeanspruchung zur Folge haben. Im praktischen Einsatz führt dies bereits bei geringen Abschmelzleistungen von ca. 5 kg/h zu hohen Aufschmelzgraden von bis zu 40 %. Zudem unterliegen temperaturempfindliche Hartphasen, wie z.B. Wolframschmelzkarbide (WSC), einer hohen thermischen Beanspruchung, was unter anderem auf die direkte Lichtbogenwechselwirkung zurückzuführen ist. Thermisch bedingte Zersetzungsprozesse führen hierbei zu einer Abnahme des WSC-Anteils, wodurch die Verschleißbeständigkeit gemindert wird. Mit Hilfe eines zusätzlich dem Schmelzbad zugeführten Heißdrahtes wurde ein neuartiger Ansatz entwickelt und erforscht, um den Energie- und Materialeintrag beim MSG-Auftragschweißen zu entkoppeln. Neben den verringerten Prozessleistungen bei gleichbleibender Auftragmasse wurde dies insbesondere durch die Verringerung der Schmelzbadtemperaturen nachgewiesen. Hierdurch konnte eine hochproduktive Herstellung aufmischungsarmer Verschleißschutzschichten umgesetzt werden. Die Auswirkung auf die Hartphasencharakteristik erfolgte zunächst anhand FeCr(V)C-Hartlegierungen. Es konnte aufgezeigt werden, dass sich die nahezu unabhängige Regelung von Abschmelzleistung und Aufschmelzgrad positiv auf die Ausscheidung von Primärkarbiden bzw. Hartphasen auswirken. Im Gegensatz zum MSG-Prozess gelang es hierdurch einlagige Verschleißschutzschichten mit einem deutlich höheren Hartphasenanteil und höherer Verschleißbeständigkeit herzustellen. Bei Ni-Basis-Legierungen mit eingelagerten WSC wurde festgestellt, dass sich der Einsatz eines Heißdrahtes positiv auf die Hartphasenverteilung auswirkt. Aufgrund modifizierter Schmelzbadströmungen konnten die für WSC typischen schwerkraftbedingten Seigerungseffekte unterbunden werden, einhergehend mit einer homogenen Verteilung der Hartphasen. Im Vergleich zum optimalen MSG-Prozessfenster betrug der erzielbare WSC-Anteil jedoch nur die Hälfte. Zur Klärung der Ursache wurde ein Ansatz entwickelt, um die thermisch bedingte Zersetzung von WSC quantitativ zu beschreiben. Basierend auf der Einführung eines Zersetzungskennwertes konnte hierdurch erstmals der Einfluss der Schmelzbadgröße, des Aufschmelzgrades und des Tropfenübergangs separat und quantitativ aufgeschlüsselt werden. Hierdurch konnte der geringere WSC-Anteil beim MSG-HD-Verfahren schließlich den Eigenschaften des Lichtbogens und Tropfenübergangs zugewiesen werden. Ferner wurde im Rahmen dieser Arbeit erstmals die Entstehung des Zersetzungssaums bei WSC experimentell nachvollzogen.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018000025
Günther, Karsten;
Werkstofftechnische Betrachtungen zum Heißdraht unterstützten MSG-Auftragschweißen hartstoffverstärkter Verschleißschutzlegierungen - Ilmenau : Universitätsverlag Ilmenau, 2018 - XVI, 141 Seiten. . - (Fertigungstechnik - aus den Grundlagen für die Anwendung. - Band 5)
Technische Universität Ilmenau, Dissertation 2018

ISBN 978-3-86360-174-4

Das Metall-Schutzgas(MSG)-Auftragschweißen von hartstoffverstärkten Verschleiß-schutzlegierungen weist trotz der einfachen Bedienbarkeit und des hohen Mechanisierungsgrades nur eine geringe Akzeptanz im Bereich der Beschichtungstechnik auf. Gründe hierfür liegen insbesondere in der unmittelbaren Korrelation zwischen dem Material- und Energieeintrag, wodurch hohe Drahtvorschübe zwangsläufig eine zunehmende thermische Werkstoffbeanspruchung zur Folge haben. Im praktischen Einsatz führt dies bereits bei geringen Abschmelzleistungen von ca. 5 kg/h zu hohen Aufschmelzgraden von bis zu 40 %. Zudem unterliegen temperaturempfindliche Hartphasen, wie z.B. Wolframschmelzkarbide (WSC), einer hohen thermischen Beanspruchung, was unter anderem auf die direkte Lichtbogenwechselwirkung zurückzuführen ist. Thermisch bedingte Zersetzungsprozesse führen hierbei zu einer Abnahme des WSC-Anteils, wodurch die Verschleißbeständigkeit gemindert wird. Mit Hilfe eines zusätzlich dem Schmelzbad zugeführten Heißdrahtes wurde ein neuartiger Ansatz entwickelt und erforscht, um den Energie- und Materialeintrag beim MSG-Auftragschweißen zu entkoppeln. Neben den verringerten Prozessleistungen bei gleichbleibender Auftragmasse wurde dies insbesondere durch die Verringerung der Schmelzbadtemperaturen nachgewiesen. Hierdurch konnte eine hochproduktive Herstellung aufmischungsarmer Verschleißschutzschichten umgesetzt werden. Die Auswirkung auf die Hartphasencharakteristik erfolgte zunächst anhand FeCr(V)C-Hartlegierungen. Es konnte aufgezeigt werden, dass sich die nahezu unabhängige Regelung von Abschmelzleistung und Aufschmelzgrad positiv auf die Ausscheidung von Primärkarbiden bzw. Hartphasen auswirken. Im Gegensatz zum MSG-Prozess gelang es hierdurch einlagige Verschleißschutzschichten mit einem deutlich höheren Hartphasenanteil und höherer Verschleißbeständigkeit herzustellen. Bei Ni-Basis-Legierungen mit eingelagerten WSC wurde festgestellt, dass sich der Einsatz eines Heißdrahtes positiv auf die Hartphasenverteilung auswirkt. Aufgrund modifizierter Schmelzbadströmungen konnten die für WSC typischen schwerkraftbedingten Seigerungseffekte unterbunden werden, einhergehend mit einer homogenen Verteilung der Hartphasen. Im Vergleich zum optimalen MSG-Prozessfenster betrug der erzielbare WSC-Anteil jedoch nur die Hälfte. Zur Klärung der Ursache wurde ein Ansatz entwickelt, um die thermisch bedingte Zersetzung von WSC quantitativ zu beschreiben. Basierend auf der Einführung eines Zersetzungskennwertes konnte hierdurch erstmals der Einfluss der Schmelzbadgröße, des Aufschmelzgrades und des Tropfenübergangs separat und quantitativ aufgeschlüsselt werden. Hierdurch konnte der geringere WSC-Anteil beim MSG-HD-Verfahren schließlich den Eigenschaften des Lichtbogens und Tropfenübergangs zugewiesen werden. Ferner wurde im Rahmen dieser Arbeit erstmals die Entstehung des Zersetzungssaums bei WSC experimentell nachvollzogen.



Balbierer, Norbert;
Energiemanagement Ethernet-basierter Fahrzeugnetze - Ilmenau : Universitätsverlag Ilmenau, 2018 - xvi, 215 Seiten.
Technische Universität Ilmenau, Dissertation 2017

ISBN 3863601750 = 978-3-86360-175-1

Die Einführung von Ethernet als Vernetzungstechnologie für neue Fahrzeuggenerationen eröffnet ein weites Feld an Möglichkeiten für vernetzte Funktionen und Systeme im Automobil. Die wachsende Anzahl elektronischer Systeme heutiger Fahrzeuge hat jedoch auch einen zunehmend deutlichen Anteil am gesamten Energiebedarf und damit einhergehend an Kraftstoffverbrauch und CO2-Emission. Gleichzeitig steigt das Bestreben, Fahrzeuge effizienter zu gestalten, um Energieverbrauch und Emissionen zu reduzieren. Neben der Erhöhung der Energieeffizienz der einzelnen Komponenten ist das selektive Abschalten vernetzter Steuergeräte während des Betriebs des Fahrzeugs (Teilnetzbetrieb) ein Mittel zur Optimierung der Leistungsaufnahme der Bordelektronik. In der vorliegenden Arbeit werden Konzepte zur Umsetzung von Teilnetzbetrieb für Ethernet-basierte Netzwerke vorgeschlagen. Um Steuergeräte durch das Netzwerk aufwecken zu können wurde ein ruhestromloser Weckempfänger entwickelt, realisiert und getestet. Zur Koordination des Teilnetzbetriebs wurden zwei Netzwerkmanagement-Protokolle erarbeitet, implementiert und evaluiert. Die beschriebenen Konzepte wurden in einem Testfahrzeug unter realen Bedingungen eingesetzt und erprobt.



TEST4http://www.gbv.de/dms/ilmenau/toc/1016176791.PDF
Xu, Haifeng;
Hochpräzise Bestimmung der Form- und Orthogonalitätsabweichungen einer Spiegelecke und Untersuchung des Verhaltens unter veränderlichen Umweltbedingungen - Ilmenau : Universitätsverlag Ilmenau, 2018 - XVI, 179 Seiten.
Technische Universität Ilmenau, Dissertation 2017

ISBN 3863601718 = 978-3-86360-171-3
Dissertation erschienen unter dem Titel: Hochpräzise interferometrische Bestimmung der Formabweichungen einer Spiegelecke und Untersuchung des Verhaltens unter veränderlichen Umweltbedingungen

Die rasanten Entwicklungen der letzten Jahre insbesondere in der Halbleitertechnik und in verschiedenen Präzisionstechnologien erfordern immer präzisere Fertigungsprozesse, die bis an die physikalischen Grenzen vordringen. Deshalb wurde am Institut für Prozessmess- und Sensortechnik der Technischen Universität Ilmenau eine neue Nanopositionier- und Nanomessmaschine (NPM-Maschine) NPMM-200 mit einem Messvolumen von 200 mm x 200 mm x 25 mm und einer gesicherten Messauflösung von 80 pm entwickelt. Das Koordinatensystem der NPM-Maschinen wird durch das verwendete Interferometer-Raumspiegelsystem gebildet. Die Herstellung hochpräziser Spiegelflächen einer Raumspiegelecke mit höchsten Anforderungen an die Ebenheit ist nicht nur technisch schwierig, sondern auch sehr kostspielig. Die Fertigungstoleranzen limitieren die Ebenheit der Spiegelflächen der Raumspiegelecke und deren Winkellage zueinander. Daher ist es notwendig, vorhandene systematische Abweichungen der Spiegelflächen zu ermitteln und zu korrigieren. Gegenstand der vorliegenden Arbeit ist die hochpräzise Bestimmung der Topographien der Spiegelflächen der Raumspiegelecke mit einem Fizeau-Interferometer und der Stitching-Technologie. Das Subapertur-Stitching-Interferometer für sehr große Messbereiche bis 350 mm x 350 mm besteht aus einem hochpräzisen XY-Verschiebetisch, einem handelsüblichen Fizeau-Phasenschiebe-Interferometer mit einer 6 Zoll Apertur und einer Raumspiegeleckebaugruppe mit integrierter Justiereinrichtung. Eine speziell entwickelte Software "SmartStitching" wird verwendet, um die aufgenommenen Messdaten der Subaperturen zu einer gesamten Topographie zu rekonstruieren. Der Stitching-Algorithmus kompensiert nicht nur Positionierfehler, die durch Führungsfehler des Lineartisches während der Verschiebung verursacht werden, sondern auch systematische Fehler wie z.B. Abbildungsfehler. Die absolute Topographie des Referenzspiegels wurde im Vorfeld durch den Multi-Rotations-Drei-Platten-Test kalibriert. Bei bekannter Formabweichung des Referenzspiegels kann der vorhandene systematische Fehler des Phasenschiebe-Interferometers korrigiert werden. Die Topographie des Referenzspiegels wurde dann im Datenverarbeitungssystem gespeichert, damit sie zur Korrektur systematischer Fehler verwendet werden kann. Weiterhin werden in dieser Arbeit andere Einflussfaktoren untersucht, z.B. Messfehler, die durch das Subaperture-Stiching-Interferometer verursacht werden, und dem akkumulierten Fehler, der durch den Stitching-Algorithmus verursacht wird. Ein weiterer Schwerpunkt der vorliegenden Arbeit ist die hochpräzise Bestimmung der Abweichung der Orthogonalität zwischen den Messspiegeln (xy-, xz- und yz-Messspiegel) einer Raumspiegelecke. Zwei Messverfahren wurden für die Bestimmung der Winkelfehler eingesetzt. Die Winkel zwischen den x- und y-Spiegeln werden mit Hilfe von zwei Pentaprismen, einem kalibrierten rechtwinkligen Prisma und einem hochauflösenden elektronischen Autokollimator bestimmt. Diese Kalibriermethode verwendet zwei horizontal ausgerichtete Pentaprismen und ein hochpräzises rechtwinkliges Prisma als 90&ring;-Winkelnormal, um Winkelfehler zwischen der x- und y-Spiegelfläche einer Raumspiegelecke zu bestimmen. Das hochpräzise rechtwinklige Prisma wurde im Vorfeld kalibriert. Die Winkel zwischen den x- und z-Spiegeln werden mit Hilfe von zwei gegeneinander ausgerichteten Pentaprismen und einem Autokollimator kalibriert. Der Autokollimator ist über ein Pentaprisma entlang der Normalen des z-Spiegels ausgerichtet. Dieses Pentaprisma bewegt sich nur entlang der x-Richtung, bis er das zweite Pentaprisma trifft und richtet nun auch das zweite Pentaprisma so, dass der Winkel der x-Spiegelfläche mit dem AKF gemessen werden kann. Die Winkelabweichung zwischen den x- und z-Spiegeln der Raumspiegelecke ist der Differenzwert vom Messwert des Autokollimators und dem Winkelfehler beider Pentaprismen. Die Rechtwinkligkeitsabweichung zwischen den y-und z-Spiegeln wird in gleicher Weise kalibriert. Um systematische Fehler zu minimieren, ist es erforderlich, ein Kalibrierverfahren für Pentaprismen in vertikaler Ausrichtung mittels eines Fizeau-Interferometers umzusetzen. Der Drei-Pentaprismen-Test wird verwendet, um die absolute Winkelfehler der Pentaprismen in vertikaler Lage zu bestimmen. Die Genauigkeit für diese Methode wird auf 0,1" geschätzt und wird durch die Kalibrierungsunsicherheit der Pentaprismen bestimmt. Alle gemessenen Orthogonalitätsabweichungen werden abschließend quantifiziert und mit den Topographiedaten der Raumspiegelecke für Korrektur kombiniert.



TEST4http://www.gbv.de/dms/ilmenau/toc/1014630592.PDF
Falkenberger, Stefan;
Optimierung der Berechnung der Schallabstrahlung von Getriebegehäusen : experimentelle und analytische Untersuchungen zur Geräuschentwicklung von Fahrzeug-Schaltgetrieben - Ilmenau : Universitätsverlag Ilmenau, 2018 - 1 Online-Ressource (XIV, 116 Seiten). . - (Kraftfahrzeugtechnische Berichte. - Band 8)
Technische Universität Ilmenau, Dissertation 2017

Die vorliegende Arbeit beschäftigt sich mit der experimentellen Erfassung der dynamischen Schwingungsanregung von Fahrzeuggetrieben, auch im Vergleich mit der Simulation dieser Anregung mit Hilfe eines Mehrkörpersystem-Modells. Die Arbeit soll einen Beitrag zur Optimierung der Berechnungskette der Schallabstrahlung solcher Getriebe leisten. Nach der Entwicklung eines Messsystems zur Erfassung der dynamischen Lagerkräfte direkt im Kraftfluss zwischen Lageraußenring und Lagersitz des Getriebegehäuses wird ein Konzept für einen Getriebeprüfstand entwickelt. Der Prüfstand wird aufgebaut und in Betrieb genommen. Das untersuchte Getriebegehäuse stammt aus einer aktuellen Serienproduktion. Die Innenteile dieses Getriebes werden komplett neu entwickelt und dabei rigoros vereinfacht. Nun verfügt das Getriebe über eine Stirnradstufe in den beiden Varianten gerad- und schrägverzahnt und vier Lagerstellen. Dieses Vorgehen reduziert so die Komplexität deutlich und lässt ausreichend Raum für den Einbau des entwickelten Lagerkraft-Messsystems. Um Schallleistungsmessungen des verbauten Getriebes durchzuführen, wird die Prüfumgebung in einen Hallraum mit schallharten Wänden nach DIN EN ISO 3740 umgewandelt. Nach der Plausibilisierung der aufgezeichneten Messwerte werden die Wiederholbarkeit überprüft und ein Einlaufszenario für den Getriebeprüfstand festgelegt. Anschließend folgen die Untersuchungen der Schwingungsanregung des Getriebegehäuses im gesamten definierten Betriebsbereich bei drei unterschiedlichen Schmierstofftemperaturen und mit der gerad- und der schrägverzahnten Antriebseinheit. Die Einflüsse unterschiedlicher Viskositäten des Schmierstoffes auf die dynamischen Lagerkräfte und auf die Geräuschentwicklung werden frequenzspezifisch untersucht und bewertet. Nach Abschluss der Validierung der dynamischen Schwingungsanregung des Getriebegehäuses mit Hilfe des erwähnten Mehrkörper-Simulationsmodells werden Schallabstrahlungsberechnungen durchgeführt. Erstmalig werden dabei die validierten dynamischen Lagerkräfte mit in die Berechnungen eingebunden. Als Abschluss werden die simulierten Schallleistungen mit den experimentell erfassten im Frequenzbereich verglichen und bewertet. Insgesamt zeigen die experimentellen und rechnerischen Ergebnisse bei allen Arbeitsschritten eine gute bis hervorragende Übereinstimmung. Damit leistet die vorliegende Arbeit einen signifikanten Beitrag zur Validierung der Schwingungsanregungen und schafft neue Möglichkeiten, Lagerkräfte im Kraftfluss experimentell und simulativ zu ermitteln und in die Berechnungskette der Schallabstrahlung einzubinden.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2017000544
Falkenberger, Stefan;
Optimierung der Berechnung der Schallabstrahlung von Getriebegehäusen : experimentelle und analytische Untersuchungen zur Geräuscheentwicklung von Fahrzeug-Schaltgetrieben - Ilmenau : Universitätsverlag Ilmenau, 2018 - XIV, 116 Seiten. . - (Kraftfahrzeugtechnische Berichte. - Band 8)
Technische Universität Ilmenau, Dissertation 2017

ISBN 3-86360-172-6

Die vorliegende Arbeit beschäftigt sich mit der experimentellen Erfassung der dynamischen Schwingungsanregung von Fahrzeuggetrieben, auch im Vergleich mit der Simulation dieser Anregung mit Hilfe eines Mehrkörpersystem-Modells. Die Arbeit soll einen Beitrag zur Optimierung der Berechnungskette der Schallabstrahlung solcher Getriebe leisten. Nach der Entwicklung eines Messsystems zur Erfassung der dynamischen Lagerkräfte direkt im Kraftfluss zwischen Lageraußenring und Lagersitz des Getriebegehäuses wird ein Konzept für einen Getriebeprüfstand entwickelt. Der Prüfstand wird aufgebaut und in Betrieb genommen. Das untersuchte Getriebegehäuse stammt aus einer aktuellen Serienproduktion. Die Innenteile dieses Getriebes werden komplett neu entwickelt und dabei rigoros vereinfacht. Nun verfügt das Getriebe über eine Stirnradstufe in den beiden Varianten gerad- und schrägverzahnt und vier Lagerstellen. Dieses Vorgehen reduziert so die Komplexität deutlich und lässt ausreichend Raum für den Einbau des entwickelten Lagerkraft-Messsystems. Um Schallleistungsmessungen des verbauten Getriebes durchzuführen, wird die Prüfumgebung in einen Hallraum mit schallharten Wänden nach DIN EN ISO 3740 umgewandelt. Nach der Plausibilisierung der aufgezeichneten Messwerte werden die Wiederholbarkeit überprüft und ein Einlaufszenario für den Getriebeprüfstand festgelegt. Anschließend folgen die Untersuchungen der Schwingungsanregung des Getriebegehäuses im gesamten definierten Betriebsbereich bei drei unterschiedlichen Schmierstofftemperaturen und mit der gerad- und der schrägverzahnten Antriebseinheit. Die Einflüsse unterschiedlicher Viskositäten des Schmierstoffes auf die dynamischen Lagerkräfte und auf die Geräuschentwicklung werden frequenzspezifisch untersucht und bewertet. Nach Abschluss der Validierung der dynamischen Schwingungsanregung des Getriebegehäuses mit Hilfe des erwähnten Mehrkörper-Simulationsmodells werden Schallabstrahlungsberechnungen durchgeführt. Erstmalig werden dabei die validierten dynamischen Lagerkräfte mit in die Berechnungen eingebunden. Als Abschluss werden die simulierten Schallleistungen mit den experimentell erfassten im Frequenzbereich verglichen und bewertet. Insgesamt zeigen die experimentellen und rechnerischen Ergebnisse bei allen Arbeitsschritten eine gute bis hervorragende Übereinstimmung. Damit leistet die vorliegende Arbeit einen signifikanten Beitrag zur Validierung der Schwingungsanregungen und schafft neue Möglichkeiten, Lagerkräfte im Kraftfluss experimentell und simulativ zu ermitteln und in die Berechnungskette der Schallabstrahlung einzubinden.



Martel, Jean-Mary;
Series arc faults in low-voltage AC electrical installations - Ilmenau : Universitätsverlag Ilmenau, 2018 - 1 Online-Ressource (XI, 192 Seiten). . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - Band 20)
Technische Universität Ilmenau, Dissertation 2017

Diese Dissertation ist eine vollständige Analyse der Problematik des seriellen Störlichtbogens in der Niederspannungselektroinstallation. Der Beitrag von seriellen Störlichtbögen in der Entstehung von Elektrobränden wird mit Hilfe der Brandstatistik, der Durchführung der elektrischen und thermischen Charakterisierung des Phänomens und des Vergleichs der Fähigkeit von den anderen elektrischen Fehlern ein Isolierungspolymer zu entzünden, erklärt. Die Analyse beweist, dass der serielle Störlichtbogen eine thermische Beanspruchung erzeugt, die die Zündgrenzen der Isolierungspolymere weitaus überschreitet. Andere elektrische Fehler wie Kurzschlüsse, Überlast, Erdschlüsse und glühende Kontaktstellen ergeben ein wesentlich niedrigeres Brandrisiko. Die Funktionsweise vom Störlichtbogenschutzschalter (auch Brandschutzschalter oder AFDD genannt) wird erklärt und der Beitrag von diesem aktiven Schutz wird in der Analyse berücksichtigt. Der passive Schutz mit geeigneten Isolationsmaterialien wird auch untersucht. Die Anforderungen, die in der Produktnorm für Störlichtbogenschutzschalter beschrieben sind, werden überprüft und Verbesserungen für diese Normen werden vorgeschlagen.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2017000635
Martel, Jean-Mary;
Series arc faults in low-voltage AC electrical installations - Ilmenau : Universitätsverlag Ilmenau, 2018 - XI, 192 Seiten. . - (Ilmenauer Beiträge zur elektrischen Energiesystem, Geräte- und Anlagentechnik. - Band 20)
Technische Universität Ilmenau, Dissertation 2017

ISBN 3863601734 = 978-3-86360-173-7

Diese Dissertation ist eine vollständige Analyse der Problematik des seriellen Störlichtbogens in der Niederspannungselektroinstallation. Der Beitrag von seriellen Störlichtbögen in der Entstehung von Elektrobränden wird mit Hilfe der Brandstatistik, der Durchführung der elektrischen und thermischen Charakterisierung des Phänomens und des Vergleichs der Fähigkeit von den anderen elektrischen Fehlern ein Isolierungspolymer zu entzünden, erklärt. Die Analyse beweist, dass der serielle Störlichtbogen eine thermische Beanspruchung erzeugt, die die Zündgrenzen der Isolierungspolymere weitaus überschreitet. Andere elektrische Fehler wie Kurzschlüsse, Überlast, Erdschlüsse und glühende Kontaktstellen ergeben ein wesentlich niedrigeres Brandrisiko. Die Funktionsweise vom Störlichtbogenschutzschalter (auch Brandschutzschalter oder AFDD genannt) wird erklärt und der Beitrag von diesem aktiven Schutz wird in der Analyse berücksichtigt. Der passive Schutz mit geeigneten Isolationsmaterialien wird auch untersucht. Die Anforderungen, die in der Produktnorm für Störlichtbogenschutzschalter beschrieben sind, werden überprüft und Verbesserungen für diese Normen werden vorgeschlagen.



TEST4http://www.gbv.de/dms/ilmenau/toc/1012771482.PDF
Wystup, Ralph;
BLDC-Motor mit schlankem Zwischenkreis am einphasigen Netz : Ventilatoranwendungen - Ilmenau : Universitätsverlag Ilmenau - 147 Seiten.
Technische Universität Ilmenau, Dissertation 2017

ISBN 386360170X = 978-3-86360-170-6
Literaturverzeichnis: Seite 141-147

Die vorliegende Arbeit beschäftigt sich mit dem Betrieb von einphasig gespeisten EC-Lüftermotoren mit schlankem Zwischenkreis. Beim einphasigen Industrienetz besteht das Problem, dass im Lüftermotor aufgrund der bis auf null Volt pulsierenden Zwischenkreisspannung ein Luftspaltdrehmoment mit hohem Anteil an Oberschwingungen auftritt. Um dies zu vermeiden, müssen in der Praxis diskrete Speicherelemente wie Elektrolytkondensatoren und Eisenkerndrosseln als Energiespeicher in den Zwischenkreis des Umrichters eingebaut werden. In der vorliegenden Arbeit wird ein neuartiges Verfahren vorgestellt, welches ein nahezu konstantes Luftspaltdrehmoment bei einphasig gespeisten EC-Lüftermotoren mit schlankem Zwischenkreis gewährleistet. Mit dem Verfahren, der so genannten dynamischen Feldschwächung, können die bislang erforderlichen Energiespeicher wie Spulen und Elektrolytkondensatoren ersetzt werden. Zur Herleitung des Verfahrens der dynamischen Feldschwächung sind auf der Basis eines sättigungsfrei und damit linear arbeitenden Lüftermotors die notwendigen mathematischen Grundgleichungen entwickelt worden. Der Ansatz eines sättigungsfrei arbeitenden Lüftermotors erlaubt die einfache Umsetzung einer Konstruktionsvorschrift für einen speziell auf das Verfahren abgestimmten Motor auf Basis der regelungstechnisch relevanten Motorparameter. Mithilfe eines nichtlinearen Kalman-Filters zur automatischen Bestimmung der regelungstechnischen Motorparameter wird dann der gebaute sättigungsfrei arbeitende Lüftermotor auf einem Prüfstand vermessen. Dabei hat sich gezeigt, dass das Verfahren der dynamischen Feldschwächung eine gute Übereinstimmung zwischen den analytischen und den simulierten Ergebnissen liefert. Das Verfahren der dynamischen Feldschwächung kommt bei einer Motorleistung von etwa 200 Watt und einem Wirkungsgrad von ca. 80 % mit einer sehr kleinen Zwischenkreiskapazität von 14 [my]F aus. Im Vergleich dazu benötigt ein Serienlüftermotor eine Zwischenkreiskapazität von 204 [my]F.



TEST4http://www.gbv.de/dms/ilmenau/toc/1009944703.PDF
Wystup, Ralph;
BLDC-Motor mit schlankem Zwischenkreis am einphasigen Netz : Ventilatoranwendungen - Ilmenau : Universitätsverlag Ilmenau - 1 Online-Ressource (147 Seiten). Auf der Rückseite der Titelseite: Die dieser Publikation zugrunde liegende Arbeit hat der Fakultät für Elektrotechnik und Informationstechnik der Technischen Universität Ilmenau im Jahr 2017 unter dem Titel "Dynamische Feldschwächung bei am einphasigen Netz betriebenen EC-Motoren mit schlankem Zwischenkreis" als Dissertation vorgelegen und ist online mit der URN urn:nbn:de:gbv:ilm1-2017000461 erschienen.

Die vorliegende Arbeit beschäftigt sich mit dem Betrieb von einphasig gespeisten EC-Lüftermotoren mit schlankem Zwischenkreis. Beim einphasigen Industrienetz besteht das Problem, dass im Lüftermotor aufgrund der bis auf null Volt pulsierenden Zwischenkreisspannung ein Luftspaltdrehmoment mit hohem Anteil an Oberschwingungen auftritt. Um dies zu vermeiden, müssen in der Praxis diskrete Speicherelemente wie Elektrolytkondensatoren und Eisenkerndrosseln als Energiespeicher in den Zwischenkreis des Umrichters eingebaut werden. In der vorliegenden Arbeit wird ein neuartiges Verfahren vorgestellt, welches ein nahezu konstantes Luftspaltdrehmoment bei einphasig gespeisten EC-Lüftermotoren mit schlankem Zwischenkreis gewährleistet. Mit dem Verfahren, der so genannten dynamischen Feldschwächung, können die bislang erforderlichen Energiespeicher wie Spulen und Elektrolytkondensatoren ersetzt werden. Zur Herleitung des Verfahrens der dynamischen Feldschwächung sind auf der Basis eines sättigungsfrei und damit linear arbeitenden Lüftermotors die notwendigen mathematischen Grundgleichungen entwickelt worden. Der Ansatz eines sättigungsfrei arbeitenden Lüftermotors erlaubt die einfache Umsetzung einer Konstruktionsvorschrift für einen speziell auf das Verfahren abgestimmten Motor auf Basis der regelungstechnisch relevanten Motorparameter. Mithilfe eines nichtlinearen Kalman-Filters zur automatischen Bestimmung der regelungstechnischen Motorparameter wird dann der gebaute sättigungsfrei arbeitende Lüftermotor auf einem Prüfstand vermessen. Dabei hat sich gezeigt, dass das Verfahren der dynamischen Feldschwächung eine gute Übereinstimmung zwischen den analytischen und den simulierten Ergebnissen liefert. Das Verfahren der dynamischen Feldschwächung kommt bei einer Motorleistung von etwa 200 Watt und einem Wirkungsgrad von ca. 80 % mit einer sehr kleinen Zwischenkreiskapazität von 14 [my]F aus. Im Vergleich dazu benötigt ein Serienlüftermotor eine Zwischenkreiskapazität von 204 [my]F.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2018100015
Lutherdt, Stefan;
Ein Konzept für die nutzerbezogene Gestaltung von Assistenzsystemen und deren Nutzerschnittstellen - Ilmenau : Universitätsverlag Ilmenau, 2017 - 1 Online-Ressource (290 Seiten). . - (Berichte aus der Biomechatronik. - Band 14)
Technische Universität Ilmenau, Dissertation 2017

In: Ilmenau : Universitätsverlag Ilmenau

In dieser Arbeit wird gezeigt, dass die Entwicklung von Assistenzsystemen und ihren Schnittstellen bei Nutzung eines neuen Konzeptes (nutzerbezogene Gestaltung von Assistenzsystemen und deren Nutzerschnittstellen NuGASt), erfolgreich durchgeführt werden kann. Die Motivation zur Entwicklung des neuen Konzepts ergab sich aus der Identifikation von Problemen bei der Untersuchung und Beurteilung vorhandener Gestaltungslösungen für eine Nutzerschnittstelle (Fernbedienungen). Um eine Einordnung des Untersuchungsgegenstands "Assistenzsystem" machen zu können, werden einleitend verschiedene notwendige Begriffsbestimmungen und Definitionen vorgenommen sowie eine für diese Arbeit nutzbare Definition von Assistenzsystemen vorgeschlagen. Es wird beschrieben, wie dieses Konzept aus der Analyse vorhandener Entwicklungsmodelle verschiedener Bereiche wie Softwareentwicklung und Usability Engineering abgeleitet und mittels des bekannten Problemlösungsansatzes (s. VDI 2221) entworfen wurde. Im Unterschied zu den untersuchten anderen Konzepten und Modellen ist das Kennzeichen von NuGASt eine frühzeitige Nutzereinbindung bereits vom Start einer Entwicklung an. Außerdem basieren alle Entwicklungsschritte auf Kenntnissen über die späteren Nutzer, ihren Eigenschaften und Befähigungen hinsichtlich der Nutzung des zu entwickelnden Systems. Das Konzept ist strukturell ebenfalls an den Problemlösungsansatz angelehnt, verbindet diesen aber mit Elementen anderer Entwicklungsmodelle und wird ergänzt durch flexibel einsetzbare Rückkopplungen und Nutzerbeteiligungen. Als Kriterium zur Bewertung des späteren Entwicklungsergebnisses wurde die Gebrauchstauglichkeit gewählt (s. DIN ISO EN 9241:11), da sie die mit dem Konzept gewünschte Ausrichtung auf den späteren Nutzer eines Produkts repräsentiert. Es wird die schrittweise Herleitung des Konzepts beschrieben sowie die Überprüfung der Funktions- und Passfähigkeit des Konzepts auf die zu Beginn gestellten Ziele (Entwicklung von Assistenzsystemen und Schnittstellen), was an ausgewählten Beispielen aus Forschungsprojekten belegt wird. Die Ergebnisse der gezeigten Projekte und Evaluationen mit potentiellen Nutzern zeigen, dass durch den Einsatz von NuGASt in Projekten zur Entwicklung von Assistenzsystemen tragfähige Lösungen gefunden werden können, die auch durch die späteren Nutzer akzeptiert werden.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2017000161
Tarbeevskaya, Alena;
Entwicklungssystematik des Thermomanagements qualitativ hochwertiger LED-Systeme - Ilmenau : Universitätsverlag Ilmenau, 2017 - 1 Online-Ressource (IX, 227 Seiten). . - (Schriften der Ilmenauer Lichttechnik. - Band 22)
Technische Universität Ilmenau, Dissertation 2016

Die Forderung nach immer leistungsfähigeren LED-Systemen bei gleichzeitig begrenztem Bauraum bedingt steigende Anforderungen an das thermische Management. Nicht nur die Lebenserwartung, sondern auch optische Eigenschaften, wie der Lichtstrom und die Lichtfarbe, hängen von der Chiptemperatur der LED ab. Als Folge einer ausgeprägten Temperaturabhängigkeit ist der Entwicklungsprozess der LED-Systeme sehr komplex. Diese Komplexität ergibt sich aufgrund der größeren Anzahl von verkoppelten Elementen, die in unterschiedlichen Disziplinen realisiert werden. Aufgrund dieser Tatsache besteht Bedarf nach einem disziplinübergreifenden Entwicklungsprozess, der die Aufgaben, Probleme und Anforderungen aller Disziplinen berücksichtigt. Im Rahmen dieser Arbeit wurde eine mögliche Verzahnung der für die fehlerfreie Funktionalität des Thermomanagements relevanten Disziplinenmit der ingenieurwissenschaftlichen Vorgehensweise in der Produktentwicklung spezifiziert. Ergebnis ist eine Systematik, die den Entwicklungsprozess der LED-Systeme strukturiert und darin geeignete Methoden und Werkzeuge des Thermomanagements einordnet. Die Anwendbarkeit der Entwicklungssystematik wurde Anhand der Konzipierung zweier Demonstratoren präsentiert. Hierbei wurde gezeigt, dass das Zusammenwirken der verschiedenen Disziplinen Potentiale für die Gestaltung neuer Produkte und Anwendungen eröffnet.



https://www.db-thueringen.de/receive/dbt_mods_00033573
Tarbeevskaya, Alena;
Entwicklungssystematik des Thermomanagements qualitativ hochwertiger LED-Systeme - Ilmenau : Universitätsverlag Ilmenau, 2017 - IX, 227 Seiten. . - (Schriften der Ilmenauer Lichttechnik. - Band 22)
Technische Universität Ilmenau, Dissertation 2016

ISBN 3863601688 = 978-3-86360-168-3

Die Forderung nach immer leistungsfähigeren LED-Systemen bei gleichzeitig begrenztem Bauraum bedingt steigende Anforderungen an das thermische Management. Nicht nur die Lebenserwartung, sondern auch optische Eigenschaften, wie der Lichtstrom und die Lichtfarbe, hängen von der Chiptemperatur der LED ab. Als Folge einer ausgeprägten Temperaturabhängigkeit ist der Entwicklungsprozess der LED-Systeme sehr komplex. Diese Komplexität ergibt sich aufgrund der größeren Anzahl von verkoppelten Elementen, die in unterschiedlichen Disziplinen realisiert werden. Aufgrund dieser Tatsache besteht Bedarf nach einem disziplinübergreifenden Entwicklungsprozess, der die Aufgaben, Probleme und Anforderungen aller Disziplinen berücksichtigt. Im Rahmen dieser Arbeit wurde eine mögliche Verzahnung der für die fehlerfreie Funktionalität des Thermomanagements relevanten Disziplinenmit der ingenieurwissenschaftlichen Vorgehensweise in der Produktentwicklung spezifiziert. Ergebnis ist eine Systematik, die den Entwicklungsprozess der LED-Systeme strukturiert und darin geeignete Methoden und Werkzeuge des Thermomanagements einordnet. Die Anwendbarkeit der Entwicklungssystematik wurde Anhand der Konzipierung zweier Demonstratoren präsentiert. Hierbei wurde gezeigt, dass das Zusammenwirken der verschiedenen Disziplinen Potentiale für die Gestaltung neuer Produkte und Anwendungen eröffnet.



TEST4http://www.gbv.de/dms/ilmenau/toc/1008624667.PDF
Reeßing, Michael;
Softwarewerkzeuge für den phasen- und domänenübergreifenden Entwurf - Ilmenau : Universitätsverlag Ilmenau, 2017 - 1 Online-Ressource (xviii, 198 Seiten). . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - Band 29)
Technische Universität Ilmenau, Dissertation 2016

Die vorliegende Arbeit leistet einen Beitrag zur Verbesserung der Softwareunterstützung in frühen Phasen der Produktentwicklung. Dazu wurden insbesondere zwei Problemfelder identifiziert und bearbeitet. Dabei handelt es sich zum einen um die Realisierung eines phasenübergreifenden Entwurfskonzepts für Bewegungssysteme auf der Basis einer bidirektionalen Verknüpfung von Produktmerkmalen in Modellen unterschiedlicher Abstraktionsniveaus. Ausgehend von dieser Lösung wurde außerdem ein Verfahren entwickelt, das die Manipulation von CAD-Modellen in VR-Umgebungen erlaubt. Zum anderen wurde ein Softwarewerkzeug konzipiert, das eine domänenübergreifende Modellierung und Simulation heterogener Systeme erlaubt. Als Plattform ist es dank der komponentenbasierten Softwarearchitektur um beliebige Domänen und zugehörige Berechnungsverfahren erweiterbar. Im Unterschied zu existierenden domänenübergreifenden Werkzeugen bietet es einen nutzerzentrierten Zugang zum Produktmodell, der domänenspezifische Darstellungen und Begriffe berücksichtigt. Die Entwicklung beider Konzepte ging mit einer softwaretechnischen Umsetzung einher, die deren Realisierbarkeit belegt und eine Demonstration ihrer Arbeitsweise anhand verschiedener Anwendungsbeispiele ermöglicht. Mit dieser Arbeit wird ein umfangreiches Spektrum an Erfahrungen bei der Konzeption und Implementierung solcher Softwarewerkzeuge präsentiert und weitergegeben.



https://www.db-thueringen.de/receive/dbt_mods_00033321
Reeßing, Michael;
Softwarewerkzeuge für den phasen- und domänenübergreifenden Entwurf - Ilmenau : Universitätsverlag Ilmenau, 2017 - xviii, 198 Seiten. . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion. - Band 29)
Technische Universität Ilmenau, Dissertation 2016

ISBN 3863601696 = 978-3-86360-169-0

Die vorliegende Arbeit leistet einen Beitrag zur Verbesserung der Softwareunterstützung in frühen Phasen der Produktentwicklung. Dazu wurden insbesondere zwei Problemfelder identifiziert und bearbeitet. Dabei handelt es sich zum einen um die Realisierung eines phasenübergreifenden Entwurfskonzepts für Bewegungssysteme auf der Basis einer bidirektionalen Verknüpfung von Produktmerkmalen in Modellen unterschiedlicher Abstraktionsniveaus. Ausgehend von dieser Lösung wurde außerdem ein Verfahren entwickelt, das die Manipulation von CAD-Modellen in VR-Umgebungen erlaubt. Zum anderen wurde ein Softwarewerkzeug konzipiert, das eine domänenübergreifende Modellierung und Simulation heterogener Systeme erlaubt. Als Plattform ist es dank der komponentenbasierten Softwarearchitektur um beliebige Domänen und zugehörige Berechnungsverfahren erweiterbar. Im Unterschied zu existierenden domänenübergreifenden Werkzeugen bietet es einen nutzerzentrierten Zugang zum Produktmodell, der domänenspezifische Darstellungen und Begriffe berücksichtigt. Die Entwicklung beider Konzepte ging mit einer softwaretechnischen Umsetzung einher, die deren Realisierbarkeit belegt und eine Demonstration ihrer Arbeitsweise anhand verschiedener Anwendungsbeispiele ermöglicht. Mit dieser Arbeit wird ein umfangreiches Spektrum an Erfahrungen bei der Konzeption und Implementierung solcher Softwarewerkzeuge präsentiert und weitergegeben.


http://www.gbv.de/dms/ilmenau/toc/1007496991.PDFTEST2

Al-Rubaye, Atheer Dhiaa;
Vertical handover management with quality of service support - Ilmenau : Universitätsverlag Ilmenau, 2017 - 1 Online-Ressource (xv, 105 Seiten).
Technische Universität Ilmenau, Dissertation 2017

Neue Anwendungen und Dienste steigern die Attraktivität der mobilen Nutzung des Internets und fordern die Beibehaltung der Konnektivität auch beim Wechsel zwischen heterogenen drahtlosen Zugangsnetzen, wobei viele Informationen unterschiedlicher Quellen berücksichtigt werden müssen. Auf Basis dieser Informationen müssen Handover-Entscheidungen getroffen werden, die ein Umschalten zwischen den drahtlosen Schnittstellen bewirken und die Identikation des mobilen Knotens aktualisieren. Die vorliegende Arbeit stellt ein Rahmenwerk für vertikalen Handover vor, das zudem eine Mobilitätsunterstützung beinhaltet. Es verwendet Algorithmen zur multikriteriellen Entscheidung, die eine breite Reihe von Parametern betrachtet, um so die Kommunikationsdienstgüte (Quality of Service, QoS) für Echtzeitanwendungen bereitzustellen. Darüber hinaus wurde eine Strategie für die stabile und weiche Umschaltung zwischen verschiedenen Schnittstellen des mobilen Geräts entwickelt und eine leichtgewichtige Signalisierung für die Adressauösung zur schnellen Wiederaufnahme der Datenübertragung vorgeschlagen. Die Dissertation beschreibt den schichtenübergreifenden Handover-Ansatz in drei Modulen, deren Konzept und Funktionalität detailliert diskutiert werden. Handover-Entscheidungen werden auf Grundlage von Benutzerpräferenzen, Netzwerkeigenschaften und Kontextinformationen des mobilen Endgeräts getroffen. Eine Verbindung wird nur dann auf eine neue Schnittstelle umgestellt, wenn diese mit dem neu gewählten Netzwerk in Verbindung steht und entsprechend konguriert ist. Für die Aktualisierung der Identität des mobilen Knotens wird der bekannte Mechanismus "Network Address Translation" (NAT) wesentlich erweitert, was als Dynamic index NAT (DiNAT) bezeichnet wird. Sowohl lokale als auch globale Mobilität wird durch eine hierarchische Bereitstellung von DiNAT-fähigen Knoten unterstützt, ohne dass hierzu ein Vorwissen oder die Kooperation der Nachbar-Netzwerke notwendig ist. Viele solcher Knoten können zur Lastverteilung installiert werden, da die Dissertation einen Auswahlmechanismus erarbeitete, um die Auswahl eines passenden Ankerknotens für jede Kommunikationssitzung auf einem mobilen Knoten zu ermöglichen. Die Simulationsumgebung OMNeT++ wurde verwendet, um die Durchführbarkeit des Ansatzes zu überprüfen und ihn mit einer weit verbreiteten Lösung für das Mobilitätsmanagement zu vergleichen.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2017000416
Al-Rubaye, Atheer Dhiaa;
Vertical handover management with quality of service support - Ilmenau : Universitätsverlag Ilmenau, 2017 - xv, 105 Seiten.
Technische Universität Ilmenau, Dissertation 2017

ISBN 386360167X = 978-3-86360-167-6

Neue Anwendungen und Dienste steigern die Attraktivität der mobilen Nutzung des Internets und fordern die Beibehaltung der Konnektivität auch beim Wechsel zwischen heterogenen drahtlosen Zugangsnetzen, wobei viele Informationen unterschiedlicher Quellen berücksichtigt werden müssen. Auf Basis dieser Informationen müssen Handover-Entscheidungen getroffen werden, die ein Umschalten zwischen den drahtlosen Schnittstellen bewirken und die Identikation des mobilen Knotens aktualisieren. Die vorliegende Arbeit stellt ein Rahmenwerk für vertikalen Handover vor, das zudem eine Mobilitätsunterstützung beinhaltet. Es verwendet Algorithmen zur multikriteriellen Entscheidung, die eine breite Reihe von Parametern betrachtet, um so die Kommunikationsdienstgüte (Quality of Service, QoS) für Echtzeitanwendungen bereitzustellen. Darüber hinaus wurde eine Strategie für die stabile und weiche Umschaltung zwischen verschiedenen Schnittstellen des mobilen Geräts entwickelt und eine leichtgewichtige Signalisierung für die Adressauösung zur schnellen Wiederaufnahme der Datenübertragung vorgeschlagen. Die Dissertation beschreibt den schichtenübergreifenden Handover-Ansatz in drei Modulen, deren Konzept und Funktionalität detailliert diskutiert werden. Handover-Entscheidungen werden auf Grundlage von Benutzerpräferenzen, Netzwerkeigenschaften und Kontextinformationen des mobilen Endgeräts getroffen. Eine Verbindung wird nur dann auf eine neue Schnittstelle umgestellt, wenn diese mit dem neu gewählten Netzwerk in Verbindung steht und entsprechend konguriert ist. Für die Aktualisierung der Identität des mobilen Knotens wird der bekannte Mechanismus "Network Address Translation" (NAT) wesentlich erweitert, was als Dynamic index NAT (DiNAT) bezeichnet wird. Sowohl lokale als auch globale Mobilität wird durch eine hierarchische Bereitstellung von DiNAT-fähigen Knoten unterstützt, ohne dass hierzu ein Vorwissen oder die Kooperation der Nachbar-Netzwerke notwendig ist. Viele solcher Knoten können zur Lastverteilung installiert werden, da die Dissertation einen Auswahlmechanismus erarbeitete, um die Auswahl eines passenden Ankerknotens für jede Kommunikationssitzung auf einem mobilen Knoten zu ermöglichen. Die Simulationsumgebung OMNeT++ wurde verwendet, um die Durchführbarkeit des Ansatzes zu überprüfen und ihn mit einer weit verbreiteten Lösung für das Mobilitätsmanagement zu vergleichen.



TEST4http://www.gbv.de/dms/ilmenau/abs/100632352Xalrub.txt
Lutherdt, Stefan;
Ein Konzept für die nutzerbezogene Gestaltung von Assistenzsystemen und deren Nutzerschnittstellen - Ilmenau : Universitätsverlag Ilmenau, 2017 - 290 Seiten. . - (Berichte aus der Biomechatronik. - Band 14)
Technische Universität Ilmenau, Dissertation 2017

ISBN 3863601645 = 978-3-86360-164-5

In dieser Arbeit wird gezeigt, dass die Entwicklung von Assistenzsystemen und ihren Schnittstellen bei Nutzung eines neuen Konzeptes (nutzerbezogene Gestaltung von Assistenzsystemen und deren Nutzerschnittstellen NuGASt), erfolgreich durchgeführt werden kann. Die Motivation zur Entwicklung des neuen Konzepts ergab sich aus der Identifikation von Problemen bei der Untersuchung und Beurteilung vorhandener Gestaltungslösungen für eine Nutzerschnittstelle (Fernbedienungen). Um eine Einordnung des Untersuchungsgegenstands "Assistenzsystem" machen zu können, werden einleitend verschiedene notwendige Begriffsbestimmungen und Definitionen vorgenommen sowie eine für diese Arbeit nutzbare Definition von Assistenzsystemen vorgeschlagen. Es wird beschrieben, wie dieses Konzept aus der Analyse vorhandener Entwicklungsmodelle verschiedener Bereiche wie Softwareentwicklung und Usability Engineering abgeleitet und mittels des bekannten Problemlösungsansatzes (s. VDI 2221) entworfen wurde. Im Unterschied zu den untersuchten anderen Konzepten und Modellen ist das Kennzeichen von NuGASt eine frühzeitige Nutzereinbindung bereits vom Start einer Entwicklung an. Außerdem basieren alle Entwicklungsschritte auf Kenntnissen über die späteren Nutzer, ihren Eigenschaften und Befähigungen hinsichtlich der Nutzung des zu entwickelnden Systems. Das Konzept ist strukturell ebenfalls an den Problemlösungsansatz angelehnt, verbindet diesen aber mit Elementen anderer Entwicklungsmodelle und wird ergänzt durch flexibel einsetzbare Rückkopplungen und Nutzerbeteiligungen. Als Kriterium zur Bewertung des späteren Entwicklungsergebnisses wurde die Gebrauchstauglichkeit gewählt (s. DIN ISO EN 9241:11), da sie die mit dem Konzept gewünschte Ausrichtung auf den späteren Nutzer eines Produkts repräsentiert. Es wird die schrittweise Herleitung des Konzepts beschrieben sowie die Überprüfung der Funktions- und Passfähigkeit des Konzepts auf die zu Beginn gestellten Ziele (Entwicklung von Assistenzsystemen und Schnittstellen), was an ausgewählten Beispielen aus Forschungsprojekten belegt wird. Die Ergebnisse der gezeigten Projekte und Evaluationen mit potentiellen Nutzern zeigen, dass durch den Einsatz von NuGASt in Projekten zur Entwicklung von Assistenzsystemen tragfähige Lösungen gefunden werden können, die auch durch die späteren Nutzer akzeptiert werden.


http://www.gbv.de/dms/ilmenau/abs/888168071luthe.txtTEST2

Nowack, Tobias Falk;
Mensch-Technik-Interaktion mittels Freiraumgesten - Ilmenau : Universitätsverlag Ilmenau, 2017 - 1 Online-Ressource (177 Seiten). . - (Berichte aus der Biomechatronik. - Band 15)
Technische Universität Ilmenau, Dissertation 2017

Mit Industrie 4.0 gewinnt die Mensch-Technik-Interaktion deutlich an Stellenwert. Sollen Mensch und Maschine gemeinsam arbeiten, dann sind alternative Interaktionsformen zu entwickeln. Erfolgreiche Kommunikation bedeutet, dass beide Kommunikationspartner zum Kommunikationsende den gleichen Informationsstand haben. Die natürliche, menschliche Kommunikation findet auf verschiedenen Ebenen (z.B. visuell und akustisch) statt, welche zusammengehörig gedeutet werden. An der redebegleitenden Zeigegeste lässt sich das Zusammenspiel von gesprochenem Wort, ausgeführter Zeigegeste und kognitiver Leistung des Empfängers gut erkennen. Der "grüne Ordner da drüben" fordert vom Empfänger neben der rein sensorischen Aufgabe des Hörens und Sehens die zusätzliche, wissensbasierte Verarbeitung von "grün" und "Ordner". Mit all diesen Informationen erreicht die gestenunterstützte Mensch-Mensch-Kommunikation eine Erkennungsrate von annähernd 100 %. Sollen für die Mensch-Technik-Kommunikation "Zeigegesten" verwendet werden, sind die zusätzlichen Kontext-Informationen z.Z. für die technische Auswertung noch nicht verfügbar. Daher wurden Beschreibungen der Zeigegeste entwickelt und evaluiert, mit denen bereits ohne Interpretation der Kontextinformation eine Gesamterkennungsrate von über 85 % realisiert werden kann. Ausgehend von dem Nutzerverständnis - Zeigen wird als statische Geste verstanden - wurde eine technisch nutzbare Beschreibung entwickelt. Diese, nur die Körperpose des Zeigens auswertend, erreicht bei der Evaluation eine Erkennungsrate von ca. 50 %. Sie ließ sich bereits im Rahmen eines Forschungsprojektes erfolgreich in die Praxisübertragen. Auf Grundlage eines Phasenmodells der Gestenausführung wurden zwei weitere Beschreibungen entwickelt. Bei diesen wird der gesamte Gestenzyklus aus Einleitung, Hauptteil, Haltephase und Ausleitung betrachtet. Mit den Daten der für die Evaluation eingesetzten Kinect® 2 konnten mit den erweiterten Phasendefinitionen Erkennungsraten von über 85 % realisiert werden. Für eine Verbesserung der Erkennungsrate ist es zukünftig notwendig, weitere Gesten wie das "Heranwinken" zu beschreiben, um sie vom "Zeigen" abzugrenzen. Zusätzlich muss das Zeigeziel erkannt und anhand der Kontextinformation überprüft werden können.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2017000379
Nowack, Tobias Falk;
Mensch-Technik-Interaktion mittels Freiraumgesten - Ilmenau : Universitätsverlag Ilmenau, 2017 - 177 Seiten. . - (Berichte aus der Biomechatronik. - Band 15)
Technische Universität Ilmenau, Dissertation 2017

ISBN 3863601661 = 978-3-86360-166-9

Mit Industrie 4.0 gewinnt die Mensch-Technik-Interaktion deutlich an Stellenwert. Sollen Mensch und Maschine gemeinsam arbeiten, dann sind alternative Interaktionsformen zu entwickeln. Erfolgreiche Kommunikation bedeutet, dass beide Kommunikationspartner zum Kommunikationsende den gleichen Informationsstand haben. Die natürliche, menschliche Kommunikation findet auf verschiedenen Ebenen (z.B. visuell und akustisch) statt, welche zusammengehörig gedeutet werden. An der redebegleitenden Zeigegeste lässt sich das Zusammenspiel von gesprochenem Wort, ausgeführter Zeigegeste und kognitiver Leistung des Empfängers gut erkennen. Der "grüne Ordner da drüben" fordert vom Empfänger neben der rein sensorischen Aufgabe des Hörens und Sehens die zusätzliche, wissensbasierte Verarbeitung von "grün" und "Ordner". Mit all diesen Informationen erreicht die gestenunterstützte Mensch-Mensch-Kommunikation eine Erkennungsrate von annähernd 100 %. Sollen für die Mensch-Technik-Kommunikation "Zeigegesten" verwendet werden, sind die zusätzlichen Kontext-Informationen z.Z. für die technische Auswertung noch nicht verfügbar. Daher wurden Beschreibungen der Zeigegeste entwickelt und evaluiert, mit denen bereits ohne Interpretation der Kontextinformation eine Gesamterkennungsrate von über 85 % realisiert werden kann. Ausgehend von dem Nutzerverständnis - Zeigen wird als statische Geste verstanden - wurde eine technisch nutzbare Beschreibung entwickelt. Diese, nur die Körperpose des Zeigens auswertend, erreicht bei der Evaluation eine Erkennungsrate von ca. 50 %. Sie ließ sich bereits im Rahmen eines Forschungsprojektes erfolgreich in die Praxisübertragen. Auf Grundlage eines Phasenmodells der Gestenausführung wurden zwei weitere Beschreibungen entwickelt. Bei diesen wird der gesamte Gestenzyklus aus Einleitung, Hauptteil, Haltephase und Ausleitung betrachtet. Mit den Daten der für die Evaluation eingesetzten Kinect® 2 konnten mit den erweiterten Phasendefinitionen Erkennungsraten von über 85 % realisiert werden. Für eine Verbesserung der Erkennungsrate ist es zukünftig notwendig, weitere Gesten wie das "Heranwinken" zu beschreiben, um sie vom "Zeigen" abzugrenzen. Zusätzlich muss das Zeigeziel erkannt und anhand der Kontextinformation überprüft werden können.


http://www.gbv.de/dms/ilmenau/abs/1003995233nowac.txtTEST2

Blauth, Michael;
Parametrisierte Modelle zur konstruktiven Auslegung optimierter elektrischer Steckverbinderkontakte - Ilmenau : Universitätsverlag Ilmenau, 2017 - 1 Online-Ressource (XII, 221 Seiten). . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte und Anlagentechnik. - Band 18)
Technische Universität Ilmenau, Dissertation 2017

Im Rahmen dieser Arbeit wird die konstruktive Auslegung von Steckverbindern hinsichtlich der Stromtragfähigkeit untersucht. Zunächst werden bekannte analytische Modelle aus verschiedenen physikalischen Phänomenen (mechanische, elektrische, thermische und kontaktphysikalische) miteinander kombiniert, um die Stromerwärmung von Steckverbinderkontakten incl. der angeschlossenen Leitung analytisch zu berechnen. Die Modelle werden mit Hilfe von Experimenten und FE-Analysen verifiziert. Anschließend werden die analytischen Modelle umgeformt, um wichtige Fragestellungen bei der konstruktiven Auslegung von Steckverbinderkontakten zu berechnen. Dazu zählen unter anderem der maximal zulässige Durchgangswiderstand von Steckverbinderkontakten, der Zusammenhang zwischen Durchgangswiderstand und Stromerwärmung, sowie die optimale Anzahl an Kontaktfedern für einen Steckverbinderkontakt. Zudem werden Sensitivitätsanalysen durchgeführt, um den Einfluss konstruktionsrelevanter Parameter auf die Stromerwärmung von Steckverbinderkontakten darzustellen. Durch die gewonnenen Ergebnisse wird schließlich ein Vorgehen zur systematischen Auslegung von Steckverbinderkontakten hinsichtlich der Stromtragfähigkeit erarbeitet. Dieses nutzt analytische Modelle (parametrisierte Modelle), mit denen sich wesentliche geometrische Abmessungen und Werkstoffkennwerte berechnen lassen. Dadurch können Baureihen von Steckverbinderkontakten entwickelt werden, die einer einheitlichen Methodik folgen, eine Überdimensionierung vermeiden und sich für verschiedene Stromstärken skalieren lassen. Die Arbeit stellt damit einen Ansatz zur parametrischen Konstruktion von Steckverbindern dar.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2017000035
Erhard, Felix;
Beitrag zur Störlichtbogendetektion in Photovoltaikanlagen - Ilmenau : Universitätsverlag Ilmenau, 2017 - 1 Online-Ressource (XVII, 213 Seiten). . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - Band 19)
Technische Universität Ilmenau, Dissertation 2017

Die vorliegende Dissertation befasst sich mit der Thematik der Störlichtbogendetektion in Photovoltaikanlagen. Vorrangiges Ziel ist die Erforschung und Entwicklung eines zuverlässigen und sicheren - zu den bereits bestehenden frequenzbasierten Lösungsansätzen alternativen - Störlichtbogen-Detektionskriteriums im Zeitbereich. Hierzu wurde das gleichstromseitige, elektrische Klemmenverhalten von Single-String-Photovoltaikanlagen bei dynamischer Anregung in Form eines seriellen Lichtbogens eingehend analysiert. Die Ergebnisse dieser Arbeit belegen eindeutig dass die, durch die Spannungsflanke der Anoden-Kathoden-Fallspannung U AK im Zündmoment des Lichtbogens verursachte, Änderung im zeitlichen Signalverlauf der an den String-Anschlussklemmen des Wechselrichters gemessene String-Spannung U String im besonderen Maße zur Detektion serieller Störlichtbögen in Photovoltaikanlagen geeignet ist. Folglich konnte ein neuartiges und verlässliches Detektionskriterium im Zeitbereich für serielle Störlichtbögen in Single-String-Photovoltaikanlagen vorgestellt werden, dessen prinzipielle Eignung, Haupteinflussgrößen und gültige Anwendungsbereich sowohl in Theorie und als auch in Praxis eingehend überprüft, ermittelt und bestimmt wurden. Die erarbeiteten Resultate und Erkenntnisse gehen in erster Linie aus der Analyse der, im Rahmen umfangreicher Feld- und Laborversuche, unter Berücksichtigung aller wesentlichen Versuchs- und Einflussparameter, gewonnenen Messdaten hervor. Mit der Absicht belast- und vor allem vergleichbare Messergebnisse hinsichtlich des konkreten Forschungsschwerpunktes unter sicheren Bedingungen während des laufenden Betriebs in Photovoltaik zu generieren wurde ein geeignetes Messequipment und -verfahren entwickelt, ausgelegt und konstruiert. In diesem Kontext unterscheidet sich die vorliegende Arbeit - vor allem aufgrund der Durchführung und Vorstellung ausführlicher, experimenteller Studien an realen Photovoltaikanlagen zur Erforschung des dortigen Störlichtbogenverhaltens - deutlich von anderen zu diesem Thema bereits veröffentlichten Literaturstellen. Darüber hinaus wurde ein mathematisch-physikalisches Simulationsmodell entwickelt, welches alle für die Betrachtungen notwendigen Elemente (Photovoltaikgenerator, Wechselrichter, Gleichstromverkabelung und serieller Lichtbogen) in detaillierter Form inkludiert und die lichtbogenbedingten Ausgleichsvorgänge im zeitlichen Signalverlauf der, an den String-Anschlussklemmen gemessenen String-Spannung U String realgetreu nachbildet. Das in dieser Form ausgearbeitete Gesamtmodell stellt seinerseits, da in der gängigen Literatur nicht vorhanden, eine Neuheit dar. Neben dem Zweck der Verifikation der experimentell ermittelten Ergebnisse dient es vor allem der Erweiterung des Erkenntnishorizontes hinsichtlich der konkreten Aufgabenstellung dieser Dissertation und trägt infolgedessen wesentlich zum besseren Verständnis der Thematik von Störlichtbogen in Photovoltaikanlagen bei.



https://www.db-thueringen.de/receive/dbt_mods_00032899
Erhard, Felix;
Beitrag zur Störlichtbogendetektion in Photovoltaikanlagen - Ilmenau : Universitätsverlag Ilmenau, 2017 - XVII, 213 Seiten. . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - Band 19)
Technische Universität Ilmenau, Dissertation 2017

ISBN 3863601653 = 978-3-86360-165-2

Die vorliegende Dissertation befasst sich mit der Thematik der Störlichtbogendetektion in Photovoltaikanlagen. Vorrangiges Ziel ist die Erforschung und Entwicklung eines zuverlässigen und sicheren - zu den bereits bestehenden frequenzbasierten Lösungsansätzen alternativen - Störlichtbogen-Detektionskriteriums im Zeitbereich. Hierzu wurde das gleichstromseitige, elektrische Klemmenverhalten von Single-String-Photovoltaikanlagen bei dynamischer Anregung in Form eines seriellen Lichtbogens eingehend analysiert. Die Ergebnisse dieser Arbeit belegen eindeutig dass die, durch die Spannungsflanke der Anoden-Kathoden-Fallspannung U AK im Zündmoment des Lichtbogens verursachte, Änderung im zeitlichen Signalverlauf der an den String-Anschlussklemmen des Wechselrichters gemessene String-Spannung U String im besonderen Maße zur Detektion serieller Störlichtbögen in Photovoltaikanlagen geeignet ist. Folglich konnte ein neuartiges und verlässliches Detektionskriterium im Zeitbereich für serielle Störlichtbögen in Single-String-Photovoltaikanlagen vorgestellt werden, dessen prinzipielle Eignung, Haupteinflussgrößen und gültige Anwendungsbereich sowohl in Theorie und als auch in Praxis eingehend überprüft, ermittelt und bestimmt wurden. Die erarbeiteten Resultate und Erkenntnisse gehen in erster Linie aus der Analyse der, im Rahmen umfangreicher Feld- und Laborversuche, unter Berücksichtigung aller wesentlichen Versuchs- und Einflussparameter, gewonnenen Messdaten hervor. Mit der Absicht belast- und vor allem vergleichbare Messergebnisse hinsichtlich des konkreten Forschungsschwerpunktes unter sicheren Bedingungen während des laufenden Betriebs in Photovoltaik zu generieren wurde ein geeignetes Messequipment und -verfahren entwickelt, ausgelegt und konstruiert. In diesem Kontext unterscheidet sich die vorliegende Arbeit - vor allem aufgrund der Durchführung und Vorstellung ausführlicher, experimenteller Studien an realen Photovoltaikanlagen zur Erforschung des dortigen Störlichtbogenverhaltens - deutlich von anderen zu diesem Thema bereits veröffentlichten Literaturstellen. Darüber hinaus wurde ein mathematisch-physikalisches Simulationsmodell entwickelt, welches alle für die Betrachtungen notwendigen Elemente (Photovoltaikgenerator, Wechselrichter, Gleichstromverkabelung und serieller Lichtbogen) in detaillierter Form inkludiert und die lichtbogenbedingten Ausgleichsvorgänge im zeitlichen Signalverlauf der, an den String-Anschlussklemmen gemessenen String-Spannung U String realgetreu nachbildet. Das in dieser Form ausgearbeitete Gesamtmodell stellt seinerseits, da in der gängigen Literatur nicht vorhanden, eine Neuheit dar. Neben dem Zweck der Verifikation der experimentell ermittelten Ergebnisse dient es vor allem der Erweiterung des Erkenntnishorizontes hinsichtlich der konkreten Aufgabenstellung dieser Dissertation und trägt infolgedessen wesentlich zum besseren Verständnis der Thematik von Störlichtbogen in Photovoltaikanlagen bei.



TEST4http://www.gbv.de/dms/ilmenau/toc/896801578.PDF
Funke, Carsten;
Blendungsbewertung von LED-Leuchten in Innenräumen - Ilmenau : Universitätsverlag Ilmenau, 2017 - 1 Online-Ressource (xxxiii, 184 Seiten). . - (Schriften der Ilmenauer Lichttechnik. - Band 21)
Technische Universität Ilmenau, Dissertation 2017

Diese Arbeit befasst sich mit der Blendungsbewertung von künstlicher Beleuchtung in Innenräumen. Die Gültigkeit der vorhandenen Blendungsbewertungsmodelle wird für strukturierte LED-Leuchten mittels einer Probandenstudie überprüft und mögliche Erweiterungen der Modelle werden diskutiert. Dafür wurden folgende Forschungshypothesen formuliert: 1. Die von einer Leuchte ausgehende Blendung steigt mit zunehmendem Leuchtdichtekontrast innerhalb der Leuchte bei gleicher mittlerer Blendquellenleuchtdichte. 2. Der in Forschungshypothese 1 postulierte Zusammenhang ist bei direktem Blick in die Blendquelle maximal und nimmt mit zunehmendem Blendwinkel ab. 3. Bei gleicher mittlerer Leuchtdichte und gleichem Kontrast weisen Leuchten mit großem Lichtquellenabstand mehr Blendung auf. 4. Der gesamte wahrgenommene Blendwert mehrerer LED-Punkte einer Leuchte ist größer als die Summe der wahrgenommenen Einzelblendwerte der LEDs. Mit der Probandenstudie können die erste und zweite Forschungshypothese verifiziert werden, wohingegen die dritte und vierte Forschungshypothese für die untersuchten Parameter nicht bestätigt werden können. Sowohl der Lichtquellenabstand innerhalb der Leuchte als auch die Verteilung der Lichtquellenpunkte innerhalb der Leuchte konnte für neun bis 121 LEDs bei verschiedenen Leuchtdichtekontrasten und Blendwinkeln als irrelevant für die psychologische Blendung identifiziert werden. Diese Erkenntnisse wurden anschließend dazu verwendet, zwei verbesserte Blendungsbewertungsmodelle für LED-Leuchten zu entwickeln. Das erste Modell basiert auf den Korrekturfaktoren nach HARA und ist zur Blendungsbewertung von LED-Leuchten während der Leuchtenentwicklung und der Lichtplanung von Innenräumen geeignet. Das zweite Modell basiert auf den Untersuchungen von WOLF zur Detektion der leuchtenden Bereiche für Leuchtstofflampenleuchten. Dieses Verfahren wurde im Rahmen der Arbeit für LED-Leuchten erweitert, indem das Leuchtdichtebild entsprechend der physiologischen Eigenschaften des Auges geglättet wird und im Anschluss die blendenden Bereiche detektiert werden. Abschließend werden Schlussfolgerungen für die Anwendung der Ergebnisse gegeben. Diese Empfehlungen für Leuchtenentwickler und Lichtplaner sollen dazu beitragen, die Lichtqualität bei Einsatz von LED-Leuchten zu verbessern und gleichzeitig eine hohe Lichtausbeute und Gestaltungsfreiheit beibehalten zu können.



https://www.db-thueringen.de/receive/dbt_mods_00032870
Funke, Carsten;
Blendungsbewertung von LED-Leuchten in Innenräumen - Ilmenau : Universitätsverlag Ilmenau, 2017 - xxxiii, 184 Seiten. . - (Schriften der Ilmenauer Lichttechnik. - Band 21)
Technische Universität Ilmenau, Dissertation 2017

ISBN 3863601637 = 978-3-86360-163-8

Diese Arbeit befasst sich mit der Blendungsbewertung von künstlicher Beleuchtung in Innenräumen. Die Gültigkeit der vorhandenen Blendungsbewertungsmodelle wird für strukturierte LED-Leuchten mittels einer Probandenstudie überprüft und mögliche Erweiterungen der Modelle werden diskutiert. Dafür wurden folgende Forschungshypothesen formuliert: 1. Die von einer Leuchte ausgehende Blendung steigt mit zunehmendem Leuchtdichtekontrast innerhalb der Leuchte bei gleicher mittlerer Blendquellenleuchtdichte. 2. Der in Forschungshypothese 1 postulierte Zusammenhang ist bei direktem Blick in die Blendquelle maximal und nimmt mit zunehmendem Blendwinkel ab. 3. Bei gleicher mittlerer Leuchtdichte und gleichem Kontrast weisen Leuchten mit großem Lichtquellenabstand mehr Blendung auf. 4. Der gesamte wahrgenommene Blendwert mehrerer LED-Punkte einer Leuchte ist größer als die Summe der wahrgenommenen Einzelblendwerte der LEDs. Mit der Probandenstudie können die erste und zweite Forschungshypothese verifiziert werden, wohingegen die dritte und vierte Forschungshypothese für die untersuchten Parameter nicht bestätigt werden können. Sowohl der Lichtquellenabstand innerhalb der Leuchte als auch die Verteilung der Lichtquellenpunkte innerhalb der Leuchte konnte für neun bis 121 LEDs bei verschiedenen Leuchtdichtekontrasten und Blendwinkeln als irrelevant für die psychologische Blendung identifiziert werden. Diese Erkenntnisse wurden anschließend dazu verwendet, zwei verbesserte Blendungsbewertungsmodelle für LED-Leuchten zu entwickeln. Das erste Modell basiert auf den Korrekturfaktoren nach HARA und ist zur Blendungsbewertung von LED-Leuchten während der Leuchtenentwicklung und der Lichtplanung von Innenräumen geeignet. Das zweite Modell basiert auf den Untersuchungen von WOLF zur Detektion der leuchtenden Bereiche für Leuchtstofflampenleuchten. Dieses Verfahren wurde im Rahmen der Arbeit für LED-Leuchten erweitert, indem das Leuchtdichtebild entsprechend der physiologischen Eigenschaften des Auges geglättet wird und im Anschluss die blendenden Bereiche detektiert werden. Abschließend werden Schlussfolgerungen für die Anwendung der Ergebnisse gegeben. Diese Empfehlungen für Leuchtenentwickler und Lichtplaner sollen dazu beitragen, die Lichtqualität bei Einsatz von LED-Leuchten zu verbessern und gleichzeitig eine hohe Lichtausbeute und Gestaltungsfreiheit beibehalten zu können.



TEST4http://www.gbv.de/dms/ilmenau/toc/896292975.PDF
Nicolai, Katja;
Generative Fertigung von Sinterglaskörpern für Glasdurchführungen durch 3D-Drucken - Ilmenau : Universitätsverlag Ilmenau, 2017 - 1 Online-Ressource (209 Seiten). . - (Werkstofftechnik Aktuell. - 16)
Technische Universität Ilmenau, Dissertation 2017

Die Arbeit behandelt die erstmalige Ergänzung des Herstellungsprozesses von Glasdurchführungen durch den Einsatz eines generativen Verfahrens zur Fertigung von Rohlingen für Sinterglaskörper sowie die Anpassung der vor- und nachgelagerten Prozessschritte an die dadurch veränderten Bedingungen. Damit sollte der herkömmliche Prozessschritt "Pressen" hinsichtlich Kosten- und Zeiteinsparung im Rahmen von Kleinserien ersetzt werden. Bei dem ausgewählten generativen Verfahren handelte es sich um den 3D - Pulverbettdruck. Der 3D - Druck von Glaspulver für technische Anwendungen war ein Novum, so dass Erfahrungswerte aus dem Bereich der Keramik den Einstieg in die Problematik und deren Weiterentwicklung für Glas ermöglichten. Die Herausforderung bestand darin, trotz der Unterschiedlichkeit der beiden Formgebungsverfahren Pressen und 3D - Pulverbettdruck vergleichbare Eigenschaften der Rohlinge für Sinterglaskörper zu erhalten. Der beim Pressen verwendete Druck für die Formgebung ist beim 3D - Pulverbettdruck nicht vorhanden. Die erforderliche Dichte und Porosität muss über eine geeignete Korngrößenverteilung der Ausgangsmaterialien erreicht werden Glaspulver mit Korngrößenverteilungen ab < 165 [my]m mit 20 % bis 30 % Feinanteilen (2 - 3 [my]m) hatten die günstigste Anordnungsmöglichkeit der Pulverbestandteile. Mit dem entwickelten Temperaturprogramm für den Entbinder- und Sinterprozess wurde durch Modellierung und Optimierung die vollständige Zersetzung der Binderbestandteile sichergestellt. Die Porositäten der durch 3D - Pulverbettdruck hergestellten Sinterglaskörper im Vergleich zu denen aus dem herkömmlichen Presseverfahren betrugen 25 % - 40 % zu 22 % und die Dichten 1,7 g/cm^3 zu 2 g/cm^3. Im Hinblick auf spätere Einschmelzungen konnten die Differenzen durch Anpassung der Abmessungen der Rohlinge ausgeglichen werden. Beide Herstellungsverfahren haben Formtoleranzen von 1 bis 2 %. Die durch 3D - Pulverbettdruck hergestellten Sinterglaskörper erfüllen die erforderlichen Qualitätsparameter bei der Verwendung für Glasdurchführungen und entsprechen dem Stand der Technik nach dem Einschmelzen. Ausgehend von diesen Ergebnissen konnte eine stabile Prozesskette für die Fertigung von Glasdurchführungen mit generativ gefertigten Rohlingen für Sinterglaskörper abgeleitet werden.



https://www.db-thueringen.de/receive/dbt_mods_00032750
Walkling, Andreas;
Schwellenuntersuchung zur physiologischen Blendung für ortsfeste Straßenbeleuchtung : Weiterentwicklung der TI-Formel für nasse und trockene Straßen - Ilmenau : Universitätsverlag Ilmenau, 2017 - 1 Online-Ressource (140 Seiten). . - (Schriften der Ilmenauer Lichttechnik. - Band 20)
Technische Universität Ilmenau, Dissertation 2016

Die vorliegende Arbeit beinhaltet eine grundlegende Schwellenuntersuchung zur physiologischen Blendung für ortsfeste Straßenbeleuchtung und leistet einen Beitrag zur Verbesserung der Sichtbarkeit im nächtlichen Straßenverkehr. Die damit verbundene Förderung der Verkehrssicherheit kann die nächtlichen Verkehrsunfälle reduzieren helfen. Aus der Literaturrecherche ist ersichtlich, dass die Nichtberücksichtigung einer zugleich wahrgenommenen Kontrastminderung durch einen Schleier infolge Blendung (auch physikalischer Effekt des Blendungsschleiers genannt) in der Straßenbeleuchtungsnorm eine erhebliche Lücke darstellt. Bisher geht man bei der TI-Formel von einer Schwellenwerterhöhung ohne diesen Effekt aus, die daher die tatsächlichen Wahrnehmungsbedingungen weniger exakt widerspiegelt und bei der Blendungsbewertung zu Fehlurteilen führt. Es wurde eine Versuchsapparatur entwickelt, die es ermöglichte, den Einfluss dieser Kontrastminderung bei der Schwellenmessung zu untersuchen. Als Einflussgrößen wurden das Adaptations- bzw. Blendungsniveau, die Darbietungsdauer und -art verwendet. Es wird erstmals nachgewiesen, dass der Ur-Versuch von Narisada aus dem Jahre 1977 zur Schwellenmessung mit äquivalentem Blendungsschleier replizierbar und verlässlich ist. Sein gefundenes experimentelles Ergebnis kann daher bestätigt werden. Die Ergebnisse zeigen, dass im Blendungsfall die Komponente der Kontrastminderung die Leuchtdichteunterschiedsschwelle stärker beeinflusst als die Komponente der gleichzeitig auftretenden Netzhautaufhellung. Eine Abhängigkeit der Unterschiedsschwelle mit Blendungsschleier wird von der Darbietungsart ebenso nachgewiesen. Ein Vergleich mit Schwellenwerten von Blackwell/Adrian ergibt keine Übereinstimmung aufgrund der dort fehlenden physikalischen Wirkung des Blendungsschleiers. Aus dem umfassenden Schwellenmodell nach Narisada und den eigenen Messdaten lassen sich erstmals neuartige, erweiterte TI-Formeln für foveales und peripheres Sehen ableiten. Damit ist es möglich, die Blendung korrekter quantitativ zu erfassen, weil einerseits die Kontrastminderung infolge Blendungsschleier einbezogen wird und weil andererseits die neuen Blendungsformeln von der Hintergrundleuchtdichte eines Hindernisses im Bewertungsfeld abhängen, wodurch die insbesondere auf nasser Straße vorhandene inhomogene Leuchtdichteverteilung genauer einberechnet wird.



https://www.db-thueringen.de/receive/dbt_mods_00032687
Nicolai, Katja;
Generative Fertigung von Sinterglaskörpern für Glasdurchführungen durch 3D-Drucken - Ilmenau : Universitätsverlag Ilmenau, 2017 - 209 Seiten. . - (Werkstofftechnik aktuell. - Band 16)
Technische Universität Ilmenau, Dissertation 2017

ISBN 3863601629 = 978-3-86360-162-1

Die Arbeit behandelt die erstmalige Ergänzung des Herstellungsprozesses von Glasdurchführungen durch den Einsatz eines generativen Verfahrens zur Fertigung von Rohlingen für Sinterglaskörper sowie die Anpassung der vor- und nachgelagerten Prozessschritte an die dadurch veränderten Bedingungen. Damit sollte der herkömmliche Prozessschritt "Pressen" hinsichtlich Kosten- und Zeiteinsparung im Rahmen von Kleinserien ersetzt werden. Bei dem ausgewählten generativen Verfahren handelte es sich um den 3D - Pulverbettdruck. Der 3D - Druck von Glaspulver für technische Anwendungen war ein Novum, so dass Erfahrungswerte aus dem Bereich der Keramik den Einstieg in die Problematik und deren Weiterentwicklung für Glas ermöglichten. Die Herausforderung bestand darin, trotz der Unterschiedlichkeit der beiden Formgebungsverfahren Pressen und 3D - Pulverbettdruck vergleichbare Eigenschaften der Rohlinge für Sinterglaskörper zu erhalten. Der beim Pressen verwendete Druck für die Formgebung ist beim 3D - Pulverbettdruck nicht vorhanden. Die erforderliche Dichte und Porosität muss über eine geeignete Korngrößenverteilung der Ausgangsmaterialien erreicht werden Glaspulver mit Korngrößenverteilungen ab < 165 [my]m mit 20 % bis 30 % Feinanteilen (2 - 3 [my]m) hatten die günstigste Anordnungsmöglichkeit der Pulverbestandteile. Mit dem entwickelten Temperaturprogramm für den Entbinder- und Sinterprozess wurde durch Modellierung und Optimierung die vollständige Zersetzung der Binderbestandteile sichergestellt. Die Porositäten der durch 3D - Pulverbettdruck hergestellten Sinterglaskörper im Vergleich zu denen aus dem herkömmlichen Presseverfahren betrugen 25 % - 40 % zu 22 % und die Dichten 1,7 g/cm^3 zu 2 g/cm^3. Im Hinblick auf spätere Einschmelzungen konnten die Differenzen durch Anpassung der Abmessungen der Rohlinge ausgeglichen werden. Beide Herstellungsverfahren haben Formtoleranzen von 1 bis 2 %. Die durch 3D - Pulverbettdruck hergestellten Sinterglaskörper erfüllen die erforderlichen Qualitätsparameter bei der Verwendung für Glasdurchführungen und entsprechen dem Stand der Technik nach dem Einschmelzen. Ausgehend von diesen Ergebnissen konnte eine stabile Prozesskette für die Fertigung von Glasdurchführungen mit generativ gefertigten Rohlingen für Sinterglaskörper abgeleitet werden.



TEST4http://www.gbv.de/dms/ilmenau/toc/894993739.PDF
Kristiansen, Silje;
Media and risk : a phase model elucidating media attention to nuclear energy risk - Ilmenau : Universitätsverlag Ilmenau - 1 Online-Ressource (PDF-Datei: 294 Seiten). . - (NEU - Nachhaltigkeits-, Energie- und Umweltkommunikation. - Band 5)
ETH Zürich, Dissertation 2015


http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2017100025
Walkling, Andreas;
Schwellenuntersuchung zur physiologischen Blendung für ortsfeste Straßenbeleuchtung : Weiterentwicklung der TI-Formel für nasse und trockene Straßen - Ilmenau : Universitätsverlag Ilmenau, 2017 - 140 Seiten. . - (Schriften der Ilmenauer Lichttechnik. - Band 20)
Technische Universität Ilmenau, Dissertation 2016

ISBN 3863601610 = 978-3-86360-161-4

Die vorliegende Arbeit beinhaltet eine grundlegende Schwellenuntersuchung zur physiologischen Blendung für ortsfeste Straßenbeleuchtung und leistet einen Beitrag zur Verbesserung der Sichtbarkeit im nächtlichen Straßenverkehr. Die damit verbundene Förderung der Verkehrssicherheit kann die nächtlichen Verkehrsunfälle reduzieren helfen. Aus der Literaturrecherche ist ersichtlich, dass die Nichtberücksichtigung einer zugleich wahrgenommenen Kontrastminderung durch einen Schleier infolge Blendung (auch physikalischer Effekt des Blendungsschleiers genannt) in der Straßenbeleuchtungsnorm eine erhebliche Lücke darstellt. Bisher geht man bei der TI-Formel von einer Schwellenwerterhöhung ohne diesen Effekt aus, die daher die tatsächlichen Wahrnehmungsbedingungen weniger exakt widerspiegelt und bei der Blendungsbewertung zu Fehlurteilen führt. Es wurde eine Versuchsapparatur entwickelt, die es ermöglichte, den Einfluss dieser Kontrastminderung bei der Schwellenmessung zu untersuchen. Als Einflussgrößen wurden das Adaptations- bzw. Blendungsniveau, die Darbietungsdauer und -art verwendet. Es wird erstmals nachgewiesen, dass der Ur-Versuch von Narisada aus dem Jahre 1977 zur Schwellenmessung mit äquivalentem Blendungsschleier replizierbar und verlässlich ist. Sein gefundenes experimentelles Ergebnis kann daher bestätigt werden. Die Ergebnisse zeigen, dass im Blendungsfall die Komponente der Kontrastminderung die Leuchtdichteunterschiedsschwelle stärker beeinflusst als die Komponente der gleichzeitig auftretenden Netzhautaufhellung. Eine Abhängigkeit der Unterschiedsschwelle mit Blendungsschleier wird von der Darbietungsart ebenso nachgewiesen. Ein Vergleich mit Schwellenwerten von Blackwell/Adrian ergibt keine Übereinstimmung aufgrund der dort fehlenden physikalischen Wirkung des Blendungsschleiers. Aus dem umfassenden Schwellenmodell nach Narisada und den eigenen Messdaten lassen sich erstmals neuartige, erweiterte TI-Formeln für foveales und peripheres Sehen ableiten. Damit ist es möglich, die Blendung korrekter quantitativ zu erfassen, weil einerseits die Kontrastminderung infolge Blendungsschleier einbezogen wird und weil andererseits die neuen Blendungsformeln von der Hintergrundleuchtdichte eines Hindernisses im Bewertungsfeld abhängen, wodurch die insbesondere auf nasser Straße vorhandene inhomogene Leuchtdichteverteilung genauer einberechnet wird.



TEST4http://www.gbv.de/dms/ilmenau/abs/882047345walkl.txt
Kristiansen, Silje;
Media and risk : a phase model elucidating media attention to nuclear energy risk - Ilmenau : Universitätsverlag Ilmenau - 294 Seiten. . - (NEU - Nachhaltigkeits-, Energie- und Umweltkommunikation. - Band 5)
ETH Zürich, Dissertation 2015

ISBN 3863601599 = 978-3-86360-159-1

TEST4http://www.gbv.de/dms/ilmenau/toc/893488895.PDF
Wildner, Christian;
Minimierung unerwünschter Durchsatzminderungen nach Ausfällen und späteren Wieder-Inbetriebnahmen von Regalbediengeräten in automatisierten Hochregallagern - Ilmenau : Universitätsverlag Ilmenau, 2017 - 1 Online-Ressource (136 Seiten).
Technische Universität Ilmenau, Dissertation 2016

Zur Steuerung des verbreiteten technischen Lagertyps automatisiertes Hochregallager (aHRL) kommen Lagerbetriebsstrategien zur Anwendung, welche einen wesentlichen Einfluss auf das charakteristische Betriebsverhalten des Lagersystems ausüben. In Anbetracht gestiegener Kundenforderung in Bezug auf Liefertreue bzw. Lieferzuverlässigkeit, verlängerter Betriebszeiten und verringerter Ausübung geplanter Instandhaltung stellt sich die Frage, welchen Beitrag Lagerbetriebsstrategien leisten können, wenn trotz hoher Verfügbarkeitszusagen seitens der Hersteller ein Regalbediengerät (RBG) in einem automatisierten Hochregallager ausfällt. Unter Berücksichtigung von Geinitz Untersuchungen zur Durchsatzreduktion nach Beendigung des Ausfalls eines Regalbediengeräts (1998) gilt es zunächst festzustellen, dass die Betriebsstrategie Querverteilung in üblichen Betriebssituationen für diese Zwecke als unzureichend zu bewertet ist. Detaillierte Betrachtungen der Veränderungen des Lagerbestands eines Artikels während und in der Folge eines RBG-Ausfalls ermöglichen die Entwicklung des Konzepts der 'Störstelle', auf das sich das in Simulationsexperimenten im Zusammenhang mit dem Ausfall eines RBG beobachtbare Durchsatzverhalten von aHRL zurückführen lässt. Auf Basis sogenannter 'schwacher' Varianten der Querverteilung und des first-in-first-out-Prinzips wird eine neue Lagerbetriebsstrategie in Form mehrerer optionaler Maßnahmen formuliert. Die konkrete Ausgestaltung und Anwendung dieser neuen Betriebsstrategie muss unter Berücksichtigung einer Reihe von Umständen erfolgen, welche von der spezifischen Betriebssituation des jeweiligen aHRL abhängen. Im Einzelfall ermöglicht die auf jeweilige Betriebssituation angepasste Variante dieser neuen Betriebsstrategie die Minimierung der negativen Folgen eines eingetretenen RBG-Ausfalls.



https://www.db-thueringen.de/receive/dbt_mods_00032471
Wildner, Christian;
Minimierung unerwünschter Durchsatzminderungen nach Ausfällen und späteren Wieder-Inbetriebnahmen von Regalbediengeräten in automatisierten Hochregallagern - Ilmenau : Universitätsverlag Ilmenau, 2017 - 136 Seiten.
Technische Universität Ilmenau, Dissertation 2016

ISBN 3863601564 = 978-3-86360-156-0

Zur Steuerung des verbreiteten technischen Lagertyps automatisiertes Hochregallager (aHRL) kommen Lagerbetriebsstrategien zur Anwendung, welche einen wesentlichen Einfluss auf das charakteristische Betriebsverhalten des Lagersystems ausüben. In Anbetracht gestiegener Kundenforderung in Bezug auf Liefertreue bzw. Lieferzuverlässigkeit, verlängerter Betriebszeiten und verringerter Ausübung geplanter Instandhaltung stellt sich die Frage, welchen Beitrag Lagerbetriebsstrategien leisten können, wenn trotz hoher Verfügbarkeitszusagen seitens der Hersteller ein Regalbediengerät (RBG) in einem automatisierten Hochregallager ausfällt. Unter Berücksichtigung von Geinitz Untersuchungen zur Durchsatzreduktion nach Beendigung des Ausfalls eines Regalbediengeräts (1998) gilt es zunächst festzustellen, dass die Betriebsstrategie Querverteilung in üblichen Betriebssituationen für diese Zwecke als unzureichend zu bewertet ist. Detaillierte Betrachtungen der Veränderungen des Lagerbestands eines Artikels während und in der Folge eines RBG-Ausfalls ermöglichen die Entwicklung des Konzepts der 'Störstelle', auf das sich das in Simulationsexperimenten im Zusammenhang mit dem Ausfall eines RBG beobachtbare Durchsatzverhalten von aHRL zurückführen lässt. Auf Basis sogenannter 'schwacher' Varianten der Querverteilung und des first-in-first-out-Prinzips wird eine neue Lagerbetriebsstrategie in Form mehrerer optionaler Maßnahmen formuliert. Die konkrete Ausgestaltung und Anwendung dieser neuen Betriebsstrategie muss unter Berücksichtigung einer Reihe von Umständen erfolgen, welche von der spezifischen Betriebssituation des jeweiligen aHRL abhängen. Im Einzelfall ermöglicht die auf jeweilige Betriebssituation angepasste Variante dieser neuen Betriebsstrategie die Minimierung der negativen Folgen eines eingetretenen RBG-Ausfalls.



TEST4http://www.gbv.de/dms/ilmenau/toc/889896747.PDF
Aissa, Tarek;
Systemidentifikation und Reglersynthese für örtlich verteilte Prozesse durch adaptive Takagi-Sugeno Fuzzy Systeme am Beispiel des Raumklimaverhaltens - Ilmenau : Universitätsverlag Ilmenau, 2017 - 244 Seiten.
Technische Universität Ilmenau, Dissertation 2017

ISBN 3863601580 = 978-3-86360-158-4

Die vorliegende Arbeit befasst sich mit der Modellbildung und Regelung nichtlinearer örtlich verteilter Prozesse. Als beispielhafte Anwendung wird die Regelung des Raumklimas im Rahmen der Präventiven Konservierung betrachtet. Die Präventive Konservierung umfasst dabei vorbeugende Maßnahmen zum Schutz von Kulturgütern. Eine wichtige Aufgabe ist hierbei die Stabilisierung des Raumklimas, insbesondere der relativen Luftfeuchtigkeit, in einem stationär akzeptablen Bereich. Zudem sind die kurzfristigen Schwankungen der Klimagrößen auf ein Minimum zu reduzieren. Die Betrachtung des Raumklimaverhaltens als konzentriert-parametrisches System reicht dabei zur Erfüllung der Anforderungen der Präventiven Konservierung nicht aus. Aus diesem Grund wird in dieser Arbeit ein Ansatz zur örtlich verteilten Betrachtung der Klimagrößen entwickelt, der sowohl die Modellbildung als auch die Regelung umfasst. Das Verhalten des Raumklimas bildet dabei ein strömungstechnisches Problem der Fluiddynamik. Dieses lässt sich durch ein System nichtlinearer partieller Differentialgleichungen beschreiben. Die Lösung solcher Strömungsprobleme erfolgt üblicherweise über numerische Methoden, wie den bekannten CFD-Simulationen. Nachteilig wirkt sich dabei der hohe rechentechnische Aufwand aus, was CFD-Simulationen zur Synthese von Reglern ungeeignet macht. Durch örtliche Diskretisierung mit Hilfe von Finite-Differenzen Methoden werden die partiellen Differentialgleichungen durch ordinäre Differentialgleichungen approximiert. Anschließend wird das hierdurch entstandene nichtlineare dynamische Gleichungssystem durch Methoden der Takagi-Sugeno Fuzzy Theorie beschrieben. Hierbei tritt für den Fall örtlich verteilter Systeme die Notwendigkeit der Modellreduktion auf, welche durch die Einführung des sogenannten Hadamard-Produktes gelöst wird. In dieser Arbeit werden sowohl Methoden zur Reglersynthese als auch Methoden zur datengetriebenen Modellbildung behandelt. Die datengetriebene Modellbildung ist dabei für eine Anwendung des Ansatzes im Rahmen einer Raumklimaregelung notwendig, da ein analytischer Ansatz für diesen Fall nicht praktikabel umsetzbar ist. Die entwickelten Ansätze werden zunächst theoretisch hergeleitet und an einem eindimensionalen Fallbeispiel verifiziert. Anschließend werden sie auf das Raumklimaverhalten übertragen. Es werden Ergebnisse zur datengetriebenen Modellbildung sowie zur Regelung des Raumklimas anhand von Untersuchungen eines kulturell genutzten Raumes gezeigt und mit gängigen Methoden zur Regelung des Raumklimas verglichen. Die Ergebnisse zeigen dabei, dass die örtlich verteilte Betrachtung deutliche Vorteile bringt.



TEST4http://www.gbv.de/dms/ilmenau/toc/889786682.PDF
Aissa, Tarek;
Systemidentifikation und Reglersynthese für örtlich verteilte Prozesse durch adaptive Takagi-Sugeno Fuzzy Systeme am Beispiel des Raumklimaverhaltens - Ilmenau : Universitätsverlag Ilmenau, 2017 - 1 Online-Ressource (244 Seiten).
Technische Universität Ilmenau, Dissertation 2017

Die vorliegende Arbeit befasst sich mit der Modellbildung und Regelung nichtlinearer örtlich verteilter Prozesse. Als beispielhafte Anwendung wird die Regelung des Raumklimas im Rahmen der Präventiven Konservierung betrachtet. Die Präventive Konservierung umfasst dabei vorbeugende Maßnahmen zum Schutz von Kulturgütern. Eine wichtige Aufgabe ist hierbei die Stabilisierung des Raumklimas, insbesondere der relativen Luftfeuchtigkeit, in einem stationär akzeptablen Bereich. Zudem sind die kurzfristigen Schwankungen der Klimagrößen auf ein Minimum zu reduzieren. Die Betrachtung des Raumklimaverhaltens als konzentriert-parametrisches System reicht dabei zur Erfüllung der Anforderungen der Präventiven Konservierung nicht aus. Aus diesem Grund wird in dieser Arbeit ein Ansatz zur örtlich verteilten Betrachtung der Klimagrößen entwickelt, der sowohl die Modellbildung als auch die Regelung umfasst. Das Verhalten des Raumklimas bildet dabei ein strömungstechnisches Problem der Fluiddynamik. Dieses lässt sich durch ein System nichtlinearer partieller Differentialgleichungen beschreiben. Die Lösung solcher Strömungsprobleme erfolgt üblicherweise über numerische Methoden, wie den bekannten CFD-Simulationen. Nachteilig wirkt sich dabei der hohe rechentechnische Aufwand aus, was CFD-Simulationen zur Synthese von Reglern ungeeignet macht. Durch örtliche Diskretisierung mit Hilfe von Finite-Differenzen Methoden werden die partiellen Differentialgleichungen durch ordinäre Differentialgleichungen approximiert. Anschließend wird das hierdurch entstandene nichtlineare dynamische Gleichungssystem durch Methoden der Takagi-Sugeno Fuzzy Theorie beschrieben. Hierbei tritt für den Fall örtlich verteilter Systeme die Notwendigkeit der Modellreduktion auf, welche durch die Einführung des sogenannten Hadamard-Produktes gelöst wird. In dieser Arbeit werden sowohl Methoden zur Reglersynthese als auch Methoden zur datengetriebenen Modellbildung behandelt. Die datengetriebene Modellbildung ist dabei für eine Anwendung des Ansatzes im Rahmen einer Raumklimaregelung notwendig, da ein analytischer Ansatz für diesen Fall nicht praktikabel umsetzbar ist. Die entwickelten Ansätze werden zunächst theoretisch hergeleitet und an einem eindimensionalen Fallbeispiel verifiziert. Anschließend werden sie auf das Raumklimaverhalten übertragen. Es werden Ergebnisse zur datengetriebenen Modellbildung sowie zur Regelung des Raumklimas anhand von Untersuchungen eines kulturell genutzten Raumes gezeigt und mit gängigen Methoden zur Regelung des Raumklimas verglichen. Die Ergebnisse zeigen dabei, dass die örtlich verteilte Betrachtung deutliche Vorteile bringt.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2017000082
Schwarz, Andreas; Schleicher, Kathrin; Srugies, Alice; Rothenberger, Liane;
Die Krisenkommunikation von Jugendämtern in Deutschland : Befunde zur Medienberichterstattung und strategischen Kommunikation insbesondere im Kontext schwerer Fälle von Kindeswohlgefährdung - Ilmenau : Universitätsverlag Ilmenau, 2017 - 1 Online-Ressource (PDF-Datei: XIII, 280 Seiten).

In den vergangenen Jahren kam es in Deutschland wiederholt zu tragischen Fällen von Kindesmisshandlung oder Kindstötung, über die bundesweit in den Medien berichtet wurde. Oft wurde dabei auch die Rolle der zuständigen Jugendämter thematisiert, denen nicht selten Behördenversagen vorgeworfen wird. Aufgrund des hohen gesellschaftlichen Interesses sind deutsche Jugendämter regelmäßig aktive oder passive Akteure der öffentlichen Krisenkommunikation. Dies stellt die Behörden intern und extern vor große Herausforderungen. Um die innerbehördliche Kommunikation sowie die öffentliche mediale Wahrnehmung besser zu verstehen, wurden im Zeitraum von 2013 bis 2015 zwei wissenschaftliche Studien an der TU Ilmenau durchgeführt. Das Projekt wurde gefördert vom Nationalen Zentrum Frühe Hilfen (NZFH), getragen von der Bundeszentrale für gesundheitliche Aufklärung (BZgA) in Kooperation mit dem Deutschen Jugendinstitut (DJI), aus Mitteln des Bundesministeriums für Familie, Senioren, Frauen und Jugend (BMFSFJ). Dabei wurden 32 leitfadengestützte Interviews in bundesweit neun Jugendämtern geführt und die Medienberichterstattung in regionalen bzw. überregionalen Tageszeitungen über Jugendämter sowie Fälle von Kindeswohlgefährdung von 2009 bis 2013 analysiert. Die Ergebnisse beider Studien sind in diesem Band dokumentiert und geben erstmals umfassende Einblicke in die innerbehördlichen Prozesse bzw. Strukturen der Krisenkommunikation und im Vergleich dazu die öffentliche gesellschaftliche Thematisierung von Kindesmisshandlung.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2017100014
Kraft, Dietmar;
Untersuchungen zur Detektion und Kontrolle der Schweißnahtqualität beim Heizelementstumpfschweißen von Thermoplasten unter Berücksichtigung der Wärmestrombilanzierung - Ilmenau : Universitätsverlag Ilmenau, 2017 - 1 Online-Ressource (XI, 207 Seiten). . - (Fertigungstechnik - aus den Grundlagen für die Anwendung. - Band 4)
Technische Universität Ilmenau, Dissertation 2016

Eine permanente Zielsetzung ist, Verarbeitungsprozesse zu optimieren, sprich bei gleichbleibender oder verbesserter Qualität den Ausschuss und den Energieverbrauch zu minimieren sowie die Geschwindigkeit und die Effizienz des Prozesses zu steigern. Die Ausarbeitung zum Thema "Untersuchungen zur Detektion und Kontrolle der Schweißnahtqualität beim Heizelementstumpfschweißen von Thermoplasten unter Berücksichtigung der Wärmestrombilanzierung" hat sich dieser Herausforderung gestellt. Die vorliegende Arbeit zeigt, dass die Wärmestrombilanzierung mittels hochtemperatur-beständiger Wärmestromsensoren eine zuverlässige, reproduzierbare und universell einsetzbare Lösung darstellt, prozess- als auch bauteilspezifische Kennwerte beim Heizelementstumpfschweißen von Kunststoffen direkt in der Fügezone zu generieren, und mit Hilfe dieser Kennwerte das Heizelementstumpfschweißverfahren wirtschaftlicher, effizienter und ressourcenschonender in eine Fertigung zu implementieren. Hinzu kommt noch, dass in dieser Arbeit die grundlegenden Entwicklungen getätigt wurden, um sogar bisher verwendete Sensoren (vorwiegend Weg-, Kraftsensoren sowie Thermoelemente) über die Nutzung eines hochtemperaturbeständigen Wärmestromsensors zu substituieren und somit den Einsatz der Wärmestrombilanzierung nahezu kostenneutral zu realisieren. Die Möglichkeit der Inline-Qualitätssicherung entwickelt das Heizelementstumpfschweißverfahren zukunftsorientiert weiter und legt den Grundstein für einen verstärkten Einsatz dieses Fügeverfahrens.



https://www.db-thueringen.de/receive/dbt_mods_00032166
Kraft, Dietmar;
Untersuchungen zur Detektion und Kontrolle der Schweißnahtqualität beim Heizelementstumpfschweißen von Thermoplasten unter Berücksichtigung der Wärmestrombilanzierung - Ilmenau : Universitätsverlag Ilmenau, 2017 - XI, 207 Seiten. . - (Fertigungstechnik - aus den Grundlagen für die Anwendung. - Band 4)
Technische Universität Ilmenau, Dissertation 2016

ISBN 978-3-86360-157-7

Eine permanente Zielsetzung ist, Verarbeitungsprozesse zu optimieren, sprich bei gleichbleibender oder verbesserter Qualität den Ausschuss und den Energieverbrauch zu minimieren sowie die Geschwindigkeit und die Effizienz des Prozesses zu steigern. Die Ausarbeitung zum Thema "Untersuchungen zur Detektion und Kontrolle der Schweißnahtqualität beim Heizelementstumpfschweißen von Thermoplasten unter Berücksichtigung der Wärmestrombilanzierung" hat sich dieser Herausforderung gestellt. Die vorliegende Arbeit zeigt, dass die Wärmestrombilanzierung mittels hochtemperatur-beständiger Wärmestromsensoren eine zuverlässige, reproduzierbare und universell einsetzbare Lösung darstellt, prozess- als auch bauteilspezifische Kennwerte beim Heizelementstumpfschweißen von Kunststoffen direkt in der Fügezone zu generieren, und mit Hilfe dieser Kennwerte das Heizelementstumpfschweißverfahren wirtschaftlicher, effizienter und ressourcenschonender in eine Fertigung zu implementieren. Hinzu kommt noch, dass in dieser Arbeit die grundlegenden Entwicklungen getätigt wurden, um sogar bisher verwendete Sensoren (vorwiegend Weg-, Kraftsensoren sowie Thermoelemente) über die Nutzung eines hochtemperaturbeständigen Wärmestromsensors zu substituieren und somit den Einsatz der Wärmestrombilanzierung nahezu kostenneutral zu realisieren. Die Möglichkeit der Inline-Qualitätssicherung entwickelt das Heizelementstumpfschweißverfahren zukunftsorientiert weiter und legt den Grundstein für einen verstärkten Einsatz dieses Fügeverfahrens.



Schwarz, Andreas; Schleicher, Kathrin; Srugies, Alice; Rothenberger, Liane;
Die Krisenkommunikation von Jugendämtern in Deutschland : Befunde zur Medienberichterstattung und strategischen Kommunikation insbesondere im Kontext schwerer Fälle von Kindeswohlgefährdung - Ilmenau : Universitätsverlag Ilmenau, 2017 - XIII, 280 Seiten. ISBN 3863601548 = 978-3-86360-154-6

In den vergangenen Jahren kam es in Deutschland wiederholt zu tragischen Fällen von Kindesmisshandlung oder Kindstötung, über die bundesweit in den Medien berichtet wurde. Oft wurde dabei auch die Rolle der zuständigen Jugendämter thematisiert, denen nicht selten Behördenversagen vorgeworfen wird. Aufgrund des hohen gesellschaftlichen Interesses sind deutsche Jugendämter regelmäßig aktive oder passive Akteure der öffentlichen Krisenkommunikation. Dies stellt die Behörden intern und extern vor große Herausforderungen. Um die innerbehördliche Kommunikation sowie die öffentliche mediale Wahrnehmung besser zu verstehen, wurden im Zeitraum von 2013 bis 2015 zwei wissenschaftliche Studien an der TU Ilmenau durchgeführt. Das Projekt wurde gefördert vom Nationalen Zentrum Frühe Hilfen (NZFH), getragen von der Bundeszentrale für gesundheitliche Aufklärung (BZgA) in Kooperation mit dem Deutschen Jugendinstitut (DJI), aus Mitteln des Bundesministeriums für Familie, Senioren, Frauen und Jugend (BMFSFJ). Dabei wurden 32 leitfadengestützte Interviews in bundesweit neun Jugendämtern geführt und die Medienberichterstattung in regionalen bzw. überregionalen Tageszeitungen über Jugendämter sowie Fälle von Kindeswohlgefährdung von 2009 bis 2013 analysiert. Die Ergebnisse beider Studien sind in diesem Band dokumentiert und geben erstmals umfassende Einblicke in die innerbehördlichen Prozesse bzw. Strukturen der Krisenkommunikation und im Vergleich dazu die öffentliche gesellschaftliche Thematisierung von Kindesmisshandlung.



TEST4http://www.gbv.de/dms/ilmenau/toc/885156099.PDF
Schwerdfeger, Robert;
Vertikaler Netzbetrieb : ein Ansatz zur Koordination von Netzbetriebsinstanzen verschiedener Netzebenen - Ilmenau : Universitätsverlag Ilmenau, 2017 - 1 Online-Ressource (X, 161 Seiten). . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA). - Band 17)
Technische Universität Ilmenau, Dissertation 2016

Die in Deutschland zunehmende Abschaltung und Stilllegung konventioneller Kraftwerke resultiert in einem Defizit an regelbarer Erzeugung. Folglich bedarf es zu dessen Ausgleich Verfahren, die sich neuer betrieblicher Freiheitsgrade wie bspw. aktiver Netzanschlussnehmer in den Verteilernetzen bedienen. Diese Arbeit widmet sich der Fragestellung, wie genau diese neuen betrieblichen Freiheitsgrade in den Verteilernetzebenen nutzbar gemacht werden können, ohne dass deren Abruf bzw. Aktivierung einen negativen Einfluss auf deren Anschlussnetze hat. Hierfür bedarf es einer Interaktion bzw. Koordination der Netzbetriebsinstanzen der verschiedenen Netzebenen. Dementsprechend werden drei mögliche Netzbetriebsansätze diskutiert. Dabei stellt sich das hier vorgeschlagene Verfahren "Vertikaler Netzbetrieb" als favorisierter Ansatz heraus. Für die Umsetzung dieses Konzepts bedarf es einer neuartigen Koordinationsschnittstelle zwischen den Netzbetreibern. Die hierfür vorgestellte PQu(t) Kapabilität ist in ihrer Anwendung nicht ausschließlich auf den Vertikalen Netzbetrieb beschränkt und kann ebenso für horizontale Netzkopplungen genutzt werden. Des Weiteren wird im Rahmen dieser Arbeit eine Methode zur Berechnung der abgangsscharfen Arbeitspunktänderungen entworfen. Alle Methoden berücksichtigen die dedizierten Arbeitsbereiche der einzelnen Anlagentypen, die PQu(t) Kapabilitäten etwaiger unterlagerter Netze sowie je nach Netzebene das (n 1) Netzsicherheitskriterium. Die Validierung der Zulässigkeit des vorgeschlagenen Ansatzes inklusive der entworfenen Methoden erfolgt mittels numerischer Fallstudien. Dabei bedingt die Untersuchung die Abbildung verschiedener Netzstrukturen und -ebenen. Im Rahmen dieser Arbeit werden dafür bestehende Referenznetze ausgewählt und hinsichtlich der sich aus der Abbildung der vertikalen Koordination ergebenden Anforderungen angepasst. Hierbei sind neben der Last-, EE-Anlagen- und Potenzialverteilung sowie deren Dimensionierung auch die etwaig angeschlossenen unterlagerten Netze zu berücksichtigen. Es wird gezeigt, dass der Vertikale Netzbetrieb für die Koordination von Netzbetriebsinstanzen verschiedener Netzebenen geeignet ist und die Nutzbarmachung der betrieblichen Freiheitsgrade in den Verteilernetzen ohne Gefährdung der Netzsicherheit möglich ist.



https://www.db-thueringen.de/receive/dbt_mods_00031019
Schwerdfeger, Robert;
Vertikaler Netzbetrieb : ein Ansatz zur Koordination von Netzbetriebsinstanzen verschiedener Netzebenen - Ilmenau : Universitätsverlag Ilmenau, 2017 - X, 161 Seiten. . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA). - Band 17)
Technische Universität Ilmenau, Dissertation 2016

ISBN 3863601483 = 978-3-86360-148-5

Die in Deutschland zunehmende Abschaltung und Stilllegung konventioneller Kraftwerke resultiert in einem Defizit an regelbarer Erzeugung. Folglich bedarf es zu dessen Ausgleich Verfahren, die sich neuer betrieblicher Freiheitsgrade wie bspw. aktiver Netzanschlussnehmer in den Verteilernetzen bedienen. Diese Arbeit widmet sich der Fragestellung, wie genau diese neuen betrieblichen Freiheitsgrade in den Verteilernetzebenen nutzbar gemacht werden können, ohne dass deren Abruf bzw. Aktivierung einen negativen Einfluss auf deren Anschlussnetze hat. Hierfür bedarf es einer Interaktion bzw. Koordination der Netzbetriebsinstanzen der verschiedenen Netzebenen. Dementsprechend werden drei mögliche Netzbetriebsansätze diskutiert. Dabei stellt sich das hier vorgeschlagene Verfahren "Vertikaler Netzbetrieb" als favorisierter Ansatz heraus. Für die Umsetzung dieses Konzepts bedarf es einer neuartigen Koordinationsschnittstelle zwischen den Netzbetreibern. Die hierfür vorgestellte PQu(t) Kapabilität ist in ihrer Anwendung nicht ausschließlich auf den Vertikalen Netzbetrieb beschränkt und kann ebenso für horizontale Netzkopplungen genutzt werden. Des Weiteren wird im Rahmen dieser Arbeit eine Methode zur Berechnung der abgangsscharfen Arbeitspunktänderungen entworfen. Alle Methoden berücksichtigen die dedizierten Arbeitsbereiche der einzelnen Anlagentypen, die PQu(t) Kapabilitäten etwaiger unterlagerter Netze sowie je nach Netzebene das (n 1) Netzsicherheitskriterium. Die Validierung der Zulässigkeit des vorgeschlagenen Ansatzes inklusive der entworfenen Methoden erfolgt mittels numerischer Fallstudien. Dabei bedingt die Untersuchung die Abbildung verschiedener Netzstrukturen und -ebenen. Im Rahmen dieser Arbeit werden dafür bestehende Referenznetze ausgewählt und hinsichtlich der sich aus der Abbildung der vertikalen Koordination ergebenden Anforderungen angepasst. Hierbei sind neben der Last-, EE-Anlagen- und Potenzialverteilung sowie deren Dimensionierung auch die etwaig angeschlossenen unterlagerten Netze zu berücksichtigen. Es wird gezeigt, dass der Vertikale Netzbetrieb für die Koordination von Netzbetriebsinstanzen verschiedener Netzebenen geeignet ist und die Nutzbarmachung der betrieblichen Freiheitsgrade in den Verteilernetzen ohne Gefährdung der Netzsicherheit möglich ist.



TEST4http://www.gbv.de/dms/ilmenau/toc/884726657.PDF
Binder, Sebastian;
Aerosol jet printing : contactless deposition technique for solar cell metallization - Ilmenau : Universitätsverlag Ilmenau, 2017 - 1 Online-Ressource (xiii, 184 Seiten). . - (Werkstofftechnik aktuell. - Band 15)
Technische Universität Ilmenau, Dissertation 2016

Der Ansatz, zwei Schichten bestehend aus einer Saatschicht und einer Galvanikschicht zur Kontaktierung von Solarzellen zu verwenden ist ein etabliertes Konzept in der Photovoltaikforschung. Die Kombination aus gedruckter und gefeuerter Saatschicht zur optimierten Kontaktbildung der Tinte mit dem Zellemitter und dem anschließenden galvanischen Abscheiden von hochleitfähigen Metallen auf dieser Saatschicht, ermöglicht eine Verbesserung der Solarzellenleistung und Reduzierung des eingesetzten teuren Silbers. Hierfür ist eine schmale Saatschicht erwünscht. Der Aerosoldruck ist eine vielversprechende Technologie, um solch eine Saatschicht herzustellen. In dieser Arbeit wurde die Aerosoldrucktechnik gründlich untersucht und verbessert. Eine effiziente und zuverlässige Abscheidung schmaler und gleichmäßiger Saatschichten ist ermöglicht. Mit Düsendurchmessern von 150 [my]m wurden auf Wafern mit Pyramidenoberflächen Linienbreiten von nur 18 [my]m erzeugt. Um diese Drucktechnologie zu beschreiben wurde ein Modell entworfen. Mit diesem Modell kann die Breite der gedruckten Saatschicht vorhergesagt und der Einfluss von Prozessparametern und Druckdüsen unterschiedlicher Größe erklärt werden. Das Auftreffen des Aerosols auf dem Substrat und die Qualität und Breite der gedruckten Linien wurden numerisch und empirisch untersucht. Mit numerischen Strömungssimulationen der Gas- und Partikelströmung wurden neue Aerosoldruckköpfe entwickelt. Um einen schnellen und zuverlässigen Druck der Saatschicht zu erlauben, wurde eine fortschrittliche Strömungsführung integriert. Ein Aerosoldruckkopf mit 78 Düsen, geeignet zur Massenproduktion von Solarzellen, wurde hergestellt und getestet. Auf einem 15.6 x 15.6 cm^2 großen Wafer wurde die Saatschicht in nur 3.9 s gedruckt. Eine Linienbreite von L = 38 ± 5 [my]m wurde erzielt. Das Benetzen der Tinte auf Solarwaferoberflächen ist verknüpft mit den Prozessbedingungen und der Topographie der Wafer. Die abgeschiedenen Saatschichten wurden für einen niedrigen elektrischen Kontaktwiderstand zum Emitter optimiert. Dünne Saatschichten schnitten hierbei am besten ab und sind zugleich am kostengünstigsten. Die Menge an gedrucktem Silber zum Kontaktieren industrieller Siliciumsolarzellen beträgt nur weniger als 9 mg pro 15.6 x 15.6 cm^2 Wafer. Niedrig dotierte Bor- und Phosphoremitter der nächsten Generation sowie neu entwickelte Solarzellendesigns wurden erfolgreich mit dem Aerosoldruckverfahren kontaktiert. Wirkungsgrade von [eta] > 20 % wurden auf industrienahen Solarzellen erreicht. In dieser Arbeit wurde das Aerosoldruckverfahren verbessert, um den Druck von Saatschichten auch im industriellen Maßstab zu ermöglichen. Mit dieser Technologie ist es nun möglich Solarzellen der nächsten Generation zu kontaktieren.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2016000765
Bräuer, Marco;
Energiewende und Bürgerproteste : eine Untersuchung der Kommunikation von Bürgerinitiativen im Themenfeld Netzausbau - Ilmenau : Universitätsbibliothek Ilmenau, 2017 - 1 Online-Ressource. . - (NEU - Nachhaltigkeits-, Energie- und Umweltkommunikation. - Band 4)
Ilmenau, Technische Universität Ilmenau, Dissertation 2016

Gesehen am 11.04.2019

Der Ausbau des deutschen Höchstspannungsnetzes hat in den letzten Jahren in vielen der betroffenen Regionen zu einem starken Unbehagen in der Bevölkerung geführt. Öffentlich wahrnehmbar wird dieser Unmut durch Bürgerproteste. In den meisten Fällen sind Bürgerinitiativen die Hauptträger dieser Proteste. Da Bürgerinitiativen aus der politischen Peripherie heraus agieren, sind sie darauf angewiesen ihre Interessen öffentlich zu kommunizieren, um Druck auf das politische sowie administrative Entscheidungssystem auszuüben. Dabei können sie einerseits Zugang zu den Massenmedien suchen, andererseits haben sie auch die Möglichkeit, eigene Medien herzustellen (z.B. Flyer, Plakate oder Social Media-Auftritte) und Veranstaltungen zu organisieren (z.B. Podiumsdiskussionen und Informationsveranstaltungen). Theoretischer Ausgangspunkt der Arbeit sind die Theorien sozialer Bewegungen sowie die Theorie der Öffentlichkeit als intermediäres System. Die theoretische Auseinandersetzung mündet in die Entwicklung eines Erklärungsmodells der Wahl der Protestrepertoires durch Bürgerinitiativen. Da der Untersuchungsgegenstand Bürgerinitiative bislang kaum empirisch untersucht wurde, wurden im Rahmen der Arbeit insgesamt acht Fallstudien mit Bürgerinitiativen im Themenfeld "Ausbau des deutschen Höchstspannungsnetzes" durchgeführt. Die Ergebnisse zeigen, dass die untersuchten Bürgerinitiativen planvoll vorgehen. Sie beobachteten den politischen sowie medialen Diskurs und auch die Reaktionen, die sie aus der Bevölkerung erhalten und entwickelten aktiv Problemdeutungen und Lösungsvorschläge. Auch wenn die institutionellen Abläufe sowie die Handlungen der einzelnen Politikerinnen und Politiker kritisiert werden, bleibt das politische System der Hauptansprechpartner und markiert den Rahmen, in dem sich die Bürgerinitiativen bewegen. Auch das System der Massenmedien wird grundsätzlich anerkannt. Kritisiert wird jedoch, dass den Anliegen der Bürgerinitiativen häufig zu wenig Aufmerksamkeit geschenkt wird. Darüber hinaus wird einzelnen Journalistinnen und Journalisten Unkenntnis und eine negative Tendenz unterstellt. Die intensive Herstellung von eigenen Formen der Öffentlichkeit durch die Bürgerinitiativen, seien es Veranstaltungsöffentlichkeit oder die verschiedenen Formen der Entwicklung eigener Bürgerinitiativ-Medien sind jedoch nicht primäre Reaktionen auf die beobachteten Fehlleistungen der Massenmedien. Vielmehr sind diese in der tiefen Verwurzelung der Bürgerinitiativ-Mitglieder in kommunalen und regionalen Kommunikationsstrukturen begründet. Die Arbeit schließt mit Empfehlungen für die Verbesserung der Kommunikation und Partizipation im Rahmen des Netzausbaus.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2016000757
Bräuer, Marco;
Energiewende und Bürgerproteste : eine Untersuchung der Kommunikation von Bürgerinitiativen im Themenfeld Netzausbau - Ilmenau : Universitätsverlag Ilmenau, 2017 - 326 Seiten. . - (NEU - Nachhaltigkeits-, Energie- und Umweltkommunikation. - Band 4)
Technische Universität Ilmenau, Dissertation 2016

ISBN 978-3-86360-152-2
Online verfügbar unter: http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2016000757

Der Ausbau des deutschen Höchstspannungsnetzes hat in den letzten Jahren in vielen der betroffenen Regionen zu einem starken Unbehagen in der Bevölkerung geführt. Öffentlich wahrnehmbar wird dieser Unmut durch Bürgerproteste. In den meisten Fällen sind Bürgerinitiativen die Hauptträger dieser Proteste. Da Bürgerinitiativen aus der politischen Peripherie heraus agieren, sind sie darauf angewiesen ihre Interessen öffentlich zu kommunizieren, um Druck auf das politische sowie administrative Entscheidungssystem auszuüben. Dabei können sie einerseits Zugang zu den Massenmedien suchen, andererseits haben sie auch die Möglichkeit, eigene Medien herzustellen (z.B. Flyer, Plakate oder Social Media-Auftritte) und Veranstaltungen zu organisieren (z.B. Podiumsdiskussionen und Informationsveranstaltungen). Theoretischer Ausgangspunkt der Arbeit sind die Theorien sozialer Bewegungen sowie die Theorie der Öffentlichkeit als intermediäres System. Die theoretische Auseinandersetzung mündet in die Entwicklung eines Erklärungsmodells der Wahl der Protestrepertoires durch Bürgerinitiativen. Da der Untersuchungsgegenstand Bürgerinitiative bislang kaum empirisch untersucht wurde, wurden im Rahmen der Arbeit insgesamt acht Fallstudien mit Bürgerinitiativen im Themenfeld "Ausbau des deutschen Höchstspannungsnetzes" durchgeführt. Die Ergebnisse zeigen, dass die untersuchten Bürgerinitiativen planvoll vorgehen. Sie beobachteten den politischen sowie medialen Diskurs und auch die Reaktionen, die sie aus der Bevölkerung erhalten und entwickelten aktiv Problemdeutungen und Lösungsvorschläge. Auch wenn die institutionellen Abläufe sowie die Handlungen der einzelnen Politikerinnen und Politiker kritisiert werden, bleibt das politische System der Hauptansprechpartner und markiert den Rahmen, in dem sich die Bürgerinitiativen bewegen. Auch das System der Massenmedien wird grundsätzlich anerkannt. Kritisiert wird jedoch, dass den Anliegen der Bürgerinitiativen häufig zu wenig Aufmerksamkeit geschenkt wird. Darüber hinaus wird einzelnen Journalistinnen und Journalisten Unkenntnis und eine negative Tendenz unterstellt. Die intensive Herstellung von eigenen Formen der Öffentlichkeit durch die Bürgerinitiativen, seien es Veranstaltungsöffentlichkeit oder die verschiedenen Formen der Entwicklung eigener Bürgerinitiativ-Medien sind jedoch nicht primäre Reaktionen auf die beobachteten Fehlleistungen der Massenmedien. Vielmehr sind diese in der tiefen Verwurzelung der Bürgerinitiativ-Mitglieder in kommunalen und regionalen Kommunikationsstrukturen begründet. Die Arbeit schließt mit Empfehlungen für die Verbesserung der Kommunikation und Partizipation im Rahmen des Netzausbaus.



Binder, Sebastian;
Aerosol jet printing : contactless deposition technique for solar cell metallization - Ilmenau : Universitätsverlag Ilmenau, 2017 - xiv, 184 Seiten. . - (Werkstofftechnik aktuell. - Band 15)
Technische Universität Ilmenau, Dissertation 2016

ISBN 386360153X = 978-3-86360-153-9
Dissertation erschienen unter dem Titel: Contactless deposition technique for solar cell metallization

Der Ansatz, zwei Schichten bestehend aus einer Saatschicht und einer Galvanikschicht zur Kontaktierung von Solarzellen zu verwenden ist ein etabliertes Konzept in der Photovoltaikforschung. Die Kombination aus gedruckter und gefeuerter Saatschicht zur optimierten Kontaktbildung der Tinte mit dem Zellemitter und dem anschließenden galvanischen Abscheiden von hochleitfähigen Metallen auf dieser Saatschicht, ermöglicht eine Verbesserung der Solarzellenleistung und Reduzierung des eingesetzten teuren Silbers. Hierfür ist eine schmale Saatschicht erwünscht. Der Aerosoldruck ist eine vielversprechende Technologie, um solch eine Saatschicht herzustellen. In dieser Arbeit wurde die Aerosoldrucktechnik gründlich untersucht und verbessert. Eine effiziente und zuverlässige Abscheidung schmaler und gleichmäßiger Saatschichten ist ermöglicht. Mit Düsendurchmessern von 150 [my]m wurden auf Wafern mit Pyramidenoberflächen Linienbreiten von nur 18 [my]m erzeugt. Um diese Drucktechnologie zu beschreiben wurde ein Modell entworfen. Mit diesem Modell kann die Breite der gedruckten Saatschicht vorhergesagt und der Einfluss von Prozessparametern und Druckdüsen unterschiedlicher Größe erklärt werden. Das Auftreffen des Aerosols auf dem Substrat und die Qualität und Breite der gedruckten Linien wurden numerisch und empirisch untersucht. Mit numerischen Strömungssimulationen der Gas- und Partikelströmung wurden neue Aerosoldruckköpfe entwickelt. Um einen schnellen und zuverlässigen Druck der Saatschicht zu erlauben, wurde eine fortschrittliche Strömungsführung integriert. Ein Aerosoldruckkopf mit 78 Düsen, geeignet zur Massenproduktion von Solarzellen, wurde hergestellt und getestet. Auf einem 15.6 x 15.6 cm^2 großen Wafer wurde die Saatschicht in nur 3.9 s gedruckt. Eine Linienbreite von L = 38 ± 5 [my]m wurde erzielt. Das Benetzen der Tinte auf Solarwaferoberflächen ist verknüpft mit den Prozessbedingungen und der Topographie der Wafer. Die abgeschiedenen Saatschichten wurden für einen niedrigen elektrischen Kontaktwiderstand zum Emitter optimiert. Dünne Saatschichten schnitten hierbei am besten ab und sind zugleich am kostengünstigsten. Die Menge an gedrucktem Silber zum Kontaktieren industrieller Siliciumsolarzellen beträgt nur weniger als 9 mg pro 15.6 x 15.6 cm^2 Wafer. Niedrig dotierte Bor- und Phosphoremitter der nächsten Generation sowie neu entwickelte Solarzellendesigns wurden erfolgreich mit dem Aerosoldruckverfahren kontaktiert. Wirkungsgrade von [eta] > 20 % wurden auf industrienahen Solarzellen erreicht. In dieser Arbeit wurde das Aerosoldruckverfahren verbessert, um den Druck von Saatschichten auch im industriellen Maßstab zu ermöglichen. Mit dieser Technologie ist es nun möglich Solarzellen der nächsten Generation zu kontaktieren.



TEST4http://www.gbv.de/dms/ilmenau/toc/883548542.PDF
Blauth, Michael;
Parametrisierte Modelle zur konstruktiven Auslegung optimierter elektrischer Steckverbinderkontakte - Ilmenau : Universitätsverlag Ilmenau, 2017 - XII, 221 Seiten. . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte und Anlagentechnik. - Band 18)
Technische Universität Ilmenau, Dissertation 2017

ISBN 3863601556 = 978-3-86360-155-3

Im Rahmen dieser Arbeit wird die konstruktive Auslegung von Steckverbindern hinsichtlich der Stromtragfähigkeit untersucht. Zunächst werden bekannte analytische Modelle aus verschiedenen physikalischen Phänomenen (mechanische, elektrische, thermische und kontaktphysikalische) miteinander kombiniert, um die Stromerwärmung von Steckverbinderkontakten incl. der angeschlossenen Leitung analytisch zu berechnen. Die Modelle werden mit Hilfe von Experimenten und FE-Analysen verifiziert. Anschließend werden die analytischen Modelle umgeformt, um wichtige Fragestellungen bei der konstruktiven Auslegung von Steckverbinderkontakten zu berechnen. Dazu zählen unter anderem der maximal zulässige Durchgangswiderstand von Steckverbinderkontakten, der Zusammenhang zwischen Durchgangswiderstand und Stromerwärmung, sowie die optimale Anzahl an Kontaktfedern für einen Steckverbinderkontakt. Zudem werden Sensitivitätsanalysen durchgeführt, um den Einfluss konstruktionsrelevanter Parameter auf die Stromerwärmung von Steckverbinderkontakten darzustellen. Durch die gewonnenen Ergebnisse wird schließlich ein Vorgehen zur systematischen Auslegung von Steckverbinderkontakten hinsichtlich der Stromtragfähigkeit erarbeitet. Dieses nutzt analytische Modelle (parametrisierte Modelle), mit denen sich wesentliche geometrische Abmessungen und Werkstoffkennwerte berechnen lassen. Dadurch können Baureihen von Steckverbinderkontakten entwickelt werden, die einer einheitlichen Methodik folgen, eine Überdimensionierung vermeiden und sich für verschiedene Stromstärken skalieren lassen. Die Arbeit stellt damit einen Ansatz zur parametrischen Konstruktion von Steckverbindern dar.



TEST4http://www.gbv.de/dms/ilmenau/toc/883169223.PDF
Marekfia, Wolfgang;
Strategisches GRC-Management : Anforderungen, Forschungsagenda und datenseitiges Modell - Ilmenau : Universitätsverlag Ilmenau, 2017 - 1 Online-Ressource (523 Seiten, 5.45 MB). . - (Ilmenauer Schriften zur Wirtschaftsinformatik. - Band 3)
Technische Universität Ilmenau, Dissertation 2016

GRC als Akronym für Governance, Risk- und Compliance-Management wird gegenwärtig in der Unternehmenspraxis überwiegend als Schlagwort aufgegriffen und durch isolierte, kurzfristige Initiativen umgesetzt. GRC wird mehrheitlich als Bürde gesehen und die Integrationsmöglichkeiten sowie die strategische Bedeutung des Themas werden unzureichend erkannt, wodurch Nutzenpotentiale und mögliche Synergieeffekte nicht genutzt werden können. Obwohl erste integrierte GRC-Ansätze existieren, ist das Thema bislang wenig strukturiert und die Eingrenzung bleibt vage. Relevante Detailfragen, wie die Automatisierung der Compliance-Sicherung und Risikosteuerung, die Modellierung von GRC-Informationen und die Determinanten des Compliance-Verhaltens können nur schwer in den Gesamtzusammenhang eingeordnet werden. Die vorliegende Arbeit verfolgt daher das Ziel der Grundlegung eines allgemeinen Verständnisses für ein integriertes und strategisch ausgerichtetes Management von GRC, das als strategisches GRC-Management bezeichnet wird. Hierfür werden basierend auf einem umfangreichen Literaturreview Anforderungen an das strategische GRC-Management hergeleitet, der Forschungsstand strukturiert analysiert und eine Forschungsagenda entwickelt. Diese Forschungsergebnisse werden durch eine Delphi-Studie bestehend aus drei Befragungsrunden abgesichert. Die Studie bestimmt zudem die Bedeutung der einzelnen Anforderungen und Forschungsbedarfe, wodurch eine Priorisierung ermöglicht wird. Darüber hinaus wird ein datenseitiges Modell für das strategische GRC-Management entwickelt, das die strukturellen Zusammenhänge von GRC auf Informationsebene darstellt. Das Datenmodell wird an Hand eines Beispiels demonstriert und mit Hilfe einer Auswertung von publizierten Praxisbeispielen evaluiert. Die Arbeit stellt durch die Forschungsagenda vielfältige Anknüpfungspunkte für weitere Forschung zur Verfügung. Die Anforderungen sowie das datenseitige Modell ermöglichen eine Bewertung und Weiterentwicklung des GRC-Managements in der Unternehmenspraxis.



https://www.db-thueringen.de/receive/dbt_mods_00031867
Kelm, Andreas;
Modellierung des Abtragsverhaltens in der Padpolitur - Ilmenau : Universitätsverlag Ilmenau, 2017 - 1 Online-Ressource (XIII, 147 Seiten, 9.18 MB).
Technische Universität Ilmenau, Dissertation 2016

Im Rahmen dieser Dissertation wird ein Modell vorgestellt, mit dem eine Vorhersage über den Materialabtrag bei der Padpolitur von Oberflächen möglich ist. Es ermöglicht die Vorhersage des Materialabtrags auf Basis physikalischer Parameter. Die Berechnung ist für beliebige Oberflächengeometrien ausgelegt und liefert ortsabhängige Abtragsfunktionen. Das Modell beinhaltet die Geometrie des Werkstücks, d.h. die dadurch verursachte Änderung der Abtragsfunktion ist integraler Teil der Simulation. Dies stellt eine wesentliche Verbesserung zu kommerziell erhältlichen Poliermaschinen dar, die teilweise mit festen Abtragsfunktionen arbeiten. Zu den berücksichtigten variablen Parametern zählen der lokale Verlauf der Werkstückoberfläche, die Geometrie des Werkzeugs, die Drehzahlen von Werkzeug und Werkstück sowie die Kraft auf das Werkzeug. Der Vergleich realer Polituren mit den Ergebnissen der Simulation liefert eine hohe Übereinstimmung mit Abweichungen im Bereich von 10% und darunter. Die starke Positionsabhängigkeit von Form und Größe der Abtragsspuren in der Rundtischpolitur zeigt sich gleichermaßen in der Simulation als auch der realen Politur. Das Modell bildet die Positionsabhängigkeit des Abtrags bei Verwendung von Offsetwerkzeugen ab. Die Wirksamkeit eines theoretisch hergeleiteten Vorschubprofils zur Beseitigung dieser Eigenheit von Offsetwerkzeugen zeigt die Simulation ebenso. Die in der Literatur genannte Abhängigkeit des Preston-Koeffizienten von der Relativgeschwindigkeit zwischen Werkzeug und Werkstück wird experimentell nachvollzogen und ein Verfahren zur Bestimmung des Reibungskoeffizienten während des Polierprozesses vorgestellt. Die so gemessenen Werte stimmen gut mit den in der Literatur angegebenen Werten überein.



https://www.db-thueringen.de/receive/dbt_mods_00031762
Kelm, Andreas;
Modellierung des Abtragsverhaltens in der Padpolitur - Ilmenau : Universitätsverlag Ilmenau, 2017 - XIII, 147 Seiten.
Technische Universität Ilmenau, Dissertation 2016

ISBN 3863601491 = 978-3-86360-149-2

Im Rahmen dieser Dissertation wird ein Modell vorgestellt, mit dem eine Vorhersage über den Materialabtrag bei der Padpolitur von Oberflächen möglich ist. Es ermöglicht die Vorhersage des Materialabtrags auf Basis physikalischer Parameter. Die Berechnung ist für beliebige Oberflächengeometrien ausgelegt und liefert ortsabhängige Abtragsfunktionen. Das Modell beinhaltet die Geometrie des Werkstücks, d.h. die dadurch verursachte Änderung der Abtragsfunktion ist integraler Teil der Simulation. Dies stellt eine wesentliche Verbesserung zu kommerziell erhältlichen Poliermaschinen dar, die teilweise mit festen Abtragsfunktionen arbeiten. Zu den berücksichtigten variablen Parametern zählen der lokale Verlauf der Werkstückoberfläche, die Geometrie des Werkzeugs, die Drehzahlen von Werkzeug und Werkstück sowie die Kraft auf das Werkzeug. Der Vergleich realer Polituren mit den Ergebnissen der Simulation liefert eine hohe Übereinstimmung mit Abweichungen im Bereich von 10% und darunter. Die starke Positionsabhängigkeit von Form und Größe der Abtragsspuren in der Rundtischpolitur zeigt sich gleichermaßen in der Simulation als auch der realen Politur. Das Modell bildet die Positionsabhängigkeit des Abtrags bei Verwendung von Offsetwerkzeugen ab. Die Wirksamkeit eines theoretisch hergeleiteten Vorschubprofils zur Beseitigung dieser Eigenheit von Offsetwerkzeugen zeigt die Simulation ebenso. Die in der Literatur genannte Abhängigkeit des Preston-Koeffizienten von der Relativgeschwindigkeit zwischen Werkzeug und Werkstück wird experimentell nachvollzogen und ein Verfahren zur Bestimmung des Reibungskoeffizienten während des Polierprozesses vorgestellt. Die so gemessenen Werte stimmen gut mit den in der Literatur angegebenen Werten überein.



TEST4http://www.gbv.de/dms/ilmenau/abs/880850345kelm.txt
Marekfia, Wolfgang;
Strategisches GRC-Management : Anforderungen, Forschungsagenda und datenseitiges Modell - Ilmenau : Universitätsverlag Ilmenau, 2017 - 523 Seiten. . - (Ilmenauer Schriften zur Wirtschaftsinformatik. - Band 3)
Technische Universität Ilmenau, Dissertation 2016

ISBN 3-86360-151-3

GRC als Akronym für Governance, Risk- und Compliance-Management wird gegenwärtig in der Unternehmenspraxis überwiegend als Schlagwort aufgegriffen und durch isolierte, kurzfristige Initiativen umgesetzt. GRC wird mehrheitlich als Bürde gesehen und die Integrationsmöglichkeiten sowie die strategische Bedeutung des Themas werden unzureichend erkannt, wodurch Nutzenpotentiale und mögliche Synergieeffekte nicht genutzt werden können. Obwohl erste integrierte GRC-Ansätze existieren, ist das Thema bislang wenig strukturiert und die Eingrenzung bleibt vage. Relevante Detailfragen, wie die Automatisierung der Compliance-Sicherung und Risikosteuerung, die Modellierung von GRC-Informationen und die Determinanten des Compliance-Verhaltens können nur schwer in den Gesamtzusammenhang eingeordnet werden. Die vorliegende Arbeit verfolgt daher das Ziel der Grundlegung eines allgemeinen Verständnisses für ein integriertes und strategisch ausgerichtetes Management von GRC, das als strategisches GRC-Management bezeichnet wird. Hierfür werden basierend auf einem umfangreichen Literaturreview Anforderungen an das strategische GRC-Management hergeleitet, der Forschungsstand strukturiert analysiert und eine Forschungsagenda entwickelt. Diese Forschungsergebnisse werden durch eine Delphi-Studie bestehend aus drei Befragungsrunden abgesichert. Die Studie bestimmt zudem die Bedeutung der einzelnen Anforderungen und Forschungsbedarfe, wodurch eine Priorisierung ermöglicht wird. Darüber hinaus wird ein datenseitiges Modell für das strategische GRC-Management entwickelt, das die strukturellen Zusammenhänge von GRC auf Informationsebene darstellt. Das Datenmodell wird an Hand eines Beispiels demonstriert und mit Hilfe einer Auswertung von publizierten Praxisbeispielen evaluiert. Die Arbeit stellt durch die Forschungsagenda vielfältige Anknüpfungspunkte für weitere Forschung zur Verfügung. Die Anforderungen sowie das datenseitige Modell ermöglichen eine Bewertung und Weiterentwicklung des GRC-Managements in der Unternehmenspraxis.



Richter, Katja;
Gesundheits-Roboter für Senior/innen : neue Informations- und Kommunikationstechnologien in der alternden Gesellschaft - Ilmenau : Universitätsverlag Ilmenau, 2017 - 1 Online-Ressource (XIII, 166 Seiten). . - (Kommunikationswissenschaft interdisziplinär. - 6)
Technische Universität Ilmenau, Dissertation 2016

Im Rahmen der vorliegenden Dissertation wurden mobile Service-Roboter, die ältere Menschen zukünftig dabei unterstützen sollen, möglichst lange selbstständig im eigenen Haushalt zu leben, als innovative Informations- und Kommunikationstechnologien insbesondere hinsichtlich Gesundheitskommunikation in den Blick genommen. Im Sinne eines nutzerzentrierten Entwurfs wurde ermittelt, welche Lösungen zur Gesundheitsförderung und Gesundheitsunterstützung, wie implementiert werden müssen, was die Zielgruppe angesichts noch fehlender Praxiserfahrung mit Robotern bisher nur bedingt angeben kann. Zunächst wurde eine in Entwicklung befindliche lauffähige Roboter-Plattform durch Senior/innen (n=9) im Rahmen einer Fallstudie in mehrtägigen Feldtests formativ evaluiert. So konnte ermittelt werden, wie die Mensch-Roboter-Interaktion eines Gesundheits-Roboters beschaffen sein muss, damit er effektiv, effizient und zufriedenstellend genutzt werden kann. Aussagen zur Nützlichkeit bestimmter Anwendungen für die Alltagsunterstützung waren aufgrund der begrenzten Testdauer (max. drei Tage) und des begrenzten Funktions-Umfangs allerdings limitiert. Um die Vision einer roboterunterstützten Gesundheits-Assistenz im hohen Alter weiter konkretisieren zu können, wurde im zweiten Schritt zunächst mittels einer qualitativen Interviewstudie (n=12) umfassende, detaillierte Informationen zu Alltag und v.a. Tageslaufstrukturen älterer Menschen erfasst und ermittelt, wie sich ein Gesundheits-Roboter langfristig darin einfügen sollte. Anhand der Ergebnisse konnten Personas entwickelt werden. Diese wurden mit Hilfe der Szenario-Technik im dritten Schritt systematisch mit dem aktuellen Forschungs- und Entwicklungsstand zu Gesundheits-Robotern zu drei normativen, narrativen Nutzungs-Szenarien verknüpft. Im abschließenden vierten Schritt wurden die Szenarien durch Fachleute wie Laien im Rahmen einer Interviewstudie diskutiert (n=12 Einzel- und Gruppeninterviews mit n=28 Befragungspersonen). Die Ergebnisse der vier Teilstudien zeigen, dass Gesundheits-Roboter mit Chancen für Gesundheit, gesellschaftliche Partizipation und interpersonale Kommunikation sowie einem konkreten Nutzen für die selbstständige Lebensführung, aber auch mit Risiken wie Datenschutzverletzungen, Kontroll- und Fähigkeitsverlusten verknüpft werden. Es konnten überindividuelle Anknüpfungspunkte identifiziert werden, um Roboter-Funktionen bedarfsgerecht gestalten und in individuelle Tagesverläufe integrieren zu können.



https://www.db-thueringen.de/receive/dbt_mods_31723
Richter, Katja;
Gesundheits-Roboter für Senior/innen : neue Informations- und Kommunikationstechnologien in der alternden Gesellschaft - Ilmenau : Universitätsverlag Ilmenau, 2017 - XIII, 166 Seiten. . - (Kommunikationswissenschaft interdisziplinär. - 6)
Technische Universität Ilmenau, Dissertation 2016

ISBN 3863601505 = 978-3-86360-150-8

Im Rahmen der vorliegenden Dissertation wurden mobile Service-Roboter, die ältere Menschen zukünftig dabei unterstützen sollen, möglichst lange selbstständig im eigenen Haushalt zu leben, als innovative Informations- und Kommunikationstechnologien insbesondere hinsichtlich Gesundheitskommunikation in den Blick genommen. Im Sinne eines nutzerzentrierten Entwurfs wurde ermittelt, welche Lösungen zur Gesundheitsförderung und Gesundheitsunterstützung, wie implementiert werden müssen, was die Zielgruppe angesichts noch fehlender Praxiserfahrung mit Robotern bisher nur bedingt angeben kann. Zunächst wurde eine in Entwicklung befindliche lauffähige Roboter-Plattform durch Senior/innen (n=9) im Rahmen einer Fallstudie in mehrtägigen Feldtests formativ evaluiert. So konnte ermittelt werden, wie die Mensch-Roboter-Interaktion eines Gesundheits-Roboters beschaffen sein muss, damit er effektiv, effizient und zufriedenstellend genutzt werden kann. Aussagen zur Nützlichkeit bestimmter Anwendungen für die Alltagsunterstützung waren aufgrund der begrenzten Testdauer (max. drei Tage) und des begrenzten Funktions-Umfangs allerdings limitiert. Um die Vision einer roboterunterstützten Gesundheits-Assistenz im hohen Alter weiter konkretisieren zu können, wurde im zweiten Schritt zunächst mittels einer qualitativen Interviewstudie (n=12) umfassende, detaillierte Informationen zu Alltag und v.a. Tageslaufstrukturen älterer Menschen erfasst und ermittelt, wie sich ein Gesundheits-Roboter langfristig darin einfügen sollte. Anhand der Ergebnisse konnten Personas entwickelt werden. Diese wurden mit Hilfe der Szenario-Technik im dritten Schritt systematisch mit dem aktuellen Forschungs- und Entwicklungsstand zu Gesundheits-Robotern zu drei normativen, narrativen Nutzungs-Szenarien verknüpft. Im abschließenden vierten Schritt wurden die Szenarien durch Fachleute wie Laien im Rahmen einer Interviewstudie diskutiert (n=12 Einzel- und Gruppeninterviews mit n=28 Befragungspersonen). Die Ergebnisse der vier Teilstudien zeigen, dass Gesundheits-Roboter mit Chancen für Gesundheit, gesellschaftliche Partizipation und interpersonale Kommunikation sowie einem konkreten Nutzen für die selbstständige Lebensführung, aber auch mit Risiken wie Datenschutzverletzungen, Kontroll- und Fähigkeitsverlusten verknüpft werden. Es konnten überindividuelle Anknüpfungspunkte identifiziert werden, um Roboter-Funktionen bedarfsgerecht gestalten und in individuelle Tagesverläufe integrieren zu können.



TEST4http://www.gbv.de/dms/ilmenau/toc/880717947.PDF
Scheibe, Hannes;
Aktiv-adaptive Polierwerkzeuge zur Herstellung rotationssymmetrischer Asphären - Ilmenau : Universitätsverlag Ilmenau, 2017 - 1 Online-Ressource (XVIII, 163 Seiten). . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - Band 28)
Technische Universität Ilmenau, Dissertation 2016

Optische Technologien sind einer der wesentlichen wirtschaftlichen Treiber des 21. Jahrhunderts. Aus heutiger Sicht besteht speziell für die wirtschaftliche Einzelteilfertigung asphärischer Optikkomponenten als auch optischer Freiformelemente steigender Handlungsbedarf. Diese sind in der geforderten Qualität zwar herstellbar, jedoch verhindern zeitintensive und aufwändige Fertigungsprozesse ihren breiten Einsatz. Der Miniaturisierung und Integration zusätzlicher Funktionalitäten sind unter ausschließlicher Verwendung sphärischer Optikkomponenten enge Grenzen gesetzt, an denen sich heutige Technologien bewegen. Der Einsatz asphärischer Optikkomponenten erlaubt hingegen eine Reduzierung der Anzahl optischer Bauelemente, welche den Bauraumbedarf, das Gewicht, den konstruktiven Aufwand und somit auch die gesamte Komplexität des optischen Systems zu verringern vermag. Ziel dieser Arbeit ist es, eine spürbare Kostensenkung für die Herstellung asphärischer Optikkomponenten zu realisieren. Die dazu erforderliche Weiterentwicklung aktueller Fertigungsprozesse setzt dabei eine tiefgründige wissenschaftliche Auseinandersetzung mit dem Themenkomplex heutiger Optiktechnologien im Allgemeinen sowie der Optikfertigung im Speziellen voraus. Den Einstieg dafür bildet die systematische Analyse bestehender Prozesse zur Herstellung asphärischer Optikkomponenten. Darin wird der Vorpolierprozess als wesentlicher Kostentreiber der Asphärenfertigung identifiziert. Ursachen dafür sind drei wesentliche prozess- und technologiebedingte Nachteile, deren Auswirkungen es zur Realisierung einer kosteneffizienten Fertigung mindestens zu reduzieren, idealerweise zu beseitigen gilt. Darauf aufbauend erfolgt eine Erarbeitung und Vorstellung dreier Lösungsansätze. Deren Vergleich und Bewertung zeigt, dass vollaperturige, aktiv-adaptive Polierwerkzeuge die größten Erfolgsaussichten versprechen. Im Folgenden wird dieser Lösungsansatz durch die Erarbeitung des Lösungsraums untersetzt. Die sukzessive Überführung und Ausgestaltung des vollaperturigen, aktiv-adaptiven Polierwerkzeugs hin zu einem Konstruktionsentwurf erfolgt in Anlehnung an die Systematik der Ilmenauer Konstruktionslehre. Den Abschluss der Arbeit bilden der praktische Verfahrensnachweis des entwickelten Werkzeugs, eine Einflussgrößenanalyse, eine Abschätzung des Einsparpotentials sowie Empfehlungen zur Weiterentwicklung.



https://www.db-thueringen.de/receive/dbt_mods_00031241
Scheibe, Hannes;
Aktiv-adaptive Polierwerkzeuge zur Herstellung rotationssymmetrischer Asphären - Ilmenau : Universitätsverlag Ilmenau, 2017 - XVIII, 163 Seiten. . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - Band 28)
Technische Universität Ilmenau, Dissertation 2016

Optische Technologien sind einer der wesentlichen wirtschaftlichen Treiber des 21. Jahrhunderts. Aus heutiger Sicht besteht speziell für die wirtschaftliche Einzelteilfertigung asphärischer Optikkomponenten als auch optischer Freiformelemente steigender Handlungsbedarf. Diese sind in der geforderten Qualität zwar herstellbar, jedoch verhindern zeitintensive und aufwändige Fertigungsprozesse ihren breiten Einsatz. Der Miniaturisierung und Integration zusätzlicher Funktionalitäten sind unter ausschließlicher Verwendung sphärischer Optikkomponenten enge Grenzen gesetzt, an denen sich heutige Technologien bewegen. Der Einsatz asphärischer Optikkomponenten erlaubt hingegen eine Reduzierung der Anzahl optischer Bauelemente, welche den Bauraumbedarf, das Gewicht, den konstruktiven Aufwand und somit auch die gesamte Komplexität des optischen Systems zu verringern vermag. Ziel dieser Arbeit ist es, eine spürbare Kostensenkung für die Herstellung asphärischer Optikkomponenten zu realisieren. Die dazu erforderliche Weiterentwicklung aktueller Fertigungsprozesse setzt dabei eine tiefgründige wissenschaftliche Auseinandersetzung mit dem Themenkomplex heutiger Optiktechnologien im Allgemeinen sowie der Optikfertigung im Speziellen voraus. Den Einstieg dafür bildet die systematische Analyse bestehender Prozesse zur Herstellung asphärischer Optikkomponenten. Darin wird der Vorpolierprozess als wesentlicher Kostentreiber der Asphärenfertigung identifiziert. Ursachen dafür sind drei wesentliche prozess- und technologiebedingte Nachteile, deren Auswirkungen es zur Realisierung einer kosteneffizienten Fertigung mindestens zu reduzieren, idealerweise zu beseitigen gilt. Darauf aufbauend erfolgt eine Erarbeitung und Vorstellung dreier Lösungsansätze. Deren Vergleich und Bewertung zeigt, dass vollaperturige, aktiv-adaptive Polierwerkzeuge die größten Erfolgsaussichten versprechen. Im Folgenden wird dieser Lösungsansatz durch die Erarbeitung des Lösungsraums untersetzt. Die sukzessive Überführung und Ausgestaltung des vollaperturigen, aktiv-adaptiven Polierwerkzeugs hin zu einem Konstruktionsentwurf erfolgt in Anlehnung an die Systematik der Ilmenauer Konstruktionslehre. Den Abschluss der Arbeit bilden der praktische Verfahrensnachweis des entwickelten Werkzeugs, eine Einflussgrößenanalyse, eine Abschätzung des Einsparpotentials sowie Empfehlungen zur Weiterentwicklung.



TEST4http://www.gbv.de/dms/ilmenau/toc/877397546.PDF
Finke, Thomas;
SEREMA : self-organized routing in heterogeneous mobile ad hoc networks - Ilmenau : Universitätsverlag Ilmenau, 2016 - 1 Online-Ressource (xvi, 211 Seiten).
Technische Universität Ilmenau, Dissertation 2016

Nach Naturkatastrophen, wie beispielsweise Erdbeben, Wirbelstürmen, Flutwellen oder auch nach durch den Menschen verursachten Katastrophen wie Terroranschlägen oder Unfällen, ist es sehr wichtig die Ersthelfer zu organisieren. Hierfür ist eine Kommunikationsinfrastruktur, welche zum Beispiel Basisstationen für Mobilfunknetze enthält, von entscheidender Bedeutung. Diese Infrastruktur kann durch die Katastrophe jedoch schwer beeinträchtigt oder vollkommen zerstört sein. Heutzutage sind Ersthelfer als auch Opfer üblicherweise mit leistungsfähigen mobilen Endgeräten, wie Smartphones oder Notebooks, ausgerüstet. Diese mobilen Endgeräte, welche über eine Vielzahl von Netzzugangstechnologien verfügen, können zu einem sogenannten Ad-hoc-Netzwerk zusammengeschlossen werden und bilden anschließend eine infrastrukturlose Kommunikationsbasis. Die Leistungsfähigkeit von kabellosen Ad-hoc-Netzwerken ist dabei stark von der Anzahl bekannter Verbindungen im Netz abhängig. Diese Verbindungen, auch Routen genannt, werden durch das verwendete Routingprotokoll gesucht und ständig aktualisiert. Hierzu stehen verschiedenartige Routingprotokolle zur Verfügung, welche Topologieinformationen zwischen den einzelnen Knoten eines Netzwerks austauschen. Für kabellose Ad-hoc-Netzwerke sind hierfür zahlreiche Routingprotokolle verfügbar, jedoch sind diese bereits existierenden Protokolle nur eingeschränkt für hochdynamische mobile Ad-hoc-Netzwerke geeignet. Dies liegt darin begründet, dass sie nicht in der Lage sind, sich an große Änderungen im Netzwerk anzupassen. In Katastrophenszenarien können allerdings hochdynamische Netzwerke vorkommen, in welchen beispielsweise die Größe des Netzes zwischen einigen wenigen und einigen hundert Knoten schwankt oder sich die Knotengeschwindigkeit von statischen bis hin zu hochmobilen Knoten verändert. Die vorliegende Arbeit präsentiert einen adaptiven Ansatz, welcher in der Lage ist, die gegebenen Parameter des Netzwerks in einer dezentralen Weise zu ermitteln und anschließend das verwendete Routingprotokoll während der Laufzeit zu wechseln, um somit das Routing sehr flexibel an die Gegebenheiten des Netzwerks anzupassen.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2016000383
Reich, René;
Möglichkeiten und Grenzen bei der Auslegung von Schraubendruckfedern auf Basis von Umlaufbiegeprüfungen - Ilmenau : Universitätsverlag Ilmenau, 2016 - 1 Online-Ressource (XXII, 179 Seiten). . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - 26)
Technische Universität Ilmenau, Dissertation 2016

Im Rahmen dieser Arbeit wird die Fragestellung bearbeitet, inwiefern zeit- und kostenintensive Dauerschwingversuche am Bauteil Schraubendruckfeder durch zeit- und kostengünstigere dynamische Versuche am Federausgangsmaterial Draht in Form von Umlaufbiegeprüfungen substituiert werden können. In diesem Zusammenhang werden Methoden zur Übertragung von Biegewechselfestigkeitswerten des Drahtes auf Torsionsschwellfestigkeitswerte des zur Schraubendruckfeder gewundenen Drahtes gesucht und hinsichtlich ihrer Ergebnisqualität diskutiert. Um eine entsprechende Datenbasis für die Entwicklung von Methoden zur Übertragung zu generieren, werden dynamische Versuche an präparierten ölschlussvergüteten Drähten in Form von Umlaufbiegeprüfungen, Torsionswechselprüfungen und Torsionsschwellprüfungen sowie Dauerschwingversuche an aus diesen Drähten hergestellten Schraubendruckfedern durchgeführt. Ergänzt werden diese dynamischen Versuche durch Härtemessungen, Eigenspannungsmessungen und Bruchanalysen an gebrochenen Proben und Bauteilen. Als Ergebnis dieser Arbeit werden auf Basis der durchgeführten Untersuchungen Methoden zur Übertragung von zulässigen Spannungsamplituden und bruchmechanischen Kennwerten aus Umlaufbiegeprüfungen auf Schraubendruckfedern abgeleitet. Die abgeleiteten Methoden beinhalten eine Übertragung der Kennwerte aus Umlaufbiegeprüfung auf wechselnde Torsion, die Übertragung von wechselnder Torsion auf schwellende Torsion sowie die Übertragung von Kennwerten des Drahtes auf die der Schraubendruckfedern. Die aus Umlaufbiegeprüfungen an Drähten berechneten zulässigen Spannungsamplituden liegen im Schwingspielzahlbereich zwischen 106 und 107 zwischen 85 und 97% der direkt durch Dauerschwingversuche an kugelgestrahlten Schraubendruckfedern abgeprüften zulässigen Spannungsamplituden. Ähnliche Genauigkeiten wurden auch für kugelgestrahlte Federn aus patentiert gezogenem Draht festgestellt. Darüber hinaus werden unter Verwendung statistischer Methoden und Rechenansätze zur Bestimmung des hochbelasteten Werkstoffvolumens Zusammenhänge abgeleitet, mit deren Hilfe auslegungsrelevante Einschlussgrößen der jeweiligen Schraubendruckfeder ermittelt werden können. Zusätzlich werden Rechenansätze entwickelt, mit deren Hilfe auf der Seite der zulässigen Spannungen eine Berücksichtigung der verschiedenen Größeneinflüsse bei geometrisch unterschiedlichen Schraubendruckfedern erfolgen kann.



https://www.db-thueringen.de/receive/dbt_mods_00029445
Lutz, Frederick Gordon;
Einflüsse individueller Muskelkräfte auf dehnungsinduzierten femoralen Knochenumbau - Ilmenau : Universitätsverlag Ilmenau, 2016 - 1 Online-Ressource (IX, 119 Seiten). . - (Berichte aus der Biomechatronik. - Band 13)
Technische Universität Ilmenau, Dissertation 2016

Die folgende Arbeit untersucht mittels Simulationen postulierte Einflussgrößen auf dehnungsinduzierte Knochenumbauprozesse an den unteren Extremitäten. Dabei liegt der Schwerpunkt in der Betrachtung von Optimierungsalgorithmen zur inversen Berechnung von Muskel- und Gelenkkräfte. Die Motivation hierfür ist, dass bisher publizierte Berechnungsergebnisse von femoralen Beanspruchungen auf Basis invers-dynamisch bestimmter Muskelkräfte zum Teil ungewöhnlich hohe Biegespannungen im diaphysären Femur aufweisen. Als Grund hierfür wird mit Bezug auf die Hypothesen des Wolffschen Transformationsgesetzes, der Entwicklungsmechanik der Organismen von Roux und der Mechanostat-Theorie von Frost eine nicht adäquate Berücksichtigung mechanobiologischer Zusammenhänge zwischen Knochen- und Muskelmasse postuliert. Unter Nutzung neuer Erkenntnisse aus klinischen Studien erfolgt die Prüfung folgender Hypothese: "Muskelkräfte an den unteren Extremitäten wirken derart, dass Biegebeanspruchungen im diaphysären Bereich der Femora minimiert werden und vorrangig Druckkräfte entstehen". Die mathematische Abbildung der Hypothese erfolgt durch eine Erweiterung etablierter Optimierungsalgorithmen. Das Modell von Knochen und Muskeln der unteren Extremitäten sowie die Finite-Elemente-Modelle (FEM) basieren auf Magnetresonanztomographische Daten eines gesunden männlichen Probanden. In einem Ganglabor erhobene Positionsdaten und Bodenreaktionskräfte liefern Randbedingungen. Für drei charakteristische Zeitpunkte eines Gangzyklus wird gezeigt, dass die berechneten Muskelkräfte die postulierte Hypothese stützen und positive Assoziationen mit elektromyographischen Messdaten bestehen. Die resultierenden Hüftgelenkkräfte betragen das 1,2- bis 3,2-fache des Körpergewichts und sind damit quantitativ vergleichbar mit publizierten Messwerten instrumentierter Hüftprothesen. Die finale Untersuchung möglicher ossärer Transformationen am Berechnungsmodell des gesunden Femur und am Modell mit Hüftimplantat erfolgt mit Referenz zur dritten Hauptdehnung. Ergebnisse der FE-Berechnungen zeigen im Gegensatz zu den bisherigen Optimierungsstrategien, dass zu Beginn der mittleren Standphase und am Ende der terminalen Standphase überwiegend weder Knochenauf- noch -abbau stattfindet. Die Simulation des FE-Modells Femur mit Hüftprothese erlaubt Rückschlüsse auf das bekannte Phänomen des "Stress Shielding".



https://www.db-thueringen.de/receive/dbt_mods_00030033
Fremerey, Maximilian Otto;
Entwurf und Validierung eines biologisch inspirierten mechatronischen Antriebssystems für aquatische Roboter - Ilmenau : Universitätsverlag Ilmenau, 2016 - 1 Online-Ressource (XIV, 353 Seiten). . - (Berichte aus der Biomechatronik. - Band 12)
Technische Universität Ilmenau, Dissertation 2016

Mit Zunahme der Aktivitäten im Feld der Tiefseeforschung und -erkundung gewinnen autonome Unterwasserroboter an Bedeutung. Die Aufgabenerfüllung dieser mobilen Serviceroboter soll zukünftig verstärkt auch in solchen Gewässern erfolgen, welche dicht bewachsen oder mit Abfällen verunreinigt sind. Dadurch werden Antriebssysteme erforderlich, welche die Gefahr eines Funktionsausfalls aufgrund der Arbeitsumgebung des Roboters minimieren. Somit erfolgen innerhalb der vorliegenden Arbeit der systematische Entwurf sowie die Validierung eines biologisch inspirierten Antriebssystems, welches analog der Fortbewegung stetig schwimmender Fische den Vortrieb über gerichtete Verformung anstelle der Vollrotation eines Propellers erzeugt. Die Neuartigkeit dieses Antriebssystems besteht darin, dass der Vortrieb mittels einer variablen Anzahl an wechselsinnig bewegten Starrkörperelementen generiert wird, welche untereinander federnd verkoppelt sind. Unter Einbezug des derzeitigen Standes der Wissenschaft und Technik besteht die Herausforderung in der Reduktion der für die Fortbewegung erforderlichen Anzahl der Aktuatoren unter Beibehaltung eines technisch nutzbaren Vortriebs sowie der Manövrierfähigkeit des Roboters. Zudem sollen die gezielt platzierten Energiespeicher innerhalb des Mechanismus eine Optimierung des Leistungsbedarfs eines schwimmenden aquatischen Roboters ermöglichen: die während der Oszillation auftretende kinetische Energie wird in potentielle und für den nächsten Schlagzyklus nutzbare Energie gewandelt. Anhand von Mehrkörpermodellen werden daher der Leistungsbedarf sowie das Bewegungsverhalten mittels numerischer Simulationen ermittelt und geeignete Konfigurationen durch systematische Parametervariation herausgearbeitet. Anschließend erfolgt die konstruktive Umsetzung der simulativ gewonnenen Erkenntnisse in der EXPERIMENTALPLATTFORM URMELE 1.0, einem Vertreter der aquatischen Roboterfamilie URMELE. Unter Verwendung eines ebenfalls innerhalb dieser Arbeit entworfenen Versuchsstandes wird die Experimentalplattform im Versuch validiert. Die Experimentaldaten werden anschließend mit den Simulationsdaten verglichen. Ausgesuchte Baugruppen werden modifiziert. Die durchgeführten Untersuchungen bestätigen hierbei, dass sich durch Beeinflussung der das Antriebssystem wesentlich charakterisierenden Parameter, wie beispielsweise Amplitude und Federsteifigkeit, günstige Konfigurationen hinsichtlich des Leistungsbedarfs sowie des Bewegungsverhaltens ergeben.



https://www.db-thueringen.de/receive/dbt_mods_00030223
Fremerey, Maximilian Otto;
Entwurf und Validierung eines biologisch inspirierten mechatronischen Antriebssystems für aquatische Roboter - Ilmenau : Universitätsverlag Ilmenau, 2016 - XIV, 353 Seiten. . - (Berichte aus der Biomechatronik. - Band 12)
Technische Universität Ilmenau, Dissertation 2016

Mit Zunahme der Aktivitäten im Feld der Tiefseeforschung und -erkundung gewinnen autonome Unterwasserroboter an Bedeutung. Die Aufgabenerfüllung dieser mobilen Serviceroboter soll zukünftig verstärkt auch in solchen Gewässern erfolgen, welche dicht bewachsen oder mit Abfällen verunreinigt sind. Dadurch werden Antriebssysteme erforderlich, welche die Gefahr eines Funktionsausfalls aufgrund der Arbeitsumgebung des Roboters minimieren. Somit erfolgen innerhalb der vorliegenden Arbeit der systematische Entwurf sowie die Validierung eines biologisch inspirierten Antriebssystems, welches analog der Fortbewegung stetig schwimmender Fische den Vortrieb über gerichtete Verformung anstelle der Vollrotation eines Propellers erzeugt. Die Neuartigkeit dieses Antriebssystems besteht darin, dass der Vortrieb mittels einer variablen Anzahl an wechselsinnig bewegten Starrkörperelementen generiert wird, welche untereinander federnd verkoppelt sind. Unter Einbezug des derzeitigen Standes der Wissenschaft und Technik besteht die Herausforderung in der Reduktion der für die Fortbewegung erforderlichen Anzahl der Aktuatoren unter Beibehaltung eines technisch nutzbaren Vortriebs sowie der Manövrierfähigkeit des Roboters. Zudem sollen die gezielt platzierten Energiespeicher innerhalb des Mechanismus eine Optimierung des Leistungsbedarfs eines schwimmenden aquatischen Roboters ermöglichen: die während der Oszillation auftretende kinetische Energie wird in potentielle und für den nächsten Schlagzyklus nutzbare Energie gewandelt. Anhand von Mehrkörpermodellen werden daher der Leistungsbedarf sowie das Bewegungsverhalten mittels numerischer Simulationen ermittelt und geeignete Konfigurationen durch systematische Parametervariation herausgearbeitet. Anschließend erfolgt die konstruktive Umsetzung der simulativ gewonnenen Erkenntnisse in der EXPERIMENTALPLATTFORM URMELE 1.0, einem Vertreter der aquatischen Roboterfamilie URMELE. Unter Verwendung eines ebenfalls innerhalb dieser Arbeit entworfenen Versuchsstandes wird die Experimentalplattform im Versuch validiert. Die Experimentaldaten werden anschließend mit den Simulationsdaten verglichen. Ausgesuchte Baugruppen werden modifiziert. Die durchgeführten Untersuchungen bestätigen hierbei, dass sich durch Beeinflussung der das Antriebssystem wesentlich charakterisierenden Parameter, wie beispielsweise Amplitude und Federsteifigkeit, günstige Konfigurationen hinsichtlich des Leistungsbedarfs sowie des Bewegungsverhaltens ergeben.



TEST4http://www.gbv.de/dms/ilmenau/abs/870126040freme.txt
Tudor, Ana-Despina;
Development of a virtual audience concept for public speaking training in immersive virtual environments - Ilmenau : Universitätsverlag Ilmenau, 2016 - 1 Online-Ressource (XV, 293 Seiten, 8.21 MB). . - (Kommunikationswissenschaft interdisziplinär. - 5)
Technische Universität Ilmenau, Dissertation 2015

Die vorliegende Dissertation schlägt einen neuen Ansatz für Kommunikationstrainings und Sprechübungen vor, und führt ein Konzept für ein virtuelles Publikum ein. Das Publikum soll hierbei als Trainingsinstrument dienen und richtet sich an diejenigen, welche ihre rhetorischen Fähigkeiten und Präsentationstechniken verbessern möchten. Die Schlüssel-Komponente des Publikums bilden virtuelle Menschen, wobei diese möglichst realistisch aussehen und agieren sollen. Dies wirft eine zentrale Frage auf: Was sind die Merkmale eines realen Publikums und was machen die Menschen überhaupt, wenn sie vor einem Sprecher sitzen? Um diese Frage zu beantworten, wurden zwei Studien durchgeführt. Die erste explorative Studie beschäftigt sich mit Experten im Kommunikationstraining und VR Bereich. Sieben Experten wurden sowohl über die Rolle von Publikumsanpassung, Interaktion, und Gruppendynamik als auch über technische Anwendungsmöglichkeiten in der virtuellen Realität befragt. Die Ergebnisse zeigen, dass die Kommunikationstrainingsprogramme hohe Publikumsanpassungen und Interaktivitätsmöglichkeiten erfordern. Um die Ergebnisse zu komplementieren, wurde ein Trainingsseminar beobachtet. Die Resultate der Beobachtung verdeutlichen die Bedeutung von Sprechübungen im Rahmen eines Kommunikationsprogramms sowie die bevorzugten Feedbackmethoden. Die zweite Studie umfasst die Beobachtung eines studentischen Publikums im Rahmen einer Vorlesung an der Technischen Universität Ilmenau. Die nonverbalen Verhaltensweisen von 14 Studierenden wurden kodiert und in aufmerksame oder unaufmerksame Verhaltensweisen aufgeteilt. Weiterhin wurde die Frequenz, Komplexität und Dauer der ausgewiesenen Reaktionen analysiert. Die Ergebnisse dieser zwei Studien bilden das Fundament für die Entwicklung eines Designkonzepts für ein virtuelles Publikum. Dieses bezieht unterschiedliche Merkmale (z.B. demographische Charakteristika, Vorschläge für virtuelle Räumlichkeiten, etc.) ein. Zusätzlich wird eine Liste mit Indikatoren für Aufmerksamkeit und Unaufmerksamkeit eingebunden und ein fünfminütiges Szenario mit fünf virtuellen Menschen vorgestellt.



https://www.db-thueringen.de/receive/dbt_mods_00030202
Tudor, Ana-Despina;
Development of a virtual audience concept for public speaking training in immersive virtual environments - Ilmenau : Universitätsverlag Ilmenau, 2016 - XV, 293 Seiten. . - (Kommunikationswissenschaft interdisziplinär. - 5)
Technische Universität Ilmenau, Dissertation 2015

Die vorliegende Dissertation schlägt einen neuen Ansatz für Kommunikationstrainings und Sprechübungen vor, und führt ein Konzept für ein virtuelles Publikum ein. Das Publikum soll hierbei als Trainingsinstrument dienen und richtet sich an diejenigen, welche ihre rhetorischen Fähigkeiten und Präsentationstechniken verbessern möchten. Die Schlüssel-Komponente des Publikums bilden virtuelle Menschen, wobei diese möglichst realistisch aussehen und agieren sollen. Dies wirft eine zentrale Frage auf: Was sind die Merkmale eines realen Publikums und was machen die Menschen überhaupt, wenn sie vor einem Sprecher sitzen? Um diese Frage zu beantworten, wurden zwei Studien durchgeführt. Die erste explorative Studie beschäftigt sich mit Experten im Kommunikationstraining und VR Bereich. Sieben Experten wurden sowohl über die Rolle von Publikumsanpassung, Interaktion, und Gruppendynamik als auch über technische Anwendungsmöglichkeiten in der virtuellen Realität befragt. Die Ergebnisse zeigen, dass die Kommunikationstrainingsprogramme hohe Publikumsanpassungen und Interaktivitätsmöglichkeiten erfordern. Um die Ergebnisse zu komplementieren, wurde ein Trainingsseminar beobachtet. Die Resultate der Beobachtung verdeutlichen die Bedeutung von Sprechübungen im Rahmen eines Kommunikationsprogramms sowie die bevorzugten Feedbackmethoden. Die zweite Studie umfasst die Beobachtung eines studentischen Publikums im Rahmen einer Vorlesung an der Technischen Universität Ilmenau. Die nonverbalen Verhaltensweisen von 14 Studierenden wurden kodiert und in aufmerksame oder unaufmerksame Verhaltensweisen aufgeteilt. Weiterhin wurde die Frequenz, Komplexität und Dauer der ausgewiesenen Reaktionen analysiert. Die Ergebnisse dieser zwei Studien bilden das Fundament für die Entwicklung eines Designkonzepts für ein virtuelles Publikum. Dieses bezieht unterschiedliche Merkmale (z.B. demographische Charakteristika, Vorschläge für virtuelle Räumlichkeiten, etc.) ein. Zusätzlich wird eine Liste mit Indikatoren für Aufmerksamkeit und Unaufmerksamkeit eingebunden und ein fünfminütiges Szenario mit fünf virtuellen Menschen vorgestellt.



TEST4http://www.gbv.de/dms/ilmenau/toc/868708089.PDF
Resch, Jens;
Kontextorientierte Entwicklung und Absicherung von festen Verbindungen im Produktentstehungsprozess der Automobilindustrie - Ilmenau : Universitätsverlag Ilmenau, 2016 - 1 Online-Ressource (xv, 227 Seiten, 12.16 MB). . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - Band 27)
Technische Universität Ilmenau, Dissertation 2016

Die Anforderungen an die Entwicklung und Absicherung von Produkten in der Automobilindustrie sind in den vergangenen Jahren erheblich gestiegen. Während einer Absicherung werden die Ist-Eigenschaften des Produktes analysiert und mit den geforderten Soll-Eigenschaften verglichen. Neben den bekannten Herausforderungen hinsichtlich Zeit, Kosten und Qualität steigt auch der Anspruch aufgrund der hohen Varianz der angebotenen Produkte. Produkte werden aufgrund funktionaler, herstellungs- oder wartungstechnischer Belange in eine Vielzahl von Einzelteilen und Baugruppen zerlegt. Gefügt werden diese Komponenten durch diverse Verbindungsarten, welche ein ungewolltes Lösen der Einzelteile verhindern. Prinzipiell lassen sich diese festen Verbindungen in lösbare Verbindungen und nicht-lösbare Verbindungen unterteilen. Abhängig von der jeweiligen Verbindungsart wird eine Verbindung entweder mit oder ohne zusätzliche Verbindungshilfsmittel/-stoffe (z.B. Schrauben, Muttern, Kleber) gefügt. In den frühen Phasen der Produktentwicklung werden die zukünftigen Eigenschaften des Produktes definiert und dessen Merkmale ausgearbeitet. Während der Produktentstehung müssen dann alle Eigenschaften aus nachfolgenden Lebensphasen hinsichtlich ihrer Realisierbarkeit analysiert und bewertet werden. Dies geschieht beispielsweise durch Simulationen oder reale Prototypen. Mit Hilfe von digitalen Absicherungen lassen sich die Merkmale der beteiligten Systeme in den unterschiedlichen Lebensphasen mit den Merkmalen des Produktes in einem gemeinsamen Kontext analysieren. Eine Analyse der Entwicklungsprozesse eines Automobilherstellers hat ergeben, dass innerhalb des Produktentstehungsprozesses unterschiedliche Methoden zur Dokumentation und Absicherung von festen lösbaren sowie festen nicht-lösbaren Verbindungen zum Einsatz kommen. Daher wurde im Rahmen dieser Arbeit ein Konzept zur Dokumentation von Verbindungen entwickelt, welches auf alle festen Verbindungen anwendbar ist. Neben der Vereinheitlichung steht auch die Dokumentation von Kontextinformationen, d.h. Informationen die sich auf unterschiedlichen Lebensphasen des Produktes beziehen, im Vordergrund. Sowohl die allgemeinen, als auch die kontextabhängigen Informationen werden dabei in Verbindungsobjekten archiviert. Diese Informationen lassen sich anschließend in digitalen Absicherungsuntersuchungen nutzen.



https://www.db-thueringen.de/receive/dbt_mods_00030154
Resch, Jens;
Kontextorientierte Entwicklung und Absicherung von festen Verbindungen im Produktentstehungsprozess der Automobilindustrie - Ilmenau : Universitätsverlag Ilmenau, 2016 - xv, 227 Seiten. . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - Band 27)
Technische Universität Ilmenau, Dissertation 2016

Die Anforderungen an die Entwicklung und Absicherung von Produkten in der Automobilindustrie sind in den vergangenen Jahren erheblich gestiegen. Während einer Absicherung werden die Ist-Eigenschaften des Produktes analysiert und mit den geforderten Soll-Eigenschaften verglichen. Neben den bekannten Herausforderungen hinsichtlich Zeit, Kosten und Qualität steigt auch der Anspruch aufgrund der hohen Varianz der angebotenen Produkte. Produkte werden aufgrund funktionaler, herstellungs- oder wartungstechnischer Belange in eine Vielzahl von Einzelteilen und Baugruppen zerlegt. Gefügt werden diese Komponenten durch diverse Verbindungsarten, welche ein ungewolltes Lösen der Einzelteile verhindern. Prinzipiell lassen sich diese festen Verbindungen in lösbare Verbindungen und nicht-lösbare Verbindungen unterteilen. Abhängig von der jeweiligen Verbindungsart wird eine Verbindung entweder mit oder ohne zusätzliche Verbindungshilfsmittel/-stoffe (z.B. Schrauben, Muttern, Kleber) gefügt. In den frühen Phasen der Produktentwicklung werden die zukünftigen Eigenschaften des Produktes definiert und dessen Merkmale ausgearbeitet. Während der Produktentstehung müssen dann alle Eigenschaften aus nachfolgenden Lebensphasen hinsichtlich ihrer Realisierbarkeit analysiert und bewertet werden. Dies geschieht beispielsweise durch Simulationen oder reale Prototypen. Mit Hilfe von digitalen Absicherungen lassen sich die Merkmale der beteiligten Systeme in den unterschiedlichen Lebensphasen mit den Merkmalen des Produktes in einem gemeinsamen Kontext analysieren. Eine Analyse der Entwicklungsprozesse eines Automobilherstellers hat ergeben, dass innerhalb des Produktentstehungsprozesses unterschiedliche Methoden zur Dokumentation und Absicherung von festen lösbaren sowie festen nicht-lösbaren Verbindungen zum Einsatz kommen. Daher wurde im Rahmen dieser Arbeit ein Konzept zur Dokumentation von Verbindungen entwickelt, welches auf alle festen Verbindungen anwendbar ist. Neben der Vereinheitlichung steht auch die Dokumentation von Kontextinformationen, d.h. Informationen die sich auf unterschiedlichen Lebensphasen des Produktes beziehen, im Vordergrund. Sowohl die allgemeinen, als auch die kontextabhängigen Informationen werden dabei in Verbindungsobjekten archiviert. Diese Informationen lassen sich anschließend in digitalen Absicherungsuntersuchungen nutzen.



TEST4http://www.gbv.de/dms/ilmenau/abs/867654945resch.txt
Finke, Thomas;
SEREMA : self-organized routing in heterogeneous mobile ad hoc networks - Ilmenau : Universitätsverlag Ilmenau, 2016 - xvi, 211 Seiten.
Technische Universität Ilmenau, Dissertation 2016

Enthält Thesen

Nach Naturkatastrophen, wie beispielsweise Erdbeben, Wirbelstürmen, Flutwellen oder auch nach durch den Menschen verursachten Katastrophen wie Terroranschlägen oder Unfällen, ist es sehr wichtig die Ersthelfer zu organisieren. Hierfür ist eine Kommunikationsinfrastruktur, welche zum Beispiel Basisstationen für Mobilfunknetze enthält, von entscheidender Bedeutung. Diese Infrastruktur kann durch die Katastrophe jedoch schwer beeinträchtigt oder vollkommen zerstört sein. Heutzutage sind Ersthelfer als auch Opfer üblicherweise mit leistungsfähigen mobilen Endgeräten, wie Smartphones oder Notebooks, ausgerüstet. Diese mobilen Endgeräte, welche über eine Vielzahl von Netzzugangstechnologien verfügen, können zu einem sogenannten Ad-hoc-Netzwerk zusammengeschlossen werden und bilden anschließend eine infrastrukturlose Kommunikationsbasis. Die Leistungsfähigkeit von kabellosen Ad-hoc-Netzwerken ist dabei stark von der Anzahl bekannter Verbindungen im Netz abhängig. Diese Verbindungen, auch Routen genannt, werden durch das verwendete Routingprotokoll gesucht und ständig aktualisiert. Hierzu stehen verschiedenartige Routingprotokolle zur Verfügung, welche Topologieinformationen zwischen den einzelnen Knoten eines Netzwerks austauschen. Für kabellose Ad-hoc-Netzwerke sind hierfür zahlreiche Routingprotokolle verfügbar, jedoch sind diese bereits existierenden Protokolle nur eingeschränkt für hochdynamische mobile Ad-hoc-Netzwerke geeignet. Dies liegt darin begründet, dass sie nicht in der Lage sind, sich an große Änderungen im Netzwerk anzupassen. In Katastrophenszenarien können allerdings hochdynamische Netzwerke vorkommen, in welchen beispielsweise die Größe des Netzes zwischen einigen wenigen und einigen hundert Knoten schwankt oder sich die Knotengeschwindigkeit von statischen bis hin zu hochmobilen Knoten verändert. Die vorliegende Arbeit präsentiert einen adaptiven Ansatz, welcher in der Lage ist, die gegebenen Parameter des Netzwerks in einer dezentralen Weise zu ermitteln und anschließend das verwendete Routingprotokoll während der Laufzeit zu wechseln, um somit das Routing sehr flexibel an die Gegebenheiten des Netzwerks anzupassen.



TEST4http://www.gbv.de/dms/ilmenau/toc/866451064.PDF
Karmo, Diala;
Beiträge zur Erhöhung der Effektivität von Lamellenrohr-Wärmeübertragern - Ilmenau : Universitätsverlag Ilmenau, 2016 - XVIII, 115 Seiten.
Technische Universität Ilmenau, Dissertation 2016

Die Anforderungen an die Verwendung hocheffizienter Komponenten in Kälte- und Klimaanlagen nehmen ständig zu, wobei Energieeffizienz, geringer Material- bzw. Platzbedarf angestrebt werden. Eine der wesentlichen Komponenten stellt dabei der Lamellenrohr-Wärmeübertrager dar. Eine Erhöhung der Leistung oder eine Reduzierung des Volumens von Wärmeübertragern haben einen großen Einfluss auf die Eigenschaften der Gesamtanlage. Die bestehenden Veröffentlichungen in diesem Bereich zeigen jedoch, dass die Effektivität der Wärmeübertragungsoberflächen nur geringfügig oder gar nicht verbessert werden konnten. Die vorliegende Arbeit konzentriert sich daher auf die Entwicklung neuer Methoden zur effektiven Auslegung von Lamellenrohr-Wärmeübertragern. Dabei sollte die Wärmeübertragung verbessert werden, ohne dass sich die Abmaße des Wärmeübertragers, der Material- und Energieverbrauch vergrößern. Durch eine Recherche über vorhandene interessante Entwicklungsmethoden und die Durchführung von Voruntersuchungen sind Schlussfolgerungen zu ziehen, die als Basis für neue Auslegungsmethoden verwendet werden. Ausgehend davon werden zwei innovative Hauptauslegungen entwickelt. Die neu entwickelten Methoden werden so beschrieben, dass konventionelle Modelle nach systematischen Schritten effektiv ausgelegt werden können. Einerseits ermöglicht die erste Auslegung (Lamellenversetzung) eine verbesserte Turbulenz und eine leichte Erhöhung der Luftgeschwindigkeit zwischen den Lamellen, andererseits sollte die zweite entwickelte Auslegung (Zickzackform) zusätzlich dazu eine größere Kontaktfläche (ellipsenförmig) zwischen den Lamellen und Rohren garantieren. Zur Bewertung der Eigenschaften der entwickelten Modelle werden hauptsächlich die Wärmeübertragungswerte, Druckverluste, Leistungskennzahlen, Materialverbräuche und die Energieeffizienz berücksichtigt. In diesem Zusammenhang werden anhand eines typischen Wärmeübertragers adäquate neue Modelle ausgelegt, die numerisch und zum Teil experimentell untersucht werden. Durch additive Fertigungsverfahren werden dazu zwei Exemplare für ein konventionelles und ein neu entwickeltes Modell modelliert, hergestellt bzw. untersucht.



TEST4http://www.gbv.de/dms/ilmenau/abs/866445250karmo.txt
Karmo, Diala;
Beiträge zur Erhöhung der Effektivität von Lamellenrohr-Wärmeübertragern - Ilmenau : Universitätsverlag Ilmenau, 2016 - 1 Online-Ressource (XVIII, 115 Seiten).
Technische Universität Ilmenau, Dissertation 2016

Die Anforderungen an die Verwendung hocheffizienter Komponenten in Kälte- und Klimaanlagen nehmen ständig zu, wobei Energieeffizienz, geringer Material- bzw. Platzbedarf angestrebt werden. Eine der wesentlichen Komponenten stellt dabei der Lamellenrohr-Wärmeübertrager dar. Eine Erhöhung der Leistung oder eine Reduzierung des Volumens von Wärmeübertragern haben einen großen Einfluss auf die Eigenschaften der Gesamtanlage. Die bestehenden Veröffentlichungen in diesem Bereich zeigen jedoch, dass die Effektivität der Wärmeübertragungsoberflächen nur geringfügig oder gar nicht verbessert werden konnten. Die vorliegende Arbeit konzentriert sich daher auf die Entwicklung neuer Methoden zur effektiven Auslegung von Lamellenrohr-Wärmeübertragern. Dabei sollte die Wärmeübertragung verbessert werden, ohne dass sich die Abmaße des Wärmeübertragers, der Material- und Energieverbrauch vergrößern. Durch eine Recherche über vorhandene interessante Entwicklungsmethoden und die Durchführung von Voruntersuchungen sind Schlussfolgerungen zu ziehen, die als Basis für neue Auslegungsmethoden verwendet werden. Ausgehend davon werden zwei innovative Hauptauslegungen entwickelt. Die neu entwickelten Methoden werden so beschrieben, dass konventionelle Modelle nach systematischen Schritten effektiv ausgelegt werden können. Einerseits ermöglicht die erste Auslegung (Lamellenversetzung) eine verbesserte Turbulenz und eine leichte Erhöhung der Luftgeschwindigkeit zwischen den Lamellen, andererseits sollte die zweite entwickelte Auslegung (Zickzackform) zusätzlich dazu eine größere Kontaktfläche (ellipsenförmig) zwischen den Lamellen und Rohren garantieren. Zur Bewertung der Eigenschaften der entwickelten Modelle werden hauptsächlich die Wärmeübertragungswerte, Druckverluste, Leistungskennzahlen, Materialverbräuche und die Energieeffizienz berücksichtigt. In diesem Zusammenhang werden anhand eines typischen Wärmeübertragers adäquate neue Modelle ausgelegt, die numerisch und zum Teil experimentell untersucht werden. Durch additive Fertigungsverfahren werden dazu zwei Exemplare für ein konventionelles und ein neu entwickeltes Modell modelliert, hergestellt bzw. untersucht.



https://www.db-thueringen.de/receive/dbt_mods_00030036
Lutz, Frederick Gordon;
Einflüsse individueller Muskelkräfte auf dehnungsinduzierten femoralen Knochenumbau - Ilmenau : Universitätsverlag Ilmenau, 2016 - IX, 119 Seiten. . - (Berichte aus der Biomechatronik. - Band 13)
Technische Universität Ilmenau, Dissertation 2016

Die folgende Arbeit untersucht mittels Simulationen postulierte Einflussgrößen auf dehnungsinduzierte Knochenumbauprozesse an den unteren Extremitäten. Dabei liegt der Schwerpunkt in der Betrachtung von Optimierungsalgorithmen zur inversen Berechnung von Muskel- und Gelenkkräfte. Die Motivation hierfür ist, dass bisher publizierte Berechnungsergebnisse von femoralen Beanspruchungen auf Basis invers-dynamisch bestimmter Muskelkräfte zum Teil ungewöhnlich hohe Biegespannungen im diaphysären Femur aufweisen. Als Grund hierfür wird mit Bezug auf die Hypothesen des Wolffschen Transformationsgesetzes, der Entwicklungsmechanik der Organismen von Roux und der Mechanostat-Theorie von Frost eine nicht adäquate Berücksichtigung mechanobiologischer Zusammenhänge zwischen Knochen- und Muskelmasse postuliert. Unter Nutzung neuer Erkenntnisse aus klinischen Studien erfolgt die Prüfung folgender Hypothese: "Muskelkräfte an den unteren Extremitäten wirken derart, dass Biegebeanspruchungen im diaphysären Bereich der Femora minimiert werden und vorrangig Druckkräfte entstehen". Die mathematische Abbildung der Hypothese erfolgt durch eine Erweiterung etablierter Optimierungsalgorithmen. Das Modell von Knochen und Muskeln der unteren Extremitäten sowie die Finite-Elemente-Modelle (FEM) basieren auf Magnetresonanztomographische Daten eines gesunden männlichen Probanden. In einem Ganglabor erhobene Positionsdaten und Bodenreaktionskräfte liefern Randbedingungen. Für drei charakteristische Zeitpunkte eines Gangzyklus wird gezeigt, dass die berechneten Muskelkräfte die postulierte Hypothese stützen und positive Assoziationen mit elektromyographischen Messdaten bestehen. Die resultierenden Hüftgelenkkräfte betragen das 1,2- bis 3,2-fache des Körpergewichts und sind damit quantitativ vergleichbar mit publizierten Messwerten instrumentierter Hüftprothesen. Die finale Untersuchung möglicher ossärer Transformationen am Berechnungsmodell des gesunden Femur und am Modell mit Hüftimplantat erfolgt mit Referenz zur dritten Hauptdehnung. Ergebnisse der FE-Berechnungen zeigen im Gegensatz zu den bisherigen Optimierungsstrategien, dass zu Beginn der mittleren Standphase und am Ende der terminalen Standphase überwiegend weder Knochenauf- noch -abbau stattfindet. Die Simulation des FE-Modells Femur mit Hüftprothese erlaubt Rückschlüsse auf das bekannte Phänomen des "Stress Shielding".



TEST4http://www.gbv.de/dms/ilmenau/toc/86608732X.PDF
Döbel, Christian;
Ein Smart Home Management-System basierend auf adaptive Lernalgorithmen des Verhaltenserwerbs (ENKOS) - Ilmenau : Universitätsverlag Ilmenau, 2016 - Online-Ressource (XIII, 242 Seiten).
Technische Universität Ilmenau, Dissertation 2015

Mit der vorliegenden Arbeit ist es gelungen, ein adaptives Lernsystem "ENKOS" ("Energie- und Komfortmanagementsystem") auf Basis von Learning Classifier Systems zu entwickeln, um menschliche Verhaltensweisen in Bezug auf die Benutzung elektrischer Geräte in einem Haushalt zu lernen. Diese konnten für die Steigerung des Wohnkomforts durch eine intelligente Vorhersage eingesetzt werden. Der Lernalgorithmus bezieht zum einen die Korrektur der Entscheidung von ENKOS durch den Nutzer und zum anderen die Korrekturzeit ein und realisiert damit adaptives "Smart Home"-System mit einem völlig neuen Ansatz. Die Informationen, die durch die Benutzungsmuster von elektrischen Geräten durch die Nutzer erhoben werden können, werden außerdem zum Aufbau von logischen und elektrischen Modellen der Wohnung benutzt, womit eine signifikante Energiereduzierung erreicht werden konnte. Beide Ziele, die Komfortsteigerung sowie die Energieminimierung in einem standardisierten Haushalt, wurden in eine Zielfunktion integriert und damit quantifiziert. Für die Anpassung der Zielfunktion wurden auch verhaltenspsychologische Methoden der menschlichen Entscheidungsfindung herangezogen, um die objektive Steuerstrategie aller Geräte im simulierten Haushalt in die subjektive Empfindung von Menschen überführen zu können. Danach wurde die Topologie von ENKOS, dem zentralen Lern- und Steuersystem der elektrischen Geräte, aus mehreren Möglichkeiten ausgewählt. Insbesondere für die Integration der einfachen physikalischen Modelle in ein komplexes Verhaltensmodell (abgebildet durch die LCS-Regeln) wurden mehrere grundsätzliche Fragestellungen gegeneinander abgewogen, um eine entsprechende Gesamttopologie zu generieren. Die Zielvariante wurde "Kognitive Learning Classifier Systems" (KLCS) genannt, da die LCS die Grundlage des Ansatzes bilden und um Methoden der kognitiven Verhaltensforschung erweitert wurden. Nach dem Aufstellen der Systemstruktur wurde eine Standardsimulationsumgebung geschaffen, um verschiedene Parameter des geschaffenen KLCS objektiv bewerten zu können, um die Zielfunktion zu maximieren. Dabei kam heraus, dass zwei von drei untersuchten Methoden der Energieminimierung aussichtsreich sind, wobei bei der Parametrisierung der LCS-Komponenten lediglich zwei von sechs Parametern einen signifikanten Einfluss auf den Zielfunktionswert haben. Es konnte gezeigt werden, dass das aufgestellte System ENKOS sowohl eine Steigerung des Komforts für die Nutzer ermöglicht sowie die signifikante Reduzierung des Energieverbrauchs in der simulierten Standardwohnung realisiert. Damit ist ein wirklich adaptives Smart Home-System im Sinne des Anwenders als Ansatz geschaffen und evaluiert worden.



https://www.db-thueringen.de/receive/dbt_mods_00030004
Döbel, Christian;
Ein Smart Home Management-System basierend auf adaptive Lernalgorithmen des Verhaltenserwerbs (ENKOS) - Ilmenau : Universitätsverlag Ilmenau, 2016 - XIII, 242 Seiten.
Technische Universität Ilmenau, Dissertation 2015

Mit der vorliegenden Arbeit ist es gelungen, ein adaptives Lernsystem "ENKOS" ("Energie- und Komfortmanagementsystem") auf Basis von Learning Classifier Systems zu entwickeln, um menschliche Verhaltensweisen in Bezug auf die Benutzung elektrischer Geräte in einem Haushalt zu lernen. Diese konnten für die Steigerung des Wohnkomforts durch eine intelligente Vorhersage eingesetzt werden. Der Lernalgorithmus bezieht zum einen die Korrektur der Entscheidung von ENKOS durch den Nutzer und zum anderen die Korrekturzeit ein und realisiert damit adaptives "Smart Home"-System mit einem völlig neuen Ansatz. Die Informationen, die durch die Benutzungsmuster von elektrischen Geräten durch die Nutzer erhoben werden können, werden außerdem zum Aufbau von logischen und elektrischen Modellen der Wohnung benutzt, womit eine signifikante Energiereduzierung erreicht werden konnte. Beide Ziele, die Komfortsteigerung sowie die Energieminimierung in einem standardisierten Haushalt, wurden in eine Zielfunktion integriert und damit quantifiziert. Für die Anpassung der Zielfunktion wurden auch verhaltenspsychologische Methoden der menschlichen Entscheidungsfindung herangezogen, um die objektive Steuerstrategie aller Geräte im simulierten Haushalt in die subjektive Empfindung von Menschen überführen zu können. Danach wurde die Topologie von ENKOS, dem zentralen Lern- und Steuersystem der elektrischen Geräte, aus mehreren Möglichkeiten ausgewählt. Insbesondere für die Integration der einfachen physikalischen Modelle in ein komplexes Verhaltensmodell (abgebildet durch die LCS-Regeln) wurden mehrere grundsätzliche Fragestellungen gegeneinander abgewogen, um eine entsprechende Gesamttopologie zu generieren. Die Zielvariante wurde "Kognitive Learning Classifier Systems" (KLCS) genannt, da die LCS die Grundlage des Ansatzes bilden und um Methoden der kognitiven Verhaltensforschung erweitert wurden. Nach dem Aufstellen der Systemstruktur wurde eine Standardsimulationsumgebung geschaffen, um verschiedene Parameter des geschaffenen KLCS objektiv bewerten zu können, um die Zielfunktion zu maximieren. Dabei kam heraus, dass zwei von drei untersuchten Methoden der Energieminimierung aussichtsreich sind, wobei bei der Parametrisierung der LCS-Komponenten lediglich zwei von sechs Parametern einen signifikanten Einfluss auf den Zielfunktionswert haben. Es konnte gezeigt werden, dass das aufgestellte System ENKOS sowohl eine Steigerung des Komforts für die Nutzer ermöglicht sowie die signifikante Reduzierung des Energieverbrauchs in der simulierten Standardwohnung realisiert. Damit ist ein wirklich adaptives Smart Home-System im Sinne des Anwenders als Ansatz geschaffen und evaluiert worden.



TEST4http://www.gbv.de/dms/ilmenau/abs/866031774doebe.txt
Leben, Leslie;
Non-negative operators in Krein spaces and rank one perturbations - Ilmenau : Universitätsverlag Ilmenau, 2016 - 116 Seiten.
Technische Universität Ilmenau, Dissertation 2016

ISBN 3863601416 = 978-3-86360-141-6

In der vorliegenden Arbeit werden eindimensionale Störungen von nichtnegativen Operatoren in Kreinräumen betrachtet. Dabei wird untersucht wie sich die Anzahl der Eigenwerte und deren Vielfachheit in einer Lücke des essentiellen Spektrums unter einer Störung ändern können. Zudem wird beschrieben wie sich an einem Eigenwert die Anzahl und die Länge der linear unabhängigen Jordanketten ändern können.



TEST4http://www.gbv.de/dms/ilmenau/abs/865899851leben.txt
Leben, Leslie;
Non-negative operators in Krein spaces and rank one perturbations - Ilmenau : Universitätsverlag Ilmenau, 2016 - Online-Ressource (116 Seiten, 6.65 MB).
Technische Universität Ilmenau, Dissertation 2016

In der vorliegenden Arbeit werden eindimensionale Störungen von nichtnegativen Operatoren in Kreinräumen betrachtet. Dabei wird untersucht wie sich die Anzahl der Eigenwerte und deren Vielfachheit in einer Lücke des essentiellen Spektrums unter einer Störung ändern können. Zudem wird beschrieben wie sich an einem Eigenwert die Anzahl und die Länge der linear unabhängigen Jordanketten ändern können.



https://www.db-thueringen.de/receive/dbt_mods_00029981
Küster, Markus Gerd Heinz;
Einfluss von Toleranzen auf das Betriebsverhalten von elektromagnetischen Ventilen - Ilmenau : Universitätsverlag Ilmenau, 2016 - 1 Online-Ressource (XV, 159 Seiten).
Technische Universität Ilmenau, Dissertation 2015

Die vorliegende Arbeit knüpft an die aktuellen Forderungen aus Wirtschaft und Industrie nach erhöhter Zuverlässigkeit und Qualität in der Fertigung von elektromagnetischen Ventilen unter zunehmenden Kostengesichtspunkten an. Toleranzen, die bei der Produktion von elektromagnetischen Ventilen auftreten können, werden analysiert, klassifiziert und Wege werden aufgezeigt, wie diese in der Auslegungsphase zu berücksichtigen sind. Ein besonderes Augenmerk liegt auf den Lagetoleranzen, die an Topfmagneten mit radialen Flussübertritten zu Querkräften führen. Es werden verschiedene Berechnungsmethoden untersucht und mit Messergebnissen verglichen. Verschiedene stochastische Verfahren und aktuelle Berechnungsmöglichkeiten werden vorgestellt und zunächst an einfachen Modellen angewendet. Das Zusammenspiel von variierenden magnetischen und geometrischen Eigenschaften wird beispielhaft an einem ausgewählten polarisierten Aktor mit Hilfe der Netzwerkmethode betrachtet. Aufbauend auf dem Modell wird der Einfluss von Eingangsverteilungen und unterschiedlichen Justageprozessen ermittelt. Abschließend wird die simulierte Fertigung mit einer Musterfertigung verglichen. Anhand der gewonnenen Erkenntnisse wird an einem Topfmagnet eine Methodik aufgezeigt, welche die Berücksichtigung von Toleranzen im Entwurfsprozess ermöglicht. Es wird der Einfluss des Auslegungspunktes auf die Sensitivität des Topfmagneten gezeigt. Für die unterschiedlich gewählten Auslegungspunkte wird eine Kosten-Toleranz-Optimierung durchgeführt. Damit die Toleranzen im Entwurfsprozess mit einbezogen werden können, wird ein Algorithmus implementiert. Die Optimierung bietet dem Konstrukteur Unterstützung bei der Festlegung von Toleranzen und ein Hilfsmittel zur aktiven Bewertung und Reduktion von Kosten im Entwurfsprozess. Die reale Serienproduktion wird in den virtuellen Entwurf miteinbezogen. Bereits in einem sehr frühen Stadium der Entwicklung ist es möglich, die Robustheit des Systems in Hinsicht auf eine Serienfertigung vorherzusagen. Der gesamte Entwicklungsprozess wird somit von Beginn an effektiver und effizienter. Die aus der virtuellen Entwicklung stammenden Verteilungsmaße können für Prozessüberlegungen genutzt werden. Die Integration des Fertigungsprozesses bzw. der Fertigungsstrategie kann in einer früheren Entwicklungsphase stattfinden.



https://www.db-thueringen.de/receive/dbt_mods_00027243
Probstmeyer, Kristin;
Gendersensibilität von Lehrveranstaltungen des ingenieurwissenschaftlichen Grundlagenstudiums : Voraussetzungen, Umsetzung und Evaluation von Vorlesungen an der Technischen Universität Ilmenau - Ilmenau : Universitätsverlag Ilmenau, 2016 - 1 Online-Ressource (verschiedene Seitenzählungen). . - (Kommunikationswissenschaft interdisziplinär. - 4)
Technische Universität Ilmenau, Dissertation 2015

In Anbindung an das Thüringer Verbundprojekt Gender in der akademischen Lehre (2009 bis 2012) wurde im Rahmen der vorliegenden Arbeit eine erste Bestandsaufnahme zur Gendersensibilität von Vorlesungen des ingenieurwissenschaftlichen Grundlagenstudiums der Technischen Universität Ilmenau mit dem Ziel der Verbesserung durchgeführt. Anhand von drei empirischen Teilstudien (Teilstudie A: Sekundäranalyse der Lehrveranstaltungsevaluation des Qualitätsmanagements mit 1.591 Studierenden; Teilstudie B: Primäranalyse einer quantitativen Studierendenbefragung mit 517 Studierenden; Teilstudie C: einer qualitativen Lehrveranstaltungsbegleitung mit 12 Vorlesungen) konnte im Rahmen eines Mehrmethodendesigns verdeutlicht werden, dass (1) die bisherigen Lehrveranstaltungsevaluationen der TU Ilmenau gendersensible Lehre nur unzureichend erfassen, (2) sich die Lehr- und Lernbedürfnisse von Studierenden in stärkerem Maße nach Fachkultur als nach Geschlecht unterscheiden, (3) Lehrende in ihren Vorlesungen bereits gendersensibel agieren, dies jedoch als Anspruch an eine gute Lehre und in Abgrenzung zur gendersensiblen Lehre tun, (4) sich die im Rahmen der Arbeit konzipierten Didaktik-Bausteine zur Gestaltung einer gendersensiblen Lehre in den Ingenieurwissenschaften (Gendertoolbox) als praxistauglich erweisen.



https://www.db-thueringen.de/receive/dbt_mods_00029321
Reinhardt, Dominik;
Virtualisierung eingebetteter Echtzeitsysteme im Mehrkernbetrieb zur Partitionierung sicherheitsrelevanter Fahrzeugsoftware - Ilmenau : Universitätsverlag Ilmenau, 2016 - 1 Online-Ressource (xiv, 194 Seiten).
Technische Universität Ilmenau, Dissertation 2016

Dissertation erschienen unter dem Titel: Virtualisierung eingebetteter Echtzeitsysteme zur Partitionierung sicherheitsrelevanter Software im Automobil

Die Automobilindustrie verzeichnete innerhalb der letzten Jahre einen enormen Zuwachs an neuen elektrischen und elektronischen Fahrzeugfunktionen. Dies führt gleichzeitig zu einer Mehrung der Softwareumfänge in eingebetteten Systemen. Nicht-funktionale Anforderungen wie Sicherheit, Performanz, Verlässlichkeit und Wartbarkeit stellen zusätzliche Herausforderungen an die Entwicklung zukünftiger Fahrzeugsysteme dar. Um die Anzahl der Steuergeräte zu reduzieren, sollen Fahrzeugfunktionen auf gemeinsamen Integrationssteuergeräten konsolidiert werden. Systemvirtualisierung kann hierfür eine zielführende Herangehensweise darstellen, um die Softwaremigration auf Integrationssteuergeräte zu erleichtern und gleichzeitig den geforderten Isolationsansprüchen neuer Sicherheitsstandards gerecht zu werden. In dieser Arbeit wird die Partitionierung sicherheitsrelevanter Fahrzeugfunktionen auf einer gemeinsamen Hardwareplattform fokussiert. Unter Verwendung von Methoden zur Bewertung sozialer Netzwerke wird eine graphenbasierte Herangehensweise vorgestellt, um die Partitionierbarkeit von Softwarenetzen mit sicherheitsrelevanten Anteilen abschätzen zu können. Zur Realisierung der Systempartitionierung wird eine Methodik zur Auswahl der geeignetsten Kernelarchitektur eingeführt. Dabei werden aus gewählten nicht-funktionalen Eigenschaften potentielle technische Lösungskonzepte innerhalb einer Baumstruktur abgeleitet und ingenieurmäßig bewertet. Darauf aufbauend wird ein Hypervisor für eingebettete Echtzeitsysteme der Firma ETAS Ltd. evaluiert. Um die Kosten einer zusätzlichen Hypervisorschicht beurteilen zu können, werden in diesem Rahmen Laufzeitmessungen durchgeführt. Somit werden die Auswirkungen einer zusätzlichen Virtualisierungsschicht auf Fahrzeugsoftwaresysteme zur Erfüllung ausgewählter nicht-funktionaler Eigenschaften aufgezeigt. Die Anbindung virtualisierter Systeme an die Kommunikationsschnittstellen des Hypervisors stellt einen weiteren Schwerpunkt dar. Virtuelle Steuergeräte tauschen sich weiterhin über bereits implementierte Kommunikationskanäle aus und greifen auf gemeinsame Hardwareressourcen zu. Es wird somit ein Konzept eingeführt, um sicherheitsrelevante Anteile des AUTOSAR Microcontroller Abstraction Layers zu entkoppeln. Der Hypervisor selbst wird hierzu an relevanten Stellen erweitert und ein verlässliches Kommunikationskonzept implementiert. Ein Demonstratoraufbau, zur Konsolidierung von produktiver Fahrzeugsoftware auf einer gemeinsamen Hardwareplattform, finalisiert die Arbeit. Hierfür werden unabhängige Softwarestände paravirtualisiert. Als Resümee der Arbeit erhält der Leser sowohl einen technischen Überblick über den Mehrwert als auch der Kosten paravirtualisierter Fahrzeugplattformen, welche auf Kleinststeuergeräten integriert sind.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2016000182
Neute, Nadine;
Innovationswirkung der Netzneutralität : statische und dynamische Effekte der Ausgestaltung von Priorisierungsregimen - Ilmenau : Universitätsverlag Ilmenau, 2016 - 1 Online-Ressource (xxii, 353 Seiten).
Technische Universität Ilmenau, Dissertation 2015

In: Ilmenau : Universitätsverlag Ilmenau

Regeln zur Netzneutralität werden sowohl in Europa als auch in den USA intensiv diskutiert. Die Arbeit untersucht die ökonomischen Aspekte möglicher Priorisierungsregimen. Basierend auf Erkenntnissen der Theorie der zweiseitigen Märkte und der Industrieökonomik werden allgemeine Aussagen zu möglichen Regulierungsansätzen entwickelt, und es wird gezeigt, welche Implikationen sie für die innerhalb der theoretischen Literatur verwendeten Netzneutralitätsoperationalisierungen besitzen. Ein summarischer Überblick über die vorhandenen Modelle dient zur Herleitung von Folgerungen für eine angemessene Regulierung. Innovationspolitischen Aspekte des Themas werden gesondert untersucht. Die Autorin differenziert zwischen der Wirkung der Netzneutralität auf Innovationsanreize und Innovationsfähigkeit der einzelnen Marktteilnehmer und den einzelnen Innovationsphasen.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2015000652
Probstmeyer, Kristin;
Gendersensibilität von Lehrveranstaltungen des ingenieurwissenschaftlichen Grundlagenstudiums : Voraussetzungen, Umsetzung und Evaluation von Vorlesungen an der Technischen Universität Ilmenau - Ilmenau : Universitätsverlag Ilmenau, 2016 - 202, XLIV Seiten. . - (Kommunikationswissenschaft interdisziplinär. - 4)
Technische Universität Ilmenau, Dissertation 2015

ISBN 3863601408 = 978-3-86360-140-9

In Anbindung an das Thüringer Verbundprojekt Gender in der akademischen Lehre (2009 bis 2012) wurde im Rahmen der vorliegenden Arbeit eine erste Bestandsaufnahme zur Gendersensibilität von Vorlesungen des ingenieurwissenschaftlichen Grundlagenstudiums der Technischen Universität Ilmenau mit dem Ziel der Verbesserung durchgeführt. Anhand von drei empirischen Teilstudien (Teilstudie A: Sekundäranalyse der Lehrveranstaltungsevaluation des Qualitätsmanagements mit 1.591 Studierenden; Teilstudie B: Primäranalyse einer quantitativen Studierendenbefragung mit 517 Studierenden; Teilstudie C: einer qualitativen Lehrveranstaltungsbegleitung mit 12 Vorlesungen) konnte im Rahmen eines Mehrmethodendesigns verdeutlicht werden, dass (1) die bisherigen Lehrveranstaltungsevaluationen der TU Ilmenau gendersensible Lehre nur unzureichend erfassen, (2) sich die Lehr- und Lernbedürfnisse von Studierenden in stärkerem Maße nach Fachkultur als nach Geschlecht unterscheiden, (3) Lehrende in ihren Vorlesungen bereits gendersensibel agieren, dies jedoch als Anspruch an eine gute Lehre und in Abgrenzung zur gendersensiblen Lehre tun, (4) sich die im Rahmen der Arbeit konzipierten Didaktik-Bausteine zur Gestaltung einer gendersensiblen Lehre in den Ingenieurwissenschaften (Gendertoolbox) als praxistauglich erweisen.



TEST4http://www.gbv.de/dms/ilmenau/toc/863457363.PDF
Reich, René;
Möglichkeiten und Grenzen bei der Auslegung von Schraubendruckfedern auf Basis von Umlaufbiegeprüfungen - Ilmenau : Universitätsverlag Ilmenau, 2016 - XXII, 179 Seiten. . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - 26)
Technische Universität Ilmenau, Dissertation 2016

ISBN 3863601394 = 978-3-86360-139-3

Im Rahmen dieser Arbeit wird die Fragestellung bearbeitet, inwiefern zeit- und kostenintensive Dauerschwingversuche am Bauteil Schraubendruckfeder durch zeit- und kostengünstigere dynamische Versuche am Federausgangsmaterial Draht in Form von Umlaufbiegeprüfungen substituiert werden können. In diesem Zusammenhang werden Methoden zur Übertragung von Biegewechselfestigkeitswerten des Drahtes auf Torsionsschwellfestigkeitswerte des zur Schraubendruckfeder gewundenen Drahtes gesucht und hinsichtlich ihrer Ergebnisqualität diskutiert. Um eine entsprechende Datenbasis für die Entwicklung von Methoden zur Übertragung zu generieren, werden dynamische Versuche an präparierten ölschlussvergüteten Drähten in Form von Umlaufbiegeprüfungen, Torsionswechselprüfungen und Torsionsschwellprüfungen sowie Dauerschwingversuche an aus diesen Drähten hergestellten Schraubendruckfedern durchgeführt. Ergänzt werden diese dynamischen Versuche durch Härtemessungen, Eigenspannungsmessungen und Bruchanalysen an gebrochenen Proben und Bauteilen. Als Ergebnis dieser Arbeit werden auf Basis der durchgeführten Untersuchungen Methoden zur Übertragung von zulässigen Spannungsamplituden und bruchmechanischen Kennwerten aus Umlaufbiegeprüfungen auf Schraubendruckfedern abgeleitet. Die abgeleiteten Methoden beinhalten eine Übertragung der Kennwerte aus Umlaufbiegeprüfung auf wechselnde Torsion, die Übertragung von wechselnder Torsion auf schwellende Torsion sowie die Übertragung von Kennwerten des Drahtes auf die der Schraubendruckfedern. Die aus Umlaufbiegeprüfungen an Drähten berechneten zulässigen Spannungsamplituden liegen im Schwingspielzahlbereich zwischen 106 und 107 zwischen 85 und 97% der direkt durch Dauerschwingversuche an kugelgestrahlten Schraubendruckfedern abgeprüften zulässigen Spannungsamplituden. Ähnliche Genauigkeiten wurden auch für kugelgestrahlte Federn aus patentiert gezogenem Draht festgestellt. Darüber hinaus werden unter Verwendung statistischer Methoden und Rechenansätze zur Bestimmung des hochbelasteten Werkstoffvolumens Zusammenhänge abgeleitet, mit deren Hilfe auslegungsrelevante Einschlussgrößen der jeweiligen Schraubendruckfeder ermittelt werden können. Zusätzlich werden Rechenansätze entwickelt, mit deren Hilfe auf der Seite der zulässigen Spannungen eine Berücksichtigung der verschiedenen Größeneinflüsse bei geometrisch unterschiedlichen Schraubendruckfedern erfolgen kann.



TEST4http://www.gbv.de/dms/ilmenau/abs/863103448reich.txt
Patschger, Andreas; Schaaf, Peter; Bliedtner, Jens
Grundlegende Untersuchungen zum Prozessverständnis des Laserstrahl-Mikroschweißens von metallischen Folien - Ilmenau : Universitätsbibliothek, 2016 - 1 Online-Ressource (243 Seiten, 14.39 MB). . - (Fertigungstechnik - aus den Grundlagen für die Anwendung : Schriften aus der Ilmenauer Fertigungstechnik. - Band 3)
Technische Universität Ilmenau, Dissertation 2016

Für die prozesssichere Anwendung des Laserstrahl-Mikroschweißens im industriellen Umfeld ist die Kenntnis des Prozesses von immanenter Bedeutung. Daher wird in vorliegender Arbeit der Laserstrahl-Mikroschweißprozess anhand von metallischen Folien systematisch charakterisiert. Während des Laserstrahl-Mikroschweißens von metallischen Folien beeinträchtigen der thermisch induzierte Verzug und die daraus resultierende Spaltbildung den reproduzierbaren Schweißprozess. Der freie, unbehinderte Verzug steigt exponentiell mit sinkender Materialstärke an. Daher muss der Verzug durch Maßnahmen der Prozessführung und durch eine optimierte Spannvorrichtung minimiert werden. Dafür werden die Einflüsse auf den Verzug und die korrespondierenden Temperaturfelder untersucht und Regeln für die verzugsarme Bearbeitung abgeleitet. Diese betreffen die Gestaltung des Schweißregimes, die Wahl von Fokusdurchmesser und Péclet-Zahl für den Schweißprozess sowie das eingesetzte Strahlprofil. Zusätzlich erreicht ein neuartiges Spannkonzept für metallische Folien einen minimierten Verzug zwischen den Fügepartnern. Aufgrund von prozessbedingten Schwankungen und äußeren Einflussfaktoren variiert die Schweißnahttiefe und kann zu ungenügender Anbindung der Fügepartner führen. Daher sind Durchschweißungen für das prozesssichere Mikroschweißen notwendig. Das Prozessfenster für Durchschweißungen in Abhängigkeit von der Leistung und von der Vorschubgeschwindigkeit hat daher eine große Bedeutung für die Prozessführung. Das Prozessfenster wird durch die Prozessgrenzen bestimmt, welche in Abhängigkeit vom Aspektverhältnis und von der bezogenen Leistung beschrieben werden können. Ein weiterer prozesslimitierender Einfluss ergibt sich durch den Humping-Effekt, der den Anbindungsquerschnitt und die Festigkeit der Schweißverbindung beeinträchtigt. Basierend auf dem Modell der Rayleigh-Plateau-Instabilität kann durch das Verhältnis von Schmelzbadlänge zu Fokusdurchmesser der Eintritt des Humping-Effekts abgeschätzt werden. Der Vergleich von verschiedenen hochlegierten Stählen zeigt, dass sich die gewonnen Ergebnisse im Mikroschweißen auf die untersuchten Stähle übertragen lässt. Während der Bearbeitung der ergänzend charakterisierten Titan- und Aluminiumwerkstoffe lassen sich die gleichen Prozessphänomene im Mikroschweißprozess beobachten, die aufgrund der differierenden thermomechanischen Eigenschaften bei anderen Werten der Prozessgrößen auftreten.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2016000193
Patschger, Andreas;
Grundlegende Untersuchungen zum Prozessverständnis des Laserstrahl-Mikroschweißens von metallischen Folien - Ilmenau : Universitätsverlag Ilmenau, 2016 - 243 Seiten. . - (Fertigungstechnik - aus den Grundlagen für die Anwendung. - Band 3)
Technische Universität Ilmenau, Dissertation 2016

ISBN 3-86360-136-X

Für die prozesssichere Anwendung des Laserstrahl-Mikroschweißens im industriellen Umfeld ist die Kenntnis des Prozesses von immanenter Bedeutung. Daher wird in vorliegender Arbeit der Laserstrahl-Mikroschweißprozess anhand von metallischen Folien systematisch charakterisiert. Während des Laserstrahl-Mikroschweißens von metallischen Folien beeinträchtigen der thermisch induzierte Verzug und die daraus resultierende Spaltbildung den reproduzierbaren Schweißprozess. Der freie, unbehinderte Verzug steigt exponentiell mit sinkender Materialstärke an. Daher muss der Verzug durch Maßnahmen der Prozessführung und durch eine optimierte Spannvorrichtung minimiert werden. Dafür werden die Einflüsse auf den Verzug und die korrespondierenden Temperaturfelder untersucht und Regeln für die verzugsarme Bearbeitung abgeleitet. Diese betreffen die Gestaltung des Schweißregimes, die Wahl von Fokusdurchmesser und Péclet-Zahl für den Schweißprozess sowie das eingesetzte Strahlprofil. Zusätzlich erreicht ein neuartiges Spannkonzept für metallische Folien einen minimierten Verzug zwischen den Fügepartnern. Aufgrund von prozessbedingten Schwankungen und äußeren Einflussfaktoren variiert die Schweißnahttiefe und kann zu ungenügender Anbindung der Fügepartner führen. Daher sind Durchschweißungen für das prozesssichere Mikroschweißen notwendig. Das Prozessfenster für Durchschweißungen in Abhängigkeit von der Leistung und von der Vorschubgeschwindigkeit hat daher eine große Bedeutung für die Prozessführung. Das Prozessfenster wird durch die Prozessgrenzen bestimmt, welche in Abhängigkeit vom Aspektverhältnis und von der bezogenen Leistung beschrieben werden können. Ein weiterer prozesslimitierender Einfluss ergibt sich durch den Humping-Effekt, der den Anbindungsquerschnitt und die Festigkeit der Schweißverbindung beeinträchtigt. Basierend auf dem Modell der Rayleigh-Plateau-Instabilität kann durch das Verhältnis von Schmelzbadlänge zu Fokusdurchmesser der Eintritt des Humping-Effekts abgeschätzt werden. Der Vergleich von verschiedenen hochlegierten Stählen zeigt, dass sich die gewonnen Ergebnisse im Mikroschweißen auf die untersuchten Stähle übertragen lässt. Während der Bearbeitung der ergänzend charakterisierten Titan- und Aluminiumwerkstoffe lassen sich die gleichen Prozessphänomene im Mikroschweißprozess beobachten, die aufgrund der differierenden thermomechanischen Eigenschaften bei anderen Werten der Prozessgrößen auftreten.



Küster, Markus Gerd Heinz;
Einfluss von Toleranzen auf das Betriebsverhalten von elektromagnetischen Ventilen - Ilmenau : Universitätsverlag Ilmenau, 2016 - XV, 159 Seiten.
Technische Universität Ilmenau, Dissertation 2015

ISBN 3863601319 = 978-3-86360-131-7

Die vorliegende Arbeit knüpft an die aktuellen Forderungen aus Wirtschaft und Industrie nach erhöhter Zuverlässigkeit und Qualität in der Fertigung von elektromagnetischen Ventilen unter zunehmenden Kostengesichtspunkten an. Toleranzen, die bei der Produktion von elektromagnetischen Ventilen auftreten können, werden analysiert, klassifiziert und Wege werden aufgezeigt, wie diese in der Auslegungsphase zu berücksichtigen sind. Ein besonderes Augenmerk liegt auf den Lagetoleranzen, die an Topfmagneten mit radialen Flussübertritten zu Querkräften führen. Es werden verschiedene Berechnungsmethoden untersucht und mit Messergebnissen verglichen. Verschiedene stochastische Verfahren und aktuelle Berechnungsmöglichkeiten werden vorgestellt und zunächst an einfachen Modellen angewendet. Das Zusammenspiel von variierenden magnetischen und geometrischen Eigenschaften wird beispielhaft an einem ausgewählten polarisierten Aktor mit Hilfe der Netzwerkmethode betrachtet. Aufbauend auf dem Modell wird der Einfluss von Eingangsverteilungen und unterschiedlichen Justageprozessen ermittelt. Abschließend wird die simulierte Fertigung mit einer Musterfertigung verglichen. Anhand der gewonnenen Erkenntnisse wird an einem Topfmagnet eine Methodik aufgezeigt, welche die Berücksichtigung von Toleranzen im Entwurfsprozess ermöglicht. Es wird der Einfluss des Auslegungspunktes auf die Sensitivität des Topfmagneten gezeigt. Für die unterschiedlich gewählten Auslegungspunkte wird eine Kosten-Toleranz-Optimierung durchgeführt. Damit die Toleranzen im Entwurfsprozess mit einbezogen werden können, wird ein Algorithmus implementiert. Die Optimierung bietet dem Konstrukteur Unterstützung bei der Festlegung von Toleranzen und ein Hilfsmittel zur aktiven Bewertung und Reduktion von Kosten im Entwurfsprozess. Die reale Serienproduktion wird in den virtuellen Entwurf miteinbezogen. Bereits in einem sehr frühen Stadium der Entwicklung ist es möglich, die Robustheit des Systems in Hinsicht auf eine Serienfertigung vorherzusagen. Der gesamte Entwicklungsprozess wird somit von Beginn an effektiver und effizienter. Die aus der virtuellen Entwicklung stammenden Verteilungsmaße können für Prozessüberlegungen genutzt werden. Die Integration des Fertigungsprozesses bzw. der Fertigungsstrategie kann in einer früheren Entwicklungsphase stattfinden.



TEST4http://www.gbv.de/dms/ilmenau/toc/860051226.PDF
Reinhardt, Dominik;
Virtualisierung eingebetteter Echtzeitsysteme im Mehrkernbetrieb zur Partitionierung sicherheitsrelevanter Fahrzeugsoftware - Ilmenau : Universitätsverlag Ilmenau, 2016 - xiv, 194 Seiten.
Technische Universität Ilmenau, Dissertation 2016

Dissertation erschienen unter dem Titel: Virtualisierung eingebetteter Echtzeitsysteme zur Partitionierung sicherheitsrelevanter Software im Automobil

Die Automobilindustrie verzeichnete innerhalb der letzten Jahre einen enormen Zuwachs an neuen elektrischen und elektronischen Fahrzeugfunktionen. Dies führt gleichzeitig zu einer Mehrung der Softwareumfänge in eingebetteten Systemen. Nicht-funktionale Anforderungen wie Sicherheit, Performanz, Verlässlichkeit und Wartbarkeit stellen zusätzliche Herausforderungen an die Entwicklung zukünftiger Fahrzeugsysteme dar. Um die Anzahl der Steuergeräte zu reduzieren, sollen Fahrzeugfunktionen auf gemeinsamen Integrationssteuergeräten konsolidiert werden. Systemvirtualisierung kann hierfür eine zielführende Herangehensweise darstellen, um die Softwaremigration auf Integrationssteuergeräte zu erleichtern und gleichzeitig den geforderten Isolationsansprüchen neuer Sicherheitsstandards gerecht zu werden. In dieser Arbeit wird die Partitionierung sicherheitsrelevanter Fahrzeugfunktionen auf einer gemeinsamen Hardwareplattform fokussiert. Unter Verwendung von Methoden zur Bewertung sozialer Netzwerke wird eine graphenbasierte Herangehensweise vorgestellt, um die Partitionierbarkeit von Softwarenetzen mit sicherheitsrelevanten Anteilen abschätzen zu können. Zur Realisierung der Systempartitionierung wird eine Methodik zur Auswahl der geeignetsten Kernelarchitektur eingeführt. Dabei werden aus gewählten nicht-funktionalen Eigenschaften potentielle technische Lösungskonzepte innerhalb einer Baumstruktur abgeleitet und ingenieurmäßig bewertet. Darauf aufbauend wird ein Hypervisor für eingebettete Echtzeitsysteme der Firma ETAS Ltd. evaluiert. Um die Kosten einer zusätzlichen Hypervisorschicht beurteilen zu können, werden in diesem Rahmen Laufzeitmessungen durchgeführt. Somit werden die Auswirkungen einer zusätzlichen Virtualisierungsschicht auf Fahrzeugsoftwaresysteme zur Erfüllung ausgewählter nicht-funktionaler Eigenschaften aufgezeigt. Die Anbindung virtualisierter Systeme an die Kommunikationsschnittstellen des Hypervisors stellt einen weiteren Schwerpunkt dar. Virtuelle Steuergeräte tauschen sich weiterhin über bereits implementierte Kommunikationskanäle aus und greifen auf gemeinsame Hardwareressourcen zu. Es wird somit ein Konzept eingeführt, um sicherheitsrelevante Anteile des AUTOSAR Microcontroller Abstraction Layers zu entkoppeln. Der Hypervisor selbst wird hierzu an relevanten Stellen erweitert und ein verlässliches Kommunikationskonzept implementiert. Ein Demonstratoraufbau, zur Konsolidierung von produktiver Fahrzeugsoftware auf einer gemeinsamen Hardwareplattform, finalisiert die Arbeit. Hierfür werden unabhängige Softwarestände paravirtualisiert. Als Resümee der Arbeit erhält der Leser sowohl einen technischen Überblick über den Mehrwert als auch der Kosten paravirtualisierter Fahrzeugplattformen, welche auf Kleinststeuergeräten integriert sind.



TEST4http://www.gbv.de/dms/ilmenau/toc/859802647.PDF
Neute, Nadine;
Innovationswirkung der Netzneutralität : statische und dynamische Effekte der Ausgestaltung von Priorisierungsregimen - Ilmenau : Universitätsverlag Ilmenau, 2016 - xxii, 353 Seiten.
Technische Universität Ilmenau, Dissertation 2015

ISBN 978-3-86360-134-8

Regeln zur Netzneutralität werden sowohl in Europa als auch in den USA intensiv diskutiert. Die Arbeit untersucht die ökonomischen Aspekte möglicher Priorisierungsregimen. Basierend auf Erkenntnissen der Theorie der zweiseitigen Märkte und der Industrieökonomik werden allgemeine Aussagen zu möglichen Regulierungsansätzen entwickelt, und es wird gezeigt, welche Implikationen sie für die innerhalb der theoretischen Literatur verwendeten Netzneutralitätsoperationalisierungen besitzen. Ein summarischer Überblick über die vorhandenen Modelle dient zur Herleitung von Folgerungen für eine angemessene Regulierung. Innovationspolitischen Aspekte des Themas werden gesondert untersucht. Die Autorin differenziert zwischen der Wirkung der Netzneutralität auf Innovationsanreize und Innovationsfähigkeit der einzelnen Marktteilnehmer und den einzelnen Innovationsphasen.



Schober, Fabian;
Elektrische Leitfähigkeit und dielektrisches Verhalten von Pressspan in HGÜ-Isoliersystemen - Ilmenau : Universitätsverlag Ilmenau, 2016 - 1 Online-Ressource (XII, 155 Seiten). . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - Band 16)
Technische Universität Ilmenau, Dissertation 2016

Die Hochspannungsgleichstromübertragung (HGÜ) wird als effektive Übertragungsart für große Leistungen immer wichtiger. Die Isoliersysteme von HGÜ-Betriebsmitteln werden sowohl mit Wechsel- als auch mit Gleichspannung beansprucht. Neben den Permittivitäten müssen dann auch die elektrischen Leitfähigkeiten der Materialien berücksichtigt werden. Das Isoliersystem von Konvertertransformatoren enthält ölimprägnierten Pressspan, welcher im Fokus dieser Arbeit liegt. Bisher bestand ein erhebliches Verständnisdefizit bezüglich der elektrischen Leitfähigkeit und des dielektrischen Materialverhaltens von Pressspan. Besonders die dominanten Leitungsprozesse sind bislang nicht ausreichend verstanden. In dieser Arbeit werden die Leitungsprozesse Ionen-, Elektronen-Loch- und Protonenleitung am Pressspan diskutiert, sowie die relevanten Polarisationsmechanismen behandelt. Zur Erforschung des Materialverhaltens von Pressspan unter Gleichspannungsbelastung wurde dieser chemisch und physikalisch analysiert. Pressspan setzt sich mikroskopisch größtenteils aus den Komponenten Zellulose, Hemizellulosen und Lignin zusammen, und besteht makroskopisch aus einer Vielzahl von Fasern und Imprägniervolumina. Es wurden interdisziplinäre Messmethoden wie die UV/Vis-Spektroskopie und die Rasterelektronenmikroskopie angewandt, um relevante Materialinformationen zu erhalten und geometrische Verhältnisse im Pressspan abzuschätzen. Um einen Bezug zwischen der Struktur und den elektrischen Eigenschaften zu schaffen, wurden elektrische Leitfähigkeiten mittels Sprungantwortmessungen im Zeitbereich erfasst. Die im Rahmen dieser Arbeit untersuchten Einflussgrößen auf die elektrische Leitfähigkeit wurden in die anwendungstechnischen Parameter Wassergehalt, Temperatur und Feldstärke, in den mikroskopischen Parameter Ligningehalt sowie in die makroskopischen Parameter Dichte, Faserorientierung und imprägnierendes Fluid unterteilt. Der Wassergehalt hat den größten Einfluss auf das Materialverhalten von Pressspan, gefolgt von der Temperatur. Von nachgeordneter Bedeutung sind der Ligningehalt des Pressspans und dessen Dichte, die während der Zellstoff- bzw. Pressspanherstellung verändert werden können, woraus sich geänderte Leitfähigkeiten ergeben. Die Faserorientierung hingegen ist im Transformator kaum beeinflussbar. Ebenso kann sich die Feldstärkebelastung je nach Last und Leitfähigkeitsverhältnis von Öl zu Pressspan ändern. Die Quantifizierung und das Verständnis der Einflussfaktoren auf das elektrische Verhalten von Pressspan stellen den ersten Schritt da, um in Zukunft Materialien mit definierten Leitfähigkeiten und erwünschtem dielektrischen Verhalten für HGÜ-Betriebsmittel herzustellen.



http://www.db-thueringen.de/servlets/DocumentServlet?id=27234
Schober, Fabian;
Elektrische Leitfähigkeit und dielektrisches Verhalten von Pressspan in HGÜ-Isoliersystemen - Ilmenau : Universitätsverlag Ilmenau, 2016 - XII, 155 Seiten. . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA). - Band 16)
Technische Universität Ilmenau, Dissertation 2016

Die Hochspannungsgleichstromübertragung (HGÜ) wird als effektive Übertragungsart für große Leistungen immer wichtiger. Die Isoliersysteme von HGÜ-Betriebsmitteln werden sowohl mit Wechsel- als auch mit Gleichspannung beansprucht. Neben den Permittivitäten müssen dann auch die elektrischen Leitfähigkeiten der Materialien berücksichtigt werden. Das Isoliersystem von Konvertertransformatoren enthält ölimprägnierten Pressspan, welcher im Fokus dieser Arbeit liegt. Bisher bestand ein erhebliches Verständnisdefizit bezüglich der elektrischen Leitfähigkeit und des dielektrischen Materialverhaltens von Pressspan. Besonders die dominanten Leitungsprozesse sind bislang nicht ausreichend verstanden. In dieser Arbeit werden die Leitungsprozesse Ionen-, Elektronen-Loch- und Protonenleitung am Pressspan diskutiert, sowie die relevanten Polarisationsmechanismen behandelt. Zur Erforschung des Materialverhaltens von Pressspan unter Gleichspannungsbelastung wurde dieser chemisch und physikalisch analysiert. Pressspan setzt sich mikroskopisch größtenteils aus den Komponenten Zellulose, Hemizellulosen und Lignin zusammen, und besteht makroskopisch aus einer Vielzahl von Fasern und Imprägniervolumina. Es wurden interdisziplinäre Messmethoden wie die UV/Vis-Spektroskopie und die Rasterelektronenmikroskopie angewandt, um relevante Materialinformationen zu erhalten und geometrische Verhältnisse im Pressspan abzuschätzen. Um einen Bezug zwischen der Struktur und den elektrischen Eigenschaften zu schaffen, wurden elektrische Leitfähigkeiten mittels Sprungantwortmessungen im Zeitbereich erfasst. Die im Rahmen dieser Arbeit untersuchten Einflussgrößen auf die elektrische Leitfähigkeit wurden in die anwendungstechnischen Parameter Wassergehalt, Temperatur und Feldstärke, in den mikroskopischen Parameter Ligningehalt sowie in die makroskopischen Parameter Dichte, Faserorientierung und imprägnierendes Fluid unterteilt. Der Wassergehalt hat den größten Einfluss auf das Materialverhalten von Pressspan, gefolgt von der Temperatur. Von nachgeordneter Bedeutung sind der Ligningehalt des Pressspans und dessen Dichte, die während der Zellstoff- bzw. Pressspanherstellung verändert werden können, woraus sich geänderte Leitfähigkeiten ergeben. Die Faserorientierung hingegen ist im Transformator kaum beeinflussbar. Ebenso kann sich die Feldstärkebelastung je nach Last und Leitfähigkeitsverhältnis von Öl zu Pressspan ändern. Die Quantifizierung und das Verständnis der Einflussfaktoren auf das elektrische Verhalten von Pressspan stellen den ersten Schritt da, um in Zukunft Materialien mit definierten Leitfähigkeiten und erwünschtem dielektrischen Verhalten für HGÜ-Betriebsmittel herzustellen.



TEST4http://www.gbv.de/dms/ilmenau/abs/853484996schob.txt
Heidler, Nils;
Untersuchungen zylindrischer Gasführungselemente für Hochvakuumanwendungen - Ilmenau : Universitätsverlag Ilmenau, 2016 - 1 Online-Ressource (XXIV, 180 Seiten). . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - Band 25)
Technische Universität Ilmenau, Dissertation 2015

Eine hochgenaue, stabile Positionierung innerhalb einer Vakuumumgebung kann mit Hilfe von aerostatischen Führungselementen realisiert werden. Um das Abströmen des Speisegases in die Vakuumumgebung zu minimieren, wird im Stand der Technik ein mehrstufiges berührungsloses Dicht- und Absaugsystem verwendet. Die Evakuierung der ersten Absaugstufe hat eine Reduzierung des direkten Umgebungsdruckes der Gasführungselemente und somit eine Beeinflussung der Eigenschaften zur Folge. Die Arbeit präsentiert experimentelle und theoretische Ergebnisse zu Untersuchungen an aerostatischen, zylindrischen Führungselementen mit poröser Drosselschicht für Hochvakuumanwendungen. Ziel der Arbeit ist es, den Einfluss des Umgebungsdruckes, des Speisegasdruckes und der konzentrischen Spalthöhe auf die statischen und dynamischen Eigenschaften der Führungselemente zu ermitteln. Die Eignung der Gasführungselemente für Hochvakuumanwendungen soll nachgewiesen werden. Ausgehend von der theoretischen Beschreibung der Druckverteilung innerhalb des Lagerspaltes werden ein vereinfachtes und ein FEM-basiertes numerisches Strömungsmodell entworfen. Mit den Modellen können die statischen Eigenschaften (Tragkraft, statische Steifigkeit, Kippsteifigkeit, Gasverbrauch) eines Gasführungselementes ermittelt werden. Die dynamischen Eigenschaften beziehen sich auf die Dämpfungsparameter und die Stabilität der Elemente gegenüber selbsterregten Schwingungen. Das Dämpfungsverhalten der Gasführungselemente wird aus der Systemantwort auf eine sprungförmige Anregung abgeleitet. Für konstante absolute Speisegasdrücke steigen sowohl Tragkraft, statische Steifigkeit als auch Gasverbrauch durch den Übergang in eine Vakuumumgebung an. Die Anstiege können durch Berechnungen mit den vorgestellten Modellen gut wiedergegeben werden. Für alle durchgeführten Untersuchungen treten keine selbsterregten Schwingungen auf, was durch ein Stabilitätskriterium auf Basis von statischer und dynamischer Steifigkeit unterlegt wird. Die Dämpfungsuntersuchungen ergeben experimentell die Überlagerung einer niederfrequenten, sehr stark gedämpften Schwingung und einer hochfrequenten, schwach gedämpften Schwingung. Die Schwingungen sind für Auslenkungsamplituden von bis zu 2,5 [my]m nach ca. 70 ms abgeklungen. Die Ergebnisse der Arbeit belegen die Tauglichkeit von Gasführungselementen für den Hochvakuumeinsatz. Durch die Ableitung von Richtlinien wird die Auslegung von stabilen Führungselementen mit guten Trageigenschaften und geringem Gasverbrauch unterstützt.



http://www.db-thueringen.de/servlets/DocumentServlet?id=27178
Heidler, Nils;
Untersuchungen zylindrischer Gasführungselemente für Hochvakuumanwendungen - Ilmenau : Universitätsverlag Ilmenau, 2016 - XXIV, 180 Seiten. . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - Band 25)
Technische Universität Ilmenau, Dissertation 2015

Eine hochgenaue, stabile Positionierung innerhalb einer Vakuumumgebung kann mit Hilfe von aerostatischen Führungselementen realisiert werden. Um das Abströmen des Speisegases in die Vakuumumgebung zu minimieren, wird im Stand der Technik ein mehrstufiges berührungsloses Dicht- und Absaugsystem verwendet. Die Evakuierung der ersten Absaugstufe hat eine Reduzierung des direkten Umgebungsdruckes der Gasführungselemente und somit eine Beeinflussung der Eigenschaften zur Folge. Die Arbeit präsentiert experimentelle und theoretische Ergebnisse zu Untersuchungen an aerostatischen, zylindrischen Führungselementen mit poröser Drosselschicht für Hochvakuumanwendungen. Ziel der Arbeit ist es, den Einfluss des Umgebungsdruckes, des Speisegasdruckes und der konzentrischen Spalthöhe auf die statischen und dynamischen Eigenschaften der Führungselemente zu ermitteln. Die Eignung der Gasführungselemente für Hochvakuumanwendungen soll nachgewiesen werden. Ausgehend von der theoretischen Beschreibung der Druckverteilung innerhalb des Lagerspaltes werden ein vereinfachtes und ein FEM-basiertes numerisches Strömungsmodell entworfen. Mit den Modellen können die statischen Eigenschaften (Tragkraft, statische Steifigkeit, Kippsteifigkeit, Gasverbrauch) eines Gasführungselementes ermittelt werden. Die dynamischen Eigenschaften beziehen sich auf die Dämpfungsparameter und die Stabilität der Elemente gegenüber selbsterregten Schwingungen. Das Dämpfungsverhalten der Gasführungselemente wird aus der Systemantwort auf eine sprungförmige Anregung abgeleitet. Für konstante absolute Speisegasdrücke steigen sowohl Tragkraft, statische Steifigkeit als auch Gasverbrauch durch den Übergang in eine Vakuumumgebung an. Die Anstiege können durch Berechnungen mit den vorgestellten Modellen gut wiedergegeben werden. Für alle durchgeführten Untersuchungen treten keine selbsterregten Schwingungen auf, was durch ein Stabilitätskriterium auf Basis von statischer und dynamischer Steifigkeit unterlegt wird. Die Dämpfungsuntersuchungen ergeben experimentell die Überlagerung einer niederfrequenten, sehr stark gedämpften Schwingung und einer hochfrequenten, schwach gedämpften Schwingung. Die Schwingungen sind für Auslenkungsamplituden von bis zu 2,5 [my]m nach ca. 70 ms abgeklungen. Die Ergebnisse der Arbeit belegen die Tauglichkeit von Gasführungselementen für den Hochvakuumeinsatz. Durch die Ableitung von Richtlinien wird die Auslegung von stabilen Führungselementen mit guten Trageigenschaften und geringem Gasverbrauch unterstützt.



TEST4http://www.gbv.de/dms/ilmenau/abs/853197245heidl.txt
Nissen, Volker; Stelzer, Dirk; Straßburger, Steffen; Fischer, Daniel
Multikonferenz Wirtschaftsinformatik (MKWI) 2016 : Technische Universität Ilmenau, 09. - 11. März 2016 - Ilmenau : Universitätsverlag Ilmenau
http://www.db-thueringen.de/servlets/DocumentServlet?id=27211
Nissen, Volker; Stelzer, Dirk; Straßburger, Steffen; Fischer, Daniel
. - Multikonferenz Wirtschaftsinformatik (MKWI) 2016 ; Band 3 - Ilmenau : Universitätsverlag Ilmenau - Seite 1269-1858. ISBN 978-3-86360-132-4

Nissen, Volker; Stelzer, Dirk; Straßburger, Steffen; Fischer, Daniel
. - Multikonferenz Wirtschaftsinformatik (MKWI) 2016 ; Band 2 - Ilmenau : Universitätsverlag Ilmenau - Seite 615-1264. ISBN 978-3-86360-132-4

Nissen, Volker; Stelzer, Dirk; Straßburger, Steffen; Fischer, Daniel
. - Multikonferenz Wirtschaftsinformatik (MKWI) 2016 ; Band 1 - Ilmenau : Universitätsverlag Ilmenau - 610 Seiten. ISBN 978-3-86360-132-4

Hoppe, Imke;
Klimaschutz als Medienwirkung : eine kommunikationswissenschaftliche Studie zur Konzeption, Rezeption und Wirkung eines Online-Spiels zum Stromsparen - Ilmenau : Universitätsverlag Ilmenau, 2016 - 276 Seiten. . - (Nachhaltigkeits-, Energie- und Umweltkommunikation. - Band 3)
Technische Universität Ilmenau, Dissertation 2014

ISBN 3863601262 = 978-3-86360-126-3
Literaturverzeichnis: Seite 241-263

Um die CO2-Reduktionsziele der europäischen Ländern zu erreichen, bedarf es neben politischen, wirtschaftlichen und technischen Anstrengungen auch der Veränderung individueller Konsumgewohnheiten. Aus der Perspektive der Rezeptions- und Wirkungsforschung stellt sich die Frage, wie mediale Kommunikation dazu beitragen kann, dass Menschen klimabewusster handeln. Die bisherigen Ergebnisse zeigen, dass viele der typischen Darstellungsformen des Klimawandels - wie Katastrophenbilder - eher kontraproduktiv wirken. Die vorliegende Arbeit widmet sich deswegen der Frage, welche Medieneigenschaften klimaschonendes Handeln positiv unterstützen. Den theoretischen Ausgangspunkt bildet das Forschungsfeld Nachhaltigkeitskommunikation. Der hier verortete Ansatz der Handlungsorientierung nimmt an, dass Menschen in Lernsituationen selbst aktiv handeln müssen, damit sie das Gelernte in ihren Alltag übertragen. Handeln wird durch fünf Merkmalen charakterisiert: Intentionalität, Erstellen eines Produktes, Handlungsspielraum, Bewusstheit des Handelns und der Prozesscharakter. Hieraus werden Gestaltungsempfehlungen für ein Online-Spiel formuliert und Variablen für die empirische Studie abgeleitet. Als zweite theoretische Säule wird das Forschungsfeld "Interactive Storytelling" erschlossen und das dramentheoretische Modell von Lessing ausgewählt. Um das entwickelte Variablenmodell zu testen, wird das Online-Spiel "RED - Renewable Energy Drama" (ca. 10 Spielminuten) konzipiert. Es thematisiert das Stromsparen im eigenen Haushalt. Eine quantitative Online-Befragung (n=287) prüft die theoretischen Annahmen, ergänzend werden Interaktionsdaten aus dem Spielverlauf erfasst. Die Ergebnisse der Studie zeigen, dass ein hoher Alltagsbezug der entscheidende Faktor ist. Stehen verschiedene, alltagsnahe Möglichkeiten zur Verfügung, um eine Aufgabe zu lösen (Handlungsspielraum), dann denken die Spieler stärker darüber nach, wie sie diese Aufgabe üblicherweise zuhause lösen (Bewusstheit). Dies wiederum hat einen positiven Effekt auf alle Dimension von Handlungskompetenz: die Spielenden haben den Eindruck, alltagstaugliche Heuristiken zum Stromsparen zu lernen, sich die Bedeutung ihres eigenen Handelns für den Klimaschutz bewusst zu machen und eigene Verhaltensweisen zu reflektieren und/oder zu verändern. Einen ebenso positiven Effekt hat es, wenn das Feedback zu den gelösten Aufgaben als hilfreich bewertet wird, was besonders dann der Fall ist, wenn Verhaltensalternativen miteinander verglichen werden. Auch Spielcharaktere, die ein realistisches Verhalten mit typischen, konfligierenden Gedanken und Gefühle in alltäglichen Entscheidungssituationen zeigen, haben einen positiven Effekt auf die Handlungskompetenz.



TEST4http://www.gbv.de/dms/ilmenau/abs/816878765hoppe.txt
Schlegel, Steffen;
Wahrung der Netzsicherheit durch Nutzung flexibler Lasten am Beispiel des gesteuerten Ladens von Elektrofahrzeugen - Ilmenau : Universitätsverlag Ilmenau, 2016 - 1 Online-Ressource (IX, 135 Seiten). . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA). - Band 15)
Technische Universität Ilmenau, Dissertation 2015

Die Erzeugungsstruktur für elektrische Energie im europäischen Verbundnetz ist geprägt von ökologischen, ökonomischen und sozialen Wandlungsprozessen. Diese Prozesse sind unter anderem an dem Ausbau Erneuerbarer Energien sowie durch den länderspezifischen Ausstieg aus der Kernkraftnutzung erkennbar. Mit der steten Veränderung der Erzeugungsstruktur ändern sich auch die Standorte der Erzeugung. Daraus resultiert eine zunehmende Belastung der elektrischen Netze, welche sich in der Folge vor allem im Anstieg von Gefährdungen der Netzsicherheit bemerkbar macht. Eine Anpassung der Last zur Reduzierung von Netzbelastungen kann ein probates Mittel zur Lösung des Problems darstellen. Insbesondere durch die zukünftige Beeinflussung von Elektrofahrzeugen während des Ladevorgangs kann eine flexible Leistung für den sicheren Betrieb elektrischer Netze zur Verfügung gestellt werden. Diese Arbeit widmet sich der Fragestellung, inwieweit die Nutzung von Elektrofahrzeugen der Wahrung der Netzsicherheit dienen kann. Für die Beantwortung der Fragestellung wird ein Verfahren vorgeschlagen, welches die bisher nicht berücksichtigten Anpassungsoptionen durch Elektrofahrzeuge methodisch bestimmt und in eine mit technologischen Alternativen vergleichbare Beschreibungsform überführt. Weiterhin wird eine innovative Methode zur optimalen Bestimmung der Anpassungsmaßnahmen vorgeschlagen. Dabei findet das (n-1)-Netzsicherheitskriterium zur Beurteilung des Netzbetriebszustandes Anwendung. Zudem wird eine Entkopplung der rechenintensiven Ausfallsimulation von der eigentlichen Optimierung betrachtet. Der zur Optimierung verwendete genetische Optimierungsalgorithmus, welcher den Kern der Methode darstellt, erweist sich als besonders robust für Optimierungsprobleme von Netzen mit hoher Knotenanzahl und einer gemischten Art von Steuerungsvariablen. Zusätzlich können in der Optimierung neben dem Netzsicherheitsproblem beliebige partielle Optimierungsziele formuliert werden. In Bezug auf die wechselnden Anforderungen an die Netzführung, die teilweise im Rahmen der Modellierung nicht vollständig beschreibbar sind, erscheint die damit gegebene Adaptierbarkeit als besonderer Vorteil. Die dargestellte Methode wird, basierend auf stationärer Netzberechnung, an einem realistisch modellierten Höchstspannungsnetz verifiziert. Unter Nutzung der beschriebenen Methoden werden numerische Fallstudien durchgeführt. Als Ergebnis kann festgestellt werden, dass bei entsprechender Anzahl an Elektrofahrzeugen ausreichend flexible Leistung bereit gestellt werden kann, um die andernfalls notwendige Reduzierung der Einspeiseleistung von Erneuerbaren Energien-Anlagen zur Wahrung der Netzsicherheit zu vermeiden.



http://www.db-thueringen.de/servlets/DocumentServlet?id=26954
Schlegel, Steffen;
Wahrung der Netzsicherheit durch Nutzung flexibler Lasten am Beispiel des gesteuerten Ladens von Elektrofahrzeugen - Ilmenau : Universitätsverlag Ilmenau, 2016 - IX, 135 Seiten. . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA). - Band 15)
Technische Universität Ilmenau, Dissertation 2015

Die Erzeugungsstruktur für elektrische Energie im europäischen Verbundnetz ist geprägt von ökologischen, ökonomischen und sozialen Wandlungsprozessen. Diese Prozesse sind unter anderem an dem Ausbau Erneuerbarer Energien sowie durch den länderspezifischen Ausstieg aus der Kernkraftnutzung erkennbar. Mit der steten Veränderung der Erzeugungsstruktur ändern sich auch die Standorte der Erzeugung. Daraus resultiert eine zunehmende Belastung der elektrischen Netze, welche sich in der Folge vor allem im Anstieg von Gefährdungen der Netzsicherheit bemerkbar macht. Eine Anpassung der Last zur Reduzierung von Netzbelastungen kann ein probates Mittel zur Lösung des Problems darstellen. Insbesondere durch die zukünftige Beeinflussung von Elektrofahrzeugen während des Ladevorgangs kann eine flexible Leistung für den sicheren Betrieb elektrischer Netze zur Verfügung gestellt werden. Diese Arbeit widmet sich der Fragestellung, inwieweit die Nutzung von Elektrofahrzeugen der Wahrung der Netzsicherheit dienen kann. Für die Beantwortung der Fragestellung wird ein Verfahren vorgeschlagen, welches die bisher nicht berücksichtigten Anpassungsoptionen durch Elektrofahrzeuge methodisch bestimmt und in eine mit technologischen Alternativen vergleichbare Beschreibungsform überführt. Weiterhin wird eine innovative Methode zur optimalen Bestimmung der Anpassungsmaßnahmen vorgeschlagen. Dabei findet das (n-1)-Netzsicherheitskriterium zur Beurteilung des Netzbetriebszustandes Anwendung. Zudem wird eine Entkopplung der rechenintensiven Ausfallsimulation von der eigentlichen Optimierung betrachtet. Der zur Optimierung verwendete genetische Optimierungsalgorithmus, welcher den Kern der Methode darstellt, erweist sich als besonders robust für Optimierungsprobleme von Netzen mit hoher Knotenanzahl und einer gemischten Art von Steuerungsvariablen. Zusätzlich können in der Optimierung neben dem Netzsicherheitsproblem beliebige partielle Optimierungsziele formuliert werden. In Bezug auf die wechselnden Anforderungen an die Netzführung, die teilweise im Rahmen der Modellierung nicht vollständig beschreibbar sind, erscheint die damit gegebene Adaptierbarkeit als besonderer Vorteil. Die dargestellte Methode wird, basierend auf stationärer Netzberechnung, an einem realistisch modellierten Höchstspannungsnetz verifiziert. Unter Nutzung der beschriebenen Methoden werden numerische Fallstudien durchgeführt. Als Ergebnis kann festgestellt werden, dass bei entsprechender Anzahl an Elektrofahrzeugen ausreichend flexible Leistung bereit gestellt werden kann, um die andernfalls notwendige Reduzierung der Einspeiseleistung von Erneuerbaren Energien-Anlagen zur Wahrung der Netzsicherheit zu vermeiden.



TEST4http://www.gbv.de/dms/ilmenau/abs/848480155schle.txt
Nissen, Volker; Stelzer, Dirk; Straßburger, Steffen; Fischer, Daniel
Multikonferenz Wirtschaftsinformatik (MKWI) 2016 : Technische Universität Ilmenau, 09. - 11. März 2016 - Ilmenau : Universitätsverlag Ilmenau ISBN 3863601327 = 978-3-86360-132-4

TEST4http://d-nb.info/1083023799/04
Huschenbett, Martin;
The model-theoretic complexity of automatic linear orders - Ilmenau : Universitätsverlag Ilmenau, 2016 - 1 Online-Ressource (xiii, 228 Seiten).
Technische Universität Ilmenau, Dissertation 2015

Automatische Strukturen sind auf dem Forschungsgebiet "Logik in der Informatik" seit etwa 15 Jahren ein viel beachtetes Thema. Eine Struktur ist automatisch, wenn ihre Trägermenge, ihre Relationen und ihre Funktionen allesamt durch endliche Automaten auf Wörtern oder Bäumen erkennbar sind. Insbesondere sind derartige Strukturen endlich darstellbar. Die Hauptmotivation zur Untersuchung automatischer Strukturen liegt in der uniformen Entscheidbarkeit ihrer prädikatenlogischen Theorien erster Stufe. In dieser Dissertation untersuchen wir die modelltheoretische Komplexität automatischer linearer Ordnungen bezüglich der zwei Komplexitätsmaße Kondensationsrang und Ramsey-Grad. Der Kondensationsrang einer linearen Ordnung misst ihre Abweichung von der Eigenschaft der Dichtheit durch eine Ordinalzahl. Unsere Hauptergebnisse in diesem Zusammenhang leiten für verschiedene Begriffe von Automatizität optimale obere Schranken für die Kondensationsränge automatischer linearer Ordnungen her. Dabei liegt der Fokus vor allem auf Teilklassen automatischer Strukturen, die die zugrundeliegenden Trägermengen anhand sprachtheoretischer Eigenschaften einschränken. Des Weiteren zeigen wir, dass die Trennlinie zwischen wort- und baumautomatischen verteilten linearen Ordnungen auch vermittels des Kondensationsranges gezogen werden kann. Eine Anwendung dieses Ergebnisses ermöglicht uns eine teilweise Lösung des Isomorphieproblems für baumautomatische Ordinalzahlen. Der Ramsey-Grad einer Ordinalzahl misst ihre modelltheoretische Komplexität mithilfe von Partitionsrelationen aus der kombinatorischen Mengenlehre. Wir untersuchen dieses Konzept sowohl aus rein mengentheoretischer Sicht als auch im Kontext automatischer Strukturen. Im mengentheoretischen Fall zeigen wir, dass alle Ordinalzahlen unterhalb von omega^omega einen endlichen Ramsey-Grad besitzen und geben einen Bereich von Ordinalzahlen oberhalb von omega^omega an, deren Ramsey-Grade unendlich sind. Die Ergebnisse im automatischen Fall sind sehr ähnlich, mit Ausnahme der Tatsache, dass die Ramsey-Grade aller Ordinalzahlen oberhalb von omega^omega unendlich sind. Zu guter Letzt schließen wir diese Dissertation mit dem Beweis einer baumautomatischen Version des Satzes von Ramsey ab.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2015000505
Huschenbett, Martin;
The model-theoretic complexity of automatic linear orders - Ilmenau : Universitätsverlag Ilmenau, 2016 - xiii, 228 Seiten.
Technische Universität Ilmenau, Dissertation 2015

Automatische Strukturen sind auf dem Forschungsgebiet "Logik in der Informatik" seit etwa 15 Jahren ein viel beachtetes Thema. Eine Struktur ist automatisch, wenn ihre Trägermenge, ihre Relationen und ihre Funktionen allesamt durch endliche Automaten auf Wörtern oder Bäumen erkennbar sind. Insbesondere sind derartige Strukturen endlich darstellbar. Die Hauptmotivation zur Untersuchung automatischer Strukturen liegt in der uniformen Entscheidbarkeit ihrer prädikatenlogischen Theorien erster Stufe. In dieser Dissertation untersuchen wir die modelltheoretische Komplexität automatischer linearer Ordnungen bezüglich der zwei Komplexitätsmaße Kondensationsrang und Ramsey-Grad. Der Kondensationsrang einer linearen Ordnung misst ihre Abweichung von der Eigenschaft der Dichtheit durch eine Ordinalzahl. Unsere Hauptergebnisse in diesem Zusammenhang leiten für verschiedene Begriffe von Automatizität optimale obere Schranken für die Kondensationsränge automatischer linearer Ordnungen her. Dabei liegt der Fokus vor allem auf Teilklassen automatischer Strukturen, die die zugrundeliegenden Trägermengen anhand sprachtheoretischer Eigenschaften einschränken. Des Weiteren zeigen wir, dass die Trennlinie zwischen wort- und baumautomatischen verteilten linearen Ordnungen auch vermittels des Kondensationsranges gezogen werden kann. Eine Anwendung dieses Ergebnisses ermöglicht uns eine teilweise Lösung des Isomorphieproblems für baumautomatische Ordinalzahlen. Der Ramsey-Grad einer Ordinalzahl misst ihre modelltheoretische Komplexität mithilfe von Partitionsrelationen aus der kombinatorischen Mengenlehre. Wir untersuchen dieses Konzept sowohl aus rein mengentheoretischer Sicht als auch im Kontext automatischer Strukturen. Im mengentheoretischen Fall zeigen wir, dass alle Ordinalzahlen unterhalb von omega^omega einen endlichen Ramsey-Grad besitzen und geben einen Bereich von Ordinalzahlen oberhalb von omega^omega an, deren Ramsey-Grade unendlich sind. Die Ergebnisse im automatischen Fall sind sehr ähnlich, mit Ausnahme der Tatsache, dass die Ramsey-Grade aller Ordinalzahlen oberhalb von omega^omega unendlich sind. Zu guter Letzt schließen wir diese Dissertation mit dem Beweis einer baumautomatischen Version des Satzes von Ramsey ab.



TEST4http://www.gbv.de/dms/ilmenau/abs/84602909Xhusch.txt
Schellenberg, Sebastian;
Naming and adress resolution in heterogeneous mobile ad hoc networks - Ilmenau : Universitätsverlag Ilmenau, 2016 - xvi, 177 Seiten.
Technische Universität Ilmenau, Dissertation 2015

Die vorliegende Dissertation befasst sich mit der Adressierung und Adressauflösung in heterogenen Kommunikationsnetzen. Die Anwendungsfälle für die Motivation des Themas stellen Katastrophenszenarien wie Naturkatastrophen oder Terroranschläge dar. Nach solchen Ereignissen kann die Infrastruktur und speziell die Kommunikationsinfrastruktur teilweise oder ganz beschädigt sein. Um trotzdem eine funktionierende Kommunikation sicherzustellen, die sowohl für die Einsatzkräfte wie auch für die Opfer unerlässlich ist, können sogenannte Mobile Ad-hoc-Netze (MANET) zum Einsatz kommen. Die Benutzung dieser infrastrukturlosen Vernetzung verlangt aber die weitgehende Eliminierung von zentralen Einheiten. Daraus resultierend befasst sich die Dissertationsschrift mit der Ersetzung des in Infrastrukturnetzen gebräuchlichen Domain Name Systems (DNS) durch eine MANET-taugliche Alternative. Zusätzlich wurde durch die Einführung einer den Knoten identifizierenden Adressschicht die Notwendigkeit zur Auflösung der Identitäten zu den lokalen, vom Internet Protokoll (IP) eingesetzten, Adressen gegeben.Das in der Arbeit vorgestellte dezentrale System zur Namensauflösung basiert vollständig auf den eingesetzten Wegewahlprotokollen. Durch eine strikte Integration der Funktionalität der Namensauflösung in das Routing kann komplett auf zentrale Einheiten verzichtet werden. Die Lösung wird weiterhin kombiniert mit einem adaptiven Routingkonzept, welches es Knoten ermöglicht, während der Laufzeit von einem Routingprotokoll zum anderen zu wechseln. Dies bietet eine bessere Reaktionsmöglichkeit auf Änderungen des Szenarios und dadurch eine erhöhte Performanz für die Wegesuche und die Namensauflösung. Der konzipierte und im Click Modular Router (Click) implementierte Ansatz wird weiterhin im Laufe der Arbeit evaluiert und auf die Performanz bezüglich des zusätzlich generierten Verkehrs, der Zeitverzögerung bis zur Auflösung eines Namens zu einer Adresse und der Erfolgsrate getestet. Hierzu werden Simulationen mit dem Netzwerksimulator 3 (ns-3) durchgeführt.Im letzten Teil der Arbeit werden drei mögliche Erweiterungen des präsentierten Systems gezeigt. Die erste zielt auf die Verbesserung der Performanz durch Hashing des aufzulösenden Namens. Die zweite Erweiterung beschäftigt sich mit der Realisierung eines Dienstlokalisierungsmechanismus, basierend auf dem System zur Namensauflösung. Zusätzlich wird die Erweiterung hin zu einer Standort-sensitiven Namensauflösung bzw. Dienstlokalisierung aufgezeigt.



TEST4http://www.gbv.de/dms/ilmenau/toc/845125052.PDF
Aristizabal Tolosa, Ekine;
Finite element simulation for the cold-joining of high power connectors - Ilmenau : Universitätsverlag Ilmenau, 2015 - 1 Online-Ressource (XVII, 133 Seiten). . - (Werkstofftechnik aktuell. - 13)
Technische Universität Ilmenau, Dissertation 2015

Im Rahmen dieser Arbeit wird eine neue Methode zur Beschreibung von massiven Kupfer-Einpresskontakte entwickelt. Die Berechnung von Pressverbänden nach DIN 7190 ist bei der Auslegung von massiven Kupferkontakten nicht anwendbar da während des Fügevorganges hohe Verformungsgrade und Reibspannungen auftreten. Das neue Modell bietet nicht nur verkürzte und effiziente Auslegungszyklen für neue Hochleistungskontakte (HLK) an, sondern vertieft auch das Grundverständnis des Fügeprozesses und der Kontakteigenschaften. Nach einer kurzen Motivation des Themas und einer Einführung in die kalte Kontaktiertechnik, werden im dritten Kapitel die Grundlagen der experimentellen Arbeiten sowie der Simulationsmethoden erarbeitet. Die Herausforderungen bei der Modellierung von Fügeprozessen liegen in der Materialbeschreibung und Reibungscharakterisierung. Deshalb werden die beiden Themen in zwei eigenständigen Kapiteln vorgestellt, ausgehend vom jeweiligen Stand der Technik bis zur Validation der entwickelten Methoden und Modelle. Das vierte Kapitel beschäftigt sich mit der Materialbeschreibung und beinhaltet zwei neue Methoden zur bauteilnahen Ermittlung der Fließeigenschaften von Kupferwerkstoffen. Das Reibverhalten in einem Einpressvorgang wird im fünften Kapitel untersucht. Hierzu wurde ein neuer Prüfstand zur Ermittlung von Reibkoeffizienten und Beschreibung der auftretenden Verschleißmechanismen aufgebaut. Die Materialbeschreibung und die Reibungscharakterisierung sind eng miteinander verknüpft. Beide Modelle wurden deshalb in ein Finiten-Elementen (FE)-Tool zusammengeführt, um die komplexen Wechselwirkungen beschreiben zu können. Für eine genaue aber mit möglichst wenig Aufwand verbundene FE-Beschreibung von Einpressvorgängen werden Richtlinien erarbeitet und vorgeschlagen. Auf Basis des FE-Modells werden neue Hochstromkontakte entwickelt. Über den Vergleich der simulierten und der realen Eigenschaften wurde das Modell erfolgreich validiert und seine Aussagekraft eindrücklich nachgewiesen.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2015000249
Schellenberg, Sebastian;
Naming and adress resolution in heterogeneous mobile ad hoc networks - Ilmenau : Universitätsverlag Ilmenau, 2015 - 1 Online-Ressource (xvi, 177 Seiten).
Technische Universität Ilmenau, Dissertation 2015

Die vorliegende Dissertation befasst sich mit der Adressierung und Adressauflösung in heterogenen Kommunikationsnetzen. Die Anwendungsfälle für die Motivation des Themas stellen Katastrophenszenarien wie Naturkatastrophen oder Terroranschläge dar. Nach solchen Ereignissen kann die Infrastruktur und speziell die Kommunikationsinfrastruktur teilweise oder ganz beschädigt sein. Um trotzdem eine funktionierende Kommunikation sicherzustellen, die sowohl für die Einsatzkräfte wie auch für die Opfer unerlässlich ist, können sogenannte Mobile Ad-hoc-Netze (MANET) zum Einsatz kommen. Die Benutzung dieser infrastrukturlosen Vernetzung verlangt aber die weitgehende Eliminierung von zentralen Einheiten. Daraus resultierend befasst sich die Dissertationsschrift mit der Ersetzung des in Infrastrukturnetzen gebräuchlichen Domain Name Systems (DNS) durch eine MANET-taugliche Alternative. Zusätzlich wurde durch die Einführung einer den Knoten identifizierenden Adressschicht die Notwendigkeit zur Auflösung der Identitäten zu den lokalen, vom Internet Protokoll (IP) eingesetzten, Adressen gegeben.Das in der Arbeit vorgestellte dezentrale System zur Namensauflösung basiert vollständig auf den eingesetzten Wegewahlprotokollen. Durch eine strikte Integration der Funktionalität der Namensauflösung in das Routing kann komplett auf zentrale Einheiten verzichtet werden. Die Lösung wird weiterhin kombiniert mit einem adaptiven Routingkonzept, welches es Knoten ermöglicht, während der Laufzeit von einem Routingprotokoll zum anderen zu wechseln. Dies bietet eine bessere Reaktionsmöglichkeit auf Änderungen des Szenarios und dadurch eine erhöhte Performanz für die Wegesuche und die Namensauflösung. Der konzipierte und im Click Modular Router (Click) implementierte Ansatz wird weiterhin im Laufe der Arbeit evaluiert und auf die Performanz bezüglich des zusätzlich generierten Verkehrs, der Zeitverzögerung bis zur Auflösung eines Namens zu einer Adresse und der Erfolgsrate getestet. Hierzu werden Simulationen mit dem Netzwerksimulator 3 (ns-3) durchgeführt.Im letzten Teil der Arbeit werden drei mögliche Erweiterungen des präsentierten Systems gezeigt. Die erste zielt auf die Verbesserung der Performanz durch Hashing des aufzulösenden Namens. Die zweite Erweiterung beschäftigt sich mit der Realisierung eines Dienstlokalisierungsmechanismus, basierend auf dem System zur Namensauflösung. Zusätzlich wird die Erweiterung hin zu einer Standort-sensitiven Namensauflösung bzw. Dienstlokalisierung aufgezeigt.



http://www.db-thueringen.de/servlets/DocumentServlet?id=26993
Yan, Yong;
Plasma-assisted synthesis of hydrogenated TiO 2 for energy storage and conversion - Ilmenau : Univ.-Verl. Ilmenau, 2015 - 1 Online-Ressource. . - (Werkstofftechnik aktuell. - 14) Ilmenau : Techn. Univ., Diss., 2015

Titandioxid (TiO 2) wird bereits häufig in den Bereichen Energiespeicherung und -umwandlung eingesetzt. Aufgrund der begrenzten Solarabsorption, Ladungsübertragungsgeschwindigkeit und elektrochemischer Aktivität ist die Leistung des TiO 2 allerdings wesentlich niedriger als es für die praktische Anwending erforderlich ist. In dieser Studie wird hydriertes TiO 2 (H-TiO 2) mit unterschiedlichen physikalischen und chemischen Eigenschaften durch Wasserstoff (H 2)-Plasmabehandlung kontrolliert hergestellt, welches hervorragende Leistungen in der Anwendung von Lithium-Ionen-Batterien, Fotokatalyse und fotothermischer Umwandlung aufweist. Darüber hinaus werden die Mikrostrukturen des H-TiO 2 und die Abhängigkeit der Anwendungsleistung des H-TiO 2 von den Vorliegenden Mikrostrukturen umfassend untersucht. Diese Studie bietet neue Erkenntnisse über Synthese, Eigenschaften und Anwendungen von H-TiO 2, durch welche die Entwicklung leistungsfähiger und vielseitiger TiO 2-Materialien für die Energiespeicherung und -umwandlung ermöglicht werden kann. Erstens werden hydrierte Anatas TiO 2-Nanopartikel mit deutlich verbesserter Speicherleistung von Lithium-Ionen durch eine Hochtemperatur (390 &ring;C) H 2-Plasmabehandlung in hergestellt. Die systematische elektrochemische Analyse zeigt, dass sich aus dem verbesserten Beitrag der pseudokapazitiven Lithium-Speicherung auf der Partikeloberfläche eine verbesserte Leistungsdichte von H-TiO 2 ergibt. Es wird gezeigt, dass die ungeordneten Oberflächenschichten und die vorliegenden Ti 3+ -Spezies von H-TiO 2 eine wichtige Rolle bei der Verbesserung der pseudokapazitiven Lithiumspeicherung spielen. Zweitens erfolgt eine schnelle Synthese des H-TiO 2 mit unterschiedlichem Hydrierungsgrad durch Hochleistungs-H 2-Plasmabehandlung. Dessen fotokatalytische Aktivitäten werden mit Hilfe von Methylenblau (MB)-Degradation und CO 2-Reduktion in wässrigen und gasförmigen Medien ausgewertet. Im Vergleich zum ursprünglichen TiO 2 zeigt das leicht hydrierte TiO 2 (s-H-TiO 2) eine weiße Färbung und eine verbesserte Fotoaktivität, während das graue oder schwarze H-TiO 2 mit höherem Hydrierungsgrad (h-H-TiO 2) eine viel schlechtere katalytische Leistung aufweist. Wie weitere Untersuchungen gezeigt haben, stellen das höhere Verhältnis der gefangenen Löcher (O - -Zentren) und die niedrige Rekombinationsrate, welche durch die Erhöhung der Oberflächendefekte verursacht sind, die kritischen Faktoren für die hohe Aktivität von s-H-TiO 2 dar. Im Gegensatz dazu besitzt das h-H-TiO 2 eine hohe Konzentration an Gitterdefekten, was zu einer signifikant verringerten Menge an O-Zentren und der vergrößerten strahlungslosen Rekombination führt. Dadurch sinkt die Fotokatalyseaktivität deutlich. Drittens wird das hydrierte schwarze TiO 2 mit großer Infrarotabsorption (aufgrund seiner erheblich vergrößerten, strahlungslosen Rekombination) für die fotothermische Tumortherapie untersucht. Um die Stabilität der Suspension zu verbessern, wurden die H-TiO 2-Nanopartikel (NP s) mit Polyethylenglycol (PEG) beschichtet. Nach PEG-Beschichtung zeigen die H-TiO 2 NP s einen erhöhten fotothermischen Umwandlungswirkungsgrad von 40,8% und eine gute Suspensionsstabilität im Serum. Der Therapieeffekt von H-TiO 2-PEG NP s zeigt, dass dieses Material eine geringe Toxizität besitzt und MCF07- sowie 4T1-Tumorzellen (transplantierbaren Tumorzellen des menschlichen Brustgewebes) unter Infrarotstrahlung effektiv abtöten kann. Zusätzlich werden Si (core) / N-dotiertes TiO 2 (shell) Nanopillar-Arrays mit einer nanoporösen Struktur durch ein einfaches, proteinvermittelndes TiO 2-Abscheidungsverfahren hergestellt. Dieses Ergebnis kann als ein fortschrittlicher Ansatz für die großtechnische Herstellung der H-TiO 2 basierten Nanokompositen angesehen werden.



http://www.db-thueringen.de/servlets/DocumentServlet?id=26346
Yan, Yong;
Plasma-assisted synthesis of hydrogenated TiO 2 for energy storage and conversion - Ilmenau : Univ.-Verl. Ilmenau, 2015 - XXII, 96 S.. . - (Werkstofftechnik aktuell. - 14) Zugl.: Ilmenau : Techn. Univ., Diss., 2015

Titandioxid (TiO 2) wird bereits häufig in den Bereichen Energiespeicherung und -umwandlung eingesetzt. Aufgrund der begrenzten Solarabsorption, Ladungsübertragungsgeschwindigkeit und elektrochemischer Aktivität ist die Leistung des TiO 2 allerdings wesentlich niedriger als es für die praktische Anwending erforderlich ist. In dieser Studie wird hydriertes TiO 2 (H-TiO 2) mit unterschiedlichen physikalischen und chemischen Eigenschaften durch Wasserstoff (H 2)-Plasmabehandlung kontrolliert hergestellt, welches hervorragende Leistungen in der Anwendung von Lithium-Ionen-Batterien, Fotokatalyse und fotothermischer Umwandlung aufweist. Darüber hinaus werden die Mikrostrukturen des H-TiO 2 und die Abhängigkeit der Anwendungsleistung des H-TiO 2 von den Vorliegenden Mikrostrukturen umfassend untersucht. Diese Studie bietet neue Erkenntnisse über Synthese, Eigenschaften und Anwendungen von H-TiO 2, durch welche die Entwicklung leistungsfähiger und vielseitiger TiO 2-Materialien für die Energiespeicherung und -umwandlung ermöglicht werden kann. Erstens werden hydrierte Anatas TiO 2-Nanopartikel mit deutlich verbesserter Speicherleistung von Lithium-Ionen durch eine Hochtemperatur (390 &ring;C) H 2-Plasmabehandlung in hergestellt. Die systematische elektrochemische Analyse zeigt, dass sich aus dem verbesserten Beitrag der pseudokapazitiven Lithium-Speicherung auf der Partikeloberfläche eine verbesserte Leistungsdichte von H-TiO 2 ergibt. Es wird gezeigt, dass die ungeordneten Oberflächenschichten und die vorliegenden Ti 3+ -Spezies von H-TiO 2 eine wichtige Rolle bei der Verbesserung der pseudokapazitiven Lithiumspeicherung spielen. Zweitens erfolgt eine schnelle Synthese des H-TiO 2 mit unterschiedlichem Hydrierungsgrad durch Hochleistungs-H 2-Plasmabehandlung. Dessen fotokatalytische Aktivitäten werden mit Hilfe von Methylenblau (MB)-Degradation und CO 2-Reduktion in wässrigen und gasförmigen Medien ausgewertet. Im Vergleich zum ursprünglichen TiO 2 zeigt das leicht hydrierte TiO 2 (s-H-TiO 2) eine weiße Färbung und eine verbesserte Fotoaktivität, während das graue oder schwarze H-TiO 2 mit höherem Hydrierungsgrad (h-H-TiO 2) eine viel schlechtere katalytische Leistung aufweist. Wie weitere Untersuchungen gezeigt haben, stellen das höhere Verhältnis der gefangenen Löcher (O - -Zentren) und die niedrige Rekombinationsrate, welche durch die Erhöhung der Oberflächendefekte verursacht sind, die kritischen Faktoren für die hohe Aktivität von s-H-TiO 2 dar. Im Gegensatz dazu besitzt das h-H-TiO 2 eine hohe Konzentration an Gitterdefekten, was zu einer signifikant verringerten Menge an O-Zentren und der vergrößerten strahlungslosen Rekombination führt. Dadurch sinkt die Fotokatalyseaktivität deutlich. Drittens wird das hydrierte schwarze TiO 2 mit großer Infrarotabsorption (aufgrund seiner erheblich vergrößerten, strahlungslosen Rekombination) für die fotothermische Tumortherapie untersucht. Um die Stabilität der Suspension zu verbessern, wurden die H-TiO 2-Nanopartikel (NP s) mit Polyethylenglycol (PEG) beschichtet. Nach PEG-Beschichtung zeigen die H-TiO 2 NP s einen erhöhten fotothermischen Umwandlungswirkungsgrad von 40,8% und eine gute Suspensionsstabilität im Serum. Der Therapieeffekt von H-TiO 2-PEG NP s zeigt, dass dieses Material eine geringe Toxizität besitzt und MCF07- sowie 4T1-Tumorzellen (transplantierbaren Tumorzellen des menschlichen Brustgewebes) unter Infrarotstrahlung effektiv abtöten kann. Zusätzlich werden Si (core) / N-dotiertes TiO 2 (shell) Nanopillar-Arrays mit einer nanoporösen Struktur durch ein einfaches, proteinvermittelndes TiO 2-Abscheidungsverfahren hergestellt. Dieses Ergebnis kann als ein fortschrittlicher Ansatz für die großtechnische Herstellung der H-TiO 2 basierten Nanokompositen angesehen werden.



TEST4http://www.gbv.de/dms/ilmenau/toc/838339298.PDF
Becker, Felix;
Zur Mechanik vibrationsgetriebener Roboter für terrestrische und aquatische Lokomotion - Ilmenau : Univ.-Verl. Ilmenau, 2015 - Online-Ressource (PDF-Datei: XIX, 149 S., 11,82 MB). Ilmenau : Techn. Univ., Diss., 2015

Der Gegenstand der Arbeit ist die Mechanik von mobilen Robotern für terrestrische und aquatische Lokomotion. In den untersuchten Systemen wird die periodische Erregung eines inneren Antriebs durch nicht symmetrische Systemeigenschaften in eine gerichtete Fortbewegung gewandelt. Eine zweidimensionale Steuerbarkeit der Systeme wird durch frequenzabhängige mechanische Eigenschaften erreicht. Der Schwerpunkt der Arbeit liegt auf der mathematisch-mechanischen Beschreibung der Roboter mittels analytischer und numerischer Methoden sowie ihrer experimentellen Untersuchung. Prototypen mobiler Roboter dienen dem funktionellen Nachweis. Auf Basis von mechanischen Grundlagen werden terrestrische und aquatische Lokomotionsarten vorgestellt und klassifiziert. Mit Blick auf die praktische Realisierung von mobilen Robotern für unterschiedliche Umgebungsbedingungen werden Antriebssysteme in ihrer Eignung als Vibrationsquellen bewertet. Piezoelektrische Antriebe besitzen dabei besonderes Potential. Eine umfassende Analyse des Standes der Technik zeigt die Anwendbarkeit von vibrationsgetriebener Lokomotion für miniaturisierte technische Anwendungen. Systeme mit Borsten dienen der unidirektionalen terrestrischen Lokomotion. Mittels eines Mehrkörpersystemmodells und experimentellen Untersuchungen werden die verschiedenen Wirkungsmechanismen analysiert. Ein Prototyp für die Fortbewegung in Röhren wird vorgestellt. Für eine steuerbare zweidimensionale Lokomotion mit nur einem Antrieb müssen die Grenzen von klassischen Starrkörpersystemen überwunden werden. Der verfolgte Lösungsansatz nutzt das frequenzabhängige Schwingungsverhalten von elastischen Systemen, wie Balken oder Platten. Zur Untersuchung werden kontinuumsmechanische Modelle sowie Finite-Elemente-Methoden verwendet und durch experimentelle Untersuchungen erweitert. Die Erkenntnisse werden für die Entwicklung eines programmier- und fernsteuerbaren Prototyps benutzt. Sein Bewegungsverhalten kann durch die Änderung der Antriebsfrequenz auf verschiedenen Untergründen gesteuert werden. Das System erreicht Geschwindigkeiten bis 100 mm/s und kann das Fünffache seiner Masse transportieren. Abschließend wird ein innovativer Prototyp vorgestellt, der mit einem einzigen Antrieb eine steuerbare Lokomotion auf festem Untergrund und an der Oberfläche von Flüssigkeiten durchführen kann. Das terrestrische und aquatische Bewegungsverhalten wird untersucht und die Tragfähigkeit solcher Systeme auf Basis eines hydrostatischen Modells bestimmt.



http://www.db-thueringen.de/servlets/DocumentServlet?id=26306
Becker, Felix;
Zur Mechanik vibrationsgetriebener Roboter für terrestrische und aquatische Lokomotion - Ilmenau : Univ.-Verl. Ilmenau, 2015 - XIX, 149 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2015

Der Gegenstand der Arbeit ist die Mechanik von mobilen Robotern für terrestrische und aquatische Lokomotion. In den untersuchten Systemen wird die periodische Erregung eines inneren Antriebs durch nicht symmetrische Systemeigenschaften in eine gerichtete Fortbewegung gewandelt. Eine zweidimensionale Steuerbarkeit der Systeme wird durch frequenzabhängige mechanische Eigenschaften erreicht. Der Schwerpunkt der Arbeit liegt auf der mathematisch-mechanischen Beschreibung der Roboter mittels analytischer und numerischer Methoden sowie ihrer experimentellen Untersuchung. Prototypen mobiler Roboter dienen dem funktionellen Nachweis. Auf Basis von mechanischen Grundlagen werden terrestrische und aquatische Lokomotionsarten vorgestellt und klassifiziert. Mit Blick auf die praktische Realisierung von mobilen Robotern für unterschiedliche Umgebungsbedingungen werden Antriebssysteme in ihrer Eignung als Vibrationsquellen bewertet. Piezoelektrische Antriebe besitzen dabei besonderes Potential. Eine umfassende Analyse des Standes der Technik zeigt die Anwendbarkeit von vibrationsgetriebener Lokomotion für miniaturisierte technische Anwendungen. Systeme mit Borsten dienen der unidirektionalen terrestrischen Lokomotion. Mittels eines Mehrkörpersystemmodells und experimentellen Untersuchungen werden die verschiedenen Wirkungsmechanismen analysiert. Ein Prototyp für die Fortbewegung in Röhren wird vorgestellt. Für eine steuerbare zweidimensionale Lokomotion mit nur einem Antrieb müssen die Grenzen von klassischen Starrkörpersystemen überwunden werden. Der verfolgte Lösungsansatz nutzt das frequenzabhängige Schwingungsverhalten von elastischen Systemen, wie Balken oder Platten. Zur Untersuchung werden kontinuumsmechanische Modelle sowie Finite-Elemente-Methoden verwendet und durch experimentelle Untersuchungen erweitert. Die Erkenntnisse werden für die Entwicklung eines programmier- und fernsteuerbaren Prototyps benutzt. Sein Bewegungsverhalten kann durch die Änderung der Antriebsfrequenz auf verschiedenen Untergründen gesteuert werden. Das System erreicht Geschwindigkeiten bis 100 mm/s und kann das Fünffache seiner Masse transportieren. Abschließend wird ein innovativer Prototyp vorgestellt, der mit einem einzigen Antrieb eine steuerbare Lokomotion auf festem Untergrund und an der Oberfläche von Flüssigkeiten durchführen kann. Das terrestrische und aquatische Bewegungsverhalten wird untersucht und die Tragfähigkeit solcher Systeme auf Basis eines hydrostatischen Modells bestimmt.



TEST4http://www.gbv.de/dms/ilmenau/abs/837288762becke.txt
Rennenkampff, Alexander; von
Management von IT-Agilität : Entwicklung eines Kennzahlensystems zur Messung der Agilität von Anwendungslandschaften - Ilmenau : Univ.- Verl. Ilmenau, 2015 - Online-Ressource (PDF-Datei: XVIII, 369 S., 3,09 MB). . - (Ilmenauer Schriften zur Wirtschaftsinformatik. - Band 2) Ilmenau : Techn. Univ., Diss., 2015

Die Veränderungsfähigkeit eines Unternehmens hängt zunehmend von der Veränderungsfähigkeit seiner IT, der IT-Agilität, ab. Eine hohe IT-Agilität kann einen Beitrag zu erhöhter Unternehmens-Agilität leisten und stellt damit eine potenzielle Quelle für nachhaltige Wettbewerbsvorteile dar. Als Basis stellt insbesondere die Anwendungslandschaft eine wertvolle, seltene, nicht substituierbare und schwer imitierbare Ressource dar. Anhand von Prinzipien zur Gestaltung agiler Architekturen von Anwendungslandschaften und unter Nutzung geeigneter Metriken kann die Agilität von Anwendungslandschaften bestimmt und optimiert werden.Hierfür werden anhand von Agilitätszielen (Geringe Abhängigkeiten, Hohe Homogenität, Hohe Modularität, Redundanzfreiheit und Skalierbakeit) Kennzahlen zur Messung der Agilität der Architektur von Anwendungslandschaften entwickelt, zu einem Kennzahlensystem zusammengefasst und anhand von Experteninterviews und Fallstudien plausibilisiert und evaluiert. Das Kennzahlensystem kann für die aktive Steuerung der IT-Agilität in Unternehmen eingesetzt werden und stellt eine gute Ausgangsbasis für die Entwicklung ähnlicher Metriken in anderen Bereichen der IT-Agilität dar.



http://www.db-thueringen.de/servlets/DocumentServlet?id=26281
Rennenkampff, Alexander; von
Management von IT-Agilität : Entwicklung eines Kennzahlensystems zur Messung der Agilität von Anwendungslandschaften - Ilmenau : Univ.- Verl. Ilmenau, 2015 - XVIII, 369 S.. . - (Ilmenauer Schriften zur Wirtschaftsinformatik. - Band 2) Zugl.: Ilmenau : Techn. Univ., Diss., 2015

Die Veränderungsfähigkeit eines Unternehmens hängt zunehmend von der Veränderungsfähigkeit seiner IT, der IT-Agilität, ab. Eine hohe IT-Agilität kann einen Beitrag zu erhöhter Unternehmens-Agilität leisten und stellt damit eine potenzielle Quelle für nachhaltige Wettbewerbsvorteile dar. Als Basis stellt insbesondere die Anwendungslandschaft eine wertvolle, seltene, nicht substituierbare und schwer imitierbare Ressource dar. Anhand von Prinzipien zur Gestaltung agiler Architekturen von Anwendungslandschaften und unter Nutzung geeigneter Metriken kann die Agilität von Anwendungslandschaften bestimmt und optimiert werden. Hierfür werden anhand von Agilitätszielen (Geringe Abhängigkeiten, Hohe Homogenität, Hohe Modularität, Redundanzfreiheit und Skalierbakeit) Kennzahlen zur Messung der Agilität der Architektur von Anwendungslandschaften entwickelt, zu einem Kennzahlensystem zusammengefasst und anhand von Experteninterviews und Fallstudien plausibilisiert und evaluiert. Das Kennzahlensystem kann für die aktive Steuerung der IT-Agilität in Unternehmen eingesetzt werden und stellt eine gute Ausgangsbasis für die Entwicklung ähnlicher Metriken in anderen Bereichen der IT-Agilität dar.



TEST4http://www.gbv.de/dms/ilmenau/toc/837252091.PDF
Linß, Sebastian;
Ein Beitrag zur geometrischen Gestaltung und Optimierung prismatischer Festkörpergelenke in nachgiebigen Koppelmechanismen - Ilmenau : Univ.-Verl. Ilmenau, 2015 - Online-Ressource (PDF-Datei: LI, 126 S., 16,88 MB). . - (Berichte der Ilmenauer Mechanismentechnik (BIMT). - Band 4) : Ilmenau, Techn. Univ., Diss., 2015
Parallel als Druckausg. erschienen

Zur Realisierung von Bewegungen mit hohen Anforderungen an die Präzision werden Starrkörpermechanismen zunehmend durch nachgiebige Mechanismen ersetzt, in denen die Beweglichkeit durch stoffgekoppelte Drehgelenke realisiert wird. In diesen nachgiebigen Koppelmechanismen kommen überwiegend prismatische Festkörpergelenke mit einfachen geometrischen Aussparungen zum Einsatz. Im Gegensatz zu form- und kraftgekoppelten Gelenken ist der Auslenkwinkel eines Festkörpergelenkes begrenzt, wodurch der Bewegungsbereich des Mechanismus eingeschränkt wird. Zudem lässt sich mit einem Festkörpergelenk keine exakte relative Drehung zweier starrer Glieder realisieren, da grundsätzlich eine Drehachsenverlagerung stattfindet. Dadurch ergeben sich Bahnabweichungen des nachgiebigen Mechanismus im Vergleich zum Starrkörpermechanismus. Wesentlicher Aspekt bei der Synthese eines nachgiebigen Koppelmechanismus ist die in dieser Arbeit untersuchte Phase der geometrischen Gestaltung und Optimierung der prismatischen Festkörpergelenke hinsichtlich geforderter Mechanismuseigenschaften. Hierzu erfolgt eine ganzheitliche, d. h. vom Gelenk auf den Mechanismus übertragbare Betrachtung. Für die durchgeführte Untersuchung von Einzelgelenken ist ein geeigneter Ansatz zur Drehachsenmodellierung von entscheidender Bedeutung. Die anschließende mehrkriterielle Optimierung der Gelenkkontur findet für ein Einzelgelenk und im Mechanismus statt. Als Ergebnis der Arbeit wird eine allgemein anwendbare Synthesemethode nachgiebiger Koppelmechanismen abgeleitet, die ausgehend vom Starrkörpermechanismus eine gezielte Gestaltung sowie beschleunigte FEM-basierte Optimierung mit identischen oder unterschiedlichen Gelenken ermöglicht. Hiermit lassen sich der Bewegungsbereich vergrößern und die Bahngenauigkeit erhöhen. Die Besonderheit der Synthesemethode besteht in der Berücksichtigung der Gestaltung prismatischer Festkörpergelenke mit Standard- oder Polynomkonturen. Hierfür werden grundlegende Hinweise sowie drei neue Ansätze zur Bestimmung der geometrischen Parameter der Gelenkkontur und -abmessungen mittels Umsetzungstabelle, Kurventafel oder computergestützter Konturoptimierung vorgestellt. Auf diese Weise gestaltete Mechanismen eignen sich besonders für die Präzisionstechnik. Das Potenzial der Synthesemethode wird am Beispiel einer nachgiebigen Schubkurbel zur Realisierung einer Punktgeradführung aufgezeigt.



http://www.db-thueringen.de/servlets/DocumentServlet?id=26249
Linß, Sebastian;
Ein Beitrag zur geometrischen Gestaltung und Optimierung prismatischer Festkörpergelenke in nachgiebigen Koppelmechanismen - Ilmenau : Univ.-Verl. Ilmenau, 2015 - LI, 126 S.. . - (Berichte der Ilmenauer Mechanismentechnik (BIMT). - 4) : Zugl.: Ilmenau, Techn. Univ., Diss., 2015
ISBN 978-3-86360-122-5
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=26249

Zur Realisierung von Bewegungen mit hohen Anforderungen an die Präzision werden Starrkörpermechanismen zunehmend durch nachgiebige Mechanismen ersetzt, in denen die Beweglichkeit durch stoffgekoppelte Drehgelenke realisiert wird. In diesen nachgiebigen Koppelmechanismen kommen überwiegend prismatische Festkörpergelenke mit einfachen geometrischen Aussparungen zum Einsatz. Im Gegensatz zu form- und kraftgekoppelten Gelenken ist der Auslenkwinkel eines Festkörpergelenkes begrenzt, wodurch der Bewegungsbereich des Mechanismus eingeschränkt wird. Zudem lässt sich mit einem Festkörpergelenk keine exakte relative Drehung zweier starrer Glieder realisieren, da grundsätzlich eine Drehachsenverlagerung stattfindet. Dadurch ergeben sich Bahnabweichungen des nachgiebigen Mechanismus im Vergleich zum Starrkörpermechanismus. Wesentlicher Aspekt bei der Synthese eines nachgiebigen Koppelmechanismus ist die in dieser Arbeit untersuchte Phase der geometrischen Gestaltung und Optimierung der prismatischen Festkörpergelenke hinsichtlich geforderter Mechanismuseigenschaften. Hierzu erfolgt eine ganzheitliche, d. h. vom Gelenk auf den Mechanismus übertragbare Betrachtung. Für die durchgeführte Untersuchung von Einzelgelenken ist ein geeigneter Ansatz zur Drehachsenmodellierung von entscheidender Bedeutung. Die anschließende mehrkriterielle Optimierung der Gelenkkontur findet für ein Einzelgelenk und im Mechanismus statt. Als Ergebnis der Arbeit wird eine allgemein anwendbare Synthesemethode nachgiebiger Koppelmechanismen abgeleitet, die ausgehend vom Starrkörpermechanismus eine gezielte Gestaltung sowie beschleunigte FEM-basierte Optimierung mit identischen oder unterschiedlichen Gelenken ermöglicht. Hiermit lassen sich der Bewegungsbereich vergrößern und die Bahngenauigkeit erhöhen. Die Besonderheit der Synthesemethode besteht in der Berücksichtigung der Gestaltung prismatischer Festkörpergelenke mit Standard- oder Polynomkonturen. Hierfür werden grundlegende Hinweise sowie drei neue Ansätze zur Bestimmung der geometrischen Parameter der Gelenkkontur und -abmessungen mittels Umsetzungstabelle, Kurventafel oder computergestützter Konturoptimierung vorgestellt. Auf diese Weise gestaltete Mechanismen eignen sich besonders für die Präzisionstechnik. Das Potenzial der Synthesemethode wird am Beispiel einer nachgiebigen Schubkurbel zur Realisierung einer Punktgeradführung aufgezeigt.



Aristizabal Tolosa, Ekine;
Finite element simulation for the cold-joining of high power connectors - Ilmenau : Universitätsverlag Ilmenau, 2015 - XVII, 133 Seiten. . - (Werkstofftechnik aktuell. - 13)
Technische Universität Ilmenau, Dissertation 2015

Im Rahmen dieser Arbeit wird eine neue Methode zur Beschreibung von massiven Kupfer-Einpresskontakte entwickelt. Die Berechnung von Pressverbänden nach DIN 7190 ist bei der Auslegung von massiven Kupferkontakten nicht anwendbar da während des Fügevorganges hohe Verformungsgrade und Reibspannungen auftreten. Das neue Modell bietet nicht nur verkürzte und effiziente Auslegungszyklen für neue Hochleistungskontakte (HLK) an, sondern vertieft auch das Grundverständnis des Fügeprozesses und der Kontakteigenschaften. Nach einer kurzen Motivation des Themas und einer Einführung in die kalte Kontaktiertechnik, werden im dritten Kapitel die Grundlagen der experimentellen Arbeiten sowie der Simulationsmethoden erarbeitet. Die Herausforderungen bei der Modellierung von Fügeprozessen liegen in der Materialbeschreibung und Reibungscharakterisierung. Deshalb werden die beiden Themen in zwei eigenständigen Kapiteln vorgestellt, ausgehend vom jeweiligen Stand der Technik bis zur Validation der entwickelten Methoden und Modelle. Das vierte Kapitel beschäftigt sich mit der Materialbeschreibung und beinhaltet zwei neue Methoden zur bauteilnahen Ermittlung der Fließeigenschaften von Kupferwerkstoffen. Das Reibverhalten in einem Einpressvorgang wird im fünften Kapitel untersucht. Hierzu wurde ein neuer Prüfstand zur Ermittlung von Reibkoeffizienten und Beschreibung der auftretenden Verschleißmechanismen aufgebaut. Die Materialbeschreibung und die Reibungscharakterisierung sind eng miteinander verknüpft. Beide Modelle wurden deshalb in ein Finiten-Elementen (FE)-Tool zusammengeführt, um die komplexen Wechselwirkungen beschreiben zu können. Für eine genaue aber mit möglichst wenig Aufwand verbundene FE-Beschreibung von Einpressvorgängen werden Richtlinien erarbeitet und vorgeschlagen. Auf Basis des FE-Modells werden neue Hochstromkontakte entwickelt. Über den Vergleich der simulierten und der realen Eigenschaften wurde das Modell erfolgreich validiert und seine Aussagekraft eindrücklich nachgewiesen.



TEST4http://www.gbv.de/dms/ilmenau/toc/834471493.PDF
Sass, Florian;
Diversitäre Redundanz gemischter AC-HGÜ-Netze durch schnelle korrektive Maßnahmen - Ilmenau : Univ.-Verl. Ilmenau - XVII, 67 S.. . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - 14) Zugl.: Ilmenau : Techn. Univ., Masterarb., 2015

Vermaschte HGÜ-Netze können zum Aufbau eines dem AC-Netz überlagerten Overlay-Netzes eingesetzt werden. Der Betrieb eines solchen Netzes erfordert eine schnelle Reaktion auf Störungen im AC- und im HGÜ-Netz. Um diese seitens der HGÜ-Umrichter zu ermöglichen, ist ein schnelles Anpassen der Umrichter-Arbeitspunkte erforderlich. Um dem teilweise sehr zeit-kritischen Verlauf solcher Störszenarien zu begegnen, wird ein Verfahren vorgestellt, das eine schnelle Korrektur der Umrichter-Arbeitspunkte ermöglicht. Entsprechend einer Liste möglicher kritischer Betriebsmittelausfälle werden auf zentraler Ebene mittels einer Optimal Power Flow-Berechnung korrektive Umrichter-Arbeitspunkte erstellt und auf lokaler Ebene innerhalb der Umrichter-Steuerung abgelegt. Lokale Messungen ermöglichen die Identifikation von eintretenden kritischen Ausfallszenarien und eine Aktivierung der entsprechend vorberechneten Korrekturmaßnahmen. Auf diese Weise kann der AC-HGÜ-Netzverbund bei Ausfall eines Betriebsmittels durch korrektive Maßnahmen in den (n-1)-sicheren Zustand überführt werden. Der Begriff der Diversitären Redundanz wird an dieser Stelle eingeführt.



TEST4http://www.gbv.de/dms/ilmenau/toc/834313057.PDF
Zhao, Xin;
A contribution to the computer aided development of an electrical window regulator system : mechatronic models, parameter identification and numerical simulations - Ilmenau : Univ.-Verl. Ilmenau, 2015 - Online-Ressource (PDF-Datei: XX, 192 S., 23,03 MB). Ilmenau : Techn. Univ., Diss., 2015

Die Arbeit orientiert sich daran, Modelle und Simulationen von elektrischen Fensterhebersystemen zu entwickeln. Das Ziel ist ein verbessertes Verständnis des Systemverhaltens und Einfluss von Parametern zu erlangen. Vor dem Hintergrund, dass Fensterhebersysteme komplizierte mechatronische Systeme darstellen, wird die Simulation als Werkzeug vermehrt eingesetzt. In dieser Arbeit werden verschiedene Simulationen von mechatronischen Systemen auf unterschiedlichen Ebenen verglichen. Applikationen von Fensterhebersimulationen werden zusummengefasst und bewertet. Basierend auf dieser Auswertung wurde die Systemsimulation mit der Modellierungssprache, VHDL-AMS, als Methode ausgewählt. Bevor sich tiefgründig mit der Modellierung von Fensterhebersystemen beschäftigt wird, soll zuvor ein stark abstrahiertes analytisches Modell für die Bewertung des dynamischen Verhaltens erstellt werden. Grundlegend besitzt das Modell 2 Freiheitsgrade und besteht aus 2 Massen, die über eine Feder und einen Dämpfer verbunden sind. Eine Masse stellt die Glasscheibe und die andere die Massenträgheit des Motorankers dar. Mit der Mittelwertmethode wird das analytische Modell hinsichtlich der Stabilitätsbedingungen untersucht. Die Modellbildung des Fensterhebersystems beginnt mit der Aufteilung des Systems in einzelne Komponenten, basierend auf deren Funktion. Die Komponenten, wie z.B. elektrische Motoren, Hebemechaniken, Türrahmen, Elektroniken, etc., werden untersucht und anschließend Modelle erstellt, um ihre elektrische oder mechanische Funktionsweise zu beschreiben. Abhängig von der Komplexität wird die Technik der Modellierung ausgesucht, zum Beispiel physikalische oder verhaltensmäßige Modellierung oder eine Kombination von beiden. Die Parameter der Modelle wurden anhand von gesammelten Informationen von Komponentenlieferanten, existierenden Datenbanken und Messungen ermittelt. Komponentenmodelle wurden anhand von Messdaten verifiziert, z.B. Motorkennlinie. Die Systemsimulation beschäftigt sich mit der Integration von allen Komponentenmodellen in eine Simulation und imitiert Ausführung der Fensterhebersysteme in verschiedenen Lastfällen. In einer konkreten Applikation wurden die Ergebnisse der Messung und der Simulation anhand der Werte von wichtigen Signalen, die den Status des Systems abbilden, wie zum Beispiel Drehzahl und Strom des Motors, verglichen. Außerdem wurde die Einklemmschutzfunktion quantitativ durch Messung der Einklemmkräfte bei verschiedenen Spannungen verglichen. Trotzdem sind die Simulationen nicht auf die demonstrierten Beispiele dieser Arbeit limitiert. Teilsystemsimulationen mit dem Schwerpunkt auf der Untersuchung von Komponenten können auch mit den Komponentenmodellen entwickelt werden.



http://www.db-thueringen.de/servlets/DocumentServlet?id=26178
Zhao, Xin;
A contribution to the computer aided development of an electrical window regulator system : mechatronic models, parameter identification and numerical simulations - Ilmenau : Univ.-Verl. Ilmenau, 2015 - XX, 192 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2015

Die Arbeit orientiert sich daran, Modelle und Simulationen von elektrischen Fensterhebersystemen zu entwickeln. Das Ziel ist ein verbessertes Verständnis des Systemverhaltens und Einfluss von Parametern zu erlangen. Vor dem Hintergrund, dass Fensterhebersysteme komplizierte mechatronische Systeme darstellen, wird die Simulation als Werkzeug vermehrt eingesetzt. In dieser Arbeit werden verschiedene Simulationen von mechatronischen Systemen auf unterschiedlichen Ebenen verglichen. Applikationen von Fensterhebersimulationen werden zusummengefasst und bewertet. Basierend auf dieser Auswertung wurde die Systemsimulation mit der Modellierungssprache, VHDL-AMS, als Methode ausgewählt. Bevor sich tiefgründig mit der Modellierung von Fensterhebersystemen beschäftigt wird, soll zuvor ein stark abstrahiertes analytisches Modell für die Bewertung des dynamischen Verhaltens erstellt werden. Grundlegend besitzt das Modell 2 Freiheitsgrade und besteht aus 2 Massen, die über eine Feder und einen Dämpfer verbunden sind. Eine Masse stellt die Glasscheibe und die andere die Massenträgheit des Motorankers dar. Mit der Mittelwertmethode wird das analytische Modell hinsichtlich der Stabilitätsbedingungen untersucht. Die Modellbildung des Fensterhebersystems beginnt mit der Aufteilung des Systems in einzelne Komponenten, basierend auf deren Funktion. Die Komponenten, wie z.B. elektrische Motoren, Hebemechaniken, Türrahmen, Elektroniken, etc., werden untersucht und anschließend Modelle erstellt, um ihre elektrische oder mechanische Funktionsweise zu beschreiben. Abhängig von der Komplexität wird die Technik der Modellierung ausgesucht, zum Beispiel physikalische oder verhaltensmäßige Modellierung oder eine Kombination von beiden. Die Parameter der Modelle wurden anhand von gesammelten Informationen von Komponentenlieferanten, existierenden Datenbanken und Messungen ermittelt. Komponentenmodelle wurden anhand von Messdaten verifiziert, z.B. Motorkennlinie. Die Systemsimulation beschäftigt sich mit der Integration von allen Komponentenmodellen in eine Simulation und imitiert Ausführung der Fensterhebersysteme in verschiedenen Lastfällen. In einer konkreten Applikation wurden die Ergebnisse der Messung und der Simulation anhand der Werte von wichtigen Signalen, die den Status des Systems abbilden, wie zum Beispiel Drehzahl und Strom des Motors, verglichen. Außerdem wurde die Einklemmschutzfunktion quantitativ durch Messung der Einklemmkräfte bei verschiedenen Spannungen verglichen. Trotzdem sind die Simulationen nicht auf die demonstrierten Beispiele dieser Arbeit limitiert. Teilsystemsimulationen mit dem Schwerpunkt auf der Untersuchung von Komponenten können auch mit den Komponentenmodellen entwickelt werden.



TEST4http://www.gbv.de/dms/ilmenau/toc/832179949.PDF
Marten, Anne-Katrin;
Operation of meshed high voltage direct current (HVDC) overlay grids : from operational planning to real time operation - Ilmenau : Univ.-Verl. Ilmenau, 2015 - XXXVII, 146 S.. . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - 12) Zugl.: Ilmenau : Techn. Univ., Diss., 2015

Weltweit aber besonders in Europa steigt der Bedarf große Leistungen über weite Strecken zu transportieren. Dies ist hauptsächlich in der Energiewende und dem damit zusammenhängenden stark ansteigenden Anteil Erneuerbarer Energien und deren Erzeugungszentren begründet. Ein bedeutender Teil der Erneuerbaren Energien wird zukünftig weitab der Lastzentren produziert. Zur Lösung dieser daraus resultierenden neuen Transportaufgabe ist die Hochspannungsgleichstromübertragung (HGÜ) besonders geeignet. Eine redundante und damit auch wirtschaftliche Ausführung stellt das vermaschte HGÜ-Netz dar, das in der Energieversorgungsnetzhiearchie eine neue Netzebene dargestellt und somit als Overlay-HGÜ-Netz bezeichnet wird. Diese Arbeit widmet sich der Fragestellung der Betriebsführung eines Overlaynetzes. Dazu wird eine dreistufige Betriebsführung vorgeschlagen. In Anlehnung an die im europäischen AC-Verbundnetz bestehende Dreiteiligkeit wird eine Untergliederung in folgende Regelungsinstanzen vorgenommen: Tertiär-, Sekundär und Primärregelung. Die Tertiärregelung übernimmt die Koordinierungsaufgabe der Umrichter untereinander und mit dem unterlagerten AC-Netz im Rahmen einer Betriebsplanung. Es ist ein betriebstypisches Aktualisierungsintervall von 15 Minuten vorgesehen, indem die Umrichtersollwerte vorgegeben werden. Deren Bestimmung erfolgt durch ein auf dieses nichtlineare Problem zugeschnittenen AC/DC Optimal Power Flow. Dieses Verfahren fußt auf der Verfügbarkeit aller AC- und DC-Netzinformationen im Gebiet des Overlaynetzes. Im Falle einer föderalen Organisation eines HGÜ-Overlaynetzes in Europa müssen die Zielsetzungen mehrere Übertragungsnetzbetreiber (ÜNB) bei der Bestimmung eines Umrichtersollwertfahrplans berücksichtig werden. Für diesen Fall wird hier eine Methode vorgeschlagen, die mittels eines Aushandlungsprozesses die ÜNB spezifischen Kostenfunktionen für den Einsatz von HGÜ-Umrichtern in der entsprechenden Regelzone zu einer für das gesamte Overlaynetz gültigen Zielfunktion konsolidiert. Dabei werden Grenzwerte der einzelnen beteiligten ÜNB ebenso berücksichtigt wie lokale Zielfunktionen. Die Sekundärregelung passt die von der Tertiärregelung vorgegebenen Umrichtersollwerte innerhalb des 15-min-Betriebsintervalls vor allem im Fall von Störungen an. Dafür wird ein Verfahren vorgeschlagen, das sich der Informationen eines Weitbereichsüberwachungssystems bedient, um signifikante Abweichung der geplanten Leistungsflüsse zu erfassen. Die Umrichterwirkleistungssollwerte werden entsprechend angepasst. Eine Aufteilung von unplanmäßigen Leistungsflüssen zwischen AC und DC-Netz sorgt für eine Entlastung des AC-Netzes und beugt Betriebsmittelüberlastungen und dadurch verursachten Instabilitätsphänomenen vor. Die Primärregelung gewährleistet das Gleichgewicht zwischen ein- und ausgespeister Wirkleistung in das / aus dem HGÜ-Overlaynetz. Ist die diesbezügliche Leistungsbilanz ausgewogen, ist das Energiegleichgewicht, die sogenanntes Energiestabilität, gewahrt. Die DC-Zeitkonstanten sind klein. Nur eine dezentral (am Umrichterstandort) angeordnete Regelung kann zeitlich angemessen reagieren. Diese nutzt eine p-u-Regelcharakteristik, die die Umrichtersollleistung entsprechend der Abweichung von der DC-Sollspannung anpasst. Dafür werden eine kontinuierliche p-u-Charakteristik sowie Verfahren zu deren Parametrierung vorgeschlagen. Für die Bereitstellung von DC-Regelleistung besonders geeignete AC-Knoten können so angemessen für das HGÜ-Overlaynetz genutzt werden. Die Funktionalität des hier vorgeschlagenen dreiteiligen Bertriebsführungsverfahrens für vermaschte HGÜ-Netze wird anhand von numerischen Fallstudien auf Basis einer typischen Netztsituation in Zentraleuropa validiert.



TEST4http://www.gbv.de/dms/ilmenau/toc/83194286X.PDF
Röhrig, Markus;
Methodische Arbeitsplatz- und Prozessanalyse in der Akkordarbeit - Ilmenau : Univ.-Verl. Ilmenau, 2015 - Online-Ressource (PDF-Datei: XXIII, 217 S., 13,42 MB). Ilmenau : Techn. Univ., Diss., 2015

Diese wissenschaftliche Arbeit befasst sich mit physiologischen Belastungen von Personen, die aufgrund ökonomischer Gesichtspunkte ihre Tätigkeit nach dem Prinzip des Akkordlohnes ausüben. Dabei ist zu berücksichtigen, dass dieser Entlohnungsgrundsatz einen besonderen Aspekt der Belastung darstellt. Ein weiterer Einflussfaktor ist das Schichtsystem, welches ebenfalls thematisiert wird. Zur Ermittlung der individuellen physiologischen Belastung/Beanspruchung wurden die geläufigsten und der gegenwärtige arbeitswissenschaftliche Forschungsstand an Beurteilungs- und Bewertungsmethoden vorgestellt. Durch eine Matrixbewertung konnte für diese Untersuchung die arbeitswissenschaftlich sinnvollste Bewertungsmethode definiert werden. In dieser Arbeit war dies das CUELA-Verfahren und die Leitmerkmalmethode zur Risikoabschätzung von physiologischen Belastungen bei manuellen Arbeitsprozessen. Auf Basis von dadurch entstandenen Erkenntnissen zum Beispiel in Form von ungünstigen Körperhaltungen oder zu hohen Körperkräften ergaben sich Fragestellungen und wurden Hypothesen aufgestellt. Diese konnten im Laufe der Arbeit systematisch untersucht und beantwortet werden. Eine Untersuchungsmethodik definierte dazu den Umfang der Erhebung. Dabei kam die statistische Versuchsplanung zum Einsatz. Mittels der daraus resultierenden Ergebnisse war eine Überprüfung der Hypothesen möglich. Außerdem konnten andlungsempfehlungen für das Unternehmen und bestehende arbeitswissenschaftliche Defizite abgeleitet werden. So wurde z. B. ein Modell entwickelt, welches eine Kennzahlenberechnung zur physiologischen Gesamtbelastung/-beanspruchung der oberen Extremitäten ermöglicht. Um diesen neuen Modell einen praktikablen Aspekt zu verleihen, wurde eine eigenständige Software entwickelt. Diese ermöglicht dem Benutzer einen effektiven Umgang unter softwareergonomischen Bedingungen. Mit diesen Maßnahmen konnten arbeitswissenschaftliche Beiträge geleistet werden und gleichzeitig durch diverse technische und organisatorische Maßnahmen eine Reduktion von physiologischen Belastungen/Beanspruchungen im Unternehmen erzielt werden.



http://www.db-thueringen.de/servlets/DocumentServlet?id=26008
Röhrig, Markus;
Methodische Arbeitsplatz- und Prozessanalyse in der Akkordarbeit - Ilmenau : Univ.-Verl. Ilmenau, 2015 - XXIII, 217 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2015

Diese wissenschaftliche Arbeit befasst sich mit physiologischen Belastungen von Personen, die aufgrund ökonomischer Gesichtspunkte ihre Tätigkeit nach dem Prinzip des Akkordlohnes ausüben. Dabei ist zu berücksichtigen, dass dieser Entlohnungsgrundsatz einen besonderen Aspekt der Belastung darstellt. Ein weiterer Einflussfaktor ist das Schichtsystem, welches ebenfalls thematisiert wird. Zur Ermittlung der individuellen physiologischen Belastung/Beanspruchung wurden die geläufigsten und der gegenwärtige arbeitswissenschaftliche Forschungsstand an Beurteilungs- und Bewertungsmethoden vorgestellt. Durch eine Matrixbewertung konnte für diese Untersuchung die arbeitswissenschaftlich sinnvollste Bewertungsmethode definiert werden. In dieser Arbeit war dies das CUELA-Verfahren und die Leitmerkmalmethode zur Risikoabschätzung von physiologischen Belastungen bei manuellen Arbeitsprozessen. Auf Basis von dadurch entstandenen Erkenntnissen zum Beispiel in Form von ungünstigen Körperhaltungen oder zu hohen Körperkräften ergaben sich Fragestellungen und wurden Hypothesen aufgestellt. Diese konnten im Laufe der Arbeit systematisch untersucht und beantwortet werden. Eine Untersuchungsmethodik definierte dazu den Umfang der Erhebung. Dabei kam die statistische Versuchsplanung zum Einsatz. Mittels der daraus resultierenden Ergebnisse war eine Überprüfung der Hypothesen möglich. Außerdem konnten andlungsempfehlungen für das Unternehmen und bestehende arbeitswissenschaftliche Defizite abgeleitet werden. So wurde z. B. ein Modell entwickelt, welches eine Kennzahlenberechnung zur physiologischen Gesamtbelastung/-beanspruchung der oberen Extremitäten ermöglicht. Um diesen neuen Modell einen praktikablen Aspekt zu verleihen, wurde eine eigenständige Software entwickelt. Diese ermöglicht dem Benutzer einen effektiven Umgang unter softwareergonomischen Bedingungen. Mit diesen Maßnahmen konnten arbeitswissenschaftliche Beiträge geleistet werden und gleichzeitig durch diverse technische und organisatorische Maßnahmen eine Reduktion von physiologischen Belastungen/Beanspruchungen im Unternehmen erzielt werden.



TEST4http://www.gbv.de/dms/ilmenau/toc/831922206.PDF
Illing, Björn;
Der Einfluss von Netznutzungsentgelten auf die Last im Verteilernetz - Ilmenau : Univ.-Verl. Ilmenau - XI, 190 S.. . - (Ilmenauer Beiträge zur elektrischen Energiesystem, Geräte und Anlagentechnik. - 13) Teilw. zugl.: Ilmenau : Techn. Univ., Diss., 2014 u.d.T.: Berechnungsansätze für Netznutzungsentgelte zur Beeinflussung des Lastverlaufs in der Verteilernetzebene

TEST4http://www.gbv.de/dms/ilmenau/toc/830148396.PDF
Illing, Björn;
Der Einfluss von Netznutzungsentgelten auf die Last im Verteilernetz - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: XI, 190 S., 63,57 MB). . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - 13) Teilw. zugl.: Ilmenau : Techn. Univ., Diss., 2014 u.d.T.: Berechnungsansätze für Netznutzungsentgelte zur Beeinflussung des Lastverlaufs in der Verteilernetzebene

http://www.db-thueringen.de/servlets/DocumentServlet?id=26148
Reichert, Frank;
Numerische Simulation strömungsmechanischer Vorgänge in SF 6 -Hochspannungsleistungsschaltern - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: Getr. Zählung, 63,57 MB). Ilmenau : Techn. Univ., Habil.-Schr., 2014

In der vorliegenden Habilitationsschrift werden die strömungsmechanischen Vorgänge in der Unterbrechereinheit von SF6-Hochspannungsleistungsschaltern während eines Ausschaltvorganges betrachtet. Zunächst wird über eine Analyse des Ausschaltvorganges das physikalische Gesamtsystem zur Beschreibung des Ausschaltvorganges herausgearbeitet, welches auf der Zusammen- und Wechselwirkung verschiedener Teilsysteme (Antrieb und Schaltermechanik, Strömungsgeometrie, Gasströmung, Schaltlichtbogen, Wiederverfestigung und Externer Stromkreis) basiert. Aus der Kopplung der Teilmodelle für die separierten Teilsysteme resultiert ein modulares Simulationsmodell, welches eine numerische Simulation der strömungsmechanischen Vorgänge in SF 6 -Hochspannungsleistungsschaltern während des Ausschaltvorganges ermöglicht. Mit dem entwickelten Simulationsmodell werden Leer- und Kurzschlussabschaltungen simuliert. In diesem Zusammenhang wird u.a. die Rückwirkung des Schaltlichtbogens auf die Antriebs- und Ventiloperation, der Einfluss der Düsenablation auf die Druckverteilung in der Unterbrechereinheit und der Einfluss der Lichtbogenzeit auf die Wiederverfestigung untersucht. Die aufgezeigte Vorgehensweise ist universell und kann auf die verschiedensten mechanischen Schaltgeräte in der Nieder-, Mittel- und Hochspannung angewendet werden.



http://www.db-thueringen.de/servlets/DocumentServlet?id=25782
Brighton, Denisa; Zajko, Marian; Pezoldt, Kerstin
Successful innovations? : efficient knowledge and technology transfer and international collaboration - Ilmenau : Univ.-Verl. Ilmenau, 2015 - Online-Ressource (PDF-Datei: 183 S., 4,66 MB).
http://www.db-thueringen.de/servlets/DocumentServlet?id=25686
Grieseler, Rolf;
Untersuchung der Eigenschaften sowie der Anwendung von reaktiven Mehrschichtsystemen in der Aufbau- und Verbindungstechnik - Ilmenau : Univ.-Verl. Ilmenau, 2015 - Online-Ressource (PDF-Datei: 140 S., 16,15 MB). . - (Werkstofftechnik aktuell. - 12) Ilmenau : Techn. Univ., Diss., 2015

Diese Dissertation beschäftigt sich mit den thermischen Eigenschaften reaktiver Mehrschichtsysteme. Reaktive Mehrschichtsysteme sind schichtweise aufgebaute Materialien oder Folien, die zumeist aus Einzelschichtdicken zwischen 1 und 100 nm und einer Gesamtschichtdicke zwischen 1 und 500 [my]m bestehen. In den meisten Fällen sind derartige Schichten aus metallischen oder oxidischen Materialien aufgebaut, die nach dem Erreichen der Aktivierungsenergie exotherm reagieren. Im Fall von metallischen Schichten geschieht die Erzeugung von Wärme meist unter Bildung intermetallischer Phasen. Die Vorteile bei rein metallischen Schichten bzw. Folien liegen darin, dass die Reaktion ohne Zufuhr von Sauerstoff oder anderen Gasen stattfinden kann. Die erreichten Temperaturen können dabei mehr als 1600&ring;C betragen. Demzufolge sind diese Schichten und Folien gut geeignet, um Bauteile stoffschlüssig zu fügen. Die Reaktionszeiten liegen dabei lediglich im Mikro- und Millisekundenbereich. Dadurch kann die thermische Belastung für die zu fügenden Bauteile sehr viel geringer sein als bei herkömmlichen Fügemethoden, zum Beispiel dem Schweißen. Ziel der folgenden Ausführungen und Untersuchungen war die Analyse verschiedener Materialkombinationen, die als reaktive Mehrschichtsysteme zum Fügen von Bauteilen geeignet erscheinen. Als mögliche Materialkombinationen wurden die Systeme Aluminium-Nickel, Aluminium-Titan, Titan-Silizium und Aluminium-Kupfer untersucht. Diese sollten insbesondere auf die erzeugte Wärmemenge und auf die Reaktionsgeschwindigkeit bzw. die Geschwindigkeit der Reaktionsfront hin untersucht werden. Es hat sich gezeigt, dass auch das Wissen um die Diffusionseigenschaften der Materialien essenziell für die Bestimmung verschiedener thermischer Eigenschaften derartiger Materialsysteme ist. Die Diffusionskoeffizienten für die vier genannten Materialsysteme wurden mittels optischer Glimmentladungsspektroskopie an 2 [my]m dicken Doppelschichtsystemen bestimmt. Resultierend aus der im Vergleich zur Literatur geringeren Aktivierungsenergie für die Diffusion wurde als dominierender Diffusionsmechanismus für diese gesputterten Schichten die Korngrenzendiffusion ermittelt. Die Geschwindigkeiten der Reaktionsfront lagen zwischen 0,5 m/s für das Aluminium-Kupfer System als Beispiel für ein langsam reagierendes System und 22 m/s für das Titan-Silizium System als das am schnellsten reagierende Mehrschichtsystem. Die Reaktionsenergie wurde mittels Differential Thermoanalyse untersucht. Dabei konnte neben den Reaktionsenthalpien auch die Aktivierungsenergie für reaktive Mehrschichtsysteme in Abhängigkeit von der Gesamtschichtdicke ermittelt werden. Es zeigte sich, dass zwei verschiedene Mechanismen als entscheidend für die Reaktion in Betracht kommen. Zum Einen ist bei den Systemen Aluminium-Nickel, Titan-Silizium und Aluminium-Kupfer die Diffusion die treibende Kraft der Reaktion und somit die Aktivierungsenergie der Reaktion auch sehr nah zur Aktivierungsenergie der Diffusion. Zum Anderen zeigte sich im System Aluminium-Titan, dass die Reaktion eher durch Grenzflächenmechanismen bestimmt wird, was zu einer erhöhten Aktivierungsenergie der Reaktion im Vergleich zur Diffusion führt. Weiterhin wurde die Anwendung reaktiver Mehrschichtsysteme zum Bonden zweier Bauteile untersucht. Dazu wurden neben den gesputterten Schichten aus dem Aluminium-Nickel System auch kommerziell erhältliche Nanofoils ® basierend auf dem gleichen Schichtsystem untersucht. Es konnte gezeigt werden, dass die Verwendung solcher reaktiven Schichten vergleichsweise gut geeignet ist, um Materialien und Bauteile miteinander zu fügen. Es konnte eine maximale Haftfestigkeit für das Bonden zweier Aluminiumoxid-Substrate mit Hilfe kommerzieller Nanofoils® von 10 bis 30 N/mm 2 erreicht werden. Zudem zeigte sich, welchen Einfluss die Rauheit der Bauteile auf die Qualität des Bonds hat und inwieweit reaktive Schichten im Vergleich zu herkömmlichen Lotmaterialien auf Grund ihrer Wärmeleitfähigkeit nach der Reaktion geeignet sind, um wärmeerzeugende Bauteile mit Wärmesenken zu verbinden. Die erzielten Ergebnisse können als Beitrag für das Erstellen eines Modells genutzt werden, um sowohl die Reaktion als auch den Einfluss der Reaktion und der daraus resultierenden Temperatur auf die umgebenden Materialien und Bauteile abzubilden und zu beschreiben. Sinnvoll wäre in einem nachfolgenden Schritt die Implementierung eines solchen Modells, um einem zukünftigen Anwender reaktiver Mehrschichtsysteme die Möglichkeit zu geben, aus der Vielzahl reaktiver Mehrschichtsysteme die am Besten geeigneten für den jeweiligen Anwendungsbereich zu ermitteln und den Einfluss auf die Bondpartner zu erhalten.



http://www.db-thueringen.de/servlets/DocumentServlet?id=25769
Grieseler, Rolf;
Untersuchung der Eigenschaften sowie der Anwendung von reaktiven Mehrschichtsystemen in der Aufbau- und Verbindungstechnik - Ilmenau : Univ.-Verl. Ilmenau, 2015 - 140 S.. . - (Werkstofftechnik aktuell. - 12) Zugl.: Ilmenau : Techn. Univ., Diss., 2015

Diese Dissertation beschäftigt sich mit den thermischen Eigenschaften reaktiver Mehrschichtsysteme. Reaktive Mehrschichtsysteme sind schichtweise aufgebaute Materialien oder Folien, die zumeist aus Einzelschichtdicken zwischen 1 und 100 nm und einer Gesamtschichtdicke zwischen 1 und 500 [my]m bestehen. In den meisten Fällen sind derartige Schichten aus metallischen oder oxidischen Materialien aufgebaut, die nach dem Erreichen der Aktivierungsenergie exotherm reagieren. Im Fall von metallischen Schichten geschieht die Erzeugung von Wärme meist unter Bildung intermetallischer Phasen. Die Vorteile bei rein metallischen Schichten bzw. Folien liegen darin, dass die Reaktion ohne Zufuhr von Sauerstoff oder anderen Gasen stattfinden kann. Die erreichten Temperaturen können dabei mehr als 1600&ring;C betragen. Demzufolge sind diese Schichten und Folien gut geeignet, um Bauteile stoffschlüssig zu fügen. Die Reaktionszeiten liegen dabei lediglich im Mikro- und Millisekundenbereich. Dadurch kann die thermische Belastung für die zu fügenden Bauteile sehr viel geringer sein als bei herkömmlichen Fügemethoden, zum Beispiel dem Schweißen. Ziel der folgenden Ausführungen und Untersuchungen war die Analyse verschiedener Materialkombinationen, die als reaktive Mehrschichtsysteme zum Fügen von Bauteilen geeignet erscheinen. Als mögliche Materialkombinationen wurden die Systeme Aluminium-Nickel, Aluminium-Titan, Titan-Silizium und Aluminium-Kupfer untersucht. Diese sollten insbesondere auf die erzeugte Wärmemenge und auf die Reaktionsgeschwindigkeit bzw. die Geschwindigkeit der Reaktionsfront hin untersucht werden. Es hat sich gezeigt, dass auch das Wissen um die Diffusionseigenschaften der Materialien essenziell für die Bestimmung verschiedener thermischer Eigenschaften derartiger Materialsysteme ist. Die Diffusionskoeffizienten für die vier genannten Materialsysteme wurden mittels optischer Glimmentladungsspektroskopie an 2 [my]m dicken Doppelschichtsystemen bestimmt. Resultierend aus der im Vergleich zur Literatur geringeren Aktivierungsenergie für die Diffusion wurde als dominierender Diffusionsmechanismus für diese gesputterten Schichten die Korngrenzendiffusion ermittelt. Die Geschwindigkeiten der Reaktionsfront lagen zwischen 0,5 m/s für das Aluminium-Kupfer System als Beispiel für ein langsam reagierendes System und 22 m/s für das Titan-Silizium System als das am schnellsten reagierende Mehrschichtsystem. Die Reaktionsenergie wurde mittels Differential Thermoanalyse untersucht. Dabei konnte neben den Reaktionsenthalpien auch die Aktivierungsenergie für reaktive Mehrschichtsysteme in Abhängigkeit von der Gesamtschichtdicke ermittelt werden. Es zeigte sich, dass zwei verschiedene Mechanismen als entscheidend für die Reaktion in Betracht kommen. Zum Einen ist bei den Systemen Aluminium-Nickel, Titan-Silizium und Aluminium-Kupfer die Diffusion die treibende Kraft der Reaktion und somit die Aktivierungsenergie der Reaktion auch sehr nah zur Aktivierungsenergie der Diffusion. Zum Anderen zeigte sich im System Aluminium-Titan, dass die Reaktion eher durch Grenzflächenmechanismen bestimmt wird, was zu einer erhöhten Aktivierungsenergie der Reaktion im Vergleich zur Diffusion führt. Weiterhin wurde die Anwendung reaktiver Mehrschichtsysteme zum Bonden zweier Bauteile untersucht. Dazu wurden neben den gesputterten Schichten aus dem Aluminium-Nickel System auch kommerziell erhältliche Nanofoils ® basierend auf dem gleichen Schichtsystem untersucht. Es konnte gezeigt werden, dass die Verwendung solcher reaktiven Schichten vergleichsweise gut geeignet ist, um Materialien und Bauteile miteinander zu fügen. Es konnte eine maximale Haftfestigkeit für das Bonden zweier Aluminiumoxid-Substrate mit Hilfe kommerzieller Nanofoils® von 10 bis 30 N/mm 2 erreicht werden. Zudem zeigte sich, welchen Einfluss die Rauheit der Bauteile auf die Qualität des Bonds hat und inwieweit reaktive Schichten im Vergleich zu herkömmlichen Lotmaterialien auf Grund ihrer Wärmeleitfähigkeit nach der Reaktion geeignet sind, um wärmeerzeugende Bauteile mit Wärmesenken zu verbinden. Die erzielten Ergebnisse können als Beitrag für das Erstellen eines Modells genutzt werden, um sowohl die Reaktion als auch den Einfluss der Reaktion und der daraus resultierenden Temperatur auf die umgebenden Materialien und Bauteile abzubilden und zu beschreiben. Sinnvoll wäre in einem nachfolgenden Schritt die Implementierung eines solchen Modells, um einem zukünftigen Anwender reaktiver Mehrschichtsysteme die Möglichkeit zu geben, aus der Vielzahl reaktiver Mehrschichtsysteme die am Besten geeigneten für den jeweiligen Anwendungsbereich zu ermitteln und den Einfluss auf die Bondpartner zu erhalten.



TEST4http://www.gbv.de/dms/ilmenau/abs/827075278gries.txt
Reichert, Frank;
Numerische Simulation strömungsmechanischer Vorgänge in SF 6 -Hochspannungsleistungsschaltern - Ilmenau : Univ.-Verl. Ilmenau - X, 163 S., Anh. (II, 95 S.). Zugl.: Ilmenau : Techn. Univ., Habil.-Schr., 2014

In der vorliegenden Habilitationsschrift werden die strömungsmechanischen Vorgänge in der Unterbrechereinheit von SF6-Hochspannungsleistungsschaltern während eines Ausschaltvorganges betrachtet. Zunächst wird über eine Analyse des Ausschaltvorganges das physikalische Gesamtsystem zur Beschreibung des Ausschaltvorganges herausgearbeitet, welches auf der Zusammen- und Wechselwirkung verschiedener Teilsysteme (Antrieb und Schaltermechanik, Strömungsgeometrie, Gasströmung, Schaltlichtbogen, Wiederverfestigung und Externer Stromkreis) basiert. Aus der Kopplung der Teilmodelle für die separierten Teilsysteme resultiert ein modulares Simulationsmodell, welches eine numerische Simulation der strömungsmechanischen Vorgänge in SF 6 -Hochspannungsleistungsschaltern während des Ausschaltvorganges ermöglicht. Mit dem entwickelten Simulationsmodell werden Leer- und Kurzschlussabschaltungen simuliert. In diesem Zusammenhang wird u.a. die Rückwirkung des Schaltlichtbogens auf die Antriebs- und Ventiloperation, der Einfluss der Düsenablation auf die Druckverteilung in der Unterbrechereinheit und der Einfluss der Lichtbogenzeit auf die Wiederverfestigung untersucht. Die aufgezeigte Vorgehensweise ist universell und kann auf die verschiedensten mechanischen Schaltgeräte in der Nieder-, Mittel- und Hochspannung angewendet werden.



TEST4http://www.gbv.de/dms/ilmenau/toc/826803393.PDF
Brighton, Denisa; Zajko, Marian; Pezoldt, Kerstin
Successful innovations? : efficient knowledge and technology transfer and international collaboration - Ilmenau : Univ.-Verl. Ilmenau, 2015 - 183 S.. Literaturverz. S. 171 - 179

TEST4http://www.gbv.de/dms/ilmenau/toc/826199283.PDF
Steege, Frank-Florian;
Einsatz adaptiver Lernverfahren zur Regelung industrieller Verbrennungsprozesse - Ilmenau : Univ.-Verl. Ilmenau, 2015 - Online-Ressource (PDF-Datei: IX, 355 S., 7,61 MB). Ilmenau : Techn. Univ., Diss., 2015
Enth. außerdem: Thesen

In dieser Arbeit wird dargestellt, wie lernfähige adaptive Prozessmodelle zum Verbessern der Prozessführung in großen industriellen Verbrennungsanlagen beitragen können. Dazu werden die wesentlichen Bestandteile eines solchen Verbrennungsprozesses dargestellt, und es wird erläutert, warum konventionelle Regelungsverfahren (z.B. PID-Regler) Teile dieses Prozesses nicht oder nur unzureichend beherrschen können. Lernfähige Modelle sind prinzipiell in der Lage eine bessere Prozessführung zu gewährleisten. Ebenso wird gezeigt, welche Probleme die Standard-Lernverfahren mit den Daten realer Prozesse haben. Im Hauptteil der Arbeit werden drei Verbesserungsansätze erarbeitet: Der Einfluss von verrauschten Daten auf den Lernvorgang. Um trotz solcher Daten gute Modelle zu erhalten, werden sowohl verrauschte Punkte (Ausreißer) aus dem Datensatz entfernt als auch robuste Trainingsverfahren eingesetzt. Die Anpassung eines lernfähigen Modells an Veränderungen des Prozesses über langen Zeiträumen. Es wird gezeigt, dass ein Adaptieren des Modells zu Vorteilen gegenüber einem statischen Modell führt. Auf Verbrennungsdaten werden die besten Ergebnisse mit der gewichteten Kombination von adaptiven Modellen in Ensembles erreicht. Die funktionale Sicherheit der Stellstrategie eines lernfähigen Modells. Lernfähige Standardverfahren scheitern oft an der Verteilung der Daten in bereits geregelten Prozessen. Zur Vermeidung solcher Fehler werden mehrere sich ergänzende Ansätze entwickelt. Bedeutsam ist dabei das Einfügen von Expertenwissen in den Lernprozess. Durch Abgleich mit bereits vorhandenen Daten der Anlage kann gezielt Wissen für unbekannte Bereiche integriert und die Zuverlässigkeit lernfähiger Regler erhöht werden. Das wesentliche Herausstellungsmerkmal dieser Arbeit im Vergleich zu anderen Arbeiten auf dem Gebiet der lernfähigen Prozessmodelle liegt im unmittelbaren praktischen Bezug zu Verbrennungsprozessen. Die vorgestellten Verfahren wurden auf verschiedenen Müllverbrennungsanlagen und Zementwerken über mehrere Wochen und Monate erprobt. Es werden Lösungsmöglichkeiten aufgezeigt, die es ermöglichen, lernfähige Systeme über lange Zeiträume aktiv Stellgrößen regeln zu lassen und so eine erhebliche Verbesserung der Prozessführung zu erreichen.



http://www.db-thueringen.de/servlets/DocumentServlet?id=25672
Steege, Frank-Florian;
Einsatz adaptiver Lernverfahren zur Regelung industrieller Verbrennungsprozesse - Ilmenau : Univ.-Verl. Ilmenau, 2015 - IX, 355 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2015
Enth. außerdem: Thesen

In dieser Arbeit wird dargestellt, wie lernfähige adaptive Prozessmodelle zum Verbessern der Prozessführung in großen industriellen Verbrennungsanlagen beitragen können. Dazu werden die wesentlichen Bestandteile eines solchen Verbrennungsprozesses dargestellt, und es wird erläutert, warum konventionelle Regelungsverfahren (z.B. PID-Regler) Teile dieses Prozesses nicht oder nur unzureichend beherrschen können. Lernfähige Modelle sind prinzipiell in der Lage eine bessere Prozessführung zu gewährleisten. Ebenso wird gezeigt, welche Probleme die Standard-Lernverfahren mit den Daten realer Prozesse haben. Im Hauptteil der Arbeit werden drei Verbesserungsansätze erarbeitet: Der Einfluss von verrauschten Daten auf den Lernvorgang. Um trotz solcher Daten gute Modelle zu erhalten, werden sowohl verrauschte Punkte (Ausreißer) aus dem Datensatz entfernt als auch robuste Trainingsverfahren eingesetzt. Die Anpassung eines lernfähigen Modells an Veränderungen des Prozesses über langen Zeiträumen. Es wird gezeigt, dass ein Adaptieren des Modells zu Vorteilen gegenüber einem statischen Modell führt. Auf Verbrennungsdaten werden die besten Ergebnisse mit der gewichteten Kombination von adaptiven Modellen in Ensembles erreicht. Die funktionale Sicherheit der Stellstrategie eines lernfähigen Modells. Lernfähige Standardverfahren scheitern oft an der Verteilung der Daten in bereits geregelten Prozessen. Zur Vermeidung solcher Fehler werden mehrere sich ergänzende Ansätze entwickelt. Bedeutsam ist dabei das Einfügen von Expertenwissen in den Lernprozess. Durch Abgleich mit bereits vorhandenen Daten der Anlage kann gezielt Wissen für unbekannte Bereiche integriert und die Zuverlässigkeit lernfähiger Regler erhöht werden. Das wesentliche Herausstellungsmerkmal dieser Arbeit im Vergleich zu anderen Arbeiten auf dem Gebiet der lernfähigen Prozessmodelle liegt im unmittelbaren praktischen Bezug zu Verbrennungsprozessen. Die vorgestellten Verfahren wurden auf verschiedenen Müllverbrennungsanlagen und Zementwerken über mehrere Wochen und Monate erprobt. Es werden Lösungsmöglichkeiten aufgezeigt, die es ermöglichen, lernfähige Systeme über lange Zeiträume aktiv Stellgrößen regeln zu lassen und so eine erhebliche Verbesserung der Prozessführung zu erreichen.



TEST4http://www.gbv.de/dms/ilmenau/toc/823905306.PDF
Katkhouda, Kamal;
Aluminum-based PVD rear-side metallization for front-junction nPERT silicon solar cells - Ilmenau : Univ.-Verl. Ilmenau, 2015 - Online-Ressource (PDF-Datei: 204 S., 28,10 MB). . - (Werkstofftechnik aktuell. - 11) Ilmenau : Techn. Univ., Diss., 2014

Diese Arbeit befasst sich mit Al-basierter physikalischer Gasphasenabscheidung als alternatives Herstellungsverfahren einer Rückseitenmetallisierung für nPERT Siliziumsolarzellen. Al-basierte Metallisierungssysteme wie Al, Al-Si-Legierung (1 at% Si) und Al-Si/Al- Schichtstapel wurden in Bezug auf Al-Spiking, spezifischem Kontaktwiderstand und Rückseitenreflexion untersucht und verglichen. Bei Verwendung einer Al-Einzelschichtmetallisierung kam es zur Bildung von Al-Spikes. Wurde eine Al-Si-Legierung aufgebracht, konnte das Al-Spiking vermieden werden, jedoch gleichzeitig mit einer Bildung von starkausgeprägten Si-Präzipitaten. Deswegen wurde ein neuer Ansatz mit einem Al-Si/Al-Schichtstapel statt Einzelschichtsystemen entwickelt. Mit diesem Ansatz und mit einer optimierten Dicke der Al-Si-Schicht konnten sowohl das Al-Spiking als auch die Si-Präzipitation deutlich reduziert werden. Der optimierte Al-Si/Al-Schichtstapel zeigte zusätzlich einen ausreichend niedrigen spezifischen Kontaktwidestand und eine hohe Rückseitenreflexion und darüber hinaus eine deutlich höhere thermische Stabilität verglichen mit dem Al-Einzelschichtmetallisierung.



http://www.db-thueringen.de/servlets/DocumentServlet?id=25639
Katkhouda, Kamal;
Aluminum-based PVD rear-side metallization for front-junction nPERT silicon solar cells - Ilmenau : Univ.-Verl. Ilmenau, 2015 - 204 S.. . - (Werkstofftechnik aktuell. - 11) Zugl.: Ilmenau : Techn. Univ., Diss., 2014

Diese Arbeit befasst sich mit Al-basierter physikalischer Gasphasenabscheidung als alternatives Herstellungsverfahren einer Rückseitenmetallisierung für nPERT Siliziumsolarzellen. Al-basierte Metallisierungssysteme wie Al, Al-Si-Legierung (1 at% Si) und Al-Si/Al- Schichtstapel wurden in Bezug auf Al-Spiking, spezifischem Kontaktwiderstand und Rückseitenreflexion untersucht und verglichen. Bei Verwendung einer Al-Einzelschichtmetallisierung kam es zur Bildung von Al-Spikes. Wurde eine Al-Si-Legierung aufgebracht, konnte das Al-Spiking vermieden werden, jedoch gleichzeitig mit einer Bildung von starkausgeprägten Si-Präzipitaten. Deswegen wurde ein neuer Ansatz mit einem Al-Si/Al-Schichtstapel statt Einzelschichtsystemen entwickelt. Mit diesem Ansatz und mit einer optimierten Dicke der Al-Si-Schicht konnten sowohl das Al-Spiking als auch die Si-Präzipitation deutlich reduziert werden. Der optimierte Al-Si/Al-Schichtstapel zeigte zusätzlich einen ausreichend niedrigen spezifischen Kontaktwidestand und eine hohe Rückseitenreflexion und darüber hinaus eine deutlich höhere thermische Stabilität verglichen mit dem Al-Einzelschichtmetallisierung.



TEST4http://www.gbv.de/dms/ilmenau/toc/821844717.PDF
Balzer, Felix Gerhard;
Entwicklung und Untersuchungen zur 3-D-Nanopositioniertechnik in großen Bewegungsbereichen - Ilmenau : Universitätsverlag Ilmenau, 2015 - 1 Online-Ressource (xx, 231 Seiten).
Technische Universität Ilmenau, Dissertation 2014

In der Dissertation wird die Entwicklung einer neuen Nanopositionier- und Nanomessmaschine NPMM-200 beschrieben. Das Gesamtsystem wird im Überblick dargestellt. Im Detail werden die Konstruktion und Realisierung des Positioniersystems behandelt. Ein Schwerpunkt der experimentellen Verifikation ist die Analyse der Leistungsfähigkeit und der Grenzen der Positioniereigenschaften dieses Messgeräts. Darüber hinaus werden erste Ergebnisse des metrologischen Nachweises anhand einer ausgewählten Messaufgabe und mehrere Anwendungsbeispiele vorgestellt. Die NPMM-200 hebt sich mit einem Messvolumen von 200 mm x 200 mm x 25 mm bei gleichzeitiger Messauflösung in subatomarer Größenordnung sowie einer angestrebten 3-D-Messunsicherheit von weniger als 30 nm vom derzeitigen Stand der Technik ab. Gegenwärtig existiert kein Antastsystem, das universell für die Bewältigung der Vielzahl von Messaufgaben an Mikro- und Nanostrukturen geeignet ist. Deshalb wurde die NPMM-200 für Multisensorik konzipiert.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2014000373
Balzer, Felix Gerhard;
Entwicklung und Untersuchungen zur 3-D-Nanopositioniertechnik in großen Bewegungsbereichen - Ilmenau : Universitätsverlag Ilmenau, 2015 - xx, 231 Seiten.
Technische Universität Ilmenau, Dissertation 2014

In der Dissertation wird die Entwicklung einer neuen Nanopositionier- und Nanomessmaschine NPMM-200 beschrieben. Das Gesamtsystem wird im Überblick dargestellt. Im Detail werden die Konstruktion und Realisierung des Positioniersystems behandelt. Ein Schwerpunkt der experimentellen Verifikation ist die Analyse der Leistungsfähigkeit und der Grenzen der Positioniereigenschaften dieses Messgeräts. Darüber hinaus werden erste Ergebnisse des metrologischen Nachweises anhand einer ausgewählten Messaufgabe und mehrere Anwendungsbeispiele vorgestellt. Die NPMM-200 hebt sich mit einem Messvolumen von 200 mm x 200 mm x 25 mm bei gleichzeitiger Messauflösung in subatomarer Größenordnung sowie einer angestrebten 3-D-Messunsicherheit von weniger als 30 nm vom derzeitigen Stand der Technik ab. Gegenwärtig existiert kein Antastsystem, das universell für die Bewältigung der Vielzahl von Messaufgaben an Mikro- und Nanostrukturen geeignet ist. Deshalb wurde die NPMM-200 für Multisensorik konzipiert.



TEST4http://www.gbv.de/dms/ilmenau/abs/818502479balze.txt
Sass, Florian;
Diversitäre Redundanz gemischter AC-HGÜ-Netze durch schnelle korrektive Maßnahmen - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: XVII, 67 S., 1,64 MB). . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - 14) Zugl.: Ilmenau : Techn. Univ., Masterarbeit, 2015

Vermaschte HGÜ-Netze können zum Aufbau eines dem AC-Netz überlagerten Overlay-Netzes eingesetzt werden. Der Betrieb eines solchen Netzes erfordert eine schnelle Reaktion auf Störungen im AC- und im HGÜ-Netz. Um diese seitens der HGÜ-Umrichter zu ermöglichen, ist ein schnelles Anpassen der Umrichter-Arbeitspunkte erforderlich. Um dem teilweise sehr zeit-kritischen Verlauf solcher Störszenarien zu begegnen, wird ein Verfahren vorgestellt, das eine schnelle Korrektur der Umrichter-Arbeitspunkte ermöglicht. Entsprechend einer Liste möglicher kritischer Betriebsmittelausfälle werden auf zentraler Ebene mittels einer Optimal Power Flow-Berechnung korrektive Umrichter-Arbeitspunkte erstellt und auf lokaler Ebene innerhalb der Umrichter-Steuerung abgelegt. Lokale Messungen ermöglichen die Identifikation von eintretenden kritischen Ausfallszenarien und eine Aktivierung der entsprechend vorberechneten Korrekturmaßnahmen. Auf diese Weise kann der AC-HGÜ-Netzverbund bei Ausfall eines Betriebsmittels durch korrektive Maßnahmen in den (n-1)-sicheren Zustand überführt werden. Der Begriff der Diversitären Redundanz wird an dieser Stelle eingeführt.


http://www.gbv.de/dms/ilmenau/abs/818192372sass.txtTEST2

Rau, Thomas S.;
Optimierung der Insertion von Cochlea-Implantaten unter Berücksichtigung des Verformungsverhaltens der Elektrodenträger : mechatronik-gestützte, minimal traumatische CI-Chirurgie - Ilmenau : Univ.-Verl. Ilmenau, 2015 - XXIV, 376 S.. . - (Berichte aus der Biomechatronik. - 11) Zugl.: Ilmenau : Techn. Univ., Diss., 2014

Die Entwicklung von Cochlea-Implantaten (CI) ist eine einzigartige Erfolgsgeschichte in der Neuroprothetik, welche die Behandlung von tauben und zunehmend hochgradig schwerhörigen Patienten ermöglicht. Die Implantation eines CIs ist dabei ein komplexer Eingriff, der ein erhebliches Risiko des Resthörverlusts birgt. Die aktuelle CI-Versorgung ist jedoch dominiert von der wachsenden Forderung nach sicherem Resthörerhalt. Das führt zu hohen Erwartungen an die Verbesserung der CI-Chirurgie und insbesondere an die Insertion der Elektrodenträger. Wesentliche Fortschritte und die damit verbundenen, technischen Herausforderungen sind nur noch durch ganzheitliche und domänenübergreifende Lösungsansätze zu bewältigen, wie sie die Biomechatronik bietet. Daraus folgt das erklärte Ziel dieser Arbeit: eine eng verzahnte Weiterentwicklung aller für den Resthörerhalt relevanten Prozessschritte. Fokussiert auf das chirurgische Vorgehen wurden für die mechanische Schaffung eines minimal-invasiven Zugangs ins Innenohr, dessen anatomieerhaltende Eröffnung und die automatisierte Insertion der CI-Elektrodenträger mechatronische Komponenten entwickelt und evaluiert. Geprägt waren diese Entwicklungen von einer biologisch fundierten Betrachtungsweise, um die anatomischen Aspekte in der Optimierung bestmöglich auszuschöpfen. Den Ausgangspunkt der Arbeit bildete eine systematische Sekundäranalyse zur Biomechanik der Insertion in Kombination mit einer Analogiebetrachtung zu technischen Füge- bzw. Handhabungsprozessen. Daraus folgte, dass die Anpassung der Gestalt des Implantats an die individuelle Form des Innenohrs von zentraler Bedeutung für den Resthörerhalt ist. In der darauf aufbauenden, simulationsgestützten Optimierung des Insertionsprozesses wurde erstmalig gezeigt, dass die patientenspezifische Adaption des Verformungsverhaltens des Elektrodenträgers an die Cochleaanatomie ein erhebliches und bislang ungenutztes Optimierungspotential bietet. Für die notwendige Automatisierung der Insertion wurde ein modulares Insertionstool konzipiert. Dessen Entwurf ging mit Designempfehlungen für zukünftige Elektrodenträger einher, welche erstmalig die räumlichen Anforderungen des minimal-invasiven Zugangs berücksichtigen. Durch die ganzheitliche, biomechatronische Herangehensweise wurde somit aufgezeigt, wie ein sicheres und zukunftsweisendes Operationsverfahren bereitgestellt werden kann.



TEST4http://www.gbv.de/dms/ilmenau/abs/799207853rau.txt
Gramstat, Sebastian;
Methoden der in-situ Visualisierung der Reibzonendynamik trockenlaufender Reibpaarungen unter Ergänzung physikalischer und chemischer Charakterisierungen der Reibpartner - Ilmenau : Univ.-Verl. Ilmenau, 2015 - XIII, 333 S.. . - (Kraftfahrzeugtechnische Berichte. - 7) : Zugl.: Ilmenau, Techn. Univ., Diss., 2014 u.d.T.: Gramstat, Sebastian: Methodische Entwicklung von Verfahren der in-situ Visualisierung der Reibzonendynamik trockenlaufender Reibpaarungen im Zusammenhang mit physikalischen und chemischen Charakterisierungen der Reibpartner
ISBN 978-3-86360-107-2
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=24859

Das tribologische Verhalten trockenlaufender Reibpaarungen ist bis heute nicht vollständig beschreibbar. Der Bedarf an der Kenntnis daran, was während einer Bremsung in der Reibzone geschieht, ist enorm groß. Die Zielstellung der vorliegenden Arbeit betrifft daher die Überwindung bisheriger Grenzen der in-situ Betrachtung der Reibzonenvorgänge auf einem Multiskalenniveau (Nano, Mikro, Makro), um die Wirkmechanismen der Reibschicht zu charakterisieren. Hierfür wurden neuartige in-situ Visualisierungsuntersuchungen unter Nutzung speziell entwickelter Bremsscheiben und originalen Komplettreibbelägen von Personenkraftwagen unternommen. Für Letztere erfolgte eine Berücksichtigung verschiedener Rezepturen (ECE, NAO sowie kupferfreie ECE-Mischungen). Als Ergebnis kann zunächst die Vergleichbarkeit der Erkenntnisse des in-situ Prüfkonzepts auf konventionelle Reibpaarungen (Grauguß-Bremsscheibe - organischer Reibbelag) nachgewiesen werden, was die Tauglichkeit und Aussagefähigkeit der neuartigen Methode verdeutlicht. Das sich einstellende Patchverhalten zeigt direkte Analogien hinsichtlich der Anzahl, Größe und Gestalt der Plateaus. Mit Hilfe der Visualisierungs- und ergänzenden Analysemethoden wird nun erstmals die Dynamik der Patchlebenszyklen als Patchfläche über die Bremsungsdauer charakterisiert. Auch die reibkraftübertragenden Reibzonenanteile zwischen den Bremsungen werden bestimmt und lassen somit Rückschlüsse auf die Ausprägung von Restbremsmomenten zu. Neben den Patchanalysen werden erstmalig die Bewegungsgeschwindigkeiten und -bahnen sowie die Verweildauern der Abriebpartikel in der Reibzone charakterisiert. Dabei zeigt sich nicht nur, daß sie sich zumeist im Vergleich zur Rotorgeschwindigkeit deutlich langsamer bewegen, sondern auch, daß die Belagrezeptur einen wesentlichen Einfluß auf die Ausprägung der Partikelbahnen sowie die gegenseitige Beeinflussung des Partikelbewegungsverhaltens ausübt. Der Charakterisierungsansatz, der zudem lokal aufgelöste Belagtopographie-, Kompressibilitäts- und Porositätsanalysen (mittels dreidimensionaler Computertomographie) sowie chemische Analysen mittels EDX vorsieht, offenbart zudem Zusammenhänge zwischen der Patchdynamik und der Reibbelagphysik und -chemie in Bezug auf das tribologische (Naß- und Trockenreibung) und thermische (Thermoelastische Instabilität) Verhalten. Letzteres erlaubt es zum ersten Mal, Hitzeflecken in der Reibzone zu beschreiben, indem ihre Anzahl und Flächen dynamisch bestimmt werden. Mittels der vorgestellten Methode ist es nun möglich, die Dynamik und Wirkmechanismen vom einzelnen Patch über verschiedene Patchzonen bis hin zur kompletten Reibzone (inklusive Reibringverlagerungen) zu charakterisieren.



Gerth, Julia;
Produktionswirtschaftliche Beschreibungs- und Optimierungsmodelle für die Wertstoffsortierung - Ilmenau : Univ.-Verl. Ilmenau Ilmenau : Techn. Univ., Diss., 2013

Während die mechanische Verfahrenstechnik eine Vielzahl unterschiedlicher Verfahren bereithält, um Wertstoffe von nicht weiter verwertbaren Resten zu trennen, fehlen in der Betriebswirtschaftslehre bislang Modelle und Verfahren, die den Produktionsprozess der Wertstoffsortierung aus ökonomischer Sicht detaillierter beschreiben und optimieren. Bisherige Ansätze beschreiben die Kreislaufwirtschaft zumeist allgemein, ohne ausführlicher auf die Sortierung einzugehen. Die vorliegende Monographie beschäftigt sich zunächst ausführlich mit dem Sortierinput, dem Abfallgemisch. Es werden verschiedene Formen und Anordnungen von Vermischung diskutiert und Kennzahlen zur Messung des Vermischungszustands entwickelt. Darauf aufbauend und im Zusammenspiel mit Strukturanalogien zwischen Transport- und Sortierprozessen wird ein formales Grundmodell für Wertstoffsortierung entwickelt. Dieses Grundmodell wird nach einer Evaluation, die verschiedene Anwendungsmöglichkeiten aufzeigt, um praxisrelevante stochastische Aspekte erweitert.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2013000703
Busch, Christian;
Ein Beitrag zum modellbasierten Regelungsentwurf elektropneumatischer Applikationen - Ilmenau : Univ.-Verl. Ilmenau, 2014 - Online-Ressource (PDF-Datei: XVI, 228 S., 6,13 MB). Ilmenau : Techn. Univ., Diss., 2014

Diese Arbeit stellt einen Überblick über die Funktionalität und Funktionsweise industrieller Regelungstechnik im Anwendungsfeld elektropneumatischer Applikationen dar. Das Ergebnis der physikalischen Modellierung beinhaltet Analogiebetrachtungen zu passiven Bauelementen der Elektrotechnik auf der Grundlage verallgemeinerter Zustandsgrößen. Dies führt zu einem leicht erweiterbaren, parameterlinearen aber dennoch nichtlinearen Zustandsraummodell. Am Beispiel eines experimentell bestimmten Datensatzes wurden verschiedene Methoden zur Schätzung bzw. Rekonstruktion der für die Regelung notwendigen Zustandsgrößen vorgestellt, geprüft und bewertet. Der Fokus der ausgewählten Methoden liegt vor allem darauf, brauchbare und insbesondere präzise (bzw. erwartungstreue) Schätzergebnisse auch unter vorhandenen Modellfehlern zu liefern. Der implementierte Zustandsschätzalgorithmus ist als fester Bestandteil der Reglerstruktur im Gesamtkonzept anzusehen. Durch die Verwendung einer Zustandstransformation und der sich daraus ergebenden E/A-Darstellung, konnte dem System eine integrale Streckencharakteristik aufgeprägt werden. In den üblichen Anwendungsfällen lässt sich so die Forderung nach stationärer Genauigkeit auch mit groben Modellierungsfehlern und ohne die Verwendung eines integralen Reglers oder gar einer Vorfilteradaption erreichen. Abschließend wurde gezeigt, dass auch der Vorgang eines Stofftransports in Form einer sich ergebenden Totzeit mit in das verallgemeinerte Streckenmodell integriert werden kann. Die Anwendbarkeit einiger in der Literatur existierender Methoden zur Modellierung einer Totzeit im Zeitbereich wurde entsprechend geprüft und beurteilt. Weil das entwickelte Regelungskonzept strukturell gleich für räumlich konzentrierte, wie auch für räumlich ausgedehnte Industrieanlagen aufgebaut sein soll, ist es wiederum wichtig eine dieser Totzeitapproximationsmethoden mit in den entworfenen Algorithmus aufzunehmen. Für den Gesamtregelkreis bedeutet das somit eine Erweiterung des Zustandsschätzsystems.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2014000090
Rau, Thomas S.;
Optimierung der Insertion von Cochlea-Implantaten unter Berücksichtigung des Verformungsverhaltens der Elektrodenträger : mechatronik-gestützte, minimal traumatische CI-Chirurgie - Ilmenau : Univ.-Verl. Ilmenau, 2014 - Online-Ressource (PDF-Datei: XXIV, 376 S., 149,72 MB). . - (Berichte aus der Biomechatronik. - 11) Ilmenau : Techn. Univ., Diss., 2014
Enth. außerdem: Thesen

Die Entwicklung von Cochlea-Implantaten (CI) ist eine einzigartige Erfolgsgeschichte in der Neuroprothetik, welche die Behandlung von tauben und zunehmend hochgradig schwerhörigen Patienten ermöglicht. Die Implantation eines CIs ist dabei ein komplexer Eingriff, der ein erhebliches Risiko des Resthörverlusts birgt. Die aktuelle CI-Versorgung ist jedoch dominiert von der wachsenden Forderung nach sicherem Resthörerhalt. Das führt zu hohen Erwartungen an die Verbesserung der CI-Chirurgie und insbesondere an die Insertion der Elektrodenträger. Wesentliche Fortschritte und die damit verbundenen, technischen Herausforderungen sind nur noch durch ganzheitliche und domänenübergreifende Lösungsansätze zu bewältigen, wie sie die Biomechatronik bietet. Daraus folgt das erklärte Ziel dieser Arbeit: eine eng verzahnte Weiterentwicklung aller für den Resthörerhalt relevanten Prozessschritte. Fokussiert auf das chirurgische Vorgehen wurden für die mechanische Schaffung eines minimal-invasiven Zugangs ins Innenohr, dessen anatomieerhaltende Eröffnung und die automatisierte Insertion der CI-Elektrodenträger mechatronische Komponenten entwickelt und evaluiert. Geprägt waren diese Entwicklungen von einer biologisch fundierten Betrachtungsweise, um die anatomischen Aspekte in der Optimierung bestmöglich auszuschöpfen. Den Ausgangspunkt der Arbeit bildete eine systematische Sekundäranalyse zur Biomechanik der Insertion in Kombination mit einer Analogiebetrachtung zu technischen Füge- bzw. Handhabungsprozessen. Daraus folgte, dass die Anpassung der Gestalt des Implantats an die individuelle Form des Innenohrs von zentraler Bedeutung für den Resthörerhalt ist. In der darauf aufbauenden, simulationsgestützten Optimierung des Insertionsprozesses wurde erstmalig gezeigt, dass die patientenspezifische Adaption des Verformungsverhaltens des Elektrodenträgers an die Cochleaanatomie ein erhebliches und bislang ungenutztes Optimierungspotential bietet. Für die notwendige Automatisierung der Insertion wurde ein modulares Insertionstool konzipiert. Dessen Entwurf ging mit Designempfehlungen für zukünftige Elektrodenträger einher, welche erstmalig die räumlichen Anforderungen des minimal-invasiven Zugangs berücksichtigen. Durch die ganzheitliche, biomechatronische Herangehensweise wurde somit aufgezeigt, wie ein sicheres und zukunftsweisendes Operationsverfahren bereitgestellt werden kann.



http://www.db-thueringen.de/servlets/DocumentServlet?id=25269
Gramstat, Sebastian;
Methoden der in-situ Visualisierung der Reibzonendynamik trockenlaufender Reibpaarungen unter Ergänzung physikalischer und chemischer Charakterisierungen der Reibpartner - Ilmenau : Univ.-Verl. Ilmenau, 2014 - Online-Ressource (PDF-Datei: XIII, 333 S., 57,22 MB). . - (Kraftfahrzeugtechnische Berichte. - 7) Ilmenau : Techn. Univ., Diss., 2014

Das tribologische Verhalten trockenlaufender Reibpaarungen ist bis heute nicht vollständig beschreibbar. Der Bedarf an der Kenntnis daran, was während einer Bremsung in der Reibzone geschieht, ist enorm groß. Die Zielstellung der vorliegenden Arbeit betrifft daher die Überwindung bisheriger Grenzen der in-situ Betrachtung der Reibzonenvorgänge auf einem Multiskalenniveau (Nano, Mikro, Makro), um die Wirkmechanismen der Reibschicht zu charakterisieren. Hierfür wurden neuartige in-situ Visualisierungsuntersuchungen unter Nutzung speziell entwickelter Bremsscheiben und originalen Komplettreibbelägen von Personenkraftwagen unternommen. Für Letztere erfolgte eine Berücksichtigung verschiedener Rezepturen (ECE, NAO sowie kupferfreie ECE-Mischungen). Als Ergebnis kann zunächst die Vergleichbarkeit der Erkenntnisse des in- situ Prüfkonzepts auf konventionelle Reibpaarungen (Grauguß-Bremsscheibe - organischer Reibbelag) nachgewiesen werden, was die Tauglichkeit und Aussagefähigkeit der neuartigen Methode verdeutlicht. Das sich einstellende Patchverhalten zeigt direkte Analogien hinsichtlich der Anzahl, Größe und Gestalt der Plateaus. Mit Hilfe der Visualisierungs- und ergänzenden Analysemethoden wird nun erstmals die Dynamik der Patchlebenszyklen als Patchfläche über die Bremsungsdauer charakterisiert. Auch die reibkraftübertragenden Reibzonenanteile zwischen den Bremsungen werden bestimmt und lassen somit Rückschlüsse auf die Ausprägung von Restbremsmomenten zu. Neben den Patchanalysen werden erstmalig die Bewegungsgeschwindigkeiten und -bahnen sowie die Verweildauern der Abriebpartikel in der Reibzone charakterisiert. Dabei zeigt sich nicht nur, daß sie sich zumeist im Vergleich zur Rotorgeschwindigkeit deutlich langsamer bewegen, sondern auch, daß die Belagrezeptur einen wesentlichen Einfluß auf die Ausprägung der Partikelbahnen sowie die gegenseitige Beeinflussung des Partikelbewegungsverhaltens ausübt. Der Charakterisierungsansatz, der zudem lokal aufgelöste Belagtopographie-, Kompressibilitäts- und Porositätsanalysen (mittels dreidimensionaler Computertomographie) sowie chemische Analysen mittels EDX vorsieht, offenbart zudem Zusammenhänge zwischen der Patchdynamik und der Reibbelagphysik und -chemie in Bezug auf das tribologische (Naß- und Trockenreibung) und thermische (Thermoelastische Instabilität) Verhalten. Letzteres erlaubt es zum ersten Mal, Hitzeflecken in der Reibzone zu beschreiben, indem ihre Anzahl und Flächen dynamisch bestimmt werden. Mittels der vorgestellten Methode ist es nun möglich, die Dynamik und Wirkmechanismen vom einzelnen Patch über verschiedene Patchzonen bis hin zur kompletten Reibzone (inklusive Reibringverlagerungen) zu charakterisieren.



http://www.db-thueringen.de/servlets/DocumentServlet?id=24859
Richter, Johannes;
Entwicklung einer Prozessregelung für das atmosphärische Plasmaspritzen zur Kompensation elektrodenverschleißbedingter Effekte - Ilmenau : Univ.-Verl. Ilmenau, 2014 - Online-Ressource (PDF-Datei: XIV, 221 S., 26,30 MB). . - (Fertigungstechnik - aus den Grundlagen für die Anwendung : Schriften aus der Ilmenauer Fertigungstechnik. - 2) Ilmenau : Techn. Univ., Diss., 2013

Die Herstellung von keramischen Wärmedämmschichten auf Gasturbinenschaufeln stellt eine komplexe Herausforderung dar, da der atmosphärische Plasmaspritzprozess durch eine Vielzahl von Einflussgrößen und hohe Sensitivität gegenüber äußeren Einwirkungen gekennzeichnet ist. Eine Sonderstellung unter den Störgrößen nimmt der Elektrodenverschleiß ein, da durch diesen Effekt eine kontinuierliche Veränderung der Beschichtungsergebnisse bezüglich Spritzeffzienz und Schichtmikrostruktur hervorgerufen wird. Ziel der vorliegenden Arbeit ist es, eine Prozessregelung zu entwickeln, die eine Stabilisierung des atmosphärischen Plasmaspritzprozesses und damit eine Reduzierung der Schwankungen der Beschichtungsergebnisse über die Elektrodenlaufzeit ermöglicht. Die Versuche sollen im fertigungsnahen Umfeld anhand von Turbinenschaufeln durchgeführt werden, um eine direkte Implementierung der Regelung in die Serienfertigung zu ermöglichen. Als Basis für die Entwicklung der Prozessregelung erfolgt zunächst die Beschreibung der Grundlagen zu Wärmedämmschichten, Herstellungsverfahren und Prozessdiagnostik. Darauf aufbauend werden die Einflussfaktoren mit den stärksten Effekten auf die Beschichtungsergebnisse anhand der elektrodenverschleißinduzierten Veränderungen im ungeregelten Langzeitbeschichtungsversuch ermittelt und als Regelgrößen definiert. Nach der Bestimmung der Steuergrößen werden im Anschluss die Prozessregelungsansätze in Langzeitbeschichtungsversuchen überprüft und die Prozessfähigkeiten berechnet. Die Versuche zeigen insgesamt eine signifikante Stabilisierung der Beschichtungsergebnisse unter Verwendung der entwickelten Prozessregelung auf Basis der Regelgrößen (i) Partikelintensität, (ii) Partikelgeschwindigkeit und (iii) elektrischer Spannung. Als Steuergrößen werden die elektrische Stromstärke, sowie das primäre und sekundäre Plasmagas verwendet. In den Verifizierungsversuchen wird darüber hinaus gezeigt, dass mit Hilfe der konventionellen Leistungsregelung nur eine bedingte Stabilisierung des Beschichtungsprozesses ermöglicht wird und die entwickelte Prozessregelung auch auf andere atmosphärische Plasmaspritzprozesse mit veränderten Parametern und Brennerkonfigurationen anwendbar ist.



http://www.db-thueringen.de/servlets/DocumentServlet?id=24874
Richter, Johannes;
Entwicklung einer Prozessregelung für das atmosphärische Plasmaspritzen zur Kompensation elektrodenverschleißbedingter Effekte - Ilmenau : Univ.-Verl. Ilmenau, 2014 - XIV, 221 S.. . - (Fertigungstechnik - aus den Grundlagen für die Anwendung. - 2) : Zugl.: Ilmenau, Techn. Univ., Diss., 2013
ISBN 978-3-86360-108-9
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=24874

Die Herstellung von keramischen Wärmedämmschichten auf Gasturbinenschaufeln stellt eine komplexe Herausforderung dar, da der atmosphärische Plasmaspritzprozess durch eine Vielzahl von Einflussgrößen und hohe Sensitivität gegenüber äußeren Einwirkungen gekennzeichnet ist. Eine Sonderstellung unter den Störgrößen nimmt der Elektrodenverschleiß ein, da durch diesen Effekt eine kontinuierliche Veränderung der Beschichtungsergebnisse bezüglich Spritzeffzienz und Schichtmikrostruktur hervorgerufen wird. Ziel der vorliegenden Arbeit ist es, eine Prozessregelung zu entwickeln, die eine Stabilisierung des atmosphärischen Plasmaspritzprozesses und damit eine Reduzierung der Schwankungen der Beschichtungsergebnisse über die Elektrodenlaufzeit ermöglicht. Die Versuche sollen im fertigungsnahen Umfeld anhand von Turbinenschaufeln durchgeführt werden, um eine direkte Implementierung der Regelung in die Serienfertigung zu ermöglichen. Als Basis für die Entwicklung der Prozessregelung erfolgt zunächst die Beschreibung der Grundlagen zu Wärmedämmschichten, Herstellungsverfahren und Prozessdiagnostik. Darauf aufbauend werden die Einflussfaktoren mit den stärksten Effekten auf die Beschichtungsergebnisse anhand der elektrodenverschleißinduzierten Veränderungen im ungeregelten Langzeitbeschichtungsversuch ermittelt und als Regelgrößen definiert. Nach der Bestimmung der Steuergrößen werden im Anschluss die Prozessregelungsansätze in Langzeitbeschichtungsversuchen überprüft und die Prozessfähigkeiten berechnet. Die Versuche zeigen insgesamt eine signifikante Stabilisierung der Beschichtungsergebnisse unter Verwendung der entwickelten Prozessregelung auf Basis der Regelgrößen (i) Partikelintensität, (ii) Partikelgeschwindigkeit und (iii) elektrischer Spannung. Als Steuergrößen werden die elektrische Stromstärke, sowie das primäre und sekundäre Plasmagas verwendet. In den Verifizierungsversuchen wird darüber hinaus gezeigt, dass mit Hilfe der konventionellen Leistungsregelung nur eine bedingte Stabilisierung des Beschichtungsprozesses ermöglicht wird und die entwickelte Prozessregelung auch auf andere atmosphärische Plasmaspritzprozesse mit veränderten Parametern und Brennerkonfigurationen anwendbar ist.



Jaenichen, Sebastian; Steinrücken, Torsten
Gebiets- und Funktionalreformen im Spannungsfeld von Bürgerinteressen und politischem Gestaltungsauftrag : Analysen unter besonderer Berücksichtigung Thüringer Gebietsreformen - Ilmenau : Univ.-Verl. Ilmenau, 2014 - 184 S.. ISBN 978-3-86360-105-8
Literaturangaben

Henfling, Bernd; Blindenhöfer, Gerd; Coburger, Reiner; Günther, Karsten; Bergmann, Jean Pierre
AWUSYS : Entwicklung eines hochpräzisen und zeiteffizienten industriellen Auswuchtsystems - Ilmenau : Univ.-Verl. Ilmenau, 2014 - VIII, 101 S.. . - (Fertigungstechnik - aus den Grundlagen für die Anwendung : Schriften aus der Ilmenauer Fertigungstechnik. - 1) ISBN 978-3-86360-106-5
Förderkennzeichen BMBF 02PK2249 - 02PK2252. - Verbund-Nr. 01126885

Im Rahmen des Projektes "Awusys" erfolgte die disziplinübergreifende Entwicklung eines hochpräzisen und zeiteffizienten industriellen Auswuchtsystems, welches neben der Unwuchtbestimmung zeitgleich Unwuchtkorrekturen mit höchster Genauigkeit umsetzen kann. Im Vergleich zu bestehenden Systemen sollte eine Genauigkeit bei der Unwuchtbestimmung von üblicherweise +/- 0,1 g auf +/- 0,01 g umgesetzt werden. Selbiges galt für den notwenigen Masseauf- und Masseabtrag, der mit einer Genauigkeit im 1/100 Bereich realisiert werden sollte. Die Entwicklung eines derartigen Systems wurde durch die Erarbeitung und Entwicklung unterschiedlicher Ansätze aus den Bereichen der Konstruktion, der Softwaretechnik, der Messtechnik, der Handhabetechnik und der Fertigungstechnik erfolgreich umgesetzt und in Form eines rechnergestützten Versuchsstandes zusammengeführt.



Henfling, Bernd; Blindenhöfer, Gerd; Coburger, Reiner; Günther, Karsten; Bergmann, Jean Pierre
AWUSYS : Entwicklung eines hochpräzisen und zeiteffizienten industriellen Auswuchtsystems - Ilmenau : Univ.-Verl. Ilmenau, 2014 - Online-Ressource (PDF-Datei: VIII, 101 S., 8,24 MB). . - (Fertigungstechnik - aus den Grundlagen für die Anwendung : Schriften aus der Ilmenauer Fertigungstechnik. - 1)Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

Im Rahmen des Projektes "Awusys" erfolgte die disziplinübergreifende Entwicklung eines hochpräzisen und zeiteffizienten industriellen Auswuchtsystems, welches neben der Unwuchtbestimmung zeitgleich Unwuchtkorrekturen mit höchster Genauigkeit umsetzen kann. Im Vergleich zu bestehenden Systemen sollte eine Genauigkeit bei der Unwuchtbestimmung von üblicherweise +/- 0,1 g auf +/- 0,01 g umgesetzt werden. Selbiges galt für den notwenigen Masseauf- und Masseabtrag, der mit einer Genauigkeit im 1/100 Bereich realisiert werden sollte. Die Entwicklung eines derartigen Systems wurde durch die Erarbeitung und Entwicklung unterschiedlicher Ansätze aus den Bereichen der Konstruktion, der Softwaretechnik, der Messtechnik, der Handhabetechnik und der Fertigungstechnik erfolgreich umgesetzt und in Form eines rechnergestützten Versuchsstandes zusammengeführt.



http://www.db-thueringen.de/servlets/DocumentServlet?id=24538
Jiménez López, Omar Eduardo;
Development of biomechatronic devices for measurement of wrenches occurring in animal and human prehension - Ilmenau : Univ.-Verl. Ilmenau, 2014 - Online-Ressource (PDF-Datei: 118 S., 9,47 MB). . - (Berichte aus der Biomechatronik. - 9) Ilmenau : Techn. Univ., Diss., 2011
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

Biomechatronik und speziell Biosensoren unterstützen auf der Grundlage biologischer Inspiration das Entstehen neuer Anwendungen in der ganzen Spanne vom Fahrzeugbau bis zur BioRobotik. Dabei werden Mechatronik, technologisches Wissen, Bionik und Biologie miteinander kombiniert. There is a market trend towards the use of intelligent sensors. In the past the main reasons for this have been increased measurement accuracy, programmability, decreased inventory cost from the larger turndown available, and a decreased maintenance cost for self diagnostics. (Expertise,1997).



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2011000555
Jiménez López, Omar Eduardo;
Development of biomechatronic devices for measurement of wrenches occurring in animal and human prehension - Ilmenau : Univ.-Verl. Ilmenau, 2014 - 118 S.. . - (Berichte aus der Biomechatronik. - 9) Zugl.: Ilmenau : Techn. Univ., Diss., 2011
Enth. außerdem: Thesen

Biomechatronik und speziell Biosensoren unterstützen auf der Grundlage biologischer Inspiration das Entstehen neuer Anwendungen in der ganzen Spanne vom Fahrzeugbau bis zur Bio-Robotik. Dabei werden Mechatronik, technologisches Wissen, Bionik und Biologie miteinander kombiniert. "There is a market trend towards the use of intelligent sensors. In the past the main reasons for this have been increased measurement accuracy, programmability, decreased inventory cost from the larger turndown available, and a decreased maintenance cost for self-diagnostics." (Expertise, 1997).



TEST4http://www.gbv.de/dms/ilmenau/toc/79693150X.PDF
Schäfer, Michael;
Bildungscoaching durch Kompetenzmonitoring und adaptive E-Learning-Unterstützung am Beispiel der Mathematik-Grundqualifikation an Hochschulen - Ilmenau : Univ.-Verl. Ilmenau, 2014 - Online-Ressource (PDF-Datei: 333 S., 14,01 MB). . - (Kommunikationswissenschaft interdisziplinär. - 3) Ilmenau : Techn. Univ., Diss., 2014

Im Rahmen der vorliegenden Arbeit ist ein Gesamtsystem entwickelt, betrieben und evaluiert worden, mit dem die Mathematik-Eingangsfähigkeiten von Studienanfängerinnen und Studienanfängern vor Beginn der ersten Vorlesungen verbessert und homogenisiert werden sollen. Die globale Zielsetzung der vorliegenden Arbeit war es, ein übertragbares Konzept zu entwickeln und zu verifizieren, das es ermöglicht, Leistungsproblemen vorzubeugen und die Studienabbruchquote zu senken.Im Kern folgt die Gesamtkonzeption dem Ansatz, dass durch eine passgenaue Abstimmung der Unterstützungsmaßnahmen auf die individuellen Mathematikkompetenzen der Studierenden ein hoher Lernerfolg erzielt werden kann. Hierzu wurden die Mathematikkompetenzen der Studierenden in einer Datenbank erfasst, die zur individuellen Adaption der Präsenz- und E-Learning-Kurse genutzt wurde.Zeitlich gliederte sich die Vorgehensweise in die Konzeptions- und Realisierungsphase, die mit der Systementwicklung abgeschlossen wurde, und zwei Praxisphasen mit jeweils anschließender Evaluation. Das System wurde hochschulweit zur Vorqualifizierung aller Studienanfängerinnen und Studienanfänger genutzt. Die formative Evaluation des Systems ergab eine hohe individuelle Passgenauigkeitder Anforderungen in den Vorkursen und eine positive Einschätzung der adaptiven Maßnahmen auf den persönlichen Lernerfolg.Die summative Evaluation ergab einen großen Lernzuwachs der Studierenden durch den Einsatz des Systems. In einem t-Test abhängiger Stichproben wurde ein starker Effekt (d=1,83) nachgewiesen. Die erreichte mittlere Punktzahl im Mathematik-Ausgangstest hat sich im Vergleich zum Mathematik-Eingangstest mehr als verdoppelt (Eingangstest: M=13,70; SD=8,82; n=132, Ausgangstest: M=28,48; SD=7,31; n=132) und die Leistungsunterschiede zwischen den Studierenden haben sich angeglichen. Somit leistet die aktuelle Arbeit einen wertvollen Erkenntnisgewinn für die Forschung, Entwicklung und praktische Umsetzung von Qualifizierungsmaßnahmen in Form von integrierten Blended-Learning-Systemen in der Studieneingangsphase, die vor dem Hintergrund der Inhomogenität der Mathematik-Eingangskompetenzen der Studienanfängerinnen und -anfänger durch eine individuelle Adaption einen hohen Lernerfolg erzielen.



http://www.db-thueringen.de/servlets/DocumentServlet?id=24463
Schäfer, Michael;
Bildungscoaching durch Kompetenzmonitoring und adaptive E-Learning-Unterstützung am Beispiel der Mathematik-Grundqualifikation an Hochschulen - Ilmenau : Univ.-Verl. Ilmenau, 2014 - 333 S. . - (Kommunikationswissenschaft interdisziplinär. - 3) Zugl.: Ilmenau : Techn. Univ., Diss., 2014
ISBN 3863601041 = 978-3-86360-104-1

Im Rahmen der vorliegenden Arbeit ist ein Gesamtsystem entwickelt, betrieben und evaluiert worden, mit dem die Mathematik-Eingangsfähigkeiten von Studienanfängerinnen und Studienanfängern vor Beginn der ersten Vorlesungen verbessert und homogenisiert werden sollen. Die globale Zielsetzung der vorliegenden Arbeit war es, ein übertragbares Konzept zu entwickeln und zu verifizieren, das es ermöglicht, Leistungsproblemen vorzubeugen und die Studienabbruchquote zu senken. Im Kern folgt die Gesamtkonzeption dem Ansatz, dass durch eine passgenaue Abstimmung der Unterstützungsmaßnahmen auf die individuellen Mathematikkompetenzen der Studierenden ein hoher Lernerfolg erzielt werden kann. Hierzu wurden die Mathematikkompetenzen der Studierenden in einer Datenbank erfasst, die zur individuellen Adaption der Präsenz- und E-Learning-Kurse genutzt wurde. Zeitlich gliederte sich die Vorgehensweise in die Konzeptions- und Realisierungsphase, die mit der Systementwicklung abgeschlossen wurde, und zwei Praxisphasen mit jeweils anschließender Evaluation. Das System wurde hochschulweit zur Vorqualifizierung aller Studienanfängerinnen und Studienanfänger genutzt. Die formative Evaluation des Systems ergab eine hohe individuelle Passgenauigkeit der Anforderungen in den Vorkursen und eine positive Einschätzung der adaptiven Maßnahmen auf den persönlichen Lernerfolg. Die summative Evaluation ergab einen großen Lernzuwachs der Studierenden durch den Einsatz des Systems. In einem t-Test abhängiger Stichproben wurde ein starker Effekt (d=1,83) nachgewiesen. Die erreichte mittlere Punktzahl im Mathematik-Ausgangstest hat sich im Vergleich zum Mathematik-Eingangstest mehr als verdoppelt (Eingangstest: M=13,70; SD=8,82; n=132, Ausgangstest: M=28,48; SD=7,31; n=132) und die Leistungsunterschiede zwischen den Studierenden haben sich angeglichen. Somit leistet die aktuelle Arbeit einen wertvollen Erkenntnisgewinn für die Forschung, Entwicklung und praktische Umsetzung von Qualifizierungsmaßnahmen in Form von integrierten Blended-Learning-Systemen in der Studieneingangsphase, die vor dem Hintergrund der Inhomogenität der Mathematik-Eingangskompetenzen der Studienanfängerinnen und -anfänger durch eine individuelle Adaption einen hohen Lernerfolg erzielen.



TEST4http://www.gbv.de/dms/ilmenau/abs/796901619schae.txt
Abdelrahman, Mohamed;
A contribution to the development of a special-purpose vehicle for handicapped persons : dynamic simulations of mechanical concepts and the biomechanical interaction between wheelchair and user - Ilmenau : Univ.-Verl. Ilmenau, 2014 - Online-Ressource (PDF-Datei: XVII, 225 S., 15,34 MB). : Ilmenau, Techn. Univ., Diss., 2014
Parallel als Druckausg. erschienen

Die Arbeit diskutiert die mathematische Modellbildung von ausgewählten Fortbewegungssystemen mit Rädern. Die Kinematik und Dynamik eines radgetriebenen Fahrzeuges mit Mecanum-Rädern wird beschrieben. Die dynamischen und kinematischen Modelle sind die Voraussetzung für Simulationsrechnungen und gleichzeitig für die praktische Anwendung beim Betrieb der Systeme. Außerdem wird das Bewegungsverhalten von Behinderten während der Fahrt im Rollstuhl für verschiedene Umgebungsbedingungen analysiert. Nach der Darlegung der Motivation der Arbeit wird eine Analyse des Standes der Technik auf dem Gebiet der Fahrzeuge mit Mecanum-Rädern vorgestellt. Eine Übersicht über aktuelle Aspekte der Fortbewegungssysteme für Behinderte und ihre Vor- und Nachteile ist ein weiterer Gegenstand der Arbeit. Im Kapitel 2 sind die mathematischen Grundlagen, die in dieser Arbeit verwendet werden, zusammengefasst. Es handelt sich um die Kinematik der starren Körper und ausgewählte Prinzipien und Gleichungen der analytischen Mechanik. Die Transformationsmatrizen für ebene Drehungen, die Arten der kinematischen Zwangsbedingungen, die Dynamik der starren Körper mit einem speziellen Fokus auf die LAGRANGE Gleichung 2. Art mit Multiplikatoren werden vorgestellt. Die Fortbewegungssysteme sind vor allem mit analytischen Methoden in der Kinematik und Dynamik beschrieben worden. Der Fokus liegt auf 2 Grundmodellen, die auch aktuell technisch genutzt werden. Das erste Modell gilt für zweirädrige Bewegungssysteme, wie zum Beispiel für einen Rollstuhl. Das zweite Modell wurde für ein vierrädriges Fahrzeug mit Mecanum-Rädern entwickelt. Detaillierte Herleitungen für die kinematischen und dynamischen Modelle sind für beide Fortbewegungssysteme dargestellt. Für die Dynamik des Fahrzeuges mit Mecanum-Rädern wird eine exakte Methode, basierend auf den Grundlagen der nichtholonomen Mechanik mit einer zweiten, häufig in der Literatur angeführten, Näherungsmethode verglichen. Aus der nichtholonomen Mechanik werden die LAGRANGE Gleichungen mit Multiplikatoren als effizientes Verfahren eingesetzt, um ein exaktes Modell zu generieren. Diese Modellgleichungen können alle möglichen Bewegungsbahnen des Fahrzeuges mit vier Mecanum-Rädern erfassen. Das Approximationsverfahren aus der Literatur nutzt eine Pseudoinverse Matrix und kann nur ausgewählte Standardtrajektorien abbilden. Simulationsergebnisse, basierend auf der numerischen Integration der Dynamikgleichungen aus beiden Verfahren werden in Kapitel 4 vorgestellt. Die resultierenden Bewegungsbahnen sind für vorgegebene Antriebsmomente dargestellt. Ein virtuelles 3D-Modell des vierrädriges Mecanum-Fahrzeuges ist mit Hilfe von MATLAB®, SIMULINK® und VIRTUAL REALITY TOOLBOX® erstellt worden. Ein Vorteil der 3D-Umgebung ist die anschauliche Darstellung komplexer Bewegungsbahnen bei kombinierten Translations- und Rotationsbewegungen des Systems. Zwei Experimentalfahrzeuge, eines mit klassischer Vierradstruktur inklusive Vorderachslenkung und ein weiteres mit vier omnidirektionalen Rädern vom Typ Mecanum, wurden aufgebaut. Sie dienen als Demonstratoren eines möglichen Plattformkonzeptes für Behindertenfahrzeuge. In der Arbeit werden die aus Simulationsrechnungen gewonnenen Trajektorien mit den tatsächlichen Bahnen des Prototyps verglichen. In einem abschließenden Kapitel wird für ausgewählte Szenarien mittels Motion Capturing Verfahren die Mensch-Maschine-Interaktion am Beispiel von Rollstuhlfahrern untersucht. Die Bewegung des menschlichen Körpers und des Rollstuhls wurde in ihren kinematischen Daten erfasst und mit den Werkzeugen ALASKA-DYNAMICUS® und ERGO TOOL® analysiert.



http://www.db-thueringen.de/servlets/DocumentServlet?id=24390
Scharff, Peter; Schneider, Andrea
Shaping the future by engineering : 58th IWK, Ilmenau Scientific Colloquium, Technische Universität Ilmenau, 8 - 12 September 2014 ; programme
Red.-Schluss: 8. August 2014 - Ilmenau : Univ.-Verl. Ilmenau, 2014 - 152 S.. Enthält nur Abstracts, keine ausgearb. Vorträge

TEST4http://www.gbv.de/dms/ilmenau/toc/795539428.PDF
Abdelrahman, Mohamed;
A contribution to the development of a special-purpose vehicle for handicapped persons : dynamic simulations of mechanical concepts and the biomechanical interaction between wheelchair and user - Ilmenau : Univ.-Verl. Ilmenau, 2014 - XVII, 225 S.. : Zugl.: Ilmenau, Techn. Univ., Diss., 2014
ISBN 978-3-86360-103-4
Parallel als Online-Ausg erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=24390

Die Arbeit diskutiert die mathematische Modellbildung von ausgewählten Fortbewegungssystemen mit Rädern. Die Kinematik und Dynamik eines radgetriebenen Fahrzeuges mit Mecanum-Rädern wird beschrieben. Die dynamischen und kinematischen Modelle sind die Voraussetzung für Simulationsrechnungen und gleichzeitig für die praktische Anwendung beim Betrieb der Systeme. Außerdem wird das Bewegungsverhalten von Behinderten während der Fahrt im Rollstuhl für verschiedene Umgebungsbedingungen analysiert. Nach der Darlegung der Motivation der Arbeit wird eine Analyse des Standes der Technik auf dem Gebiet der Fahrzeuge mit Mecanum-Rädern vorgestellt. Eine Übersicht über aktuelle Aspekte der Fortbewegungssysteme für Behinderte und ihre Vor- und Nachteile ist ein weiterer Gegenstand der Arbeit. Im Kapitel 2 sind die mathematischen Grundlagen, die in dieser Arbeit verwendet werden, zusammengefasst. Es handelt sich um die Kinematik der starren Körper und ausgewählte Prinzipien und Gleichungen der analytischen Mechanik. Die Transformationsmatrizen für ebene Drehungen, die Arten der kinematischen Zwangsbedingungen, die Dynamik der starren Körper mit einem speziellen Fokus auf die LAGRANGE Gleichung 2. Art mit Multiplikatoren werden vorgestellt. Die Fortbewegungssysteme sind vor allem mit analytischen Methoden in der Kinematik und Dynamik beschrieben worden. Der Fokus liegt auf 2 Grundmodellen, die auch aktuell technisch genutzt werden. Das erste Modell gilt für zweirädrige Bewegungssysteme, wie zum Beispiel für einen Rollstuhl. Das zweite Modell wurde für ein vierrädriges Fahrzeug mit Mecanum-Rädern entwickelt. Detaillierte Herleitungen für die kinematischen und dynamischen Modelle sind für beide Fortbewegungssysteme dargestellt. Für die Dynamik des Fahrzeuges mit Mecanum-Rädern wird eine exakte Methode, basierend auf den Grundlagen der nichtholonomen Mechanik mit einer zweiten, häufig in der Literatur angeführten, Näherungsmethode verglichen. Aus der nichtholonomen Mechanik werden die LAGRANGE Gleichungen mit Multiplikatoren als effizientes Verfahren eingesetzt, um ein exaktes Modell zu generieren. Diese Modellgleichungen können alle möglichen Bewegungsbahnen des Fahrzeuges mit vier Mecanum-Rädern erfassen. Das Approximationsverfahren aus der Literatur nutzt eine Pseudoinverse Matrix und kann nur ausgewählte Standardtrajektorien abbilden. Simulationsergebnisse, basierend auf der numerischen Integration der Dynamikgleichungen aus beiden Verfahren werden in Kapitel 4 vorgestellt. Die resultierenden Bewegungsbahnen sind für vorgegebene Antriebsmomente dargestellt. Ein virtuelles 3D-Modell des vierrädriges Mecanum-Fahrzeuges ist mit Hilfe von MATLAB®, SIMULINK® und VIRTUAL REALITY TOOLBOX® erstellt worden. Ein Vorteil der 3D-Umgebung ist die anschauliche Darstellung komplexer Bewegungsbahnen bei kombinierten Translations- und Rotationsbewegungen des Systems. Zwei Experimentalfahrzeuge, eines mit klassischer Vierradstruktur inklusive Vorderachslenkung und ein weiteres mit vier omnidirektionalen Rädern vom Typ Mecanum, wurden aufgebaut. Sie dienen als Demonstratoren eines möglichen Plattformkonzeptes für Behindertenfahrzeuge. In der Arbeit werden die aus Simulationsrechnungen gewonnenen Trajektorien mit den tatsächlichen Bahnen des Prototyps verglichen. In einem abschließenden Kapitel wird für ausgewählte Szenarien mittels Motion Capturing Verfahren die Mensch-Maschine-Interaktion am Beispiel von Rollstuhlfahrern untersucht. Die Bewegung des menschlichen Körpers und des Rollstuhls wurde in ihren kinematischen Daten erfasst und mit den Werkzeugen ALASKA-DYNAMICUS® und ERGO TOOL® analysiert.



Al Khateeb, Ayman;
Planung und Optimierung von Fließmontagesystemen : ein Beitrag unter Berücksichtigung sich ändernder Anforderungen an Prozesszuverlässigkeit, Produktqualität und Flexibilität - Ilmenau : Univ.-Verl. Ilmenau, 2014 - Online-Ressource (PDF-Datei: XXII, 187 S., 6,36 MB). Teilw. zugl.: Ilmenau : Techn. Univ., Diss., 2014 u.d.T.: Al Khateeb, Ayman: Beitrag zur Planung und Optimierung von Fließmontagesystemen unter Berücksichtigung sich ändernder Anforderungen, insbesondere an Prozesszuverlässigkeit, Produktqualität und Flexibilität
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

Ursprünglich zielte die Gestaltung von Montagesystemen in Form von Fließsystemen auf eine gleichmäßig hohe Stückzahl eines einzelnen Produkts bei hohem Automatisierungsgrad ab. Aus Gründen wie z.B. ständig zunehmende Anforderungen durch Kundenwünsche oder Absatzveränderungen sind Montageprozesse fortwährend an die veränderten Rahmenbedingungen anzupassen. Derartige Anforderungen haben Auswirkungen auf Struktur und Gestaltung von Fließmontagesystemen. So gewinnen bei der Planung solcher Systeme Gesichtspunkte wie z.B. Redundanz, Pufferung und die Integration von Qualitätsstationen an Bedeutung. Entwickelt werden daher neue Methoden zur Verbesserung der Konfiguration bzw. des Betriebs von Nachbearbeitungsschleifen, der konvergierenden bzw. divergierenden und parallelen Strukturen. Die entwickelten Strukturen weisen mehr Vorteile bezüglich Flexibilität, Redundanz, Verfügbarkeit, Nutzungsgrad und Pufferkapazitäten im Vergleich zu konventionellen Strukturen auf.



http://www.db-thueringen.de/servlets/DocumentServlet?id=24339
Al Khateeb, Ayman;
Planung und Optimierung von Fließmontagesystemen : ein Beitrag unter Berücksichtigung sich ändernder Anforderungen an Prozesszuverlässigkeit, Produktqualität und Flexibilität - Ilmenau : Univ.-Verl. Ilmenau, 2014 - XXII, 187 S.. Teilw. zugl.: Ilmenau : Techn. Univ., Diss., 2014 u.d.T.: Al Khateeb, Ayman: Beitrag zur Planung und Optimierung von Fließmontagesystemen unter Berücksichtigung sich ändernder Anforderungen, insbesondere an Prozesszuverlässigkeit, Produktqualität und Flexibilität

Ursprünglich zielte die Gestaltung von Montagesystemen in Form von Fließsystemen auf eine gleichmäßig hohe Stückzahl eines einzelnen Produkts bei hohem Automatisierungsgrad ab. Aus Gründen wie z.B. ständig zunehmende Anforderungen durch Kundenwünsche oder Absatzveränderungen sind Montageprozesse fortwährend an die veränderten Rahmenbedingungen anzupassen. Derartige Anforderungen haben Auswirkungen auf Struktur und Gestaltung von Fließmontagesystemen. So gewinnen bei der Planung solcher Systeme Gesichtspunkte wie z.B. Redundanz, Pufferung und die Integration von Qualitätsstationen an Bedeutung. Entwickelt werden daher neue Methoden zur Verbesserung der Konfiguration bzw. des Betriebs von Nachbearbeitungsschleifen, der konvergierenden bzw. divergierenden und parallelen Strukturen. Die entwickelten Strukturen weisen mehr Vorteile bezüglich Flexibilität, Redundanz, Verfügbarkeit, Nutzungsgrad und Pufferkapazitäten im Vergleich zu konventionellen Strukturen auf.



TEST4http://deposit.d-nb.de/cgi-bin/dokserv?id=4737696&prov=M&dok_var=1&dok_ext=htm
Wolling, Jens; Arlt, Dorothee
Fukushima und die Folgen : Medienberichterstattung, Öffentliche Meinung, Politische Konsequenzen - Ilmenau : Universitätsverlag Ilmenau, 2014 - 367 Seiten. . - (Nachhaltigkeits-, Energie- und Umweltkommunikation. - Band 2) ISBN 3863601009 = 978-3-86360-100-3
Literaturangaben

Am 11. März 2011 ereignete sich vor der japanischen Küste ein schweres Erdbeben. Es löste einen gewaltigen Tsunami aus, der an der Ostküste Japans schwere Schäden hervorrief und fast 20.000 Menschen das Leben kostete. Im Atomkraftwerk Fukushima verursachte der Tsunami eine Reaktorkatastrophe, in deren Folge insbesondere in Deutschland eine heftige Diskussion über die Atomenergie entflammte, die schließlich zum deutschen Atomausstieg führte. Die Reaktorkatastrophe erfuhr international eine große öffentliche (Medien-) Aufmerksamkeit und rief auch die kommunikationswissenschaftliche Forschung auf den Plan. Ergebnisse dieser Forschungen, die an verschiedenen Stellen unabhängig voneinander durchgeführt wurden, sind in diesem Band versammelt. - In insgesamt 13 Beiträgen werden die medialen und öffentlichen Reaktionen auf das Unglück empirisch analysiert. Die Beiträge befassen sich zum einen mit der Darstellung der Atomenergie in historischer Vergleichsperspektive, wobei die Reaktorkatastrophe in Tschernobyl als Referenzpunkt für Fukushima diente. In weiteren Beiträgen wird die Dynamik der Berichterstattung in Deutschland fokussiert. Fünf Beiträge betrachten die Reaktionen der Medien in internationaler Vergleichsperspektive und weitere vier untersuchen die Reaktionen der Bevölkerung auf die Ereignisse in Fukushima. Durch die Zusammenführung der unterschiedlichen Perspektiven wird eine differenzierte Einschätzung der medialen und gesellschaftlichen Konsequenzen des Extremereignisses möglich. Die Umrisse eines Forschungsprogramms für die Nachhaltigkeits-, Energie- und Umweltkommunikation werden sichtbar.



TEST4http://www.gbv.de/dms/ilmenau/toc/791471918.PDF
Wolling, Jens; Arlt, Dorothee
Fukushima und die Folgen : Medienberichterstattung, Öffentliche Meinung, Politische Konsequenzen - Ilmenau : Universitätsverlag Ilmenau, 2014 - 1 Online-Ressource (367 Seiten). . - (Nachhaltigkeits-, Energie- und Umweltkommunikation. - Band 2)

Am 11. März 2011 ereignete sich vor der japanischen Küste ein schweres Erdbeben. Es löste einen gewaltigen Tsunami aus, der an der Ostküste Japans schwere Schäden hervorrief und fast 20.000 Menschen das Leben kostete. Im Atomkraftwerk Fukushima verursachte der Tsunami eine Reaktorkatastrophe, in deren Folge insbesondere in Deutschland eine heftige Diskussion über die Atomenergie entflammte, die schließlich zum deutschen Atomausstieg führte. Die Reaktorkatastrophe erfuhr international eine große öffentliche (Medien-) Aufmerksamkeit und rief auch die kommunikationswissenschaftliche Forschung auf den Plan. Ergebnisse dieser Forschungen, die an verschiedenen Stellen unabhängig voneinander durchgeführt wurden, sind in diesem Band versammelt. - In insgesamt 13 Beiträgen werden die medialen und öffentlichen Reaktionen auf das Unglück empirisch analysiert. Die Beiträge befassen sich zum einen mit der Darstellung der Atomenergie in historischer Vergleichsperspektive, wobei die Reaktorkatastrophe in Tschernobyl als Referenzpunkt für Fukushima diente. In weiteren Beiträgen wird die Dynamik der Berichterstattung in Deutschland fokussiert. Fünf Beiträge betrachten die Reaktionen der Medien in internationaler Vergleichsperspektive und weitere vier untersuchen die Reaktionen der Bevölkerung auf die Ereignisse in Fukushima. Durch die Zusammenführung der unterschiedlichen Perspektiven wird eine differenzierte Einschätzung der medialen und gesellschaftlichen Konsequenzen des Extremereignisses möglich. Die Umrisse eines Forschungsprogramms für die Nachhaltigkeits-, Energie- und Umweltkommunikation werden sichtbar.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2014100055
Gerth, Julia;
Produktionswirtschaftliche Beschreibungs- und Optimierungsmodelle für die Wertstoffsortierung - Ilmenau : Univ.-Verl. Ilmenau, 2014 - XVII, 273 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2013

In den letzten dreißig Jahren hat sich die Entsorgungswirtschaft in Deutschland grundlegend gewandelt. Insbesondere mit der Einführung des Dualen Systems wurden Sortierprozesse immer wichtiger. Ziel war es von nun an, die Verpackungsabfälle in möglichst sortenreine Wertstofffraktionen zu trennen, die als Sekundärrohstoffe weiter vermarktet werden sollen. Während dazu auf verfahrenstechnischer Seite eine Vielzahl technischer Anlagen, mit denen eine nahezu sortenreine Abtrennung möglich ist, entwickelt worden sind, existierten in der Betriebswirtschaftslehre bislang nur wenige lückenhafte Ansätze, die sich mit Abfallsortierprozessen auseinandersetzen, sie beschreiben oder ökonomisch optimieren. Die vorliegende Arbeit leistet einen Beitrag, diese Forschungslücke ein Stück weit zu schließen und liefert ein betriebswirtschaftliches Entscheidungsmodell für Sortierprozesse. In Teil I werden konzeptionelle Grundlagen erarbeitet, die u. a. eine betriebswirtschaftliche Definition und die Einordnung der Wertstoffsortierung in das allgemeine Kreislaufmodell enthalten. Sie umfassen zudem auch eine umfassende Auseinandersetzung mit dem Verpackungsabfallgemisch als wichtigstem Faktor des Prozesses. Es wird ein innovativer Ansatz zur Messung von Vermischung vorgestellt. Eine aktivitätsanalytische Untersuchung der Prozessstrukturen erfolgt in Teil II. Hier wird anschließend die Strukturanalogie von Sortier- und Transportprozessen genutzt und darauf aufbauend ein deterministisches Grundmodell für Sortierprozesse entwickelt. Dieses Modell wird in Teil III evaluiert und um stochastische Aspekte erweitert. Mit diesem Modell wurde eine betriebswirtschaftliche Basis zur Beschreibung und Optimierung von Sortierprozessen geschaffen, die zur Simulation, Planung und Steuerung der Prozesse eingesetzt werden kann.



TEST4http://www.gbv.de/dms/ilmenau/toc/788819836.PDF
Adler, Bernhard; Müller, Ralf
Seltene Erdmetalle : Gewinnung, Verwendung und Recycling - Ilmenau : Univ.-Verl. Ilmenau - 247 S.. . - (Berichte aus der Biomechatronik. - 10)

Das vorliegende Buch gibt ausgehend von der Struktur, den physikalischen und chemischen Eigenschaften der Seltenen Erdmetalle eine umfassende Übersicht der ständig an Bedeutung wachsenden Anwendungs- und Einsatzmöglichkeiten, dem Vorkommen und der außerordentlich bedeutsamen Recyclingmaßnahmen der Elemente. Eine Vielfalt von Anwendungsfeldern der Seltenen Erden für die Volkswirtschaften wie der Einsatz als Legierungsmetalle zur Fertigung von Permanentmagneten für Windkraftanlagen, Hybridmotoren, Elektroantrieben, zur Herstellung von Leuchtstoffen, Brennstoffzellen, Batterien, Energiesparlampen, als Bestandteile für Farb- und UV-Filter, Stabilisatoren von Keramiken und ihre Anwendung in der Medizin (Pharmazeutika, Diagnosemittel u. a.) werden diskutiert. Ausführlich wird auf die Fragen der Erzgewinnung, -aufarbeitung wie Aufschlussverfahren, Trennung der Seltenen Erden sowie ihre Gewinnung als Metalle eingegangen. Neben analytischen Fragestellungen zur Identifizierung werden gleichermaßen ökologische und toxikologische Probleme abgehandelt. Das Buch soll vor allem Ingenieur-, Wirtschafts- und Politikwissenschaftler sowie Wirtschaftsunternehmen für die außerordentliche strategische Bedeutung der Seltenen Erden mobilisieren.



TEST4http://www.gbv.de/dms/ilmenau/toc/787815764.PDF
Ifland, Mike;
Lastmanagement privater Letztverbraucher zwischen Energiemarkt und Smart Grid - Ilmenau : Univ.-Verl. Ilmenau, 2014 - Online-Ressource (PDF-Datei: XII, 140 S., 5,14 MB). . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA). - 11) : Ilmenau, Techn. Univ., Diss., 2013
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

Der Systemwechsel von konventioneller, nachfrageorientierter Erzeugung hin zu angebotsabhängigem Verbrauch wirft die Frage nach einer Beteiligung privater Verbraucher auf, die in 2011 mit einem Gesamtanteil von 26% des Bedarfs an elektrischer Energie in Deutschland eine entscheidende Rolle spielten. Die vorliegende Arbeit untersucht die Flexibilisierung der Last "privater Letztverbraucher" mittels variabler Tarifierung und deren Anwendung als Methode im System Smart Grid. Mit Blick auf den Stand der Forschung bezüglich technischer und ökonomischer Hintergründe wird die Frage nach der Integration privater Letztverbraucher in die Netzbetriebsführung beantwortet. Dazu werden sowohl flexible Tarifierungen als auch Smart Metering als Voraussetzungen erläutert, sowie die Netzentwicklungskennzahl (GDI) als Klassifizierung der Entwicklungsstufe eines Smart Grids eingeführt. In einem Feldversuch werden die theoretischen Erkenntnisse auf ein Verteilernetz einer suburbanen Kleinstadt in Deutschland angewendet. Anhand der vorliegenden, realen Messdaten wird anschließend geprüft, ob Demand Side Management, welches sich auf variable Tarife stützt, die Anforderungen an ein Smart Grid in suburbanen und ländlichen Gebieten erfüllt.



http://www.db-thueringen.de/servlets/DocumentServlet?id=23674
Ifland, Mike;
Lastmanagement privater Letztverbraucher zwischen Energiemarkt und Smart Grid - Ilmenau : Univ.-Verl. Ilmenau, 2014 - XII, 140 S.. . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA). - 11) Zugl.: Ilmenau : Techn. Univ., Diss., 2013

Der Systemwechsel von konventioneller, nachfrageorientierter Erzeugung hin zu angebotsabhängigem Verbrauch wirft die Frage nach einer Beteiligung privater Verbraucher auf, die in 2011 mit einem Gesamtanteil von 26% des Bedarfs an elektrischer Energie in Deutschland eine entscheidende Rolle spielten. Die vorliegende Arbeit untersucht die Flexibilisierung der Last "privater Letztverbraucher" mittels variabler Tarifierung und deren Anwendung als Methode im System Smart Grid. Mit Blick auf den Stand der Forschung bezüglich technischer und ökonomischer Hintergründe wird die Frage nach der Integration privater Letztverbraucher in die Netzbetriebsführung beantwortet. Dazu werden sowohl flexible Tarifierungen als auch Smart Metering als Voraussetzungen erläutert, sowie die Netzentwicklungskennzahl (GDI) als Klassifizierung der Entwicklungsstufe eines Smart Grids eingeführt. In einem Feldversuch werden die theoretischen Erkenntnisse auf ein Verteilernetz einer suburbanen Kleinstadt in Deutschland angewendet. Anhand der vorliegenden, realen Messdaten wird anschließend geprüft, ob Demand Side Management, welches sich auf variable Tarife stützt, die Anforderungen an ein Smart Grid in suburbanen und ländlichen Gebieten erfüllt.



TEST4http://www.gbv.de/dms/ilmenau/abs/787774464iflan.txt
Schorcht, Hagen;
Ein Beitrag der Informationstechnik zur strategischen Wissensplanung : Konzeption einer IT-Architektur und deren prototypische Realisierung - Ilmenau : Univ.-Verl. Ilmenau, 2014 - Online-Ressource (PDF-Datei: XXI, 379 S., 3,21 MB). . - (Ilmenauer Schriften zu Wirtschaftsinformatik. - Band 1) Ilmenau : Techn. Univ., Diss., 2013
Erg. bildet: Schorcht, Hagen: Ein Beitrag der Informationstechnik zur strategischen Wissensplanung : Anhang

Materielle und finanzielle Ressourcen bilden die grundlegenden Faktoren für den Geschäftserfolg einer Organisation. Seit einigen Jahren hat sich das Wissen eines Unternehmens als zusätzlicher, werttreibender Faktor herauskristallisiert. Das sich hieraus ergebende Forschungsfeld der strategischen Wissensplanung legt den Fokus auf den zielgerichteten Umgang von Wissen in einer Organisation. Dabei werden wettbewerbsrelevante Wissensgebiete und deren strategische Ausrichtung identifiziert, um übergeordnete Unternehmensziele zu erreichen.Es zeigt sich, dass die strategische Wissensplanung und dementsprechend der strategische Umgang mit Wissen in der Praxis ein wichtiges Thema darstellen, eine intensive Beschäftigung aber nur bedingt erfolgt. Ein möglicher Hinderungsgrund ist die unzureichende Unterstützung durch IT-Lösungen, die den Planungsprozess aus der Wissensperspektive betrachten.In der Arbeit wird dieser Aspekt aufgegriffen und eine IT-Architektur entwickelt, die den Wissensplanungsprozess umfassend unterstützt. Es erfolgen zunächst ein Vergleich bestehender Konzepte und die Ableitung von Anforderungen an IT-basierte Systeme zur Unterstützung der strategischen Wissensplanung. Darauf aufbauend wird eine IT-Architektur mit ihren Komponenten und Schnittstellen entworfen. Die Realisierbarkeit der IT-Architektur wird durch die Entwicklung eines Prototyps und einer praxisorientierten Fallstudie dargestellt.



http://www.db-thueringen.de/servlets/DocumentServlet?id=24088
Schorcht, Hagen;
Ein Beitrag der Informationstechnik zur strategischen Wissensplanung : Konzeption einer IT-Architektur und deren prototypische Realisierung - Ilmenau : Univ.-Verl. Ilmenau, 2014 - XX, 379 S.. . - (Ilmenauer Schriften zu Wirtschaftsinformatik. - Band 1) Zugl.: Ilmenau : Techn. Univ., Diss., 2013

Materielle und finanzielle Ressourcen bilden die grundlegenden Faktoren für den Geschäftserfolg einer Organisation. Seit einigen Jahren hat sich das Wissen eines Unternehmens als zusätzlicher, werttreibender Faktor herauskristallisiert. Das sich hieraus ergebende Forschungsfeld der strategischen Wissensplanung legt den Fokus auf den zielgerichteten Umgang von Wissen in einer Organisation. Dabei werden wettbewerbsrelevante Wissensgebiete und deren strategische Ausrichtung identifiziert, um übergeordnete Unternehmensziele zu erreichen.Es zeigt sich, dass die strategische Wissensplanung und dementsprechend der strategische Umgang mit Wissen in der Praxis ein wichtiges Thema darstellen, eine intensive Beschäftigung aber nur bedingt erfolgt. Ein möglicher Hinderungsgrund ist die unzureichende Unterstützung durch IT-Lösungen, die den Planungsprozess aus der Wissensperspektive betrachten.In der Arbeit wird dieser Aspekt aufgegriffen und eine IT-Architektur entwickelt, die den Wissensplanungsprozess umfassend unterstützt. Es erfolgen zunächst ein Vergleich bestehender Konzepte und die Ableitung von Anforderungen an IT-basierte Systeme zur Unterstützung der strategischen Wissensplanung. Darauf aufbauend wird eine IT-Architektur mit ihren Komponenten und Schnittstellen entworfen. Die Realisierbarkeit der IT-Architektur wird durch die Entwicklung eines Prototyps und einer praxisorientierten Fallstudie dargestellt.



TEST4http://www.gbv.de/dms/ilmenau/toc/787350931.PDF
Busch, Christian;
Ein Beitrag zum modellbasierten Regelungsentwurf elektropneumatischer Applikationen - Ilmenau : Univ.-Verl. Ilmenau, 2014 - XVI, 228 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2014

Diese Arbeit stellt einen Überblick über die Funktionalität und Funktionsweise industrieller Regelungstechnik im Anwendungsfeld elektropneumatischer Applikationen dar. Das Ergebnis der physikalischen Modellierung beinhaltet Analogiebetrachtungen zu passiven Bauelementen der Elektrotechnik auf der Grundlage verallgemeinerter Zustandsgrößen. Dies führt zu einem leicht erweiterbaren, parameterlinearen aber dennoch nichtlinearen Zustandsraummodell. Am Beispiel eines experimentell bestimmten Datensatzes wurden verschiedene Methoden zur Schätzung bzw. Rekonstruktion der für die Regelung notwendigen Zustandsgrößen vorgestellt, geprüft und bewertet. Der Fokus der ausgewählten Methoden liegt vor allem darauf, brauchbare und insbesondere präzise (bzw. erwartungstreue) Schätzergebnisse auch unter vorhandenen Modellfehlern zu liefern. Der implementierte Zustandsschätzalgorithmus ist als fester Bestandteil der Reglerstruktur im Gesamtkonzept anzusehen. Durch die Verwendung einer Zustandstransformation und der sich daraus ergebenden E/A-Darstellung, konnte dem System eine integrale Streckencharakteristik aufgeprägt werden. In den üblichen Anwendungsfällen lässt sich so die Forderung nach stationärer Genauigkeit auch mit groben Modellierungsfehlern und ohne die Verwendung eines integralen Reglers oder gar einer Vorfilteradaption erreichen. Abschließend wurde gezeigt, dass auch der Vorgang eines Stofftransports in Form einer sich ergebenden Totzeit mit in das verallgemeinerte Streckenmodell integriert werden kann. Die Anwendbarkeit einiger in der Literatur existierender Methoden zur Modellierung einer Totzeit im Zeitbereich wurde entsprechend geprüft und beurteilt. Weil das entwickelte Regelungskonzept strukturell gleich für räumlich konzentrierte, wie auch für räumlich ausgedehnte Industrieanlagen aufgebaut sein soll, ist es wiederum wichtig eine dieser Totzeitapproximationsmethoden mit in den entworfenen Algorithmus aufzunehmen. Für den Gesamtregelkreis bedeutet das somit eine Erweiterung des Zustandsschätzsystems.



TEST4http://www.gbv.de/dms/ilmenau/toc/787346748.PDF
Adler, Bernhard; Müller, Ralf
Seltene Erdmetalle : Gewinnung, Verwendung und Recycling - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: 247 S., 3,17 MB). . - (Berichte aus der Biomechatronik. - 10)Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

Das vorliegende Buch gibt ausgehend von der Struktur, den physikalischen und chemischen Eigenschaften der Seltenen Erdmetalle eine umfassende Übersicht der ständig an Bedeutung wachsenden Anwendungs- und Einsatzmöglichkeiten, dem Vorkommen und der außerordentlich bedeutsamen Recyclingmaßnahmen der Elemente. Eine Vielfalt von Anwendungsfeldern der Seltenen Erden für die Volkswirtschaften wie der Einsatz als Legierungsmetalle zur Fertigung von Permanentmagneten für Windkraftanlagen, Hybridmotoren, Elektroantrieben, zur Herstellung von Leuchtstoffen, Brennstoffzellen, Batterien, Energiesparlampen, als Bestandteile für Farb- und UV-Filter, Stabilisatoren von Keramiken und ihre Anwendung in der Medizin (Pharmazeutika, Diagnosemittel u. a.) werden diskutiert. Ausführlich wird auf die Fragen der Erzgewinnung, -aufarbeitung wie Aufschlussverfahren, Trennung der Seltenen Erden sowie ihre Gewinnung als Metalle eingegangen. Neben analytischen Fragestellungen zur Identifizierung werden gleichermaßen ökologische und toxikologische Probleme abgehandelt. Das Buch soll vor allem Ingenieur-, Wirtschafts- und Politikwissenschaftler sowie Wirtschaftsunternehmen für die außerordentliche strategische Bedeutung der Seltenen Erden mobilisieren.


https://external.dandelon.com/download/attachments/dandelon/ids/AT00158A573939F71E9E9C1257D93003F6411.pdfTEST2

Troitzsch, Constanze;
Netzfehler in vermaschten HGÜ-Netzen : ein Verfahren zur Berechnung, Detektion, Fehlerklärung
[Online-Ausg.] - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: IX, 121 S., 2,44 MB). . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - 9) Teilw. zugl.: Ilmenau : Techn. Univ., Masterarbeit, 2013
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

Weltweit wird der Aufbau von Energieübertragungsnetzen basierend auf Hochspannungsgleichstromübertragung (HGÜ) diskutiert. Eine mögliche Anwendung ist der Transport verbraucherfern regenerativ erzeugter Energie in die Lastzentren, wodurch bestehende Drehstromübertragungssysteme entlastet werden. In diesem Zusammenhang sind die Verfügbarkeit von HGÜ-Netzen und damit der Umgang mit DC-Fehlern von enormer Bedeutung. Durch die fehlenden natürlichen Nulldurchgänge und großen Anstiege der Fehlerströme ist eine Anwendung bestehender AC-Schutztechniken nicht möglich. Dies erfordert den Entwurf neuartiger HGÜ-Netzschutzkonzepte, die die in Drehstromsystemen etablierten Anforderungen hinsichtlich Schnelligkeit, Zuverlässigkeit, Empfindlichkeit, Selektivität und Wirtschaftlichkeit erfüllen. Damit Fehlerklärungsprozesse diesen Anforderungen gerecht werden, ist die Implementierung eines zuverlässigen Fehlerdetektionskonzepts essentiell, das die Charakteristik und Größenordnung auftretender Fehlerströme zu Grunde legt. Der Gegenstand dieser Arbeit ist die Ermittlung von Netzfehlercharakteristiken in ausgedehnten vermaschten HGÜ-Netzen und daraus abgeleitet die Konzeption und Analyse von Fehlerdetektions- und Fehlerklärungsverfahren. Dabei wird der Fokus in dieser Arbeit auf DC-Leitungsfehler gelegt. Unter anderem wird gezeigt, dass die Fehlerströme in HGÜ-Netzen eine Wanderwellencharakteristik besitzen. Daran anknüpfend wird ein telekommunikationsloses Fehlerdetektionskonzept vorgestellt, das sich vor allem durch seine Schnelligkeit und hohe Selektivität auszeichnet. Dessen Funktionalität wird in verschiedenen numerischen Fallstudien nachgewiesen. Abschließend werden ansatzweise die Auswirkungen der DC-Fehlerklärung auf ein unterlagertes AC-Netz untersucht.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2014100040
Uhlig, Robert Peter;
An experimental validation of Lorentz force eddy current testing - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: XV, 167 S., 19,39 MB). Teilw. zugl.: Ilmenau : Techn. Univ., Diss., 2013 u.d.T.: Uhlig, Robert Peter: Identification of material defects in metallic materials using Lorentz force eddy current testing
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

The adoption of metallic materials in industry and building construction is of enormous importance. To make sure, that a component is without defects and will withstand the applied loads, usually a 100% check-up is performed. Therefore, several nondestructive material testing techniques are available. Their applicability is often limited. The novel nondestructive material testing technique named "Lorentz force eddy current testing" is a contactless electromagnetic testing technique. It is capable of detecting deeply hidden defects in electrically conducting materials at high testing speeds due to the use of a direct magnetic field. Using a conceptually simple prototype model some limits of the measurement technique are presented and the basic physical principle is explained. In order to prove the functionality of the testing technique experimental data for specimens with artificial defects are presented. The measurement signal is analyzed and conclusions are used for improvement.



http://www.db-thueringen.de/servlets/DocumentServlet?id=23365
Kornhaas, Alexander;
Experimentelle Untersuchungen zur Druckentwicklung in einem SF 6 -Selbstblasschalter beim Schalten großer Ströme - Ilmenau : Univ.-Verl. Ilmenau, 2014 - Online-Ressource (PDF-Datei: X, 133 S., 32,30 MB). . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (BEGA). - 10) Ilmenau : Techn. Univ., Diss., 2013

In der vorliegenden Arbeit werden die Ergebnisse der experimentellen Untersuchungen an einem originalen 145 kV Selbstblasschalter vorgestellt und analysiert. Es wird ein Messsystem entwickelt, mit dem die parallele Messung von prägnanten physikalischen Größen möglich ist. Die umfassende Analyse der physikalischen Effekte mit Hilfe des komplexen Messsystems beinhaltet die Untersuchung der Vorgänge während des Ausschaltvorgangs innerhalb der Antriebseinheit, der Unterbrechereinheit und der auftretenden Wechselwirkungen zwischen beiden Schalterkomponenten. Bei den Messungen werden die Parameter Ausschaltstrom, Lichtbogenzeit, Düsenmaterial und Düsenaufbau gezielt variiert. Besonderes Augenmerk bei den Untersuchungen liegt auf der Analyse des Druckaufbaus zum Löschen des Lichtbogens. Damit verbunden ist die Untersuchung des für den Selbstblasschalter charakteristischen Abbrandeffektes. Unter anderem wird mit dem Einsatz von segmentierte PTFE-Düsen bei Lastschaltungen, eine ortsaufgelösten Abbrandrate ermittelt. Durch die gezielte Variation der Ausschaltparameter werden zudem wichtige Validierungsdaten zur Überprüfung neu entwickelter Simulationsmodelle, vor allem im Bereich des Grenzausschaltstromes, geschaffen.



http://www.db-thueringen.de/servlets/DocumentServlet?id=23722
Friedrich, Christoph;
Konfiguration des hochschulseitigen Wissens- und Technologietransfers in Deutschland : eine situative Analyse - Ilmenau : Univ.-Verl. Ilmenau, 2014 - Online-Ressource (PDF-Datei: XXVI, 420 S., 15,54 MB). Ilmenau : Techn. Univ., Diss., 2013
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

Forschung gilt als treibende Kraft nachhaltigen Wirtschaftswachstums in heutigen Wissensgesellschaften. Damit nehmen auch die Interaktionen zwischen Hochschulen und Industrie eine wesentliche Rolle zur Gewährleistung der Innovationskraft moderner Volkswirtschaften ein. Ein erfolgreicher Wissen- und Technologietransfer (WTT) erfordert neben geeigneten Forschungsergebnissen eine Reihe administrativer Aufgaben. Debackere/Veugelers (2005) nennen (1) den Aufgabenbereich "Vertragsbasierte Zusammenarbeit", der die Unterstützung der Wissenschaftler in rechtlichen, finanziellen und personalen Fragen der Vertragsgestaltung und -verhandlungen umfasst. (2) Im Bereich "Management geistigen Eigentums" sind Fragen des Patentrechts, der Marktpotenziale und konkreter Verwertungsalternativen zu klären. (3) Die Realisierung von "Hochschul-Spin-offs" beinhaltet sachlich-personelle Aspekte, wie z.B. die Entwicklung von Business Plänen mit potenziellen Gründern. Die Frage der organisatorischen Gestaltung dieser drei Supportprozesse wurde bisher nur in wenigen Einzelfallstudien aufgegriffen. Organisation ist jedoch ein zentraler Erfolgsfaktor der Unternehmensführung bzw. Hochschulleitung zur Realisierung von Effizienz-/Effektivitätsgewinnen. Durch spezialisierte Aufgabenträger im WTT-Support sind so etwa Skaleneffekte möglich, während sich die Wissenschaftler auf Forschung und Netzwerkbildung fokussieren (Bercovitz et al. (2001), Debackere/Veugelers (2005)). In dieser Arbeit werden zunächst analytisch mögliche Formen bzw. Konfigurationsmuster der Arbeitsteilung und Spezialisierung der Supportprozesse des WTT entwickelt. Dem situativen Ansatz der Organisationstheorie folgend wird anschließend das Konfigurationsmodell durch relevante Kontextfaktoren der organisatorischen Gestaltung ergänzt und im Rahmen einer explorativen Fallanalyse an deutschen Hochschulen auf Plausibilität geprüft. Zielsetzung ist eine Analyse der Wirkungszusammenhänge zwischen Kontextfaktoren und alternativen Konfigurationsmustern. Dazu werden aus Sekundärdaten zu deutschen Hochschulen typische Konstellationen von (Hochschul-)Kontext und Konfiguration identifiziert und diskutiert. Im Ergebnis zeigen sich als dominierende Einflussfaktoren bei der Wahl einer Organisationslösung zum einen das zu bewältigende Transfervolumen, zum anderen die räumliche Nähe der die Supportprozesse nutzenden Hochschulen.



http://www.db-thueringen.de/servlets/DocumentServlet?id=23785
Friedrich, Christoph;
Konfiguration des hochschulseitigen Wissens- und Technologietransfers in Deutschland : eine situative Analyse - Ilmenau : Univ.-Verl. Ilmenau, 2014 - XXVI, 420 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2013

Forschung gilt als treibende Kraft nachhaltigen Wirtschaftswachstums in heutigen Wissensgesellschaften. Damit nehmen auch die Interaktionen zwischen Hochschulen und Industrie eine wesentliche Rolle zur Gewährleistung der Innovationskraft moderner Volkswirtschaften ein. Ein erfolgreicher Wissen- und Technologietransfer (WTT) erfordert neben geeigneten Forschungsergebnissen eine Reihe administrativer Aufgaben. Debackere/Veugelers (2005) nennen (1) den Aufgabenbereich "Vertragsbasierte Zusammenarbeit", der die Unterstützung der Wissenschaftler in rechtlichen, finanziellen und personalen Fragen der Vertragsgestaltung und -verhandlungen umfasst. (2) Im Bereich "Management geistigen Eigentums" sind Fragen des Patentrechts, der Marktpotenziale und konkreter Verwertungsalternativen zu klären. (3) Die Realisierung von "Hochschul-Spin-offs" beinhaltet sachlich-personelle Aspekte, wie z.B. die Entwicklung von Business Plänen mit potenziellen Gründern. Die Frage der organisatorischen Gestaltung dieser drei Supportprozesse wurde bisher nur in wenigen Einzelfallstudien aufgegriffen. Organisation ist jedoch ein zentraler Erfolgsfaktor der Unternehmensführung bzw. Hochschulleitung zur Realisierung von Effizienz-/Effektivitätsgewinnen. Durch spezialisierte Aufgabenträger im WTT-Support sind so etwa Skaleneffekte möglich, während sich die Wissenschaftler auf Forschung und Netzwerkbildung fokussieren (Bercovitz et al. (2001), Debackere/Veugelers (2005)). In dieser Arbeit werden zunächst analytisch mögliche Formen bzw. Konfigurationsmuster der Arbeitsteilung und Spezialisierung der Supportprozesse des WTT entwickelt. Dem situativen Ansatz der Organisationstheorie folgend wird anschließend das Konfigurationsmodell durch relevante Kontextfaktoren der organisatorischen Gestaltung ergänzt und im Rahmen einer explorativen Fallanalyse an deutschen Hochschulen auf Plausibilität geprüft. Zielsetzung ist eine Analyse der Wirkungszusammenhänge zwischen Kontextfaktoren und alternativen Konfigurationsmustern. Dazu werden aus Sekundärdaten zu deutschen Hochschulen typische Konstellationen von (Hochschul-)Kontext und Konfiguration identifiziert und diskutiert. Im Ergebnis zeigen sich als dominierende Einflussfaktoren bei der Wahl einer Organisationslösung zum einen das zu bewältigende Transfervolumen, zum anderen die räumliche Nähe der die Supportprozesse nutzenden Hochschulen.



TEST4http://www.gbv.de/dms/ilmenau/toc/78526969X.PDF
Kornhaas, Alexander;
Experimentelle Untersuchungen zur Druckentwicklung in einem SF 6 -Selbstblasschalter beim Schalten großer Ströme - Ilmenau : Univ.-Verl. Ilmenau, 2014 - X, 133 S.. . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (BEGA). - 10) Zugl.: Ilmenau : Techn. Univ., Diss., 2013

In der vorliegenden Arbeit werden die Ergebnisse der experimentellen Untersuchungen an einem originalen 145 kV Selbstblasschalter vorgestellt und analysiert. Es wird ein Messsystem entwickelt, mit dem die parallele Messung von prägnanten physikalischen Größen möglich ist. Die umfassende Analyse der physikalischen Effekte mit Hilfe des komplexen Messsystems beinhaltet die Untersuchung der Vorgänge während des Ausschaltvorgangs innerhalb der Antriebseinheit, der Unterbrechereinheit und der auftretenden Wechselwirkungen zwischen beiden Schalterkomponenten. Bei den Messungen werden die Parameter Ausschaltstrom, Lichtbogenzeit, Düsenmaterial und Düsenaufbau gezielt variiert. Besonderes Augenmerk bei den Untersuchungen liegt auf der Analyse des Druckaufbaus zum Löschen des Lichtbogens. Damit verbunden ist die Untersuchung des für den Selbstblasschalter charakteristischen Abbrandeffektes. Unter anderem wird mit dem Einsatz von segmentierte PTFE-Düsen bei Lastschaltungen, eine ortsaufgelösten Abbrandrate ermittelt. Durch die gezielte Variation der Ausschaltparameter werden zudem wichtige Validierungsdaten zur Überprüfung neu entwickelter Simulationsmodelle, vor allem im Bereich des Grenzausschaltstromes, geschaffen.



TEST4http://www.gbv.de/dms/ilmenau/abs/784831556kornh.txt
Liers, Florian;
Forwarding on gates : a flexible and scalable inter-network layer supporting in-network functions - Ilmenau : Univ.-Verl. Ilmenau, 2014 - Online-Ressource (PDF-Datei: XII, 258 S., 9,51 MB). Ilmenau : Techn. Univ., Diss., 2013

Flexibilität und Skalierbarkeit sind mit heutigen Architekturen für Computernetzwerke schwierig zu erzielen. Das Internet wurde zum Beispiel als einfaches Transportnetzwerk für Pakete mit einer kleinen und eingeschränkten Menge von Funktionen entworfen. Erweiterungen für Mobilität oder Dienstgüte erzeugen einen hohen Verwaltungsaufwand und skalieren nicht. Insbesondere letzteres ist das schwerstwiegende Problem für flexible Netzwerke. Deshalb beschreibt diese Dissertation eine neue Architektur mit dem Namen "Forwarding on Gates" (FoG), welche beliebige Funktionen für große Netzwerke auf flexible und skalierende Weise bereitstellt. FoG nutzt die Vorteile eines rekursiven Referenzmodells und folgt nicht dem traditionellen OSI Referenzmodell. Es ist allgemeiner anwendbar als andere Architekturen und bietet beispielweise mehr Funktionsmerkmale als eine aus dem Internet und MPLS kombinierte Architektur. FoG stellt durch die dynamische Mischung von verbindungsorientierten und verbindungslosen Aspekten einen optimalen Dienst bereit. FoG basiert auf einem neuen Kommunikationsmodell, welches ausschließlich mit Funktionsblöcken operiert. Durch die Verkettung dieser Blöcke ist es FoG möglich, Anforderungen von Anwendungen auf dynamische und flexible Weise zu erfüllen. Im Gegensatz zu anderen Ansätzen ist die Verkettung nicht nur in den Stacks von Endsystemen sondern auch in Weiterleitungssystemen im Netzwerk möglich. Diese flexible Platzierung von Funktionen eröffnet einen Markt für Funktionen. Kunden können dabei flexibel die zu ihren Anforderungen passenden Funktionen auswählen. Anbieter können diese Auswahl durch Richtlinien beeinflussen, welche sie autonom festlegen können. FoG ermöglicht das skalierende Anbieten von Funktionen durch eine flexible Verteilung von Zuständen zwischen Funktionsanbietern und -nutzern. Im Gegensatz zu Lösungen, die auf IP basieren, erreicht FoG eine signifikante Reduzierung der maximalen Anzahl von Zuständen, die ein Knoten handhaben können muss und eine wesentlich homogenere Verteilung der Zustände im Allgemeinen. Darüber hinaus kann sich das Routing von FoG an eine optimale Kombination von Routenanfragen und Informationsmengen anpassen. In Abhängigkeit von der Kombination kann es mit weniger Informationen auszukommen, als für IP-Netzwerke benötigt würden.



http://www.db-thueringen.de/servlets/DocumentServlet?id=23675
Liers, Florian;
Forwarding on gates : a flexible and scalable inter-network layer supporting in-network functions - Ilmenau : Univ.-Verl. Ilmenau, 2014 - XII, 258 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2013

Flexibilität und Skalierbarkeit sind mit heutigen Architekturen für Computernetzwerke schwierig zu erzielen. Das Internet wurde zum Beispiel als einfaches Transportnetzwerk für Pakete mit einer kleinen und eingeschränkten Menge von Funktionen entworfen. Erweiterungen für Mobilität oder Dienstgüte erzeugen einen hohen Verwaltungsaufwand und skalieren nicht. Insbesondere letzteres ist das schwerstwiegende Problem für flexible Netzwerke. Deshalb beschreibt diese Dissertation eine neue Architektur mit dem Namen "Forwarding on Gates" (FoG), welche beliebige Funktionen für große Netzwerke auf flexible und skalierende Weise bereitstellt. FoG nutzt die Vorteile eines rekursiven Referenzmodells und folgt nicht dem traditionellen OSI Referenzmodell. Es ist allgemeiner anwendbar als andere Architekturen und bietet beispielweise mehr Funktionsmerkmale als eine aus dem Internet und MPLS kombinierte Architektur. FoG stellt durch die dynamische Mischung von verbindungsorientierten und verbindungslosen Aspekten einen optimalen Dienst bereit. FoG basiert auf einem neuen Kommunikationsmodell, welches ausschließlich mit Funktionsblöcken operiert. Durch die Verkettung dieser Blöcke ist es FoG möglich, Anforderungen von Anwendungen auf dynamische und flexible Weise zu erfüllen. Im Gegensatz zu anderen Ansätzen ist die Verkettung nicht nur in den Stacks von Endsystemen sondern auch in Weiterleitungssystemen im Netzwerk möglich. Diese flexible Platzierung von Funktionen eröffnet einen Markt für Funktionen. Kunden können dabei flexibel die zu ihren Anforderungen passenden Funktionen auswählen. Anbieter können diese Auswahl durch Richtlinien beeinflussen, welche sie autonom festlegen können. FoG ermöglicht das skalierende Anbieten von Funktionen durch eine flexible Verteilung von Zuständen zwischen Funktionsanbietern und -nutzern. Im Gegensatz zu Lösungen, die auf IP basieren, erreicht FoG eine signifikante Reduzierung der maximalen Anzahl von Zuständen, die ein Knoten handhaben können muss und eine wesentlich homogenere Verteilung der Zustände im Allgemeinen. Darüber hinaus kann sich das Routing von FoG an eine optimale Kombination von Routenanfragen und Informationsmengen anpassen. In Abhängigkeit von der Kombination kann es mit weniger Informationen auszukommen, als für IP-Netzwerke benötigt würden.



TEST4http://www.gbv.de/dms/ilmenau/toc/78382467X.PDF
Bauer, Gerd;
EasyKit : eine Entwicklungsmethodik für das Rapid Engineering miniaturisierter mechatronischer Systeme - Ilmenau : Univ.-Verl. Ilmenau, 2014 - Online-Ressource (PDF-Datei: 178 S., 25,94 MB). Ilmenau : Techn. Univ., Diss., 2013

Die heutige Entwicklung mechatronischer Systeme ist meist durch einen sequentiellen Entwurfsprozess von Elektronik, Software und Mechanik gekennzeichnet. Gleichzeitig erfordert der domänenspezifische Entwurf häufig Entwicklungswerkzeuge in den einzelnen Fachgebieten, die einen hohen Grad an Expertenwissen erfordern und nur bedingt zueinander kompatibel sind. Die Entwicklungsmethodik EasyKit hat das Ziel, durch eine Modularisierung auf Hard- und Softwareebene diesen Entwicklungsprozess zu vereinfachen. Dem Anwender werden hierfür Werkzeuge zur Verfügung gestellt, in die bereits umfangreiches Expertenwissen eingeflossen ist, so dass er mit einfachen Mitteln und Grundkenntnissen selbstständig die Hard- und Software für mechatronische Systeme entwickeln und aufbauen kann. Die vorliegende Arbeit beschreibt diese Werkzeuge und die damit verbundenen Technologien. Vorgestellt werden verschiedene Möglichkeiten für eine lösbare Verbindung elektronischer Bausteine. Daneben wird ein Schnittstellenkonzept in Form eines außen liegenden Busses aufgezeigt, mit dem elektronische Funktionsträger einfach übereinander gestapelt werden können. Vorhandene Vorlagen für das Leiterplattenlayout und Testadapter unterstützen dieses Vorgehen. Ein weiteres wesentliches Ziel dieser Arbeit ist es, den Entwicklungsprozess zu beschleunigen und wirtschaftlicher zu gestalten. Hierzu wurde ein Drei-Stufen-Modell entwickelt, das einen einfachen Übergang vom Funktionsmuster (Stufe 1) über die Kleinserie (Stufe 2) bis hin zum Serienprodukt (Stufe 3) ermöglicht. Vorliegende Funktionsblöcke in Hard- und Software führen zu einem schnellen Aufbau erster Funktionsmuster. Durch eine Wiederverwendung dieser Funktionsblöcke in allen drei Stufen kann die Überführung vom Funktionsmuster zum Serienprodukt stark beschleunigt werden. Dieses Konzept wurde ebenso auf die Software übertragen. Durch eine grafische Programmieroberfläche und verfügbare Funktionsbibliotheken sind Programme und lauffähige Codes deutlich leichter zu erzeugen. An zwei praktischen Beispielen, einem Temperaturmesssystem und einem geregelten Pneumatikzylinder wird der komplette Entwurfsprozess dargestellt und Vorteile und Nachteile werden aufgezeigt. Ein Kostenvergleich zum konventionellen Vorgehen hebt die wirtschaftlichen Vorteile der Entwicklungsmethodik hervor.



http://www.db-thueringen.de/servlets/DocumentServlet?id=23594
Bauer, Gerd;
EasyKit : eine Entwicklungsmethodik für das Rapid Engineering miniaturisierter mechatronischer Systeme - Ilmenau : Univ.-Verl. Ilmenau, 2014 - 178 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2013

Die heutige Entwicklung mechatronischer Systeme ist meist durch einen sequentiellen Entwurfsprozess von Elektronik, Software und Mechanik gekennzeichnet. Gleichzeitig erfordert der domänenspezifische Entwurf häufig Entwicklungswerkzeuge in den einzelnen Fachgebieten, die einen hohen Grad an Expertenwissen erfordern und nur bedingt zueinander kompatibel sind. Die Entwicklungsmethodik EasyKit hat das Ziel, durch eine Modularisierung auf Hard- und Softwareebene diesen Entwicklungsprozess zu vereinfachen. Dem Anwender werden hierfür Werkzeuge zur Verfügung gestellt, in die bereits umfangreiches Expertenwissen eingeflossen ist, so dass er mit einfachen Mitteln und Grundkenntnissen selbstständig die Hard- und Software für mechatronische Systeme entwickeln und aufbauen kann. Die vorliegende Arbeit beschreibt diese Werkzeuge und die damit verbundenen Technologien. Vorgestellt werden verschiedene Möglichkeiten für eine lösbare Verbindung elektronischer Bausteine. Daneben wird ein Schnittstellenkonzept in Form eines außen liegenden Busses aufgezeigt, mit dem elektronische Funktionsträger einfach übereinander gestapelt werden können. Vorhandene Vorlagen für das Leiterplattenlayout und Testadapter unterstützen dieses Vorgehen. Ein weiteres wesentliches Ziel dieser Arbeit ist es, den Entwicklungsprozess zu beschleunigen und wirtschaftlicher zu gestalten. Hierzu wurde ein Drei-Stufen-Modell entwickelt, das einen einfachen Übergang vom Funktionsmuster (Stufe 1) über die Kleinserie (Stufe 2) bis hin zum Serienprodukt (Stufe 3) ermöglicht. Vorliegende Funktionsblöcke in Hard- und Software führen zu einem schnellen Aufbau erster Funktionsmuster. Durch eine Wiederverwendung dieser Funktionsblöcke in allen drei Stufen kann die Überführung vom Funktionsmuster zum Serienprodukt stark beschleunigt werden. Dieses Konzept wurde ebenso auf die Software übertragen. Durch eine grafische Programmieroberfläche und verfügbare Funktionsbibliotheken sind Programme und lauffähige Codes deutlich leichter zu erzeugen. An zwei praktischen Beispielen, einem Temperaturmesssystem und einem geregelten Pneumatikzylinder wird der komplette Entwurfsprozess dargestellt und Vorteile und Nachteile werden aufgezeigt. Ein Kostenvergleich zum konventionellen Vorgehen hebt die wirtschaftlichen Vorteile der Entwicklungsmethodik hervor.



TEST4http://www.gbv.de/dms/ilmenau/abs/781914191bauer.txt
Fischer, Martin S.; Gorb, Stanislav N.; Karguth, Andreas; Mämpel, Jörg; Witte, Hartmut
InspiRat : biologisch inspirierter Kletterroboter für die externe Inspektion linearer Strukturen - Ilmenau : Univ.-Verl. Ilmenau, 2014 - Online-Ressource (PDF-Datei: 165 S., 15,78 MB). . - (Berichte aus der Biomechatronik. - 8)

TETRA GmbH Ilmenau und drei universitäre Lehrstühle zeigen im Projekt InspiRat, dass bei wissenschaftlicher Unterstützung auch die deutsche Industrie in der Lage ist, in der Robotik internationale Standards zu setzen. InspiRat und RatNics als Akronyme sollen Assoziationen wecken: Analyse des Kletterns insbesondere von Ratten trieb den Bau einer neuen Klasse von Robotern. Waren zu Beginn des Projektes integrierte Kletterroboter mit Massen > 35 kg verfügbar, so gibt es nun Maschinen mit 1 kg bis 2 kg Masse, experimentell modulare Systeme mit 250 g Masse. Nebenergebnis ist die weltweite Definition des Standes der Technik der Röntgenvideographie zusammen mit der Siemens® AG: biplanar 2.000 Röntgenbilder/Sekunde in HD. Ergebnisse universitärer Studien werden in Journalen publiziert, doch belegt die Nachfrage nach dem Abschlussbericht des Projektes für das BMBF das Interesse an einer übergreifenden, transdisziplinären Darstellung des bionischen Entwicklungsprozesses. Wir publizieren deswegen diesen Abschlussbericht nur geringfügig redaktionell überarbeitet. Er beschreibt somit den wissenschaftlichen Stand 2011 in einer auf den Fördermittelgeber zugeschnittenen Darstellungsweise. Die Wissenschaft ist nicht stehen geblieben, wir erleichtern die Nachverfolgung durch Angabe einiger Publikationen aus der Zeit nach Projektende. Doch ist unser Anspruch nicht prospektiv wie bei Zeitschriftenartikeln, wir wollen retrospektiv die Analyse eines erfolgreich abgeschlossenen Prozesses ermöglichen.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2014100033
Uhlig, Robert Peter;
An experimental validation of Lorentz force eddy current testing - Ilmenau : Univ.-Verl. Ilmenau - XV, 167 S.. Teilw. zugl.: Ilmenau : Techn. Univ., Diss., 2013 u.d.T.: Uhlig, Robert Peter: Identification of material defects in metallic materials using Lorentz force eddy current testing

The adoption of metallic materials in industry and building construction is of enormous importance. To make sure, that a component is without defects and will withstand the applied loads, usually a 100% check-up is performed. Therefore, several nondestructive material testing techniques are available. Their applicability is often limited. The novel nondestructive material testing technique named "Lorentz force eddy current testing" is a contactless electromagnetic testing technique. It is capable of detecting deeply hidden defects in electrically conducting materials at high testing speeds due to the use of a direct magnetic field. Using a conceptually simple prototype model some limits of the measurement technique are presented and the basic physical principle is explained. In order to prove the functionality of the testing technique experimental data for specimens with artificial defects are presented. The measurement signal is analyzed and conclusions are used for improvement.



TEST4http://www.gbv.de/dms/ilmenau/toc/781615380.PDF
Fischer, Martin S.; Gorb, Stanislav N.; Karguth, Andreas; Mämpel, Jörg; Witte, Hartmut
InspiRat : biologisch inspirierter Kletterroboter für die externe Inspektion linearer Strukturen - Ilmenau : Univ.-Verl. Ilmenau, 2014 - 165 S.. . - (Berichte aus der Biomechatronik. - Bd. 8) ISBN 978-3-86360-052-5
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=23583

TETRA GmbH Ilmenau und drei universitäre Lehrstühle zeigen im Projekt InspiRat, dass bei wissenschaftlicher Unterstützung auch die deutsche Industrie in der Lage ist, in der Robotik internationale Standards zu setzen. InspiRat und RatNics als Akronyme sollen Assoziationen wecken: Analyse des Kletterns insbesondere von Ratten trieb den Bau einer neuen Klasse von Robotern. Waren zu Beginn des Projektes integrierte Kletterroboter mit Massen > 35 kg verfügbar, so gibt es nun Maschinen mit 1 kg bis 2 kg Masse, experimentell modulare Systeme mit 250 g Masse. Nebenergebnis ist die weltweite Definition des Standes der Technik der Röntgenvideographie zusammen mit der Siemens® AG: biplanar 2.000 Röntgenbilder/Sekunde in HD. Ergebnisse universitärer Studien werden in Journalen publiziert, doch belegt die Nachfrage nach dem Abschlussbericht des Projektes für das BMBF das Interesse an einer übergreifenden, transdisziplinären Darstellung des bionischen Entwicklungsprozesses. Wir publizieren deswegen diesen Abschlussbericht nur geringfügig redaktionell überarbeitet. Er beschreibt somit den wissenschaftlichen Stand 2011 in einer auf den Fördermittelgeber zugeschnittenen Darstellungsweise. Die Wissenschaft ist nicht stehen geblieben, wir erleichtern die Nachverfolgung durch Angabe einiger Publikationen aus der Zeit nach Projektende. Doch ist unser Anspruch nicht prospektiv wie bei Zeitschriftenartikeln, wir wollen retrospektiv die Analyse eines erfolgreich abgeschlossenen Prozesses ermöglichen.



Troitzsch, Constanze;
Netzfehler in vermaschten HGÜ-Netzen : ein Verfahren zur Berechnung, Detektion, Fehlerklärung - Ilmenau : Univ.-Verl. Ilmenau - IX, 121 S.. . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - 9) Teilw. zugl.: Ilmenau : Techn. Univ., Masterarbeit, 2013

Weltweit wird der Aufbau von Energieübertragungsnetzen basierend auf Hochspannungsgleichstromübertragung (HGÜ) diskutiert. Eine mögliche Anwendung ist der Transport verbraucherfern regenerativ erzeugter Energie in die Lastzentren, wodurch bestehende Drehstromübertragungssysteme entlastet werden. In diesem Zusammenhang sind die Verfügbarkeit von HGÜ-Netzen und damit der Umgang mit DC-Fehlern von enormer Bedeutung. Durch die fehlenden natürlichen Nulldurchgänge und großen Anstiege der Fehlerströme ist eine Anwendung bestehender AC-Schutztechniken nicht möglich. Dies erfordert den Entwurf neuartiger HGÜ-Netzschutzkonzepte, die die in Drehstromsystemen etablierten Anforderungen hinsichtlich Schnelligkeit, Zuverlässigkeit, Empfindlichkeit, Selektivität und Wirtschaftlichkeit erfüllen. Damit Fehlerklärungsprozesse diesen Anforderungen gerecht werden, ist die Implementierung eines zuverlässigen Fehlerdetektionskonzepts essentiell, das die Charakteristik und Größenordnung auftretender Fehlerströme zu Grunde legt. Der Gegenstand dieser Arbeit ist die Ermittlung von Netzfehlercharakteristiken in ausgedehnten vermaschten HGÜ-Netzen und daraus abgeleitet die Konzeption und Analyse von Fehlerdetektions- und Fehlerklärungsverfahren. Dabei wird der Fokus in dieser Arbeit auf DC-Leitungsfehler gelegt. Unter anderem wird gezeigt, dass die Fehlerströme in HGÜ-Netzen eine Wanderwellencharakteristik besitzen. Daran anknüpfend wird ein telekommunikationsloses Fehlerdetektionskonzept vorgestellt, das sich vor allem durch seine Schnelligkeit und hohe Selektivität auszeichnet. Dessen Funktionalität wird in verschiedenen numerischen Fallstudien nachgewiesen. Abschließend werden ansatzweise die Auswirkungen der DC-Fehlerklärung auf ein unterlagertes AC-Netz untersucht.



TEST4http://www.gbv.de/dms/ilmenau/toc/78076823X.PDF
Pölck, Anja;
Small TCBs of policy-controlled operating systems - Ilmenau : Univ.-Verl. Ilmenau, 2014 - Online-Ressource (PDF-Datei: XIII, 249 S., 2,09 MB). Ilmenau : Techn. Univ., Diss., 2013

IT Systeme mit qualitativ hohen Sicherheitsanforderungen verwenden zur Beschreibung, Analyse und Implementierung ihrer Sicherheitseigenschaften zunehmend problemspezifische Sicherheitspolitiken, welche ein wesentlicher Bestandteil der Trusted Computing Base (TCB) eines IT Systems sind. Aus diesem Grund sind die Korrektheit und Unumgehbarkeit der Implementierung einer TCB entscheidend, um die geforderten Sicherheitseigenschaften eines Systems herzustellen, zu wahren und zu garantieren. Viele der heutigen Betriebssysteme zeigen, welche Herausforderung die Realisierung von Sicherheitspolitiken darstellt; seit mehr als 40 Jahren unterstützen sie wahlfreie identitätsbasierte Zugriffssteuerungspolitiken nur rudimentär. Dies führt dazu, dass große Teile der Sicherheitspolitiken von Anwendersoftware durch die Anwendungen selbst implementiert werden. Infolge dessen sind die TCBs heutiger Betriebssysteme groß, heterogen und verteilt, so dass die exakte Bestimmung ihres Funktionsumfangs sehr aufwendig ist. Im Ergebnis sind die wesentlichen Eigenschaften von TCBs - Korrektheit, Robustheit und Unumgehbarkeit - nur schwer erreichbar. Dies hat zur Entwicklung von Politik gesteuerten Betriebssystemen geführt, die alle Sicherheitspolitiken eines Betriebssystems und seiner Anwendungen zentral zusammenfassen, indem sie Kernabstraktionen für Sicherheitspolitiken und Politiklaufzeitumgebungen anbieten. Aktuelle Politik gesteuerte Betriebssysteme basieren auf monolithischen Architekturen, was dazu führt, dass ihre Komponenten zur Durchsetzung ihrer Politiken im Betriebssystemkern verteilt sind. Weiterhin verfolgen sie das Ziel, ein möglichst breites Spektrum an Sicherheitspolitiken zu unterstützen. Dies hat zur Folge, dass ihre Laufzeitkomponenten für Politikentscheidung und -durchsetzung universal sind. Im Ergebnis sind ihre TCB-Implementierungen groß und komplex, so dass der TCB- Funktionsumfang nur schwer identifiziert werden kann und wesentliche Eigenschaften von TCBs nur mit erhöhtem Aufwand erreichbar sind. Diese Dissertation verfolgt einen Ansatz, der die TCBs Politik gesteuerter Betriebssysteme systematisch entwickelt. Die Idee ist, das Laufzeitsystem für Sicherheitspolitiken so maßzuschneidern, dass nur die Politiken unterstützt werden, die tatsächlich in einer TCB vorhanden sind. Dabei wird der Funktionsumfang einer TCB durch kausale Abhängigkeiten zwischen Sicherheitspolitiken und TCB-Funktionen bestimmt. Das Ergebnis sind kausale TCBs, die nur diejenigen Funktionen enthalten, die zum Durchsetzen und zum Schutz der vorhandenen Sicherheitspolitiken notwendig sind. Die präzise Identifikation von TCB-Funktionen erlaubt, die Implementierung der TCB-Funktionen von nicht-vertrauenswürdigen Systemkomponenten zu isolieren. Dadurch legen kausale TCBs die Grundlage für TCB-Implementierungen, deren Größe und Komplexität eine Analyse und Verifikation bezüglich ihrer Korrektheit und Unumgehbarkeit ermöglichen. Kausale TCBs haben ein breites Anwendungsspektrum - von eingebetteten Systemen über Politik gesteuerte Betriebssysteme bis hin zu Datenbankmanagementsystemen in großen Informationssystemen.



http://www.db-thueringen.de/servlets/DocumentServlet?id=23467
Pölck, Anja;
Small TCBs of policy-controlled operating systems - Ilmenau : Univ.-Verl. Ilmenau, 2014 - XIII, 249 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2013

IT Systeme mit qualitativ hohen Sicherheitsanforderungen verwenden zur Beschreibung, Analyse und Implementierung ihrer Sicherheitseigenschaften zunehmend problemspezifische Sicherheitspolitiken, welche ein wesentlicher Bestandteil der Trusted Computing Base (TCB) eines IT Systems sind. Aus diesem Grund sind die Korrektheit und Unumgehbarkeit der Implementierung einer TCB entscheidend, um die geforderten Sicherheitseigenschaften eines Systems herzustellen, zu wahren und zu garantieren. Viele der heutigen Betriebssysteme zeigen, welche Herausforderung die Realisierung von Sicherheitspolitiken darstellt; seit mehr als 40 Jahren unterstützen sie wahlfreie identitätsbasierte Zugriffssteuerungspolitiken nur rudimentär. Dies führt dazu, dass große Teile der Sicherheitspolitiken von Anwendersoftware durch die Anwendungen selbst implementiert werden. Infolge dessen sind die TCBs heutiger Betriebssysteme groß, heterogen und verteilt, so dass die exakte Bestimmung ihres Funktionsumfangs sehr aufwendig ist. Im Ergebnis sind die wesentlichen Eigenschaften von TCBs - Korrektheit, Robustheit und Unumgehbarkeit - nur schwer erreichbar. Dies hat zur Entwicklung von Politik gesteuerten Betriebssystemen geführt, die alle Sicherheitspolitiken eines Betriebssystems und seiner Anwendungen zentral zusammenfassen, indem sie Kernabstraktionen für Sicherheitspolitiken und Politiklaufzeitumgebungen anbieten. Aktuelle Politik gesteuerte Betriebssysteme basieren auf monolithischen Architekturen, was dazu führt, dass ihre Komponenten zur Durchsetzung ihrer Politiken im Betriebssystemkern verteilt sind. Weiterhin verfolgen sie das Ziel, ein möglichst breites Spektrum an Sicherheitspolitiken zu unterstützen. Dies hat zur Folge, dass ihre Laufzeitkomponenten für Politikentscheidung und -durchsetzung universal sind. Im Ergebnis sind ihre TCB-Implementierungen groß und komplex, so dass der TCB- Funktionsumfang nur schwer identifiziert werden kann und wesentliche Eigenschaften von TCBs nur mit erhöhtem Aufwand erreichbar sind. Diese Dissertation verfolgt einen Ansatz, der die TCBs Politik gesteuerter Betriebssysteme systematisch entwickelt. Die Idee ist, das Laufzeitsystem für Sicherheitspolitiken so maßzuschneidern, dass nur die Politiken unterstützt werden, die tatsächlich in einer TCB vorhanden sind. Dabei wird der Funktionsumfang einer TCB durch kausale Abhängigkeiten zwischen Sicherheitspolitiken und TCB-Funktionen bestimmt. Das Ergebnis sind kausale TCBs, die nur diejenigen Funktionen enthalten, die zum Durchsetzen und zum Schutz der vorhandenen Sicherheitspolitiken notwendig sind. Die präzise Identifikation von TCB-Funktionen erlaubt, die Implementierung der TCB-Funktionen von nicht-vertrauenswürdigen Systemkomponenten zu isolieren. Dadurch legen kausale TCBs die Grundlage für TCB-Implementierungen, deren Größe und Komplexität eine Analyse und Verifikation bezüglich ihrer Korrektheit und Unumgehbarkeit ermöglichen. Kausale TCBs haben ein breites Anwendungsspektrum - von eingebetteten Systemen über Politik gesteuerte Betriebssysteme bis hin zu Datenbankmanagementsystemen in großen Informationssystemen.



TEST4http://www.gbv.de/dms/ilmenau/abs/780543041poelc.txt
Karl, Andreas;
Laserauftragschweißen hochlegierter Duplexstähle - Ilmenau : Univ.-Verl. Ilmenau, 2014 - Online-Ressource (PDF-Datei: 230 S., 12,29 MB). . - (Werkstofftechnik aktuell. - 10) Ilmenau : Techn. Univ., Diss., 2013
Enth. außerdem: Thesen

In der vorliegenden Arbeit ist die Entwicklung korrosionsbeständiger Beschichtungen auf dem niedrig legierten Druckbehälterstahl P265GH beschrieben. Die Funktionsschichten aus Duplexstahl werden über den Prozess des Laserauftragschweißens aufmischungsarm erzeugt. Abhängig von den Prozessparametern entstehen 1 bis 2 mm dicke, nahezu defektfreie, Schichten mit einer Porosität von unter 1 %. Über eine hohe Energiedichte und dem daraus resultierenden lokal eng begrenzten Schmelzbad auf der Substratoberfläche ist es möglich, einen Aufschmelzgrad von unter 3 % ohne Anbindungsfehler zu erzielen. Die Parameter des laserbasierten Beschichtungsprozesses wurden aus numerischen Berechnungen abgeschätzt und auf die vorhandene Anlage übertragen. Haupteinflüsse sind neben der Laserleistung und dem Vorschub der zugeführte Pulvermassenstrom. Für den Spur- bzw. Schichtaufbau besitzt außerdem die geometrische Ausrichtung der Komponenten zueinander einen großen Einfluss. Für den Schweißprozess kommen pulvermetallurgisch erzeugte Eisen-Basiswerkstoffe mit einem Cr/Ni-Äquivalent zwischen 1,5 und 3,4 zum Einsatz. Daraus resultieren im rasch erstarrten Gefüge Austenitanteile zwischen 100 und 20 %. Hierbei ist zu beachten dass das Gefüge in mehrere Zonen unterteilt ist, welche abhängig von der jeweiligen lokalen Wärmezufuhr innerhalb der aufgebrachten Schicht unterschiedliche Phasenverhältnisse und Morphologien aufweisen. Speziell Stickstoff besitzt dabei einen wichtigen Einfluss auf die Phasenbildung der Duplexstähle. Eine ortsaufgelöste Analyse der Stickstoffverteilung im Schweißgefüge zeigt, dass sich Stickstoff im Gegensatz zu den substituierenden Legierungselementen Chrom, Nickel und Molybdän trotz der raschen Abkühlung fast vollständig im Austenit anreichert. Jedoch bilden sich innerhalb großer Ferritkörner bei Abkühlung aus der Schmelze Chromnitride. Gründe hierfür sind eine geringe Löslichkeit von Stickstoff im kubisch raumzentrierten Gitter sowie kurze Diffusionslängen. Abschließend wird mit der Entwicklung eines cannerbasierten Schweißprozesses aufgezeigt, wie die Auftragsrate deutlich gesteigert werden kann. Hieraus ergeben sich Potentiale eines laserbasierten Beschichtungsprozesses im Hinblick auf Kostenersparnis und Ressourcenschonung.



http://www.db-thueringen.de/servlets/DocumentServlet?id=23455
Karl, Andreas;
Laserauftragschweißen hochlegierter Duplexstähle - Ilmenau : Univ.-Verl. Ilmenau, 2014 - 230 S.. . - (Werkstofftechnik aktuell. - 10) Zugl.: Ilmenau : Techn. Univ., Diss., 2013
Enth. außerdem: Thesen

In der vorliegenden Arbeit ist die Entwicklung korrosionsbeständiger Beschichtungen auf dem niedrig legierten Druckbehälterstahl P265GH beschrieben. Die Funktionsschichten aus Duplexstahl werden über den Prozess des Laserauftragschweißens aufmischungsarm erzeugt. Abhängig von den Prozessparametern entstehen 1 bis 2 mm dicke, nahezu defektfreie, Schichten mit einer Porosität von unter 1 %. Über eine hohe Energiedichte und dem daraus resultierenden lokal eng begrenzten Schmelzbad auf der Substratoberfläche ist es möglich, einen Aufschmelzgrad von unter 3 % ohne Anbindungsfehler zu erzielen. Die Parameter des laserbasierten Beschichtungsprozesses wurden aus numerischen Berechnungen abgeschätzt und auf die vorhandene Anlage übertragen. Haupteinflüsse sind neben der Laserleistung und dem Vorschub der zugeführte Pulvermassenstrom. Für den Spur- bzw. Schichtaufbau besitzt außerdem die geometrische Ausrichtung der Komponenten zueinander einen großen Einfluss. Für den Schweißprozess kommen pulvermetallurgisch erzeugte Eisen-Basiswerkstoffe mit einem Cr/Ni-Äquivalent zwischen 1,5 und 3,4 zum Einsatz. Daraus resultieren im rasch erstarrten Gefüge Austenitanteile zwischen 100 und 20 %. Hierbei ist zu beachten dass das Gefüge in mehrere Zonen unterteilt ist, welche abhängig von der jeweiligen lokalen Wärmezufuhr innerhalb der aufgebrachten Schicht unterschiedliche Phasenverhältnisse und Morphologien aufweisen. Speziell Stickstoff besitzt dabei einen wichtigen Einfluss auf die Phasenbildung der Duplexstähle. Eine ortsaufgelöste Analyse der Stickstoffverteilung im Schweißgefüge zeigt, dass sich Stickstoff im Gegensatz zu den substituierenden Legierungselementen Chrom, Nickel und Molybdän trotz der raschen Abkühlung fast vollständig im Austenit anreichert. Jedoch bilden sich innerhalb großer Ferritkörner bei Abkühlung aus der Schmelze Chromnitride. Gründe hierfür sind eine geringe Löslichkeit von Stickstoff im kubisch raumzentrierten Gitter sowie kurze Diffusionslängen. Abschließend wird mit der Entwicklung eines cannerbasierten Schweißprozesses aufgezeigt, wie die Auftragsrate deutlich gesteigert werden kann. Hieraus ergeben sich Potentiale eines laserbasierten Beschichtungsprozesses im Hinblick auf Kostenersparnis und Ressourcenschonung.



TEST4http://www.gbv.de/dms/ilmenau/toc/780033752.PDF
Exner, Nadine;
Entwicklung und Überprüfung eines Modells zur langfristigen Nutzung von Smart Metern : eine Panelstudie mit drei Wellen - Ilmenau : Univ.-Verl. Ilmenau, 2014 - Online-Ressource (PDF-Datei: 262 S., 8,40 MB). . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - 8) Ilmenau : Techn. Univ., Diss., 2013
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

Das Ziel dieser Dissertation ist die Erforschung von Determinanten der kurzfristigen und langfristigen Nutzung von Smart Metern und damit im Zusammenhang stehenden Produkten. Dabei wird auf das Rubikon-Modell, wie auch Ergebnisse aus der Technikakzeptanzforschung und der umweltpsychologischen Forschung zur Energienutzung und Lebensstilen zurückgegriffen. Auf dieser Grundlage wird das eigene Forschungsmodell LIMA (Longterm Intelligent Metering Adoption) entwickelt. Im Rahmen des RESIDENS-Projekts werden die benötigten Daten mit Hilfe eines Paneldesigns mit drei Wellen erfasst. Bei der Datenerhebung wird ein Methodenmix zur Erfassung von objektiven und subjektiven Daten eingesetzt. Die Überprüfung der Messmodelle und des LIMA-Modells erfolgt mit Hilfe von Strukturgleichungsmodellen und Pfadanalysen. Mit kleinen Anpassungen beschreiben die Modelle die empirischen Daten relativ gut. Insgesamt zeigen die Studienergebnisse, dass Smart Metering und damit im Zusammenhang stehende Produkte von einem Teil der Bevölkerung sowohl zum gegenwärtigen Stand der Technik, als auch in einem Zukunftsszenario mit automatisierter Steuerung der Haushaltsgeräte akzeptiert werden. Dieser Teil der Bevölkerung sind die Innovatoren, die neue Technologien als Erste nutzen.



http://www.db-thueringen.de/servlets/DocumentServlet?id=23433
Exner, Nadine;
Entwicklung und Überprüfung eines Modells zur langfristigen Nutzung von Smart Metern : eine Panelstudie mit drei Wellen - Ilmenau : Univ.-Verl. Ilmenau, 2014 - 262 S.. . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - 8) Zugl.: Ilmenau : Techn. Univ., Diss., 2013

Das Ziel dieser Dissertation ist die Erforschung von Determinanten der kurzfristigen und langfristigen Nutzung von Smart Metern und damit im Zusammenhang stehenden Produkten. Dabei wird auf das Rubikon-Modell, wie auch Ergebnisse aus der Technikakzeptanzforschung und der umweltpsychologischen Forschung zur Energienutzung und Lebensstilen zurückgegriffen. Auf dieser Grundlage wird das eigene Forschungsmodell LIMA (Longterm Intelligent Metering Adoption) entwickelt. Im Rahmen des RESIDENS-Projekts werden die benötigten Daten mit Hilfe eines Paneldesigns mit drei Wellen erfasst. Bei der Datenerhebung wird ein Methodenmix zur Erfassung von objektiven und subjektiven Daten eingesetzt. Die Überprüfung der Messmodelle und des LIMA-Modells erfolgt mit Hilfe von Strukturgleichungsmodellen und Pfadanalysen. Mit kleinen Anpassungen beschreiben die Modelle die empirischen Daten relativ gut. Insgesamt zeigen die Studienergebnisse, dass Smart Metering und damit im Zusammenhang stehende Produkte von einem Teil der Bevölkerung sowohl zum gegenwärtigen Stand der Technik, als auch in einem Zukunftsszenario mit automatisierter Steuerung der Haushaltsgeräte akzeptiert werden. Dieser Teil der Bevölkerung sind die Innovatoren, die neue Technologien als Erste nutzen.



TEST4http://www.gbv.de/dms/ilmenau/toc/779740726.PDF
Kloos, Oliver;
Generierung von Simulationsmodellen auf der Grundlage von Prozessmodellen - Ilmenau : Univ.-Verl. Ilmenau, 2014 - Online-Ressource (PDF-Datei: XIV, 508 S., 16,00 MB). Ilmenau : Techn. Univ., Diss., 2013

Um dynamische Analysen auf Prozessmodelle anzuwenden, müssen diese als dynamische Modelle vorliegen. Bei Prozessmodellen eigenen sich für diesen Anwendungszweck diskrete Simulationsmodelle. Aufgrund des unterschiedlichen Einsatzzweckes von Prozess- und Simulationsmodellen können Prozessmodelle nicht direkt für eine Simulation verwendet werden. Als Ansatz, das statische Prozessmodell in ein dynamisches Simulationsmodell umzuwandeln, wurde das ProSiT Konzept entwickelt und auf die Geschäftsprozessnotationen eEPK, BPMN und das UML Aktivitätsdiagramm angewendet. Das ProSiT Konzept stellt eine zentrale Instanz zwischen verschiedenen Geschäftsprozessnotationen und Simulationsumgebungen dar. Das Konzept umfasst Transformationsregeln, ein Transformationsmodell - das ProSiT Modell - und Normalisierungsregeln zur Vorbereitung des Modells auf eine Simulation. Prozessmodelle werden zunächst mit Vorbereitungsregeln für eine Transformation in das ProSiT Modell vorbereitet. Das vorbereitete Modell wird anschließend mit Transformationsregeln überführt. Normalisierungsregeln im Kontext des ProSiT Modells vereinfachen den Prozessablauf und fügen fehlende Informationen hinzu, die für eine Simulation notwendig sind, aber nicht im ursprünglichen Prozessmodell vorhanden sind. Diese Regeln liegen als automatische, semi-automatische und manuelle Normalisierungsregeln vor. Ist ein Modell normalisiert, kann mittels Anwendbarkeitsregeln geprüft werden, ob eine Simulationsumgebung das Modell simulieren kann. Trifft dies zu, wird mittels Transformationsregeln das Simulationsmodell aus dem normalisierten Transformationsmodell erzeugt.



http://www.db-thueringen.de/servlets/DocumentServlet?id=23364
Kloos, Oliver;
Generierung von Simulationsmodellen auf der Grundlage von Prozessmodellen - Ilmenau : Univ.-Verl. Ilmenau, 2014 - XIV, 508 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2013

Um dynamische Analysen auf Prozessmodelle anzuwenden, müssen diese als dynamische Modelle vorliegen. Bei Prozessmodellen eigenen sich für diesen Anwendungszweck diskrete Simulationsmodelle. Aufgrund des unterschiedlichen Einsatzzweckes von Prozess- und Simulationsmodellen können Prozessmodelle nicht direkt für eine Simulation verwendet werden. Als Ansatz, das statische Prozessmodell in ein dynamisches Simulationsmodell umzuwandeln, wurde das ProSiT Konzept entwickelt und auf die Geschäftsprozessnotationen eEPK, BPMN und das UML Aktivitätsdiagramm angewendet. Das ProSiT Konzept stellt eine zentrale Instanz zwischen verschiedenen Geschäftsprozessnotationen und Simulationsumgebungen dar. Das Konzept umfasst Transformationsregeln, ein Transformationsmodell - das ProSiT Modell - und Normalisierungsregeln zur Vorbereitung des Modells auf eine Simulation. Prozessmodelle werden zunächst mit Vorbereitungsregeln für eine Transformation in das ProSiT Modell vorbereitet. Das vorbereitete Modell wird anschließend mit Transformationsregeln überführt. Normalisierungsregeln im Kontext des ProSiT Modells vereinfachen den Prozessablauf und fügen fehlende Informationen hinzu, die für eine Simulation notwendig sind, aber nicht im ursprünglichen Prozessmodell vorhanden sind. Diese Regeln liegen als automatische, semi-automatische und manuelle Normalisierungsregeln vor. Ist ein Modell normalisiert, kann mittels Anwendbarkeitsregeln geprüft werden, ob eine Simulationsumgebung das Modell simulieren kann. Trifft dies zu, wird mittels Transformationsregeln das Simulationsmodell aus dem normalisierten Transformationsmodell erzeugt.



TEST4http://www.gbv.de/dms/ilmenau/toc/778436160.PDF
Fuchs, Karsten; Novitskiy, Alexander; Berger, Frank; Westermann, Dirk
Hochspannungsgleichstromübertragung - Eigenschaften des Übertragungsmediums Freileitung - Ilmenau : Univ.-Verl. Ilmenau, 2014 - Getr. Zählung [ca. 208 S.]. . - ( Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - 7)Literaturverz. S. 52 - 56

Die Änderung des Erzeugungsmixes in Deutschland erfordert den Zubau neuer Transportkapazitäten. Die für das deutsche Verbundnetz neue Aufgabe des Hochleistungs-/Langstreckentransports elektrischer Energie erfordert den Einsatz von Hochspannungsgleichstromübertragungsstrecken (HGÜ-Strecken), eingebettet in das synchrone Drehstromverbundnetz. Als Übertragungsmedium können dabei Freileitungen zum Einsatz kommen. Die vorliegende Publikation beschäftigt sich mit den technischen Grundlagen und einer Gegenüberstellung der heute im Einsatz befindlichen Technologievarianten. Für mögliche Ausführungsformen zukünftiger Freileitungen werden je nach Spannungsebene die zu erwartenden Emissionen der elektrischen und magnetischen Feldemissionen im Nenn- und Fehlerbetrieb beschrieben. Die Analysen erfolgen anhand der im Juni 2013 novellierten Fassung der 26.BImSchV, den berufsgenossenschaftlichen Regeln zum Arbeitnehmerschutz und aktuellen Studien der Weltgesundheitsorganisation zu elektromagnetischen Beeinflussungsfragen. Das Buch wendet sich an die Übertragungsnetzbetreiber und Hersteller sowie an das interessierte Fachpublikum an den Universitäten.



TEST4http://www.gbv.de/dms/ilmenau/toc/77708256X.PDF
Fuchs, Karsten; Novitskiy, Alexander; Berger, Frank; Westermann, Dirk
Hochspannungsgleichstromübertragung - Eigenschaften des Übertragungsmediums Freileitung
[Online-Ausg.] - Ilmenau : Univ.-Verl. Ilmenau, 2014 - Online-Ressource (PDF-Datei: Getr. Zählung, 24,68 MB). . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - 7)Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

Die Änderung des Erzeugungsmixes in Deutschland erfordert den Zubau neuer Transportkapazitäten. Die für das deutsche Verbundnetz neue Aufgabe des Hochleistungs-/Langstreckentransports elektrischer Energie erfordert den Einsatz von Hochspannungsgleichstromübertragungsstrecken (HGÜ-Strecken), eingebettet in das synchrone Drehstromverbundnetz. Als Übertragungsmedium können dabei Freileitungen zum Einsatz kommen. Die vorliegende Publikation beschäftigt sich mit den technischen Grundlagen und einer Gegenüberstellung der heute im Einsatz befindlichen Technologievarianten. Für mögliche Ausführungsformen zukünftiger Freileitungen werden je nach Spannungsebene die zu erwartenden Emissionen der elektrischen und magnetischen Feldemissionen im Nenn- und Fehlerbetrieb beschrieben. Die Analysen erfolgen anhand der im Juni 2013 novellierten Fassung der 26.BImSchV, den berufsgenossenschaftlichen Regeln zum Arbeitnehmerschutz und aktuellen Studien der Weltgesundheitsorganisation zu elektromagnetischen Beeinflussungsfragen. Das Buch wendet sich an die Übertragungsnetzbetreiber und Hersteller sowie an das interessierte Fachpublikum an den Universitäten.


https://external.dandelon.com/download/attachments/dandelon/ids/DE00472ADBECA9846FD84C1257E2A00300A4C.pdfTEST2

Berger, Thomas;
On differential-algebraic control systems - Ilmenau : Univ.-Verl. Ilmenau, 2014 - Online-Ressource (PDF-Datei: 329 S., 1,84 MB). : Zugl.: Ilmenau, Techn. Univ., Diss., 2013
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

In der vorliegenden Dissertation werden differential-algebraische Gleichungen (differential-algebraic equations, DAEs) der Form d dt Ex = Ax + f betrachtet, wobei E und A beliebige Matrizen sind. Falls E nichtverschwindende Einträge haben, dann kommen in der Gleichung Ableitungen der entsprechenden Komponenten von x vor. Falls E eine Nullzeile hat, dann kommen in der entsprechenden Gleichung keine Ableitungen vor und sie ist rein algebraisch. Daher werden Gleichungen vom Typ d dt Ex = Ax + f differential-algebraische Gleichungen genannt. Ein Ziel dieser Dissertation ist es, eine strukturelle Zerlegung einer DAE in vier Teile herzuleiten: einen ODE-Anteil, einen nilpotenten Anteil, einen unterbestimmten Anteil und einen überbestimmten Anteil. Jeder Anteil beschreibt ein anderes Lösungsverhalten in Hinblick auf Existenz und Eindeutigkeit von Lösungen für eine vorgegebene Inhomogenität f und Konsistenzbedingungen an f. Die Zerlegung, namentlich die quasi-Kronecker Form (QKF), verallgemeinert die wohlbekannte Kronecker-Normalform und behebt einige ihrer Nachteile. Die QKF wird ausgenutzt, um verschiedene Konzepte der Kontrollierbarkeit und Stabilisierbarkeit für DAEs mit f = Bu zu studieren. Hier bezeichnet u den Eingang des differential-algebraischen Systems. Es werden Zerlegungen unter System- und Feedback-Äquivalenz, sowie die Folgen einer Behavioral-Steuerung K_x x + K_u u = 0 für die Stabilisierung des Systems untersucht. Falls für das DAE-System zusätzlich eine Ausgangs-Gleichung y =Cx gegeben ist, dann lässt sich das Konzept der Nulldynamik wie folgt definieren: die Nulldynamik ist, grob gesagt, die Dynamik, die am Ausgang nicht sichtbar ist, d.h. die Menge aller Lösungs-Trajektorien (x,u,y) mit y = 0. Für rechts-invertierbare Systeme mit autonomer Nulldynamik wird eine Zerlegung hergeleitet, welche die Nulldynamik entkoppelt. Diese versetzt uns in die Lage, eine Behavior-Steuerung zu entwickeln, die das System stabilisiert, vorausgesetzt die Nulldynamik selbst ist stabil. Wir betrachten auch zwei Regelungs-Strategien, die von den Eigenschaften der oben genannten System-Klasse profitieren: Hochverstärkungs- und Funnel-Regelung. Ein System d dt Ex = Ax + Bu, y =Cx, hat die Hochverstärkungseigenschaft, wenn es durch die Anwendung der proportionalen Ausgangsrückführung u = -ky, mit k > 0 hinreichend groß, stabilisiert werden kann. Wir beweisen, dass rechts-invertierbare Systeme mit asymptotisch stabiler Nulldynamik, die eine bestimmte Relativgrad-Annahme erfüllen, die Hochverstärkungseigenschaft haben. Während der Hochverstärkungs-Regler recht einfach ist, ist es jedoch a priori nicht bekannt, wie groß die Verstärkungskonstante k gewählt werden muss. Dieses Problem wird durch den Funnel-Regler gelöst: durch die adaptive Justierung der Verstärkung über eine zeitabhängige Funktion k(.) und die Ausnutzung der Hochverstärkungseigenschaft wird erreicht, dass große Werte k(t) nur dann angenommen werden, wenn sie nötig sind. Eine weitere wesentliche Eigenschaft ist, dass der Funnel-Regler das transiente Verhalten des Fehlers e = y - y ref der Bahnverfolgung, wobei y ref die Referenztrajektorie ist, beachtet. Für einen vordefinierten Performanz-Trichter (funnel) [Psi] wird erreicht, dass e(t) < [Psi](t). Schließlich wird der Funnel-Regler auf die Klasse von MNA-Modellen von passiven elektrischen Schaltkreisen mit asymptotisch stabilen invarianten Nullstellen angewendet. Dies erfordert die Einschränkung der Menge der zulässigen Referenztrajektorien auf solche die, in gewisser Weise, die Kirchhoffschen Gesetze punktweise erfüllen.



http://www.db-thueringen.de/servlets/DocumentServlet?id=23107
Berger, Thomas;
On differential-algebraic control systems - Ilmenau : Univ.-Verl. Ilmenau, 2014 - 329 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2013
Literaturverz. S.301 - 318

In der vorliegenden Dissertation werden differential-algebraische Gleichungen (differential-algebraic equations, DAEs) der Form d dt Ex = Ax + f betrachtet, wobei E und A beliebige Matrizen sind. Falls E nichtverschwindende Einträge haben, dann kommen in der Gleichung Ableitungen der entsprechenden Komponenten von x vor. Falls E eine Nullzeile hat, dann kommen in der entsprechenden Gleichung keine Ableitungen vor und sie ist rein algebraisch. Daher werden Gleichungen vom Typ d dt Ex = Ax + f differential-algebraische Gleichungen genannt. Ein Ziel dieser Dissertation ist es, eine strukturelle Zerlegung einer DAE in vier Teile herzuleiten: einen ODE-Anteil, einen nilpotenten Anteil, einen unterbestimmten Anteil und einen überbestimmten Anteil. Jeder Anteil beschreibt ein anderes Lösungsverhalten in Hinblick auf Existenz und Eindeutigkeit von Lösungen für eine vorgegebene Inhomogenität f und Konsistenzbedingungen an f. Die Zerlegung, namentlich die quasi-Kronecker Form (QKF), verallgemeinert die wohlbekannte Kronecker-Normalform und behebt einige ihrer Nachteile. Die QKF wird ausgenutzt, um verschiedene Konzepte der Kontrollierbarkeit und Stabilisierbarkeit für DAEs mit f = Bu zu studieren. Hier bezeichnet u den Eingang des differential-algebraischen Systems. Es werden Zerlegungen unter System- und Feedback-Äquivalenz, sowie die Folgen einer Behavioral-Steuerung K_x x + K_u u = 0 für die Stabilisierung des Systems untersucht. Falls für das DAE-System zusätzlich eine Ausgangs-Gleichung y =Cx gegeben ist, dann lässt sich das Konzept der Nulldynamik wie folgt definieren: die Nulldynamik ist, grob gesagt, die Dynamik, die am Ausgang nicht sichtbar ist, d.h. die Menge aller Lösungs-Trajektorien (x,u,y) mit y = 0. Für rechts-invertierbare Systeme mit autonomer Nulldynamik wird eine Zerlegung hergeleitet, welche die Nulldynamik entkoppelt. Diese versetzt uns in die Lage, eine Behavior-Steuerung zu entwickeln, die das System stabilisiert, vorausgesetzt die Nulldynamik selbst ist stabil. Wir betrachten auch zwei Regelungs-Strategien, die von den Eigenschaften der oben genannten System-Klasse profitieren: Hochverstärkungs- und Funnel-Regelung. Ein System d dt Ex = Ax + Bu, y =Cx, hat die Hochverstärkungseigenschaft, wenn es durch die Anwendung der proportionalen Ausgangsrückführung u = -ky, mit k > 0 hinreichend groß, stabilisiert werden kann. Wir beweisen, dass rechts-invertierbare Systeme mit asymptotisch stabiler Nulldynamik, die eine bestimmte Relativgrad-Annahme erfüllen, die Hochverstärkungseigenschaft haben. Während der Hochverstärkungs-Regler recht einfach ist, ist es jedoch a priori nicht bekannt, wie groß die Verstärkungskonstante k gewählt werden muss. Dieses Problem wird durch den Funnel-Regler gelöst: durch die adaptive Justierung der Verstärkung über eine zeitabhängige Funktion k(.) und die Ausnutzung der Hochverstärkungseigenschaft wird erreicht, dass große Werte k(t) nur dann angenommen werden, wenn sie nötig sind. Eine weitere wesentliche Eigenschaft ist, dass der Funnel-Regler das transiente Verhalten des Fehlers e = y - y ref der Bahnverfolgung, wobei y ref die Referenztrajektorie ist, beachtet. Für einen vordefinierten Performanz-Trichter (funnel) [Psi] wird erreicht, dass e(t) < [Psi](t). Schließlich wird der Funnel-Regler auf die Klasse von MNA-Modellen von passiven elektrischen Schaltkreisen mit asymptotisch stabilen invarianten Nullstellen angewendet. Dies erfordert die Einschränkung der Menge der zulässigen Referenztrajektorien auf solche die, in gewisser Weise, die Kirchhoffschen Gesetze punktweise erfüllen.



TEST4http://www.gbv.de/dms/ilmenau/toc/77521745X.PDF
Bergmann, Sören;
Automatische Generierung adaptiver Modelle zur Simulation von Produktionssystemen - Ilmenau : Univ.-Verl. Ilmenau, 2014 - XXXVII, 221 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2013

Die Simulation von Produktionsprozessen wird heute in einer Vielzahl von Branchen eingesetzt. Simulation dient hierbei zur Analyse, dem Design und der Optimierung der Produktions- und Logistikprozesse und dem dabei anfallenden Ressourceneinsatz und kann hierbei sowohl in der Planung, Inbetriebnahme als auch während des operativen Betriebs genutzt werden. Den unbestritten großen Potentialen der Materialflusssimulation in Unternehmen stehen entsprechend hohe Aufwände entgegen. Diese entstehen sowohl bei der Implementierung der Modelle als auch deren Nutzung. Durch schlechte Integration und Standardisierung der Simulation, steigende Anforderungen der Unternehmen bzgl. Genauigkeit, Flexibilität, Anpassbarkeit, Geschwindigkeit, Kosten, Wiederverwendbarkeit, Zyklen und phasenübergreifender Nutzbarkeit usw. werden die Aufwände teils unnötig gesteigert. Ein Ansatz, der seit einigen Jahren immer wieder als ein Lösungsbeitrag für eine bessere Nutzung der Simulation auch gerade in KMU's betrachtet wird, ist die automatische Generierung von Simulationsmodellen. Unter automatischer Modellgenerierung werden verschiedene Ansätze subsumiert, die erlauben Simulationsmodelle oder zumindest Teile von Modellen mittels Algorithmen zu erzeugen. Bisher wurde kein Ansatz veröffentlicht, der für einen breiteren Nutzerkreis und über einen speziellen Teilbereich hinaus gute Ergebnisse liefert.In dieser Arbeit wurde ein umfassendes Rahmenwerk zur Integration bzw. Automatisierung der Simulation entworfen und validiert. Es wurden sowohl organisatorische, methodische als auch prototypisch technische Komponenten betrachtet. In diesem Zusammenhang wird die These vertreten, dass eine breit anwendbare automatische Modellgenerierung allein durch die Nutzung von Standards zum Datenaustausch bzw. zur Konzeptmodellerstellung sinnvoll zu implementieren ist. Konkret wurde der Core Manufacturing Simulation Data (CMSD) Standard genutzt bzw. bildet die Referenzanwendung des Standards die Basis der gesamten Arbeit. Die Unterstützung aller Simulationsphasen, d.h. nicht allein der Modellerstellung sondern auch der Alternativenbildung, Initialisierung, Ergebnisauswertung usw. in allen Komponenten wird durchgehend gewährleistet. Weiterhin wurden konkret Modellgenerierungsmethoden und Verfahren zur Abbildung des dynamischen Verhaltens in Modellen klassifiziert und einzelne Lösungsansätze vorgestellt.



TEST4http://www.gbv.de/dms/ilmenau/toc/775217409.PDF
Blumer, Tim;
Persönlichkeitsforschung und Internetnutzung - Ilmenau : Univ.-Verl. Ilmenau, 2013 - Online-Ressource (PDF-Datei: 332 S., 4,39 MB). . - (Kommunikationswissenschaft interdisziplinär. - 2) Ilmenau : Techn. Univ., Diss., 2013 u.d.T.: Blumer, Tim: Persönlichkeitsforschung und Internetnutzung

Die Arbeit leistet einen Beitrag zum Verständnis des Zusammenhangs zwischen Persönlichkeit und Internetnutzung. Dazu werden im theoretischen Teil persönlichkeitspsychologische sowie medienpsychologische Theorien und Ansätze vorgestellt und zu verschiedenen Kausalmodellen des Zusammenhangs zwischen Persönlichkeit und Online-Verhalten integriert. Der empirische Teil der Arbeit besteht aus drei unabhängigen Studien. Die erste Studie untersucht anhand des Fünf-Faktoren-Modells der Persönlichkeit, ob sich Persönlichkeit am Computer und im Internet anders ausdrückt als außerhalb der digitalen Umgebung. Es wird gezeigt, dass der Ausdruck der vier Eigenschaften Extraversion, Offenheit für Erfahrung, Verträglichkeit und Gewissenhaftigkeit im Internet signifikant schwächer ausfällt. Der Ausdruck der Eigenschaft Neurotizismus verstärkt sich jedoch in dem Sinne, dass Personen am Computer und im Internet emotional deutlich stabiler sind als außerhalb der digitalen Umgebung. Die zweite Studie geht der Vermutung nach, dass besonders narzisstische Personen eine besondere Vorliebe für Online-Social-Networking haben. Eine Online-Fragebogenstudie ergibt, dass Nutzer von Social Networking Sites jedoch nicht generell narzisstischer sind als Nicht-Nutzer. Die Annahme, dass die typischen Bedürfnisse narzisstischer Personen nach Aufmerksamkeit und Bewunderung, Selbstoffenbarung und Selbstdarstellung sowie Selbstwert auf Social Networking Sites besser befriedigt werden können als in Face-to-Face-Kommunikation, lässt sich ebenfalls nicht bestätigen. Die dritte Studie untersucht, ob die in der Literatur oft berichtete Vorliebe von schüchternen Personen für textbasierte, computervermittelte Kommunikation auch auf Social Networking Sites übertragbar ist. Eine Online-Fragebogenstudie kann zeigen, dass die typischen Bedürfnisse schüchterner Personen nach Kontrolle, Zugehörigkeit und Selbstwert tatsächlich auf Social Networking Sites besser befriedigen können als in Face-to-Face-Kommunikation. Alle drei Studien belegen gleichermaßen die Wichtigkeit von Interaktionen zwischen Persönlichkeitseigenschaften und situativen Aspekten und unterstreichen zudem, dass sich computervermittelte Kommunikation in einigen, psychologisch relevanten Aspekten deutlich von Face-to-Face-Kommunikation unterscheidet.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2013000291
Be&hacek;no, Rastislav;
Ergonomics in business logistics - Ilmenau : Univ.- Verl. Ilmenau - 146 S.. . - (Scientific monographs in automation and computer science, 12) Teilw. zugl.: Trnava : Univ., Diss.

This monograph deals with the possibilities of ergonomics implementation in business logistics with the aim to provide sustainable competitiveness of enterprises via effective human work in ergonomically acceptable and flexible conditions. For the purposes of the current monograph, business logistics is studied on the level of logistic operations involving all employees who perform work activities directly initiating disorders and damages to the musculoskeletal system. The monograph analyses the methodology of ergonomics implementation in business logistics through the improvement of work activities and reducing employees stress. In the above-mentioned methodology, an employee represents both, an object and a subject of all efforts building the work environment. This includes supporting the sustainable quality of employees work life while simultaneously considering both environmental and economic conditions.



TEST4http://www.gbv.de/dms/ilmenau/toc/780472934.PDF
Be&hacek;no, Rastislav;
Ergonomics in business logistics
[Online-Ausg.] - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: 146 S., 3,81 MB). . - (Scientific monographs in automation and computer science. - 12) Teilw. zugl.: Trnava : Univ., Diss.
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

This monograph deals with the possibilities of ergonomics implementation in business logistics with the aim to provide sustainable competitiveness of enterprises via effective human work in ergonomically acceptable and flexible conditions. For the purposes of the current monograph, business logistics is studied on the level of logistic operations involving all employees who perform work activities directly initiating disorders and damages to the musculoskeletal system. The monograph analyses the methodology of ergonomics implementation in business logistics through the improvement of work activities and reducing employees stress. In the above-mentioned methodology, an employee represents both, an object and a subject of all efforts building the work environment. This includes supporting the sustainable quality of employees work life while simultaneously considering both environmental and economic conditions.



http://www.db-thueringen.de/servlets/DocumentServlet?id=23075
Špendla, Lukáš;
Design for a testing model of a communication subsystem for a safety-critical control system - Ilmenau : Univ.-Verl. Ilmenau - 140 S.. . - (Scientific monographs in automation and computer science. - 13) Teilw. zugl.: Trnava : Univ., Diss.

This monograph focuses on a proposal for a testing model in safety critical systems. Due to the large scope of these systems, we have focused on the system testing and we have included requirements for testing the communication subsystem. After establishing the theoretical background for testing, we have defined the differences and specifics of traditional software systems and safety critical systems, based on standards and guidelines analysis for various safety critical systems. The system testing that we are using is not clearly integrated into the process of design and development of safety critical systems. Therefore, we have proposed basic steps of this process to which we have integrated system testing. Given the scope of the system testing, we have decided to propose two testing models. We have focused on performance and step stress testing. These models implement requirements for testing of safety critical systems specified by us. To verify the proposed models, we have defined a metric. Based on its value we can determine whenever the proposed model meets testing requirements specified by us.



TEST4http://www.gbv.de/dms/ilmenau/toc/777239590.PDF
Špendla, Lukáš;
Design for a testing model of a communication subsystem for a safety-critical control system
[Online-Ausg.] - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: 140 S., 3,48 MB). . - (Scientific monographs in automation and computer science. - 13) Teilw. zugl.: Trnava : Univ., Diss.
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

This monograph focuses on a proposal for a testing model in safety critical systems. Due to the large scope of these systems, we have focused on the system testing and we have included requirements for testing the communication subsystem. After establishing the theoretical background for testing, we have defined the differences and specifics of traditional software systems and safety critical systems, based on standards and guidelines analysis for various safety critical systems. The system testing that we are using is not clearly integrated into the process of design and development of safety critical systems. Therefore, we have proposed basic steps of this process to which we have integrated system testing. Given the scope of the system testing, we have decided to propose two testing models. We have focused on performance and step stress testing. These models implement requirements for testing of safety critical systems specified by us. To verify the proposed models, we have defined a metric. Based on its value we can determine whenever the proposed model meets testing requirements specified by us.



http://www.db-thueringen.de/servlets/DocumentServlet?id=23087
Škulavík, Tomáš;
PLC-based fuzzy control system for a robotic manipulator
[Online-Ausg.] - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: 115 S., 9,15 MB). . - (Scientific monographs in automation and computer science. - 11) Teilw. zugl.: Trnava : Univ., Diss.

The submitted monograph deals with the design of robotic arm fuzzy control and its implementation in the PLC-based control system. In the introduction section, the robots and their control systems, as well as their properties and the possible solutions for the selected control tasks are analyzed. Then the author focuses on fuzzy control integration within the systems of the Siemens PLC company. Subsequently, the aims of the monograph and related subject matters to be investigated are defined. The main aim is to propose and implement the control for a robotic arm, whose mathematical model is unknown. The robotic arm, for which the control system has to be proposed, is described in detail. This section is followed by chapters focused on the design itself, its implementation and testing of the individual parts of the control system as a whole. The last chapter deals with analyzing the achieved results.



http://www.db-thueringen.de/servlets/DocumentServlet?id=23064
Kopček, Michal;
Optimal pilot bus selection for the secondary voltage control using parallelism
[Online-Ausg.] - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: 147 S., 3,56 MB). . - (Scientific monographs in automation and computer science. - 10) Teilw. zugl.: Trnava : Univ., Diss.

The scientific monograph submitted deals with the subject of power system set and its control on the secondary level. The power system can be characterized due to its size, complexity and load unknown in advance, in addition to time variability. Since large electric power is transferred, even small changes in setting can frequently represent significant economic savings. Regarding the power system properties as well as the basics of secondary control, it is obvious that the optimal selection of pilot bus plays an important role in the quality of control and the related economic impact. The monograph focuses on the methods of optimal selection of the pilot buses for the dispatch control of bus voltage in a complex power system. The aim is to modify them so that it is possible to investigate the issue via using the parallelism principle and grid computer structure aimed at multiple shortening of the computing time.



http://www.db-thueringen.de/servlets/DocumentServlet?id=22885
Risto, Uwe;
Zur Charakterisierung und Anwendung des Durchschlagverhaltens von nachgiebigen rotationssymmetrischen Strukturen - Ilmenau : Univ.-Verl. Ilmenau, 2013 - Online-Ressource (PDF-Datei: XXXIII, 152 S., 10,56 MB). . - (Berichte der Ilmenauer Mechanismentechnik (BIMT). - Band 3) Ilmenau : Techn. Univ., Diss., 2013

Instabiles Verhalten von festen und nachgiebigen Strukturen wird in den meisten Fällen der technischen Anwendung vermieden. Dennoch kann das instabile Verhalten von nachgiebigen Strukturen in Form von Durchschlag positiv eingesetzt werden. Das Durchschlagverhalten stellt eine sprunghafte Änderung von einem Gleichgewichtszustand in einen anderen dar. In der vorliegenden Arbeit werden signifikante Eigenschaften des instabilen Verhaltens in Form von Durchschlag beschrieben. Dies wird am Beispiel einer sphärisch geformten Struktur, und anderen, durchgeführt. Des Weiteren wird das Verhalten der Strukturen unter einem gleichmäßigen Außendruck und unter Berücksichtigung eines nichtlinearen elastischen Materials untersucht. Ergänzend werden die ermittelten Ergebnisse experimentell überprüft. Die Forschungsergebnisse fließen anschließend in die Entwicklung von innovativen Ventilsystemen für beispielsweise solarthermische Anlagen.In solarthermischen Anlagen müssen für deren sichere und effiziente Funktion die durch Ausgasung aus dem Solarfluid anfallenden Gase regelmäßig aus dem System abgeleitet werden. Im Rahmen dieser Arbeit soll die Entwicklung eines neuartigen Funktionselementes für Ventilanwendungen erläutert werden, der eine regelmäßige und vollkommen autonome Entlüftung solarthermischer Anlagen ermöglicht. Die Besonderheit dieser Innovation besteht darin, dass das Funktionselement keine externe Energieversorgung benötigt und dass auf Steuerungselektronik und Sensorik verzichtet werden kann. Die Neuentwicklung beruht auf den mechanischen Eigenschaften einer partiellen Nachgiebigkeit eines Körpers aus hochelastischem Material und nutzt die vorhandene Wärmeenergie des Betriebsmediums in einer solarthermischen Anlage. Die erzielten Forschungsergebnisse werden weiterhin für die Entwicklung eines Ventilsystems für medizinische Anwendungen eingesetzt. Bei dem medizinischen Ventilsystem handelt es sich um eine Struktur die es ermöglichen soll, in Form eines Implantates, Inkontinenzpatienten die Unannehmlichkeiten ihrer Krankheit zu überwinden.



http://www.db-thueringen.de/servlets/DocumentServlet?id=22982
Bergmann, Sören;
Automatische Generierung adaptiver Modelle zur Simulation von Produktionssystemen - Ilmenau : Univ.-Verl. Ilmenau, 2013 - Online-Ressource. Ilmenau : Techn. Univ., Diss., 2013

Die Simulation von Produktionsprozessen wird heute in einer Vielzahl von Branchen eingesetzt. Simulation dient hierbei zur Analyse, dem Design und der Optimierung der Produktions- und Logistikprozesse und dem dabei anfallenden Ressourceneinsatz und kann hierbei sowohl in der Planung, Inbetriebnahme als auch während des operativen Betriebs genutzt werden. Den unbestritten großen Potentialen der Materialflusssimulation in Unternehmen stehen entsprechend hohe Aufwände entgegen. Diese entstehen sowohl bei der Implementierung der Modelle als auch deren Nutzung. Durch schlechte Integration und Standardisierung der Simulation, steigende Anforderungen der Unternehmen bzgl. Genauigkeit, Flexibilität, Anpassbarkeit, Geschwindigkeit, Kosten, Wiederverwendbarkeit, Zyklen und phasenübergreifender Nutzbarkeit usw. werden die Aufwände teils unnötig gesteigert. Ein Ansatz, der seit einigen Jahren immer wieder als ein Lösungsbeitrag für eine bessere Nutzung der Simulation auch gerade in KMU's betrachtet wird, ist die automatische Generierung von Simulationsmodellen. Unter automatischer Modellgenerierung werden verschiedene Ansätze subsumiert, die erlauben Simulationsmodelle oder zumindest Teile von Modellen mittels Algorithmen zu erzeugen. Bisher wurde kein Ansatz veröffentlicht, der für einen breiteren Nutzerkreis und über einen speziellen Teilbereich hinaus gute Ergebnisse liefert.In dieser Arbeit wurde ein umfassendes Rahmenwerk zur Integration bzw. Automatisierung der Simulation entworfen und validiert. Es wurden sowohl organisatorische, methodische als auch prototypisch technische Komponenten betrachtet. In diesem Zusammenhang wird die These vertreten, dass eine breit anwendbare automatische Modellgenerierung allein durch die Nutzung von Standards zum Datenaustausch bzw. zur Konzeptmodellerstellung sinnvoll zu implementieren ist. Konkret wurde der Core Manufacturing Simulation Data (CMSD) Standard genutzt bzw. bildet die Referenzanwendung des Standards die Basis der gesamten Arbeit. Die Unterstützung aller Simulationsphasen, d.h. nicht allein der Modellerstellung sondern auch der Alternativenbildung, Initialisierung, Ergebnisauswertung usw. in allen Komponenten wird durchgehend gewährleistet. Weiterhin wurden konkret Modellgenerierungsmethoden und Verfahren zur Abbildung des dynamischen Verhaltens in Modellen klassifiziert und einzelne Lösungsansätze vorgestellt.



http://www.db-thueringen.de/servlets/DocumentServlet?id=23106
Kop&bovko;cek, Michael;
Optimal pilot bus selection for the secondary voltage control using parallelism - Ilmenau : Univ.-Verl. Ilmenau - 147 S.. . - (Scientific monographs in automation and computer science. - 10) Teilw. zugl.: Trnava : Univ., Diss.

The scientific monograph submitted deals with the subject of power system set and its control on the secondary level. The power system can be characterized due to its size, complexity and load unknown in advance, in addition to time variability. Since large electric power is transferred, even small changes in setting can frequently represent significant economic savings. Regarding the power system properties as well as the basics of secondary control, it is obvious that the optimal selection of pilot bus plays an important role in the quality of control and the related economic impact. The monograph focuses on the methods of optimal selection of the pilot buses for the dispatch control of bus voltage in a complex power system. The aim is to modify them so that it is possible to investigate the issue via using the parallelism principle and grid computer structure aimed at multiple shortening of the computing time.



TEST4http://www.gbv.de/dms/ilmenau/toc/775244562.PDF
&bovko;Skulavik, Tomá&bovko;s;
PLC-based fuzzy control system for a robotic manipulator - Ilmenau : Univ.-Verl. Ilmenau - 115 S.. . - (Scientific monographs in automation and computer science. - 11) Teilw. zugl.: Trnava : Univ., Diss.

The submitted monograph deals with the design of robotic arm fuzzy control and its implementation in the PLC-based control system. In the introduction section, the robots and their control systems, as well as their properties and the possible solutions for the selected control tasks are analyzed. Then the author focuses on fuzzy control integration within the systems of the Siemens PLC company. Subsequently, the aims of the monograph and related subject matters to be investigated are defined. The main aim is to propose and implement the control for a robotic arm, whose mathematical model is unknown. The robotic arm, for which the control system has to be proposed, is described in detail. This section is followed by chapters focused on the design itself, its implementation and testing of the individual parts of the control system as a whole. The last chapter deals with analyzing the achieved results.



TEST4http://www.gbv.de/dms/ilmenau/toc/775217883.PDF
Risto, Uwe;
Zur Charakterisierung und Anwendung des Durchschlagverhaltens von nachgiebigen rotationssymmetrischen Strukturen - Ilmenau : Univ.-Verl. Ilmenau, 2013 - XXXIII, 152 S.. . - (Berichte der Ilmenauer Mechanismentechnik (BIMT). - 3) : Zugl.: Ilmenau, Techn. Univ., Diss., 2013
ISBN 978-3-86360-074-7
Parallel als Online-Ausgabe erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=22982

Instabiles Verhalten von festen und nachgiebigen Strukturen wird in den meisten Fällen der technischen Anwendung vermieden. Dennoch kann das instabile Verhalten von nachgiebigen Strukturen in Form von Durchschlag positiv eingesetzt werden. Das Durchschlagverhalten stellt eine sprunghafte Änderung von einem Gleichgewichtszustand in einen anderen dar. In der vorliegenden Arbeit werden signifikante Eigenschaften des instabilen Verhaltens in Form von Durchschlag beschrieben. Dies wird am Beispiel einer sphärisch geformten Struktur, und anderen, durchgeführt. Des Weiteren wird das Verhalten der Strukturen unter einem gleichmäßigen Außendruck und unter Berücksichtigung eines nichtlinearen elastischen Materials untersucht. Ergänzend werden die ermittelten Ergebnisse experimentell überprüft. Die Forschungsergebnisse fließen anschließend in die Entwicklung von innovativen Ventilsystemen für beispielsweise solarthermische Anlagen. In solarthermischen Anlagen müssen für deren sichere und effiziente Funktion die durch Ausgasung aus dem Solarfluid anfallenden Gase regelmäßig aus dem System abgeleitet werden. Im Rahmen dieser Arbeit soll die Entwicklung eines neuartigen Funktionselementes für Ventilanwendungen erläutert werden, der eine regelmäßige und vollkommen autonome Entlüftung solarthermischer Anlagen ermöglicht. Die Besonderheit dieser Innovation besteht darin, dass das Funktionselement keine externe Energieversorgung benötigt und dass auf Steuerungselektronik und Sensorik verzichtet werden kann. Die Neuentwicklung beruht auf den mechanischen Eigenschaften einer partiellen Nachgiebigkeit eines Körpers aus hochelastischem Material und nutzt die vorhandene Wärmeenergie des Betriebsmediums in einer solarthermischen Anlage. Die erzielten Forschungsergebnisse werden weiterhin für die Entwicklung eines Ventilsystems für medizinische Anwendungen eingesetzt. Bei dem medizinischen Ventilsystem handelt es sich um eine Struktur die es ermöglichen soll, in Form eines Implantates, Inkontinenzpatienten die Unannehmlichkeiten ihrer Krankheit zu überwinden.



Dietz, Saskia;
Die Presseberichterstattung über die "NSU-Terrorzelle" aus medienrechtlicher Sicht : eine Untersuchung im Hinblick auf Persönlichkeitsrechtsverletzungen - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: LXXXIX, 95 S., 34,31 MB). . - (Medienrechtliche Schriften. - 11) Teilw. zugl.: Ilmenau : Techn. Univ., Masterarbeit, 2013
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

Die Presse bewegt sich bei ihrer Tätigkeit der Berichterstattung grundsätzlich im Spannungsfeld der verfassungsrechtlich verankerten Grundrechte der Meinungsfreiheit, der Pressefreiheit und des Allgemeinen Persönlichkeitsrechts. Gerade durch Presseberichte über mutmaßliche Straftäter und die zumeist negative Vorwegqualifikation kann das Persönlichkeitsrecht Betroffener in erheblichem Maße beeinträchtigt werden. Der spektakuläre und medial viel diskutierte Fall der terroristischen Vereinigung Nationalsozialistischer Untergrund (kurz: NSU) stellt in diesem Zusammenhang ein besonders untersuchungswürdiges Beispiel dar, weil dabei spezielle Fallkonstellationen wie vorherige Öffentlichkeitsfahndungen und unterschiedliche Personengruppen von durch die Presseberichterstattung Betroffenen vorliegen. Das Ziel der Arbeit besteht in einer Untersuchung hinsichtlich möglicher Persönlichkeitsrechtsverletzungen durch eine sachlich und zeitlich abgegrenzte Presseberichterstattung über die NSU-Terrorzelle, die den besonderen Begleitumständen Rechnung trägt. Dabei werden exemplarisch sowohl Positiv- als auch Negativbeispiele aus den periodischen Presseerzeugnissen BILD, F.A.Z., DER SPIEGEL und Freies Wort im Zeitraum November 2011 herausgegriffen, um die einzelnen juristischen Problemfelder zu verdeutlichen. Nach einer formalen Einleitung, einer Beschreibung von Sachverhalt und Hintergrund der NSU-Terrorzelle sowie Erläuterungen zur diesbezüglichen Presseberichterstattung beschäftigt sich die Arbeit zunächst ausführlich mit möglichen Persönlichkeitsrechtsverletzungen der Haupttatverdächtigen Beate Zschäpe durch Bildberichterstattung, Namensnennung und Wortberichterstattung. Auf dieser Basis werden anschließend Unterschiede und Besonderheiten bezüglich möglicher Persönlichkeitsrechtsverletzungen der mutmaßlichen Unterstützer der Terrorzelle wie Holger G., Andre E. und Ralf Wohlleben herausgearbeitet. Die danach folgenden Ausführungen widmen sich der besonderen Konstellation eines eventuellen postmortalen Persönlichkeitsrechtsschutzes bezüglich der beiden verstorbenen Tatverdächtigen Uwe Böhnhardt und Uwe Mundlos sowie der vermeintlichen Opfer des NSU. Abschließend werden die gewonnenen Erkenntnisse zusammengefasst und kritisch gewürdigt.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2013100111
Arlt, Dorothee;
Laufzeitverlängerung von Atomkraftwerken - Nein, Danke!? : eine kommunikationswissenschaftliche Studie zum Einfluss medialer Kommunikation auf Einstellungen gegenüber Atomkraft - Ilmenau : Univ.-Verl. Ilmenau, 2013 - 259 S.. . - (Nachhaltigkeits-, Energie- und Umweltkommunikation. - 1) Zugl.: Ilmenau : Techn. Univ., Diss., 2013

In dieser Studie wurde der Einfluss der individuellen Mediennutzung auf Einstellungen gegenüber Atomkraft am Beispiel der im Jahr 2010 geplanten Laufzeitverlängerung deutscher Atomkraftwerke untersucht. Die Studie wurde im Zwei-Methoden-Design durchgeführt. In einer repräsentativen Telefonbefragung wurden die Einstellungen und das Mediennutzungsverhalten von n=551 Thüringern erhoben. Die Argumente in der Berichterstattung für bzw. gegen eine Laufzeitverlängerung wurden durch eine quantitative Inhaltsanalyse von n=480 Medienbeiträgen erfasst. Bei der Datenverknüpfung wurden Variablen zum individuellen Medieninput an Argumenten aus der Berichterstattung gebildet. Auf Basis dieser Variablen wurden dann Einstellungseffekte geprüft. Die Befunde zeigten, dass der individuelle Medieninput an Argumenten die Einstellungen gegenüber Atomkraft sowohl mittel- als auch langfristig beeinflusste. Deutlich wurde auch, dass sich Einstellungen gegenüber der Laufzeitverlängerung besser durch generelle Einstellungen zu Atomkraft, Energie und Politik vorhersagen ließen, als durch die individuelle Nutzung medialer Kommunikationsinhalte.



TEST4http://www.gbv.de/dms/ilmenau/abs/773947272arlt.txt
Schaaf, Peter
Thüringer Werkstofftag 2013 : Werkstoffe-Wissenschaft-Wirtschaft ; Technische Universität Ilmenau, 21. März 2013
[Online-Ausg.] - Ilmenau : Univ.-Verl. Ilmenau, 2013 - Online-Ressource (PDF-Datei: 226 S., 15,08 MB). . - (Werkstofftechnik aktuell. - 9)Literaturangaben

Der Tagungsband "Thüringer Werkstofftag 2013" sind die Proceedings des 11. Thüringer Werkstofftages, der im März 2013 an der TU Ilmenau unter dem Motto "Werkstoffe - Wissenschaft -Wirtschaft" stattfand. Der Band beinhaltet die Wissenschaftlichen Beiträge (Vorträge und Poster), die auf dem Thüringer Werkstofftag 2013 vorgestellt wurden und die als Manuskript zur Veröffentlichung eingereicht wurden. Somit wird hier ein kleiner Überblick über die aktuelle Werkstoffforschung in Thüringen gegeben.



http://www.db-thueringen.de/servlets/DocumentServlet?id=22997
Dietz, Saskia;
Die Presseberichterstattung über die "NSU-Terrorzelle" aus medienrechtlicher Sicht : eine Untersuchung im Hinblick auf Persönlichkeitsrechtsverletzungen - Ilmenau : Univ.-Verl. Ilmenau - LXXXIX, 95 S.. . - (Medienrechtliche Schriften. - 11) Teilw. zugl.: Ilmenau : Techn. Univ., Masterarbeit, 2013

Die Presse bewegt sich bei ihrer Tätigkeit der Berichterstattung grundsätzlich im Spannungsfeld der verfassungsrechtlich verankerten Grundrechte der Meinungsfreiheit, der Pressefreiheit und des Allgemeinen Persönlichkeitsrechts. Gerade durch Presseberichte über mutmaßliche Straftäter und die zumeist negative Vorwegqualifikation kann das Persönlichkeitsrecht Betroffener in erheblichem Maße beeinträchtigt werden. Der spektakuläre und medial viel diskutierte Fall der terroristischen Vereinigung Nationalsozialistischer Untergrund (kurz: NSU) stellt in diesem Zusammenhang ein besonders untersuchungswürdiges Beispiel dar, weil dabei spezielle Fallkonstellationen wie vorherige Öffentlichkeitsfahndungen und unterschiedliche Personengruppen von durch die Presseberichterstattung Betroffenen vorliegen. Das Ziel der Arbeit besteht in einer Untersuchung hinsichtlich möglicher Persönlichkeitsrechtsverletzungen durch eine sachlich und zeitlich abgegrenzte Presseberichterstattung über die NSU-Terrorzelle, die den besonderen Begleitumständen Rechnung trägt. Dabei werden exemplarisch sowohl Positiv- als auch Negativbeispiele aus den periodischen Presseerzeugnissen BILD, F.A.Z., DER SPIEGEL und Freies Wort im Zeitraum November 2011 herausgegriffen, um die einzelnen juristischen Problemfelder zu verdeutlichen. Nach einer formalen Einleitung, einer Beschreibung von Sachverhalt und Hintergrund der NSU-Terrorzelle sowie Erläuterungen zur diesbezüglichen Presseberichterstattung beschäftigt sich die Arbeit zunächst ausführlich mit möglichen Persönlichkeitsrechtsverletzungen der Haupttatverdächtigen Beate Zschäpe durch Bildberichterstattung, Namensnennung und Wortberichterstattung. Auf dieser Basis werden anschließend Unterschiede und Besonderheiten bezüglich möglicher Persönlichkeitsrechtsverletzungen der mutmaßlichen Unterstützer der Terrorzelle wie Holger G., Andre E. und Ralf Wohlleben herausgearbeitet. Die danach folgenden Ausführungen widmen sich der besonderen Konstellation eines eventuellen postmortalen Persönlichkeitsrechtsschutzes bezüglich der beiden verstorbenen Tatverdächtigen Uwe Böhnhardt und Uwe Mundlos sowie der vermeintlichen Opfer des NSU. Abschließend werden die gewonnenen Erkenntnisse zusammengefasst und kritisch gewürdigt.



TEST4http://www.gbv.de/dms/ilmenau/toc/773142657.PDF
Schaaf, Peter
Thüringer Werkstofftag 2013 : Werkstoffe - Wissenschaft - Wirtschaft ; Technische Universität Ilmenau, 21. März 2013 - Ilmenau : Univ.-Verl. Ilmenau, 2013 - 226 S.. . - (Werkstofftechnik aktuell. - 9) ISBN 978-3-86360-080-8
Beitr. überw. dt., teilw. engl. - Literaturangaben

Der Tagungsband "Thüringer Werkstofftag 2013" sind die Proceedings des 11. Thüringer Werkstofftages, der im März 2013 an der TU Ilmenau unter dem Motto "Werkstoffe - Wissenschaft -Wirtschaft" stattfand. Der Band beinhaltet die Wissenschaftlichen Beiträge (Vorträge und Poster), die auf dem Thüringer Werkstofftag 2013 vorgestellt wurden und die als Manuskript zur Veröffentlichung eingereicht wurden. Somit wird hier ein kleiner Überblick über die aktuelle Werkstoffforschung in Thüringen gegeben.



Arlt, Dorothee;
Laufzeitverlängerung von Atomkraftwerken - Nein, Danke!? : eine kommunikationswissenschaftliche Studie zum Einfluss medialer Kommunikation auf Einstellungen gegenüber Atomkraft - Ilmenau : Univ.-Verl. Ilmenau, 2013 - Online-Ressource (PDF-Datei: 264 S., 5,58 MB). . - (Nachhaltigkeits-, Energie- und Umweltkommunikation. - 1) Ilmenau : Techn. Univ., Diss., 2013
Erg. bildet: Arlt, Dorothee: Laufzeitverlängerung von Atomkraftwerken - Nein, Danke!? : Anhang

In dieser Studie wurde der Einfluss der individuellen Mediennutzung auf Einstellungen gegenüber Atomkraft am Beispiel der im Jahr 2010 geplanten Laufzeitverlängerung deutscher Atomkraftwerke untersucht. Die Studie wurde im Zwei-Methoden-Design durchgeführt. In einer repräsentativen Telefonbefragung wurden die Einstellungen und das Mediennutzungsverhalten von n=551 Thüringern erhoben. Die Argumente in der Berichterstattung für bzw. gegen eine Laufzeitverlängerung wurden durch eine quantitative Inhaltsanalyse von n=480 Medienbeiträgen erfasst. Bei der Datenverknüpfung wurden Variablen zum individuellen Medieninput an Argumenten aus der Berichterstattung gebildet. Auf Basis dieser Variablen wurden dann Einstellungseffekte geprüft. Die Befunde zeigten, dass der individuelle Medieninput an Argumenten die Einstellungen gegenüber Atomkraft sowohl mittel- als auch langfristig beeinflusste. Deutlich wurde auch, dass sich Einstellungen gegenüber der Laufzeitverlängerung besser durch generelle Einstellungen zu Atomkraft, Energie und Politik vorhersagen ließen, als durch die individuelle Nutzung medialer Kommunikationsinhalte.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2013000440
Neundorf, Werner;
Numerik gewöhnlicher Differentialgleichungen mit Computeralgebrasystemen : Anfangswertprobleme - Ilmenau : Univ.-Verl. Ilmenau, 2013 - XI, 772 S.. Literaturverz. S. [767] - 772

Dieses Buch ist aus Vorlesungen und Seminaren für die Mathematik- und Ingenieurstudenten an der TU Ilmenau hervorgegangen. Es widmet sich der numerischen Behandlung von Anfangswertproblemen gewöhnlicher Differentialgleichungen, im notwendigen Maße der Theorie, mehr jedoch den Fragen der Algorithmisierung sowie der Nutzung von Software. So findet der Leser zahlreiche Hinweise, Beispiele und Illustrationen zur numerischen Behandlung von Differentialgleichungen im Studium und in der Praxis. Es ist klar, dass in einem solchen Buch nur ein Teil der mit dieser Problematik verbundenen Aspekte dargestellt werden kann. Im Literaturverzeichnis gibt es weiterführende einschlägige und Fachliteratur. Die Umsetzung der Formeln und Verfahren sowie die Darstellung von Ergebnissen, ob zu den numerischen Methoden, ihrer Herleitung, Genauigkeit, Stabilität und Konvergenz erfolgt vorwiegend unter Verwendung der Computeralgebrasysteme Maple und MATLAB. Für die praktischen Rechnungen wurden auch die angegebenen Programme verwendet. Die Darstellungen werden durch 45 Beispiele mit sehr vielen gDGl und SysgDGl, durch mehr als 600 Abbildungen und 50 Tabellen sowie weitere algorithmische Notationen, Schemata und Rechenergebnisse unterstützt. Zahlreiche Testbeispiele, Arbeitsblätter und Computerprogramme ergänzen den Stoff. Aus der immensen Fülle des Angebots auf diesem Gebiet, das auch im Internet problemlos auffindbar ist und zur Verfügung steht, wird hier eine beachtliche, wenn auch nur subjektive Auswahl getroffen. Die Übungsaufgaben dienen zur Vertiefung der Erkenntnisse.



TEST4http://www.gbv.de/dms/ilmenau/toc/770689604.PDF
Selva Ginani, Luciano;
Optical scanning sensor system with submicron resolution - Ilmenau : Univ.-Verl. Ilmenau, 2013 - Online-Ressource (PDF-Datei: XVIII, 142 S., 10,00 MB). . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - 24) Ilmenau : Techn. Univ., Diss., 2013
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

Laser-Scanning Mikroskopie ist eine im Bereich der Oberflächenmessung wichtige und vielversprechende Technologie für schnelle, genaue und wiederholbare Messungen. Es ist im Grunde eine Technik zur Erhöhung von Kontrast und Auflösung in optischen Abbildungssystemen. Ein Prüfling wird punktweise abgetastet und ein dreidimensionales Bild seiner Oberfläche mit Hilfe eines Rechners erfasst und rekonstruiert. In dieser Arbeit werden Autofokus- und optische Abtastverfahren in der Entwicklung und Konstruktion eines alternativen, vereinfachten Scanning Mikroskops für Oberflächenmessungen im Millimeterbereich mit Sub-Mikrometer Auflösung zusammengebracht. Das entwickelte System verwendet einen auf dem Foucault'sches Schneidenverfahren basierenden Autofokussensor um die Fokuslage zu bestimmen und einen Piezo-Linearantrieb für die Verschiebung des Objektivs entlang der optischen Achse und das Abtasten des Prüflings in der axialen Richtung. Die laterale Abtastung des Prüflings wird durch den Einsatz eines Piezo-Spiegels realisiert, der um zwei Achsen schwenkbar ist. Das entwickelte Mikroskop hat eine reduzierte Anzahl von optischen Komponenten und bietet einen einfachen und vielseitigen Versuchsaufbau zur Messung und Analyse von Fehlern, die durch die bewusste Verwendung von unkompensierten Optiken auftreten. Die damit verbundenen Abbildungsfehler erzeugen Asymmetrien in den Autofokussensoren und beeinträchtigen die Gesamtleistung. Die herkömmliche Lösung dieser Problematik ist das System durch Addition zusätzlicher Komponenten zu verbessern, sodass es wie ein paraxiales System wirkt. Diese Verbesserung bringt aber die Nachteile von Baugröße, Gewicht und Kosten mit sich. Durch das Brechen des Paradigmas der Verbesserung der Optik bis zu einem paraxialen System und die Betrachtung der Optik als Teil eines komplexen Systems ist es möglich, simplere Optik zu verwenden, und die resultierenden Fehler rechnerisch zu korrigieren. Diese Fehler sind systematisch und können - solange sie modelliert und gemessen werden können - vorhergesagt und korrigiert werden. Damit wird das Design des optischen Systems flexibler und die Aufgabe der Fehlerbehandlung zwischen Optimierung der Optik und rechnerischer Korrektur aufgeteilt. Baugröße, Gewicht und Kosten können dann reduziert werden und die Systemdynamik erhöht sich, ohne Einschränkung der Präzision. Das Ziel ist nicht jeden Abbildungsfehler individuell zu untersuchen, sondern deren Zusammenwirken auf die Messungen zu beobachten und zu modellieren. Verschiedene Strategien für die Behandlung dieser Messfehler werden in dieser Arbeit vorgeschlagen, diskutiert und experimentell validiert.



http://www.db-thueringen.de/servlets/DocumentServlet?id=22505
Neundorf, Werner;
Numerik gewöhnlicher Differentialgleichungen mit Computeralgebrasystemen : Anfangswertprobleme - Ilmenau : Univ.-Verl. Ilmenau, 2013 - Online-Ressource (PDF-Datei: XI, 772 S., 24,37 MB).

Dieses Buch ist aus Vorlesungen und Seminaren für die Mathematik- und Ingenieurstudenten an der TU Ilmenau hervorgegangen. Es widmet sich der numerischen Behandlung von Anfangswertproblemen gewöhnlicher Differentialgleichungen, im notwendigen Maße der Theorie, mehr jedoch den Fragen der Algorithmisierung sowie der Nutzung von Software. So findet der Leser zahlreiche Hinweise, Beispiele und Illustrationen zur numerischen Behandlung von Differentialgleichungen im Studium und in der Praxis. Es ist klar, dass in einem solchen Buch nur ein Teil der mit dieser Problematik verbundenen Aspekte dargestellt werden kann. Im Literaturverzeichnis gibt es weiterführende einschlägige und Fachliteratur. Die Umsetzung der Formeln und Verfahren sowie die Darstellung von Ergebnissen, ob zu den numerischen Methoden, ihrer Herleitung, Genauigkeit, Stabilität und Konvergenz erfolgt vorwiegend unter Verwendung der Computeralgebrasysteme Maple und MATLAB. Für die praktischen Rechnungen wurden auch die angegebenen Programme verwendet. Die Darstellungen werden durch 45 Beispiele mit sehr vielen gDGl und SysgDGl, durch mehr als 600 Abbildungen und 50 Tabellen sowie weitere algorithmische Notationen, Schemata und Rechenergebnisse unterstützt. Zahlreiche Testbeispiele, Arbeitsblätter und Computerprogramme ergänzen den Stoff. Aus der immensen Fülle des Angebots auf diesem Gebiet, das auch im Internet problemlos auffindbar ist und zur Verfügung steht, wird hier eine beachtliche, wenn auch nur subjektive Auswahl getroffen. Die Übungsaufgaben dienen zur Vertiefung der Erkenntnisse.



http://www.db-thueringen.de/servlets/DocumentServlet?id=22621
Taubmann, Rebekka;
Untersuchungen zur Erweiterung der thermogravimetrischen Messung mit Magnetschwebewaage für die Differenzthermoanalyse durch Einführung einer stabilen rotationsfreien magnetischen Lagerung - Ilmenau : Univ.-Verl. Ilmenau, 2013 - Online-Ressource (PDF-Datei: XVI, 128 S., 5,63 MB). : Ilmenau, Techn. Univ., Diss., 2013
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

Vorliegende Dissertation beschreibt die Realisierung eines rotationsfreien stabilen Lagers für den Einsatz in einer Magnetschwebewaage, um neben dem thermogravimetrischen Signal auch eine Differenzthermoanalyse durchführen zu können. Die Differenzthermoanalyse kann durch die schwebende Lagerung der Probe in der Messzelle nicht konventionell über Thermoelemente durchgeführt werden. Daher soll auf eine pyrometrische Temperaturmessung zurückgegriffen werden. Dazu ist geplant - durch ein Sichtfenster in der Messzelle hindurch - die Temperatur der stabil rotationsfrei gelagerten Probe mittels Pyrometer zu bestimmen. Daraus ergeben sich bestimmte Anforderungen an die Lagerung der Probe, die einerseits eine stabile berührungsfreie Kraftübertragung und andererseits eine rotationsfreie Lagerung ermöglichen muss. Zur Realisierung dieses Ziels erfolgen zuerst einige theoretische Betrachtungen. Dabei wird geklärt, welche generellen Möglichkeiten es zur Erzeugung eines Schwebezustands gibt. Danach kann abgewogen werden, welche Prinzipien sich zum Einsatz in der Magnetschwebewaage eignen. Daneben finden Untersuchungen zur Optimierung der Robustheit statt. Nach der Definition der Anforderungskriterien an eine stabile rotationsfreie Lagerung werden verschiedene Möglichkeiten zur Realisierung eines solchen Lagers gegenübergestellt. Daraus lassen sich geeignete Varianten berechnen, aufbauen und prüfen. Im Rahmen der Berechnung werden sowohl analytische als auch FEM-Modelle (Finite Element Methode) genutzt. Die Funktionsprüfung findet, mit geeigneten Methoden, an einem dafür konstruierten Versuchsstand statt. Dabei haben Magnetlager mit einer gezahnten Gehäuseform und einer zusätzlichen permanentmagnetischen Erregung alle Anforderungskriterien erfüllt. Solche Magnetlager können ohne Änderung der Konstruktion in der Magnetschwebewaage genutzt werden, sind einfach herstellbar und kostengünstig. Durch den Einsatz dieses neu entwickelten Magnetlagers, kann neben der thermogravimetrischen Messung auch eine Differenzthermoanalyse durchgeführt werden. Damit ergeben sich für die Magnetschwebewaage weitere Anwendungsbereiche.



http://www.db-thueringen.de/servlets/DocumentServlet?id=22627
Taubmann, Rebekka;
Untersuchungen zur Erweiterung der thermogravimetrischen Messung mit Magnetschwebewaage für die Differenzthermoanalyse durch Einführung einer stabilen rotationsfreien magnetischen Lagerung - Ilmenau : Univ.-Verl. Ilmenau, 2013 - XVI, 128 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2013

Vorliegende Dissertation beschreibt die Realisierung eines rotationsfreien stabilen Lagers für den Einsatz in einer Magnetschwebewaage, um neben dem thermogravimetrischen Signal auch eine Differenzthermoanalyse durchführen zu können. Die Differenzthermoanalyse kann durch die schwebende Lagerung der Probe in der Messzelle nicht konventionell über Thermoelemente durchgeführt werden. Daher soll auf eine pyrometrische Temperaturmessung zurückgegriffen werden. Dazu ist geplant - durch ein Sichtfenster in der Messzelle hindurch - die Temperatur der stabil rotationsfrei gelagerten Probe mittels Pyrometer zu bestimmen. Daraus ergeben sich bestimmte Anforderungen an die Lagerung der Probe, die einerseits eine stabile berührungsfreie Kraftübertragung und andererseits eine rotationsfreie Lagerung ermöglichen muss. Zur Realisierung dieses Ziels erfolgen zuerst einige theoretische Betrachtungen. Dabei wird geklärt, welche generellen Möglichkeiten es zur Erzeugung eines Schwebezustands gibt. Danach kann abgewogen werden, welche Prinzipien sich zum Einsatz in der Magnetschwebewaage eignen. Daneben finden Untersuchungen zur Optimierung der Robustheit statt. Nach der Definition der Anforderungskriterien an eine stabile rotationsfreie Lagerung werden verschiedene Möglichkeiten zur Realisierung eines solchen Lagers gegenübergestellt. Daraus lassen sich geeignete Varianten berechnen, aufbauen und prüfen. Im Rahmen der Berechnung werden sowohl analytische als auch FEM-Modelle (Finite Element Methode) genutzt. Die Funktionsprüfung findet, mit geeigneten Methoden, an einem dafür konstruierten Versuchsstand statt. Dabei haben Magnetlager mit einer gezahnten Gehäuseform und einer zusätzlichen permanentmagnetischen Erregung alle Anforderungskriterien erfüllt. Solche Magnetlager können ohne Änderung der Konstruktion in der Magnetschwebewaage genutzt werden, sind einfach herstellbar und kostengünstig. Durch den Einsatz dieses neu entwickelten Magnetlagers, kann neben der thermogravimetrischen Messung auch eine Differenzthermoanalyse durchgeführt werden. Damit ergeben sich für die Magnetschwebewaage weitere Anwendungsbereiche.



TEST4http://www.gbv.de/dms/ilmenau/toc/77047439X.PDF
Zentner, Lena
10. Kolloquium Getriebetechnik : Technische Universität Ilmenau, 11.-13. September 2013 - Ilmenau : Universitätsverlag Ilmenau, 2013 - 1 Online-Ressource (454 Seiten). . - (Berichte der Ilmenauer Mechanismentechnik. - Band 2)

In diesem Band sind die Beiträge des 10. Kolloquiums Getriebetechnik 2013 in Ilmenau zusammengestellt. Getriebe für Web- und Flechtmaschinen, für Schränke und Sessel, ein Schlagmechanismus für eine bevorstehende Marsmission, Robotersysteme für Mensch-Maschine-Schnittstellen, ein Mechanismus in einem Großteleskop oder Präzisionsmessgerät, ein einfacher Federbügel sowie nachgiebige Aktuatoren und Mechanismen - das sind nur einige von den hoch interessanten Systemen, die in diesem Band vorzufinden sind.



http://www.db-thueringen.de/servlets/DocumentServlet?id=22567
Gossel, Britta M.
Entrepreneurship research - discussing today the awareness of tomorrow : YERC 2012, Young Entrepreneurship Research Colloquium, Ilmenau, 20. - 21. Oktober 2012 - Ilmenau : Univ.-Verl. Ilmenau, 2013 - Online-Ressource (PDF-Datei: 162 S., 2,73 MB). . - (Menschen, Märkte, Medien, Management. - 8)Literaturangaben

The first Young Entrepreneurship Research Colloquium (YERC) was held 2012 in Ilmenau. Initiated as a new innovative format, young scientists from all over Germany discussed their research with colleagues and experts from the fields of education, capital investment and real entrepreneurs. The discussion is continued in this volume, according to the idea that the young of today might be the established entrepreneurship researchers of tomorrow. The invited article of Leona Achtenhagen, Professor of Entrepreneurship and Business Development at Jönköping International Business School, Sweden, offers a shift from the German to an international perspective and a critical but encouraging reflection of each contribution from a profound entrepreneurship scientists' perspective.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2013100066
Schwarzer, Steffen;
Optimierung der Auslegung und des Betriebsverhaltens von hohlradgetriebenen Innenzahnradpumpen - Ilmenau : Univ.-Verl. Ilmenau, 2013 - Online-Ressource (PDF-Datei: XVI, 172 S., 13,41 MB). . - (Kraftfahrzeugtechnische Berichte. - 6) Ilmenau : Techn. Univ., Diss., 2013
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

Zahnradpumpen werden nach wie vor sehr verbreitet in der Antriebstechnik sowie in Anlagensystemen zur hydraulischen Kraftübertragung verwendet. Für die industrielle Anwendbarkeit der Pumpen sind vor allem niedrige Geräuschemissionen, niedrige Herstellungskosten und hohe Leistungen zu vereinen. Werden Innenzahnradpumpen mit Außenzahnradpumpen verglichen, zeichnen sich Innenzahnradpumpen durch niedrigere Geräuschemissionen aus, sind jedoch wegen ihrer höheren Herstellungskosten weniger verbreitet und erforscht. Die vorliegende Arbeit leistet einen Beitrag zur Optimierung der Auslegung und des Betriebsverhaltens von hohlradgetriebenen Innenzahnradpumpen. Ziel ist es, allgemeingültige Auslegungsregeln für industriell umsetzbare Innenzahnradpumpen zu entwickeln. Die erarbeiteten Gestaltungskriterien führen vornehmlich zu einer Minderung von Druckpulsationen und Druckwechselkräften. Um den Druck im Druckabbauvorgang zu reduzieren, wird mit einem neuen geometrischen Verfahren die Pumpenverzahnungsgeometrie dahingehend ausgelegt, große Druckerhöhungen in der Zahnkammer zu vermeiden. Die im Gehäuse platzierten Stege werden über das Berechnungsverfahren so angepasst, dass eine weitere Reduzierung des Spitzendrucks erfolgt. Für die Ermittlung des Druckgradienten im Druckaufbauvorgang wird ein analytisches Verfahren erstellt, das es ermöglicht den Druck in der Zahnkammer während einer Umdrehung zu berechnen. Damit können im Bereich der Sichel über Nutungen gezielte Leckströme erzeugt werden, um den Druckgradienten zu senken. Für die Verifikation des Auslegungsmodells wird der Druckverlauf in der Zahnkammer mit einem im Zahnfuß eingebauten Miniaturdruckaufnehmer gemessen. Durch das Antriebskonzept können bei hohlradgetriebenen Innenzahnradpumpen aufgrund exzentrisch angreifender Kräfte Verkippungen an den Pumpenrädern auftreten. Die Verkippungen werden unter dynamischen Bedingungen mit zwei Wirbelstromsensoren überprüft. Es wird ein Kennfeld erarbeitet, das es dem Konstrukteur ermöglicht, Verkippungen bereits unter Beachtung des Wirkungsgrads im Auslegungsstadium zu vermindern. Aus den erhaltenen Erkenntnissen wird das Programm HGP-SIM zur Auslegung von hohlradgetriebenen Innenzahnradpumpen mit optimiertem Betriebsverhalten erstellt. Über die Eingabe von Vorgabedaten werden in Unterprogrammen optimierte Auslegungsgeometrien für die einzelnen Teilbereiche ausgegeben. Nach den erarbeiteten Regeln ausgelegte hohlradgetriebene Innenzahnradpumpen zeichnen sich bei ähnlichen Herstellungskosten durch niedrigere Schallemissionen wie Außenzahnradpumpen aus. Dadurch wird das Potenzial von hohlradgetriebenen Innenzahnradpumpen zur industriellen Anwendung und Umsetzung bewiesen.



http://www.db-thueringen.de/servlets/DocumentServlet?id=22629
Selva Ginani, Luciano;
Optical scanning sensor system with submicron resolution - Ilmenau : Univ.-Verl. Ilmenau, 2013 - XVIII, 142 S.. . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - 24) Zugl.: Ilmenau : Techn. Univ., Diss., 2013

Laser-Scanning Mikroskopie ist eine im Bereich der Oberflächenmessung wichtige und vielversprechende Technologie für schnelle, genaue und wiederholbare Messungen. Es ist im Grunde eine Technik zur Erhöhung von Kontrast und Auflösung in optischen Abbildungssystemen. Ein Prüfling wird punktweise abgetastet und ein dreidimensionales Bild seiner Oberfläche mit Hilfe eines Rechners erfasst und rekonstruiert. In dieser Arbeit werden Autofokus- und optische Abtastverfahren in der Entwicklung und Konstruktion eines alternativen, vereinfachten Scanning Mikroskops für Oberflächenmessungen im Millimeterbereich mit Sub-Mikrometer Auflösung zusammengebracht. Das entwickelte System verwendet einen auf dem Foucault'sches Schneidenverfahren basierenden Autofokussensor um die Fokuslage zu bestimmen und einen Piezo-Linearantrieb für die Verschiebung des Objektivs entlang der optischen Achse und das Abtasten des Prüflings in der axialen Richtung. Die laterale Abtastung des Prüflings wird durch den Einsatz eines Piezo-Spiegels realisiert, der um zwei Achsen schwenkbar ist. Das entwickelte Mikroskop hat eine reduzierte Anzahl von optischen Komponenten und bietet einen einfachen und vielseitigen Versuchsaufbau zur Messung und Analyse von Fehlern, die durch die bewusste Verwendung von unkompensierten Optiken auftreten. Die damit verbundenen Abbildungsfehler erzeugen Asymmetrien in den Autofokussensoren und beeinträchtigen die Gesamtleistung. Die herkömmliche Lösung dieser Problematik ist das System durch Addition zusätzlicher Komponenten zu verbessern, sodass es wie ein paraxiales System wirkt. Diese Verbesserung bringt aber die Nachteile von Baugröße, Gewicht und Kosten mit sich. Durch das Brechen des Paradigmas der Verbesserung der Optik bis zu einem paraxialen System und die Betrachtung der Optik als Teil eines komplexen Systems ist es möglich, simplere Optik zu verwenden, und die resultierenden Fehler rechnerisch zu korrigieren. Diese Fehler sind systematisch und können - solange sie modelliert und gemessen werden können - vorhergesagt und korrigiert werden. Damit wird das Design des optischen Systems flexibler und die Aufgabe der Fehlerbehandlung zwischen Optimierung der Optik und rechnerischer Korrektur aufgeteilt. Baugröße, Gewicht und Kosten können dann reduziert werden und die Systemdynamik erhöht sich, ohne Einschränkung der Präzision. Das Ziel ist nicht jeden Abbildungsfehler individuell zu untersuchen, sondern deren Zusammenwirken auf die Messungen zu beobachten und zu modellieren. Verschiedene Strategien für die Behandlung dieser Messfehler werden in dieser Arbeit vorgeschlagen, diskutiert und experimentell validiert.



TEST4http://www.gbv.de/dms/ilmenau/abs/768559545ginan.txt
Bönicke, Holger;
Flexible und plattformunabhängige Entwicklung mikrocontrollerbasierter mechatronischer Systeme für Nutzer ohne Vorwissen - Ilmenau : Univ.-Verl. Ilmenau, 2013 - XXIV, 205 S.. Ilmenau : Techn. Univ., Diss., 2013
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

In dieser Arbeit werden Konzepte vorgestellt, mit deren Hilfe Entwicklungssysteme für mechatronische Systeme realisiert werden können. Die Ansätze gewährleisten auch für Nutzer ohne Vorwissen eine flexible und einfache Arbeit. In diesem Zusammenhang werden Ansätze vorgestellt, mit welchen die Funktionsweise der Sensoren, der Aktoren und des informationstechnischen Systems transparent dargestellt wird, so dass der Nutzer hierfür ein technisches Verständnis entwickeln kann. Nach der Erläuterung der Grundlagen zur Arbeit und des Stands der Technik werden zunächst die Konzepte der mikrosystemtechnischen Entwicklungssysteme "EasyKit" und "EasyKit macht Schule" vorgestellt. Als informationstechnische Systeme werden hier Mikrocontroller eingesetzt, da diese bereits eine hohe funktionelle Integration besitzen und somit meist das Mittel der Wahl für unerfahrene Nutzer sind. Die elektronischen Schaltungen werden in Form von Hardwaremodulen bereitgestellt und mit modularen Softwarebausteinen graphisch programmiert. Dabei werden die Vorteile von Ablaufdiagrammen mit den Vorteilen von Datenflussplänen kombiniert, wodurch eine hohe Flexibilität erreicht wird. Nutzertests zeigten, dass auch Nutzer ohne technisches Vorwissen grundsätzlich mit dieser Art der Programmierung arbeiten können. Dieses Konzept wurde anschließend erweitert, um die Programmierung weiter zu vereinfachen und zu flexibilisieren. Außerdem bestand das Ziel, auch die Hardwareentwicklung auf der Schaltungsebene für Nutzer ohne Vorwissen zu ermöglichen, um so Abstand von Ansätzen, bei welchen vorgefertigte Komponenten genutzt werden, nehmen zu können. Hierfür werden in der Arbeit Anforderungen formuliert und Ansätze für Lösungskonzepte vorgestellt. Der wichtigste Ansatz zur Flexibilisierung der Programmierung ist die Einführung einer neuen ergänzenden Programmierebene, auf welcher parallel mit graphischen und textuellen Methoden gearbeitet wird. Zur Unterstützung der Hardwareentwicklung auf der Schaltungsebene werden Ansätze vorgestellt, welche eine weitestgehend auf ihre Schnittstellenarten abstrahierte Modellierung von Sensoren und Aktoren innerhalb der Entwicklungsumgebung ermöglichen. So kann der Nutzer bei der Entwicklung der Anpassungsschaltungen zwischen den Sensoren, Aktoren und dem Mikrocontroller un-terstützt werden. Außerdem können so Signale und Signalwandlungen an den Schnittstellen in der graphischen Oberfläche dargestellt und vom Nutzer nachvollzogen werden. Weitere Ansätze zur Vereinfachung der Entwicklung werden ebenso in der Arbeit vorgestellt. Die erfolgversprechendsten Ansätze wurden in eine Testumgebung implementiert und mit Mitgliedern der möglichen Nutzergruppen getestet.


https://external.dandelon.com/download/attachments/dandelon/ids/DE004F444D65100985164C1257D4200499B8E.pdfTEST2

Bönicke, Holger;
Flexible und plattformunabhängige Entwicklung mikrocontrollerbasierter mechatronischer Systeme für Nutzer ohne Vorwissen - Ilmenau : Univ.-Verl. llmenau, 2013 - XXIV, 205 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2013

In dieser Arbeit werden Konzepte vorgestellt, mit deren Hilfe Entwicklungssysteme für mechatronische Systeme realisiert werden können. Die Ansätze gewährleisten auch für Nutzer ohne Vorwissen eine flexible und einfache Arbeit. In diesem Zusammenhang werden Ansätze vorgestellt, mit welchen die Funktionsweise der Sensoren, der Aktoren und des informationstechnischen Systems transparent dargestellt wird, so dass der Nutzer hierfür ein technisches Verständnis entwickeln kann. Nach der Erläuterung der Grundlagen zur Arbeit und des Stands der Technik werden zunächst die Konzepte der mikrosystemtechnischen Entwicklungssysteme "EasyKit" und "EasyKit macht Schule" vorgestellt. Als informationstechnische Systeme werden hier Mikrocontroller eingesetzt, da diese bereits eine hohe funktionelle Integration besitzen und somit meist das Mittel der Wahl für unerfahrene Nutzer sind. Die elektronischen Schaltungen werden in Form von Hardwaremodulen bereitgestellt und mit modularen Softwarebausteinen graphisch programmiert. Dabei werden die Vorteile von Ablaufdiagrammen mit den Vorteilen von Datenflussplänen kombiniert, wodurch eine hohe Flexibilität erreicht wird. Nutzertests zeigten, dass auch Nutzer ohne technisches Vorwissen grundsätzlich mit dieser Art der Programmierung arbeiten können. Dieses Konzept wurde anschließend erweitert, um die Programmierung weiter zu vereinfachen und zu flexibilisieren. Außerdem bestand das Ziel, auch die Hardwareentwicklung auf der Schaltungsebene für Nutzer ohne Vorwissen zu ermöglichen, um so Abstand von Ansätzen, bei welchen vorgefertigte Komponenten genutzt werden, nehmen zu können. Hierfür werden in der Arbeit Anforderungen formuliert und Ansätze für Lösungskonzepte vorgestellt. Der wichtigste Ansatz zur Flexibilisierung der Programmierung ist die Einführung einer neuen ergänzenden Programmierebene, auf welcher parallel mit graphischen und textuellen Methoden gearbeitet wird. Zur Unterstützung der Hardwareentwicklung auf der Schaltungsebene werden Ansätze vorgestellt, welche eine weitestgehend auf ihre Schnittstellenarten abstrahierte Modellierung von Sensoren und Aktoren innerhalb der Entwicklungsumgebung ermöglichen. So kann der Nutzer bei der Entwicklung der Anpassungsschaltungen zwischen den Sensoren, Aktoren und dem Mikrocontroller unterstützt werden. Außerdem können so Signale und Signalwandlungen an den Schnittstellen in der graphischen Oberfläche dargestellt und vom Nutzer nachvollzogen werden. Weitere Ansätze zur Vereinfachung der Entwicklung werden ebenso in der Arbeit vorgestellt. Die erfolgversprechendsten Ansätze wurden in eine Testumgebung implementiert und mit Mitgliedern der möglichen Nutzergruppen getestet.



TEST4http://www.gbv.de/dms/ilmenau/toc/768546427.PDF
Schwarzer, Steffen;
Optimierung der Auslegung und des Betriebsverhaltens von hohlradgetriebenen Innenzahnradpumpen - Ilmenau : Univ.-Verl. Ilmenau, 2013 - XVI, 172 S.. . - (Kraftfahrzeugtechnische Berichte. - 6) : Zugl.: Ilmenau, Techn. Univ., Diss., 2013
ISBN 978-3-86360-071-6
Parallel als Online-Ausg. erschienen unter der Adresse www.db-thueringen.de/servlets/DocumentServlet?id=22629 =Q text/html =X ilmedia/DBT =Z kostenfrei =4 LF

Zahnradpumpen werden nach wie vor sehr verbreitet in der Antriebstechnik sowie in Anlagensystemen zur hydraulischen Kraftübertragung verwendet. Für die industrielle Anwendbarkeit der Pumpen sind vor allem niedrige Geräuschemissionen, niedrige Herstellungskosten und hohe Leistungen zu vereinen. Werden Innenzahnradpumpe mit Außenzahnradpumpen verglichen, zeichnen sich Innenzahnradpumpen durch niedrigere Geräuschemissionen aus, sind jedoch wegen ihrer höheren Herstellungskosten weniger verbreitet und erforscht. Die vorliegende Arbeit leistet einen Beitrag zur Optimierung der Auslegung und des Betriebsverhaltens von hohlradgetriebenen Innenzahnradpumpen. Ziel ist es, allgemeingültige Auslegungsregeln für industriell umsetzbare Innenzahnradpumpen zu entwickeln. Die erarbeiteten Gestaltungskriterien führen vornehmlich zu einer Minderung von Druckpulsationen und Druckwechselkräften. Um den Druck im Druckabbauvorgang zu reduzieren, wird mit einem neuen geometrischen Verfahren die Pumpenverzahnungsgeometrie dahingehend ausgelegt, große Druckerhöhungen in der Zahnkammer zu vermeiden. Die im Gehäuse platzierten Stege werden über das Berechnungsverfahren so angepasst, dass eine weitere Reduzierung des Spitzendrucks erfolgt. Für die Ermittlung des Druckgradienten im Druckaufbauvorgang wird ein analytisches Verfahren erstellt, das es ermöglicht den Druck in der Zahnkammer während einer Umdrehung zu berechnen. Damit können im Bereich der Sichel über Nutungen gezielte Leckströme erzeugt werden, um den Druckgradienten zu senken. Für die Verifikation des Auslegungsmodells wird der Druckverlauf in der Zahnkammer mit einem im Zahnfuß eingebauten Miniaturdruckaufnehmer gemessen. Durch das Antriebskonzept können bei hohlradgetriebenen Innenzahnradpumpen aufgrund exzentrisch angreifender Kräfte Verkippungen an den Pumpenrädern auftreten. Die Verkippungen werden unter dynamischen Bedingungen mit zwei Wirbelstromsensoren überprüft. Es wird ein Kennfeld erarbeitet, das es dem Konstrukteur ermöglicht, Verkippungen bereits unter Beachtung des Wirkungsgrads im Auslegungsstadium zu vermindern. Aus den erhaltenen Erkenntnissen wird das Programm HGP-SIM zur Auslegung von hohlradgetriebenen Innenzahnradpumpen mit optimiertem Betriebsverhalten erstellt. Über die Eingabe von Vorgabedaten werden in Unterprogrammen optimierte Auslegungsgeometrien für die einzelnen Teilbereiche ausgegeben. Nach den erarbeiteten Regeln ausgelegte hohlradgetriebene Innenzahnradpumpen zeichnen sich bei ähnlichen Herstellungskosten durch niedrigere Schallemissionen wie Außenzahnradpumpen aus. Dadurch wird das Potenzial von hohlradgetriebenen Innenzahnradpumpen zur industriellen Anwendung und Umsetzung bewiesen.



Gossel, Britta M.
Entrepreneurship research - discussing today the awareness of tomorrow : YERC 2012, Young Entrepreneurship Research Colloquium, Ilmenau, 20. - 21. Oktober 2012 - Ilmenau : Univ.-Verl. Ilmenau, 2013 - 162 S.. . - (Menschen, Märkte, Medien, Management. - 8)Literaturangaben. - Enth. 7 Beitr.

The first Young Entrepreneurship Research Colloquium (YERC) was held 2012 in Ilmenau. Initiated as a new innovative format, young scientists from all over Germany discussed their research with colleagues and experts from the fields of education, capital investment and real entrepreneurs. The discussion is continued in this volume, according to the idea that the young of today might be the established entrepreneurship researchers of tomorrow. The invited article of Leona Achtenhagen, Professor of Entrepreneurship and Business Development at Jönköping International Business School, Sweden, offers a shift from the German to an international perspective and a critical but encouraging reflection of each contribution from a profound entrepreneurship scientists' perspective.



TEST4http://www.gbv.de/dms/ilmenau/toc/768174619.PDF
Zentner, Lena
10. Kolloquium Getriebetechnik : Technische Universität Ilmenau, 11.-13. September 2013 - Ilmenau : Universitätsverlag Ilmenau, 2013 - 454 Seiten. . - (Berichte der Ilmenauer Mechanismentechnik. - Band 2) ISBN 978-3-86360-065-5
Literaturangaben

In diesem Band sind die Beiträge des 10. Kolloquiums Getriebetechnik 2013 in Ilmenau zusammengestellt. Getriebe für Web- und Flechtmaschinen, für Schränke und Sessel, ein Schlagmechanismus für eine bevorstehende Marsmission, Robotersysteme für Mensch-Maschine-Schnittstellen, ein Mechanismus in einem Großteleskop oder Präzisionsmessgerät, ein einfacher Federbügel sowie nachgiebige Aktuatoren und Mechanismen - das sind nur einige von den hoch interessanten Systemen, die in diesem Band vorzufinden sind.



Blumer, Tim;
Persönlichkeitsforschung und Internetnutzung - Ilmenau : Univ.-Verl. Ilmenau, 2013 - 332 S.. . - (Kommunikationswissenschaft interdisziplinär. - 2) Zugl.: Ilmenau : Techn. Univ., Diss., 2013 u.d.T.: Blumer, Tim: Persönlichkeitsforschung und Internetnutzung
Literaturverz. S. 287 - 332

Die Arbeit leistet einen Beitrag zum Verständnis des Zusammenhangs zwischen Persönlichkeit und Internetnutzung. Dazu werden im theoretischen Teil persönlichkeitspsychologische sowie medienpsychologische Theorien und Ansätze vorgestellt und zu verschiedenen Kausalmodellen des Zusammenhangs zwischen Persönlichkeit und Online-Verhalten integriert. Der empirische Teil der Arbeit besteht aus drei unabhängigen Studien. Die erste Studie untersucht anhand des Fünf-Faktoren-Modells der Persönlichkeit, ob sich Persönlichkeit am Computer und im Internet anders ausdrückt als außerhalb der digitalen Umgebung. Es wird gezeigt, dass der Ausdruck der vier Eigenschaften Extraversion, Offenheit für Erfahrung, Verträglichkeit und Gewissenhaftigkeit im Internet signifikant schwächer ausfällt. Der Ausdruck der Eigenschaft Neurotizismus verstärkt sich jedoch in dem Sinne, dass Personen am Computer und im Internet emotional deutlich stabiler sind als außerhalb der digitalen Umgebung. Die zweite Studie geht der Vermutung nach, dass besonders narzisstische Personen eine besondere Vorliebe für Online-Social-Networking haben. Eine Online-Fragebogenstudie ergibt, dass Nutzer von Social Networking Sites jedoch nicht generell narzisstischer sind als Nicht-Nutzer. Die Annahme, dass die typischen Bedürfnisse narzisstischer Personen nach Aufmerksamkeit und Bewunderung, Selbstoffenbarung und Selbstdarstellung sowie Selbstwert auf Social Networking Sites besser befriedigt werden können als in Face-to-Face-Kommunikation, lässt sich ebenfalls nicht bestätigen. Die dritte Studie untersucht, ob die in der Literatur oft berichtete Vorliebe von schüchternen Personen für textbasierte, computervermittelte Kommunikation auch auf Social Networking Sites übertragbar ist. Eine Online-Fragebogenstudie kann zeigen, dass die typischen Bedürfnisse schüchterner Personen nach Kontrolle, Zugehörigkeit und Selbstwert tatsächlich auf Social Networking Sites besser befriedigen können als in Face-to-Face-Kommunikation. Alle drei Studien belegen gleichermaßen die Wichtigkeit von Interaktionen zwischen Persönlichkeitseigenschaften und situativen Aspekten und unterstreichen zudem, dass sich computervermittelte Kommunikation in einigen, psychologisch relevanten Aspekten deutlich von Face-to-Face-Kommunikation unterscheidet.



TEST4http://www.gbv.de/dms/ilmenau/abs/756934877blume.txt
Arnold, Heinrich;
Robert Döpel and his model of global warming : an early warning - and its update
4., rev. and transl. ed. - Ilmenau : Univ.-Verl. Ilmenau, 2013 - Online-Ressource (PDF-Datei: 114 S., 1,99 MB). Literaturverz. S. 96 - 114

Robert Döpel's personality and his scientific achievements are briefly introduced. His climate model from 1973 is historically placed. In a simplifying way, it treats a "geophysical limit" to the global waste heat without taking into account the anthropogenic greenhouse effect. This limit will be reached during the next centuries even if photovoltaics and other sustainable energies are used exhaustively, if the growth of global energy production holds up. The calculations that agree with recent literature data, have been updated. They are compared with prognoses for global warming through the greenhouse effect until the year 3000 from the 2007 IPCC report that ignored waste heat. But for later generations, this anthropogenic heat release can also become dangerous if the growth of energy production is not greatly reduced.



http://www.db-thueringen.de/servlets/DocumentServlet?id=22287
Zink, Markus H.;
Zustandsbewertung betriebsgealterter Hochspannungstransformatordurchführungen mit Öl-Papier-Dielektrikum mittels dielektrischer Diagnose - Ilmenau : Univ.-Verl. Ilmenau, 2013 - Online-Ressource (PDF-Datei: XVI, 157 S., 3,66 MB). . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA). - 6) Ilmenau : Techn. Univ., Diss., 2013

Ziel dieser Arbeit ist es, geeignete Verfahren für die Zustandsdiagnose von Durchführungen mit Öl-Papier-Dielektrikum aufzuzeigen. Dazu wurden an drei 400 kV-Transformatordurchführungen, die 28 Jahre lang in Betrieb waren, betriebsfrequente Kapazitäts- und Verlustfaktormessungen sowie Polarisations- und Depolarisationsstrommessungen (PDC) und Frequenzbereichsspektroskopie-Messungen (FDS) vorgenommen und Möglichkeiten zur qualitativen Analyse der Messergebnisse angegeben. Durch Simulationen lassen sich die Ergebnisse der PDC- und FDS-Messung auch quantitativ bewerten, wodurch u.a. eine Abschätzung des Wassergehalts der Isolation möglich ist. Die Eignung der verwendeten Mess-, Analyse- und Simulationsverfahren wurde durch die Demontage und Untersuchung des Papiers eines der Prüflinge verifiziert. Neben vielen praktischen Hinweisen zu dielektrischen Messungen und deren Störeinflüsse werden auch neuartige Verfahren zur Temperaturkompensation dielektrischer Kurven im Zeitbereich sowie zur Herleitung einfacher Ersatzschaltbilder für die Simulation vorgestellt.



http://www.db-thueringen.de/servlets/DocumentServlet?id=22461
Zink, Markus H.;
Zustandsbewertung betriebsgealterter Hochspannungstransformatordurchführungen mit Öl-Papier-Dielektrikum mittels dielektrischer Diagnose - Ilmenau : Univ.-Verl. Ilmenau, 2013 - XVI, 157 S.. . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik (IBEGA). - 6) Zugl.: Ilmenau : Techn. Univ., Diss., 2013

Ziel dieser Arbeit ist es, geeignete Verfahren für die Zustandsdiagnose von Durchführungen mit Öl-Papier-Dielektrikum aufzuzeigen. Dazu wurden an drei 400 kV-Transformatordurchführungen, die 28 Jahre lang in Betrieb waren, betriebsfrequente Kapazitäts- und Verlustfaktormessungen sowie Polarisations- und Depolarisationsstrommessungen (PDC) und Frequenzbereichsspektroskopie-Messungen (FDS) vorgenommen und Möglichkeiten zur qualitativen Analyse der Messergebnisse angegeben. Durch Simulationen lassen sich die Ergebnisse der PDC- und FDS-Messung auch quantitativ bewerten, wodurch u.a. eine Abschätzung des Wassergehalts der Isolation möglich ist. Die Eignung der verwendeten Mess-, Analyse- und Simulationsverfahren wurde durch die Demontage und Untersuchung des Papiers eines der Prüflinge verifiziert. Neben vielen praktischen Hinweisen zu dielektrischen Messungen und deren Störeinflüsse werden auch neuartige Verfahren zur Temperaturkompensation dielektrischer Kurven im Zeitbereich sowie zur Herleitung einfacher Ersatzschaltbilder für die Simulation vorgestellt.



TEST4http://www.gbv.de/dms/ilmenau/abs/755312481zink.txt
Arnold, Heinrich;
Robert Döpel and his model of global warming : an early warning - and its update
4., rev. and transl. ed. - Ilmenau : Univ.-Verl. Ilmenau, 2013 - 114 S.. Literaturverz. S. 96 - 114

Robert Döpel's personality and his scientific achievements are briefly introduced. His climate model from 1973 is historically placed. In a simplifying way, it treats a "geophysical limit" to the global waste heat without taking into account the anthropogenic greenhouse effect. This limit will be reached during the next centuries even if photovoltaics and other sustainable energies are used exhaustively, if the growth of global energy production holds up. The calculations that agree with recent literature data, have been updated. They are compared with prognoses for global warming through the greenhouse effect until the year 3000 from the 2007 IPCC report that ignored waste heat. But for later generations, this anthropogenic heat release can also become dangerous if the growth of energy production is not greatly reduced.



TEST4http://www.gbv.de/dms/ilmenau/toc/753202255.PDF
Ußfeller, Christoph;
Beiträge zur Lokalisation und zur modellbasierten Lageregelung mobiler Roboter - Ilmenau : Univ.-Verl. Ilmenau, 2013 - Online-Ressource (PDF-Datei: XLII, 177 S., 8,19 MB). Ilmenau : Techn. Univ., Diss., 2012

Auf dem Gebiet der autonomen Robotik haben Wettkämpfe im Roboterfußball Relevanz als Standardproblem gewonnen. Der Kernpunkt dieser Wettkämpfe besteht darin, die Aufgabe des koordinierten Verhaltens technischer Systeme in einer dynamischen Umgebung zu bewältigen. Die vorliegende Arbeit leistet Beiträge zur Objektlokalisierung und zur Lageregelung für Roboter der RoboCup Small SizeLeague. Im ersten Teil dieser Arbeit werden die Grundlagen eines segmentorientierten Bildverarbeitungssystems für die Objektlokalisierung vorgestellt. Das Bildverarbeitungssystem zeichnet sich durch hohe Verarbeitungsgeschwindigkeit und Robustheit aus. Für die Segmentierung wird ein statischer Farbklassifikator benutzt. Der Aufbau des Farbklassifikators als Generalisierung vonTrainingsdaten geschieht durch eine approximierte diskrete Voronoidekompositiondes RGB-Farbraumes. Für den Aufbau des Klassifikators sind zugeordneteTrainingsdaten erforderlich. Diese sollen durch ein Verfahren mit minimalen Vorwissen aus dem Videostrom gewonnen werden. Untersucht werden hierzu die Verfahren DBSCAN, k-means sowie RANSAC. Zur Interpretation der detektierten Segmente als Objektpositionen wird das Verfahren der Helmert-Transformationgenutzt. Im zweiten Teil der Arbeit wird ein Lageregelkreis realisiert. Den Schwerpunkt dieses Teils stellen die Begrenzungen von Stellgröße und Zustand des Roboters dar. Die Begrenzungen der Stellgröße werden durch die Haftreibungsgrenze und die von den eingesetzten Elektromotoren erzeugbaren Momenten verursacht. Sie werden mit Hilfe eines Mehrkörpermodells beschrieben. Diese Beschreibung wird in ein lineares Optimierungsproblem überführt. Auf diese Weise ergeben sich sowohl die Beschleunigungsfähigkeit des Roboters, als auch die hierfür notwendigen Antriebskräfte. Dieses Modell wird in einem Geschwindigkeits- und zwei Lagereglern verwendet. Auf das Problem geometrischer Nebenbedingungen wird durch die Anwendung eines Pfadplaners eingegangen. Der Pfadplaner basiert auf dem A*-Algorithmus und sucht nach dem kürzesten Weg in einem Navigationsgraphen. Varianten zur Erzeugung des Navigationsgraphen werden mit einem Sichtbarkeitsgraphen und einer adaptiven Rasterung durch einen Quadtree bereitgestellt. Als Funktionsnachweis des Gesamtsystems wird der Pfadplaner in einer reaktiven Struktur eingesetzt. Hiermit werden erfolgreich Torschüsse ausgeführt.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2012000489
Ußfeller, Christoph;
Beiträge zur Lokalisation und zur modellbasierten Lageregelung mobiler Roboter - Ilmenau : Univ.-Verl. Ilmenau, 2013 - XI, 177 S., S. XIII - XLII. Zugl.: Ilmenau : Techn. Univ., Diss., 2012

Auf dem Gebiet der autonomen Robotik haben Wettkämpfe im Roboterfußball Relevanz als Standardproblem gewonnen. Der Kernpunkt dieser Wettkämpfe besteht darin, die Aufgabe des koordinierten Verhaltens technischer Systeme in einer dynamischen Umgebung zu bewältigen. Die vorliegende Arbeit leistet Beiträge zur Objektlokalisierung und zur Lageregelung für Roboter der RoboCup Small SizeLeague. Im ersten Teil dieser Arbeit werden die Grundlagen eines segmentorientierten Bildverarbeitungssystems für die Objektlokalisierung vorgestellt. Das Bildverarbeitungssystem zeichnet sich durch hohe Verarbeitungsgeschwindigkeit und Robustheit aus. Für die Segmentierung wird ein statischer Farbklassifikator benutzt. Der Aufbau des Farbklassifikators als Generalisierung vonTrainingsdaten geschieht durch eine approximierte diskrete Voronoidekompositiondes RGB-Farbraumes. Für den Aufbau des Klassifikators sind zugeordnete Trainingsdaten erforderlich. Diese sollen durch ein Verfahren mit minimalen Vorwissen aus dem Videostrom gewonnen werden. Untersucht werden hierzu die Verfahren DBSCAN, k-means sowie RANSAC. Zur Interpretation der detektierten Segmente als Objektpositionen wird das Verfahren der Helmert-Transformationgenutzt. Im zweiten Teil der Arbeit wird ein Lageregelkreis realisiert. Den Schwerpunkt dieses Teils stellen die Begrenzungen von Stellgröße und Zustand des Roboters dar. Die Begrenzungen der Stellgröße werden durch die Haftreibungsgrenze und die von den eingesetzten Elektromotoren erzeugbaren Momenten verursacht. Sie werden mit Hilfe eines Mehrkörpermodells beschrieben. Diese Beschreibung wird in ein lineares Optimierungsproblem überführt. Auf diese Weise ergeben sich sowohl die Beschleunigungsfähigkeit des Roboters, als auch die hierfür notwendigen Antriebskräfte. Dieses Modell wird in einem Geschwindigkeits- und zwei Lagereglern verwendet. Auf das Problem geometrischer Nebenbedingungen wird durch die Anwendung eines Pfadplaners eingegangen. Der Pfadplaner basiert auf dem A*-Algorithmus und sucht nach dem kürzesten Weg in einem Navigationsgraphen. Varianten zur Erzeugung des Navigationsgraphen werden mit einem Sichtbarkeitsgraphen und einer adaptiven Rasterung durch einen Quadtree bereitgestellt. Als Funktionsnachweis des Gesamtsystems wird der Pfadplaner in einer reaktiven Struktur eingesetzt. Hiermit werden erfolgreich Torschüsse ausgeführt.



TEST4http://www.gbv.de/dms/ilmenau/toc/751401625.PDF
Taubmann, Peter;
Analyse der Ventilfederbewegungen als Beitrag zur Beeinflussung der Verschleißursachen an den Auflageflächen - Ilmenau : Univ.-Verl. Ilmenau, 2013 - Online-Ressource (PDF-Datei: XX, 153 S., 5,18 MB). . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - 22) Ilmenau : Techn. Univ., Diss., 2013

Ventilfedern führen im Motorbetrieb außer den funktionsbedingten Längsbewegungen auch Drehbewegungen aus, was zu Verschleiß an den Federauflageflächen und benachbarten Bauteilen führt. Die Drehbewegungen sind aber gewollt, da sie sich auf den Ventilstößel mit Ventilteller übertragen. Dadurch werden die Ventilsitze sauber gehalten, und die thermische Belastung verteilt sich gleichmäßiger über deren Umfang. Das Phänomen der Drehbewegungen ist bisher ungeklärt, weshalb deren Ursachen und Beeinflussungsmöglichkeiten ermittelt werden sollten. Ein erster Schritt zur Klärung des Problems bestand in der Ermittlung der Verdrehung der Federenden zueinander beim statischen Einfedern. Weiterhin fanden umfangreiche experimentelle Untersuchungen an einem Versuchsstand statt, wobei die Drehbewegungen von Feder und Ventilstößel bzw. oberem Federteller als Funktion von Nockenwellendrehzahl und Federvorspannung erfasst wurden. Ein mathematisches Modell lieferte erste theoretische Erkenntnisse zum Entstehen der Drehbewegungen. Weitere Untersuchungen hierzu wurden mit dem Programm SimulationX® durchgeführt. Das verwendete Prinzipmodell besteht aus zwei parallelen Feder-Masse-Systemen, von denen das eine linear, das andere drehend schwingt. Da die Federmasse kontinuierlich über die Feder verteilt ist, wurden von einer Mehrköpersimulation die besten Ergebnisse erwartet, die mit Hilfe des Programms RecurDyn® erfolgt ist. Die Versuche ergaben, dass die Drehbewegungen hauptsächlich von der Federwinderichtung, der Federvorspannung und der Nockenfunktion und Nockenwellendrehzahl abhängen. Hochgeschwindigkeitsaufnahmen zeigten, dass es sich um sehr komplexe Bewegungen handelt und Resonanzen Ursache der Drehbewegungen sind. Für das Entstehen von Drehbewegungen ist ein Entlasten der Federenden erforderlich, was durch Oberschwingungen der Nockenfunktion, die in der Nähe der Längseigenfrequenzen der Feder liegen, verursacht wird. Außerdem beeinflusst das Verhältnis der Oberschwingungen zu den Dreheigenfrequenzen die Drehbewegungen. Das mathematische Modell zeigt, dass es beim Überschreiten der Resonanzfrequenz zur Richtungsumkehr kommen kann. Die Einflussmöglichkeiten auf die Drehbewegungen von Feder und Ventilstößel sind in Hinweisen für den Konstrukteur zum Entwurf und zur Optimierung von Ventiltrieben zusammengefasst. Eine Vorausberechnung bedarf jedoch noch weiterer Untersuchungen.



http://www.db-thueringen.de/servlets/DocumentServlet?id=22024
Taubmann, Peter;
Analyse der Ventilfederbewegungen als Beitrag zur Beeinflussung der Verschleißursachen an den Auflageflächen - Ilmenau : Univ.-Verl. Ilmenau, 2013 - XX, 153 S.. . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - 22) Zugl.: Ilmenau : Techn. Univ., Diss., 2013

Ventilfedern führen im Motorbetrieb außer den funktionsbedingten Längsbewegungen auch Drehbewegungen aus, was zu Verschleiß an den Federauflageflächen und benachbarten Bauteilen führt. Die Drehbewegungen sind aber gewollt, da sie sich auf den Ventilstößel mit Ventilteller übertragen. Dadurch werden die Ventilsitze sauber gehalten, und die thermische Belastung verteilt sich gleichmäßiger über deren Umfang. Das Phänomen der Drehbewegungen ist bisher ungeklärt, weshalb deren Ursachen und Beeinflussungsmöglichkeiten ermittelt werden sollten. Ein erster Schritt zur Klärung des Problems bestand in der Ermittlung der Verdrehung der Federenden zueinander beim statischen Einfedern. Weiterhin fanden umfangreiche experimentelle Untersuchungen an einem Versuchsstand statt, wobei die Drehbewegungen von Feder und Ventilstößel bzw. oberem Federteller als Funktion von Nockenwellendrehzahl und Federvorspannung erfasst wurden. Ein mathematisches Modell lieferte erste theoretische Erkenntnisse zum Entstehen der Drehbewegungen. Weitere Untersuchungen hierzu wurden mit dem Programm SimulationX® durchgeführt. Das verwendete Prinzipmodell besteht aus zwei parallelen Feder-Masse-Systemen, von denen das eine linear, das andere drehend schwingt. Da die Federmasse kontinuierlich über die Feder verteilt ist, wurden von einer Mehrköpersimulation die besten Ergebnisse erwartet, die mit Hilfe des Programms RecurDyn® erfolgt ist. Die Versuche ergaben, dass die Drehbewegungen hauptsächlich von der Federwinderichtung, der Federvorspannung und der Nockenfunktion und Nockenwellendrehzahl abhängen. Hochgeschwindigkeitsaufnahmen zeigten, dass es sich um sehr komplexe Bewegungen handelt und Resonanzen Ursache der Drehbewegungen sind. Für das Entstehen von Drehbewegungen ist ein Entlasten der Federenden erforderlich, was durch Oberschwingungen der Nockenfunktion, die in der Nähe der Längseigenfrequenzen der Feder liegen, verursacht wird. Außerdem beeinflusst das Verhältnis der Oberschwingungen zu den Dreheigenfrequenzen die Drehbewegungen. Das mathematische Modell zeigt, dass es beim Überschreiten der Resonanzfrequenz zur Richtungsumkehr kommen kann. Die Einflussmöglichkeiten auf die Drehbewegungen von Feder und Ventilstößel sind in Hinweisen für den Konstrukteur zum Entwurf und zur Optimierung von Ventiltrieben zusammengefasst. Eine Vorausberechnung bedarf jedoch noch weiterer Untersuchungen.



TEST4http://www.gbv.de/dms/ilmenau/toc/75139078X.PDF
Erbe, Torsten;
Beitrag zur systematischen Aktor- und Aktorprinzipauswahl im Entwicklungsprozess - Ilmenau : Univ.-Verl. Ilmenau, 2013 - Online-Ressource (PDF-Datei: 246 S., 7,90 MB). . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - 23) Ilmenau : Techn. Univ., Diss., 2013

Die vorliegende Arbeit stellt zwei Ansätze zum Vergleich von Aktorprinzipen auf Basis bekannter Aktoren vor. Dem Entwickler bietet ein solcher Vergleich die Möglichkeit, schon früh im Entwicklungsprozess im Hinblick auf die gegebenen Anforderungen geeignete Aktorprinzipe zu wählen. Die Schritte der Aktorauswahl werden hierzu in den Entwicklungsprozess eingeordnet. Dem Entwickler soll die Möglichkeit gegeben werden, geeignete Aktorprinzipe anhand von Möglichkeitsbereichen zu identifizieren bzw. in einem zweiten Schritt, wenn keines möglich erscheint - naheliegende Aktorprinzipe zu betrachten und die Zielkonflikte zwischen den Anforderungen in frühen Phasen des Entwicklungsprozesses zu erkennen. Die hierfür vorgestellten Ansätze und Modelle sind am Beispiel der Aktoren ausgeführt, die Übertragbarkeit auf andere Anwendungsgebiete und Bauelemente wird diskutiert



http://www.db-thueringen.de/servlets/DocumentServlet?id=21895
Erbe, Torsten;
Beitrag zur systematischen Aktor- und Aktorprinzipauswahl im Entwicklungsprozess - Ilmenau : Univ.-Verl. Ilmenau, 2013 - 246 S.. . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - 23) Zugl.: Ilmenau : Techn. Univ., Diss., 2013

Die vorliegende Arbeit stellt zwei Ansätze zum Vergleich von Aktorprinzipen auf Basis bekannter Aktoren vor. Dem Entwickler bietet ein solcher Vergleich die Möglichkeit, schon früh im Entwicklungsprozess im Hinblick auf die gegebenen Anforderungen geeignete Aktorprinzipe zu wählen. Die Schritte der Aktorauswahl werden hierzu in den Entwicklungsprozess eingeordnet. Dem Entwickler soll die Möglichkeit gegeben werden, geeignete Aktorprinzipe anhand von Möglichkeitsbereichen zu identifizieren bzw. in einem zweiten Schritt, wenn keines möglich erscheint - naheliegende Aktorprinzipe zu betrachten und die Zielkonflikte zwischen den Anforderungen in frühen Phasen des Entwicklungsprozesses zu erkennen. Die hierfür vorgestellten Ansätze und Modelle sind am Beispiel der Aktoren ausgeführt, die Übertragbarkeit auf andere Anwendungsgebiete und Bauelemente wird diskutiert



TEST4http://www.gbv.de/dms/ilmenau/toc/749802820.PDF
Terschüren, Anna;
Die Reform der Rundfunkfinanzierung in Deutschland : Analyse der Neuordnung und Entwicklung eines idealtypischen Modells - Ilmenau : Univ.-Verl. Ilmenau, 2013 - CIX, 294 S.. . - (Medienrechtliche Schriften. - 10) Zugl.: Ilmenau : Techn. Univ., Diss., 2013
Literaturverz. S. XXVII - LXXIV

In der vorliegenden Arbeit wird die öffentlich-rechtliche Rundfunkfinanzierung in Deutschland unter juristischen und ökonomischen Aspekten analysiert. Hierbei liegt der Fokus auf der Neuordnung der Rundfunkfinanzierung im Jahre 2013, in dem die gerätebezogene Rundfunkgebühr durch den geräteunabhängigen Rundfunkbeitrag abgelöst wurde. Da die Reform wesentliche Schwachpunkte der ehemaligen Rundfunkgebühr nicht lösen konnte und verfassungsrechtliche Verstöße sowie weitere Probleme mit sich brachte, wird in einem zweiten Schwerpunkt der Arbeit ein idealtypisches Modell der Rundfunkfinanzierung entwickelt. Diesem liegen die Prämissen zugrunde, sowohl die Finanzausstattung der Rundfunkanstalten zu gewährleisten, als auch die gerechte Belastung der Abgabepflichtigen sicherzustellen, wobei der europäische und nationale Rechtsrahmen zu wahren sind. Weiterhin wird an verschiedenen Stellen der Arbeit betrachtet, wie die Inhalte der öffentlich-rechtlichen Rundfunkangebote unter verfassungsrechtlichen und volkswirtschaftlichen Gesichtspunkten zu gestalten sind. Bei dieser Dissertation handelt es sich um eine interdisziplinäre Arbeit der Rechts- und Wirtschaftswissenschaften. Neben eingehenden verfassungs- und europarechtlichen Analysen werden zum einen die wirtschaftlichen Auswirkungen ermittelt, die die betrachteten Finanzierungssysteme auf die Rundfunkanstalten, die Abgabepflichtigen und - im idealtypischen Modell - auf den Staat bzw. die Haushalte der Bundesländer haben. Zum anderen werden anhand ökonomischer Kriterien die Aufgaben des öffentlich-rechtlichen Rundfunks als Ausgestaltung der dienenden Rundfunkfreiheit bestimmt.



TEST4http://www.gbv.de/dms/ilmenau/abs/748729232tersc.txt
Terschüren, Anna;
Die Reform der Rundfunkfinanzierung in Deutschland : Analyse der Neuordnung und Entwicklung eines idealtypischen Modells - Ilmenau : Univ.-Verl. Ilmenau, 2013 - Online-Ressource (PDF-Datei: CIX, 294 S., 1,46 MB). . - (Medienrechtliche Schriften. - 10) Ilmenau : Techn. Univ., Diss., 2013

In der vorliegenden Arbeit wird die öffentlich-rechtliche Rundfunkfinanzierung in Deutschland unter juristischen und ökonomischen Aspekten analysiert. Hierbei liegt der Fokus auf der Neuordnung der Rundfunkfinanzierung im Jahre 2013, in dem die gerätebezogene Rundfunkgebühr durch den geräteunabhängigen Rundfunkbeitrag abgelöst wurde. Da die Reform wesentliche Schwachpunkte der ehemaligen Rundfunkgebühr nicht lösen konnte und verfassungsrechtliche Verstöße sowie weitere Probleme mit sich brachte, wird in einem zweiten Schwerpunkt der Arbeit ein idealtypisches Modell der Rundfunkfinanzierung entwickelt. Diesem liegen die Prämissen zugrunde, sowohl die Finanzausstattung der Rundfunkanstalten zu gewährleisten, als auch die gerechte Belastung der Abgabepflichtigen sicherzustellen, wobei der europäische und nationale Rechtsrahmen zu wahren sind. Weiterhin wird an verschiedenen Stellen der Arbeit betrachtet, wie die Inhalte der öffentlich-rechtlichen Rundfunkangebote unter verfassungsrechtlichen und volkswirtschaftlichen Gesichtspunkten zu gestalten sind. Bei dieser Dissertation handelt es sich um eine interdisziplinäre Arbeit der Rechts- und Wirtschaftswissenschaften. Neben eingehenden verfassungs- und europarechtlichen Analysen werden zum einen die wirtschaftlichen Auswirkungen ermittelt, die die betrachteten Finanzierungssysteme auf die Rundfunkanstalten, die Abgabepflichtigen und - im idealtypischen Modell - auf den Staat bzw. die Haushalte der Bundesländer haben. Zum anderen werden anhand ökonomischer Kriterien die Aufgaben des öffentlich-rechtlichen Rundfunks als Ausgestaltung der dienenden Rundfunkfreiheit bestimmt.


http://www.gbv.de/dms/faz-rez/FD1201306273926960.pdfTEST2

Müller-Sommer, Hannes;
Wirtschaftliche Generierung von Belieferungssimulationen unter Verwendung rechnerunterstützter Plausibilisierungsmethoden für die Bewertung der Eingangsdaten - Ilmenau : Univ.-Verl. Ilmenau, 2013 - Online-Ressource (PDF-Datei: XVIII, 159 Bl., 8,19 MB). Ilmenau : Techn. Univ., Diss., 2012

Das Konzept der Digitalen Fabrik bietet die Möglichkeit, ein Planungssystem mit einer einheitlichen Datengrundlage aufzubauen. Dies schafft die Voraussetzungen, um Belieferungssimulationen mit plausibilisierten Eingangsdaten weitestgehend automatisiert generieren zu können. Die Eingangsdaten sind der Schlüssel zum Erfolg. Nur wer in gewachsenen IT-Landschaften mit unzähligen Schnittstellen Transparenz schaffen kann, weiß, woher welche Daten kommen und wie diese erhoben werden, kann damit auch die Qualität der Eingangsdaten - und dadurch auch die Qualität der Simulationsergebnisse beurteilen. Diese Dissertation möchte einen Beitrag leisten, wie diese Eingangsdaten mit unterschiedlichen, unabhängigen Methoden untersucht werden können. Es sollen nicht nur Fragen zur Vollständigkeit der Eingangsdaten beantwortet werden, sondern vielmehr Antworten gegeben werden, ob die Eingangsdaten korrekt sind. Es wird aufgezeigt, wie diese Methoden im Umfeld der Digitalen Fabrik zentral in einem Simulationsgerüst gebündelt werden können, um eine einheitliche Plattform zur Plausibilisierung zu schaffen. Darauf aufbauend können diese plausibilisierten Daten verwendet werden, um eine Belieferungssimulation aufzubauen. Dies spart nicht nur Zeit, sondern kann auch falsche Schlussfolgerungen auf Basis fehlerhafter Eingangsdaten verhindern.



http://www.db-thueringen.de/servlets/DocumentServlet?id=21668
Müller-Sommer, Hannes;
Wirtschaftliche Generierung von Belieferungssimulationen unter Verwendung rechnerunterstützter Plausibilisierungsmethoden für die Bewertung der Eingangsdaten - Ilmenau : Univ.-Verl. Ilmenau, 2013 - XVIII, 159 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2012

Das Konzept der Digitalen Fabrik bietet die Möglichkeit, ein Planungssystem mit einer einheitlichen Datengrundlage aufzubauen. Dies schafft die Voraussetzungen, um Belieferungssimulationen mit plausibilisierten Eingangsdaten weitestgehend automatisiert generieren zu können. Die Eingangsdaten sind der Schlüssel zum Erfolg. Nur wer in gewachsenen IT-Landschaften mit unzähligen Schnittstellen Transparenz schaffen kann, weiß, woher welche Daten kommen und wie diese erhoben werden, kann damit auch die Qualität der Eingangsdaten - und dadurch auch die Qualität der Simulationsergebnisse beurteilen. Diese Dissertation möchte einen Beitrag leisten, wie diese Eingangsdaten mit unterschiedlichen, unabhängigen Methoden untersucht werden können. Es sollen nicht nur Fragen zur Vollständigkeit der Eingangsdaten beantwortet werden, sondern vielmehr Antworten gegeben werden, ob die Eingangsdaten korrekt sind. Es wird aufgezeigt, wie diese Methoden im Umfeld der Digitalen Fabrik zentral in einem Simulationsgerüst gebündelt werden können, um eine einheitliche Plattform zur Plausibilisierung zu schaffen. Darauf aufbauend können diese plausibilisierten Daten verwendet werden, um eine Belieferungssimulation aufzubauen. Dies spart nicht nur Zeit, sondern kann auch falsche Schlussfolgerungen auf Basis fehlerhafter Eingangsdaten verhindern.



TEST4http://www.gbv.de/dms/ilmenau/toc/745057950.PDF
Lübbers, Benedikt;
AlGaN-based pH-sensors : impedance characterisation, optimisation and application for foetal blood sampling - Ilmenau : Univ.-Verl. Ilmenau, 2013 - XXVIII, 352 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2012

Die fötale Mikroblutuntersuchung wird zur Überwachung der Sauerstoffversorgung von Föten während der Geburt eingesetzt. Mit herkömmlichen Blutgasanalysatoren kommt es allerdings immer wieder zu Schwierigkeiten da nur sehr geringe Mengen fötalen Blutes (wenige 10 myl) für die Untersuchung zur Verfügung stehen. Ionensensitiven Feldeffekttransistoren (ISFET) bieten durch ihre Miniaturisierbarkeit das Potential das benötigte Volumen wesentlich zu reduzieren. In der vorliegenden Arbeit wird die Grundlage für die Anwendung von Aluminium-Gallium-Nitrid(AlGaN)-basierten ISFETs für die fötale Mikroblutuntersuchung geschaffen. Dazu werden AlGaN/GaN-Heterostrukturen mit Metall- und Elektrolytkontakt impedanzspektroskopisch charakterisiert. Es wird gezeigt, dass das standardmäßig verwendete eindimensionale Ersatzschaltbild die zweidimensionale Verarmungscharakteristik des zweidimensionalen Elektronengases nicht ausreichend genau beschreibt. Daher wird ein erweitertes Ersatzschaltbild unter Verwendung von sogenannten "constant phase elements" hergeleitet und verifiziert. Auf Basis des neuen Ersatzschaltbildes werden Drifteinflüsse charakterisiert sowie die pH-Sensitivität der AlGaN-pH-Sensoren bestimmt. Neben der lichtinduzierten Drift durch persistente Photoleitung, kann auch eine langsame elektrochemische Korrosion des Sensors nachgewiesen werden. Für die Reduzierung der lichtinduzierten Drift wird die kontinuierliche Beleuchtung der Sensoren untersucht und eine deutliche Verkürzung der Driftdauer für rotes Licht festgestellt. Die Vergrößerung der Dicke der GaN-Deckschicht und die Reduzierung des Aluminiumgehalts in der AlGaN Barriereschicht erhöht nachweislich die Korrosionbeständigkeit der Sensoren.Unter Verwendung dieser Optimierungsschritte wird gezeigt, dass eine Genauigkeit von ±0.03pH für die pH-Wert-Bestimmung in verschiedenste wässrige Lösungen sowie für Nabelschnurblut erreicht werden kann. Die erzielten Ergebnisse werden für die Entwicklung eines Mikro-Blut-pH Analysators mit einem Minimal-Probenvolumen von nur 10myl verwendet, der die Genauigkeits- und Präzisionsanforderungen der Richtlinie der Bundesärtzekammer erfüllt. Im Rahmen dieser Arbeit wird damit erstmalig gezeigt, dass AlGaN-basierte pH-Sensoren für die genaue und präzise Bestimmung des pH-Wertes in komplexen biochemischen Flüssigkeiten wie z.B. Nabelschnurblut geeignet sind.



TEST4http://www.gbv.de/dms/ilmenau/toc/742705773.PDF
Lübbers, Benedikt;
AlGaN-based pH-sensors : impedance characterisation, optimisation and application for foetal blood sampling - Ilmenau : Univ.-Verl. Ilmenau, 2013 - Online-Ressource (PDF-Datei: XXVIII, 352 S., 5,67 MB). Ilmenau : Techn. Univ., Diss., 2012

Die fötale Mikroblutuntersuchung wird zur Überwachung der Sauerstoffversorgung von Föten während der Geburt eingesetzt. Mit herkömmlichen Blutgasanalysatoren kommt es allerdings immer wieder zu Schwierigkeiten da nur sehr geringe Mengen fötalen Blutes (wenige 10 myl) für die Untersuchung zur Verfügung stehen. Ionensensitiven Feldeffekttransistoren (ISFET) bieten durch ihre Miniaturisierbarkeit das Potential das benötigte Volumen wesentlich zu reduzieren. In der vorliegenden Arbeit wird die Grundlage für die Anwendung von Aluminium-Gallium-Nitrid(AlGaN)-basierten ISFETs für die fötale Mikroblutuntersuchung geschaffen. Dazu werden AlGaN/GaN-Heterostrukturen mit Metall- und Elektrolytkontakt impedanzspektroskopisch charakterisiert. Es wird gezeigt, dass das standardmäßig verwendete eindimensionale Ersatzschaltbild die zweidimensionale Verarmungscharakteristik des zweidimensionalen Elektronengases nicht ausreichend genau beschreibt. Daher wird ein erweitertes Ersatzschaltbild unter Verwendung von sogenannten "constant phase elements" hergeleitet und verifiziert. Auf Basis des neuen Ersatzschaltbildes werden Drifteinflüsse charakterisiert sowie die pH-Sensitivität der AlGaN-pH-Sensoren bestimmt. Neben der lichtinduzierten Drift durch persistente Photoleitung, kann auch eine langsame elektrochemische Korrosion des Sensors nachgewiesen werden. Für die Reduzierung der lichtinduzierten Drift wird die kontinuierliche Beleuchtung der Sensoren untersucht und eine deutliche Verkürzung der Driftdauer für rotes Licht festgestellt. Die Vergrößerung der Dicke der GaN-Deckschicht und die Reduzierung des Aluminiumgehalts in der AlGaN Barriereschicht erhöht nachweislich die Korrosionbeständigkeit der Sensoren.Unter Verwendung dieser Optimierungsschritte wird gezeigt, dass eine Genauigkeit von ±0.03pH für die pH-Wert-Bestimmung in verschiedenste wässrige Lösungen sowie für Nabelschnurblut erreicht werden kann. Die erzielten Ergebnisse werden für die Entwicklung eines Mikro-Blut-pH Analysators mit einem Minimal-Probenvolumen von nur 10myl verwendet, der die Genauigkeits- und Präzisionsanforderungen der Richtlinie der Bundesärtzekammer erfüllt. Im Rahmen dieser Arbeit wird damit erstmalig gezeigt, dass AlGaN-basierte pH-Sensoren für die genaue und präzise Bestimmung des pH-Wertes in komplexen biochemischen Flüssigkeiten wie z.B. Nabelschnurblut geeignet sind.


http://deposit.d-nb.de/cgi-bin/dokserv?id=4306127&prov=M&dok_var=1&dok_ext=htmTEST2

Schwerdfeger, Robert;
Entwurf eines Betriebsführungsverfahrens für Mittel- und Niederspannungsnetze unter Berücksichtigung von bidirektionalem vertikalem Leistungsfluss - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: XLIII, 90 S., 5,38 MB). . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - 4) Zugl.: Ilmenau : Techn. Univ., Masterarbeit, 2012

Globale Trends zeigen eine weltweit wachsende Energienachfrage und immer knapper werdende fossile Ressourcen. Damit auch zukünftig eine sichere und zuverlässige elektrische Energieversorgung gewährleistet werden kann, gewinnt der Aspekt einer nachhaltigen elektrischen Energieerzeugung immer mehr an Bedeutung. Dieser Herausforderung wird mit einem stetig steigenden Anteil Erneuerbarer Energien begegnet. Infolgedessen verlagert sich speziell in Deutschland, durch der Abschaltung konventioneller Kraftwerke, ein zunehmender Teil der Stromerzeugung in die Mittel- und Niederspannungsebenen. Die daraus folgend zunehmende Bedeutung der Verteilnetze an der Energieversorgung bedarf einer Umstrukturierung der Netzbetriebsführung. Eine mögliche Lösung bildet das in dieser Arbeit entworfene Betriebsführungsverfahren, dessen Fokus, aufgrund zeitweise benötigter Rückspeisungen in die Hochspannungsebene, auf dem bidirektionalen, vertikalen Leistungsfluss zwischen der 20-kV- und 110-kV-Spannungsebene liegt. Dabei werden unter anderem Konzepte zur Regelung und Steuerung von Speichern und elektrischen Energieerzeugungsanagen vorgestellt. Anhand von numerischen Fallstudien konnte nachgewiesen werden, dass das entworfene Betriebsführungsverfahren vordefinierte Leistungsflüsse zwischen der 20-kV- und 110-kV-Spannungsebene realisieren kann, ohne dabei netzkritische Zustände zu erzeugen.


http://d-nb.info/1031932291/04TEST2

Heßling, Wolfgang; von
Informationseffizienz des Devisenmarktes : eine empirische Untersuchung der hochfrequenten Wechselkursreaktion auf makroökonomische Publikationen - Ilmenau : Univ.-Verl. Ilmenau, 2013 - Online-Ressource (PDF-Datei: XLII, 433 S., 7,01 MB). Ilmenau : Techn. Univ., Diss., 2013
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

Der Devisenmarkt gilt als der umsatzstärkste, liquideste und technologisch fortschrittlichste Finanzmarkt weltweit. So zieht der Handel mit Fremdwährungen eine große Vielzahl an hochprofessionellen Marktteilnehmern an, die unter Einsatz von modernen elektronischen Kommunikationsmitteln in kürzester Zeit auf Änderungen der Marktdaten reagieren können. Die vorliegende Monographie fokussiert auf die Frage, ob dies im Hinblick auf neu publizierte makroökonomische Informationen tatsächlich der Fall ist, indem die ultrahochfrequente Reaktion der wichtigsten Wechselkurse des US-Dollar im Sekundenbereich analysiert wird. Dazu erfolgt zunächst eine umfassende Darstellung der Funktionsweise des Devisenmarktes und der Prinzipien der Wechselkursbildung. Weitere inhaltliche Schwerpunkte betreffen die Informationsverarbeitung an Finanzmärkten, das Konzept der Informationseffizienz sowie die Ereignisstudienmethodik. Die Ergebnisse der empirischen Untersuchung ergänzen die bisherigen Erkenntnisse zu News-Effekten auf Devisenmärkten, und werfen erstmals ein Licht auf die Einpreisung von neuen Informationen im Sekundenbereich.


http://d-nb.info/1032597992/04TEST2

Heßling, Wolfgang; von
Informationseffizienz des Devisenmarktes : eine empirische Untersuchung der hochfrequenten Wechselkursreaktion auf makroökonomische Publikationen - Ilmenau : Univ.-Verl. Ilmenau, 2013 - XLII, 433 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2013

Der Devisenmarkt gilt als der umsatzstärkste, liquideste und technologisch fortschrittlichste Finanzmarkt weltweit. So zieht der Handel mit Fremdwährungen eine große Vielzahl an hochprofessionellen Marktteilnehmern an, die unter Einsatz von modernen elektronischen Kommunikationsmitteln in kürzester Zeit auf Änderungen der Marktdaten reagieren können. Die vorliegende Monographie fokussiert auf die Frage, ob dies im Hinblick auf neu publizierte makroökonomische Informationen tatsächlich der Fall ist, indem die ultrahochfrequente Reaktion der wichtigsten Wechselkurse des US-Dollar im Sekundenbereich analysiert wird. Dazu erfolgt zunächst eine umfassende Darstellung der Funktionsweise des Devisenmarktes und der Prinzipien der Wechselkursbildung. Weitere inhaltliche Schwerpunkte betreffen die Informationsverarbeitung an Finanzmärkten, das Konzept der Informationseffizienz sowie die Ereignisstudienmethodik. Die Ergebnisse der empirischen Untersuchung ergänzen die bisherigen Erkenntnisse zu News-Effekten auf Devisenmärkten, und werfen erstmals ein Licht auf die Einpreisung von neuen Informationen im Sekundenbereich.



TEST4http://www.gbv.de/dms/ilmenau/toc/739240633.PDF
Dobermann, Dirk;
Stabilisierung der Bildlage abbildener optischer Systeme - Ilmenau : Univ.-Verl. Ilmenau, 2013 - Online-Ressource. . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - 21) Ilmenau : Techn. Univ., Diss., 2012
Enth. außerdem: Thesen

In der vorliegenden Arbeit werden Möglichkeiten für die Stabilisierung der Bildlage handgeführter terrestrischer Doppelfernrohre erläutert. Bevor die Erstellung eines Lösungskonzeptes erfolgt, werden wesentliche Kriterien bestimmt, die für die Auslegung der Bildstabilisierung von Bedeutung sind. Hierfür wird das Frequenzspektrum der Bewegungsunruhe bei Freihandbeobachtung für eine Probandengruppe analysiert, die sich aus Personen unterschiedlichen Alters und Geschlechts zusammensetzt. In einem weiteren Schritt wird eine Auswahl der zur Kompensation der Bewegungsunruhe (Störgröße) verwendeten Optik sowie deren Bewegungsfreiheitsgrade, bezogen auf die Ziellinie, getroffen. Dabei wird das Ziel verfolgt, die durch die Bildstabilisierung verursachten Abbildungsfehler gering zu halten. Auf Basis der erarbeiteten Kriterien werden potentielle Lösungswege für eine passive und aktive Bildstabilisierung sowie die Kombination aus beiden, die als hybride Stabilisierung bezeichnet werden kann, untersucht. Alle Lösungen besitzen eine Knickbrücke, welche die Gehäusehälften zur Anpassung an den Augenabstand des Beobachters drehbar miteinander verbindet. Diese Bauform ist für Doppelfernrohre üblich, jedoch für Doppelfernrohre mit Bildstabilisation bisher nicht umgesetzt. Für die Realisierung der Stabilisierungsfunktion werden bestehende Lösungen geprüft, erweitert und mit neuen Ansätzen kombiniert. Das Vorgehen wird stellvertretend am Beispiel der optischen Komponenten des Doppelfernrohres Zeiss Conquest 15x45 BT* erläutert. Diesem liegen die angestellten Berechnungen und Simulationen sowie die konstruktiven Gestaltungsvorschläge zugrunde. Das Hauptaugenmerk der Betrachtungen liegt auf der passiven Bildstabilisierung, die eine Trägheitsstabilisierung darstellt. Hierfür wird ein analytisches Modell erstellt, welches das Schwingungsverhalten durch einen fremderregten gedämpften Einmassenschwinger beschreibt. Die Anregung erfolgt dabei über eine Fußpunktbewegung, die gleichzeitig über Drehfeder und Dämpfer eingeleitet wird. Eine Bedämpfung des mechanischen Schwingers erfolgt durch eine Wirbelstromdämpfung, die eine Form der viskosen Dämpfung darstellt. Die theoretischen Annahmen werden anhand von Experimenten überprüft, in deren Ergebnis die Richtigkeit der Hypothesen nachgewiesen werden konnte. Eine genaue Vorhersage des Schwingungsverhaltens ist durch Einführen von Korrekturkoeffizienten möglich. Das gefundene "reale Schwingermodell" vereinfacht und verkürzt die Entwicklung zukünftiger Systeme zur Stabilisierung der Bildlage. Des Weiteren wird auf eine Anpassung der Stabilisierungseinrichtung eingegangen, die es ermöglicht, das Verhalten an die Beobachtungssituation anzupassen. Somit ist es denkbar, die Bildstabilisierung bei einer Nachführbewegung zur Objektverfolgung zu unterdrücken. Umfassende Überlegungen werden zur prinzipiellen Anordnung der Stabilisatorbaugruppe und zu deren fehlerarmer Montage und Justage angestellt. Für die Umsetzung in einem Funktionsdemonstrator wird die Ausführungsform des Duostabilisators gewählt, bei dem zwei voneinander unabhängige identische Stabilisatorbaugruppen in einem Fernrohrgehäuse erbaut sind. Dabei kann ein synchrones Schwingungsverhalten beider Stabilisatorbaugruppen nachgewiesen werden, wodurch sich ein geringer dynamischer binokularer Gerätefehler einstellt. Die bestehenden Erfahrungen im Fernrohrbau werden mit den neu gewonnenen Erkenntnissen dieser Arbeit kombiniert und fließen in die Entwicklung eines Konzeptes für ein die Bildlage stabilisierendes Doppelfernrohr mit klassischer Knickbrücke ein. Das Grundkonzept lässt sich sowohl auf eine passive wie auch eine aktive Bildstabilisierung übertragen und ermöglicht eine wirtschaftliche und zielgerichtete Entwicklung zukünftiger Produkte mit vorhersagbaren Resultaten. Aus dem vorgestellten Konzept gehen Richtlinien für die Konstruktion hervor, die auf ähnlich gelagerte Anwendungen, wie beispielsweise die Schwingungsdämpfung taktiler Messköpfe, übertragen werden können. Infolgedessen ist der Wissenszuwachs in weiteren technischen Gebieten nutzbar.


http://deposit.d-nb.de/cgi-bin/dokserv?id=4270354&prov=M&dok_var=1&dok_ext=htmTEST2

Dobermann, Dirk;
Stabilisierung der Bildlage abbildener optischer Systeme - Ilmenau : Univ.-Verl. Ilmenau, 2013 - LXVI, 120 S.. . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - 21) Zugl.: Ilmenau : Techn. Univ., Diss., 2012
Enth. außerdem: Thesen

In der vorliegenden Arbeit werden Möglichkeiten für die Stabilisierung der Bildlage handgeführter terrestrischer Doppelfernrohre erläutert. Bevor die Erstellung eines Lösungskonzeptes erfolgt, werden wesentliche Kriterien bestimmt, die für die Auslegung der Bildstabilisierung von Bedeutung sind. Hierfür wird das Frequenzspektrum der Bewegungsunruhe bei Freihandbeobachtung für eine Probandengruppe analysiert, die sich aus Personen unterschiedlichen Alters und Geschlechts zusammensetzt. In einem weiteren Schritt wird eine Auswahl der zur Kompensation der Bewegungsunruhe (Störgröße) verwendeten Optik sowie deren Bewegungsfreiheitsgrade, bezogen auf die Ziellinie, getroffen. Dabei wird das Ziel verfolgt, die durch die Bildstabilisierung verursachten Abbildungsfehler gering zu halten. Auf Basis der erarbeiteten Kriterien werden potentielle Lösungswege für eine passive und aktive Bildstabilisierung sowie die Kombination aus beiden, die als hybride Stabilisierung bezeichnet werden kann, untersucht. Alle Lösungen besitzen eine Knickbrücke, welche die Gehäusehälften zur Anpassung an den Augenabstand des Beobachters drehbar miteinander verbindet. Diese Bauform ist für Doppelfernrohre üblich, jedoch für Doppelfernrohre mit Bildstabilisation bisher nicht umgesetzt. Für die Realisierung der Stabilisierungsfunktion werden bestehende Lösungen geprüft, erweitert und mit neuen Ansätzen kombiniert. Das Vorgehen wird stellvertretend am Beispiel der optischen Komponenten des Doppelfernrohres Zeiss Conquest 15x45 BT* erläutert. Diesem liegen die angestellten Berechnungen und Simulationen sowie die konstruktiven Gestaltungsvorschläge zugrunde. Das Hauptaugenmerk der Betrachtungen liegt auf der passiven Bildstabilisierung, die eine Trägheitsstabilisierung darstellt. Hierfür wird ein analytisches Modell erstellt, welches das Schwingungsverhalten durch einen fremderregten gedämpften Einmassenschwinger beschreibt. Die Anregung erfolgt dabei über eine Fußpunktbewegung, die gleichzeitig über Drehfeder und Dämpfer eingeleitet wird. Eine Bedämpfung des mechanischen Schwingers erfolgt durch eine Wirbelstromdämpfung, die eine Form der viskosen Dämpfung darstellt. Die theoretischen Annahmen werden anhand von Experimenten überprüft, in deren Ergebnis die Richtigkeit der Hypothesen nachgewiesen werden konnte. Eine genaue Vorhersage des Schwingungsverhaltens ist durch Einführen von Korrekturkoeffizienten möglich. Das gefundene "reale Schwingermodell" vereinfacht und verkürzt die Entwicklung zukünftiger Systeme zur Stabilisierung der Bildlage. Des Weiteren wird auf eine Anpassung der Stabilisierungseinrichtung eingegangen, die es ermöglicht, das Verhalten an die Beobachtungssituation anzupassen. Somit ist es denkbar, die Bildstabilisierung bei einer Nachführbewegung zur Objektverfolgung zu unterdrücken. Umfassende Überlegungen werden zur prinzipiellen Anordnung der Stabilisatorbaugruppe und zu deren fehlerarmer Montage und Justage angestellt. Für die Umsetzung in einem Funktionsdemonstrator wird die Ausführungsform des Duostabilisators gewählt, bei dem zwei voneinander unabhängige identische Stabilisatorbaugruppen in einem Fernrohrgehäuse erbaut sind. Dabei kann ein synchrones Schwingungsverhalten beider Stabilisatorbaugruppen nachgewiesen werden, wodurch sich ein geringer dynamischer binokularer Gerätefehler einstellt. Die bestehenden Erfahrungen im Fernrohrbau werden mit den neu gewonnenen Erkenntnissen dieser Arbeit kombiniert und fließen in die Entwicklung eines Konzeptes für ein die Bildlage stabilisierendes Doppelfernrohr mit klassischer Knickbrücke ein. Das Grundkonzept lässt sich sowohl auf eine passive wie auch eine aktive Bildstabilisierung übertragen und ermöglicht eine wirtschaftliche und zielgerichtete Entwicklung zukünftiger Produkte mit vorhersagbaren Resultaten. Aus dem vorgestellten Konzept gehen Richtlinien für die Konstruktion hervor, die auf ähnlich gelagerte Anwendungen, wie beispielsweise die Schwingungsdämpfung taktiler Messköpfe, übertragen werden können. Infolgedessen ist der Wissenszuwachs in weiteren technischen Gebieten nutzbar.



TEST4http://www.gbv.de/dms/ilmenau/abs/738012726dober.txt
Maus, Horst-Moritz;
Towards understanding human locomotion - Ilmenau : Univ.-Verl. Ilmenau, 2013 - Online-Ressource (PDF-Datei: 159 S., 10,48 MB). Ilmenau : Techn. Univ., Diss., 2012

Die zentrale Frage, die in der vorliegenden Arbeit untersucht wurde, ist, wie man die komplizierte Dynamik des menschlichen Laufens besser verstehen kann. In der wissenschaftlichen Literatur werden zur Beschreibung von Laufbewegungen (Gehen und Rennen) oftmals minimalistische "Template"-Modelle verwendet. Diese sehr einfachen Modelle beschreiben nur einen ausgewählten Teil der Dynamik, meistens die Schwerpunktsbahn. In dieser Arbeit wird nun versucht, mittels Template-Modellen das Verständnis des Laufens voranzubringen. Die Analyse der Schwerpunktsbewegung durch Template-Modelle setzt eine präzise Bestimmung der Schwerpunktsbahn im Experiment voraus. Hier für wird in Kapitel 2.3 eine neue Methode vorgestellt, welche besonders robust gegen die typischen Messfehler bei Laufexperimenten ist. Die am häufigsten verwendeten Template-Modelle sind das Masse-Feder-Modell und das inverse Pendel, welche zur Beschreibung der Körperschwerpunktsbewegung gedacht sind und das Drehmoment um den Schwerpunkt vernachlässigen. Zur Beschreibung der Stabilisierung der Körperhaltung (und damit der Drehimpulsbilanz) wird in Abschnitt 3.3 das Template-Modell "virtuelles Pendel" für das menschliche Gehen eingeführt und mit experimentellen Daten verglichen. Die Diskussion möglicher Realisierungsmechanismen legt dabei nahe, dass die Aufrichtung des menschlichen Gangs im Laufe der Evolution keine große mechanische Hürde war. In der Literatur wird oft versucht, Eigenschaften der Bewegung wie Stabilität durch Eigenschaften der Template-Modelle zu erklären. Dies wird in modifizierter Form auch in der vorliegenden Arbeit getan. Hierzu wird zunächst eine experimentell bestimmte Schwerpunktsbewegung auf das Masse-Feder-Modell übertragen. Anschließend wird die Kontrollvorschrift der Schritt-zu-Schritt-Anpassung der Modellparameter identifiziert sowie eine geeignete Näherung angegeben, um die Stabilität des Modells, welches mit dieser Kontrollvorschrift ausgestattet wird, zu analysieren. Der Vergleich mit einer direkten Bestimmung der Stabilität aus einem Floquet-Modell zeigt qualitativ gute Übereinstimmung. Beide Ansätze führen auf das Ergebnis, dass beim langsamen menschlichen Rennen Störungen innerhalb von zwei Schritten weitgehend abgebaut werden. Zusammenfassend wurde gezeigt, wie Template-Modelle zum Verständnis der Laufbewegung beitragen können. Gerade die Identifikation der individuellen Kontrollvorschrift auf der Abstraktionsebene des Masse-Feder-Modells erlaubt zukünftig neue Wege, aktive Prothesen oder Orthesen in menschenähnlicher Weise zu steuern und ebnet den Weg, menschliches Rennen auf Roboter zu übertragen.


http://deposit.d-nb.de/cgi-bin/dokserv?id=4268775&prov=M&dok_var=1&dok_ext=htmTEST2

Maus, Horst-Moritz;
Towards understanding human locomotion - Ilmenau : Univ.-Verl. Ilmenau, 2013 - 159 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2012

Die zentrale Frage, die in der vorliegenden Arbeit untersucht wurde, ist, wie man die komplizierte Dynamik des menschlichen Laufens besser verstehen kann. In der wissenschaftlichen Literatur werden zur Beschreibung von Laufbewegungen (Gehen und Rennen) oftmals minimalistische "Template"-Modelle verwendet. Diese sehr einfachen Modelle beschreiben nur einen ausgewählten Teil der Dynamik, meistens die Schwerpunktsbahn. In dieser Arbeit wird nun versucht, mittels Template-Modellen das Verständnis des Laufens voranzubringen. Die Analyse der Schwerpunktsbewegung durch Template-Modelle setzt eine präzise Bestimmung der Schwerpunktsbahn im Experiment voraus. Hier für wird in Kapitel 2.3 eine neue Methode vorgestellt, welche besonders robust gegen die typischen Messfehler bei Laufexperimenten ist. Die am häufigsten verwendeten Template-Modelle sind das Masse-Feder-Modell und das inverse Pendel, welche zur Beschreibung der Körperschwerpunktsbewegung gedacht sind und das Drehmoment um den Schwerpunkt vernachlässigen. Zur Beschreibung der Stabilisierung der Körperhaltung (und damit der Drehimpulsbilanz) wird in Abschnitt 3.3 das Template-Modell "virtuelles Pendel" für das menschliche Gehen eingeführt und mit experimentellen Daten verglichen. Die Diskussion möglicher Realisierungsmechanismen legt dabei nahe, dass die Aufrichtung des menschlichen Gangs im Laufe der Evolution keine große mechanische Hürde war. In der Literatur wird oft versucht, Eigenschaften der Bewegung wie Stabilität durch Eigenschaften der Template-Modelle zu erklären. Dies wird in modifizierter Form auch in der vorliegenden Arbeit getan. Hierzu wird zunächst eine experimentell bestimmte Schwerpunktsbewegung auf das Masse-Feder-Modell übertragen. Anschließend wird die Kontrollvorschrift der Schritt-zu-Schritt-Anpassung der Modellparameter identifiziert sowie eine geeignete Näherung angegeben, um die Stabilität des Modells, welches mit dieser Kontrollvorschrift ausgestattet wird, zu analysieren. Der Vergleich mit einer direkten Bestimmung der Stabilität aus einem Floquet-Modell zeigt qualitativ gute Übereinstimmung. Beide Ansätze führen auf das Ergebnis, dass beim langsamen menschlichen Rennen Störungen innerhalb von zwei Schritten weitgehend abgebaut werden. Zusammenfassend wurde gezeigt, wie Template-Modelle zum Verständnis der Laufbewegung beitragen können. Gerade die Identifikation der individuellen Kontrollvorschrift auf der Abstraktionsebene des Masse-Feder-Modells erlaubt zukünftig neue Wege, aktive Prothesen oder Orthesen in menschenähnlicher Weise zu steuern und ebnet den Weg, menschliches Rennen auf Roboter zu übertragen.



TEST4http://www.gbv.de/dms/ilmenau/abs/737602392maus.txt
Schwerdfeger, Robert;
Entwurf eines Betriebsführungsverfahrens für Mittel- und Niederspannungsnetze unter Berücksichtigung von bidirektionalem vertikalem Leistungsfluss - Ilmenau : Univ.-Verl. Ilmenau - XLIII, 90 S.. . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - 4) Zugl.: Ilmenau : Techn. Univ., Masterarbeit, 2012

Globale Trends zeigen eine weltweit wachsende Energienachfrage und immer knapper werdende fossile Ressourcen. Damit auch zukünftig eine sichere und zuverlässige elektrische Energieversorgung gewährleistet werden kann, gewinnt der Aspekt einer nachhaltigen elektrischen Energieerzeugung immer mehr an Bedeutung. Dieser Herausforderung wird mit einem stetig steigenden Anteil Erneuerbarer Energien begegnet. Infolgedessen verlagert sich speziell in Deutschland, durch der Abschaltung konventioneller Kraftwerke, ein zunehmender Teil der Stromerzeugung in die Mittel- und Niederspannungsebenen. Die daraus folgend zunehmende Bedeutung der Verteilnetze an der Energieversorgung bedarf einer Umstrukturierung der Netzbetriebsführung. Eine mögliche Lösung bildet das in dieser Arbeit entworfene Betriebsführungsverfahren, dessen Fokus, aufgrund zeitweise benötigter Rückspeisungen in die Hochspannungsebene, auf dem bidirektionalen, vertikalen Leistungsfluss zwischen der 20-kV- und 110-kV-Spannungsebene liegt. Dabei werden unter anderem Konzepte zur Regelung und Steuerung von Speichern und elektrischen Energieerzeugungsanagen vorgestellt. Anhand von numerischen Fallstudien konnte nachgewiesen werden, dass das entworfene Betriebsführungsverfahren vordefinierte Leistungsflüsse zwischen der 20-kV- und 110-kV-Spannungsebene realisieren kann, ohne dabei netzkritische Zustände zu erzeugen.



TEST4http://www.gbv.de/dms/ilmenau/toc/736723919.PDF
Harzer, Alexandra;
Erfolgsfaktoren im Crowdfunding - Ilmenau : Universitätsverl. Ilmenau - 173 S.. . - (Menschen, Märkte, Medien, Management : Schriftenreihe. - 7) : Teilw. zugl.: Ilmenau, Techn. Univ., Diplomarbeit, 2012 u.d.T.: Harzer, Alexandra: Crowdfunding als alternative Finanzierungsmethode kultureller und kreativer Projekte - eine empirische Untersuchung über die Erfolgsfaktoren kreativer Crowdfunding Projekte auf Basis internationaler Vergleiche
ISBN 978-3-86360-039-6
Literaturverz. S. 129 - 146

Das Finanzierungsmodell Crowdfunding, zu Deutsch Schwarmfinanzierung, ermöglicht es Künstlern und Kreativen ihre Vorhaben, Ideen und klar definierten Projekte mit Hilfe Dritter, wie beispielsweise Fans, Freunden und Firmen, zu finanzieren. Ziel der vorliegenden Studie ist es, Faktoren für den erfolgreichen Abschluss eines kulturellen und kreativen Crowdfunding-Projektes zu identifizieren und diese anhand qualitativer und quantitativer Untersuchungen zu belegen. Dazu werden unter anderem die Kulturfinanzierungssysteme in Deutschland und den Vereinigten Staaten umfangreich betrachtet und die für das Crowdfunding relevanten Grundlagen des Web 2.0 dargestellt. Ferner wird eine Crowdfunding-Kampagne strukturell aufbereitet und Faktoren, die den Erfolg eines Projektes beeinflussen, werden hervorgehoben. Abschließend werden diese im Rahmen von empirischen Untersuchungen auf ihre Bedeutung und Relevanz hin überprüft.



Harzer, Alexandra;
Erfolgsfaktoren im Crowdfunding - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: 173 S., 2,78 MB). . - (Menschen, Märkte, Medien, Management : Schriftenreihe. - 7) Teilw. zugl.: Ilmenau : Techn. Univ., Diplomarbeit, 2012 u.d.T.: Harzer, Alexandra: Crowdfunding als alternative Finanzierungsmethode kultureller und kreativer Projekte - eine empirische Untersuchung über die Erfolgsfaktoren kreativer Crowdfunding Projekte auf Basis internationaler Vergleiche

Das Finanzierungsmodell Crowdfunding, zu Deutsch Schwarmfinanzierung, ermöglicht es Künstlern und Kreativen ihre Vorhaben, Ideen und klar definierten Projekte mit Hilfe Dritter, wie beispielsweise Fans, Freunden und Firmen, zu finanzieren. Ziel der vorliegenden Studie ist es, Faktoren für den erfolgreichen Abschluss eines kulturellen und kreativen Crowdfunding-Projektes zu identifizieren und diese anhand qualitativer und quantitativer Untersuchungen zu belegen. Dazu werden unter anderem die Kulturfinanzierungssysteme in Deutschland und den Vereinigten Staaten umfangreich betrachtet und die für das Crowdfunding relevanten Grundlagen des Web 2.0 dargestellt. Ferner wird eine Crowdfunding-Kampagne strukturell aufbereitet und Faktoren, die den Erfolg eines Projektes beeinflussen, werden hervorgehoben. Abschließend werden diese im Rahmen von empirischen Untersuchungen auf ihre Bedeutung und Relevanz hin überprüft.


http://deposit.d-nb.de/cgi-bin/dokserv?id=4254781&prov=M&dok_var=1&dok_ext=htmTEST2

Westermann, Dirk; Döring, Nicola; Bretschneider, Peter
Smart Metering : zwischen technischer Herausforderung und gesellschaftlicher Akzeptanz - interdisziplinärer Status Quo - Ilmenau : Univ.-Verl. Ilmenau, 2013 - 237 S.. . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - 5)Literaturangaben

Die Energiewende, also die Umstellung der elektrischen Energieversorgung auf überwiegend regenerative Energieerzeugungsanlagen, erfordert grundsätzliche und umfangreiche Änderungen im Versorgungssystem. Ein Baustein stellt die aktive Involvierung der privaten Endverbraucher dar, die mittels Smart-Metering-Technologie eine neue Schnittstelle zum Versorgungssystem erhalten. Das Forschungsprojekt RESIDENS (effizienteRe Energienutzung durch Systemtechnische Integration Des privaten ENdabnehmerS) ist eine Kooperation zwischen Ingenieuren und Sozialwissenschaftlern aus Ilmenau und Jena und untersucht die Potentiale von Smart Metering aus Netz- und Kundenperspektive. In dieser Publikation werden die technischen, juristischen und sozialwissenschaftlichen Ergebnisse des Projekts, als auch praktische Erfahrungen, die mit der Anwendung der Technik im Zusammenhang stehen, erläutert.



TEST4http://www.gbv.de/dms/ilmenau/toc/735005109.PDF
Westermann, Dirk; Döring, Nicola; Bretschneider, Peter
Smart Metering : zwischen technischer Herausforderung und gesellschaftlicher Akzeptanz - interdisziplinärer Status Quo
[Online-Ausg.] - Ilmenau : Univ.-Verl. Ilmenau, 2013 - Online-Ressource (PDF-Datei: 237 S., 7,27 MB). . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - 5)

Die Energiewende, also die Umstellung der elektrischen Energieversorgung auf überwiegend regenerative Energieerzeugungsanlagen, erfordert grundsätzliche und umfangreiche Änderungen im Versorgungssystem. Ein Baustein stellt die aktive Involvierung der privaten Endverbraucher dar, die mittels Smart-Metering-Technologie eine neue Schnittstelle zum Versorgungssystem erhalten. Das Forschungsprojekt RESIDENS (effizienteRe Energienutzung durch Systemtechnische Integration Des privaten ENdabnehmerS) ist eine Kooperation zwischen Ingenieuren und Sozialwissenschaftlern aus Ilmenau und Jena und untersucht die Potentiale von Smart Metering aus Netz- und Kundenperspektive. In dieser Publikation werden die technischen, juristischen und sozialwissenschaftlichen Ergebnisse des Projekts, als auch praktische Erfahrungen, die mit der Anwendung der Technik im Zusammenhang stehen, erläutert.



http://www.db-thueringen.de/servlets/DocumentServlet?id=21399
Guliyev, Elshad;
Eine Nanopositioniervorrichtung mit integrierten piezoresistiven Sensoren für Hochgeschwindigkeits-Rastersondenmikroskopie-Anwendungen - Ilmenau : Univ.-Verl. Ilmenau, 2012 - Online-Ressource (PDF-Datei: XII, 117 S., 7,95 MB). Ilmenau : Techn. Univ., Diss., 2011
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

Der Fokus dieser Arbeit liegt auf der Entwicklung einer quasi-monolithischen Nanopositioniervorrichtung für die Anwendung in Hochgeschwindigkeits-Rastersondenmikroskopie-Systemen. Das Konzept der in dieser Arbeit entwickelten neuen Nanopositioniervorrichtung stellt die quasi-monolithische Integration der kinematischen Konstruktion aus monokristallinem Silizium, der piezoelektrischen Aktoren und der piezoresistiven Sensoren dar. Eine monolithische Integration der Piezowiderstände in die Verformungselemente der kinematischen Konstruktion aus Silizium ermöglicht eine Kompensation von möglichen Nichtlinearitäten. Die entwickelte Positioniervorrichtung wurde als Prototyp implementiert und die Funktionsfähigkeit experimentell bestätigt. In einem Rasterkraftmikroskopiesystem wurden Kalibrierung und Probemessungen erfolgreich durchgeführt.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2011000543
&hacek;Duriš, Rastislav; Murín, Justín
A solution for 1D non-linear problems for finite elements with full stiffness matrices - Ilmenau : Univ.-Verl. Ilmenau - 126 S.. . - (Scientific monographs in automation and computer science. - 9) Teilw. zugl.: Trnava : Univ., Diss.

Structural analysis of structural parts with stiffness variation can be difficult. The stiffness variation of elements can be modelled by average values of cross-sectional and material parameters and applying the fine FE mesh. For elimination of mentioned disadvantages of classical finite element applications, a two-node nonlinear bar element with the continuous longitudinal variation of stiffness was developed in the first part of the monography. The stiffness matrices of the bar element were derived using full geometric nonlinear nonincremental formulation of equilibrium equations without any linearization. In the second part, the stiffness matrices of geometrically nonlinear beam finite element were derived using full nonlinear nonincremental formulation. The matrices of two-node plane beam element with symmetric cross-section and constant stiffness were formulated. The accuracy of new nonlinear elements were compared and assessed by numerical experiments against ANSYS analyses.



TEST4http://www.gbv.de/dms/ilmenau/toc/735792852.PDF
Moravčík, Oliver; Vrban, Anton
Analysis of dynamic system properties - Ilmenau : Univ.-Verl. Ilmenau - 142 S.. . - (Scientific monographs in automation and computer science. - 8)Literaturverz. S. 139 - 140

This publication deals with the sensitivity, tolerance and robustness of dynamic systems. It brings general approach to solve specific issues in the field of presented topic. This approach is unusual, as it does not consist of partial solutions and summarization of knowledge, but it offers new methodology for problem solving, which is targeted to the nature of the problem. The methodology is designed to be well applicable. The textbook is useful for studying topics related to sensitivity, tolerance and robustness in dynamic systems. It can be also used by the designers of various complex dynamic systems and also as the stimulus for further theoretical, algorithmic and software supported development in the field of presented topic.



TEST4http://www.gbv.de/dms/ilmenau/toc/735786399.PDF
Halenár, Igor;
Using neural networks for detection of anomalous traffic in automation networks - Ilmenau : Univ.-Verl. Ilmenau - 89 S.. . - (Scientific monographs in automation and computer science. - 7) Teilw. zugl.: Trnava : Slovak Univ. of Technology Bratislava, Diss., 2010 (in Slowakisch)
Literaturverz. S. 80 - 87

Opening of local communication means of technological devices towards networks available to public, supervision of devices, and remote technological devices administration are the characteristics of modern automation. As a result of this process the intrusion of unwanted elements from the Internet to control networks is seen. Therefore, in communication and control networks we have to build in active means to ensure the access to individual technological process components. The contribution is focused on the insurance of control systems data communication via neural networks technologies in connection with classical methods used in expert systems. The solution proposed defines the way of data elements identification in transfer network, solves the transformation of their parameters for neural network input and defines the type and architecture of a suitable neural network. This is supported by the experiments with various architecture types and neural networks activation functions and followed by subsequent real environment tests. A functional system proposal with possible practical application is the result.



TEST4http://www.gbv.de/dms/ilmenau/toc/735785325.PDF
&hacek;Duriš, Rastislav; Murín, Justín
A solution for 1D non-linear problems for finite elements with full stiffness matrices
[Online-Ausg.] - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: 126 S., 1,05 MB). . - (Scientific monographs in automation and computer science. - 9) Teilw. zugl.: Trnava : Univ., Diss.

Structural analysis of structural parts with stiffness variation can be difficult. The stiffness variation of elements can be modelled by average values of cross-sectional and material parameters and applying the fine FE mesh. For elimination of mentioned disadvantages of classical finite element applications, a two-node nonlinear bar element with the continuous longitudinal variation of stiffness was developed in the first part of the monography. The stiffness matrices of the bar element were derived using full geometric nonlinear nonincremental formulation of equilibrium equations without any linearization. In the second part, the stiffness matrices of geometrically nonlinear beam finite element were derived using full nonlinear nonincremental formulation. The matrices of two-node plane beam element with symmetric cross-section and constant stiffness were formulated. The accuracy of new nonlinear elements were compared and assessed by numerical experiments against ANSYS analyses.



http://www.db-thueringen.de/servlets/DocumentServlet?id=21421
Moravčík, Oliver; Vrban, Anton
Analysis of dynamic system properties
[Online-Ausg.] - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: 142 S., 3,51 MB). . - (Scientific monographs in automation and computer science. - 8)

This publication deals with the sensitivity, tolerance and robustness of dynamic systems. It brings general approach to solve specific issues in the field of presented topic. This approach is unusual, as it does not consist of partial solutions and summarization of knowledge, but it offers new methodology for problem solving, which is targeted to the nature of the problem. The methodology is designed to be well applicable. The textbook is useful for studying topics related to sensitivity, tolerance and robustness in dynamic systems. It can be also used by the designers of various complex dynamic systems and also as the stimulus for further theoretical, algorithmic and software supported development in the field of presented topic.



http://www.db-thueringen.de/servlets/DocumentServlet?id=21354
Halenár, Igor;
Using neural networks for detection of anomalous traffic in automation networks
[Online-Ausg.] - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: 89 S., 2,91 MB). . - (Scientific monographs in automation and computer science. - 7) Teilw. zugl.: Trnava : Univ., Diss.
Literaturverz. S. 80 - 87

Opening of local communication means of technological devices towards networks available to public, supervision of devices, and remote technological devices administration are the characteristics of modern automation. As a result of this process the intrusion of unwanted elements from the Internet to control networks is seen. Therefore, in communication and control networks we have to build in active means to ensure the access to individual technological process components. The contribution is focused on the insurance of control systems data communication via neural networks technologies in connection with classical methods used in expert systems. The solution proposed defines the way of data elements identification in transfer network, solves the transformation of their parameters for neural network input and defines the type and architecture of a suitable neural network. This is supported by the experiments with various architecture types and neural networks activation functions and followed by subsequent real environment tests. A functional system proposal with possible practical application is the result.



http://www.db-thueringen.de/servlets/DocumentServlet?id=21241
Kebísek, Michal;
Data mining in the industry - Ilmenau : Univ.-Verl. Ilmenau - 104 S.. . - (Scientific monographs in automation and computer science. - 6) Teilw. zugl.: Trnava : Univ., Diss.

The monograph proposes a suitable process application for a knowledge discovery process in industry databases. The entire process was divided into distinct stages. First, the subject matter to be resolved by employing the knowledge discovery process was identified. Next, the data of the production system was analysed. Several mining models, in which various methods and techniques of data mining in dependence on analyzed data and subject matter investigated, were developed. In order to examine how interesting and useful the knowledge discovered was, it was applied to a production system, whose data operated as input data to the process of KDD. The results achieved proved that the knowledge discovered was useful and a modified simulation model achieved the predicted behaviour. Finally, the proposal of the process application methodology of knowledge discovery in industry databases is discussed. This methodology describes the particular steps of implementing the process of KDD. The proposed methodology can help identify specific requirements and potential problems in the process stages that might be encountered in the course of its application in the industry.



TEST4http://www.gbv.de/dms/ilmenau/toc/735004196.PDF
Bezák , Pavol;
Using motion planning and genetic algorithms in movement optimization of industrial robots - Ilmenau : Univ.-Verl. Ilmenau - 92 S.. . - (Scientific monographs in automation and computer science. - 5) Teilw. zugl.: Trnava : Univ., Diss.

The issues of path and trajectory planning algorithms and optimization of industrial manipulator trajectory generation are still not completely solved due to their variability and increasing complexity with the growing number of robot degrees of freedom. Generation of an optimal trajectory can be solved in several ways, such as traditional numeric and more recent approaches, which include evolutionary algorithms and genetic algorithms within them. The first chapter is devoted to a brief overview of path planning methods, especially in mobile robots. The second chapter deals with a more detailed overview of robot path planning methods in continuous and discrete environments. The third chapter describes the most popular motion planning algorithms. The fourth chapter is dedicated to genetic algorithms which we used as an optimization method. The fifth chapter focuses on optimal robot motion control and optimization methods using genetic algorithms as the method for an industrial manipulator control. The next chapter contains a solution and its implementation in support software, as well as the experimental verification of the results. The last chapter evaluates the results and their benefits.



TEST4http://www.gbv.de/dms/ilmenau/toc/735003181.PDF
Kebísek, Michal;
Data mining in the industry
[Online-Ausg.] - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: 104 S., 1,79 MB). . - (Scientific monographs in automation and computer science. - 6) Teilw. zugl.: Trnava : Univ., Diss.

The monograph proposes a suitable process application for a knowledge discovery process in industry databases. The entire process was divided into distinct stages. First, the subject matter to be resolved by employing the knowledge discovery process was identified. Next, the data of the production system was analysed. Several mining models, in which various methods and techniques of data mining in dependence on analyzed data and subject matter investigated, were developed. In order to examine how interesting and useful the knowledge discovered was, it was applied to a production system, whose data operated as input data to the process of KDD. The results achieved proved that the knowledge discovered was useful and a modified simulation model achieved the predicted behaviour. Finally, the proposal of the process application methodology of knowledge discovery in industry databases is discussed. This methodology describes the particular steps of implementing the process of KDD. The proposed methodology can help identify specific requirements and potential problems in the process stages that might be encountered in the course of its application in the industry.



http://www.db-thueringen.de/servlets/DocumentServlet?id=21240
Bezák, Pavol;
Using motion planning and genetic algorithms in movement optimization of industrial robots
[Online-Ausg.] - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: 92 S., 895,3 KB). . - (Scientific monographs in automation and computer science. - 5) Teilw. zugl.: Trnava : Univ., Diss.

The issues of path and trajectory planning algorithms and optimization of industrial manipulator trajectory generation are still not completely solved due to their variability and increasing complexity with the growing number of robot degrees of freedom. Generation of an optimal trajectory can be solved in several ways, such as traditional numeric and more recent approaches, which include evolutionary algorithms and genetic algorithms within them. The first chapter is devoted to a brief overview of path planning methods, especially in mobile robots. The second chapter deals with a more detailed overview of robot path planning methods in continuous and discrete environments. The third chapter describes the most popular motion planning algorithms. The fourth chapter is dedicated to genetic algorithms which we used as an optimization method. The fifth chapter focuses on optimal robot motion control and optimization methods using genetic algorithms as the method for an industrial manipulator control. The next chapter contains a solution and its implementation in support software, as well as the experimental verification of the results. The last chapter evaluates the results and their benefits.



http://www.db-thueringen.de/servlets/DocumentServlet?id=21239
Einecke, Nils;
Stereoscopic depth estimation for online vision systems - Ilmenau : Univ.-Verl. Ilmenau, 2012 - Online-Ressource (PDF-Datei: XII, 161 S., 7,43 MB). Ilmenau : Techn. Univ., Diss., 2012

Die visuelle Wahrnehmung des Menschen wird in hohem Maße vom stereoskopischen Sehen beeinflusst. Die dreidimensionale Wahrnehmung entsteht dabei durch die leicht unterschiedlichen Blickwinkel der beiden Augen. Es ist eine nahe liegende Annahme, dass maschinelle Sehsysteme ebenfalls von einem vergleichbaren Sinn profitieren können. Obwohl es bereits zahlreiche Arbeiten auf dem Gebiet des maschinellen stereoskopischen Sehen gibt, erfüllen die heutigen Algorithmen entweder nicht die Anforderungen für eine effiziente Berechnung oder aber sie haben nur eine geringe Genauigkeit und Robustheit. Das Ziel dieser Doktorarbeit ist die Entwicklung von echtzeit- und realweltfähigen stereoskopischen Algorithmen. Insbesondere soll die Berechnung der Algorithmen leichtgewichtig genug sein, um auf mobilen Plattformen eingesetzt werden zu können. Dazu werden im Rahmen dieser Arbeit zwei neue Methoden vorgestellt, welche sich durch eine gute Balance zwischen Geschwindigkeit und Genauigkeit auszeichnen. Als erstes wird die "Summed Normalized Cross-Correlation" (SNCC) vorgestellt, eine neue Kostenfunktion für blockvergleichende,stereoskopische Tiefenschätzung. Im Unterschied zu den meisten anderen Kostenfunktionen ist SNCC nicht anfällig für den qualitätsmindernden "Fattening"-Effekt, kann aber trotzdem sehr effizient berechnet werden. Die Auswertung der Genauigkeit auf Standard Benchmark-Tests zeigt, dass mit SNCC die Genauigkeit von lokaler,blockvergleichsbasierter, stereoskopischer Berechnung nahe an die Genauigkeit von global optimierenden Methoden basierend auf "Graph Cut" oder "Belief Propagation" heran kommt. Die zweite vorgestellte Methode ist das "Direct Surface Fitting", ein neuerAlgorithmus zum Schätzen parametrischer Oberflächenmodelle an Hand von Stereobildern. Dieser Algorithmus ist inspiriert vom Homographie-beschränkten Gradientenabstieg, welcher häufig dazu benutzt wird um die Lage von planaren Oberflächen im Raum zu schätzen. Durch die Ersetzung des Gradientenabstiegs mit der direkten Suchmethodik von Hooke und Jeeves wird die planare Schätzung auf beliebige parametrische Oberflächenmodelle und beliebige Kostenfunktionen erweitert. Ein Vergleich auf Standard Benchmark-Tests zeigt, dass "Direct Surface Fitting" eine vergleichbare Genauigkeit wie Methoden aus dem Stand der Technik hat, im Gegensatz zu diesen aber höhere Robustheit in anspruchsvollen Situationen besitzt. Um die Realwelttauglichkeit und Effizienz der vorgestellten Methoden zu untermauern wurden diese in ein Automobil- und in ein Robotersystem integriert. Die mit diesen mobilen Systemen durchgeführten Experimente demonstrieren die hohe Robustheit und Stabilität der eingeführten Methoden.


http://d-nb.info/1028990898/04TEST2

Einecke, Nils;
Stereoscopic depth estimation for online vision systems - Ilmenau : Univ.-Verl. Ilmenau, 2012 - XIII, 161 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2012

Die visuelle Wahrnehmung des Menschen wird in hohem Maße vom stereoskopischen Sehen beeinflusst. Die dreidimensionale Wahrnehmung entsteht dabei durch die leicht unterschiedlichen Blickwinkel der beiden Augen. Es ist eine nahe liegende Annahme, dass maschinelle Sehsysteme ebenfalls von einem vergleichbaren Sinn profitieren können. Obwohl es bereits zahlreiche Arbeiten auf dem Gebiet des maschinellen stereoskopischen Sehen gibt, erfüllen die heutigen Algorithmen entweder nicht die Anforderungen für eine effiziente Berechnung oder aber sie haben nur eine geringe Genauigkeit und Robustheit. Das Ziel dieser Doktorarbeit ist die Entwicklung von echtzeit- und realweltfähigen stereoskopischen Algorithmen. Insbesondere soll die Berechnung der Algorithmen leichtgewichtig genug sein, um auf mobilen Plattformen eingesetzt werden zu können. Dazu werden im Rahmen dieser Arbeit zwei neue Methoden vorgestellt, welche sich durch eine gute Balance zwischen Geschwindigkeit und Genauigkeit auszeichnen. Als erstes wird die "Summed Normalized Cross-Correlation" (SNCC) vorgestellt, eine neue Kostenfunktion für blockvergleichende,stereoskopische Tiefenschätzung. Im Unterschied zu den meisten anderen Kostenfunktionen ist SNCC nicht anfällig für den qualitätsmindernden "Fattening"-Effekt, kann aber trotzdem sehr effizient berechnet werden. Die Auswertung der Genauigkeit auf Standard Benchmark-Tests zeigt, dass mit SNCC die Genauigkeit von lokaler,blockvergleichsbasierter, stereoskopischer Berechnung nahe an die Genauigkeit von global optimierenden Methoden basierend auf "Graph Cut" oder "Belief Propagation" heran kommt. Die zweite vorgestellte Methode ist das "Direct Surface Fitting", ein neuerAlgorithmus zum Schätzen parametrischer Oberflächenmodelle an Hand von Stereobildern. Dieser Algorithmus ist inspiriert vom Homographie-beschränkten Gradientenabstieg, welcher häufig dazu benutzt wird um die Lage von planaren Oberflächen im Raum zu schätzen. Durch die Ersetzung des Gradientenabstiegs mit der direkten Suchmethodik von Hooke und Jeeves wird die planare Schätzung auf beliebige parametrische Oberflächenmodelle und beliebige Kostenfunktionen erweitert. Ein Vergleich auf Standard Benchmark-Tests zeigt, dass "Direct Surface Fitting" eine vergleichbare Genauigkeit wie Methoden aus dem Stand der Technik hat, im Gegensatz zu diesen aber höhere Robustheit in anspruchsvollen Situationen besitzt. Um die Realwelttauglichkeit und Effizienz der vorgestellten Methoden zu untermauern wurden diese in ein Automobil- und in ein Robotersystem integriert. Die mit diesen mobilen Systemen durchgeführten Experimente demonstrieren die hohe Robustheit und Stabilität der eingeführten Methoden.



TEST4http://www.gbv.de/dms/ilmenau/toc/733600824.PDF
Weißenbach, Andreas;
Verbundinstandhaltung bei Kleinstunternehmen, kleinen und mittleren Unternehmen (KMU) : ein Konzept für neue Organisationsformen der Instandhaltung - Ilmenau : Univ.-Verl. Ilmenau, 2012 - Online-Ressource (PDF-Datei: XXII, 273 S., 63,69 MB). Ilmenau : Techn. Univ., Diss., 2012

Die betriebliche Instandhaltung ist für die Sicherstellung einer betriebsspezifisch erforderlichen Verfügbarkeit und zuverlässigen Funktions- und Leistungsfähigkeit von technischen Einheiten verantwortlich. Nicht alle Unternehmen erkennen diesen Zusammenhang. Vor allem bei Kleinstunternehmen, kleinen und mittleren Unternehmen (KMU) wird der betrieblichen Instandhaltung häufig nur wenig Beachtung geschenkt. Eine Vernachlässigung der technischen Einheiten wird in Kauf genommen, wodurch sich die KMU gegenüber großen Unternehmen in eine nachteilige Lage bringen. Andreas Weißenbach erörtert diese Problematik und leitet aus der Betrachtung organisatorischer-struktureller Aspekte neue Formen der partnerschaftlichen Zusammenarbeit im Bereich der betrieblichen Instandhaltung bei KMU ab. Davon induziert, entwickelt er einen möglichen Lösungsansatz. Eine "horizontale Instandhaltungskooperation" zur Leistungsbündelung von Instandhaltungsressourcen in einem Verbund von Unternehmen beinhaltet im Vergleich zu den bislang üblichen Vorgehensweisen der Eigen- und Fremdinstandhaltung große Potenziale für KMU. Anhand von praxisrelevanten Fallbeispielen sowie mittels Simulationen unterschiedlicher Szenarien der geplanten und ungeplanten Instandhaltung weist er dies eindrucksvoll nach - die Ergebnisse sind eindeutig. Die Verbundinstandhaltung im Rahmen einer horizontalen Instandhaltungskooperation von Unternehmen eröffnet für die betriebliche Instandhaltung bei KMU ganz neue Möglichkeiten. Sie ist ein wichtiger Schritt auf dem Weg hin zu einem verantwortungsvollen und professionellen Instandhaltungsmanagement.


http://d-nb.info/1028990936/04TEST2

Weißenbach, Andreas;
Verbundinstandhaltung bei Kleinstunternehmen, kleinen und mittleren Unternehmen (KMU) : ein Konzept für neue Organisationsformen der Instandhaltung - Ilmenau : Univ.-Verl. Ilmenau, 2012 - XXII, 273 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2012

Die betriebliche Instandhaltung ist für die Sicherstellung einer betriebsspezifisch erforderlichen Verfügbarkeit und zuverlässigen Funktions- und Leistungsfähigkeit von technischen Einheiten verantwortlich. Nicht alle Unternehmen erkennen diesen Zusammenhang. Vor allem bei Kleinstunternehmen, kleinen und mittleren Unternehmen (KMU) wird der betrieblichen Instandhaltung häufig nur wenig Beachtung geschenkt. Eine Vernachlässigung der technischen Einheiten wird in Kauf genommen, wodurch sich die KMU gegenüber großen Unternehmen in eine nachteilige Lage bringen. Andreas Weißenbach erörtert diese Problematik und leitet aus der Betrachtung organisatorischer-struktureller Aspekte neue Formen der partnerschaftlichen Zusammenarbeit im Bereich der betrieblichen Instandhaltung bei KMU ab. Davon induziert, entwickelt er einen möglichen Lösungsansatz. Eine "horizontale Instandhaltungskooperation" zur Leistungsbündelung von Instandhaltungsressourcen in einem Verbund von Unternehmen beinhaltet im Vergleich zu den bislang üblichen Vorgehensweisen der Eigen- und Fremdinstandhaltung große Potenziale für KMU. Anhand von praxisrelevanten Fallbeispielen sowie mittels Simulationen unterschiedlicher Szenarien der geplanten und ungeplanten Instandhaltung weist er dies eindrucksvoll nach - die Ergebnisse sind eindeutig. Die Verbundinstandhaltung im Rahmen einer horizontalen Instandhaltungskooperation von Unternehmen eröffnet für die betriebliche Instandhaltung bei KMU ganz neue Möglichkeiten. Sie ist ein wichtiger Schritt auf dem Weg hin zu einem verantwortungsvollen und professionellen Instandhaltungsmanagement.



TEST4http://www.gbv.de/dms/ilmenau/toc/733547214.PDF
Zentner, Lena
Mechanismentechnik in Ilmenau, Budapest und Niš : Technische Universität Ilmenau, 29.-31. August 2012 - Ilmenau : Universitätsverlag Ilmenau, 2012 - 144 Seiten. . - (Berichte der Ilmenauer Mechanismentechnik. - Band 1) ISBN 978-3-86360-034-1
Literaturangaben

In diesem Band sind Beiträge des Workshops "Mechanismentechnik in Ilmenau, Budapest und Niš 2012" zusammengestellt. Diese spiegeln gemeinsame Arbeiten der drei Universitäten - Technische Universität Ilmenau, Universität Budapest (Budapest University of Technology and Economics) und Universität Niš (University of Niš) - wider. Der Inhalt des Bandes ist in drei Abschnitte aufgeteilt. Im ersten Abschnitt handelt es sich um Beiträge über die Entwicklung und Untersuchung nachgiebiger Mechanismen mit Anwendung in der Ventiltechnik sowie Mechanismen mit stoffschlüssigen Gelenken für spezielle Anforderungen. Nachgiebige Sensoren und Aktuatoren für die Greifer- und Robotertechnik werden im zweiten Abschnitt vorgestellt. Abschließend wird die Problematik der Materialcharakterisierung und von neuen Simulationsmethoden nachgiebiger Mechanismen diskutiert.



Schaffernicht, Erik;
Lernbeiträge im Rahmen einer kognitiven Architektur für die intelligente Prozessführung - Ilmenau : Univ.-Verl. Ilmenau, 2012 - Online-Ressource (PDF-Datei: VIII, 296 S., 4,95 MB). Ilmenau : Techn. Univ., Diss., 2012
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

In dieser Arbeit werden wichtige Aspekte einer kognitiven Architektur für das Erlernen von Regelungsaufgaben beleuchtet. Dabei geht es primär um die Merkmalsextraktion, das Reinforcement Learning und das Lernmanagement im Rahmen des Wahrnehmungs-Handlungs-Zyklus. Für die Merkmalsextraktion werden dabei mit Hilfe informationstheoretischer Größen, wie der Transinformation, neue hybride Merkmalsextraktionsverfahren vorgestellt. Neuartig ist dabei der Ansatz, Merkmale zu suchen, die explizit mit den gemachten Fehlern eines lernenden Systems verknüpft sind. Es wird gezeigt, dass diese residuumsbasierten Ansätze klassischen Methoden überlegen sind. Es wird ebenfalls untersucht, welche Schätzverfahren für die Bestimmung der Transinformation im Sinne der Merkmalsextraktion geeignet sind. Als Entscheidungsinstanz der Gesamtarchitektur werden aktuelle Reinforcement Learning Verfahren auf ihre Eignung für komplexe Anwendungen hin untersucht. Dabei wird auch auf Probleme des Lernmanagements, wie das Explorations-Exploitations-Dilemma, das Stabilitäts-Plastizitäts-Dilemma und das Rewarddekompositionsproblem eingegangen. Neue Beiträge werden dabei in Form des Diffusionsbaumbasiertes Reinforcement Learning und des SMILE-Algorithmus geliefert. Ebenso wird eine Architekturerweiterung zum Organisieren der Lernprozesse vorgeschlagen, welche im Kern um eine Prozesskarte angeordnet ist. Der experimentelle Nachweis, dass das vorgestellte System die Lösung für reale Probleme erlernen kann, wird am herausfordernden Szenarioder intelligenten Feuerungsführung erbracht. Dabei wird das Gesamtsystem zur Regelung eines mit Steinkohle gefeuerten Kraftwerks eingesetzt, wobei Ergebnisse erzielt werden, die bisher existierende Systeme und auch menschliche Experten übertreffen.


http://d-nb.info/1028420641/04TEST2

Schaffernicht, Erik;
Lernbeiträge im Rahmen einer kognitiven Architektur für die intelligente Prozessführung - Ilmenau : Univ.-Verl. Ilmenau, 2012 - VIII, 296 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2012
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

In dieser Arbeit werden wichtige Aspekte einer kognitiven Architektur für das Erlernen von Regelungsaufgaben beleuchtet. Dabei geht es primär um die Merkmalsextraktion, das Reinforcement Learning und das Lernmanagement im Rahmen des Wahrnehmungs-Handlungs-Zyklus. Für die Merkmalsextraktion werden dabei mit Hilfe informationstheoretischer Größen, wie der Transinformation, neue hybride Merkmalsextraktionsverfahren vorgestellt. Neuartig ist dabei der Ansatz, Merkmale zu suchen, die explizit mit den gemachten Fehlern eines lernenden Systems verknüpft sind. Es wird gezeigt, dass diese residuumsbasierten Ansätze klassischen Methoden überlegen sind. Es wird ebenfalls untersucht, welche Schätzverfahren für die Bestimmung der Transinformation im Sinne der Merkmalsextraktion geeignet sind. Als Entscheidungsinstanz der Gesamtarchitektur werden aktuelle Reinforcement Learning Verfahren auf ihre Eignung für komplexe Anwendungen hin untersucht. Dabei wird auch auf Probleme des Lernmanagements, wie das Explorations-Exploitations-Dilemma, das Stabilitäts-Plastizitäts-Dilemma und das Rewarddekompositionsproblem eingegangen. Neue Beiträge werden dabei in Form des Diffusionsbaumbasiertes Reinforcement Learning und des SMILE-Algorithmus geliefert. Ebenso wird eine Architekturerweiterung zum Organisieren der Lernprozesse vorgeschlagen, welche im Kern um eine Prozesskarte angeordnet ist. Der experimentelle Nachweis, dass das vorgestellte System die Lösung für reale Probleme erlernen kann, wird am herausfordernden Szenarioder intelligenten Feuerungsführung erbracht. Dabei wird das Gesamtsystem zur Regelung eines mit Steinkohle gefeuerten Kraftwerks eingesetzt, wobei Ergebnisse erzielt werden, die bisher existierende Systeme und auch menschliche Experten übertreffen.



TEST4http://www.gbv.de/dms/ilmenau/abs/731853024schaf.txt
Zentner, Lena
Mechanismentechnik in Ilmenau, Budapest und Niš : Technische Universität Ilmenau, 29.-31. August 2012 - Ilmenau : Universitätsverlag Ilmenau, 2012 - 1 Online-Ressource (144 Seiten). . - (Berichte der Ilmenauer Mechanismentechnik. - Band 1)Literaturangaben

In diesem Band sind Beiträge des Workshops "Mechanismentechnik in Ilmenau, Budapest und Niš 2012" zusammengestellt. Diese spiegeln gemeinsame Arbeiten der drei Universitäten - Technische Universität Ilmenau, Universität Budapest (Budapest University of Technology and Economics) und Universität Niš (University of Niš) - wider. Der Inhalt des Bandes ist in drei Abschnitte aufgeteilt. Im ersten Abschnitt handelt es sich um Beiträge über die Entwicklung und Untersuchung nachgiebiger Mechanismen mit Anwendung in der Ventiltechnik sowie Mechanismen mit stoffschlüssigen Gelenken für spezielle Anforderungen. Nachgiebige Sensoren und Aktuatoren für die Greifer- und Robotertechnik werden im zweiten Abschnitt vorgestellt. Abschließend wird die Problematik der Materialcharakterisierung und von neuen Simulationsmethoden nachgiebiger Mechanismen diskutiert.


http://d-nb.info/1028991177/04TEST2

Marten, Anne-Katrin;
Integration der Betriebsführung eines HGÜ-Overlay-Netzes in die Leitungs-Frequenz-Regelung eines Drehstrom-Verbundnetzes - Ilmenau : Univ.-Verl. Ilmenau - XXXIII, 82 S.. . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - 3) Zugl.: Ilmenau : Techn. Univ., Masterarbeit, 2011

Der Anteil Erneuerbarer Energien in Deutschland und in Europa allgemein nimmt signifikant zu, um so den Ausstoß von Kohlenstoffdioxid zu senken. Die Errichtung eines Großteils derartiger Erzeugungsanlagen kann aufgrund von klimatischen Gegebenheiten nur an wenigen Orten erfolgen, die Lasten bleiben weiterhin dezentral verteilt und konventionelle Kraftwerke werden sukzessive abgeschaltet. Daher wird ein durchgängig automatisiertes und leistungsfähiges Elektroenergieübertragungsnetz zum Langstreckentransport großer Energiemengen unverzichtbar. Eine mögliche Lösung dieser Herausforderung ist ein europaweit vermaschtes Overlay-Netz. Dieses kann auf der HGÜ-Technologie basieren und verbindet Regionen großer Einspeisung aus regenerativen Quellen mit Lastzentren. Aufgrund seiner technologischen Eigenschaften gegenüber einem AC-Netz muss ein HGÜ-Overlay-Netz Systemdienstleistungen wie die Leistungs-Frequenz-Regelung aktiv unterstützen, damit die Systemstabilität und Versorgungssicherheit ebenso sichergestellt werden können, wie mit dem heutigen auf allen Netzebenen realisierten AC-Netz. In dieser Arbeit wird ein neuartiges Verfahren für die Beteiligung eines HGÜ-Overlay-Netzes am Regelleistungstransport entwickelt. Gleichzeitig realisiert diese Betriebsführung auch die anteilige Übernahme anderweitig hervorgerufener Leistungsflüsse z.B. durch Energiehandelsgeschäfte. Numerische Fallstudien zeigen einige Vorteile dieses Verfahrens bei unterschiedlichen Störungen des AC-DC-Übertragungsnetzes auf. Es wird gezeigt, dass ein HGÜ-Overlay-Netz mit der entwickelten Betriebsführung das AC-Netz um einen einstellbaren Anteil der Leistungsflüsse entlastet und die Leitungs-Frequenz-Regelung z.B. im Hinblick auf Schnelligkeit und Frequenzabweichungen verbessert.



TEST4http://www.gbv.de/dms/ilmenau/toc/73128450X.PDF
Hecht, Kerstin;
Entwicklung eines Laserstrahlpolierverfahrens für Quarzglasoberflächen
[Online-Ausg.] - Ilmenau : Univ.-Verl. Ilmenau, 2012 - Online-Ressource (PDF-Datei: 200 S., 6,09 MB). . - (Werkstofftechnik aktuell. - 8) Ilmenau : Techn. Univ., Diss., 2012

Ziel der Laserstrahlpolitur ist die schnelle, gleichmäßige, formerhaltende Glättung des Rauheitsprofils einer Quarzglasoberfläche. Der Laser wirkt dabei geometrieunabhängig, in der Art eines schnellen Subaperturwerkzeuges. Verschieden spanend bearbeitet Proben werden mittels Laserstrahlung poliert, wobei die Prozesseinflussgrößen, die Wechselwirkungen zwischen Laserstrahlung und Quarzglas sowie die Auswertung der Ergebnisse hinsichtlich Oberflächenqualität und Beeinflussung von Spannungen bzw. mechanischen Eigenschaften, die Untersuchungen und die Entwicklung eines industriell einsetzbaren Laserstrahlpolierverfahrens unterstützen. Experimentplanung, -durchführung und -auswertung erfolgen unter Anwendung statistischer Methoden. Die Temperatur wird während der Politur mit Pyrometer und Wärmebildkamera überwacht. Die Einsatzgebiete des Verfahrens liegen u.a. beim Polieren von 2D- und 2D Bauteilen, Werkzeugformeinsätzen (Kunststoffverarbeitung) und in Teilbereichen optischer Komponenten.


http://d-nb.info/1027635598/04TEST2

Hecht, Kerstin;
Entwicklung eines Laserstrahlpolierverfahrens für Quarzglasoberflächen - Ilmenau : Univ.-Verl. Ilmenau, 2012 - 200 S.. . - (Werkstofftechnik aktuell. - 8) Zugl.: Ilmenau : Techn. Univ., Diss., 2012

Ziel der Laserstrahlpolitur ist die schnelle, gleichmäßige, formerhaltende Glättung des Rauheitsprofils einer Quarzglasoberfläche. Der Laser wirkt dabei geometrieunabhängig, in der Art eines schnellen Subaperturwerkzeuges. Verschieden spanend bearbeitet Proben werden mittels Laserstrahlung poliert, wobei die Prozesseinflussgrößen, die Wechselwirkungen zwischen Laserstrahlung und Quarzglas sowie die Auswertung der Ergebnisse hinsichtlich Oberflächenqualität und Beeinflussung von Spannungen bzw. mechanischen Eigenschaften, die Untersuchungen und die Entwicklung eines industriell einsetzbaren Laserstrahlpolierverfahrens unterstützen. Experimentplanung, -durchführung und -auswertung erfolgen unter Anwendung statistischer Methoden. Die Temperatur wird während der Politur mit Pyrometer und Wärmebildkamera überwacht. Die Einsatzgebiete des Verfahrens liegen u.a. beim Polieren von 2D- und 2D Bauteilen, Werkzeugformeinsätzen (Kunststoffverarbeitung) und in Teilbereichen optischer Komponenten.



TEST4http://www.gbv.de/dms/ilmenau/toc/730141411.PDF
Marten, Anne-Katrin;
Integration der Betriebsführung eines HGÜ-Overlay-Netzes in die Leitungs-Frequenz-Regelung eines Drehstrom-Verbundnetzes - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: XXXIII, 82 S., 4,76 MB). . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - 3) Zugl.: Ilmenau : Techn. Univ., Masterarbeit, 2011

Der Anteil Erneuerbarer Energien in Deutschland und in Europa allgemein nimmt signifikant zu, um so den Ausstoß von Kohlenstoffdioxid zu senken. Die Errichtung eines Großteils derartiger Erzeugungsanlagen kann aufgrund von klimatischen Gegebenheiten nur an wenigen Orten erfolgen, die Lasten bleiben weiterhin dezentral verteilt und konventionelle Kraftwerke werden sukzessive abgeschaltet. Daher wird ein durchgängig automatisiertes und leistungsfähiges Elektroenergieübertragungsnetz zum Langstreckentransport großer Energiemengen unverzichtbar. Eine mögliche Lösung dieser Herausforderung ist ein europaweit vermaschtes Overlay-Netz. Dieses kann auf der HGÜ-Technologie basieren und verbindet Regionen großer Einspeisung aus regenerativen Quellen mit Lastzentren. Aufgrund seiner technologischen Eigenschaften gegenüber einem AC-Netz muss ein HGÜ-Overlay-Netz Systemdienstleistungen wie die Leistungs-Frequenz-Regelung aktiv unterstützen, damit die Systemstabilität und Versorgungssicherheit ebenso sichergestellt werden können, wie mit dem heutigen auf allen Netzebenen realisierten AC-Netz. In dieser Arbeit wird ein neuartiges Verfahren für die Beteiligung eines HGÜ-Overlay-Netzes am Regelleistungstransport entwickelt. Gleichzeitig realisiert diese Betriebsführung auch die anteilige Übernahme anderweitig hervorgerufener Leistungsflüsse z.B. durch Energiehandelsgeschäfte. Numerische Fallstudien zeigen einige Vorteile dieses Verfahrens bei unterschiedlichen Störungen des AC-DC-Übertragungsnetzes auf. Es wird gezeigt, dass ein HGÜ-Overlay-Netz mit der entwickelten Betriebsführung das AC-Netz um einen einstellbaren Anteil der Leistungsflüsse entlastet und die Leitungs-Frequenz-Regelung z.B. im Hinblick auf Schnelligkeit und Frequenzabweichungen verbessert.


http://d-nb.info/1028100361/04TEST2

Großmann, Marcus;
Transmission strategies for broadband wireless systems with MMSE turbo equalization - Ilmenau : Univ.-Verl. Ilmenau, 2012 - Online-Ressource (PDF-Datei: XIII, 228 S., 1,66 MB). Ilmenau : Techn. Univ., Diss., 2012

Die vorliegende Arbeit beschäftigt sich mit dem Entwurf und der Analyse von effizienten Übertragungskonzepten für drahtlose, breitbandige Einträger-Kommunikationssysteme mit iterativer (Turbo-) Entzerrung und Kanaldekodierung. Dies beinhaltet einerseits die Entwicklung von empfängerseitigen Frequenzbereichsentzerrern mit geringer Komplexität basierend auf dem Prinzip der Soft Interference Cancellation Minimum-MeanSquared-Error (SC-MMSE) Filterung und andererseits den Entwurf von senderseitigen Algorithmen, die durch Ausnutzung von Kanalzustandsinformationen die Bandbreiten- und Leistungseffizienz in Ein-und Mehrnutzersystemen mit Mehrfachantennen (sog. Multiple-InputMultiple-Output (MIMO) verbessern. Im ersten Teil dieser Arbeit wird ein allgemeiner Ansatz für Verfahren zur Turbo-Entzerrung nach dem Prinzip der linearen MMSE-Schätzung, der nichtlinearen MMSE-Schätzung sowie der kombinierten MMSE- und Maximum-a-Posteriori (MAP)-Schätzung vorgestellt. In diesem Zusammenhang werden zwei neue Empfängerkonzepte, die eine Steigerung der Leistungsfähigkeit und Verbesserung der Konvergenz in Bezug auf existierende SC-MMSE Turbo-Entzerrer in verschiedenen Kanalumgebungenerzielen, eingeführt. Der erste Empfänger - PDA SC-MMSE - stellt eine Kombination aus dem Probabilistic-Data-Association (PDA) Ansatz und dem bekannten SC-MMSE Entzerrer dar. Im Gegensatz zum SC-MMSE nutzt der PDASC-MMSE eine interne Entscheidungsrückführung, so dass zur Unterdrückung von Interferenzen neben den a priori Informationen der Kanaldekodierungauch weiche Entscheidungen der vorherigen Detektionsschritteberücksichtigt werden. Durch die zusätzlich interne Entscheidungsrückführung erzielt der PDA SC-MMSE einen wesentlichen Gewinn an Performance in räumlich unkorrelierten MIMO-Kanälen gegenüber dem SC-MMSE, ohne dabei die Komplexität des Entzerrers wesentlich zu erhöhen. Der zweite Empfänger - hybrid SC-MMSE - bildet eine Verknüpfung von gruppenbasierter SC-MMSE Frequenzbereichsfilterung und MAP-Detektion.Dieser Empfänger besitzt eine skalierbare Berechnungskomplexität und weist eine hohe Robustheit gegenüber räumlichen Korrelationen in MIMO-Kanälen auf. Die numerischen Ergebnisse von Simulationen basierend auf Messungen mit einem Channel-Sounder in Mehrnutzerkanälen mit starken räumlichen Korrelationen zeigen eindrucksvoll die Überlegenheit des hybriden SC-MMSE-Ansatzes gegenüber dem konventionellen SC-MMSE-basiertem Empfänger. Im zweiten Teil wird der Einfluss von System- und Kanalmodellparametern auf die Konvergenzeigenschaften der vorgestellten iterativen Empfänger mit Hilfe sogenannter Korrelationsdiagramme untersucht. Durch semi-analytischeBerechnungen der Entzerrer- und Kanaldecoder-Korrelationsfunktionen wird eine einfache Berechnungsvorschrift zur Vorhersage der Bitfehlerwahrscheinlichkeit von SC-MMSE und PDA SC-MMSE Turbo Entzerrern für MIMO-Fadingkanäle entwickelt. Des Weiteren werden zwei Fehlerschranken für die Ausfallwahrscheinlichkeit der Empfänger vorgestellt. Die semianalytische Methode und die abgeleiteten Fehlerschranken ermöglichen eine aufwandsgeringe Abschätzung sowie Optimierung der Leistungsfähigkeitdes iterativen Systems.Im dritten und abschließenden Teil werden Strategien zur Raten- undLeistungszuweisung in Kommunikationssystemen mit konventionellen iterativen SC-MMSE Empfängern untersucht. Zunächst wird das Problem der Maximierung der instantanen Summendatenrate unter der Berücksichtigung der Konvergenz des iterativen Empfängers für einen Zweinutzerkanal mit festerLeistungsallokation betrachtet. Mit Hilfe des Flächentheorems von Extrinsic-Information-Transfer (EXIT)-Funktionen wird eine obere Schranke für die erreichbare Ratenregion hergeleitet. Auf Grundlage dieser Schranke wird ein einfacher Algorithmus entwickelt, der für jeden Nutzer aus einer Menge von vorgegebenen Kanalcodes mit verschiedenen Codierraten denjenigen auswählt, der den instantanen Datendurchsatz des Mehrnutzersystems verbessert. Neben der instantanen Ratenzuweisung wird auch ein ausfallbasierter Ansatz zur Ratenzuweisung entwickelt. Hierbei erfolgt die Auswahl der Kanalcodes für die Nutzer unter Berücksichtigung der Einhaltung einer bestimmten Ausfallwahrscheinlichkeit (outage probability) desiterativen Empfängers. Des Weiteren wird ein neues Entwurfskriterium für irreguläre Faltungscodes hergeleitet, das die Ausfallwahrscheinlichkeit von Turbo SC-MMSE Systemen verringert und somit die Zuverlässigkeit der Datenübertragung erhöht. Eine Reihe von Simulationsergebnissen von Kapazitäts- und Durchsatzberechnungen werden vorgestellt, die die Wirksamkeit der vorgeschlagenen Algorithmen und Optimierungsverfahren in Mehrnutzerkanälen belegen. Abschließend werden außerdem verschiedene Maßnahmen zur Minimierung der Sendeleistung in Einnutzersystemen mit senderseitiger Singular-Value-Decomposition (SVD)-basierter Vorcodierunguntersucht. Es wird gezeigt, dass eine Methode, welche die Leistungspegeldes Senders hinsichtlich der Bitfehlerrate des iterativen Empfängersoptimiert, den konventionellen Verfahren zur Leistungszuweisung überlegen ist.


http://d-nb.info/1027395538/04TEST2

Großmann, Marcus;
Transmission strategies for broadband wireless systems with MMSE turbo equalization - Ilmenau : Univ.-Verl. Ilmenau, 2012 - XIII, 228 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2012

Die vorliegende Arbeit beschäftigt sich mit dem Entwurf und der Analyse von effizienten Übertragungskonzepten für drahtlose, breitbandige Einträger-Kommunikationssysteme mit iterativer (Turbo-) Entzerrung und Kanaldekodierung. Dies beinhaltet einerseits die Entwicklung von empfängerseitigen Frequenzbereichsentzerrern mit geringer Komplexität basierend auf dem Prinzip der Soft Interference Cancellation Minimum-MeanSquared-Error (SC-MMSE) Filterung und andererseits den Entwurf von senderseitigen Algorithmen, die durch Ausnutzung von Kanalzustandsinformationen die Bandbreiten- und Leistungseffizienz in Ein-und Mehrnutzersystemen mit Mehrfachantennen (sog. Multiple-InputMultiple-Output (MIMO) verbessern. Im ersten Teil dieser Arbeit wird ein allgemeiner Ansatz für Verfahren zur Turbo-Entzerrung nach dem Prinzip der linearen MMSE-Schätzung, der nichtlinearen MMSE-Schätzung sowie der kombinierten MMSE- und Maximum-a-Posteriori (MAP)-Schätzung vorgestellt. In diesem Zusammenhang werden zwei neue Empfängerkonzepte, die eine Steigerung der Leistungsfähigkeit und Verbesserung der Konvergenz in Bezug auf existierende SC-MMSE Turbo-Entzerrer in verschiedenen Kanalumgebungenerzielen, eingeführt. Der erste Empfänger - PDA SC-MMSE - stellt eine Kombination aus dem Probabilistic-Data-Association (PDA) Ansatz und dem bekannten SC-MMSE Entzerrer dar. Im Gegensatz zum SC-MMSE nutzt der PDASC-MMSE eine interne Entscheidungsrückführung, so dass zur Unterdrückung von Interferenzen neben den a priori Informationen der Kanaldekodierungauch weiche Entscheidungen der vorherigen Detektionsschritteberücksichtigt werden. Durch die zusätzlich interne Entscheidungsrückführung erzielt der PDA SC-MMSE einen wesentlichen Gewinn an Performance in räumlich unkorrelierten MIMO-Kanälen gegenüber dem SC-MMSE, ohne dabei die Komplexität des Entzerrers wesentlich zu erhöhen. Der zweite Empfänger - hybrid SC-MMSE - bildet eine Verknüpfung von gruppenbasierter SC-MMSE Frequenzbereichsfilterung und MAP-Detektion.Dieser Empfänger besitzt eine skalierbare Berechnungskomplexität und weist eine hohe Robustheit gegenüber räumlichen Korrelationen in MIMO-Kanälen auf. Die numerischen Ergebnisse von Simulationen basierend auf Messungen mit einem Channel-Sounder in Mehrnutzerkanälen mit starken räumlichen Korrelationen zeigen eindrucksvoll die Überlegenheit des hybriden SC-MMSE-Ansatzes gegenüber dem konventionellen SC-MMSE-basiertem Empfänger. Im zweiten Teil wird der Einfluss von System- und Kanalmodellparametern auf die Konvergenzeigenschaften der vorgestellten iterativen Empfänger mit Hilfe sogenannter Korrelationsdiagramme untersucht. Durch semi-analytischeBerechnungen der Entzerrer- und Kanaldecoder-Korrelationsfunktionen wird eine einfache Berechnungsvorschrift zur Vorhersage der Bitfehlerwahrscheinlichkeit von SC-MMSE und PDA SC-MMSE Turbo Entzerrern für MIMO-Fadingkanäle entwickelt. Des Weiteren werden zwei Fehlerschranken für die Ausfallwahrscheinlichkeit der Empfänger vorgestellt. Die semianalytische Methode und die abgeleiteten Fehlerschranken ermöglichen eine aufwandsgeringe Abschätzung sowie Optimierung der Leistungsfähigkeitdes iterativen Systems.Im dritten und abschließenden Teil werden Strategien zur Raten- undLeistungszuweisung in Kommunikationssystemen mit konventionellen iterativen SC-MMSE Empfängern untersucht. Zunächst wird das Problem der Maximierung der instantanen Summendatenrate unter der Berücksichtigung der Konvergenz des iterativen Empfängers für einen Zweinutzerkanal mit festerLeistungsallokation betrachtet. Mit Hilfe des Flächentheorems von Extrinsic-Information-Transfer (EXIT)-Funktionen wird eine obere Schranke für die erreichbare Ratenregion hergeleitet. Auf Grundlage dieser Schranke wird ein einfacher Algorithmus entwickelt, der für jeden Nutzer aus einer Menge von vorgegebenen Kanalcodes mit verschiedenen Codierraten denjenigen auswählt, der den instantanen Datendurchsatz des Mehrnutzersystems verbessert. Neben der instantanen Ratenzuweisung wird auch ein ausfallbasierter Ansatz zur Ratenzuweisung entwickelt. Hierbei erfolgt die Auswahl der Kanalcodes für die Nutzer unter Berücksichtigung der Einhaltung einer bestimmten Ausfallwahrscheinlichkeit (outage probability) desiterativen Empfängers. Des Weiteren wird ein neues Entwurfskriterium für irreguläre Faltungscodes hergeleitet, das die Ausfallwahrscheinlichkeit von Turbo SC-MMSE Systemen verringert und somit die Zuverlässigkeit der Datenübertragung erhöht. Eine Reihe von Simulationsergebnissen von Kapazitäts- und Durchsatzberechnungen werden vorgestellt, die die Wirksamkeit der vorgeschlagenen Algorithmen und Optimierungsverfahren in Mehrnutzerkanälen belegen. Abschließend werden außerdem verschiedene Maßnahmen zur Minimierung der Sendeleistung in Einnutzersystemen mit senderseitiger Singular-Value-Decomposition (SVD)-basierter Vorcodierunguntersucht. Es wird gezeigt, dass eine Methode, welche die Leistungspegeldes Senders hinsichtlich der Bitfehlerrate des iterativen Empfängersoptimiert, den konventionellen Verfahren zur Leistungszuweisung überlegen ist.



TEST4http://www.gbv.de/dms/ilmenau/toc/729563030.PDF
Beruscha, Frank;
Nutzerorientierte Gestaltung haptischer Signale in der Lenkung : zum Einsatz direktionaler Lenkradvibrationen in Fahrerassistenzsystemen - Ilmenau : Univ.-Verl. Ilmenau, 2012 - Online-Ressource (PDF-Datei: X, 256 S., 2,25 MB). . - (Kraftfahrzeugtechnische Berichte. - 5) Ilmenau : Techn. Univ., Diss., 2012
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

Die vorliegende Arbeit widmet sich dem Einsatz von Lenkradvibrationen zur Informationsübermittlung an der Schnittstelle zwischen Fahrzeug und Fahrer unter Berücksichtigung physiologischer und psychologischer Aspekte. Als besondere Eigenschaft wird die Möglichkeit zur Erzeugung örtlich aufgelöster Vibrationen erkannt. Damit ist es möglich, über einseitige Lenkradvibrationen Richtungsinformationen an Fahrer zu kommunizieren. In drei Hauptstudien werden mit insgesamt 150 Probanden verschiedene Aspekte der Fahrerreaktion auf einseitige Lenkradvibrationen untersucht. Zunächst wird in einem grundlegenden Laborexperiment die intuitive Reaktion auf einseitige Lenkradvibrationen ermittelt. Im Anschluss wird die subjektive Präferenz der einseitigen Lenkradvibration in der Anwendung als Spurverlassenswarnsignal nachgewiesen. Zuletzt wird der Versuch unternommen, die einseitige Lenkradvibration zur Initiierung einer Ausweichreaktion in einer drohenden Frontalkollisionssituation einzusetzen.


http://d-nb.info/1027160662/04TEST2

Beruscha, Frank;
Nutzerorientierte Gestaltung haptischer Signale in der Lenkung : zum Einsatz direktionaler Lenkradvibrationen in Fahrerassistenzsystemen - Ilmenau : Univ.-Verl. Ilmenau, 2012 - X, 256 S.. . - (Kraftfahrzeugtechnische Berichte. - 5) : Zugl.: Ilmenau, Techn. Univ., Diss., 2012
ISBN 978-3-86360-042-6
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=20885

Die vorliegende Arbeit widmet sich dem Einsatz von Lenkradvibrationen zur Informationsübermittlung an der Schnittstelle zwischen Fahrzeug und Fahrer unter Berücksichtigung physiologischer und psychologischer Aspekte. Als besondere Eigenschaft wird die Möglichkeit zur Erzeugung örtlich aufgelöster Vibrationen erkannt. Damit ist es möglich, über einseitige Lenkradvibrationen Richtungsinformationen an Fahrer zu kommunizieren. In drei Hauptstudien werden mit insgesamt 150 Probanden verschiedene Aspekte der Fahrerreaktion auf einseitige Lenkradvibrationen untersucht. Zunächst wird in einem grundlegenden Laborexperiment die intuitive Reaktion auf einseitige Lenkradvibrationen ermittelt. Im Anschluss wird die subjektive Präferenz der einseitigen Lenkradvibration in der Anwendung als Spurverlassenswarnsignal nachgewiesen. Zuletzt wird der Versuch unternommen, die einseitige Lenkradvibration zur Initiierung einer Ausweichreaktion in einer drohenden Frontalkollisionssituation einzusetzen.



Roth, Hans-Klaus; Heinemann, Klaus
Proceedings : Thuringian Institute of Textile and Plastics Research, Rudolstadt and Ilmenau University of Technology, 22. - 24. May 2012, Rudolstadt/Germany - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: 165 S., 10,81 MB). Literaturangaben
http://d-nb.info/1023815028/04TEST2

Sendler, Jan;
Untersuchungen zur ergonomiegerechten Gestaltung der Mensch-Maschine-Schnittstellen von aktuellen Pkw-Bremsanlagen - Ilmenau : Univ.-Verl. Ilmenau, 2012 - Online-Ressource (PDF-Datei: XII, 153 S., 15,56 MB). . - (Kraftfahrzeugtechnische Berichte. - 4) Ilmenau : Techn. Univ., Diss., 2012

Die Rückgewinnung von kinetischer Fahrzeugenergie beim Bremsvorgang ist eine wichtige Maßnahme zur Effizienzerhöhung von Kraftfahrzeugen mit Elektromotor. Heute sind noch keine Kraftfahrzeuge im Serieneinsatz bekannt, die ausschließlich per rekuperativem Bremsmoment gebremst werden und damit vollständig auf eine Reibbremse verzichten können. Je nach maximal verfügbarem rekuperativen Bremsmoment und Bremssituation muss ein zusätzlicher Anteil an Reibbremsmoment erzeugt werden, um das Zielbremsmoment zu erreichen. Solche Bremsanlagen stellen besondere Anforderungen an die Ausgestaltung der Mensch-Maschine-Schnittstellen. Die vorliegende Arbeit ist ein Beitrag zur ergonomiegerechten Gestaltung der Mensch-Maschine-Schnittstellen von aktuellen Pkw-Bremsanlagen. Dazu zählen insbesondere rekuperative Bremsanlagen und entkoppelte Bremsanlagen. Es sollen grundlegende Methodiken erarbeitet werden, mit denen neben den technischen Aspekten der Thematik auch physiologische und psychologische Faktoren berücksichtigt werden. Zunächst werden Möglichkeiten zur Erfassung der Abläufe bei der Bremsbetätigung aus humanphysiologischer Sicht beschrieben. Untersucht werden Einflüsse des Cockpitdesigns, des Bremsmanövers, des Probanden und der Pedalcharakteristik auf die Betätigungsabläufe. Die Besonderheiten unterschiedlicher entkoppelter Bremsanlagen werden unter Nutzung einer speziell für solche Anwendungen entwickelten Pedalbetätigungsautomatik herausgearbeitet. Insbesondere die potenziell für den Fahrer störenden Effekte, die bei der Bremsenergierückgewinnung (z. B. Störungen im Verzögerungsverlauf) und bei der Pedalcharakteristiksimulation (ungeeignete und/oder synthetische Pedal- und Bremscharakteristiken) auftreten können, stehen dabei im Vordergrund. Einen weiteren Schwerpunkt bilden gezielte Probandenuntersuchungen zu Fühlbarkeits- und Akzeptanzschwellen des Fahrers bei der Bremsbetätigung. Es werden Grundsatzuntersuchungen vorgestellt, die Hinweis darauf geben, welche der Besonderheiten von entkoppelten Bremsanlagen für den Fahrer spürbar und welche sogar störend sein können. Abschließend werden Empfehlungen für die Auslegung von Bremsanlagen mit Schwerpunkt auf den Pedalcharakteristiksimulatoren und Bremsmomenterzeugungssystemen von entkoppelten Bremsanlagen abgeleitet.


http://d-nb.info/1027076602/04TEST2

Sendler, Jan;
Untersuchungen zur ergonomiegerechten Gestaltung der Mensch-Maschine-Schnittstellen von aktuellen Pkw-Bremsanlagen - Ilmenau : Univ.-Verl. Ilmenau, 2012 - XII, 153 S.. . - (Kraftfahrzeugtechnische Berichte. - 4) : Zugl.: Ilmenau, Techn. Univ., Diss., 2012
ISBN 978-3-86360-037-2
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=20865

Die Rückgewinnung von kinetischer Fahrzeugenergie beim Bremsvorgang ist eine wichtige Maßnahme zur Effizienzerhöhung von Kraftfahrzeugen mit Elektromotor. Heute sind noch keine Kraftfahrzeuge im Serieneinsatz bekannt, die ausschließlich per rekuperativem Bremsmoment gebremst werden und damit vollständig auf eine Reibbremse verzichten können. Je nach maximal verfügbarem rekuperativen Bremsmoment und Bremssituation muss ein zusätzlicher Anteil an Reibbremsmoment erzeugt werden, um das Zielbremsmoment zu erreichen. Solche Bremsanlagen stellen besondere Anforderungen an die Ausgestaltung der Mensch-Maschine-Schnittstellen. Die vorliegende Arbeit ist ein Beitrag zur ergonomiegerechten Gestaltung der Mensch-Maschine-Schnittstellen von aktuellen Pkw-Bremsanlagen. Dazu zählen insbesondere rekuperative Bremsanlagen und entkoppelte Bremsanlagen. Es sollen grundlegende Methodiken erarbeitet werden, mit denen neben den technischen Aspekten der Thematik auch physiologische und psychologische Faktoren berücksichtigt werden. Zunächst werden Möglichkeiten zur Erfassung der Abläufe bei der Bremsbetätigung aus humanphysiologischer Sicht beschrieben. Untersucht werden Einflüsse des Cockpitdesigns, des Bremsmanövers, des Probanden und der Pedalcharakteristik auf die Betätigungsabläufe. Die Besonderheiten unterschiedlicher entkoppelter Bremsanlagen werden unter Nutzung einer speziell für solche Anwendungen entwickelten Pedalbetätigungsautomatik herausgearbeitet. Insbesondere die potenziell für den Fahrer störenden Effekte, die bei der Bremsenergierückgewinnung (z. B. Störungen im Verzögerungsverlauf) und bei der Pedalcharakteristiksimulation (ungeeignete und/oder synthetische Pedal- und Bremscharakteristiken) auftreten können, stehen dabei im Vordergrund. Einen weiteren Schwerpunkt bilden gezielte Probandenuntersuchungen zu Fühlbarkeits- und Akzeptanzschwellen des Fahrers bei der Bremsbetätigung. Es werden Grundsatzuntersuchungen vorgestellt, die Hinweis darauf geben, welche der Besonderheiten von entkoppelten Bremsanlagen für den Fahrer spürbar und welche sogar störend sein können. Abschließend werden Empfehlungen für die Auslegung von Bremsanlagen mit Schwerpunkt auf den Pedalcharakteristiksimulatoren und Bremsmomenterzeugungssystemen von entkoppelten Bremsanlagen abgeleitet.



Jauernig, Uta;
Herstellung funktioneller Dünnschichtelemente auf den Stirnflächen von Lichtleitfasern mittels hochauflösender lithografischer Strukturierungsverfahren - Ilmenau : Univ.-Verl. Ilmenau, 2012 - Online-Ressource (PDF-Datei: 160 S., 19,56 MB). Ilmenau : Techn. Univ., Diss., 2012

Die vorliegende Arbeit beschäftigt sich mit der Entwicklung von Technologien für lithografische Prozesse zur Herstellung von hochfrequenten diffraktiven Dünnschichtbauelementen direkt auf den Stirnflächen von Lichtleitfasern. Dazu müssen für die Prozessdurchführung auf Wafern optimierte lithografische Verfahren geeignet modifiziert werden. Dies betrifft sowohl die Herstellung der Schichten als auch die einzustellenden Prozessparameter sowie die Prozessführung. In Abhängigkeit von den eingesetzten Materialien und der Strukturdimensionierung können unterschiedliche Funktionalitäten der strukturierten Schichten erzeugt werden. Für die Belichtung kommen zwei Systeme zum Einsatz. Zur Herstellung von Strukturen mit Perioden größer 3 mym findet die direkt schreibende Laserbelichtung bei einer Wellenlänge von 442 nm Anwendung. Zur Erzeugung hochfrequenter Gitter mit Perioden kleiner 1 mym wird die DUV-Interferenzlithografie unter Nutzung eines bei einer Wellenlänge von 248 nm emittierenden Excimerlasers eingesetzt. Bei dieser Wellenlänge wird die interferenzoptische Strukturierbarkeit eines ursprünglich für die Elektronenstrahllithografie spezifizierten Resists untersucht, der aufgrund seiner Eigenschaften wie geringe Feuchteempfindlichkeit, hohe Langzeitstabilität, gute Haftung und vereinfachte Prozessführung bei der Entwicklung für die Herstellung von Strukturen auf den Stirnflächen von Lichtleitfasern besonders gut geeignet ist. Es werden die für die Realisierung hochfrequenter Gitterstrukturen geeigneten Belichtungs- und sonstigen Prozessierungsparameter für die Prozessführung auf Substratschichten aus unterschiedlichen Materialien ermittelt. Die Strukturierung metallischer Schichten auf den Stirnflächen von Lichtleitfasern führt zu faserbasierten Lithografiemasken, mit deren Hilfe mittels Faser-zu-Faser-Belichtung eine effiziente und reproduzierbare Fotolithografie auf Faserstirnflächen ermöglicht wird. Durch die direkte Oberflächenstrukturierung von Hochfrequenzgittern in auf die Stirnflächen von Quarzglaslichtleitfasern aufgebrachten hochbrechenden Schichten aus As35S65 mittels Excimerlaser-Interferenzlithografie entstehen effiziente fasergekoppelte Gitter mit hohem Brechungsindexkontrast. Es werden auf solchen Gitterstrukturen basierende Wellenlängen- und Polarisationsfilter entworfen, geeignete Belichtungsbedingungen ermittelt und die Eigenschaften von realisierten Strukturen mit Simulationsergebnissen verglichen.


http://d-nb.info/1027027539/04TEST2

Jauernig, Uta;
Herstellung funktioneller Dünnschichtelemente auf den Stirnflächen von Lichtleitfasern mittels hochauflösender lithografischer Strukturierungsverfahren - Ilmenau : Univ.-Verl. Ilmenau, 2012 - 160 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2012

Die vorliegende Arbeit beschäftigt sich mit der Entwicklung von Technologien für lithografische Prozesse zur Herstellung von hochfrequenten diffraktiven Dünnschichtbauelementen direkt auf den Stirnflächen von Lichtleitfasern. Dazu müssen für die Prozessdurchführung auf Wafern optimierte lithografische Verfahren geeignet modifiziert werden. Dies betrifft sowohl die Herstellung der Schichten als auch die einzustellenden Prozessparameter sowie die Prozessführung. In Abhängigkeit von den eingesetzten Materialien und der Strukturdimensionierung können unterschiedliche Funktionalitäten der strukturierten Schichten erzeugt werden. Für die Belichtung kommen zwei Systeme zum Einsatz. Zur Herstellung von Strukturen mit Perioden größer 3 mym findet die direkt schreibende Laserbelichtung bei einer Wellenlänge von 442 nm Anwendung. Zur Erzeugung hochfrequenter Gitter mit Perioden kleiner 1 mym wird die DUV-Interferenzlithografie unter Nutzung eines bei einer Wellenlänge von 248 nm emittierenden Excimerlasers eingesetzt. Bei dieser Wellenlänge wird die interferenzoptische Strukturierbarkeit eines ursprünglich für die Elektronenstrahllithografie spezifizierten Resists untersucht, der aufgrund seiner Eigenschaften wie geringe Feuchteempfindlichkeit, hohe Langzeitstabilität, gute Haftung und vereinfachte Prozessführung bei der Entwicklung für die Herstellung von Strukturen auf den Stirnflächen von Lichtleitfasern besonders gut geeignet ist. Es werden die für die Realisierung hochfrequenter Gitterstrukturen geeigneten Belichtungs- und sonstigen Prozessierungsparameter für die Prozessführung auf Substratschichten aus unterschiedlichen Materialien ermittelt. Die Strukturierung metallischer Schichten auf den Stirnflächen von Lichtleitfasern führt zu faserbasierten Lithografiemasken, mit deren Hilfe mittels Faser-zu-Faser-Belichtung eine effiziente und reproduzierbare Fotolithografie auf Faserstirnflächen ermöglicht wird. Durch die direkte Oberflächenstrukturierung von Hochfrequenzgittern in auf die Stirnflächen von Quarzglaslichtleitfasern aufgebrachten hochbrechenden Schichten aus As35S65 mittels Excimerlaser-Interferenzlithografie entstehen effiziente fasergekoppelte Gitter mit hohem Brechungsindexkontrast. Es werden auf solchen Gitterstrukturen basierende Wellenlängen- und Polarisationsfilter entworfen, geeignete Belichtungsbedingungen ermittelt und die Eigenschaften von realisierten Strukturen mit Simulationsergebnissen verglichen.



TEST4http://www.gbv.de/dms/ilmenau/toc/727619519.PDF
Rock, Michael;
Prüfgeneratoren zur Simulation von Blitzimpulsströmen im Labor und ihre Wechselwirkung mit den Prüfobjekten
[Online-Ausg.] - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: XIX, 294 S., 21,64 MB). Ilmenau : Techn. Univ., Habil.-Schr., 2012
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

Die vorliegende Arbeit behandelt die mathematische Beschreibung und Analyse von elektrischen Schaltungen zur Erzeugung von impulsförmigen Strömen. Der Schwerpunkt liegt auf der reproduzierbaren Nachbildung von Blitzstromkomponenten, wie diese für die Untersuchung von Blitzwirkungen und von Überspannungs-Schutzeinrichtungen benötigt werden. Als Blitzstromkomponenten werden die Erst- und Folgeblitzstoßströme und der Blitzlangzeitstrom betrachtet, für die in Standards repräsentative Stromformen eingeführt wurden. Die Grundformen von Stoßstromkreisen mit Kondensatoren als primärem Energiespeicherelement werden analytisch beschrieben. Aperiodische Impulsströme (10/350 my, 1/200 mys) oder schwingende Stoßströme (8/20 mys) können mit gedämpften CLR-Reihenkreisen erzeugt werden. Zur Dimensionierung der Generatoren werden die Schaltungselemente aus Bestimmungsgleichungen berechnet. Veränderungen zu vorgegebenen Stromformen treten bei Variationen der Schaltungselemente oder angeschlossener Prüfobjekte auf. Abweichungen von Dimensionierungswerten dürfen Grenzen nicht überschreiten, damit die Impulsstromkenngrößen Scheitelwert, Stirn- und Rückenhalbwertszeit, Ladung und Spezifische Energie die Toleranzen einhalten. Ein umfangreicher Vergleich von CLR-Reihenkreis und Crowbar-Stoßkreis zeigt in Abhängigkeit vom Charakter der Belastung (Impedanz, Lichtbogen, Varistor) die unterschiedlichen Rückwirkungen auf den Stromverlauf. Die Erzeugung von Langzeitströmen wird am Beispiel von Kettenleitern und von stark bedämpften CLR-Kreisen betrachtet. Speziell ausgelegte Generatorschaltungen sind geeignet, weitere Stromformen, wie unipolare Stoßströme der Form 8/20 mys oder Sinushalbwellenströme, zu liefern. Untersucht wird, wie ein Generator als Kombinationsstoßkreis mit geringem Umgestaltungsaufwand aufgebaut werden kann, um die zwei häufig benötigten, aber deutlich unterschiedlichen Stromformen 10/350 mys und 8/20 mys zu erzeugen.



http://www.db-thueringen.de/servlets/DocumentServlet?id=20709
Rock, Michael;
Prüfgeneratoren zur Simulation von Blitzimpulsströmen im Labor und ihre Wechselwirkung mit den Prüfobjekten - Ilmenau : Univ.-Verl. Ilmenau - XIX, 294 S.. Zugl.: Ilmenau : Techn. Univ., Habil.-Schr., 2012

Die vorliegende Arbeit behandelt die mathematische Beschreibung und Analyse von elektrischen Schaltungen zur Erzeugung von impulsförmigen Strömen. Der Schwerpunkt liegt auf der reproduzierbaren Nachbildung von Blitzstromkomponenten, wie diese für die Untersuchung von Blitzwirkungen und von Überspannungs-Schutzeinrichtungen benötigt werden. Als Blitzstromkomponenten werden die Erst- und Folgeblitzstoßströme und der Blitzlangzeitstrom betrachtet, für die in Standards repräsentative Stromformen eingeführt wurden. Die Grundformen von Stoßstromkreisen mit Kondensatoren als primärem Energiespeicherelement werden analytisch beschrieben. Aperiodische Impulsströme (10/350 my, 1/200 mys) oder schwingende Stoßströme (8/20 mys) können mit gedämpften CLR-Reihenkreisen erzeugt werden. Zur Dimensionierung der Generatoren werden die Schaltungselemente aus Bestimmungsgleichungen berechnet. Veränderungen zu vorgegebenen Stromformen treten bei Variationen der Schaltungselemente oder angeschlossener Prüfobjekte auf. Abweichungen von Dimensionierungswerten dürfen Grenzen nicht überschreiten, damit die Impulsstromkenngrößen Scheitelwert, Stirn- und Rückenhalbwertszeit, Ladung und Spezifische Energie die Toleranzen einhalten. Ein umfangreicher Vergleich von CLR-Reihenkreis und Crowbar-Stoßkreis zeigt in Abhängigkeit vom Charakter der Belastung (Impedanz, Lichtbogen, Varistor) die unterschiedlichen Rückwirkungen auf den Stromverlauf. Die Erzeugung von Langzeitströmen wird am Beispiel von Kettenleitern und von stark bedämpften CLR-Kreisen betrachtet. Speziell ausgelegte Generatorschaltungen sind geeignet, weitere Stromformen, wie unipolare Stoßströme der Form 8/20 mys oder Sinushalbwellenströme, zu liefern. Untersucht wird, wie ein Generator als Kombinationsstoßkreis mit geringem Umgestaltungsaufwand aufgebaut werden kann, um die zwei häufig benötigten, aber deutlich unterschiedlichen Stromformen 10/350 mys und 8/20 mys zu erzeugen.



TEST4http://www.gbv.de/dms/ilmenau/toc/727516094.PDF
Schaaf, Peter
Materials for energy and power engineering : (Werkstoffe für die Elektrotechnik) ; Ilmenau University of Technology, 4 - 7 September 2012
[Online-Ausg.] - Ilmenau : Univ.-Verl. Ilmenau, 2012 - Online-Ressource (PDF-Datei: 106 S., 6,95 MB). . - (Werkstofftechnik aktuell. - 7)Literaturangaben

This booklet represents the proceedings of the workshop "Materials for Energy and Power Engineering" held in September 2012 during the IWK 2012 in Ilmenau. Here, the latest developments related to materials in energy and power engineering are reported. This comprises the latest research results and developments from university and industry. The topics are covering advanced materials for energy transport, advanced materials for energy distribution and delivery, advanced materials for energy storage, advanced materials for energy conversion, and advanced materials for energy control and management. Thus, it gives a current overview of the field of materials for energy and power engineering.



http://www.db-thueringen.de/servlets/DocumentServlet?id=20825
Seitz, Jochen
Tagungsband : Technische Universität Ilmenau, 7. September 2012
[Online-Ausg.] - Ilmenau : Univ.-Verl. Ilmenau, 2012 - Online-Ressource (PDF-Datei: 134 S., 1,87 MB). Literaturangaben

Im Februar 1995 veranstaltete das Fachgebiet Kommunikationsnetze erstmalig einen Workshop zu "Branchentypischen Anwendungen in der Informations- und Telekommunikationstechnik". Er diente der Diskussion des Weiterbildungsbedarfs mit Partnern aus der Praxis in Vorbereitung des berufsbegleitenden Weiterbildungsstudienganges "Telekommunikations-Manager". Dieser, kurz TK-Manager genannte Studiengang wird seit 1996 erfolgreich durchgeführt, hat bereits etwa 100 Absolventen in einen neuen Arbeitsabschnitt entlassen. Seit 1998 findet regelmäßig der "Ilmenauer TK-Manager Workshop" statt, an welchem Absolventen des Studienganges mit interessierten Partnern aus anderen Bildungseinrichtungen und der Wirtschaft ihre Erfahrungen austauschen und aktuelle Entwicklungen aus dem Informations- und Kommunikationssektor diskutieren. Das Spektrum der Vorträge umfasst daher Themen aus der Informations- und Kommunikationstechnik über Protokoll- und Dienstaspekte in speziellen Anwendungsbereichen (wie beispielsweise Green Computing, Automotive, Cloud Computing) bis hin zu ökonomischen, personellen oder rechtlichen Fragstellungen mit Bezug zur Telekommunikation. In diesem Jahr führen wir nunmehr den Workshop zum zwölften Mal durch, das dritte Mal innerhalb des Internationalen Wissenschaftlichen Kolloquiums (IWK). Die Beiträge des Workshops und darüber hinaus aktuelle Forschungsthemen des Fachgebiets Kommunikationsnetze, das für den TK-Manager federführend ist, sind in diesem Tagungsband zusammengefasst.



http://www.db-thueringen.de/servlets/DocumentServlet?id=20784
Guliyev, Elshad;
Eine Nanopositioniervorrichtung mit integrierten piezoresistiven Sensoren für Hochgeschwindigkeits-Rastersondenmikroskopie-Anwendungen - Ilmenau : Univ.-Verl. Ilmenau, 2012 - XII, 117 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2011
Enth. außerdem: Thesen

Der Fokus dieser Arbeit liegt auf der Entwicklung einer quasi-monolithischen Nanopositioniervorrichtung für die Anwendung in Hochgeschwindigkeits-Rastersondenmikroskopie-Systemen. Das Konzept der in dieser Arbeit entwickelten neuen Nanopositioniervorrichtung stellt die quasi-monolithische Integration der kinematischen Konstruktion aus monokristallinem Silizium, der piezoelektrischen Aktoren und der piezoresistiven Sensoren dar. Eine monolithische Integration der Piezowiderstände in die Verformungselemente der kinematischen Konstruktion aus Silizium ermöglicht eine Kompensation von möglichen Nichtlinearitäten. Die entwickelte Positioniervorrichtung wurde als Prototyp implementiert und die Funktionsfähigkeit experimentell bestätigt. In einem Rasterkraftmikroskopiesystem wurden Kalibrierung und Probemessungen erfolgreich durchgeführt.



TEST4http://www.gbv.de/dms/ilmenau/toc/723912645.PDF
Schaaf, Peter
Materials for energy and power engineering : Ilmenau University of Technology, 4 - 7 September 2012 ; [proceedings of the workshop "Materials for Energy and Power Engineering" held in September 2012 during the IWK 2012 in Ilmenau] - Ilmenau : Univ.-Verl. Ilmenau, 2012 - 106 S.. . - (Werkstofftechnik aktuell. - 7)Literaturangaben

This booklet represents the proceedings of the workshop "Materials for Energy and Power Engineering" held in September 2012 during the IWK 2012 in Ilmenau. Here, the latest developments related to materials in energy and power engineering are reported. This comprises the latest research results and developments from university and industry. The topics are covering advanced materials for energy transport, advanced materials for energy distribution and delivery, advanced materials for energy storage, advanced materials for energy conversion, and advanced materials for energy control and management. Thus, it gives a current overview of the field of materials for energy and power engineering.



TEST4http://www.gbv.de/dms/ilmenau/toc/723851662.PDF
Seitz, Jochen
Tagungsband : Technische Universität Ilmenau, 7. September 2012 - Ilmenau : Univ.-Verl. Ilmenau, 2012 - 134 S.. Literaturangaben

Im Februar 1995 veranstaltete das Fachgebiet Kommunikationsnetze erstmalig einen Workshop zu "Branchentypischen Anwendungen in der Informations- und Telekommunikationstechnik". Er diente der Diskussion des Weiterbildungsbedarfs mit Partnern aus der Praxis in Vorbereitung des berufsbegleitenden Weiterbildungsstudienganges "Telekommunikations-Manager". Dieser, kurz TK-Manager genannte Studiengang wird seit 1996 erfolgreich durchgeführt, hat bereits etwa 100 Absolventen in einen neuen Arbeitsabschnitt entlassen. Seit 1998 findet regelmäßig der "Ilmenauer TK-Manager Workshop" statt, an welchem Absolventen des Studienganges mit interessierten Partnern aus anderen Bildungseinrichtungen und der Wirtschaft ihre Erfahrungen austauschen und aktuelle Entwicklungen aus dem Informations- und Kommunikationssektor diskutieren. Das Spektrum der Vorträge umfasst daher Themen aus der Informations- und Kommunikationstechnik über Protokoll- und Dienstaspekte in speziellen Anwendungsbereichen (wie beispielsweise Green Computing, Automotive, Cloud Computing) bis hin zu ökonomischen, personellen oder rechtlichen Fragstellungen mit Bezug zur Telekommunikation. In diesem Jahr führen wir nunmehr den Workshop zum zwölften Mal durch, das dritte Mal innerhalb des Internationalen Wissenschaftlichen Kolloquiums (IWK). Die Beiträge des Workshops und darüber hinaus aktuelle Forschungsthemen des Fachgebiets Kommunikationsnetze, das für den TK-Manager federführend ist, sind in diesem Tagungsband zusammengefasst.



TEST4http://www.gbv.de/dms/ilmenau/toc/723850720.PDF
Hilgers, Peter;
Verteilte Zustandsschätzung nichtlinearer Systeme - Ilmenau : Univ.-Verl. Ilmenau, 2012 - Online-Ressource (PDF-Datei: XXXVIII, 202 S., 5,90 MB). Ilmenau : Techn. Univ., Diss., 2012
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

Die Arbeit handelt von der Kombination des Unscented Kalman-Filters mit den Methoden der Dezentralisierung, Verteilung und Fusion. Zu Anfang werden die allgemeinen Grundlagen der optimalen Zustandsschätzung für das lineare Filter hergeleitet. Aus diesen Betrachtungen, die auch mit Blick auf die praktische Umsetzbarkeit geführt werden, wird dann das Unscented Kalman-Filter beschrieben, welches gegenüber anderen nichtlinearen Erweiterungen deutliche Vorteile bietet. Die Gemeinsamkeiten beider Filterstrukturen werden herausgearbeitet. In der Folge werden zunächst die Dezentralisierung und Verteilung des linearen Filters präsentiert. Auf Grund der Ähnlichkeiten der beiden Filter können diese dann erfolgreich übertragen werden, so dass das Verteilte Und Dezentrale Unscented Kalman-Filter präsentiert werden kann. Zum erfolgreichen Einsatz dieser Methoden ist eine Verteilung eines globalen, nichtlinearen Systemmodells notwendig. Das vorgestellte Verfahren beruht auf einer Partitionierung des Systems. Für direkte Zustände werden die Differentialgleichungen formuliert. Für weitere Zustände wird eine Modellierung ohne eigene Dynamik vorgenommen. Der Frage der Beobachtbarkeit für nichtlineare Filter und deren dezentrale und verteilte Anwendung wird ebenfalls nachgegangen. Es wird gezeigt, dass die Benutzung der empirischen Gramschen Beobachtbarkeitsmatrix für den praktischen Einsatz besonders gut geeignet ist. Die Anwendung dieser Konzepte erfolgt auf zwei Systemen mit unterschiedlichen Voraussetzungen. An einem Dreitanksystem wird das verteilte Filter gezeigt. Danach folgt der Einsatz in einem Multilasertrackersystem. Dieses wird sowohl dezentral als auch verteilt benutzt. Der dezentrale Einsatz des Filters zeigt, dass in allen Filterknoten die Schätzungen miteinander übereinstimmen. Bei der verteilten Schätzung wird durch die damit verbundene Ordnungsreduktion erreicht, dass in den einzelnen Knoten nie der gesamte globale Zustandsvektor geschätzt werden muss. Neben diesen Ansätzen werden auch der Ausfall von Messeinrichtungen und die Umkonfiguration des Systems simuliert. Durch das Filternetzwerk entsteht ein gegenüber Störungen robuster Beobachter. Ebenso können zur Laufzeit Anpassungen der Topologie vorgenommen werden. Die durch die Verteilung entstehende Ordnungsreduktion schlägt sich in einem verringerten Rechenbedarf pro Knoten nieder.


https://external.dandelon.com/download/attachments/dandelon/ids/DE010E95771976F799D1BC1257B0800338A2B.pdfTEST2

Novitskiy, Alexander; Arlt, Dorothee; Wolling, Jens; Westermann, Dirk
Freileitungen oder Erdkabelleitungen? : eine Metastudie über die Kriterien und Ergebnisse von Untersuchungen zum Netzausbau - Ilmenau : Univ.-Verl. Ilmenau, 2012 - 150 S.. . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - 2)

In der Vorbereitungs- und Bewilligungsphase von Netzausbaumaßnahmen im Übertragungsnetz werden verschiedene Technologieoptionen auf sehr unterschiedlichen inhaltlichen Ebenen diskutiert. Im Fokus der Diskussion steht dabei der Vergleich zwischen Freileitungen und Erdkabelleitungen. In diesem Zusammenhang sind in den letzten Jahren eine Vielzahl von Untersuchungen und Publikationen angefertigt worden, die sich in allgemeiner Weise und auch bezüglich konkreter Ausbauvorhaben der Problematik des Technologievergleichs annehmen. Durch eine Analyse dieser Primäruntersuchungen und Projekte wird in der vorliegenden Metastudie der vorhandene Erkenntnisstand zum Thema Freileitungen und Erdkabelleitungen aufgearbeitet und zusammenfassend dargestellt. Untersucht wurden dazu Studien zum Netzausbau im Höchstspannungs-Übertragungsnetz (220kV und 380kV), die im Zeitraum 2000 bis Anfang 2011 im europäischen Raum durchgeführt und publiziert wurden. Dazu wurde ein Kriterienkatalog verwendet, der sowohl technische, ökonomische, ökologische, gesundheitliche als auch soziale Faktoren mit einbezieht. In der Publikation werden die Befunde zu den einzelnen Kriterien zusammenfassend dargestellt und für Freileitungen und Erdkabelleitungen gegenübergestellt.



TEST4http://www.gbv.de/dms/ilmenau/toc/721955800.PDF
Hilgers, Peter;
Verteilte Zustandsschätzung nichtlinearer Systeme - Ilmenau : Univ.-Verl. Ilmenau, 2012 - XXVIII, 202 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2012
Zsfassung in engl. Sprache

Die Arbeit handelt von der Kombination des Unscented Kalman-Filters mit den Methoden der Dezentralisierung, Verteilung und Fusion. Zu Anfang werden die allgemeinen Grundlagen der optimalen Zustandsschätzung für das lineare Filter hergeleitet. Aus diesen Betrachtungen, die auch mit Blick auf die praktische Umsetzbarkeit geführt werden, wird dann das Unscented Kalman-Filter beschrieben, welches gegenüber anderen nichtlinearen Erweiterungen deutliche Vorteile bietet. Die Gemeinsamkeiten beider Filterstrukturen werden herausgearbeitet. In der Folge werden zunächst die Dezentralisierung und Verteilung des linearen Filters präsentiert. Auf Grund der Ähnlichkeiten der beiden Filter können diese dann erfolgreich übertragen werden, so dass das Verteilte Und Dezentrale Unscented Kalman-Filter präsentiert werden kann. Zum erfolgreichen Einsatz dieser Methoden ist eine Verteilung eines globalen, nichtlinearen Systemmodells notwendig. Das vorgestellte Verfahren beruht auf einer Partitionierung des Systems. Für direkte Zustände werden die Differentialgleichungen formuliert. Für weitere Zustände wird eine Modellierung ohne eigene Dynamik vorgenommen. Der Frage der Beobachtbarkeit für nichtlineare Filter und deren dezentrale und verteilte Anwendung wird ebenfalls nachgegangen. Es wird gezeigt, dass die Benutzung der empirischen Gramschen Beobachtbarkeitsmatrix für den praktischen Einsatz besonders gut geeignet ist. Die Anwendung dieser Konzepte erfolgt auf zwei Systemen mit unterschiedlichen Voraussetzungen. An einem Dreitanksystem wird das verteilte Filter gezeigt. Danach folgt der Einsatz in einem Multilasertrackersystem. Dieses wird sowohl dezentral als auch verteilt benutzt. Der dezentrale Einsatz des Filters zeigt, dass in allen Filterknoten die Schätzungen miteinander übereinstimmen. Bei der verteilten Schätzung wird durch die damit verbundene Ordnungsreduktion erreicht, dass in den einzelnen Knoten nie der gesamte globale Zustandsvektor geschätzt werden muss. Neben diesen Ansätzen werden auch der Ausfall von Messeinrichtungen und die Umkonfiguration des Systems simuliert. Durch das Filternetzwerk entsteht ein gegenüber Störungen robuster Beobachter. Ebenso können zur Laufzeit Anpassungen der Topologie vorgenommen werden. Die durch die Verteilung entstehende Ordnungsreduktion schlägt sich in einem verringerten Rechenbedarf pro Knoten nieder.



TEST4http://www.gbv.de/dms/ilmenau/toc/721943373.PDF
Novitskiy, Alexander; Arlt, Dorothee; Wolling, Jens; Westermann, Dirk
Freileitungen oder Erdkabelleitungen? : eine Metastudie über die Kriterien und Ergebnisse von Untersuchungen zum Netzausbau
[Online-Ausg.] - Ilmenau : Univ.-Verl. Ilmenau, 2012 - Online-Ressource (PDF-Datei: 150 S., 1,93 MB). . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - 2)Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

In der Vorbereitungs- und Bewilligungsphase von Netzausbaumaßnahmen im Übertragungsnetz werden verschiedene Technologieoptionen auf sehr unterschiedlichen inhaltlichen Ebenen diskutiert. Im Fokus der Diskussion steht dabei der Vergleich zwischen Freileitungen und Erdkabelleitungen. In diesem Zusammenhang sind in den letzten Jahren eine Vielzahl von Untersuchungen und Publikationen angefertigt worden, die sich in allgemeiner Weise und auch bezüglich konkreter Ausbauvorhaben der Problematik des Technologievergleichs annehmen. Durch eine Analyse dieser Primäruntersuchungen und Projekte wird in der vorliegenden Metastudie der vorhandene Erkenntnisstand zum Thema Freileitungen und Erdkabelleitungen aufgearbeitet und zusammenfassend dargestellt. Untersucht wurden dazu Studien zum Netzausbau im Höchstspannungs-Übertragungsnetz (220kV und 380kV), die im Zeitraum 2000 bis Anfang 2011 im europäischen Raum durchgeführt und publiziert wurden. Dazu wurde ein Kriterienkatalog verwendet, der sowohl technische, ökonomische, ökologische, gesundheitliche als auch soziale Faktoren mit einbezieht. In der Publikation werden die Befunde zu den einzelnen Kriterien zusammenfassend dargestellt und für Freileitungen und Erdkabelleitungen gegenübergestellt.



http://www.db-thueringen.de/servlets/DocumentServlet?id=20515
Husung, Stephan;
Simulation akustischer Produkteigenschaften unter Nutzung der Virtual Reality während der Produktentwicklung - Ilmenau : Univ.-Verl. Ilmenau, 2012 - XXI, 190 S.. . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - 20) Zugl.: Ilmenau : Techn. Univ., Diss., 2011

In der Dissertation werden Grundlagen zur Nutzung der audio-visuellen VR in der Produktentwicklung erarbeitet. Damit die akustischen Produkteigenschaften technischer Systeme in der VR hörbar gemacht werden können, wird eine Repräsentation für diese Eigenschaften, verbunden mit der Gestaltbeschreibung, geschaffen. Ein Schwerpunkt der Untersuchungen ist die Repräsentation der richtungsabhängigen Schallabstrahlung technischer Systeme im VR-Modell. Weiterhin werden Modelle entwickelt, die eine echtzeitfähige Simulation akustischer Produkteigenschaften auf der Körperschallebene ermöglichen. Hierfür wird eine komponentenweise Modellierung eingeführt. Durch eine generische Modellierung mit getrennter Datenhaltung und bereitstellung lassen sich die Parameter den Modellen effizient zuweisen. Für den Datenaustausch zwischen Simulations- und VR-Modell wird ein Kommunikationsserver entwickelt. Anhand eines Anwendungsbeispiels werden die Vorteile der parametrischen Modellbeschreibung erörtert.



TEST4http://www.gbv.de/dms/ilmenau/abs/720233593husun.txt
Kuchinke, Björn A.; Sundmacher, Torsten; Zerth, Jürgen
Märkte und Versorgung : [... ausgewählte Beiträge des siebten Duisburg-Ilmenau-Bayreuther Oberseminars zur Gesundheitsökonomie und Sozialpolitik (DIBOGS) ... am 27. und 28. Oktober 2011 in Hamburg] - Ilmenau : Univ.-Verl. Ilmenau - 93 S.. . - (DIBOGS-Beiträge zur Gesundheitsökonomie und Sozialpolitik. - 6)Literaturangaben

Mit dem vorliegenden sechsten Band der Reihe "DIBOGS-Beiträge zur Gesundheitsökonomie und Sozialpolitik" werden nun wieder ausgewählte Workshopbeiträge einer breiten Öffentlichkeit vorgestellt. Der Schwerpunkt des vorliegenden Bandes liegt auf der Analyse von alternativen Märkten und Aspekten der Versorgung mit Gesundheitsdienstleistungen. Im ersten Beitrag von Birg wird die Frage von Großhandelspannen und Parallelhandel behandelt. Kuchinke/Akmaz/Janetzky gehen in in ihrem Artikel auf die Frage einer spezifischen Erkrankung, nämlich Morbus Parkinson, ein und analysieren die Auswirkungen einer frühen Diagnose sowie einer angepassten medikamentösen Therapie auf die Kosten. Schmid gibt einen Überblick über die Konzentrationsprozesse auf deutschen Krankenhausmärkten und analysiert deren Implikationen. Schneider/Schneider untersuchen hingegen die Wartezeiten bei Facharztbesuchen und die Folgen für die Gesundheit.



TEST4http://www.gbv.de/dms/ilmenau/toc/719958970.PDF
Agsten, Michael;
Einfluss gesteuerten Ladens von Elektrofahrzeugen auf die Netzbetriebsführung bei volatiler Windeinspeisung - Ilmenau : Univ.-Verl. Ilmenau, 2012 - 142, LVII S.. . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - 1) Teilw. zugl.: Ilmenau : Techn. Univ., Diss., 2011

Die Arbeit fasst Erkenntnisse zum gesteuerten Laden von Elektrofahrzeugen (EVs) bei volatiler Windeinspeisung zusammen. Ausgehend vom Stand der Technik zur gesteuerten Ladung von EVs werden auf Grundlage sich in Entwicklung befindlicher Verfahren zum Austausch von Informationen zwischen EV und Ladepunkt zur Aushandlung von Ladevorgängen zwei Betriebsverfahren gezeigt. Das Wind-2-Vehicle-Verfahren (W2V) ist Beispiel für die Nutzung gesteuerten Ladens von EVs, um einen regenerativer Einspeisung folgenden Bedarf zu realisieren. Das Lokale Lastmanagement (LLM) ist ein Beispiel, um Informationen aus dem Verteilnetz zu nutzen, um die Ladeleistung von EVs zeitlich zu begrenzen. In einer Fallstudie werden fünfzig EVs durch einen reduzierten W2V-Ansatz gesteuert. In einer zweiten Fallstudie wird anhand von Zeitreihensimulationen nachgewiesen, dass gesteuertes und ungesteuertes Laden zu Verletzungen festgelegter Grenzwerte in Verteilnetzen führen kann. Die Anwendung des entwickelten LLM Verfahrens zeigt, dass bei geringer Reduktion der erzielbaren W2V-Güte große und kleine Flotten gesteuert geladen werden können, ohne dass weiterhin betrieblich festgelegte Grenzwerte verletzt werden.



TEST4http://www.gbv.de/dms/ilmenau/toc/719849799.PDF
Kuchinke, Björn A.; Sundmacher, Torsten; Zerth, Jürgen
Märkte und Versorgung : [... ausgewählte Beiträge des siebten Duisburg-Ilmenau-Bayreuther Oberseminars zur Gesundheitsökonomie und Sozialpolitik (DIBOGS) ... am 27. und 28. Oktober 2011 in Hamburg] - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: 93 S., 826,4 KB). . - (DIBOGS-Beiträge zur Gesundheitsökonomie und Sozialpolitik. - 6)Literaturangaben
http://d-nb.info/1024469948/04TEST2

Agsten, Michael;
Einfluss gesteuerten Ladens von Elektrofahrzeugen auf die Netzbetriebsführung bei volatiler Windeinspeisung - Ilmenau : Univ.-Verl. Ilmenau, 2012 - Online-Ressource (PDF-Datei: 142, LVII S., 6,52 MB). . - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik. - 1) Teilw. zugl.: Ilmenau : Techn. Univ., Diss., 2011
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

Die Arbeit fasst Erkenntnisse zum gesteuerten Laden von Elektrofahrzeugen (EVs) bei volatiler Windeinspeisung zusammen. Ausgehend vom Stand der Technik zur gesteuerten Ladung von EVs werden auf Grundlage sich in Entwicklung befindlicher Verfahren zum Austausch von Informationen zwischen EV und Ladepunkt zur Aushandlung von Ladevorgängen zwei Betriebsverfahren gezeigt. Das Wind-2-Vehicle-Verfahren (W2V) ist Beispiel für die Nutzung gesteuerten Ladens von EVs, um einen regenerativer Einspeisung folgenden Bedarf zu realisieren. Das Lokale Lastmanagement (LLM) ist ein Beispiel, um Informationen aus dem Verteilnetz zu nutzen, um die Ladeleistung von EVs zeitlich zu begrenzen. In einer Fallstudie werden fünfzig EVs durch einen reduzierten W2V-Ansatz gesteuert. In einer zweiten Fallstudie wird anhand von Zeitreihensimulationen nachgewiesen, dass gesteuertes und ungesteuertes Laden zu Verletzungen festgelegter Grenzwerte in Verteilnetzen führen kann. Die Anwendung des entwickelten LLM Verfahrens zeigt, dass bei geringer Reduktion der erzielbaren W2V-Güte große und kleine Flotten gesteuert geladen werden können, ohne dass weiterhin betrieblich festgelegte Grenzwerte verletzt werden.



http://www.db-thueringen.de/servlets/DocumentServlet?id=20196
Vrábel', Róbert;
Nonlinear dynamical systems with high-speed feedback - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: 107 S., 560,1 KB). . - (Scientific monographs in automation and computer science. - 4) Teilw. zugl.: Bratislava : Univ., Habil.-Schr.
Literaturangaben

The aim of the work is to contribute to the qualitative and quantitative analysis of nonlinear dynamical systems of the second order with high-speed feedback, which can also be generally introduced into higher order systems which at present are gaining an increasing amount of popularity in use of the high-frequency oscillators in electronic circuits. Singular Perturbation Theory is the mathematical framework that yields the tools to explore the complicated dynamical behavior of these systems. The work gives an overview of some methods used to investigate the dynamics of singularly perturbed nonlinear systems, for which does not exist a comprehensive theory that would give us an overall view of their behavior. This issue is currently happening world wide, not only in the mathematical community when dealing with the theory and application of nonlinear dynamical systems, but also in the field of electrical engineering and automation.


http://d-nb.info/1019901152/04TEST2

Bezák, Tomáš;
Usage of IEC 61131 and IEC 61499 standards for creating distributed control systems - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: 121 S., 1,44 MB). . - (Scientific monographs in automation and computer science. - 3) Teilw. zugl.: Bratislava : Univ., Diss.
Literaturverz. S. 114 - 119

This publication deals with the application of standards for industrial automation during distributed control systems design. Control systems design consists of a choice between two approaches based on the standards, IEC 61131 and IEC 61499. The question is which of the standards to use for distributed control systems design. The most commonly used standards are briefly listed in the introduction section. Then follows a more detailed description of the IEC 61131 and IEC 61499 standards, future development of the IEC 61499 standard and its usage during the creation of distributed control systems. Further on are lists and descriptions of existing commercial and research software tools, which are necessary in implementing this standard. The main section deals with the methodology for standard application comparison and criteria selection for comparing. This methodology is then verified on real control systems. The final section includes methodology generalization for suitable approach selection, resulting in recommendations for which standard to choose during creation of distributed control systems.


http://d-nb.info/1019901144/04TEST2

Strémy, Maximilán;
Combined discrete control systems - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: 94 S., 1,25 MB). . - (Scientific monographs in automation and computer science. - 2) Teilw. zugl.: Bratislava : Univ., Diss.
Literaturverz. S. 76 - 80

Combined control dynamic systems comprise both parts of discrete systems: real-time activated discrete dynamic systems as well as discrete event dynamic systems. The combination of cyclically recurring processes with stochastically generated events significantly intervenes into the control, while also affecting the choice of the right sample period, as it is necessary to process all the generated interruptions within the cycle. The current monograph focuses on the analysis of combined control systems and determination of the stochastic event element of the sample period. It proposes an appropriate sample period for combined control systems and introduces a methodology for determining the impact of a stochastic element on the system stability and properties. The main contribution of the monograph is the design of an adaptive algorithm for events processing and auto-correction of the event element of sample period.


http://d-nb.info/1019901136/04TEST2

Eliáš, Michal;
3D model reconstruction from vector perpendicular projections - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: 102 S., 1,19 MB). . - (Scientific monographs in automation and computer science. - 1) Teilw. zugl.: Bratislava : Univ., Diss.
Literaturverz. S. 88 - 96

This scientific monograph deals with the issue of 3D model reconstruction of a rotation part from its orthogonal projections recorded on a digitalized drawing in vector format and with computer-aided automation of the process. The topic is a partial task of the domain focused on generating the 3D part model or product from a technical drawing. The introduction comments on the analysis of the current state of information in the field. The rules of projecting the parts in a technical drawing are described as well as the related terminology and methods in computer graphics, mathematics and geometry. The computer-aided ways of modeling solids are analyzed. The introductory part is complemented by an overview of existing solutions by other authors and by the possibilities of my own method development. The monograph core is focused on the proposal of proceedings and algorithms for transformation process automation of 2D vector record comprising orthogonal projections representing the rotation part on a 3D model. The pilot implementations of algorithms and their verification by testing on the selected sample of geometric shapes are added.


http://d-nb.info/1019900911/04TEST2

Spiegler, Andreas;
Dynamics of biologically informed neurals mass models of the brain - Ilmenau : Univ.-Verl. Ilmenau, 2012 - Online-Ressource (PDF-Datei: 193 S., 5,02 MB). Ilmenau : Techn. Univ., Diss., 2011

Die vorliegende Arbeit stellt einen Beitrag zur Entwicklung und Analyse von Computermodellen zum Verständnis von Hirnfunktionen dar. Es wird die mittlere Aktivität eines Hirnareals analytisch einfach und dabei biologisch plausibel modelliert. Auf Grundlage eines Neuronalen Massenmodells (NMM) werden die Wechsel zwischen Oszillationsregimen (z.B. durch pharmakologisch, epilepsie-, schlaf- oder kontextbedingte Zustandsänderungen) als geordnete Folge beschrieben und Resonanzphänomene in einem Photic-Driving-Experiment erklärt. Dieses NMM kann sehr komplexe Dynamiken (z.B. Chaos) innerhalb biologisch plausibler Parameterbereiche hervorbringen. Um das Verhalten abzuschätzen, wird das NMM als Funktion konstanter Eingangsgrößen und charakteristischer Zeitenkonstanten vollständig auf Bifurkationen untersucht und klassifiziert. Dies ermöglicht die Beschreibung wechselnder Regime als geordnete Folge durch spezifische Eingangstrajektorien. Es wird ein Prinzip vorgestellt, um komplexe Phänomene durch Prozesse verschiedener Zeitskalen darzustellen. Da aufgrund rhythmischer Stimuli und der intrinsischen Rhythmen von Neuronenverbänden die Eingangsgrößen häufig periodisch sind, wird das Verhalten des NMM als Funktion der Intensität und Frequenz einer periodischen Stimulation mittels der zugehörigen Lyapunov-Spektren und der Zeitreihen charakterisiert. Auf der Basis der größten Lyapunov-Exponenten wird das NMM mit dem Photic-Driving-Experiment überein gebracht. Dieses Experiment findet routinemäßige Anwendung in der Diagnostik verschiedener Erkrankungen wie Epilepsie, Migräne, Schizophrenie und Depression. Durch die Anwendung des vorgestellten NMM wird der für die Diagnostik entscheidende Mitnahmeeffekt reproduziert und es werden Vorhersagen für eine Verbesserung der Indikation getroffen.


http://d-nb.info/1023850877/04TEST2

Spiegler, Andreas;
Dynamics of biologically informed neurals mass models of the brain - Ilmenau : Univ.-Verl. Ilmenau, 2012 - 193 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2011
Literaturverz. S. 165 - 189

Die vorliegende Arbeit stellt einen Beitrag zur Entwicklung und Analyse von Computermodellen zum Verständnis von Hirnfunktionen dar. Es wird die mittlere Aktivität eines Hirnareals analytisch einfach und dabei biologisch plausibel modelliert. Auf Grundlage eines Neuronalen Massenmodells (NMM) werden die Wechsel zwischen Oszillationsregimen (z.B. durch pharmakologisch, epilepsie-, schlaf- oder kontextbedingte Zustandsänderungen) als geordnete Folge beschrieben und Resonanzphänomene in einem Photic-Driving-Experiment erklärt. Dieses NMM kann sehr komplexe Dynamiken (z.B. Chaos) innerhalb biologisch plausibler Parameterbereiche hervorbringen. Um das Verhalten abzuschätzen, wird das NMM als Funktion konstanter Eingangsgrößen und charakteristischer Zeitenkonstanten vollständig auf Bifurkationen untersucht und klassifiziert. Dies ermöglicht die Beschreibung wechselnder Regime als geordnete Folge durch spezifische Eingangstrajektorien. Es wird ein Prinzip vorgestellt, um komplexe Phänomene durch Prozesse verschiedener Zeitskalen darzustellen. Da aufgrund rhythmischer Stimuli und der intrinsischen Rhythmen von Neuronenverbänden die Eingangsgrößen häufig periodisch sind, wird das Verhalten des NMM als Funktion der Intensität und Frequenz einer periodischen Stimulation mittels der zugehörigen Lyapunov-Spektren und der Zeitreihen charakterisiert. Auf der Basis der größten Lyapunov-Exponenten wird das NMM mit dem Photic-Driving-Experiment überein gebracht. Dieses Experiment findet routinemäßige Anwendung in der Diagnostik verschiedener Erkrankungen wie Epilepsie, Migräne, Schizophrenie und Depression. Durch die Anwendung des vorgestellten NMM wird der für die Diagnostik entscheidende Mitnahmeeffekt reproduziert und es werden Vorhersagen für eine Verbesserung der Indikation getroffen.



TEST4http://www.gbv.de/dms/ilmenau/toc/718576403.PDF
Fechner, Frank
Zeugenbeeinflussung durch Medien : philosophische, psychologische und juristische Gedanken zu einem Aspekt der "Litigation-PR" - Ilmenau : Univ.-Verl. Ilmenau, 2012 - Online-Ressource (PDF-Datei: 146 S., 1,92 MB). . - (Medienrechtliche Schriften. - 9)

Band 9 der "Medienrechtlichen Schriften" geht der Frage nach, inwieweit und auf welche Weise Medien in der Lage sind, Einfluss auf Zeugen auszuüben. Denkbar sind Vorverurteilungen des Angeklagten ebenso wie umgekehrt das Erwecken von Mitleid für seine Person, wodurch zumindest Zeugen bei ihrer Aussage, möglicherweise auch Richter beim Urteilsspruch, beeinflusst werden können. Im Folgenden soll indessen noch einer weitergehenden Fragestellung nachgegangen werden. Kann es sein, dass ein Zeuge aufgrund eines Medienberichts unbewusst falsch aussagt? Können Medienberichte stärker wirken als die eigene Wahrnehmung? Um sich einer Antwort zu nähern, bedarf es eines interdisziplinären Ansatzes.


http://d-nb.info/1023780445/04TEST2

Fechner, Frank
Zeugenbeeinflussung durch Medien : philosophische, psychologische und juristische Gedanken zu einem Aspekt der "Litigation-PR" - Ilmenau : Univ.-Verl. Ilmenau, 2012 - 146 S.. . - (Medienrechtliche Schriften. - 9) ISBN 3863600258 = 978-3-86360-025-9

Band 9 der "Medienrechtlichen Schriften" geht der Frage nach, inwieweit und auf welche Weise Medien in der Lage sind, Einfluss auf Zeugen auszuüben. Denkbar sind Vorverurteilungen des Angeklagten ebenso wie umgekehrt das Erwecken von Mitleid für seine Person, wodurch zumindest Zeugen bei ihrer Aussage, möglicherweise auch Richter beim Urteilsspruch, beeinflusst werden können. Im Folgenden soll indessen noch einer weitergehenden Fragestellung nachgegangen werden. Kann es sein, dass ein Zeuge aufgrund eines Medienberichts unbewusst falsch aussagt? Können Medienberichte stärker wirken als die eigene Wahrnehmung? Um sich einer Antwort zu nähern, bedarf es eines interdisziplinären Ansatzes.



TEST4http://www.gbv.de/dms/ilmenau/toc/717755991.PDF
Brčina, Robert;
Zielorientierte Erkennung und Behebung von Qualitätsdefiziten in Software-Systemen am Beispiel der Weiterentwicklungsfähigkeit - Ilmenau : Univ.-Verl. Ilmenau, 2012 - Online-Ressource (PDF-Datei: XVI, 207 S., 5,33 MB). Zugl.: Ilmenau : Techn. Univ., Diss., 2011
Enth. außerdem: Thesen

Für unternehmenskritische Software-Systeme, die langlebig und erweiterbar sein sollen, ist das Qualitätsziel Weiterentwicklungsfähigkeit essentiell. Kontinuierliche Änderungen und Erweiterungen sind unabdingbar, um solche Software-Systeme an neue oder veränderte Anforderungen anzupassen. Diese Maßnahmen verursachen aber auch oft Qualitätsdefizite, die zu einem Anstieg der Komplexität oder einem Verfall der Architektur führen können. Gerade Qualitätsdefizite in der Spezifikation oder Architektur können Software-Systeme stark beeinträchtigen. Um dem entgegenzuwirken, wird in dieser Arbeit eine Methode entwickelt, welche die Einhaltung von Qualitätszielen bewerten kann. Dadurch wird sowohl das Erkennen als auch das Beheben von Qualitätsdefiziten in der Software-Entwicklung ermöglicht. Qualitätsdefizite werden anhand einer am Qualitätsziel orientierten und regelbasierten Analyse erkannt und durch zugeordnete Reengineering-Aktivitäten behoben. Als Beispiel für ein Qualitätsziel wird die Weiterentwicklungsfähigkeit von Software-Systemen betrachtet. Es wird gezeigt, wie dieses Qualitätsziel anhand von strukturellen Abhängigkeiten in Software-Systemen bewertet und durch gezielte Reengineering-Aktivitäten verbessert werden kann. Um die Methode zu validieren, wurde eine industrielle Fallstudie durchgeführt. Durch den Einsatz der Methode konnten eine Vielzahl von Qualitätsdefiziten erkannt und behoben werden. Die Weiterentwicklungsfähigkeit des untersuchten Software-Systems wurde durch die vorgeschlagenen Reengineering-Aktivitäten entscheidend verbessert.


http://d-nb.info/1020736143/04TEST2

Brähler, Gernot; Trost, Ralf
Besteuerung, Finanzierung und Unternehmensnachfolge in kleinen und mittleren Unternehmen - Ilmenau : Universitätsverlag Ilmenau, 2012 - VIII, 489 Seiten. Enthält 17 Beiträge

Der Mittelstand wird gemeinhin als Rückgrat der deutschen Wirtschaft bezeichnet. Aufgrund der spezifischen Strukturen kleiner und mittlerer Unternehmen werden diese von der Dynamik ihres wirtschaftlichen Umfelds immer wieder vor neue Herausforderungen gestellt. Wesentliche Problemfelder stellen hier die Besteuerung, Finanzierung und Unternehmensnachfolge dar. Zu diesen Themenbereichen enthält das Werk daher wissenschaftlich fundierte sowie praxisorientierte Beiträge: - Im Bereich der Besteuerung werden speziell für KMU bestehende steuerliche Gestaltungsspielräume aufgedeckt und Handlungsempfehlungen zur Steueroptimierung gegeben. - Im Bereich der Finanzierung werden die erhöhten Anforderungen an das Finanzmanagement ebenso wie alternative Finanzierungsmöglichkeiten diskutiert und Lösungsvorschläge erarbeitet. - Im Bereich der Unternehmensnachfolge werden sowohl die Gestaltungsmöglichkeiten des Übergangsprozesses als auch aktuelle Ansätze der Unternehmensbewertung vorgestellt. Das Buch richtet sich an Dozenten und Studenten mit den Schwerpunkten Steuern, Finanzierung und Unternehmensnachfolge sowie an unternehmerische Entscheidungsträger.



TEST4http://www.gbv.de/dms/ilmenau/toc/71595136X.PDF
Brähler, Gernot; Trost, Ralf
Besteuerung, Finanzierung und Unternehmensnachfolge in kleinen und mittleren Unternehmen - Ilmenau : Universitätsverlag Ilmenau, 2012 - 1 Online-Ressource (VIII, 489 Seiten).

Der Mittelstand wird gemeinhin als Rückgrat der deutschen Wirtschaft bezeichnet. Aufgrund der spezifischen Strukturen kleiner und mittlerer Unternehmen werden diese von der Dynamik ihres wirtschaftlichen Umfelds immer wieder vor neue Herausforderungen gestellt. Wesentliche Problemfelder stellen hier die Besteuerung, Finanzierung und Unternehmensnachfolge dar. Zu diesen Themenbereichen enthält das Werk daher wissenschaftlich fundierte sowie praxisorientierte Beiträge: - Im Bereich der Besteuerung werden speziell für KMU bestehende steuerliche Gestaltungsspielräume aufgedeckt und Handlungsempfehlungen zur Steueroptimierung gegeben. - Im Bereich der Finanzierung werden die erhöhten Anforderungen an das Finanzmanagement ebenso wie alternative Finanzierungsmöglichkeiten diskutiert und Lösungsvorschläge erarbeitet. - Im Bereich der Unternehmensnachfolge werden sowohl die Gestaltungsmöglichkeiten des Übergangsprozesses als auch aktuelle Ansätze der Unternehmensbewertung vorgestellt. Das Buch richtet sich an Dozenten und Studenten mit den Schwerpunkten Steuern, Finanzierung und Unternehmensnachfolge sowie an unternehmerische Entscheidungsträger.


http://d-nb.info/102245594X/04TEST2

Franck, Andreas;
Efficient algorithms for arbitrary sample rate conversion with application to wave field synthesis - Ilmenau : Univ.-Verl. Ilmenau, 2012 - XX, 249 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2011
Enth. außerdem: Thesen

Verfahren zur unbeschränkten Abtastratenwandlung (arbitrary sample rate conversion,ASRC) ermöglichen die Änderung der Abtastrate zeitdiskreter Signale um beliebige, zeitvariante Verhältnisse. ASRC wird in vielen Anwendungen digitaler Signalverarbeitung eingesetzt. In dieser Arbeit wird die Verwendung von ASRC-Verfahren in der Wellenfeldsynthese(WFS), einem Verfahren zur hochqualitativen, räumlich korrekten Audio-Wiedergabe, untersucht. Durch ASRC-Algorithmen kann die Wiedergabequalität bewegter Schallquellen in WFS deutlich verbessert werden. Durch die hohe Zahl der in einem WFS-Wiedergabesystem benötigten simultanen ASRC-Operationen ist eine direkte Anwendung hochwertiger Algorithmen jedoch meist nicht möglich. Zur Lösung dieses Problems werden verschiedene Beiträge vorgestellt. Die Komplexität der WFS-Signalverarbeitung wird durch eine geeignete Partitionierung der ASRC-Algorithmen signifikant reduziert, welche eine effiziente Wiederverwendung von Zwischenergebnissen ermöglicht. Dies erlaubt den Einsatz hochqualitativer Algorithmen zur Abtastratenwandlung mit einer Komplexität, die mit der Anwendung einfacher konventioneller ASRC Algorithmen vergleichbar ist. Dieses Partitionierungsschema stellt jedoch auch zusätzliche Anforderungen an ASRC-Algorithmen und erfordert Abwägungen zwischen Performance-Maßen wie der algorithmischen Komplexität, Speicherbedarf oder -bandbreite. Zur Verbesserung von Algorithmen und Implementierungsstrukturen für ASRC werden verschiedene Maßnahmen vorgeschlagen. Zum Einen werden geschlossene, analytischeBeschreibungen für den kontinuierlichen Frequenzgang verschiedener Klassen von ASRCStrukturen eingeführt. Insbesondere für Lagrange-Interpolatoren, die modifizierte Farrow-Struktur sowie Kombinationen aus Überabtastung und zeitkontinuierlichen Resampling-Funktionen werden kompakte Darstellungen hergeleitet, die sowohl Aufschluss über dasVerhalten dieser Filter geben als auch eine direkte Verwendung in Design-Methoden ermöglichen. Einen zweiten Schwerpunkt bildet das Koeffizientendesign für diese Strukturen, insbesondere zum optimalen Entwurf bezüglich einer gewählten Fehlernorm und optionaler Entwurfsbedingungenund -restriktionen. Im Gegensatz zu bisherigen Ansätzen werden solche optimalen Entwurfsmethoden auch für mehrstufige ASRC-Strukturen, welche ganzzahlige Überabtastung mit zeitkontinuierlichen Resampling-Funktionen verbinden, vorgestellt. Für diese Klasse von Strukturen wird eine Reihe angepasster Resampling-Funktionen vorgeschlagen, welche in Verbindung mit den entwickelten optimalen Entwurfsmethoden signifikante Qualitätssteigerungen ermöglichen. Die Vielzahl von ASRC-Strukturen sowie deren Design-Parameter bildet eine Hauptschwierigkeit bei der Auswahl eines für eine gegebene Anwendung geeigneten Verfahrens. Evaluation und Performance-Vergleiche bilden daher einen dritten Schwerpunkt. Dazu wird zum Einen der Einfluss verschiedener Entwurfsparameter auf die erzielbare Qualität von ASRC-Algorithmen untersucht. Zum Anderen wird der benötigte Aufwand bezüglich verschiedener Performance-Metriken in Abhängigkeit von Design-Qualität dargestellt. Auf diese Weise sind die Ergebnisse dieser Arbeit nicht auf WFS beschränkt, sondern sind in einer Vielzahl von Anwendungen unbeschränkter Abtastratenwandlung nutzbar.



TEST4http://www.gbv.de/dms/ilmenau/toc/688807488.PDF
Neher, Jochen;
Rechnerische und experimentelle Untersuchungen der Schallabstrahlung bei Fahrzeuggetrieben - Ilmenau : Univ.-Verl. Ilmenau, 2012 - XVI, 173 S.. . - (Kraftfahrzeugtechnische Berichte. - 3) : Zugl.: Ilmenau, Techn. Univ., Diss., 2011
ISBN 978-3-86360-020-4
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=19761

Mit der vorliegenden Arbeit soll ein Beitrag zur Verbesserung der Akustiksimulation von Fahrzeuggetrieben geleistet werden. Zunächst wird das Betriebsgeräusch eines Getriebes bei konstanten Drehzahlen simuliert. Dabei wird eine Methode zur Entkopplung des rechenintensiven vom drehzahlabhängigen Teil der Simulation aufgezeigt. Ferner werden die berechneten Geräusche an einem PC Arbeitsplatz auralisiert. Die Ergebnisse sind aufgrund getroffener Annahmen als Vorgriff zu verstehen, das synthetische Betriebsgeräusch hört sich jedoch authentisch an. Die Bauteilverbindungs-Modellierung beeinflusst die Ergebnisse der Köperschallberechnung innerhalb der Akustiksimulation entscheidend. FE Modelle mit Schraubenverbindungen und Wälzlagern werden deshalb schrittweise, separat und systematisch durch Messungen verifiziert. Nach der Klassifizierung von Simulationsmodellen für Schraubenverbindungen werden Modellvarianten abgeleitet und bei drei unterschiedlichen etriebebaugruppen mit Flanschverbindungen umgesetzt. Die Ergebnisse der Rechnerischen Modalanalysen werden in einem breiten Frequenzbereich ausführlich mit Messungen verglichen. Weil sie annähernd Einzelbauteil-Qualität aufweisen, kann eine Modellierungs-Empfehlung gegeben werden. Bei ähnlichen Baugruppen sind die zu erwartende Ergebnisgüte und der Stellenwert von Schraubenverbindungen nun a priori abschätzbar. Das Nachgiebigkeitsverhalten von Wälzlagern wird durch linearisierte Steifigkeitsmatrizen beschrieben. Die FE Modelle zweier Baugruppen werden bei relevanten Eigenfrequenzen mit Messungen an Getrieben mit stillstehenden Wellen verifiziert. Unsicherheiten bei der Wälzlagermodellierung und wichtige Einflüsse sind damit abschätzbar. Insgesamt wird mit den Untersuchungen zur Körperschallsimulation eine Entscheidungshilfe bei der Bauteilverbindungs-Modellierung gegeben.An drei Getriebegehäusen mit unterschiedlich komplexen Abstrahlflächen werden auf Basis von Körper und Luftschallmessungen sowie mittels hochwertiger FE Modelle umfangreiche Untersuchungen der Luftschallsimulation mit der DBEM, der IBEM, der Fast-Multipole BEM und der FEM in einem breiten Frequenzbereich durchgeführt. Durch messtechnisch optimierte Eingangsdaten werden die Abweichungen der Luftschallsimulation von der Messung separiert. Es zeigt sich, dass Schallkennfelder mit verschiedenen Verfahren sehr genau vorausberechnet werden können. Auch andere Aspekte zur Wahl des Simulationsverfahrens werden umfangreich diskutiert, beispielsweise die Rechenzeiten. Die Genauigkeit der Luftschallsimulation lässt sich abhängig von der Komplexität der abstrahlenden Oberflächen darstellen. Die Ergebnisse eines verrippten Getriebegehäuses werden für Akustikmodelle mit und ohne Rippen ausgewertet, so dass der Einfluss der Vernachlässigung dieser Geometriedetails erkennbar wird. Ferner werden verschiedene Möglichkeiten zur Verhinderung fiktiver Resonanzen bei der BEM bewertet. Insgesamt erweitert die vorliegende Arbeit die Möglichkeiten der Akustiksimulation in mehreren Bereichen.



Brčina, Robert;
Zielorientierte Erkennung und Behebung von Qualitätsdefiziten in Software-Systemen am Beispiel der Weiterentwicklungsfähigkeit - Ilmenau : Univ.-Verl. Ilmenau, 2012 - XVI, 207 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2011
Enth. außerdem: Thesen

Für unternehmenskritische Software-Systeme, die langlebig und erweiterbar sein sollen, ist das Qualitätsziel Weiterentwicklungsfähigkeit essentiell. Kontinuierliche Änderungen und Erweiterungen sind unabdingbar, um solche Software-Systeme an neue oder veränderte Anforderungen anzupassen. Diese Maßnahmen verursachen aber auch oft Qualitätsdefizite, die zu einem Anstieg der Komplexität oder einem Verfall der Architektur führen können. Gerade Qualitätsdefizite in der Spezifikation oder Architektur können Software-Systeme stark beeinträchtigen. Um dem entgegenzuwirken, wird in dieser Arbeit eine Methode entwickelt, welche die Einhaltung von Qualitätszielen bewerten kann. Dadurch wird sowohl das Erkennen als auch das Beheben von Qualitätsdefiziten in der Software-Entwicklung ermöglicht. Qualitätsdefizite werden anhand einer am Qualitätsziel orientierten und regelbasierten Analyse erkannt und durch zugeordnete Reengineering-Aktivitäten behoben. Als Beispiel für ein Qualitätsziel wird die Weiterentwicklungsfähigkeit von Software-Systemen betrachtet. Es wird gezeigt, wie dieses Qualitätsziel anhand von strukturellen Abhängigkeiten in Software-Systemen bewertet und durch gezielte Reengineering-Aktivitäten verbessert werden kann. Um die Methode zu validieren, wurde eine industrielle Fallstudie durchgeführt. Durch den Einsatz der Methode konnten eine Vielzahl von Qualitätsdefiziten erkannt und behoben werden. Die Weiterentwicklungsfähigkeit des untersuchten Software-Systems wurde durch die vorgeschlagenen Reengineering-Aktivitäten entscheidend verbessert.



TEST4http://www.gbv.de/dms/ilmenau/toc/688393209.PDF
Schliewe, Jana;
Akzeptanz innovativer Self-Service-Technologien : eine geschlechtsfokussierte Betrachtung der Akzeptanz von Selbstbedienungskassen im Einzelhandel - Ilmenau : Univ.-Verl. Ilmenau, 2012 - Online-Ressource (PDF-Datei: LXXV, 240 S., 2,64 MB). Ilmenau : Techn. Univ., Diss., 2011

Die Nutzung innovativer Technologien, wie Selbstbedienungskassen (SB-Kassen) bietet Einzelhändlern einen Ansatz, um die Qualität der Unternehmens-Kunden-Beziehung zu erhöhen. Die Frage nach den demografischen Einflussfaktoren, wie z. Bsp. dem Geschlecht, auf die Nutzungsbereitschaft dieser neuen Technologie wurde bisher nur unzureichend untersucht. Dr. Jana Schliewe präsentiert eine geschlechtsfokussierte Analyse der Akzeptanz von SB-Kassen. Sie analysiert die Erkenntnisse der Technikakzeptanz sowie der Geschlechterforschung und integriert diese in ein umfassendes Gesamtmodell. Die Autorin überprüft das entwickelte Hypothesenmodell anhand einer empirischen Studie durch einen Mehrgruppenvergleich im Rahmen der Strukturmodellierung. Aufbauend auf den gewonnenen Erkenntnissen gibt sie Empfehlungen für Forschung und Praxis.



http://www.db-thueringen.de/servlets/DocumentServlet?id=18890
Vogt, Sebastian;
Ich bin der Musikant mit Laptop in der Hand!? : vom Einfluss technischer Innovationen auf den Produktionsprozess von elektronischer Musik ; ein Rückblick auf die Jahre 1997 bis 2007 - Ilmenau : Univ.-Verl. Ilmenau, 2012 - Online-Ressource (PDF-Datei: 350 S., 10,59 MB). Ilmenau : Techn. Univ., Diss., 2011
Literaturverz. S. 309 - 347

Im Mittelpunkt dieser Arbeit steht die Suche nach Antworten auf die Frage, wie technische Innovationen den Produktionsprozess von elektronischer Musik in den Jahren 1997 bis 2007 beeinflusst haben. Dafür wurden im Jahr 2008 Entwickler von technischen Innovationen, Fachautoren, Künstler sowie Wissenschaftler aus dem Bereich der elektronischen Musik mit Hilfe von siebzehn problemzentrierten Interviews deutschlandweit befragt. Dies war mit dem Ziel verbunden, technische Innovationen in der Produktion von elektronischer Musik sowie deren Einfluss auf den Produktionsprozess im Sinne der Grounded Theory zu erkennen und zu systematisieren. Es zeigte sich, dass die zentralen Innovationen die Virtualisierung des Tonstudios sowie die digitale Vernetzung (Peer Production, Demokratisierung des Vertriebs, Reputationsökonomie, Verbindung von Angebot und Nachfrage) sind. Weiterhin bietet diese Arbeit eine systematische Differenzierung des Innovationsbegriffs sowie einen Überblick über die Entwicklung der elektronischen Musik von ihren Anfängen bis in die Gegenwart.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2011000244
Maxl, Emanuel;
Mobile Markt- und Sozialforschung : methodische Qualität selbst-administrierter mobiler Forschung - Ilmenau : Univ.-Verl. Ilmenau, 2012 - 297 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2011

Die vorliegende Arbeit behandelt ausgewählte Aspekte methodischer Qualität von selbst-administrierten mobilen Forschungsmethoden auf der Grundlage von etablierten Qualitätskriterien: Coverage, Sampling, Nonresponse und Measurement. Sie stellt selbst-administrierte mobile Forschungsmethoden, deren technische Verortung und den Mobile Marketing Hintergrund dar. Eine Unterteilung von mobilen Methoden erfolgt anhand der Kriterien 'Push'- vs. 'Pull'-Rekrutierung und 'Kontextbezug der Studie'. Ausgewählte Fragen der Qualität von mobilen Methoden werden in drei empirischen Studien behandelt. Eine Push-Studie ohne Kontext-Bezug untersucht den Response auf zwei technische Einladungsvariationen. In einer explorativen Studie werden Rahmenbedingungen für eine erfolgreiche Durchführung von ortsbezogenen, mobilen Umfragen diskutiert. Eine mobile Pull-Studie im Kontext unter Nutzung eines Mobile Blogging Systems belegt die Chancen und Limitierungen für die qualitative, ethnographische Forschung.



TEST4http://www.gbv.de/dms/ilmenau/toc/685541010.PDF
Vrábel', Róbert;
Nonlinear dynamical systems with high-speed feedback - Ilmenau : Univ.-Verl. Ilmenau - 107 S.. . - (Scientific monographs in automation and computer science. - 4) Teilw. zugl.: Bratislava : Univ., Habil.-Schr.
Literaturangaben

The aim of the work is to contribute to the qualitative and quantitative analysis of nonlinear dynamical systems of the second order with high-speed feedback, which can also be generally introduced into higher order systems which at present are gaining an increasing amount of popularity in use of the high-frequency oscillators in electronic circuits. Singular Perturbation Theory is the mathematical framework that yields the tools to explore the complicated dynamical behavior of these systems. The work gives an overview of some methods used to investigate the dynamics of singularly perturbed nonlinear systems, for which does not exist a comprehensive theory that would give us an overall view of their behavior. This issue is currently happening world wide, not only in the mathematical community when dealing with the theory and application of nonlinear dynamical systems, but also in the field of electrical engineering and automation.



TEST4http://www.gbv.de/dms/ilmenau/toc/685238180.PDF
Bezák, Tomáš;
Usage of IEC 61131 and IEC 61499 standards for creating distributed control systems - Ilmenau : Univ.-Verl. Ilmenau - 121 S.. . - (Scientific monographs in automation and computer science. - 3) Teilw. zugl.: Bratislava : Univ., Diss.
Literaturverz. S. 114 - 119

This publication deals with the application of standards for industrial automation during distributed control systems design. Control systems design consists of a choice between two approaches based on the standards, IEC 61131 and IEC 61499. The question is which of the standards to use for distributed control systems design. The most commonly used standards are briefly listed in the introduction section. Then follows a more detailed description of the IEC 61131 and IEC 61499 standards, future development of the IEC 61499 standard and its usage during the creation of distributed control systems. Further on are lists and descriptions of existing commercial and research software tools, which are necessary in implementing this standard. The main section deals with the methodology for standard application comparison and criteria selection for comparing. This methodology is then verified on real control systems. The final section includes methodology generalization for suitable approach selection, resulting in recommendations for which standard to choose during creation of distributed control systems.



TEST4http://www.gbv.de/dms/ilmenau/toc/685237362.PDF
Strémy, Maximilán;
Combined discrete control systems - Ilmenau : Univ.-Verl. Ilmenau - 94 S.. . - (Scientific monographs in automation and computer science. - 2) Teilw. zugl.: Bratislava : Univ., Diss.
Literaturverz. S. 76 - 80

Combined control dynamic systems comprise both parts of discrete systems: real-time activated discrete dynamic systems as well as discrete event dynamic systems. The combination of cyclically recurring processes with stochastically generated events significantly intervenes into the control, while also affecting the choice of the right sample period, as it is necessary to process all the generated interruptions within the cycle. The current monograph focuses on the analysis of combined control systems and determination of the stochastic event element of the sample period. It proposes an appropriate sample period for combined control systems and introduces a methodology for determining the impact of a stochastic element on the system stability and properties. The main contribution of the monograph is the design of an adaptive algorithm for events processing and auto-correction of the event element of sample period.



TEST4http://www.gbv.de/dms/ilmenau/toc/685235769.PDF
Eliáš, Michal;
3D model reconstruction from vector perpendicular projections - Ilmenau : Univ.-Verl. Ilmenau - 102 S.. . - (Scientific monographs in automation and computer science. - 1) Teilw. zugl.: Bratislava : Univ., Diss.
Literaturverz. S. 88 - 96

This scientific monograph deals with the issue of 3D model reconstruction of a rotation part from its orthogonal projections recorded on a digitalized drawing in vector format and with computer-aided automation of the process. The topic is a partial task of the domain focused on generating the 3D part model or product from a technical drawing. The introduction comments on the analysis of the current state of information in the field. The rules of projecting the parts in a technical drawing are described as well as the related terminology and methods in computer graphics, mathematics and geometry. The computer-aided ways of modeling solids are analyzed. The introductory part is complemented by an overview of existing solutions by other authors and by the possibilities of my own method development. The monograph core is focused on the proposal of proceedings and algorithms for transformation process automation of 2D vector record comprising orthogonal projections representing the rotation part on a 3D model. The pilot implementations of algorithms and their verification by testing on the selected sample of geometric shapes are added.



TEST4http://www.gbv.de/dms/ilmenau/toc/685234991.PDF
Junghähnel, Manuela;
Herstellung und Chakterisierung von transparenten, elektrisch leitfähigen TiO 2 :Nb-Dünnschichten durch Gleichstrom- und Puls-Magnetron-Sputtern
[Online-Ausg.] - Ilmenau : Univ.-Verl. Ilmenau, 2012 - Online-Ressource (PDF-Datei: X, 158, IV S., 14,73 MB). . - (Werkstofftechnik aktuell. - 6) Ilmenau : Techn. Univ., Diss., 2011

Die vorliegende Dissertation befasst sich mit der Abscheidung von neuartigen transparenten leitfähigen Niob-dotierten Titanoxidschichten TiO2:Nb auf großen Flächen durch Magnetron-Sputtern. Schwerpunkt der Arbeit war die Untersuchung der optischen und elektrischen Eigenschaften von TiO2:Nb sowie der Struktur in Abhängigkeit von den Bedingungen bei der Schichtabscheidung und einer anschließenden thermischen Behandlung. Durch Gleichstrom- und Puls-Magnetron-Sputtern von oxidischen Targets und einer anschließenden thermischen Behandlung bei 450&ring;C im Hochvakuum wurden auf eine Fläche von (300 x 300) mm 2 transparente leitfähige TiO2:Nb -Schichten mit einem spezifischen elektrischen Widerstand im Bereich (7 ... 9) x 10-4 Ohm*cm und einem Extinktionskoeffizienten bei 550 nm von 0,02 abgeschieden. Die Eigenschaften der Schichten sind stark abhängig von ihrem Gefüge. TiO2:Nb in der Anatas-Modifikation zeigt gute elektrische Leitfähigkeit. Freie Ladungsträger werden durch fünfwertige Nb-Ionen erzeugt, die sich auf einem regulären Ti-Gitterplatz befinden. Die Ladungsträgerkonzentration steigt mit steigender Zahl der substituierten Ionen. Die Korngrenzen bestimmen und begrenzen die Beweglichkeit der Ladungsträger. Transparentes leitfähiges TiO2:Nb zeichnet sich durch einen hohen Brechungsindex von ca. 2,5 bei 550 nm aus und ist besonders chemisch beständig. Die Beschichtungen und ein Großteil der Untersuchungen wurden am Fraunhofer-Institut für Elektronenstrahl- und Plasmatechnik Dresden im Rahmen des Projektes "Plaspro" durchgeführt, welches von der Europäischen Union und dem Freistaat Sachsen gefördert wurde (Fördernummer 12896/2155).



http://www.db-thueringen.de/servlets/DocumentServlet?id=19654
Junghähnel, Manuela;
Herstellung und Chakterisierung von transparenten, elektrisch leitfähigen TiO 2 :Nb-Dünnschichten durch Gleichstrom- und Puls-Magnetron-Sputtern - Ilmenau : Univ.-Verl. Ilmenau, 2012 - X, 158, IV S.. . - (Werkstofftechnik aktuell. - 6) Zugl.: Ilmenau : Techn. Univ., Diss., 2011

Die vorliegende Dissertation befasst sich mit der Abscheidung von neuartigen transparenten leitfähigen Niob-dotierten Titanoxidschichten TiO2:Nb auf großen Flächen durch Magnetron-Sputtern. Schwerpunkt der Arbeit war die Untersuchung der optischen und elektrischen Eigenschaften von TiO2:Nb sowie der Struktur in Abhängigkeit von den Bedingungen bei der Schichtabscheidung und einer anschließenden thermischen Behandlung. Durch Gleichstrom- und Puls-Magnetron-Sputtern von oxidischen Targets und einer anschließenden thermischen Behandlung bei 450&ring;C im Hochvakuum wurden auf eine Fläche von (300 x 300) mm 2 transparente leitfähige TiO2:Nb-Schichten mit einem spezifischen elektrischen Widerstand im Bereich (7 ... 9) x 10-4 Ohm*cm und einem Extinktionskoeffizienten bei 550 nm von 0,02 abgeschieden. Die Eigenschaften der Schichten sind stark abhängig von ihrem Gefüge. TiO2:Nb in der Anatas-Modifikation zeigt gute elektrische Leitfähigkeit. Freie Ladungsträger werden durch fünfwertige Nb-Ionen erzeugt, die sich auf einem regulären Ti-Gitterplatz befinden. Die Ladungsträgerkonzentration steigt mit steigender Zahl der substituierten Ionen. Die Korngrenzen bestimmen und begrenzen die Beweglichkeit der Ladungsträger. Transparentes leitfähiges TiO2:Nb zeichnet sich durch einen hohen Brechungsindex von ca. 2,5 bei 550 nm aus und ist besonders chemisch beständig. Die Beschichtungen und ein Großteil der Untersuchungen wurden am Fraunhofer-Institut für Elektronenstrahl- und Plasmatechnik Dresden im Rahmen des Projektes "Plaspro" durchgeführt, welches von der Europäischen Union und dem Freistaat Sachsen gefördert wurde (Fördernummer 12896/2155).



TEST4http://www.gbv.de/dms/ilmenau/toc/685168492.PDF
Schneider, Matthias;
Entwicklung eines generischen Planungs- und Managementsystems für Verbände heterogener autonomer maritimer Fahrzeuge - Ilmenau : Univ.-Verl. Ilmenau, 2012 - Online-Ressource (PDF-Datei: XIV, 196 S., 6,70 KB). Ilmenau : Techn. Univ., Diss., 2011

Das stetig wachsende Interesse an der Erforschung und Industrialisierung der Ozeane führt zu immer neuen technischen Aufgaben und Herausforderungen in diesem Bereich. Vor allem die unter Wasser herrschenden extremen Bedingungen begünstigen den Einsatz heterogener autonomer Robotersysteme, welche selbstständig Missionen ausführen können. Diese Arbeit stellt ein neuartiges und umfassendes Konzept zur Missionsplanung und zum Management von Verbänden heterogener autonomer maritimer Fahrzeuge vor, welches die Umsetzung komplexer Missionsszenarios ermöglicht. Den Schwerpunkt dieser Arbeit bildet ein neuartiges zweistufiges Managementsystem, mit dem sich bestehende einzelautonome Systeme erweitern lassen, um diese kooperiert einsetzen zu können. Auf der Grundlage eines flexibel erweiterbaren Portfolios an Missionselementen ermöglicht es die Koordination von Fahrzeugverbänden, wobei sich die Komplexität einer Manöveraufgabe lediglich auf das entwickelte Teammanagement beschränkt. Weiterhin werden auf Basis eines festen Befehlssatzes die bestehenden einzelautonomen Fähigkeiten der Systeme genutzt, wodurch keine Änderung der fahrzeugeigenen Hard- und Software notwendig ist. Des Weiteren stellt diese Arbeit ein neu entwickeltes Konzept der Missionsplanung für Fahrzeugverbände vor, welches dem Anwender die Möglichkeit bietet ohne tiefgreifende Vorkenntnisse komplexe Teammissionen planen zu können. In diesem Zusammenhang wird ein neuartiges Konzept zum formationstreuen Ausweichen bekannter Hindernisse vorgestellt, welches in einem zusätzlichen Planungsschritt durchgeführt werden kann. Ein neuartiges parametrisierbares Fahrzeugmodell, welches auf einem geregelten Fahrzeugverhalten basiert, bildet den Kernpunkt der entwickelten Simulationsumgebung, die einen einfachen Test des vorgestellten Managementsystems gestattet. Somit lassen sich im Gegensatz zu bisherigen Ansätzen mit physikalischen Fahrzeugmodellen realitätsnahe Simulationen auf der Grundlage weniger Parameter durchführen. Das entwickelte Gesamtkonzept wurde sowohl in simulativen Tests als auch in realen Seeversuchen validiert und bestätigt.


http://d-nb.info/1019303514/04TEST2

Schneider, Matthias;
Entwicklung eines generischen Planungs- und Managementsystems für Verbände heterogener autonomer maritimer Fahrzeuge - Ilmenau : Univ.-Verl. Ilmenau, 2012 - XIV, 196 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2011

Das stetig wachsende Interesse an der Erforschung und Industrialisierung der Ozeane führt zu immer neuen technischen Aufgaben und Herausforderungen in diesem Bereich. Vor allem die unter Wasser herrschenden extremen Bedingungen begünstigen den Einsatz heterogener autonomer Robotersysteme, welche selbstständig Missionen ausführen können. Diese Arbeit stellt ein neuartiges und umfassendes Konzept zur Missionsplanung und zum Management von Verbänden heterogener autonomer maritimer Fahrzeuge vor, welches die Umsetzung komplexer Missionsszenarios ermöglicht. Den Schwerpunkt dieser Arbeit bildet ein neuartiges zweistufiges Managementsystem, mit dem sich bestehende einzelautonome Systeme erweitern lassen, um diese kooperiert einsetzen zu können. Auf der Grundlage eines flexibel erweiterbaren Portfolios an Missionselementen ermöglicht es die Koordination von Fahrzeugverbänden, wobei sich die Komplexität einer Manöveraufgabe lediglich auf das entwickelte Teammanagement beschränkt. Weiterhin werden auf Basis eines festen Befehlssatzes die bestehenden einzelautonomen Fähigkeiten der Systeme genutzt, wodurch keine Änderung der fahrzeugeigenen Hard- und Software notwendig ist. Des Weiteren stellt diese Arbeit ein neu entwickeltes Konzept der Missionsplanung für Fahrzeugverbände vor, welches dem Anwender die Möglichkeit bietet ohne tiefgreifende Vorkenntnisse komplexe Teammissionen planen zu können. In diesem Zusammenhang wird ein neuartiges Konzept zum formationstreuen Ausweichen bekannter Hindernisse vorgestellt, welches in einem zusätzlichen Planungsschritt durchgeführt werden kann. Ein neuartiges parametrisierbares Fahrzeugmodell, welches auf einem geregelten Fahrzeugverhalten basiert, bildet den Kernpunkt der entwickelten Simulationsumgebung, die einen einfachen Test des vorgestellten Managementsystems gestattet. Somit lassen sich im Gegensatz zu bisherigen Ansätzen mit physikalischen Fahrzeugmodellen realitätsnahe Simulationen auf der Grundlage weniger Parameter durchführen. Das entwickelte Gesamtkonzept wurde sowohl in simulativen Tests als auch in realen Seeversuchen validiert und bestätigt.



TEST4http://www.gbv.de/dms/ilmenau/abs/684544563schne.txt
Schühler, Mario;
Zum Entwurf planarer Antennen mit Hilfe periodischer Strukturen - Ilmenau : Univ.-Verl. Ilmenau, 2012 - XV, 277 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2011

Periodisch strukturierte Oberflächen besitzen eine Reihe interessanter Eigenschaften, die sie unter anderem für den Einsatz im Antennenbereich attraktiv erscheinen lassen. In der vorliegenden Arbeit steht insbesondere deren Anwendung beim Entwurf planarer Antennen im Vordergrund. In diesem Zusammenhang wird zunächst die Wechselwirkung zwischen elektromagnetischen Wellen und periodisch strukturierten Oberflächen diskutiert. Aufgrund der starken Anisotropie periodisch strukturierter Oberflächen ergeben sich dabei zwei grundlegende Betrachtungsweisen: die Wellenausbreitung entlang der Oberfläche, die durch ein ausgeprägtes Dispersionsverhalten gekennzeichnet ist, und die Reflexion an der Oberfläche. Beiden Aspekten wird besondere Aufmerksamkeit geschenkt, dies schließt sowohl die analytische Modellierung als auch die messtechnische Charakterisierung ein. Weiterhin wird das Strahlungsverhalten periodisch strukturierter Oberflächen untersucht, dass mit dem Leckwellenbereich verbunden ist. Der Leckwellenbereich beschreibt einen bestimmten Frequenzbereich im Dispersionsverhalten und stellt die Verknüpfung zwischen der Dispersion entlang und der Reflexion an der Oberfläche dar, wie anhand von Messungen verdeutlicht wird. Bei der Analyse des Strahlungsverhaltens steht insbesondere der Einfluss der Begrenzung der Struktur im Mittelpunkt, die bei der Implementierung zwangsläufig erfolgen muss. Es wird erörtert, inwieweit die begrenzte gegenüber der unbegrenzten Struktur im Hinblick auf eine bestimmte Strahlungscharakteristik zu modifizieren ist. Im Anschluss an die Untersuchungen zum Strahlungsverhalten wird ausführlich auf den Entwurf einer planaren Leckwellenantenne eingegangen, die auf einer begrenzten periodisch strukturierten Oberfläche basiert. Die Antenne zeigt bei zirkularer Polarisation ein konisches Richtdiagramm und misst bei der Mittenfrequenz eine Höhe von˜$\lambda/25$ mit der Freiraumwellenlänge˜$\lambda$. Aufgrund des flachen Aufbaus lässt sich die Antenne prinzipiell auf einer ebenen Oberfläche montieren bzw. in diese einbetten. Das Beispiel hebt hervor, dass Leckwellenantennen auch in Bereichen Anwendung finden können, in denen bisher andere Antennenkonzepte eingesetzt werden. Die Besonderheit von Leckwellenantennen besteht in dem zusätzlichen Freiheitsgrad beim Entwurf, der sich aus dem dispersiven Verhalten ergibt. Neben der Beispielimplementierung wird auch auf eine Reihe weiterer Realisierungen planarer Antennen eingegangen.



TEST4http://www.gbv.de/dms/ilmenau/toc/680560408.PDF
Husung, Stephan;
Simulation akustischer Produkteigenschaften unter Nutzung der Virtual Reality während der Produktentwicklung - Ilmenau : Univ.-Verl. Ilmenau, 2011 - Online-Ressource (PDF-Datei: XXI, 190 S., 8,56 MB). . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion (IMGK). - 20) Ilmenau : Techn. Univ., Diss., 2011

In der Dissertation werden Grundlagen zur Nutzung der audio-visuellen VR in der Produktentwicklung erarbeitet. Damit die akustischen Produkteigenschaften technischer Systeme in der VR hörbar gemacht werden können, wird eine Repräsentation für diese Eigenschaften, verbunden mit der Gestaltbeschreibung, geschaffen. Ein Schwerpunkt der Untersuchungen ist die Repräsentation der richtungsabhängigen Schallabstrahlung technischer Systeme im VR-Modell. Weiterhin werden Modelle entwickelt, die eine echtzeitfähige Simulation akustischer Produkteigenschaften auf der Körperschallebene ermöglichen. Hierfür wird eine komponentenweise Modellierung eingeführt. Durch eine generische Modellierung mit getrennter Datenhaltung und bereitstellung lassen sich die Parameter den Modellen effizient zuweisen. Für den Datenaustausch zwischen Simulations- und VR-Modell wird ein Kommunikationsserver entwickelt. Anhand eines Anwendungsbeispiels werden die Vorteile der parametrischen Modellbeschreibung erörtert.



http://www.db-thueringen.de/servlets/DocumentServlet?id=20309
Franck, Andreas;
Efficient algorithms for arbitrary sample rate conversion with application to wave field synthesis - Ilmenau : Univ.-Verl. Ilmenau, 2011 - Online-Ressource (PDF-Datei: XX, 249 S., 5,41 MB). Ilmenau : Techn. Univ., Diss., 2011
Enth. außerdem: Thesen

Verfahren zur unbeschränkten Abtastratenwandlung (arbitrary sample rate conversion,ASRC) ermöglichen die Änderung der Abtastrate zeitdiskreter Signale um beliebige, zeitvariante Verhältnisse. ASRC wird in vielen Anwendungen digitaler Signalverarbeitung eingesetzt. In dieser Arbeit wird die Verwendung von ASRC-Verfahren in der Wellenfeldsynthese(WFS), einem Verfahren zur hochqualitativen, räumlich korrekten Audio-Wiedergabe, untersucht. Durch ASRC-Algorithmen kann die Wiedergabequalität bewegter Schallquellen in WFS deutlich verbessert werden. Durch die hohe Zahl der in einem WFS-Wiedergabesystem benötigten simultanen ASRC-Operationen ist eine direkte Anwendung hochwertiger Algorithmen jedoch meist nicht möglich. Zur Lösung dieses Problems werden verschiedene Beiträge vorgestellt. Die Komplexität der WFS-Signalverarbeitung wird durch eine geeignete Partitionierung der ASRC-Algorithmen signifikant reduziert, welche eine effiziente Wiederverwendung von Zwischenergebnissen ermöglicht. Dies erlaubt den Einsatz hochqualitativer Algorithmen zur Abtastratenwandlung mit einer Komplexität, die mit der Anwendung einfacher konventioneller ASRC Algorithmen vergleichbar ist. Dieses Partitionierungsschema stellt jedoch auch zusätzliche Anforderungen an ASRC-Algorithmen und erfordert Abwägungen zwischen Performance-Maßen wie der algorithmischen Komplexität, Speicherbedarf oder -bandbreite. Zur Verbesserung von Algorithmen und Implementierungsstrukturen für ASRC werden verschiedene Maßnahmen vorgeschlagen. Zum Einen werden geschlossene, analytischeBeschreibungen für den kontinuierlichen Frequenzgang verschiedener Klassen von ASRCStrukturen eingeführt. Insbesondere für Lagrange-Interpolatoren, die modifizierte Farrow-Struktur sowie Kombinationen aus Überabtastung und zeitkontinuierlichen Resampling-Funktionen werden kompakte Darstellungen hergeleitet, die sowohl Aufschluss über dasVerhalten dieser Filter geben als auch eine direkte Verwendung in Design-Methoden ermöglichen. Einen zweiten Schwerpunkt bildet das Koeffizientendesign für diese Strukturen, insbesondere zum optimalen Entwurf bezüglich einer gewählten Fehlernorm und optionaler Entwurfsbedingungenund -restriktionen. Im Gegensatz zu bisherigen Ansätzen werden solche optimalen Entwurfsmethoden auch für mehrstufige ASRC-Strukturen, welche ganzzahlige Überabtastung mit zeitkontinuierlichen Resampling-Funktionen verbinden, vorgestellt. Für diese Klasse von Strukturen wird eine Reihe angepasster Resampling-Funktionen vorgeschlagen, welche in Verbindung mit den entwickelten optimalen Entwurfsmethoden signifikante Qualitätssteigerungen ermöglichen. Die Vielzahl von ASRC-Strukturen sowie deren Design-Parameter bildet eine Hauptschwierigkeit bei der Auswahl eines für eine gegebene Anwendung geeigneten Verfahrens. Evaluation und Performance-Vergleiche bilden daher einen dritten Schwerpunkt. Dazu wird zum Einen der Einfluss verschiedener Entwurfsparameter auf die erzielbare Qualität von ASRC-Algorithmen untersucht. Zum Anderen wird der benötigte Aufwand bezüglich verschiedener Performance-Metriken in Abhängigkeit von Design-Qualität dargestellt. Auf diese Weise sind die Ergebnisse dieser Arbeit nicht auf WFS beschränkt, sondern sind in einer Vielzahl von Anwendungen unbeschränkter Abtastratenwandlung nutzbar.



http://www.db-thueringen.de/servlets/DocumentServlet?id=19870
Neher, Jochen;
Rechnerische und experimentelle Untersuchungen der Schallabstrahlung bei Fahrzeuggetrieben - Ilmenau : Univ.-Verl. Ilmenau, 2011 - Online-Ressource (PDF-Datei: XVI, 173 S., 15,58 MB). . - (Kraftfahrzeugtechnische Berichte. - 3) Ilmenau : Techn. Univ., Diss., 2011

Mit der vorliegenden Arbeit soll ein Beitrag zur Verbesserung der Akustiksimulation von Fahrzeuggetrieben geleistet werden. Zunächst wird das Betriebsgeräusch eines Getriebes bei konstanten Drehzahlen simuliert. Dabei wird eine Methode zur Entkopplung des rechenintensiven vom drehzahlabhängigen Teil der Simulation aufgezeigt. Ferner werden die berechneten Geräusche an einem PC Arbeitsplatz auralisiert. Die Ergebnisse sind aufgrund getroffener Annahmen als Vorgriff zu verstehen, das synthetische Betriebsgeräusch hört sich jedoch authentisch an. Die Bauteilverbindungs-Modellierung beeinflusst die Ergebnisse der Köperschallberechnung innerhalb der Akustiksimulation entscheidend. FE Modelle mit Schraubenverbindungen und Wälzlagern werden deshalb schrittweise, separat und systematisch durch Messungen verifiziert. Nach der Klassifizierung von Simulationsmodellen für Schraubenverbindungen werden Modellvarianten abgeleitet und bei drei unterschiedlichen etriebebaugruppen mit Flanschverbindungen umgesetzt. Die Ergebnisse der Rechnerischen Modalanalysen werden in einem breiten Frequenzbereich ausführlich mit Messungen verglichen. Weil sie annähernd Einzelbauteil-Qualität aufweisen, kann eine Modellierungs-Empfehlung gegeben werden. Bei ähnlichen Baugruppen sind die zu erwartende Ergebnisgüte und der Stellenwert von Schraubenverbindungen nun a priori abschätzbar. Das Nachgiebigkeitsverhalten von Wälzlagern wird durch linearisierte Steifigkeitsmatrizen beschrieben. Die FE Modelle zweier Baugruppen werden bei relevanten Eigenfrequenzen mit Messungen an Getrieben mit stillstehenden Wellen verifiziert. Unsicherheiten bei der Wälzlagermodellierung und wichtige Einflüsse sind damit abschätzbar. Insgesamt wird mit den Untersuchungen zur Körperschallsimulation eine Entscheidungshilfe bei der Bauteilverbindungs-Modellierung gegeben.An drei Getriebegehäusen mit unterschiedlich komplexen Abstrahlflächen werden auf Basis von Körper und Luftschallmessungen sowie mittels hochwertiger FE Modelle umfangreiche Untersuchungen der Luftschallsimulation mit der DBEM, der IBEM, der Fast-Multipole BEM und der FEM in einem breiten Frequenzbereich durchgeführt. Durch messtechnisch optimierte Eingangsdaten werden die Abweichungen der Luftschallsimulation von der Messung separiert. Es zeigt sich, dass Schallkennfelder mit verschiedenen Verfahren sehr genau vorausberechnet werden können. Auch andere Aspekte zur Wahl des Simulationsverfahrens werden umfangreich diskutiert, beispielsweise die Rechenzeiten. Die Genauigkeit der Luftschallsimulation lässt sich abhängig von der Komplexität der abstrahlenden Oberflächen darstellen. Die Ergebnisse eines verrippten Getriebegehäuses werden für Akustikmodelle mit und ohne Rippen ausgewertet, so dass der Einfluss der Vernachlässigung dieser Geometriedetails erkennbar wird. Ferner werden verschiedene Möglichkeiten zur Verhinderung fiktiver Resonanzen bei der BEM bewertet. Insgesamt erweitert die vorliegende Arbeit die Möglichkeiten der Akustiksimulation in mehreren Bereichen.



http://www.db-thueringen.de/servlets/DocumentServlet?id=19761
Sondermann, Mario;
Mechanische Verbindungen zum Aufbau optischer Hochleistungssysteme - Ilmenau : Univ.-Verl. Ilmenau, 2011 - Online-Ressource (PDF-Datei: XVI, 162 S., 13,31 MB). . - (Berichte aus dem Institut für Maschinen- und Gerätekonstruktion. - 19) Ilmenau : Techn. Univ., Diss., 2010
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

Optische Technologien gelten als eine der Schlüsseltechnologien des 21. Jahrhunderts. Die Vielfalt an optischen Systemen und die Anforderungen an diese Systeme nehmen stetig zu und machen deshalb eine kontinuierliche Entwicklung unter wissenschaftlichen Gesichtspunkten notwendig. Die Herstellung optischer Systeme erfolgt in der Regel in mehrstufigen Prozessen. Wichtige Prozessschritte sind das Verbinden optischer Bauelemente mit mechanischen Bauelementen und das Verbinden bereits gefasster optischer Bauelemente zu optischen Systemen. Die vorliegende Arbeit zeigt den aktuellen Entwicklungsstand bei der Umsetzung dieser Verbindungsaufgaben anhand von optischen Hochleistungssystemen auf und stellt anschließend Möglichkeiten für eine Weiterentwicklung vor. Die dargestellten Betrachtungsweisen sind ebenso wie die aufgezeigten Lösungsräume allgemein auf die Gestaltung von mechanischen Verbindungen übertragbar und bieten besonders für feinwerktechnische Anwendungen Vorteile.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2010000489
Maxl, Emanuel;
Mobile Markt- und Sozialforschung : methodische Qualität selbst-administrierter mobiler Forschung - Ilmenau : Univ.-Verl. Ilmenau, 2011 - Online-Ressource (PDF-Datei: 297 S., 5,65 MB). Ilmenau : Techn. Univ., Diss., 2011

Die vorliegende Arbeit behandelt ausgewählte Aspekte methodischer Qualität von selbst-administrierten mobilen Forschungsmethoden auf der Grundlage von etablierten Qualitätskriterien: Coverage, Sampling, Nonresponse und Measurement. Sie stellt selbst-administrierte mobile Forschungsmethoden, deren technische Verortung und den Mobile Marketing Hintergrund dar. Eine Unterteilung von mobilen Methoden erfolgt anhand der Kriterien 'Push'- vs. 'Pull'-Rekrutierung und 'Kontextbezug der Studie'. Ausgewählte Fragen der Qualität von mobilen Methoden werden in drei empirischen Studien behandelt. Eine Push-Studie ohne Kontext-Bezug untersucht den Response auf zwei technische Einladungsvariationen. In einer explorativen Studie werden Rahmenbedingungen für eine erfolgreiche Durchführung von ortsbezogenen, mobilen Umfragen diskutiert. Eine mobile Pull-Studie im Kontext unter Nutzung eines Mobile Blogging Systems belegt die Chancen und Limitierungen für die qualitative, ethnographische Forschung.



http://www.db-thueringen.de/servlets/DocumentServlet?id=19793
Schühler, Mario;
Zum Entwurf planarer Antennen mit Hilfe periodischer Strukturen - Ilmenau : Univ.-Verl. Ilmenau, 2011 - Online-Ressource (PDF-Datei: XV, 277 S., 4,65MB). Zugl.: Ilmenau : Techn. Univ., Diss., 2011

Periodisch strukturierte Oberflächen besitzen eine Reihe interessanter Eigenschaften, die sie unter anderem für den Einsatz im Antennenbereich attraktiv erscheinen lassen. In der vorliegenden Arbeit steht insbesondere deren Anwendung beim Entwurf planarer Antennen im Vordergrund. In diesem Zusammenhang wird zunächst die Wechselwirkung zwischen elektromagnetischen Wellen und periodisch strukturierten Oberflächen diskutiert. Aufgrund der starken Anisotropie periodisch strukturierter Oberflächen ergeben sich dabei zwei grundlegende Betrachtungsweisen: die Wellenausbreitung entlang der Oberfläche, die durch ein ausgeprägtes Dispersionsverhalten gekennzeichnet ist, und die Reflexion an der Oberfläche. Beiden Aspekten wird besondere Aufmerksamkeit geschenkt, dies schließt sowohl die analytische Modellierung als auch die messtechnische Charakterisierung ein. Weiterhin wird das Strahlungsverhalten periodisch strukturierter Oberflächen untersucht, dass mit dem Leckwellenbereich verbunden ist. Der Leckwellenbereich beschreibt einen bestimmten Frequenzbereich im Dispersionsverhalten und stellt die Verknüpfung zwischen der Dispersion entlang und der Reflexion an der Oberfläche dar, wie anhand von Messungen verdeutlicht wird. Bei der Analyse des Strahlungsverhaltens steht insbesondere der Einfluss der Begrenzung der Struktur im Mittelpunkt, die bei der Implementierung zwangsläufig erfolgen muss. Es wird erörtert, inwieweit die begrenzte gegenüber der unbegrenzten Struktur im Hinblick auf eine bestimmte Strahlungscharakteristik zu modifizieren ist. Im Anschluss an die Untersuchungen zum Strahlungsverhalten wird ausführlich auf den Entwurf einer planaren Leckwellenantenne eingegangen, die auf einer begrenzten periodisch strukturierten Oberfläche basiert. Die Antenne zeigt bei zirkularer Polarisation ein konisches Richtdiagramm und misst bei der Mittenfrequenz eine Höhe von˜$\lambda/25$ mit der Freiraumwellenlänge˜$\lambda$. Aufgrund des flachen Aufbaus lässt sich die Antenne prinzipiell auf einer ebenen Oberfläche montieren bzw. in diese einbetten. Das Beispiel hebt hervor, dass Leckwellenantennen auch in Bereichen Anwendung finden können, in denen bisher andere Antennenkonzepte eingesetzt werden. Die Besonderheit von Leckwellenantennen besteht in dem zusätzlichen Freiheitsgrad beim Entwurf, der sich aus dem dispersiven Verhalten ergibt. Neben der Beispielimplementierung wird auch auf eine Reihe weiterer Realisierungen planarer Antennen eingegangen.



http://www.db-thueringen.de/servlets/DocumentServlet?id=19151
Dorn, Ludwig;
Zum Einfluß von Arbeitsanforderungen an Cockpitbesatzungen auf die Flugsicherheit - Ilmenau : Univ.-Verl. Ilmenau, 2011 - Online-Ressource (PDF-Datei: XXV, 220 S., 14,92 MB). : Ilmenau, Techn. Univ., Diss., 2011
Parallel als Druckausg. erschienen

Der vorliegende Beitrag propagiert am Beispiel des kommerziellen Luftverkehrs einen Paradigmenwechsel für die wissenschaftliche Auseinandersetzung mit Frage- und Problemstellungen zum menschlichen Leistungsvermögen aus dem sicherheitsbezogenen Kontext gesellschaftlicher Mobilität. Mit Hilfe eines physikalisch-mathematisch orientierten Ansatzes wird auf der Grundlage einer Belastungs-Beanspruchungskonzeption und wissenschaftlicher Erkenntnisse zur Selbstorganisation dissipativer Systeme eine interdisziplinär ausgerichtete und synchrone Betrachtungsweise des arbeitenden Menschen in wenig Fehler verzeihenden Bereichen erschlossen. Dabei steht die konsequente Anwendung des Prozessgedankens im Vordergrund der Forschungsaktivität. Im Einzelnen richten sich die theoretischen Analysen auf den Piloten als Willenszentrale des Transportträger-Arbeitssystems im trilateralen Spannungsfeld von ergonomischer Arbeitsgestaltung, ökonomischer Effizienz und zu garantierender Betriebssicherheit. Damit erhält die Frage nach den Grenzen seines Regulationsvermögens einen allseitig ausgerichteten existenzrelevanten Stellenwert. Diese Limits gilt es zu identifizieren und zu verorten. Dazu wird der Konstruktansatz eines hypothetischen Lösungsmodells vorgestellt. In diesem Erkenntnisprozess ergibt sich die Möglichkeit, ein mehrdimensionales Kriteriensystem aufstellen zu können. Mit noch hypothetischem Charakter kann dies den Rahmen sowohl für angestrebte Optimierungen von Cockpitarbeit im Sinne einer menschengerechten Gestaltung als auch im Hinblick auf eine zu erhöhende Flugsicherheit abstecken und liefert damit die Aussicht auf eine Verbesserung langfristig ausgerichteter flugbetrieblicher Effektivität und Zufriedenheit sowohl für Luftfahrtgesellschaften als auch für deren Kunden. Für die empirische Konstruktverifizierung und Praxistauglichkeit wird eine mehrstufige Methodik vorgeschlagen. Der Ansatz kann dabei generell auf andere berufliche Tätigkeitsbereiche übertragbar sein. Aus den im Vorfeld der Konstrukterstellung durchgeführten Analysen über die augenblickliche Situation zur sicherheitsrelevanten Stellung von operationell tätigem Luftfahrtpersonal in einer sich technisch, sozial und organisatorisch schnell wandelnden Lebens- und Arbeitsumgebung lassen sich Gestaltungsmaßnahmen ableiten, die langfristig den Betrieb von Flugzeugen als attraktive Transportträger sichern könnten. Im Hinblick auf eine anzustrebende Verbesserung der Verträglichkeit von existenziellen, gesellschaftlichen und ökonomischen Bedürfnisbefriedigungen werden ein arbeitswissenschaftlich determinierter Argumentationspfad und ein entsprechender Vorschlag für die Um- bzw. Neustrukturierung europäischer Flugbetriebssysteme aufgezeigt.



http://www.db-thueringen.de/servlets/DocumentServlet?id=18598
Dorn, Ludwig;
Zum Einfluß von Arbeitsanforderungen an Cockpitbesatzungen auf die Flugsicherheit - Ilmenau : Univ.-Verl. Ilmenau, 2011 - XXV, 220, XXVII S.. : Zugl.: Ilmenau, Techn. Univ., Diss., 2011
ISBN 978-3-86360-004-4
Enth. außerdem: Thesen

Der vorliegende Beitrag propagiert am Beispiel des kommerziellen Luftverkehrs einen Paradigmenwechsel für die wissenschaftliche Auseinandersetzung mit Frage- und Problemstellungen zum menschlichen Leistungsvermögen aus dem sicherheitsbezogenen Kontext gesellschaftlicher Mobilität. Mit Hilfe eines physikalisch-mathematisch orientierten Ansatzes wird auf der Grundlage einer Belastungs-Beanspruchungskonzeption und wissenschaftlicher Erkenntnisse zur Selbstorganisation dissipativer Systeme eine interdisziplinär ausgerichtete und synchrone Betrachtungsweise des arbeitenden Menschen in wenig Fehler verzeihenden Bereichen erschlossen. Dabei steht die konsequente Anwendung des Prozessgedankens im Vordergrund der Forschungsaktivität. Im Einzelnen richten sich die theoretischen Analysen auf den Piloten als Willenszentrale des Transportträger-Arbeitssystems im trilateralen Spannungsfeld von ergonomischer Arbeitsgestaltung, ökonomischer Effizienz und zu garantierender Betriebssicherheit. Damit erhält die Frage nach den Grenzen seines Regulationsvermögens einen allseitig ausgerichteten existenzrelevanten Stellenwert. Diese Limits gilt es zu identifizieren und zu verorten. Dazu wird der Konstruktansatz eines hypothetischen Lösungsmodells vorgestellt. In diesem Erkenntnisprozess ergibt sich die Möglichkeit, ein mehrdimensionales Kriteriensystem aufstellen zu können. Mit noch hypothetischem Charakter kann dies den Rahmen sowohl für angestrebte Optimierungen von Cockpitarbeit im Sinne einer menschengerechten Gestaltung als auch im Hinblick auf eine zu erhöhende Flugsicherheit abstecken und liefert damit die Aussicht auf eine Verbesserung langfristig ausgerichteter flugbetrieblicher Effektivität und Zufriedenheit sowohl für Luftfahrtgesellschaften als auch für deren Kunden. Für die empirische Konstruktverifizierung und Praxistauglichkeit wird eine mehrstufige Methodik vorgeschlagen. Der Ansatz kann dabei generell auf andere berufliche Tätigkeitsbereiche übertragbar sein. Aus den im Vorfeld der Konstrukterstellung durchgeführten Analysen über die augenblickliche Situation zur sicherheitsrelevanten Stellung von operationell tätigem Luftfahrtpersonal in einer sich technisch, sozial und organisatorisch schnell wandelnden Lebens- und Arbeitsumgebung lassen sich Gestaltungsmaßnahmen ableiten, die langfristig den Betrieb von Flugzeugen als attraktive Transportträger sichern könnten. Im Hinblick auf eine anzustrebende Verbesserung der Verträglichkeit von existenziellen, gesellschaftlichen und ökonomischen Bedürfnisbefriedigungen werden ein arbeitswissenschaftlich determinierter Argumentationspfad und ein entsprechender Vorschlag für die Um- bzw. Neustrukturierung europäischer Flugbetriebssysteme aufgezeigt.



Radler, Oliver;
Ein Beitrag zur Messung statischer und dynamischer Eigenschaften von elektro-magneto-mechanischen Energiewandlern und deren Komponenten - Ilmenau : Univ.-Verl. Ilmenau, 2011 - Online-Ressource (PDF-Datei: XIV, 139 S., 7,60 MB). . - (Ilmenauer Schriften zur Mechatronik. - 1) Zugl.: Ilmenau : Techn. Univ., Diss., 2011

In dieser Arbeit werden, aufbauend auf bekannten Verfahren, neue Methoden zur Messung magnetischer Eigenschaften abgeleitet. Die Besonderheit des hier beschriebenen Messverfahrens im Vergleich zu herkömmlichen besteht darin, dass die magnetischen Eigenschaften elektromagnetischer Aktoren mit frei wählbarer Ansteuerung über die im Aktor enthaltene Spule bestimmbar sind. Neben Antriebselementen können auch genormte Proben und ein breites Spektrum an ferromagnetischen Bauteilen mit der Induktionsmethode im Wechselfeld gemessen werden. Durch das im Rahmen dieser Arbeit entwickelte adaptive Reglerkonzept ist die Realisierung eines kostengünstigen Messgeräts möglich. Neben dem Reglerkonzept werden die zur Realisierung des Verfahrens benötigten elektronischen Komponenten beschrieben. Das Potential des entstandenen Demonstrators wird an Messbeispielen aus den Bereichen Entwicklung, Produktion und Applikation elektromagnetischer Aktoren aufgezeigt.


http://d-nb.info/1017145296/04TEST2

Radler, Oliver;
Ein Beitrag zur Messung statischer und dynamischer Eigenschaften von elektro-magneto-mechanischen Energiewandlern und deren Komponenten - Ilmenau : Univ.-Verl. Ilmenau, 2011 - XIV, 139 S.. . - (Ilmenauer Schriften zur Mechatronik. - 1) Zugl.: Ilmenau : Techn. Univ., Diss., 2011

In dieser Arbeit werden, aufbauend auf bekannten Verfahren, neue Methoden zur Messung magnetischer Eigenschaften abgeleitet. Die Besonderheit des hier beschriebenen Messverfahrens im Vergleich zu herkömmlichen besteht darin, dass die magnetischen Eigenschaften elektromagnetischer Aktoren mit frei wählbarer Ansteuerung über die im Aktor enthaltene Spule bestimmbar sind. Neben Antriebselementen können auch genormte Proben und ein breites Spektrum an ferromagnetischen Bauteilen mit der Induktionsmethode im Wechselfeld gemessen werden. Durch das im Rahmen dieser Arbeit entwickelte adaptive Reglerkonzept ist die Realisierung eines kostengünstigen Messgeräts möglich. Neben dem Reglerkonzept werden die zur Realisierung des Verfahrens benötigten elektronischen Komponenten beschrieben. Das Potential des entstandenen Demonstrators wird an Messbeispielen aus den Bereichen Entwicklung, Produktion und Applikation elektromagnetischer Aktoren aufgezeigt.



TEST4http://www.gbv.de/dms/ilmenau/toc/672533065.PDF
Kanka, Mario;
Bildrekonstruktion in der digitalen inline-holografischen Mikroskopie - Ilmenau : Univ.-Verl. Ilmenau, 2011 - Online-Ressource (PDF-Datei: XII, 113 S., 9,47 MB). Ilmenau : Techn. Univ., Diss., 2011
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

Ein kohärent beleuchtetes Pinhole erzeugt sphärische Wellenfronten, welche durch ein mikroskopisches Objekt beeinflusst werden. Das hinter dem Objekt entstehende Interferenzmuster heißt Hologramm und wird mit einem 2D-Bild-Detektor aufgezeichnet. In der digitalen inlineholografischen Mikroskopie wird mit einem Computer aus einem solchen Hologramm ein Bild des mikroskopischen Objekts rekonstruiert. Das 1. Rayleigh-Sommerfeld Beugungsintegral beschreibt die Wellenausbreitung in skalarer Näherung und eignet sich zur Rekonstruktion von Inline-Hologrammen für eine linsenlose Mikroskopie. Der numerische Aufwand ist aufgrund einer notwendigen Interpolation des Hologramms direkt abhängig von der optischen Auflösung im Objektbild. Bei Verwendung von 2D-Bild-Sensoren (CCD, CMOS) mit 4 Millionen oder mehr Pixel sowie handelsüblicher Desktop-PCs ist mit Rekonstruktionszeiten von mehreren Minuten und oft auch mit einem die Kapazitäten des Computers übersteigenden Speicherbedarf zu rechnen. In der vorliegenden Arbeit werden zwei neue Rekonstruktionsmethoden für die linsenlose digitale inline-holografische Mikroskopie vorgestellt. Diese Methoden berechnen das 1. Rayleigh-Sommerfeld Integral für sphärische Wellenfronten. Dabei wird das Hologramm ähnlich einem Schachbrett in identisch große Teilhologramme zerlegt. Diese Teilhologramme werden nacheinander phasenmodifiziert, interpoliert und zu einer neuen Wellenfront wieder zusammengefügt. Auf diese Weise sind die Anforderungen an den Speicher des Computers erheblich reduziert. Die Methoden führen die notwendige Interpolation des Hologramms indirekt im Fourier-Raum aus, sodass der numerische Aufwand nicht länger von der optischen Auflösung abhängt. Die erste der Methoden verursacht geringfügige Interpolationsartefakte, welche mit der zweiten, einer um den Faktor 2.5 langsameren Methode vermieden werden. Mit einer weiteren Methode zur Vorfilterung des Hologramms ist es nun auch möglich, einen beliebigen Ausschnitt der Objektebene zu rekonstruieren. Ein Desktop-PC (2.66 GHz) rekonstruiert ein Hologramm mit 4 Millionen Pixel in etwa 6 Sekunden. Spezielle Hardware-Komponenten wie Grafikkarten kamen dabei nicht zum Einsatz. In Experimenten wurden Hologramme von 1 my m großen Polymethylmethacrylat-Kugeln (PMMA) ohne abbildende Optik detektiert und Bilder dieser Kugeln mit einer NA von 0.7 rekonstruiert, wobei das lichtübertragende Medium Luft war (Brechungsindex n = 1). Das dabei rekonstruierte, erweiterte Bildfeld hatte einen Durchmesser von etwa 260 my m. Damit im Zusammenhang wird eine Dimensionierung für ein digitales inline-holografisches Mikroskop vorgeschlagen sowie die sich daraus ergebenden Grenzen und mögliche Erweiterungen diskutiert.


http://d-nb.info/1016863616/04TEST2

Kanka, Mario;
Bildrekonstruktion in der digitalen inline-holografischen Mikroskopie - Ilmenau : Univ.-Verl. Ilmenau, 2011 - XII, 113 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2011

Ein kohärent beleuchtetes Pinhole erzeugt sphärische Wellenfronten, welche durch ein mikroskopisches Objekt beeinflusst werden. Das hinter dem Objekt entstehende Interferenzmuster heißt Hologramm und wird mit einem 2D-Bild-Detektor aufgezeichnet. In der digitalen inlineholografischen Mikroskopie wird mit einem Computer aus einem solchen Hologramm ein Bild des mikroskopischen Objekts rekonstruiert. Das 1. Rayleigh-Sommerfeld Beugungsintegral beschreibt die Wellenausbreitung in skalarer Näherung und eignet sich zur Rekonstruktion von Inline-Hologrammen für eine linsenlose Mikroskopie. Der numerische Aufwand ist aufgrund einer notwendigen Interpolation des Hologramms direkt abhängig von der optischen Auflösung im Objektbild. Bei Verwendung von 2D-Bild-Sensoren (CCD, CMOS) mit 4 Millionen oder mehr Pixel sowie handelsüblicher Desktop-PCs ist mit Rekonstruktionszeiten von mehreren Minuten und oft auch mit einem die Kapazitäten des Computers übersteigenden Speicherbedarf zu rechnen. In der vorliegenden Arbeit werden zwei neue Rekonstruktionsmethoden für die linsenlose digitale inline-holografische Mikroskopie vorgestellt. Diese Methoden berechnen das 1. Rayleigh-Sommerfeld Integral für sphärische Wellenfronten. Dabei wird das Hologramm ähnlich einem Schachbrett in identisch große Teilhologramme zerlegt. Diese Teilhologramme werden nacheinander phasenmodifiziert, interpoliert und zu einer neuen Wellenfront wieder zusammengefügt. Auf diese Weise sind die Anforderungen an den Speicher des Computers erheblich reduziert. Die Methoden führen die notwendige Interpolation des Hologramms indirekt im Fourier-Raum aus, sodass der numerische Aufwand nicht länger von der optischen Auflösung abhängt. Die erste der Methoden verursacht geringfügige Interpolationsartefakte, welche mit der zweiten, einer um den Faktor 2.5 langsameren Methode vermieden werden. Mit einer weiteren Methode zur Vorfilterung des Hologramms ist es nun auch möglich, einen beliebigen Ausschnitt der Objektebene zu rekonstruieren. Ein Desktop-PC (2.66 GHz) rekonstruiert ein Hologramm mit 4 Millionen Pixel in etwa 6 Sekunden. Spezielle Hardware-Komponenten wie Grafikkarten kamen dabei nicht zum Einsatz. In Experimenten wurden Hologramme von 1 my m großen Polymethylmethacrylat-Kugeln (PMMA) ohne abbildende Optik detektiert und Bilder dieser Kugeln mit einer NA von 0.7 rekonstruiert, wobei das lichtübertragende Medium Luft war (Brechungsindex n = 1). Das dabei rekonstruierte, erweiterte Bildfeld hatte einen Durchmesser von etwa 260 my m. Damit im Zusammenhang wird eine Dimensionierung für ein digitales inline-holografisches Mikroskop vorgeschlagen sowie die sich daraus ergebenden Grenzen und mögliche Erweiterungen diskutiert.



TEST4http://www.gbv.de/dms/ilmenau/abs/671180835kanka.txt
Rosenbaum, Sören;
Entwurf elektromagnetischer Aktoren unter Berücksichtigung von Hysterese - Ilmenau : Univ.-Verl. Ilmenau, 2011 - Online-Ressource (PDF-Datei: XXVIII, 168 S., 5,28 MB). . - (Ilmenauer Schriften zur Mechatronik. - 2) Zugl.: Ilmenau : Techn. Univ., Diss., 2011
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

Elektromagnete sind Antriebselemente, die für verschiedenste Aufgaben in Automatisierungstechnik und Automobilbau eingesetzt werden. Aktuelle Anforderungen nach hoher Dynamik und Energieeffizienz bewegen sich dabei oft an den Grenzen des physikalisch Möglichen. Gerade um in diesen Grenzbereichen einen zuverlässigen und robusten modellbasierten Entwurf gewährleisten zu können, ist es nötig, alle relevanten physikalischen Effekte zu berücksichtigen. Elektromagnetische Hysterese ist dabei ein Effekt, der sich stark auf das Verhalten eines Antriebs auswirkt, bisher aber im Entwurf in der Regel nicht berücksichtigt werden konnte. Im Rahmen dieser Arbeit wurde versucht, genau diese Lücke bereits für frühe Entwurfsphasen zu schließen. Dafür wurden in der Literatur bekannte Hysteresemodelle zur Abbildung der reinen Materialeigenschaft miteinander verglichen und das bestgeeignetste ausgewählt. Aufgrund seiner Genauigkeit und Recheneffizienz eignet sich das Jiles-Atherton-Modell gut für umfangreiche Simulationsrechnungen. Verschiedene Methoden zur Identifizierung und Optimierung des Modell-Parametersatzes aus gemessenen Materialkennlinien werden vorgestellt und miteinander verglichen sowie für eine automatisierte Bestimmung aufbereitet. Durch die erfolgreiche Implementation in das an der Technischen Universität Ilmenau entwickelte Entwurfstool SESAM kann der Einfluss von Hysterese auf das Verhalten von Elektromagneten anhand von Netzwerkmodellen analysiert und so in den Entwurfsprozess mit einbezogen werden. Denkbar sind so z. B. Berechnungen von hysteresebehafteten statischen und dynamischen Kennlinienfeldern oder Optimierungsrechnungen zum Minimieren von Remanenzkräften oder Ummagnetisierungsverlusten. Anhand von typischen Beispielen beim Elektromagnetentwurf wird die Leistungsfähigkeit des Algorithmus unter Beweis gestellt.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2011000261
Rosenbaum, Sören;
Entwurf elektromagnetischer Aktoren unter Berücksichtigung von Hysterese - Ilmenau : Univ.-Verl. Ilmenau, 2011 - XXVIII, 168 S.. . - (Ilmenauer Schriften zur Mechatronik. - 2) Zugl.: Ilmenau : Techn. Univ., Diss., 2011

Elektromagnete sind Antriebselemente, die für verschiedenste Aufgaben in Automatisierungstechnik und Automobilbau eingesetzt werden. Aktuelle Anforderungen nach hoher Dynamik und Energieeffizienz bewegen sich dabei oft an den Grenzen des physikalisch Möglichen. Gerade um in diesen Grenzbereichen einen zuverlässigen und robusten modellbasierten Entwurf gewährleisten zu können, ist es nötig, alle relevanten physikalischen Effekte zu berücksichtigen. Elektromagnetische Hysterese ist dabei ein Effekt, der sich stark auf das Verhalten eines Antriebs auswirkt, bisher aber im Entwurf in der Regel nicht berücksichtigt werden konnte. Im Rahmen dieser Arbeit wurde versucht, genau diese Lücke bereits für frühe Entwurfsphasen zu schließen. Dafür wurden in der Literatur bekannte Hysteresemodelle zur Abbildung der reinen Materialeigenschaft miteinander verglichen und das bestgeeignetste ausgewählt. Aufgrund seiner Genauigkeit und Recheneffizienz eignet sich das Jiles-Atherton-Modell gut für umfangreiche Simulationsrechnungen. Verschiedene Methoden zur Identifizierung und Optimierung des Modell-Parametersatzes aus gemessenen Materialkennlinien werden vorgestellt und miteinander verglichen sowie für eine automatisierte Bestimmung aufbereitet. Durch die erfolgreiche Implementation in das an der Technischen Universität Ilmenau entwickelte Entwurfstool SESAM kann der Einfluss von Hysterese auf das Verhalten von Elektromagneten anhand von Netzwerkmodellen analysiert und so in den Entwurfsprozess mit einbezogen werden. Denkbar sind so z. B. Berechnungen von hysteresebehafteten statischen und dynamischen Kennlinienfeldern oder Optimierungsrechnungen zum Minimieren von Remanenzkräften oder Ummagnetisierungsverlusten. Anhand von typischen Beispielen beim Elektromagnetentwurf wird die Leistungsfähigkeit des Algorithmus unter Beweis gestellt.



TEST4http://www.gbv.de/dms/ilmenau/toc/669841544.PDF
Schliewe, Jana;
Akzeptanz innovativer Self-Service-Technologien : eine geschlechtsfokussierte Betrachtung der Akzeptanz von Selbstbedienungskassen im Einzelhandel - Ilmenau : Univ.-Verl. Ilmenau, 2011 - LXXV, 240 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2011

Die Nutzung innovativer Technologien, wie Selbstbedienungskassen (SB-Kassen) bietet Einzelhändlern einen Ansatz, um die Qualität der Unternehmens-Kunden-Beziehung zu erhöhen. Die Frage nach den demografischen Einflussfaktoren, wie z. Bsp. dem Geschlecht, auf die Nutzungsbereitschaft dieser neuen Technologie wurde bisher nur unzureichend untersucht. Dr. Jana Schliewe präsentiert eine geschlechtsfokussierte Analyse der Akzeptanz von SB-Kassen. Sie analysiert die Erkenntnisse der Technikakzeptanz sowie der Geschlechterforschung und integriert diese in ein umfassendes Gesamtmodell. Die Autorin überprüft das entwickelte Hypothesenmodell anhand einer empirischen Studie durch einen Mehrgruppenvergleich im Rahmen der Strukturmodellierung. Aufbauend auf den gewonnenen Erkenntnissen gibt sie Empfehlungen für Forschung und Praxis.



TEST4http://www.gbv.de/dms/ilmenau/toc/669836338.PDF
Kuchinke, Björn A.; Sundmacher, Torsten; Zerth, Jürgen
Marktstrukturen und Marktverhalten im deutschen Gesundheitswesen: die Bereiche Pharma und stationäre Versorgung im Fokus gesundheitsökonomischer Forschung : [ausgewählte Beiträge des sechsten Duisburg-Ilmenau-Bayreuther Oberseminars zur Gesundheitsökonomie und Sozialpolitik (DIBOGS) ... vom 29. bis 33. Oktober 2010 in Neuss] - Ilmenau : Univ.-Verl. Ilmenau - 119 S.. . - (DIBOGS-Beiträge zur Gesundheitsökonomie und Sozialpolitik. - 5)Enth. 8 Beitr.

Mit dem vorliegenden fünften Band der Reihe "DIBOGS-Beiträge zur Gesundheitsökonomie und Sozialpolitik" werden nun wieder ausgewählte Workshopbeiträge einer breiten Öffentlichkeit vorgestellt. Der Schwerpunkt dieses Bandes liegt auf der Analyse von Marktstrukturen und Marktverhalten in den Bereichen Pharma und stationäre Versorgung. Im ersten Beitrag von Birg wird der Einfluss von Rabattverträgen zwischen Krankenkassen und pharmazeutischen Herstellern auf die Anzahl der Unternehmen im Markt untersucht. Dewenter/Jaschinski/Kuchinke untersuchen in ihrem Artikel die Frage der Zwei-Klassen-Medizin anhand von unterschiedlichen Wartezeiten im Krankenhaussektor unter besonderer Berücksichtigung des räumlichen Wettbewerbs zwischen stationären Aktuhäusern. Schmid gibt einen Überblick über den Forschungsstand im stationären Sektor mit dem Fokus auf Konzentration und Wettbewerb im Markt. Schwegel untersucht abschließend die kirchlichen Trägerstrukturen im deutschen Krankenhausmarkt.



TEST4http://www.gbv.de/dms/ilmenau/toc/669518344.PDF
Kuchinke, Björn A.; Sundmacher, Torsten; Zerth, Jürgen
Marktstrukturen und Marktverhalten im deutschen Gesundheitswesen: die Bereiche Pharma und stationäre Versorgung im Fokus gesundheitsökonomischer Forschung - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: 119 S., 608,6 KB). . - (DIBOGS-Beiträge zur Gesundheitsökonomie und Sozialpolitik. - 5)Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

Mit dem vorliegenden fünften Band der Reihe "DIBOGS-Beiträge zur Gesundheitsökonomie und Sozialpolitik" werden nun wieder ausgewählte Workshopbeiträge einer breiten Öffentlichkeit vorgestellt. Der Schwerpunkt dieses Bandes liegt auf der Analyse von Marktstrukturen und Marktverhalten in den Bereichen Pharma und stationäre Versorgung. Im ersten Beitrag von Birg wird der Einfluss von Rabattverträgen zwischen Krankenkassen und pharmazeutischen Herstellern auf die Anzahl der Unternehmen im Markt untersucht. Dewenter/Jaschinski/Kuchinke untersuchen in ihrem Artikel die Frage der Zwei-Klassen-Medizin anhand von unterschiedlichen Wartezeiten im Krankenhaussektor unter besonderer Berücksichtigung des räumlichen Wettbewerbs zwischen stationären Aktuhäusern. Schmid gibt einen Überblick über den Forschungsstand im stationären Sektor mit dem Fokus auf Konzentration und Wettbewerb im Markt. Schwegel untersucht abschließend die kirchlichen Trägerstrukturen im deutschen Krankenhausmarkt.


http://www.gbv.de/dms/ilmenau/toc/66945138X.PDFTEST2

Vogt, Sebastian;
Ich bin der Musikant mit Laptop in der Hand!? : vom Einfluss technischer Innovationen auf den Produktionsprozess von elektronischer Musik ; ein Rückblick auf die Jahre 1997 bis 2007 - Ilmenau : Univ.-Verl. Ilmenau, 2011 - 350 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2011
Literaturverz. S. 309 - 347

Im Mittelpunkt dieser Arbeit steht die Suche nach Antworten auf die Frage, wie technische Innovationen den Produktionsprozess von elektronischer Musik in den Jahren 1997 bis 2007 beeinflusst haben. Dafür wurden im Jahr 2008 Entwickler von technischen Innovationen, Fachautoren, Künstler sowie Wissenschaftler aus dem Bereich der elektronischen Musik mit Hilfe von siebzehn problemzentrierten Interviews deutschlandweit befragt. Dies war mit dem Ziel verbunden, technische Innovationen in der Produktion von elektronischer Musik sowie deren Einfluss auf den Produktionsprozess im Sinne der Grounded Theory zu erkennen und zu systematisieren. Es zeigte sich, dass die zentralen Innovationen die Virtualisierung des Tonstudios sowie die digitale Vernetzung (Peer Production, Demokratisierung des Vertriebs, Reputationsökonomie, Verbindung von Angebot und Nachfrage) sind. Weiterhin bietet diese Arbeit eine systematische Differenzierung des Innovationsbegriffs sowie einen Überblick über die Entwicklung der elektronischen Musik von ihren Anfängen bis in die Gegenwart.



TEST4http://www.gbv.de/dms/ilmenau/toc/668425407.PDF
Evers, Florian;
Prädiktive Middleware-basierte Mobilitätsunterstützung für multikriterielle Handover - Ilmenau : Univ.-Verl. Ilmenau, 2011 - Online-Ressource (PDF-Datei: XX, 481 S., 16,65 MB). Ilmenau : Techn. Univ., Diss., 2011
Enth. außerdem: Thesen

Die vorliegende Dissertation befasst sich mit Mobilitätsunterstützungen für moderne mobile Endgeräte, welche auf das Internet zugreifen sollen. Um die Vielzahl der bereits verfügbaren Lösungen zu klassifizieren, werden Anforderungen definiert, welche sich an "unbedarften Nutzern" orientieren, die ihre Geräte wie gewohnt auch im mobilen Umfeld benutzen möchten. Es stellte sich heraus, dass lediglich die Gruppe der Middleware-basierten Mobilitätsunterstützungen diese Anforderungen erfüllen kann. Da jedoch noch keine der gefundenen Lösungen dazu in der Lage war, wurde die "Roaming-Enabled Architecture" (REACH) entwickelt. REACH tritt mit der Maßgabe an, alle gestellten Anforderungen zu erfüllen. Dazu werden Proxyserver eingesetzt, welche als "Ankerpunkte" fungieren und die Server im Internet vor den negativen Auswirkungen von Mobilitätsereignissen abschotten. Werden mehrere Proxyserver gleichzeitig involviert, kann sogar den negativen Auswirkungen durch das "Dreiecks-Routing" entgegengewirkt werden. Eine große Herausforderung bestand jedoch darin, die Datenströme der nicht modifizierten Anwendungen abzufangen, damit die Sicherungsmechanismen von REACH greifen können. Dazu wird eine Vielzahl an Möglichkeiten diskutiert, wobei ein besonderes Leistungsmerkmal von REACH darin besteht, diese Mechanismen auch in Kombination anbieten zu können. So stellen beispielsweise längerfristige Isolationssituationen keine Probleme mehr für die Anwendungen dar, und es steht erstmalig eine Mobilitätsunterstützung zur Verfügung, welche in solchen Situationen auch die Benutzer mit einbeziehen kann. Weiterhin wird ein prädiktiv arbeitender Handoverentscheider vorgestellt, welcher durch Beobachtung von Signalstärkewerten drahtlos arbeitender Netzzugangstechnologien drohende Abrisse erkennen kann. REACH unterstützt prinzipiell beliebige Netzzugangstechnologien, solange diese einen Zugang zum Internet ermöglichen können, und erlaubt "weichere vertikale Handover" sowie Kanalbündelungsszenarien. So kommen im Demonstrator bereits drahtgebundenes Ethernet, drahtloses arbeitendes WLAN sowie GPRS mittels eines per Bluetooth angebundenen Mobiltelefons zum Einsatz. Der Demonstrator stellt eine praxistaugliche Mobilitätsunterstützung dar, was durch Tests belegt wird und bereits während zahlreicher praktischer Vorführungen einem breit gefächerten Publikum vorgestellt werden konnte.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2011000091
Cimalla, Irina Nicoleta;
AlGaN/GaN sensors for direct monitoring of fluids and bioreactions - Ilmenau : Univ.-Verl. Ilmenau, 2011 - Online-Ressource (PDF-Datei: 216 S., 13,06 MB). Ilmenau : Techn. Univ., Diss., 2010
Enth. außerdem: Thesen

In dieser Arbeit wurden AlGaN/GaN-Heterostrukturen, die ein hohes Potenzial für pH-Sensoren aufweisen, charakterisiert und weiterentwickelt für die elektronische Erfassung von Zellreaktionen. Dazu wurden NG108-15 Nervenzellen auf den Sensoroberflächen kultiviert und deren Antwort auf Stimulierung mit verschiedenen Neuroinhibitoren aufgezeichnet. Zunächst wurde ein Messaufbau für das Erfassen extrazellularer Potenzialänderungen entworfen und das bestehende Chipdesign sowie die Herstellungstechnologie weiterentwickelt. Für die Auswahl optimaler Sensoren für die Transistor-Zell-Kopplung wurden sowohl mittels PIMBE und MOCVD gewachsene Heterostrukturen charakterisiert bezüglich ihrer elektronischen Transporteigenschaften und ihres Verhaltens als pH-Sensor. Auf AlGaN- und GaN-Oberflächen konnte eine sehr gute Kultivierung verschiedener Zelllinien erzielt werden ohne die sie sonst übliche Verwendung organischer Zwischenschichten zur Erhöhung von Adhäsion (z.B. Fibroplasten). Der Einfluss verschiedener Technologie- und sensorrelevanter Behandlungsschritte auf die Oberflächeneigenschaften der AlGaN/GaN-Sensoren wurde untersucht und die Medienstabilität bzw. Wechselwirkungen wurden analysiert. In einem offenen Setup mit Gasaustausch zur Umgebung wurde eine spontane Zellaktivität erfasst ("Zellatmung"), die in einem abgeschlossenen Setup aufgrund des reduzierten Gasaustausches nicht auftrat. Weiterhin wurde die Empfindlichkeit des Sensors auf Potenzialänderungen durch Na+ and K+ Ionen und deren Reaktionen mit Neurotoxinen bestätigt. Durch Titration in komplexe Elektrolyte und durch Kultivierung von NG108-15 Nervenzellen auf der Sensoroberfläche wurde demonstriert, dass die Sensoren in der Lage sind, komplexe Zellreaktionen zu erfassen. Berechnungen mit Hilfe von Simulationen und vereinfachten analytischen Beschreibungen für die Ionenflüsse belegten, dass bei der Zell-Transistor-Kopplung das Sensorsignal im Wesentlichen durch die Na+ Flüsse erzeugt wird. Die experimentellen Beobachtungen und die theoretischen Modellierung zeigte dafür eine gute Übereinstimmung. Zusammenfassend wurde in dieser Arbeit gezeigt, dass AlGaN/GaN-ISFETs stabil unter physiologischen Bedingungen arbeiten, sehr gute Signalauflösung ermöglichen und für Langzeitmessungen mit lebenden Zellen geeignet sind.


http://d-nb.info/1013693043/04TEST2

Anke, Manfred; Müller, Ralf
Das Widerspiegelungsvermögen des Mengen-, Spuren- und Ultraspurenelementstatus durch Hautderivate bei Mensch und Tier in Abhängigkeit von Unterversorgung bzw. Intoxikation - Ilmenau : Univ.-Verl. Ilmenau - Online-Ressource (PDF-Datei: 181 S., 4,60 MB). . - (Berichte aus der Biomechatronik. - 7)

Das Integument des Menschen und anderer Wirbeltiere ist mit seinen Anhängen (Haare, Borsten, Nägel, Klauen und Federn) neben Vollblut, Blutserum und Harn das wichtigste Indikatororgan, um Überschuss oder Mangel wichtiger Mengen-, Spuren- und Ultraspurenelemente anzuzeigen. Das darin enthaltene schwefelreiche Keratin ist besonders geeignet, Metallionen dauerhaft zu binden. Deren quantitative analytische Bestimmung ermöglicht Human- und Veterinärmedizinern wichtige Rückschlüsse auf Mangelerkrankungen bzw. Intoxikationen zu ziehen. Die Elementbestimmung in Keratinen ist eine sehr geeignete Methode zur Erstellung fundierter Diagnosen und Therapien. Den Umweltwissenschaftlern ermöglicht es, chemische Belastungen in der Biosphäre zu identifizieren.



http://www.db-thueringen.de/servlets/DocumentServlet?id=18452
Cimalla, Irina Nicoleta;
AlGaN/GaN sensors for direct monitoring of fluids and bioreactions - Ilmenau : Univ.-Verl. Ilmenau, 2011 - 216 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2010
Enth. außerdem: Thesen

In dieser Arbeit wurden AlGaN/GaN-Heterostrukturen, die ein hohes Potenzial für pH-Sensoren aufweisen, charakterisiert und weiterentwickelt für die elektronische Erfassung von Zellreaktionen. Dazu wurden NG108-15 Nervenzellen auf den Sensoroberflächen kultiviert und deren Antwort auf Stimulierung mit verschiedenen Neuroinhibitoren aufgezeichnet. Zunächst wurde ein Messaufbau für das Erfassen extrazellularer Potenzialänderungen entworfen und das bestehende Chipdesign sowie die Herstellungstechnologie weiterentwickelt. Für die Auswahl optimaler Sensoren für die Transistor-Zell-Kopplung wurden sowohl mittels PIMBE und MOCVD gewachsene Heterostrukturen charakterisiert bezüglich ihrer elektronischen Transporteigenschaften und ihres Verhaltens als pH-Sensor. Auf AlGaN- und GaN-Oberflächen konnte eine sehr gute Kultivierung verschiedener Zelllinien erzielt werden ohne die sie sonst übliche Verwendung organischer Zwischenschichten zur Erhöhung von Adhäsion (z.B. Fibroplasten). Der Einfluss verschiedener Technologie- und sensorrelevanter Behandlungsschritte auf die Oberflächeneigenschaften der AlGaN/GaN-Sensoren wurde untersucht und die Medienstabilität bzw. Wechselwirkungen wurden analysiert. In einem offenen Setup mit Gasaustausch zur Umgebung wurde eine spontane Zellaktivität erfasst ("Zellatmung"), die in einem abgeschlossenen Setup aufgrund des reduzierten Gasaustausches nicht auftrat. Weiterhin wurde die Empfindlichkeit des Sensors auf Potenzialänderungen durch Na+ and K+ Ionen und deren Reaktionen mit Neurotoxinen bestätigt. Durch Titration in komplexe Elektrolyte und durch Kultivierung von NG108-15 Nervenzellen auf der Sensoroberfläche wurde demonstriert, dass die Sensoren in der Lage sind, komplexe Zellreaktionen zu erfassen. Berechnungen mit Hilfe von Simulationen und vereinfachten analytischen Beschreib