Bachelor and Master Theses at the Institute

Results: 245
Created on: Thu, 28 Mar 2024 23:08:46 +0100 in 1.3794 sec


Dong, Minghao;
Numerical solutions ased on the ADI iteration for large-scale control problems: the Lyapunov, Riccati, and Lur’e equations. - Ilmenau. - 55 Seiten
Technische Universität Ilmenau, Masterarbeit 2024

Wir stellen eine Reihe von Methoden vor, die auf der ADI-Iteration basieren, für die numerische Lösung der Lyapunov-Gleichungen, der algebraischen Riccati-Gleichungen und der Lur'e-Gleichungen. Diese Matrixgleichungen spielen eine wichtige Rolle in der Kontrolltheorie, und wir konzentrieren uns auf großskalige, spärliche Probleme. Die LRCF-ADI-Iteration, welche die Eigenschaften sowohl des ADI-Modells als auch der niedrigrangigen Cholesky-Faktoren integriert, wird zur Lösung der Lyapunov-Gleichung verwendet. Die LRCF-NM, welche die Kleinman-Newton-Iteration und die LRCF-ADI-Iteration kombiniert, wird zur Lösung der algebraischen Riccati-Gleichung verwendet. Die stabilisierende Lösung dieser Gleichung kann das entsprechende LQR-Problem lösen. Der Störungsansatz, der die LRCF-NM anwendet, wird zur Lösung der Lur'e-Gleichungen im Falle von Singularität verwendet. Die maximale Lösung dieser Gleichungen kann das entsprechende linear-quadratische optimale Steuerungsproblem lösen. In dieser Arbeit demonstrieren wir durch zwei Beispiele, wie diese Methoden die entsprechenden Matrixgleichungen numerisch lösen.



Niehoff, Felix;
Path following and obstacle avoidance algorithms for underactuated unmanned surface vessel. - Ilmenau. - 29 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2024

Die Entwicklung von autonomen Steuerungen von unbemannten Schiffen in flachen Gewässern ist ein wichtiges Forschungsgebiet im Bereich der Binnenschiffahrt. Ein übliches Szenario in dem sich ein solches unbemanntes Schiff befinden könnte, ist die Fahrt entlang eines Pfades, welcher durch Koordinatenpunkte vorgegeben ist. Nun befinden sich entlang des Pfades noch Hindernisse, welche es zu vermeiden gilt und gleichzeitig herrscht noch eine Strömung mit konstanter Richtung und Stärke, wie zum Beispiel auf einem Fluss. Das Ziel ist es nun, einen Algorithmus mit Sicherheitsgarantien zu entwickeln, welcher das Schiff erfolgreich entlang des Pfades steuert. Zuerst wird das 3-Freiheitsgrade Kinematikmodell und das Konzept von Lyapunov Stabilität dynamischer Systeme eingeführt. Anschließend beschäftigt sich diese Arbeit mit der Vorstellung von LOS und ILOS, 2 gängigen Algorithmen zur Pfadverfolgung, welche auch bezüglich ihres Verhaltens bei Strömung untersucht werden. Des Weiteren wird ein bestehender Stabilitätsbeweis für LOS mitgeliefert. Daraufhin wird ein Algorithmus zur Hindernisvermeidung, sowie ein zugehöriger Stabilitätsbeweis vorgestellt. Anschließend wird ein hybrider Algorithmus entwickelt, welcher sowohl Pfadverfolgung, als auch Hindernisvermeidung gewährleisten kann, für welchen wir mithilfe der vorangegangenen Resultate auch Sicherheitsgarantien beweisen konnten. Dieser Algorithmus wird dann mithilfe von Matlab implementiert, und in verschiedenen simulierten Szenarien werden bestehende und gelöste Probleme des Algorithmus aufgezeigt. Schlussendlich wird dadurch ein Algorithmus für autonome Schiffahrt unter vereinfachten Bedingungen entwickelt.



Bock, Alexander Samuel;
An algebraic framework for time-varying linear systems. - Ilmenau. - 22 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2023

Diese Arbeit untersucht lineare differentiell-algebraische Gleichungen mit zeitabhängigen Koeffizienten. Lösungen sind Vektoren von glatten reellen Funktionen, definiert auf den reellen Zahlen, mit Ausnahme einer diskreten Teilmenge. Zwei Lösungen werden identifiziert, wenn sie fast überall bezüglich des Lebesgue-Maßes übereinstimmen. Wir zeigen in der vorliegenden Arbeit, dass dieser Ansatz die notwendige algebraische Struktur für unsere Untersuchungen liefert und die Fehler eines früheren Ansatzes korrigiert. Darüber hinaus deckt dieser Ansatz den Spezialfall von reellen meromorphen Koeffizienten ab, in welchem die Teichmüller-Nakayama-Form zur Vereinfachung der Systemanalyse verwendet werden kann. Des Weiteren beschäftigen wir uns mit der Steuerbarkeit des zeitabhängigen Systems, was zum Hauptergebnis der Arbeit führt – einer algebraischen Charakterisierung von Steuerbarkeit. Dieser Satz ist bekannt, wir liefern jedoch einen überarbeiteten Beweis in unserem Framework.



Könitzer, Loris Benedikt;
Die skalare und multikriterielle Rundungseigenschaft. - Ilmenau. - 35 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2023

Die vorliegende Arbeit beschäftigt sich mit der Rundungseigenschaft, welche eine Methode zum Lösen ganzzahliger skalarwertiger Optimierungsprobleme liefert. Diese Arbeit verwendet dabei vorrangig den Levelmengenansatz von Hübner, 2013, um für verschiedene Klassen von Optimierungsproblemen diese Eigenschaft nachzuweisen. Weiterhin werden diese Ideen teilweise auf multikriterielle Optimierungsprobleme ausgeweitet.



Orlob, Tilman;
Charakterisierung der Baumweite eines Graphen durch Graphsuche. - Ilmenau. - 21 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2023

Das Konzept der Baumweite ist eines der weniger intuitiven Konzepte in der Graphentheorie. Deswegen ist es durchaus nützlich, sich alternative Charakterisierungen dieser Größe anzusehen. Zu diesem Zweck soll das Suchen auf Graphen mit bestimmten Voraussetzungen dienen. Ziel dieser Arbeit ist es, einen kurzen Überblick über die Geschichte der Graphsuche zu geben, die Voraussetzungen für die Graphsuche zu definieren, so dass ein Zusammenhang zur Baumweite hergestellt wird, und einen Beweis für diesen Zusammenhang darzustellen.



Baumann, Gregor Anton;
Das S-Lemma und die Konvexität der Bildmenge zweier homogener quadratischer Funktionen. - Ilmenau. - 26 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2023

In dieser Arbeit beschäftigen wir uns mit dem S-Lemma und dessen Beweis von Yakubovich, welcher die Konvexität der Bildmenge zweier homogener quadratischer Funktionen ausnutzt, dem Dines Theorem. Daneben betrachten wir in Trust-Region Subproblemen eine exemplarische Anwendung des S-Lemmas. Außerdem werden wir weitere Konvexitätsaussagen, als Verallgemeinerungen des Dines Theorems, sehen und damit einhergehend auch Verallgemeinerungen des S-Lemmas erhalten.



Dahlke, Jonathan Christoph;
On the Hamiltonicity of 5-regular Line Graphs with Additional Properties. - Ilmenau. - 26 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

In der vorliegenden Masterarbeit wird eine Abschwächung einer Vermutung von Thomassen gezeigt. Thomassen hatte vermutet, dass 4-zusammenhängende Kantengraphen hamiltonsch sind - das ist, sie besitzen einen aufspannenden Kreis. Hier zeigen wir, dass, mit einer wesentlich einschränkenden Bedingung an Ecken des Grades 3 im Urbild des Kantengraphen, 5-reguläre, 4-zusammenhängende Kantengraphen hamiltonsch sind. Weiterhin gibt es eine Vermutung, die von L. Lovász im Jahr 1969 aufgestellt wurde. Diese besagt, dass - bis auf wenige Ausnahmen - alle vertex-transitiven Graphen hamiltonsch sind, wobei man einen Graphen vertex-transitiv nennt, wenn seine Automorphismengruppe transitiv auf den Ecken des Graphen wirkt. Durch Ausnutzen des obigen Resultates und nach Klassifikation der 5-regulären vertex-transitiven Kantengraphen können wir dann zeigen, dass vertex-transitive, 5-reguläre Kantengraphen, in deren Urbild Kreise der Länge 4 enthalten sind, hamiltonsch sind.Abschließend fokussieren wir uns auf ein Resultat von Jaeger, der 1979 eine sehr nützliche Äquivalenz zeigte, in der er die Kantenmengen, die innerhalbe eines gegebenen Graphen zu einem eulerschen Teilgraphen erweitert werden können, klassifizierte. Dies nutzen wir, um Resultate, die bereits nützlich dafür waren, Abschwächungen von Thomassens Vermutung zu zeigen, zu verschärfen.



Oppeneiger, Benedikt;
Anwendung von Funnel MPC auf die Regelung eines Magnetschwebesystems. - Ilmenau. - 188 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Im Angesicht einer stark wachsenden Weltbevölkerung wird die Infrastruktur insbesondere im Verkehrssektor vor immer neue und größere Herausforderungen gestellt. Eine innovative Mobilitätslösung im Umgang mit diesen Aufgaben könnte die unter dem Namen Transport System Bögl vermarktete Magnetschwebebahn, die sich bei dem Unternehmen Max Bögl seit 2008 in Entwicklung befindet, sein. Der Spalt zwischen der Magnetschwebebahn und dem Fahrweg wird bisher mit einem Regler mit linearer Zustandsrückführung und Luenberger Beobachter geregelt. Dieser Ansatz macht aufwändiges Tuning erforderlich und ist für die Einhaltungen von Ausgangsbeschränkungen nicht besonders gut geeignet. Daher wird in dieser Arbeit mit Funnel MPC ein neuartiges Regelungskonzept untersucht, um zu bewerten inwieweit es Vorteile gegenüber dem bisher verwendeten Regler bzgl. Reglerperformance und Stabilität bietet. Bei der Reglerperformance liegt der Fokus dabei insbesondere auf dem Fahrkomfort und dem Stellaufwand. Ausführliche Simulationsergebnisse ermöglichen diesbzgl. einen umfangreichen Vergleich der beiden Ansätze. Zusätzlich werden theoretische Untersuchungen zur Anwendbarkeit des Regelungskonzeptes Funnel MPC auf die Magnetschwebebahn anhand eines in der Arbeit erläuterten Modells vorgenommen.



Bernstein, Tobias;
Ein starkes Gesetz der großen Zahlen für Epidemien auf inhomogenen Bevölkerungen. - Ilmenau. - 49 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Wir formulieren und beweisen ein Gesetz der großen Zahlen für ein zeitdiskretes stochastisches SIR-Modell einer Epidemie, welches eine Erweiterung des entsprechenden Modells für homogene Bevölkerungen ist: Nach Ziehen einer potentiell inhomogenen Bevölkerung startet eine Epidemie, wobei die Infektions- und Genesungswahrscheinlichkeiten von dieser zufälligen Bevölkerung abhängen. Das zentrale Ergebnis der Arbeit besagt, dass zu jedem Zeitpunkt die empirischen Maße der aktuell Suszeptiblen, Infizierten und Genesenen punktweise in Wahrscheinlichkeit gegen deterministische Grenzwerte konvergieren, wobei diese Grenzwerte explizit durch Iterationsgleichungen gegeben sind. Wir beweisen dies zunächst für Epidemien mit einer endlichen Anzahl von Typen von Individuen und verwenden solche, um den allgemeinen Fall zu approximieren. Im weiteren Verlauf untersuchen wir die Stetigkeit der Grenzwerte in den Parametern und ihr Verhalten für gegen unendlich konvergierende Zeitpunkte. Zur Illustration unserer Ergebnisse haben wir solche Epidemien auf dem zweidimensionalen Torus simuliert und mit den deterministischen Grenzwerten verglichen.



Geordnete Halbgruppen in der amtlichen Statistik. - Ilmenau. - 47 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2023

Im Rahmen der amtlichen Statistik werden die erhobenen Daten in der Regel in Form von Summen, seien es Anzahlen oder Durchschnittswerte, verarbeitet und veröffentlicht. In dieser Arbeit leiten wir her, dass unter bestimmten Annahmen die Addition die, bis auf isotone Transformationen, einzige Form der Aggregation im Rahmen amtlicher Datenerhebungen ist. Dazu formalisieren wir die Datenzusammenfassung in der amtlichen Statistik und charakterisieren diese mithilfe geordneter Halbgruppen, um deren Ordnungsisomorphie zu den reellen Zahlen mit der Addition nachzuweisen.



Preuster, Till;
Über Dirac-Strukturen Port-Hamiltonscher Systeme. - Ilmenau. - 39 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2023

In der wissenschaftlichen Disziplin Physik ist die energiebasierte Modellierung von Systemen von Bedeutung. In diesem Zusammenhang erscheinen sogenannte Port-Hamiltonsche Systeme als ein valides Konzept. Wir werden uns mit zwei verschiedenen Betrachtungsweisen Port-Hamiltonscher Systeme und mit deren mathematischen Grundlagen tiefer beschäftigen. Diese werden das geometrische Port-Hamiltonsche System und das Port-Hamiltonsche System in Differentialgleichungsform sein. Ferner befassen wir uns mit der Systemmodellierung im Bereich Physik. Ausgehend von den beiden Betrachtungsweisen zeigen wir in dieser Arbeit die Äquivalenz dieser im Sinne des Behaviours. Dabei sind die erwähnten Klassen von Systemen dahingehend äquivalent, dass wir für das jeweils eine, ein System der anderen Klasse finden, sodass diese übereinstimmen.



Eingartner, Anna;
"Adjustable Robust Optimization" zur Einsatzplanung eines Energiesystems mit unsicherer regenerativer Stromerzeugung. - Ilmenau. - 51 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Das Thema dieser Arbeit ist die Anwendung der justierbaren robusten Optimierung (engl. adjustable robust optimization) an dem Modell eines Energiesystems. In diesem Anwendungsbereich spielt der Umgang mit unsicheren Daten wie Energieerzeugung und -nachfrage eine große Rolle. Zu Beginn werden die Grundlagen der Optimierung unter unsicheren Parametern gelegt, wobei hier der Fokus auf der robusten und justierbaren robusten Optimierung liegt. Anschließend wird dargelegt, wie sich diese Methoden in verschiedenen Anwendungsfällen in der Energiewirtschaft einsetzen lassen und der aktuelle Forschungsstand dazu aufgeführt. Nun wird die justierbare robuste Optimierung an einem einfachen Anwendungsbeispiel ausgeführt und der deterministischen Planung gegenübergestellt. Es folgt die Modellierung eines Energiesystems, welches unter Eingabe von bekannten Parametern zunächst deterministisch gelöst wird. Schließlich werden eine deterministische sowie eine justierbare robuste Methode für dieses Modell implementiert und durch eine Simulation mit realisierten Daten miteinander verglichen. Mit der justierbaren robusten Optimierung soll eine weniger konservative Methode als die statische robuste Optimierung untersucht werden, da für letztere oftmals keine zulässigen Lösungen existieren.



Ritter, Sandra;
Port-Hamiltonsche Modellierung mikroökonomischer Prozesse. - Ilmenau. - 57 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

Gegenstand dieser Arbeit ist es, die Port-Hamiltonsche Modellierung, die in zahlreichen Bereichen der Physik eingesetzt wird, auf das Gebiet der Mikroökonomik anzuwenden. Dazu wird der Begriff der Energie mit einer Geldmenge identifiziert und die grundlegenden Elemente eines Marktes, Angebot, Nachfrage, ein Lager und eine Investition, werden in die Port-Hamiltonsche Modellierungsart eingeordnet. Diese Elemente werden einzeln modelliert und schließlich in einem System, dem Pedersen Markt, miteinander verbunden. Ein Hauptaugenmerk liegt dabei auf der ökonomischen Interpretation. Die Kopplung der einzelnen Akteure findet durch den Markt, formalisiert durch eine Dirac-Struktur, statt. Es zeigt sich, dass eine Gelderhaltungseigenschaft und Bilanzgleichung erfüllt ist. Ferner zeigen wir mittels numerischer Untersuchung anhand eines Marktmodells die Korrespondenz des Gleichgewichtsbegriffs in der Systemtheorie und ebendiesem in der Mikroökonomik.



Arndt, Cinja;
Robustheit von Schätzern epidemiologischer Parameter gegen Missspezifikationen im Infektiositätsprofil. - Ilmenau. - 41 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

Das Schätzen epidemiologischer Parameter ist ein wichtiges Hilfsmittel zur Beurteilung der aktuellen Situation im Falle einer Epidemie. Ausgehend von der Intuition, dass sich der Wachstumsfaktor auch ohne Kenntnis des Infektiositätsprofils durch das lokale Anfitten einer Exponentialkurve an die Inzidenzen bestimmen ließe, beschäftigen wir uns mit der Reproduktionszahl und davon abgeleiteten Parametern in Hinblick auf Missspezifikationen des Infektiositätsprofils. Dabei betrachten wir jeweils den asymptotischen Bias und vergleichen für verschiedene Fälle vergangener Inzidenzen die Schätzer dahingehend. Anschließend verifizieren wir anhand von Simulationen die theoretischen Ergebnisse und bestätigen obige Intuition für in der Realität weitestgehend anzunehmende Fälle.



Wuttke, Felix;
Einhüllungen zur Relaxierung von nichtkonvexen Funktionen. - Ilmenau. - 21 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

Diese Bachelorarbeit beschäftigt sich mit gemischt-ganzzahligen Optimierungsproblemen mit nichtkonvexen Funktion. Diese treten zum Beispiel in der Physik bei der Modellierung von Versorgungsnetzen wie Gasnetzwerken auf. Zum Bestimmen unterer Schranken werden lineare Probleme gelöst, die durch das Einhüllen der problematischen nichtkonvexen Funktionen als Relaxierungen dienen.



Schelinski, Jakob;
Modellierung von neuronalen Netzen und ihres Trainings als Optimierungsproblem. - Ilmenau. - 57 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

Deep Learning ist ein Teilgebiet des maschinellen Lernens und basiert auf dem Einsatz von neuronalen Netzen. Diese Netze müssen entsprechend ihrer Aufgabe trainiert, d.h. optimiert werden. Um dies zu bewerkstelligen muss ein unrestringiertes Optimierungsproblem gelöst werden. In dieser Arbeit werden zunächst Grundbegriffe des Deep Learning mathematisch definiert und das zugrundeliegende Optimierungsproblem anhand eines Beispiels motiviert. Anschließend werden weitere Aspekte der Optimierung von neuronalen Netzen erläutert und Lösungsansätze vorgestellt und kritisch diskutiert.



Hoffmann, Moritz;
Speicherkapazität Neuronaler Netze : eine Übersicht. - Ilmenau. - 85 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Diese Masterarbeit beschäftigt sich mit verschiedenen Erkenntnissen zur Lernkapazität vorwärtsgerichteter neuronaler Netze für die gängigen Aktivierungsfunktionen sigmoid-, ReLU- und Schwellenwertfunktion. Hierzu werden jeweils die Ergebnisse und die zugehörige Konstruktion der Netze und ihrer Parameter besprochen.



Lorenz, Elisabeth;
Kompetitivitätsanalyse von Online-Algorithmen für das verallgemeinerte Paging-Problem. - Ilmenau. - 71 Seiten
Technische Universität Ilmenau, Diplomarbeit 2022

Im Gebiet Online-Optimierung werden Probleme betrachtet, bei denen Anfragefolgen mit minimalem Kostenaufwand bearbeitet werden sollen. Eine Anfrage wird dabei erst gestellt, wenn die vorhergehende bereits fertig beantwortet worden ist. Für die Gruppe der Paging-Probleme gibt es einige Algorithmen, die mögliche Antwortvorschriften liefern. In dieser Arbeit wird eine Verallgemeinerung des Paging-Problems vorgestellt. Hier werden Mehrfachbelegungen auf einem Punkt und Mehrfachforderungen in einer Anfrage zugelassen; die Abstände zwischen je zwei Punkten sind jedoch immer gleich. Dann wird der optimale Paging-Algorithmus LFD für das verallgemeinerte Paging-Problem erweitert und seine Optimalität nachgewiesen. Die Algorithmen LRU und MARK, die ebenfalls eigentlich für das Paging-Problem verfasst wurden, werden für das verallgemeinerte Paging-Problem angepasst. Danach wird ihre Kompetitivität nachgewiesen, indem für beide ein Vergleich mit einem optimalen Offline-Algorithmus durchgeführt wird.



Kirchhoff, Jonas;
Relative genericity with applications to linear differential-algebraic systems. - Ilmenau. - 63 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Das vor kurzem eingeführte Konzept der Generizität relativ zu einer Referenzmenge wird untersucht. Es wird gezeigt, dass relative generische Mengen viele Eigenschaften des von Wonham verwendeten klassischen Generizitätskonzepts aufweisen, nämlich dass sie unter Vereinigung, Schnittmenge und Obermengen geschlossen sind und ihr Komplement nirgends dicht ist. Unter Verwendung dieser Eigenschaften wird dann gezeigt, dass der Rang von Polynom-Blockmatrizen mit beschränktem Grad sowohl über dem Körper der rationalen Funktionen als auch auf der gesamten komplexen Ebene (wenn die Matrix nicht quadratisch ist) generisch voll ist, unter der Bedingung, dass der Rang eines Blocks von oben beschränkt ist. Diese Ergebnisse werden dann auf die algebraischen Charakterisierungen verschiedener Konzepte der Steuerbarkeit und Stabilisierbarkeit für lineare differential-algebraische Systeme der Form Ex' = Ax + Bu angewandt und notwendige und hinreichende Bedingungen für die Dimensionen von E, A und B abgeleitet, unter denen diese Systeme mit festem Rang von E steuerbar und stabilisierbar sind.



Boyé, Pascal;
Betrachtung der Gradientenbestimmung für den Adam Algorithmus. - Ilmenau. - 80 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

In dieser Arbeit werden verschiedene Abstiegsverfahren dargestellt. Speziell wird auf das Gradientenverfahren eingegangen und am Beispiel von Empirical Risk Minimization eine Entwicklung bis hin zu adaptiven Verfahren wie dem Adam-Algorithmus beschrieben. Anschließend wird das CLUE-Verfahren erklärt, welches den Adam-Algorithmus zum Lösen einer gewichteten Summe verwendet. Das CLUE-Verfahren verwendet ein Bayesches neuronales Netz und einen Variational Autoencoder, um eine Zielfunktion zu definieren. Diese beiden neuronalen Netze werden beschrieben und es wird erklärt, wie solche trainiert werden können. Für die Zielfunktion wird der Einfluss von verschiedenen Batch-Größen untersucht. Außerdem wird eine modifizierte Abbruchbedingung betrachtet.



Junghans, Elisa;
Minimalgradzerlegungen von Kreispotenzen. - Ilmenau. - 35 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

Das Ziel dieser Arbeit ist es, herauszufinden für welche s und t es unendlich viele (s+t)-zusammenhängende Graphen gibt, die keine (s,t)-Zerlegung besitzen. Zu diesem Zweck wurden Potenzen von Kreisen auf Existenz solcher Zerlegungen untersucht. Dabei ist eine Zerlegung hier ein Tupel induzierter, disjunkter Teilgraphen, sodass jede Ecke des Graphen in einem der beiden Teile enthalten ist und eine (s,t)-Zerlegung eine solche Zerlegung, sodass der eine Teil Minimalgrad s und der andere Minimalgrad t hat. Dabei wurden die Fälle s = t, s = 1, s = 2 sowie s = 3 vollständig analysiert. Für allgemeine s und t konnten hinreichende Kriterien für die Existenz von (s,t)-Zerlegungen von Kreispotenzen hergeleitet werden, welche nicht immer erfüllt seien können. Dadurch wurden unendlich viele (s+t)-zusammenhängende Graphen ohne eine (s,t)-Zerlegung gefunden. Zusätzlich wurden auch notwendige Kriterien gefunden.



Bold, Lea;
Diskrete Geschwindigkeitsmodelle und ihr Bezug zu den Navier-Stokes-Gleichungen. - Ilmenau. - 105 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Das Ziel dieser Arbeit ist die Herleitung von Parametern der Strömungstheorie, dem Viskositäts- und Wärmeleitkoeffizienten sowie der Prandtl-Zahl, aus der Lösung der räumlich homogenen Boltzmann-Gleichung mit Korrekturterm. Um dies zu erreichen, beschäftigen wir uns zuerst mit der Boltzmann-Gleichung, einer mesoskopischen Gleichung der Gastheorie für verdünnte Gase. Diese wird auf einem diskreten Geschwindigkeitsmodell betrachtet, um die Lösung numerisch berechnen zu können. In diesem Zusammenhang interessieren wir uns auch für die Möglichkeit der Beeinflussung der Prandtl-Zahl durch die Wahl der Stoßgewichte des Stoßoperators der Boltzmann-Gleichung. Dafür wird zuerst die Theorie erarbeitet, die der Arbeit mit der Boltzmann-Gleichung zugrunde liegt und ein diskretes Geschwindigkeitsmodell definiert. Dazu gehört die Arbeit mit elastischen Stößen und dem allgemeinen und linearisierten Stoßoperator. Die Anfangsbedingung und gewisse Korrekturterme werden anschließend bestimmt, um die homogene Boltzmann-Gleichung aufstellen zu können. Dann werden wir uns mit dem Begriff des Orbits auseinandersetzen, der die Arbeit mit dem komplexen Geschwindigkeitsmodell etwas vereinfacht. Wir können anschließend feststellen, dass die Gewichte in den Stoßoperatoren die Lösung der Boltzmann-Gleichung tatsächlich beeinflussen können. Es werden gewisse Kriterien erstellt, nach denen die Gewichte, zusammengefasst in Gewichtsvektoren, aufgestellt werden können. Mit diesen Gewichtsvektoren kann nun die Boltzmann-Gleichung gelöst werden und diese Lösungen können zusammen mit den Prandtl-Zahlen für jedes der verwendeten Gewichte ausgewertet werden. Dies wird für zwei unterschiedliche Gittermodelle ausgetestet und die Ergebnisse werden dokumentiert. Schließlich wird die Herleitung der Euler- und Navier-Stokes-Gleichungen aus der Boltzmann-Gleichung erarbeitet und das Vorgehen skizziert. Somit wird auch die Entstehung der Prandtl-Zahl, die eine Kennzahl der Navier-Stokes-Gleichungen ist, sowie ihre Verbindung zu der Boltzmann-Gleichung, erklärt.



Dahlke, Jonathan Christoph;
Verbundene perfekte Matchings in Graphen mit spezieller Kempe-Färbung. - Ilmenau. - 21 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

In dieser Arbeit wird eine Verschärfung eines Spezialfalls der Hadwiger-Vermutung gelöst. Es werden Graphen mit einer Kempe-Färbung, das ist eine Färbung, in der der von je zwei Farbklassen induzierte Teilgraph zusammenhängend ist, betrachtet und unter diesen solche, in denen alle Farbklassen die Größe zwei haben. Unter dieser Voraussetzung konnte gezeigt werden, dass, wenn der Graph nicht allzu viele nicht verbundene Kanten besitzt, er ein perfektes Matching, in dem die Kanten paarweise verbunden sind, haben muss. Dieses verbundene perfekte Matching stellt dann einen vollständigen Minor dar, der so viele Taschen hat, wie die Färbung Farbklassen.



Kästner, Carolin;
Analyse der Varianz der Aktivierungen in Convolutional Neural Networks zum Verzicht auf Batch Normalization. - Ilmenau. - 105 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Im Rahmen der Bildverarbeitung werden künstliche Intelligenzen zur Klassifikation eingesetzt. Ein sehr verbreitetes Modell in Bezug auf diese Problemstellung ist das in dieser Masterarbeit vorgestellte ResNet. In ResNets ist die Batch Normalization ein wesentlicher Bestandteil und trägt erheblich zum Trainingsprozess dieser Netzwerke bei. Nichtsdestotrotz bringt sie auch einige Nachteile mit sich, weshalb es in den letzten Jahren viele Bestrebungen gab, Batch Normalization zu ersetzen. Allerdings führt ein bloßes Entfernen der Batch Normalization in ResNets zu explodierenden Varianzen, welche mit dem Exploding Gradient Problem einhergehen, das zum frühen Abbruch des Trainings eines Netzwerks führt. Im Fokus dieser Masterarbeit steht deshalb die Analyse der Entwicklung der Varianzen innerhalb von ResNets und ResNet-ähnlichen Architekturen ohne Normierung, wie dem RescaleNet. Auf Basis ausführlicher Varianzanalysen ergründen wir, welche Effekte in modifizierten preactivation ResNet-Varianten ohne Batch Normalization auftreten. Dabei wird in dieser Masterarbeit erstmals aufgezeigt, inwiefern das Padding im Residuum-Zweig Einfluss auf die Varianzentwicklung ausübt. Außerdem arbeiten wir Unterschiede zwischen den Entwicklungen der Varianzen im pre- und postactivation RescaleNet heraus und trainieren das preactivation RescaleNet erstmals erfolgreich sowohl auf dem CIFAR-10- als auch auf dem ImageNet-Datensatz.



Rothe, Anna;
Entwicklung und Implementierung eines numerischen Verfahrens zur Lösung eines unvollständigen Anfangswertproblems mit Nebenbedingung. - Ilmenau. - 41 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

In der vorliegenden Arbeit wurde ein numerisches Verfahren entwickelt, um ein unvollständiges Anfangswertproblem mit Nebenbedingung zu lösen. Dieses wird durch die aus der Physik bekannte Boltzmanngleichung motiviert. Da man häufig nur an stationären, also zeitunabhängigen Lösungen in einer Raumdimension interessiert ist, genügt es die Gleichung im eindimensionalen Fall zu betrachten, wo sie durch ein Randwertproblem gegeben ist. In der Praxis wird das zeitabhängige Problem so lange numerisch gelöst, bis der asymptotisch stationäre Zustand erreicht ist. Da diese Methode sehr rechenintensiv ist, wurde in der vorliegenden Arbeit anhand eines einfachen Modells des Stoßoperators eine alternative Berechnungsmethode entwickelt. Hierbei wird ausgehend von einer bekannten Lösung eine Homotopiemethode in Verbindung mit einem einfachen Schießverfahren genutzt, um die stationäre Lösung zu erhalten. Die dafür benötigten Schritte wurden in Matlab implementiert. Abschließend wurden numerische Berechnungen durchgeführt, um zu sehen, wie sich verschiedene Störungen der Anfangswerte auf die Lösung des Problems auswirken.



Schulz, Nicolas;
Zur Zerlegung von Ordnungen mit totalen Ordnungserweiterungen. - Ilmenau. - 51 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

Mit der Ordnungsdimension haben Dushnik und Miller 1941 ein Konzept entwickelt, das es ermöglicht, die Komplexität endlicher partieller Ordnungen abzuschätzen. In dieser Arbeit entwickeln wir eine alternative Methode zur Darstellung derartiger Ordnungen durch totale Ordnungserweiterungen, die - im Unterschied zum vorherigen Ansatz - zusätzliche Informationen über die Minima beliebiger Teilmengen erhalten. Wir beschäftigen uns dabei zunächst mit der Frage, wie groß derartige Zerlegungen wenigstens sein müssen und leiten anschließend konstruktive Zerlegungsalgorithmen her, die wir an geeigneten Beispielen testen.



Volkert, Manuela;
Klassifikation von Merkmalsvektoren mit vorheriger Dimensionsreduktion mittels Hauptkomponentenanalyse am Beispiel der Pflanzenbestimmung. - Ilmenau. - 80 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

In dieser Bachelorarbeit befassen wir uns mit der Klassifikation von Merkmalsvektoren nach einer Dimensionsreduktion. Zu diesem Zweck wurde uns ein Datensatz aus Merkmalsvektoren zur Verfügung gestellt, der aus Fotos von Blumen entstanden ist. Auf die Bestimmung eines Merkmalsvektors auf der Grundlage eines Fotos werden wir nicht eingehen. Unser Ziel ist es herauszufinden, ob eine Dimensionsreduktion mittels Hauptkomponentenanalyse vor der Klassifikation auf diesem Datensatz nennenswerte Vorteile bringt, ohne große Nachteile in der Genauigkeit der Klassifikation zu verursachen. Der Schwerpunkt der Theorie liegt dabei auf der Hauptkomponentenanalyse. Diese werden wir aus statistischer Sicht heraus erklären. Im Kontext der Eigenwertzerlegung bei der Hauptkomponentenanalyse gehen wir zudem auf deren Zusammenhang mit der Singulärwertzerlegung ein und geben ein Beispiel, wie sie numerisch berechnet werden kann. Zur Klassifikation von Merkmalsvektoren verwenden wir Support Vector Machines. Hier betrachten wir Vektoren zweier Klassen, die sich durch eine Hyperebene trennen lassen, um die Funktionsweise exemplarisch anzudeuten. Anschließend haben wir in der Programmiersprache python Programme erstellt, die es uns erlauben, Vorzüge und Nachteile der Dimensionsreduktion vor der Klassifikation auf unseren Daten zu untersuchen. Das Ergebnis dieser Untersuchung wird sein, dass für unseren Datensatz eine Reduktion auf Dimension vierzig vor der Klassifikation sinnvoll scheint. Die Laufzeit wird hier, zumindest für unsere Implementierung, stark verkürzt, während die Präzision der Klassifikation in etwa erhalten bleibt.



Krone, Maximilian;
Erzeugung von Mengensystemen mit Durchschnitten und Vereinigungen. - Ilmenau. - 28 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

Die Arbeit untersucht unter anderem folgende Darstellungs- und Konstruktionsprobleme: Gegeben sind Mengensysteme X und A über einer gemeinsamen Grundmenge. Ist es möglich, die Mengen aus X mit beliebigen Durchschnitten und Vereinigungen aus den Mengen aus A als Ausdruck darzustellen bzw. in Form einer Konstruktionsvorschrift zu konstruieren? Dieses Problem ist in polynomieller Zeit entscheidbar. Für eine Modifikation des Problems sei weiter eine Familie von n [Element von] N Mengenoperationen gegeben, welche in der Darstellung bzw. Konstruktion zusätzlich zu Durchschnitten und Vereinigungen (einmalig) verwendet werden dürfen. Auch dieses Problem ist für eine Klasse von Mengenoperationen, zu der insbesondere alle zweistelligen sowie die Komplementbildung gehören, in polynomieller Zeit entscheidbar. Für n = 3 viele hinreichend komplexe, aber feste Mengenoperationen ist das Problem dagegen NP-vollständig. Dies bleibt bestehen, wenn wir statt der Verwendung von drei Mengenoperationen drei frei wählbare Mengen zulassen. Die zugehörige Entscheidungsfrage ist allgemein: Gibt es ein Mengensystem S aus n Mengen so, dass die Mengen aus X mit beliebigen Durchschnitten und Vereinigungen aus den Mengen aus A [Vereinigungsmenge] S konstruierbar bzw. als Ausdruck darstellbar sind? Eine Verallgemeinerung dieses Problems ist äquivalent zum folgenden Entscheidungsproblem für einen gegebenen Digraphen D = (V, E) und n [Element von] N: Gibt es n Teilmengen von V (Schnitte in D) so, dass für jede Kante xy [Element von] E eine der Mengen die Ecke x, jedoch nicht die Ecke y enthält? Dies wiederum ist äquivalent zu einer Zerlegung der Kantenmenge E in n Mengen, welche nicht zugleich Kanten xy und yz für irgendwelche Ecken x, y, z enthalten. Auch diese Probleme sind NP-vollständig, insbesondere für azyklische Digraphen und n = 3.



Küstner, Markus Anton;
Modellierung von Problemen als quadratische unrestringierte binäre Optimierungsprobleme. - Ilmenau. - 56 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

Ein adiabatischer Quantencomputer kann quadratische unrestringierte binäre Optimierungsprobleme (QUBO-Probleme) effizient lösen, unter bestimmten Voraussetzungen sogar schneller als herkömmliche Computer. Das Ziel dieser Arbeit ist es herauszufinden, welche Optimierungsprobleme als QUBO-Problem modelliert werden können und in welcher Form dies möglich ist. Es stellt sich heraus, dass beliebige ganzzahlige Optimierungsprobleme als QUBO-Pro- bleme modelliert werden können, sofern geeignete Straffunktionen existieren und alle Variablen beschränkt sind. Für die nötigen Umformungsschritten werden die Voraussetzungen diskutiert. Dies umfasst Binärdarstellungen von beschränkten ganzzahligen Variablen, die Reduzierung des Grades multilinearer binärer Polynome und das Aufnehmen von Nebenbedingungen in die Zielfunktion. Des Weiteren werden für multilineare binäre Gleichungs- und Ungleichungsnebenbedingungen geeignete Straffunktionen aufgestellt und verschiedene Möglichkeiten der Wahl der Straffunktionen diskutiert. Zudem wird analysiert, wie mit Betragsfunktionen in Nebenbedingungen und in Zielfunktionen verfahren werden kann.



Schneider, Lucia Chantal;
Anwendung von Taylorpolynomen zweiter Ordnung zur äußeren Approximation. - Ilmenau. - 49 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

Die Klasse der gemischt-ganzzahligen nichtlinearen Optimierungsprobleme bietet ein breites Spektrum an Anwendungsmöglichkeiten, unter anderem die Modulation von Versorgungsnetzwerken oder Verkehrsströmen. Es ist daher von großem Interesse, neue Lösungsverfahren für diese Art von Optimierungsproblemen zu finden und bereits bekannte Ansätze weiterzuentwickeln. In dieser Arbeit wird die Erweiterung der Äußeren Approximation durch die Anwendung von Taylorpolynomen zweiter Ordnung untersucht. Dazu wird eine Reihe von Möglichkeiten zur Gewinnung geeigneter quadratischer Approximationen der Nebenbedingungen zusammengetragen und deren praktische Anwendbarkeit diskutiert. Weiterhin werden die Ergebnisse der klassischen linearen und der erweiterten quadratischen Äußeren Approximation für ausgewählte Testbeispiele miteinander verglichen.



Friedrich, Timon;
Über drei Arbeiten aus der Spieltheorie. - Ilmenau. - 53 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Das Ziel dieser Masterarbeit ist es, ausgewählte Arbeiten aus der Spieltheorie, neu darzustellen, weiter zu untersuchen und neue Erkenntnisse zu generieren. Dazu wird folgende Forschungsfrage gestellt: Welche neuen Aussagen können ergänzend zur vorgestellten Literatur bewiesen werden? Um die Frage zu beantworten, werden verschiedene wissenschaftliche Publikationen ausgewertet und ergänzendes Hintergrundwissen zusammengetragen. In Abschnitt 3 sehen wir, dass eine abzählbar unendliche Spielermenge nötig ist, damit ein sogenanntes Wasserfallspiel existiert. Dem Autor ist es gelungen zu beweisen, dass dies für eine beliebige abzählbar unendliche Menge erfüllt ist. Wenn wir beim Austausch der i-ten Aktion durch H bzw. S Gleichheit der Auszahlungsfunktion zulassen, dann können wir zeigen, dass dieses Spiel leicht für eine beliebige abzählbar unendliche Menge konstruierbar ist. Anhand des Untreue-Ehemänner-Problems untersuchen wir in Abschnitt 4 die Auswirkungen der Kommunikationsform. Hierbei stellen wir fest, dass untreue Ehemänner frühestens nach drei Nächten hingerichtet werden können, wenn sich die Frauen nicht über die Treue ihrer Männer unterhalten dürfen. Insgesamt erkennen wir, dass die Anzahl der untreuen Ehemänner für die Argumentation entscheidend ist. Aus diesem Kommunikationsdilemma lernen wir, dass die Wirkung einer Aussage maßgeblich von der Beschaffenheit des Informationskanals abhängt. Dabei nimmt der derzeitige Allgemeinwissensstand eine zentrale Rolle ein. Abschließend können wir mithilfe der evolutionären Spieltheorie feststellen, wie stabil Strategien sind. Dabei erkennen wir, dass das Nash-Gleichgewicht im Urlauberdilemma instabil ist, wenn es zulässig ist, dass sehr große Zahlen notiert werden. Daher ist es, entgegen der klassischen Spieltheorie, sinnvoll von Nash-Gleichgewichten abzuweichen.



Krämer, Alexander;
Berechnung von Greeks mittels Malliavin-Kalkül. - Ilmenau. - 73 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Gegenstand dieser Arbeit ist es, gewisse Funktionale der Lösungen von stochastischen Differentialgleichungen (kurz SDE) auf Differenzierbarkeit nach Parametern der SDE zu untersuchen und diese Ableitungen gegebenenfalls als Erwartungswert darzustellen, um eine möglichst einfache numerische Berechnung mittels MonteCarloSimulation zu ermöglichen. Im Zentrum der Betrachtung steht die finanzmathematische Anwendung und die Berechnung von Greeks. Ziel soll es sein, die theoretische Grundlage für einen numerischen Versuchslauf zu erarbeiten. Zu diesem Zweck werden zunächst die SDE aufgestellt und die wichtigsten allgemeinen Voraussetzungen aufgeführt. Anschließend wird der Malliavin-Kalkül eingeführt, der das zentrale Werkzeug in dieser Arbeit darstellt. Dessen zwei Operatoren, die Malliavin-Ableitung und der Divergenzoperator, werden definiert und auf einige wichtige grundlegende Eigenschaften untersucht. Außerdem wird die grundlegende Anwendung der Malliavin-Ableitung auf die Lösung der SDE behandelt. Anschließend wird die Darstellung von Greeks als Erwartungswerte mittels Malliavin-Kalkül untersucht. Es werden auch die Grenzen dieser Methode bei bestimmten Greeks aufgezeigt und ein paar Alternativen für das Erreichen des angestrebten Ziels dargestellt. Zum Abschluss wird kurz ein Blick auf die numerische Lösung von SDEs geworfen, um bei der Monte-Carlo-Simulation die auftretenden Zufallsgrößen genau genug simulieren zu können.



Degenhardt, Laura;
Entwurf eines Monte Carlo-Algorithmus zur numerischen Simulation von Gelationsphänomenen. - Ilmenau. - 86 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

In der vorliegenden Masterarbeit wird ein Monte Carlo-Algorithmus zur numerischen Simulation von Gelationsphänomenen entworfen und getestet. Gelation beschreibt den Vorgang, bei dem Partikel endlicher Masse in endlicher Zeit zu Partikeln unendlicher Masse heranwachsen. Die Basis dafür bilden Koagulationsprozesse, welche mittels der Smoluchowski -Gleichung abgebildet werden. Beim Entwurf eines entsprechenden Algorithmus liegt die Schwierigkeit in der numerischen Erfassung der Gelation. Diese erfordert das Konzept einer geeigneten Schwelle, welche in der Arbeit entsprechend hergeleitet und eigeführt wird. Weiterhin werden Maßnahmen zur effizienten Gestaltung des Algorithmus vorgestellt und auf die Aussagekraft und Grenzen des Algorithmus eingegangen. Der Basisalgorithmus zur Simulation von Gelationsphänomenen wurde mittels Operatorensplitting erweitert. In diesem Zusammenhang werden Koagulationsprozesse unter Berücksichtigung von räumlicher Diffusion und deren Auswirkung auf das Gelationsverhalten des betrachteten Systems untersucht.



Bernstein, Tobias;
Nichtasymptotische Multiskalenansätze zur Dichteschätzung. - Ilmenau. - 44 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

In der vorliegenden Arbeit werden simultane Konfidenzbereiche für geglättete Wahrscheinlichkeitsdichten hergeleitet. Wir beschränken uns auf den Fall u.i.v. reellwertiger Beobachtungen, denen eine stetige Verteilung zugrunde liegt und die fast sicher Werte in einem kompakten Intervall annehmen. Zum Schätzen der geglätteten Dichte werden Kerndichteschätzer mit variabler positiver Bandbreite verwendet, wobei wir beliebige Lipschitz-stetige Kerne zulassen. Zunächst werden einige bekannte Eigenschaften des Kerndichteschätzers gezeigt. Danach ermitteln wir erst für feste Bandbreite und später simultan für alle Bandbreiten Konfidenzbereiche in der Supremumsnorm für die tatsächlichen geglätteten Dichten. Hierbei verwenden wir nichtasymptotische Methoden und erhalten konservative Konfidenzbereiche.



Trautmann, Luca;
Doob-Martin-Ränder kombinatorischer Familien. - Ilmenau. - 83 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Der Zustandsraum von Markovketten lässt sich durch die Doob-Martin-Kompaktifizierung um den Martin-Rand erweitern, sodass diese fast sicher konvergieren. In dieser Arbeit werden die Doob-Martin-Kompaktifizierungen verschiedener kombinatorischer Markovketten und kombinatorischer Familien betrachtet. Hierbei wird nachgewiesen, dass der Martin-Rand kombinatorischer Familien bestehend aus Permutationen S* und schlichter Graphen G bezüglich einer Vielzahl kombinatorischer Markovketten der Menge der Permutons beziehungsweise Graphons entspricht. Allgemeiner werden für beliebige kombinatorische Familien mit geeignetem Einbettungsbegriff kombinatorische Markovketten konstruiert. Diese Markovketten sind eng mit den Einbettungsbegriffen verknüpft und die über sie definierten Doob-Martin-Kompaktifizierungen können als natürliche Kompaktifizierung der kombinatorischen Familie aufgefasst werden. Die Annahmen über die Einbettungsbegriffe der kombinatorischen Familien sind hierbei so schwach gewählt, dass neben den G und S* viele der bisher in der Literatur betrachteten kombinatorischen Familien als Spezialfälle dieses neuen generischen Ansatzes betrachtet werden können.



Richter, Philipp;
PAC-Lernbarkeit bei Klassifizierungsproblemen im Maschinellen Lernen. - Ilmenau. - 31 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

In dieser Arbeit wird die PAC-Lernbarkeit von Klassifizierungsproblemen im Maschinellen Lernen untersucht. Zunächst werden die benötigten mathematischen Grundlagen beziehungsweise Begriffe definiert. Anschließend wird auf die Garantien der PAC-Lernbarkeit endlicher Hypothesenklassen eingegangen und der Begriff der uniformen Konvergenzeigenschaft eingeführt. Des Weiteren wird die PAC-Lernbarkeit anhand einer unendlichen Hypothesenklasse nachgewiesen und abschließend ein Ausblick auf das grundlegende Theorem der statistischen Lerntheorie gegeben.



Fredrich, Sina;
Simultane Konfidenzintervalle für die Multinomialverteilung. - Ilmenau. - 76 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

In dieser Arbeit werden simultane Konfidenzintervalle mithilfe der Bonferroni-Methode und der Scheffé-Methode für den Wahrscheinlichkeitenvektor einer Multinomialverteilung hergeleitet. Diese werden dann auf eigens erhobene Daten eines Galtonbrettes angewendet, um die Nutzbarkeit dieser Apparatur zu Lehrzwecken zu beurteilen. Dabei wird untersucht, welche der beiden Methoden für diese Anwendung zu kleineren Konfidenzintervallen führt. Es zeigt sich, dass die Bonferroni-Methode, die im Gegensatz zur Scheffé-Methode die linearen Abhängigkeiten in den Komponenten des Wahrscheinlichkeitenvektors ignoriert, die kleineren Intervalle erzeugt. Die Anwendung der simultanen Konfidenzintervalle an dem Galtonbrett führt zu der Erkenntnis, dass dieses für zwei der insgesamt drei Einstellungen seinen Lehrzweck erfüllt.



Bold, Lea;
Numerische Untersuchungen zur Lösung der Boltzmann-Gleichung. - Ilmenau. - 54 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2020

Diese Arbeit beschäftigt sich mit einem numerischen Verfahren zur Lösung der räumlich homogenen Boltzmann-Gleichung. Die Boltzmann-Gleichung ist eine mesoskopische Differentialgleichung der kinetischen Gastheorie, die Partikel in dünnen Gasen betrachtet. Um numerische Untersuchungen durchführen zu können, wird ein diskretes Geschwindigkeitsmodell mit einem zweidimensionalen 3 × 3-Gitter vorgestellt, auf welchem gearbeitet wird. Es werden drei verschiedene Modelle für Stoßoperatoren betrachtet, die in der Boltzmann-Gleichung verwendet werden können: den nichtlinearen allgemeinen, den linearisierten und den Bhatnagar-Gross-Krook (BGK) Stoßoperator. Die Lösung der Gleichung erfolgt durch ein Runge-Kutta-Verfahren. Dafür bestimmen wir Anfangsbedingungen, die durch eine Störung beeinflusst werden. Es gibt zwei verschiedene Typen von Störungen, eine, die orthogonal auf den Momentenvektoren des Modells steht und eine, die sich in dem Raum aufgespannt von den Momentenvektoren befindet. Insgesamt betrachten wir neun solche Störungen. Die Lösung der Boltzmann-Gleichung wird für jede der Anfangsstörungen berechnet und die Ergebnisse werden miteinander verglichen. Zuerst schauen wir uns für den nichtlinearen Stoßoperator an, wie die Störungen der Anfangsbedingung den Lösungsverlauf beeinflussen können. Anschließend vergleichen wir die Ergebnisse mit denen des linearisierten Stoßoperators und stellen fest, dass nur manche Ergebnisse mit dem BGK-Operator erreicht werden können.



Kohl, Stefan;
Eine Verallgemeinerung der Markov-Chain-Monte-Carlo-Methode. - Ilmenau. - 45 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

Diese Arbeit beschäftigt sich damit, das Integral einer Funktion gegen ein Wahrscheinlichkeitsmaß zu approximieren, welches implizit als invariante Verteilung einer Markovkette gegeben ist. Dabei wird eine Verallgemeinerung des Markov-Chain-Monte-Carlo-Verfahrens eingeführt und die Konvergenz des dabei entstehenden Approximationsterms bewiesen. Dabei werden sowohl Markovketten in diskreter als auch in stetiger Zeit behandelt. Weiterhin wird die Übergangsmatrix in diskreter Zeit mit einer linearen Abbildung derart transformiert, dass Selbstübergänge ausgeschlossen werden. Analog dazu wird die Generatormatrix in stetiger Zeit derart transformiert, dass alle Übergänge mit Rate Eins erfolgen.



Staub, Tobias;
Stochastic differential equations via rough paths. - Ilmenau. - 99 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

In dieser Arbeit wird ein analytischer Ansatz vorgestellt, der es ermöglicht stochastische Differentialgleichungen pfadweise zu interpretieren. Wir verwenden hierfür Rough Path Integrationstheorie. Zunächst werden Rough Path Integrale eingeführt und einige Eigenschaften dieser sowie der zugehörigen Differential- bzw. Integralgleichungen gezeigt. Danach wird dies verwendet um Lösungstheorie für stochastische Differentialgleichungen zu erhalten.



Kirchhoff, Jonas;
Linear differential-algebraic systems are generically controllable. - Ilmenau. - 49 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2020

In der vorliegenden Arbeit werden die topologischen Eigenschaften der Menge der steuerbaren differentiell-algebraischen Systeme der Form Ex = Ax+Bu mit reellen Matrizen E, A ∈ Rℓ×n und B ∈ Rℓ×m untersucht. Dabei betrachten wir die fünf Steuerbarkeitskonzepte freie Initialisierbarkeit (Steuerbarkeit im Unendlichen), Impulskontrollierbarkeit, Steuerbarkeit im Sinne des Verhaltens, vollständige Steuerbarkeit und starke Steuerbarkeit. Um die bereits bekannten algebraischen Charakterisierungen dieser Konzepte ausnutzen zu können, betrachten wir zunächst Blockmatrizen, deren Einträge reelle Polynome in einer Unbekannten sind. Wir finden notwendige und hinreichende Bedingungen, unter denen die Menge solcher Blockmatrizen, deren Rang im Körper der rationalen Funktionen oder sogar auf der gesamten komplexen Ebene voll“ ist, generisch ist. Unter Ausnutzung dieser Resultate können wir dann für jedes der fünf genannten Steuerbarkeitskonzepte jeweils notwendige und hinreichende Bedingungen an ℓ, n und m finden, unter denen die Menge der steuerbaren Systeme generisch ist



Friedrich, Timon;
Laplace-Transformation und ihre Anwendungen. - Ilmenau. - 59 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2020

Viele naturwissenschaftliche und technische Zusammenhänge lassen sich mit Differentialgleichungen beschreiben. Ein in der Anwendung weit verbreitetes Hilfsmittel zum Lösen dieser Gleichungen ist die Laplace-Transformation. Aufgrund der vielseitigen Anwendungsfelder betrachten wir in dieser Arbeit die Laplace-Transformation genauer. Ein großes Anwendungsfeld ist die Elektrotechnik mit der Untersuchung von Schaltplänen und insbesondere von RCL-Netzwerken. Desweiteren diskutieren wir, wie wir mithilfe der Laplace-Transformation Systeme auf Stabilität untersuchen können. Anschließend erläutern wir die Funktionsweise von Block-Diagrammen und wie wir durch Hinzufügen von elementaren Übertragungsgliedern ein System stabilisieren können.



Yu, Bin;
Simultane Konfidenzintervalle für Kontingenztafeln. - Ilmenau. - 40 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2020

Bei Datenanalysen werden Informationen oft in Kontingenztafeln zusammengefasst. In dieser Arbeit untersuchen die Abhängigkeit zweier Merkmale. Anstatt einen chi-Quadrat-Test anzuwenden, berechnen wir hierzu simultane Konfidenzintervalle der bedingten Wahrscheinlichkeiten. Daraus leiten wir einen Test auf Unabhängigkeit ab.



Wang, Zhipeng;
Modellierung von elektrischen Schaltungen mittels differential-algebraischer Gleichungen. - Ilmenau. - 27 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2020

Differential-algebraische Gleichungen (DAEs) sind Systeme von gewöhnlichen Differentialgleichungen sowie algebraischen Gleichungen. In der vorliegenden Arbeit verwenden wir DAEs zur Beschreibung elektrischer Netzwerke. Um das Lösungverhalten und die Stabilität von DAEs zu beschreiben, verwenden wir Matrixbüschel und die Weierstraß-Normalform. Anschließend zeigen wir, wie man für elektrische Netzwerke die dazugehörige differential-algebraische Gleichung mit den Bauelemente-Beziehungen sowie den Kirchhoffschen Gesetzen herleiten kann. Abschließend stellen wir die modifizierte Knotenanalyse vor, und untersuchen die Eigenschaften der hergeleiteten DAEs, wie Regularität, Stabilität sowie den Index.



Möller, Florian;
Analyse eines den 4-Zusammenhang zertifizierenden Algorithmus. - Ilmenau : Universitätsbibliothek. - 1 Online-Ressource (42 Seiten)
Technische Universität Ilmenau, Masterarbeit 2020

Zertifikate sind in der Graphentheorie hilfreich um Eigenschaften von Graphen schnell nachweisen zu können. Elmasry, Mehlhorn und Schmidt setzten sich mit 3-Zusammenhang in Hamiltongraphen auseinander und entwickelten ein Zertifikat, welches mittels eines Algorithmus in Laufzeit O(m + n) verifiziert, ob ein Hamiltongraph 3-zusammenhängend ist. Schmidt hat dies 2010 auf allgemeine Graphen mithilfe der Barnett-Grünbaum-Pfade erweitert. Somit gibt es ein Zertifikat für 3-Zusammenhang in Graphen. In dieser Arbeit beschäftigt uns die Frage: Kann man auch ein Zertifikat für 4-Zusammenhang aufstellen? Dabei stützen wir uns auf die Resultate der Arbeiten von Martinov und von Mader bezüglich 4-zusammenhängender Graphen. Ziel ist es, einen vorgegebenen Graphen G aus einem kontraktionskritischen, 4-zusammenhängenden Ausgangsgraphen mittels einer Sequenz den 4-Zusammenhang erhaltenden Kantenexpansionen zu rekonstruieren.



https://doi.org/10.22032/dbt.45610
Eckenpartitionszahlen. - Ilmenau. - 46 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

Ein wichtiger Teil der Graphentheorie sind bis heute Färbungsprobleme. Das klassische Färbungsproblem ist ein kombinatorisches Optimierungsproblem. Im Mittelpunkt steht dabei die Untersuchung der chromatische Zahl. Erweitern wir dieses Konzept und fordern, dass jede Farbklasse streng-t-degeneriert ist, so nennen wir die minimale Anzahl benötigter Farben die Eckenpartitionszahl. Wir zeigen grundlegende Eigenschaften kritischer Graphen bezüglich der Eckenpartitionszahl und untersuchen, wann ein Graph in zwei disjunkte Teilgraphen zerlegt werden kann, wobei jede Ecke des ersten Teilgraphen mit jeder Ecke des zweiten Teilgraphen durch genau t Kanten verbunden wird. Des Weiteren untersuchen wir die minimale Anzahl Kanten eines kritischen Graphen bezüglich der Eckenpartitionszahl. Außerdem erweitern wir das Strong Perfect Graph Theorem auf die Eckenpartitionszahl mit t=2.



Vogel, Hannah;
Kreise durch vorgeschriebene Knoten eines Graphen. - Ilmenau. - 40 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

Die vorliegende Arbeit beschäftigt sich mit der Bestimmung der Länge von Kreisen durch vorgegebene Knoten von wesentlich c-zusammenhängenden Graphen. Es werden obere Schranken der Länge von Kreisen solcher Graphen für einen sowie zwei vorgegebene Knoten erarbeitet. Dazu wird zunächst eine alternative Problemstellung betrachtet, in der untere Schranken für die Anzahl der Knoten eines Graphen bestimmt werden, der eine Mindestkreislänge durch die vorgegebenen Knoten erfüllt. Dass diese Schranken scharf sind wird durch entsprechende Konstruktion von Graphen gezeigt, welche die Schranken mit Gleichheit erfüllen. Durch Abschätzen und Umformen dieser unteren Schranken, ergeben sich dann die vorliegenden Ergebnisse. In Falle eines vorgegebenen Knotens werden zudem Graphen betrachtet, die zusätzlich planar sind.



Kästner, Carolin;
Trichter- und modellprädiktive Regelung. - Ilmenau. - 70 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2019

In dieser Arbeit wird der Trichterregler für Systeme mit beliebigem Relativgrad nach Berger, Lê und Reis, welcher keine Kenntnis des Modells und des Anfangswertes benötigt, anhand eines linearen und eines nichtlinearen Beispiels nachvollzogen. Es wird getestet, wie gut eine Abtastung dieses Trichterreglers möglich ist und festgestellt, dass eine sehr kleine Schrittweite von Nöten ist, damit der Regler stückweise konstant agieren kann. Des Weiteren wird mit Hilfe der Trichterregelung gezeigt, dass die modellprädiktive Steuerung initial und rekursiv zulässig ist. Ferner wird eine stückweise konstante Version dieser Regelung auf das lineare und das nichtlineare Beispiel angewendet und anhand eines selbst gewählten Kostenfunktionals aufgezeigt, dass die entstehenden Kosten der Trichterregelung größer sind als die entsprechenden der modellprädiktiven Regelung. Dabei fällt zusätzlich auf, dass die modellprädiktive Regelung mit einer deutlich größeren Schrittweite als der Trichterregler stückweise konstant agieren kann. Außerdem wird der Einfluss verschiedener Optimierungsfunktionen auf das entstehende (lokal) optimale Eingangssignal und die daraus resultierenden Fehler für die modellprädiktive Regelung verglichen. Es wird ein Ausblick darauf gegeben, wie die Vorteile der modellprädiktiven Regelung genutzt werden können, ohne alle Parameter des Modells zu kennen.



Warnow, Leo;
Error measures for necessary optimality conditions in single- and multi-objective optimization. - Ilmenau. - 69 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Eine zentrale Anforderung an das numerische Lösen von Optimierungsproblemen mit Hilfe von Computeralgorithmen besteht in der Verifizierung der Optimalität einer gefundenen Lösung. Ein häufig genutzter Ansatz dafür ist die numerische Überprüfung notwendiger Optimalitätskriterien. In dieser Arbeit werden verschiedene solcher Kriterien für skalarwertige und multikriterielle Optimierungsprobleme vorgestellt. Zudem werden sogenannte Fehlerfunktionen eingeführt, die als Maß der Verletzung notwendiger Optimalitätsbedingungen dienen. Deren Eigenschaften werden untersucht und an einzelnen Beispielen demonstriert.



Ehrlich, Daniel;
Subharmonische Bifurkationen der reversiblen Hénon-Abbildung. - Ilmenau. - 37 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

In dieser Arbeit untersuchen wir eine Familie von reversiblen Hénon-Abbildungen und ein dazu äquivalentes reversibles diskretes dynamisches System von biinfiniten Folgen. Wir zeigen, dass in diesen Systemen durch subharmonische Bifurkationen symmetrische periodische Orbits entstehen. Für die symmetrischen periodischen Orbits vom Typ (b,b) in diesen Systemen wird ein Resultat bezüglich deren Anzahl und Minimalperiode gezeigt.



Eingartner, Anna;
Mathematische Beschreibung der Ausbreitung seismischer Wellen im Mehrschichtmodell. - Ilmenau. - 25 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2019

In dieser Arbeit wird die seismische Wellengleichung, angefangen bei der Herleitung bis hin zur Anwendung in der Seismik, untersucht. Zunächst werden die benötigten mathematischen Grundlagen wie Dierentialoperatoren und Tensoren betrachtet. Anschließend wird die Bewegungsgleichung, eine partielle Dierentialgleichung, für die seismischen Wellen sowie deren Lösung hergeleitet. Des Weiteren wird das Verhalten einer Welle bezüglich Reexion und Transmission an einem 3-Schichten-Modell betrachtet. Abschließend werden Berechnungen zur Laufzeit und Reichweite einer Welle sowie deren Anwendung bei der Untersuchung von Erdschichten gemacht.



Leinweber, Leon;
Optimierung mit neuronalen Netzen. - Ilmenau. - 51 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2019

Diese Arbeit beschäftigt sich mit der Lösung eines linearen Optimierungsproblems mit Hilfe eines neuronalen Netzes. Das Optimierungsproblem wird aufgestellt und Vereinfachungen vorgenommen, um zu einem linearen Optimierungsproblem zu gelangen. Zu diesem Optimierungsproblem dann mit Hilfe einer diskreten Methode eine optimale Lösung berechnet wird. Für den Lösungsansatz mit einem neuronalen Netz wird das mathematische Grundgerüst aufgebaut, für das gezeigt wird, dass es unter gewissen Bedingungen zur Lösung führt. Begletend dazu wird ein einfaches Beispielproblem mit zwei Variablen eingeführt und schrittweise bearbeitet. Dieser theoretischen Ausführung folgt die tatsächliche Implementierung eines Algorithmus, der die Lösung approximiert. Die optimale Lösung und das Ergebnis des Algorithmus werden gegenübergestellt und da Ergebnis untersucht anhand des Beispielproblems.



Mu, Weikang;
Eine Delta-Methode für den Wasserstein-Abstand. - Ilmenau. - 44 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Die Steinsche Methode dient der Herleitung von Grenzwertsätzen in der Wahrscheinlichkeitstheorie. Sie erlaubt es, dabei auch Konvergenzgeschwindigkeiten zu bestimmen, da sie den Abstand der Verteilung der betrachteten Zufallsvariable zur asymptotischen Verteilung abschätzt. Diese Arbeit beschäftigt sich hauptsächlich mit der Steinschen Methode ohne Reskalierung, wobei die zugehörigen Approximationsfehler quantifiziert. Dies wird anschließend für die Delta-Methode verwendet, welche eine große Rolle in der asymptotischen Statistik spielt.



Zeng, Sebastian;
Ein verallgemeinerter Kalman-Filter für den homogenen Raum der Tensorzerlegungen . - Ilmenau. - 64 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

In dieser Arbeit formulieren wir, motiviert durch das Problem der Vorhersage des Ausbreitungskanals in einem MIMO Übertragungssystem, verallgemeinerte Zustandsraummodelle und Kalman-Filter auf Mannigfaltigkeiten. Die Ausbreitungskanäle lassen sich durch komplexe 3-Weg Tensoren niedrigen Ranges beschreiben. Zur Reduktion der zu schätzenden Parameter dienen Tensorzerlegungen. Zunächst weisen wir nach, dass die Menge dieser Tensorzerlegungen einen homogenen Raum bildet. Im Anschluss formulieren wir Zustandsraummodelle, wobei der Zustandsraum durch den homogenen Raum der Tensorzerlegungen und der Beobachtungsraum, durch den Raum der komplexen 3-Weg Tensoren gegeben ist. Das Vorhersageproblem lösen wir mit Hilfe eines verallgemeinerten Kalman-Filters. Abschließend testen wir durch Simulation eines einfachen Zustandsraummodells, wie gut das gewonnene Verfahren zur Rekonstruktion dient.



Mehner, Tom;
Adaptive identification of linear systems. - Ilmenau. - 65 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

In vielen Anwendungen, wie der Regelung von Robotern, dem autonomen Fahren oder der adaptiven Signalverarbeitung, ist es nicht möglich oder zu teuer unbekannte Parameter mit einem Sensor zu messen. Diese Masterarbeit untersucht die adaptive Schätzung dieser Parameter unter Verwendung der bekannten Ein- und Ausgänge eines Systems, in dem diese Parameter vorkommen. Dabei beschränken wir uns auf die Betrachtung linearer Modelle. Die Standardliteratur zu diesem Thema wechselt zwischen der Darstellung im Zeit- und Frequenzbereich. Das Ziel dieser Arbeit ist es eine im Zeitbereich geschlossene Darstellung der dort betrachteten Resultate und Beweise zu liefern. Die Arbeit besteht aus vier Teilen. Im ersten Teil wird eine Einführung in die Thematik gegeben und ein erstes Schätzgesetz hergeleitet. Der zweite Teil besteht aus Grundlagen. Die Beobachtbarkeit von zeitvarianten Systemen wird definiert und entsprechende Lemmata abgeleitet. Anschließend wird aus der Beobachtbarkeit eine Anforderung an Eingangssignale gefolgert, die sogenannte persistente Anregung. Eigenschaften dieser Funktionen werden untersucht und es wird überprüft ob der Ausgang eines stabilen linearen Systemes von persistenter Anregung ist, wenn der Eingang von persistenter Anregung ist. Der dritte Teil befasst sich mit Konvergenzbeweisen für Schätzgesetze. Dabei wird das Schätzgesetz aus der Einleitung wieder aufgegriffen. Unter der Annahme, dass der Eingang von persistenter Anregung ist, kann die Konvergenz der Parameter bewiesen werden. Des Weiteren wird, unter Verwendung von Ideen aus der Theorie des Funnel Control, ein neues Schätzgesetz hergeleitet. Der vierte Teil widmet sich der Simulation eines Beispieles.



Fanselow, Niklas;
Paths in a ball. - Ilmenau. - 40 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Die vorliegende Abschlussarbeit befasst sich mit einem Problem, welches durch einen Vortrag von P. Braun über die wissenschaftliche Arbeit "Unsafe Point Avoidance in Linear State Feedback". Um die Nichtexistenz einer stetigen Zustandsrückführung als Lösung eines linearen, zeitinvarianten, stabilisierbaren Systems mit der Eigenschaft, dass eine vorgegebene Menge von nicht sicheren Punkten durch die Lösungen des Systems vermieden wird, zu erklären, wurde im genannten Vortrag die folgende Behauptung aufgestellt. Betrachten wir eine Familie von Wegen im Einheitsball, welche stetig von ihrem Anfangspunkt auf der Einheitssphäre abhängen und in den Ursprung laufen, so gibt es für jeden Punkt des Einheitsballs einen Weg, der diesen Punkt in seinem Bild enthält. Diese Fragestellung, formuliert für den endlich-dimensionalen euklidischen Raum, wird in vorliegender Abschlussarbeit untersucht. Zunächst wird eine Funktion F konstruiert, welche ermöglicht, alle diese Wege zugleich zu betrachten. Unter der zusätzlichen Voraussetzung der Injektivität von F, stellt das Bild von F für einen festgehaltenen Zeitparameter topologische Sphären da. Basierend auf dem Jordan-Brouwer Separationssatz und der Gebietsinvarianz von Brouwer wird für diese Voraussetzungen ein Beweis der Surjektivität von F geführt. Allerdings konnte die zugrundeliegende Fragestellung in vorliegender Arbeit nicht beantwortet werden. Ein weiteres Hauptresultat dieser Arbeit stellt eine äquivalente Beziehung zwischen der Sujektivität von F und der Separationseigenschaft dar. Abschließend wird gezeigt, dass die Homöomorphie-Eigenschaft der Innen- und Außengebiete der durch F erhaltenen topologischen Sphären in diesem Spezialfall erhalten bleibt, während der Satz von Jordan-Schoenflies nicht auf höhere Dimensionen verallgemeinert werden kann, wie beispielsweise Alexander mittels der Konstruktion der Alexanderschen gehörnten Sphären bewies.



Scholz, Stephan;
Modeling and simulation of pulsed laser beam welding for aluminum alloys. - Ilmenau. - 90 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Diese Masterarbeit stellt den Vorgang des gepulsten Laserschweißens an einem Schweißpunkt mittels analytischen Beschreibungen und numerischen Simulationen vor. Hierbei werden Aluminiumlegierungen als das zu bearbeitende Material betrachtet, da diese für das Ausbilden von Heißrissen entlang der Schweißnaht bekannt sind. Heißrisse treten im Inneren und an der Oberfläche des bearbeiteten Materials auf Grund von rascher thermischer Kontraktion während des Ausschaltvorganges des Lasers auf. Im Gegensatz zu anderen Ansätzen, die beispielsweise auf die Verwendung von zusätzlichen Lasern setzen um einen geeigneten Abkühlprozess zu erhalten (siehe [11]), wird bei der hier vorgestellten Lösung nur ein Laser verwendet, der über dessen Leistung gesteuert wird. Dabei sollen Heißrisse mit flachen Rampen des Laserpulses beim Ausschaltvorgang verhindert werden. Hierfür wird ein mathematisch-physikalisches Modell für das betrachtete Problem des gepulsten Laserschweißens vorgestellt, welches eine semilineare Wärmeleitungsgleichung und eine Randsteuerung enthält. Darüber hinaus werden Methoden zur numerischen Berechnung der Wärmeentwicklung diskutiert und abschließend die Resultate der Simulationen für diverse Modi des Abschaltvorganges präsentiert.



Behrens, Meret;
Leichteste Wege in Graphen. - Ilmenau. - 33 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

Das Gewicht eines Weges in einem Graphen ist durch die Summe der Valenzen der Knoten des Weges gegeben. Diese Arbeit beschäftigt sich mit der Frage nach Abschätzungen für das Gewicht von sogenannten leichtesten Wegen mit einer bestimmten Anzahl von Knoten. Grundlage für die Arbeit bildet ein Resultat von B. Mohar. Davon ausgehend werden Schranken für das Gewicht in hamiltonschen und nichthamiltonschen Graphen gefunden. Im Besonderen werden 'leicht' berechenbare Schranken für das im Allgemeinen NP-schwere Problem, einen leichtesten Weg zu finden, angegeben.



Rußwurm, Franz;
Steuerbarkeitsbegriffe und Motion Primitives anhand ausgewählter Beispiele. - Ilmenau. - 109 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

In dieser Masterarbeit werden wir uns mit Kontrollsystemen, lokaler Steuerbarkeit und dem Konzept des Manöver-Automaten befassen. Wir werden uns zunächst kontrollaffine Systeme und die lokale Steuerbarkeit für kurze Zeit anschauen. Wir werden verschiedene Sätze kennenlernen, um festzustellen, ob diese Kontrollsysteme in kurzer Zeit lokal steuerbar sind. Während wir dies tun, werden wir auch das Modell des starren Körpers betrachten und die Sätze verwenden, um dieses Beispielsystem für verschiedene Dimensionen der Steuerung auf lokale Steuerbarkeit zu untersuchen. Außerdem werden wir Sätze über die Existenz von lokal asymptotisch stabilisierenden Feedbacks kennenlernen und diese Sätze auf das Modell des starren Körpers anwenden. Im zweiten Teil dieser Masterarbeit werden wir uns auf Bewegungsabläufe konzentrieren. Speziell werden wir uns auf getrimmte Abläufe und Manöver konzentrieren. Während wir die verschiedenen Definitionen und Sätze in diesem Abschnitt kennenlernen, werden wir diese auch auf ein Beispielsystem anwenden, den nicht-holonomen Roboter. Nachdem wir getrimmte Abläufe und Manöver für dieses System gefunden haben, werden wir die Bewegungsabläufe verwenden, um den Manöver-Automaten zu definieren. Mit diesem Manöver-Automaten werden wir einen Weg für den nicht-holonomen Roboter berechnen. Darüber hinaus lernen wir Sätze über die Steuerbarkeit des Manöver-Automaten kennen und wie man ein Optimalsteuerungsproblem damit löst. Dabei betrachten wir ein Programm zur Lösung eines solchen Optimalsteuerungsproblems für den nicht holonomen Roboter. Am Ende betrachten wir ein komplizierteres Beispielsystem, den erweiterten nicht-holonomen Roboter, und stellen Unterschiede zu den Bewegungsabläufen des nicht-holonomen Roboters fest.



Staub, Tobias;
Ein Zentraler Grenzwertsatz für unvollständige U-Statistiken. - Ilmenau. - 49 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

In dieser Arbeit wird ein hinreichendes Kriterium dafür entwickelt, dass eine unvollständige U-Statistik asymptotisch normalverteilt ist. Genauer wird der Wasserstein-Abstand zur Normalverteilung mittels Steins Methode abgeschätzt. Der Beweis basiert auf einer Variation des Beweises für den gewöhnlichen Zentralen Grenzwertsatz. Schließlich wird der gezeigte Satz auf U-Statistiken und Erd˝os-Rényi-Zufallsgraphen angewendet.



Böhm, Martin;
Einige Kategorien glatter Strukturen auf metrischen Räumen. - Ilmenau. - 44 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

In dieser Arbeit wurde betrachtet, in welchen Weisen sich der Begriff glatter Funktionen von Mannigfaltigkeiten auf metrische Räume verallgemeinern lässt. Dabei wurde zunächst untersucht, inwiefern dies mit der Theorie der Frölicher Räume, in der die glatte Struktur durch glatte Kurven beziehungsweise glatte reellwertige Funktionen ausgedrückt ist, möglich ist. Für zwei derartige Ansätze wurde gezeigt, dass diese auf metrischen Räumen mit bereits bekannter glatter Struktur nicht das gewünschte Ergebnis liefern. Anschließend wurden zwei Kategorien beschreiben, die auf natürliche Weise den Begriff der Glattheit auf metrischen Räumen definieren. Für diese wurde gezeigt, dass diese auf Riemannschen Mannigfaltigkeiten die übliche Struktur liefern. An einem weiteren Beispiel wurde gezeigt, dass diese Kategorien auch auf weiteren Räumen wünschenswerte Ergebnisse liefern, an einem weiteren allerdings auch Grenzen der Anwendbarkeit dieser Kategorien aufgezeigt.



Luger, Cedric;
Algebraische Untersuchung linearer zeitvarianter Differenzialgleichungssysteme. - Ilmenau. - 52 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

In dieser Arbeit werden Grundlagen der algebraischen Untersuchung linearer zeitvarianter Differenzialgleichungssysteme mit meromorphen Koeffizienten ausgearbeitet. Dabei wird der Ring der linearen Differenzialoperatoren mit meromorphen Koeffizienten als Schiefpolynomring eingeführt. Mithilfe größter gemeinsamer Teiler und kleinster gemeinsamer Vielfacher wird ein Quotientenschiefkörper konstruiert, der sich für die Arbeit mit Matrizen als nützlich erweist. Wir stellen die Transformation dieser in die sogenannte Jacobson-Form vor, die eine simple Normalform dieser Matrizen liefert. Wir nutzen den Raum fast überall glatter Funktionen als Linksmodul des betrachteten Rings. Für diesen wird gezeigt, dass er die Eigenschaft eines injektiven Kogenerators besitzt. Die Anwendungsmöglichkeit der gefundenen Resultate wird an Beweisen einiger Sätze der Systemtheorie demonstriert.



Rocktäschel, Stefan;
A BB algorithm for multiobjective mixed-integer convex optimization. - Ilmenau. - 56 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Diese Masterarbeit beschäftigt sich mit multikriteriellen gemischt-ganzzahligen konvexen Optimierungsproblemen. Derartige Probleme treten beispielsweise in Ingenieurs- oder Wirtschaftswissenschaften auf. Hierbei ist man oft daran interessiert, alle effizienten Punkte für diese Optimierungsprobleme zu bestimmen. Zunächst werden in dieser Arbeit die theoretischen Grundlagen der multikriteriellen Optimierung dargestellt. Anschließend wird ein Branch-and-Bound Algorithmus zur Bestimmung einer Lösungsüberdeckung solcher Optimierungsprobleme vorgestellt und die einzelnen Teilschritte genauer beleuchtet. Dabei werden Auswahlkriterien, der Bisektionsschritt, Zulässigkeitskriterien und Verwerfungskriterien, die wir basierend auf oberen und unteren Schranken für die Zielfunktion formulieren, betrachtet. Weiterhin wird der Algorithmus noch durch weitere Modifikationen erweitert und liefert dadurch genauere Lösungsüberdeckungen. Der erweiterte Algorithmus wurde in MATLAB implementiert und anhand von uns entwickelter Testbeispiele getestet.



Hoffmann, Moritz;
Über ein Branch-and-Bound Verfahren der konvexen Optimierung. - Ilmenau. - 30 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

Diese Bachelorarbeit beschäftigt sich mit einem Branch-and-Bound Algorithmus zur konvexen quadratischen ganzzahligen Optimierung. Ein zentraler Punkt solcher Verfahren ist die Verbesserung unterer Schranken, um möglichst viele Äste, die zu keiner Minimallösung führen werden, entfernen zu können. Zu diesem Zweck nutzen wir die Ganzzahligkeit und passende Ellipsoide, mit deren Hilfe wir die untere Schranke, welche durch das Minimum der stetigen Relaxierung gegeben ist, verbessern können.



Degenhardt, Laura;
Zusammenhang zwischen restringierter und multikriterieller Optimierung. - Ilmenau. - 38 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

In der Praxis sollen zu meist Abläufe optimiert werden, bei denen sich konkurrierende Ziele gegenüberstehen. Es stellt sich die Frage, ob es vorteilhafter ist, diese Probleme restringiert oder multikriteriell zu lösen. Um dies zu beantworten, muss man sich mit dem Zusammenhang zwischen restringierten und multikriteriellen Optimierungsproblemen auseinandersetzen. Es wird gezeigt, dass sich die jeweiligen Probleme ineinander umformen lassen. Ebenfalls wird untersucht, in welchen Beziehungen die Lösungsmengen zueinander stehen. Dafür betrachtet man unterschiedliche Skalarisierungsmethoden multikriterieller Optimierungsprobleme. Diese enge Verknüpfung beider Probleme wird beim Filteransatz genutzt, um restringierte Optimierungsprobleme zu lösen. Dazu wird ein SQP-Filter-Algorithmus angegeben, welcher unter gewissen Voraussetzungen einen KKT-Punkt liefert oder eine unendliche Iterationsfolge ausgibt, welche einen Häufungspunkt besitzt, der die KKT-Bedingung erfüllt.



Erweitertes Online GNSS-Matching - Verbesserung der Abgleichsmechanismen zwischen digitalen Karten und per GNSS erfassten Positionsdaten. - Ilmenau. - 95 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

In dieser Arbeit wird ein kurzer Überblick über die Funktionsweise von globalen Navigationssystemen (GNSS) und den verwendeten Positionsangaben gegeben. Mittels der GNSS kann ein GNSS-Empfänger seinen Standort in Relation zur Erde bestimmen. Ein Map Matching Verfahren bringt diese fehlerbehafteten Standortdaten in Relation zu einem gegebenen Straßennetz (Straßenkarte) und versucht die korrekte Position des Empfängers darauf zu ermitteln. Map Matching Algorithmen, welche sofort die aktuelle Position bestimmen ohne zukünftige GNSS-Werte zu haben, werden als online Map Matching Algorithmen bezeichnet. In dieser Arbeit wurde gezeigt, inwiefern sich Hidden Markov Modelle als Basis für ein solchen online Map Matching Algorithmus eignen. Hierfür wurde ein einfaches Straßenmodell erstellt, auf welches fehlerbehaftete Standortdaten simuliert wurden. Für dieses Modell wurde ein einfacher Map Matching Algorithmus erstellt. Dieser hat den Viterbi-Algorithmus als Grundlage. Anhand von eigenen Simulationen erfolgte eine Beurteilung, inwiefern sich das Hidden Markov Modell tatsächlich für einen Map Matching Algorithmus eignet.



Steinacker, Alex;
Parametrische Optimierung : eine Betrachtung der Minimalwertfunktion. - Ilmenau. - 44 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

In diversen Anwendungsbereichen, wie etwa der Spieltheorie, der Finanzmathematik oder der Systemtheorie, treten mengenwertige Optimierungsprobleme auf. Ein Ansatz zur Lösung dieser besteht in der Betrachtung sogenannter parametrischer Optimierungsprobleme; das sind Optimierungsprobleme, die von einem Parameter abhängen. Die Funktion, die jedem Parameter den Optimalwert des entsprechenden Problems zuordnet, heißt Minimalwertfunktion und wird in dieser Masterarbeit genauer betrachtet. Dabei sind insbesondere ihre Minimallösungen für die ursprünglichen mengenwertigen Probleme von Interesse. Um diese mittels numerischer Verfahren der Optimierung bestimmen zu können, spielen die Eigenschaften der Minimalwertfunktion eine zentrale Rolle. In dieser Arbeit werden deshalb hinreichende Bedingungen für die Stetigkeit, Konvexität und die Richtungsdifferenzierbarkeit dieser Funktion vorgestellt.



Storch, Patrick;
Proxy games. - Ilmenau. - 48 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Obgleich Nashgleichgewichte das wohl bekannteste Lösungskonzept der Spieltheorie darstellen, sind sie doch eher theoretischer Natur. Damit ist gemeint, dass sich Personen in tatsächlichen Spielsituationen gar nicht, oder nur selten nach dem Nachgleichgewicht richten. Um diese Diskrepanz zwischen mathematischer Vorhersage und tatsächlichem Spielverhalten zu überbrücken, führen wir Stellvertreterspiele als eine weitere Ebene in Normalformspielen ein. Die Hauptidee hierbei ist es, zwischen der Auszahlung die ein Spieler erhält, und seinem/ihrem tatsächlichen Nutzen zu unterscheiden. In dieser Masterarbeit, welche auf den Ergebnissen von Stefan Zeuner und dessen Masterarbeit aufbaut, konnten wir zeigen, dass N-Personen-Spiele mit reinem Nashgleichgewicht stets auch ein reines Stellvertretergleichgewicht haben. Dies stellt eine Verallgemeinerung von Zeuners Resultat über 2-Personen-Spiele dar. Ebenfalls wird eine vollständige Charakterisierung von 2x2-Normalformspielen angegeben und gezeigt, dass diese stets ein reines Stellvertretergleichgewicht besitzen (unter der Voraussetzung, dass die Auswahlfunktion Phi pareto-optimale Ausgänge bevorzugt). Ebenso konnte gezeigt werden, dass die Auszahlungsfunktion des Stellvertreterspiels niemals stetig sein kann, was unsere Möglichkeiten bestehende Resultate bezüglich der Existenz von Nashgleichgewichten zu nutzen, erheblich einschränkt; Und wir konnten zeigen, dass das Konzept von Vertreterspielen (unter gewissen Voraussetzungen) einige grundlegende Probleme mit sich bringt, welche dem Satz von Gibbard-Satterthwaite, sowie Arrows Unmöglichkeitstheorem zuzuschreiben sind. Trotz dieser beiden vorhergehenden Ergebnisse konnte ein reines Stellvertretergleichgewicht (mit Beweis) für ein Spiel angegeben werden, welches mit keiner der vorher bekannten Methoden behandelt werden konnte. Ein möglicher Grund warum diese Art Lösung funktioniert und wie man sie gegebenenfalls auch auf andere Spiele ausweiten kann, wird ebenfalls angedeutet.



Krämer, Alexander;
General Chaos Expansion für reellwertige Zufallsvariablen. - Ilmenau. - 55 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

In dieser Arbeit wird das Problem, für eine gewisse Zufallsgröße X mit bekannter Verteilung eine unbekannte Funktion f zu approximieren, wobei f(X) quadratisch integrierbar ist. Dazu wird ausgenutzt, dass der Raum solcher Funktionen ein Hilbertraum ist, sodass f in eine Fourierreihe entwickelt werden kann, falls dieser ein bekanntes vollständiges und abzählbares Orthonormalsystem besitzt. Dieses Verfahren heißt Chaos Expansion. Es wird nachgewiesen, dass zu jeder Verteilung von X ein vollständiges abzählbares Orthonormalsystem existiert. Ferner wird ein Algorithmus beschrieben, mit dem ein solches Orthonormalsystem konstruiert werden kann. Dabei wird auf verschiedene Methoden zurückgegriffen, sowohl auf die eher klassische Polynomial Chaos Expansion als auch auf eine selbst erarbeitete, die auf Transformation basiert, speziell mit der Verteilungsfunktion von X. Außerdem müssen die Koeffizienten zur Reihenentwicklung berechnet oder zumindest approximiert werden, wobei Schwierigkeiten auftreten, da f nicht explizit bekannt ist. Es wird ein Kriterium für eine hinreichende Approximation angegeben und beschrieben, wie - vorausgesetzt die Auswertung von f(x) ist für jedes reelle x möglich - bekannte numerische Verfahren genutzt oder auch adaptiert werden können, um dieses Kriterium zu erfüllen. Schließlich wird noch ein mögliches Konzept zur Beurteilung der Approximationsgenauigkeit bei Verwendung einer gewissen Partialsumme der Fourierreihe vorgeschlagen.



Krannich, Steffen;
Das [Lambda]-Lemma für Vektorfelder und Diffeomorphismen. - Ilmenau. - 59 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

Sei H ein Diffeomorphismus bzw. f ein Vektorfeld mit einem hyperbolischen Fixpunkt p des zugehörigen Flusses. Das [Lambda]-Lemma besagt, dass ein Transversalschnitt der zum Punkt p gehörenden stabilen Mannigfaltigkeit $W^s_{loc}(p)$ unter dem Fluss gegen die instabile Mannigfaltigkeit $W^u_{loc}(p)$ mit exponentieller Ordnung konvergiert. Das starke [Lambda]-Lemma trifft eine analoge Aussage für Transversalschnitte einer erweiterten stabilen Mannigfaltigkeit. Diese konvergieren dann im Sinne der $C^k$-Norm gegen die streng instabile Mannigfaltigkeit. In einer Arbeit von B.Deng, J. Differ. Equations 79, No. 2, 189-231 (1989) werden diese Aussagen im Vektorfeldkontext bewiesen. Dabei werden Eigenschaften der Lösung des Sil'nikov-Problems genutzt. In dieser Bachelorarbeit werden diese Beweise ausfühlich ausgearbeitet. Weiterhin wird der Beweis des [Lambda]-Lemmas in das diskrete Setting übertragen.



Mendez, Thomas;
Konfidenzbereiche zur optimalen Anpassung von Versicherungsverträgen. - Ilmenau. - 42 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

In der Versicherungsbranche werden mit dem Modell der logistischen Regression vertragsindividuelle Stornowahrscheinlichkeiten in Abhängigkeit von Beitragsanpassungen geschätzt. Diese werden im Anschluss genutzt, um den erwarteten Gewinn zu Optimieren. Dabei wird zunächst nicht berücksichtigt, dass der im Modell geschätzte Parameter und damit auch der optimierte Gewinn durch einen Konfidenzbereich zu relativieren ist. In dieser Arbeit zeigen wir zunächst die asymptotischen Eigenschaften des Maximum-Likelihood-Schätzers in dem Modell der logistischen Regression, um anschließend für den wahren Parameter einen asymptotischen Konfidenzellipsoid anzugeben. Diesen nutzen wir, um für jede zweifach stetig differenzierbare Funktion mit beschränkter Hesse-Matrix einen uns in der Literatur bisher nicht bekannten asymptotischen Konfidenzbereich herzuleiten. Dieses Ergebnis wird abschließend in einer Fallstudie veranschaulicht.



Kanzler, Kai;
Konvexe Einbettung und k-Zusammenhang. - Ilmenau. - 19 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

In der Arbeit habe ich auf Basis der Arbeit "Rubber bands, convex embeddings and graph connectivity" den Zusammenhang zwischen der konvexen X-Einbettung eines Graphen (Graphentheorie) und dessen k-Zusammenhang aufgezeigt, eine kurze algorithmische Betrachtung durchgeführt und auf den Nutzen eines solchen Algorithmus hingewiesen.



Heyder, Stefan;
Kalman-Filter auf Lie-Gruppen. - Ilmenau. - 62 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

In dieser Arbeit formulieren wir, motiviert durch das Problem der Korrektur der Kopfbewegung in der Magnetoenzephalographie, Kalman-Filter auf Mannigfaltigkeit und Lie-Gruppen. Auf Lie-Gruppen erhalten wir unter Anwendung von verschiedenen Approximationen der Baker-Campbell-Hausdorff-Formel zwei Algorithmen. In Simulationen testen wir die so gewonnen Verfahren anhand typischer Bewegungsmuster und erzielen dabei gute Rekonstruktionen. Noch ist nicht klar welcher der beiden Algorithmen bessere Ergebnisse erzeugt.



Fiedler, Manuel;
Translationsinvariante Maße auf Banachräumen. - Ilmenau. - 58 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

Diese Arbeit handelt von der Maß- und Integrationstheorie auf Banachräume, wobei insbesondere translationsinvariante Maße betrachtet werden. Hierzu werden zunächst Produktmaße auf unendlich dimensionalen Räumen erläutert. Anschließend wird gezeigt, dass auf unendlich dimensionalen Räumen keine Maße mit Eigenschaften wie beispielsweise (Quasi-)Translationsinvarianz und [sigma]-Endlichkeit existieren, mit Ausnahme einiger trivialer Beispiele. Danach wird der Nullmengenbegri diskutiert, wobei eine Adaption des Begris betrachtet wird, welche auf B. Hunt zurückgeht. Diese Mengen werden schüchterne Mengen genannt. Anschließend wird ein [sigma]-endliches, lokalendliches Maß konstruiert, welches zwar nicht invariant bezüglich aller Nullmengen, jedoch invariant bezüglich aller schüchternen Mengen ist. Zuletzt werden die erarbeiteten Begrie anhand von Beispielen veranschaulicht.



Warnow, Leo;
Qualitätsmaße für Lösungsapproximationen mengenwertiger Optimierungsprobleme. - Ilmenau. - 67 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2017

Mengenwertige Optimierungsprobleme besitzen im Allgemeinen unendlich viele optimale Lösungen. Daher wird statt der gesamten Lösungsmenge häufig nur eine endliche Lösungsapproximation angegeben. In dieser Arbeit werden vier Qualitätsmaße für solche Lösungsapproximationen mengenwertiger Optimierungsprobleme entwickelt. Sie sollen einen qualitativen Vergleich verschiedener Approximationen ermöglichen. Dabei wird der zentrale Ansatz verfolgt, bereits bekannte Qualitätsmaße für Lösungsapproximationen multikriterieller Optimierungsprobleme auch für Lösungsapproximationen mengenwertiger Optimierungsprobleme zu nutzen.



Zeyda, Robert;
Über eine Modifikation des Pólyaschen Urnenprozesses. - Ilmenau. - 42 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Diese Arbeit beschäftigt sich mit einer möglichen Verallgemeinerung von Pólyas Urnenprozess aus dem Jahre 1923. Charakteristisch für das Ausgangsproblem ist die Vergrößerung der Wahrscheinlichkeit eines Ereignisses, je häufiger es in der Vergangenheit eingetreten ist. Dieser Effekt modelliert Zusammenhänge in sozialen Netzwerken, wie die Ausbreitung von Krankheiten. Das Grenzverhalten bezüglich der Häufigkeiten beider Kugelfarben wurde dazu beschrieben und weitere Variationen des Problems mit mehreren Urnen und Kugelfarben aus der Literatur analysiert. Das selbst gestellte Problem verallgemeinert Pólyas Modell derart, dass unter den Urnen $U_1,\dots,U_k$ unabhängig und gleichverteilt zwei Urnen $U_q$ und $U_e$ ausgewählt werden, wobei eine Kugel aus $U_q$ gezogen, zurückgelegt und eine gleichfarbige Kopie in $U_e$ gelegt wird. Dabei wurde die fast sichere Konvergenz der relativen Häufigkeiten von (farbunabhängiger) Kugelzahl einer Urne im Vergleich zum Gesamtbestand sowie der Anzahl der Kugeln einer bestimmten Farbe in einer Urne zur Gesamtzahl gleichfarbiger Kugeln gegen $1/k$ festgestellt. Damit konnte geschlussfolgert werden, dass für den Spezialfall des zweiurnigen Modells die Differenz der relativen Anteile für zwei Farben mit $n \to \infty$ fast sicher gegen 0 konvergiert. Weiter wurden Algorithmen zur Simulation von Realisierungen und der sukzessiven Berechnung der exakten Verteilung angegeben, die die Farbverteilungen der beiden Modelle vergleichen sollen.



Fischer, Steffen;
A new separator theorem, metric properties and crossing numbers. - Ilmenau. - 34 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Gegeben sei ein einfacher, endlicher, ungerichteter Graph G = (V,E) mit Eckenmenge V (G) und Kantenmenge E(G). Die Kreuzungszahl eines Graphen G, die mit cr(G) bezeichnet wird, ist das Minimum aller Kantenkreuzungen über alle Zeichnungen von G in der Ebene. Diese ist eine wichtige Messgröße für die Charakterisierung der Nichtplanarität eines Graphen. Aufgrund der schweren Berechenbarkeit des dazugehörigen Entscheidungsproblems ist es gerechtfertigt, sich mit Schranken zu beschäftigen. Diese Masterarbeit liefert einen Beweis für eine obere Schranke für Graphen, die mit beschränkter Verzerrung eingebettet werden können. Unabhängig davon wird ein neues Separator-Theorem angegeben, das ein konstantes Größenverhältnis bei den Komponenten eines Graphen G erzeugt, die durch den Trenner S entstehen. Trenner von Graphen sind mächtige Werkzeuge, die durch den Teile-und-herrsche-Algorithmus motiviert sind.



Laudenberg, Laura;
Modellfunktionen in der multikriteriellen Optimierung. - Ilmenau. - 79 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2017

Bei der Optimierung mit einer oder mehreren Zielfunktionen treten in der Praxis häufig teure Funktionen auf, deren Berechnung großen Rechenaufwand verursacht. Um hohe Rechenzeiten zu vermeiden, werden solche Funktionen durch leichter zu berechnende Modelle ersetzt. Diese Bachelorarbeit untersucht die Modellierung mit quadratischen Lagrange-Polynomen für bivariate Funktionen und die Auswirkungen, die die Verwendung eines Modells auf bikriterielle Optimierungsprobleme hat. Dabei werden insbesondere die Veränderungen der Menge der effizienten Punkte, die bei dem Ersetzen einer Zielfunktion durch eine quadratische Modellfunktion auftreten, an selbst gewählten Testproblemen betrachtet und grafisch veranschaulicht.



Glock, Matthias;
Spherical means : concentration of measure and confidence sets. - Ilmenau. - 53 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Diese Arbeit beschäftigt sich mit Daten auf der Sphäre in beliebiger Dimension. In diesem Kontext wird das Problem, einen Konfidenzbereich für den extrinsischen sphärischen Mittelwert zu finden, gelöst. Ein großer Teil der Arbeit behandelt deshalb multivariate Konzentrationsungleichungen, da diese die Lösung für alle Dimensionen ermöglichen. Insbesondere wird ein neuer Beweis für eine Ungleichung von I. Pinelis und A. I. Sakhanenko angegeben, dies geschieht mithilfe der Theorie der Matrixkonzentrationsungleichungen von J. A. Tropp. Diese Ungleichung ermöglicht nun die Konstruktion von nicht-asymptotischen Konfidenzbereichen des sphärischen Mittelwertes. Diese Konstruktion wird abschließend auf echte und simulierte Daten angewendet und mit vorherigen Ergebnissen für den zirkulären Fall sowie der asymptotischen Theorie verglichen.



Höhler, Karen;
Optimal control of differential-algebraic systems via Lur'e equations. - Ilmenau. - 107 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Diese Arbeit ist eine ausführliche Aufbereitung des Papers "The Kalman-Yakubovich-Popov inequality for differential-algebraic systems" von Timo Reis, Olaf Rendel und Matthias Voigt aus dem Jahre 2015. Mit diesen Resultaten ist es unser Ziel, das linear-quadratische Optimalsteuerungsproblem mit differentiell-algebraischen Nebenbedingungen handhabbar zu machen. Dem Vorgehen liegt das Kalman-Yakubovich-Popov Lemma zugrunde, welches die positive Semidefinitheit der Popov-Funktion auf der Imaginärachse mit der Lösbarkeit einer linearen Matrixungleichung verknüpft. Das Auffinden spezieller Lösungen führt zum Konzept der Lur'e Gleichung, welche wiederum mithilfe von abnehmenden Unterräumen gewisser Matrixbüschel gelöst werden kann. Diese Lösungen ermöglichen es, sowohl den optimalen Kostenwert zu bestimmen als auch die Lösung des Optimalsteuerungsproblems zu charakterisieren.



Ehrlich, Daniel;
Variationsprinzipien in der Mechanik. - Ilmenau. - 41 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2017

Diese Arbeit beschäftigt sich mit dem sogenannten Variationsproblem. Dies ist ein unendlich dimensionales Optimierungsproblem, welches in der theoretischen Mechanik von großer Relevanz ist. Die zentralen Aussagen dieser Arbeit besagen, dass eine Lösung des Variationsproblems notwendigerweise die Euler-Lagrange-Gleichung sowie die Hamilton-Gleichung erfüllen muss. Dazu wird das Variationsproblem als Verallgemeinerung eines endlich dimensionalen Optimierungsproblems betrachtet. Das Verschwinden der sogenannten ersten Variation einer Lösung des Variationsproblems stellt, ähnlich dem Verschwinden der Richtungsableitung im endlich Dimensionalen, ein notwendiges Optimalitätskriterium dar. Zusammen mit einer Variante des Fundamentallemmas der Variationsrechnung wird damit die Euler-Lagrange-Gleichung hergeleitet. Mithilfe der Legendre-Transformation wird die Äquivalenz von Euler-Lagrange- und Hamilton-Gleichung gezeigt, unter entsprechenden Voraussetzungen, die die Wohldefiniertheit der Legendre-Transformation gewährleisten. Ein weiterer Bestandteil der Arbeit ist die Lösung des Kettenproblems, eines klassischen Problems der Variationsrechnung, unter Zuhilfenahme der Euler-Lagrange-Gleichung und der ihr verwandten Dubois-Reymond-Gleichung.



Wu, Liru;
Richtungsableitungen und Taylor-Formel für mengenwertige Abbildungen. - Ilmenau. - 50 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Die vorliegende Masterarbeit stellt einige grundlegende Konzepte der mengenwertigen Optimierung mit dem Mengenzugang vor: Es wird eine spezielle Mengendifferenz und addition eingeführt und darauf aufbauend eine Richtungsableitung und eine Taylor-Formel für mengenwertige Abbildungen. Es wurden Algorithmen zur Berechnung dieser Konzepte entwickelt, mit Matlab implementiert, und an verschiedenen mengenwertigen Abbildungen getestet.



Schweser, Thomas;
Graph partitions. - Ilmenau. - 52 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Eine Partition eines Graphen $G$ ist eine Folge $(G_1,G_2,\ldots,G_p)$ paarweise disjunkter induzierter Teilgraphen von $G$ mit $V(G)=V(G_1) \cup V(G_2) \cup \ldots \cup V(G_p)$. Diese Arbeit beschäftigt sich mit Zerlegungen von (Multi-)Graphen unter bestimmten Gradbedingungen. So werden unter anderem eine Verallgemeinerung eines Satzes von Borodin, Kostochka und Toft bewiesen, welcher Zerlegungen von Graphen mit Anforderungen an die Degeneriertheit untersucht. Des Weiteren werden Sätze von Stiebitz, Kaneko, Bazgan, Tuza und Vanderpooten, als auch Liu und Xu verallgemeinert; diese handeln von Graphzerlegungen mit Mindestanforderungen an den Minimalgrad.



Möller, Florian;
Das Max-k-Kantenfärbungsproblem. - Ilmenau. - 29 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2017

In dieser Arbeit beschäftigen wir uns mit den Max-k-Kantenfärbungsproblem. Dabei betrachten wir die Resultate von Farnik, Kowalik und Socała aus ihrer Arbeit "Beyond the Shannon Bound" und führen die Beweise schneller und verständlicher. Zum Abschluß beschäftigen wir uns noch mit Färbungsalgorithmen um einen Graphen mit den Konzept des Max-k-Kantenfärbungsproblem zu färben.



Witschel, Jonas;
Optimal control of linear differential-algebraic equations. - Ilmenau. - 47 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Das Thema der Masterarbeit ist die linear-quadratische Optimalsteuerung zeitvarianter und zeitinvarianter differentiell-algebraischer Gleichungen (DAEs). Die Arbeit besteht aus zwei Hauptteilen: Im ersten Teil betrachten wir zeitvariante DAEs. Wir wiederholen die Lösungstheorie von DAEs und definieren das von uns betrachtete Optimalsteuerungsproblem. Anschließend zeigen wir, dass der Optimalwert eine quadratische Funktion ist und das Bellmansche Optimalitätsprinzip erfüllt. Mithilfe dieser Ergebnisse können wir den Optimalwert als extremale Lösung der Kalman-Yakubovich-Popov-Ungleichung charakterisieren. Im zweiten Teil widmen wir uns zeitinvarianten regulären DAEs. Wir leiten zunächst eine Differenzierbarkeitsbedingung her, die der Steuereingang des Systems erfüllen muss. Mithilfe dieser Resultate führen wir ein erweitertes System ein, das gewisse Ableitungen des Eingangs als Systemzustände enthält. Für das so erweiterte System kann ein zum Optimalsteuerungsproblem des originalen Systems äquivalentes Optimalsteuerungsproblem definiert werden. Dieses lässt sich mithilfe der Theorie der Optimalsteuerung gewöhnlicher Differentialgleichungen leicht lösen. Das ermöglicht uns, die optimale Steuerung der ursprünglichen DAE explizit anzugeben. Weiterhin lässt sich diese auch als Zustandsrückführung implementieren.



Wieditz, Johannes;
Berechnung von Fréchet-Mittelwerten auf Sphären. - Ilmenau. - 86 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Die Minimierung von Abständen zu einer gegebenen Menge von Punkten ist eine wichtige Aufgabe in der Logistik. Gerade bei mehreren gegebenen Punkten besteht dabei ein Zielkonflikt zwischen den gegebenen Daten, wenn ein kürzerer Abstand zu einem Punkt eine längere Distanz zu einem anderen zur Folge hat. Daher geht man oftmals dazu über, den mittleren Abstand zu allen gegebenen Punkten zu minimieren. Mathematisch wird diese Problemstellung durch die Ermittlung von sogenannten Fréchet-Mittelwerten modelliert, deren explizite Berechnung sich als schwierig erweisen kann. Diese Abschlussarbeit befasst sich mit einem Verfahren zur Approximation von Fréchet-Mittelwerten auf dem Einheitskreis und der Einheitssphäre. Hierzu benutzen wir einen modifizierten Branch-and-Bound-Algorithmus. Die benötigten unteren Schranken und Unterteilungsvorschriften werden dazu hergeleitet und erstere mit einem bekannten Ansatz aus dem Bereich der Lipschitz-Optimierung verglichen. Die konstruierten Verfahren werden anschließend unter numerischen Gesichtspunkten untersucht, gegenübergestellt und abschließend an Anwendungsbeispielen getestet.



Postel, Justus; von
Hadwigers Vermutung : eine Auswahl der bisherigen Ergebnisse. - Ilmenau. - 38 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2017

Ein wichtiges Thema der Graphentheorie ist das Färben von Graphen und in diesem Zusammenhang die chromatische Zahl. Der wohl bekannteste Satz zu diesem Thema ist der 4-Farben-Satz, der sich ursprünglich mit dem Färben von Landkarten bschäftigte. Mit einer Verallgemeinerung dieses Themas und einer Verbindung der Färbungszahl mit gewissen Unterstruktren beschäftigte sich der Schweizer Hugo Hadwiger und stellte eine sehr weitreichende Vermutung auf.



Trautmann, Luca;
Zwischen geordneten Pfadpartitionen und Schnyderwäldern. - Ilmenau. - 42 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2017

In dieser Bachelorarbeit werden Zusammenhänge zwischen Schnyderwäldern und geordneten Pfadpartitionen genutzt, um geordnete Pfadpartitionen mit bestimmten Eigenschaften zu finden. Eine geordnete Pfadpartition eines Graphen G ist eine geordnete Partition der Eckenmenge von G, sodass ihre Blöcke Wege induzieren und bestimmte Grad- und Zusammenhangsbedingungen erfüllt sind. Ein Schnyderwald orientiert jede Kante in eine oder zwei Richtungen und markiert jede Richtung mit einer von drei Markierungen. Außerdem hat jede Ecke Ausgangsgrad eins in jeder Markierung, kein Flächenrand enthält einen gerichteten Kreis in einer Markierung und es werden Bedingungen an die zyklische Reihenfolge der Kanten um jede Ecke gestellt. Jeder 3-zusammenhängende ebene Graph besitzt eine geordnete Pfadpartition und einen Schnyderwald, welche einfach auseinander berechnet werden können. Wir nehmen an, dass eine geordnete Pfadpartition gegeben ist und betrachten 3-zusammenhängende ebene Graphen, deren Außenfläche Grad 3 hat. Mit Hilfen von Schnyderwäldern können wir zwei weitere geordnete Pfadpartitionen bestimmen, die verschieden von sind und voneinander abhängen. Diese geordneten Pfadpartitionen werden konsistent zueinander genannt. Da diese drei Pfadpartitionen voneinander abhängen, ist es möglich unter ihnen eine geordnete Pfadpartition mit bestimmten Eigenschaften zu finden. Es ist möglich drei konsistente Pfadpartitionen in Linearzeit zu finden. Wir zeigen, dann eine von drei konsistenten Pfadpartitionen mindestens F/9 Singletons enthält, wenn G F Flächen besitzt und keine davon vom Grad 6 ist. Außerdem ist jede innere Ecke eines Blockes der geordneten Pfadpartition Singleton in einer der zu konsistenten geordneten Pfadpartitionen. Andere Eigenschaften wie die Höhe einer geordneten Pfadpartition konnten nicht verbessert werden.



Henneberg, Jessica;
Universale Konfidenzbänder im Fixed-Design-Modell. - 53 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Die Regressionsschätzung ist ein wichtiger Teil der Statistik. Hierbei werden Abhängigkeiten zwischen verschiedenen Größen genauer untersucht. In einem Regressionsmodell, dem sogenannten Fixed-Design-Modell, werden zu festen Eingabewerten zufällig gestörte Daten einer Funktion beobachtet. Ziel ist es nun, die unbekannte Funktion anhand dieser Datenpaare zu schätzen. In der vorliegenden Arbeit wurde dazu der Priestley-Chao-Schätzer und der Gasser-Müller-Schätzer verwendet. Für solche Schätzer ist außerdem von Interesse, wie weit die geschätzte Funktion von der unbekannten Funktion abweicht. Hierzu werden Konfidenzbänder betrachtet. Das heißt, es wird ein möglichst kleines Band um die geschätzte Funktion gesucht, welches die unbekannte Funktion mit einer vorgegebenen Wahrscheinlichkeit überdeckt. Dabei soll auf eine Verteilungsannahme sowie auf eine asymptotische Betrachtung verzichtet werden. Ziel dieser Arbeit ist die Bestimmung universaler Konfidenzbänder. Es wird daher für jede feste Stichprobenzahl ein Konfidenzband in Abhängigkeit dieser bestimmt.



Dennstädt, Dario;
Algebraische Theorie linearer zeitvarianter Systeme. - 60 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Die Untersuchung linearer zeitvarianter Differentialgleichungen ist von grundlegendem Interesse der Systemtheorie. In ihrem Artikel "Weak exponential stability of linear time-varying differential behaviors" von 2015 stellten Bourlès, Marinescu und Oberst eine neue Herangehensweise vor, solche Systeme mittels algebraischer Methoden zu untersuchen. Dabei wird die Betrachtung der Differentialgleichung auf die Untersuchung eines Moduls über einem geeigneten Schiefpolynomring reduziert. Die vorliegende Arbeit greift diesen Ansatz auf und es wird gezeigt, wie sich die bekannten systemtheoretischen Konzepte der Steuerbarkeit, Beobachtbarkeit und Systemäquivalenz mittels dieses modultheoretischen Zugangs definieren und algebraisch charakterisieren lassen.



Rocktäschel, Stefan;
Ein Algorithmus zur Bestimmung einer Lösungsüberdeckung spezieller mengenwertiger Optimierungsprobleme. - 78 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Diese Bachelorarbeit beschäftigt sich mit speziellen mengenwertigen Optimierungsproblemen, die beispielsweise zur Lösung boxbeschränkter, robuster, multikriterieller Optimierungsprobleme genutzt werden können. Letztere treten häufig in Ingenieurs- und Wirtschaftswissenschaften auf und werden durch Worst-Case-Optimierung motiviert. Zunächst werden in der Arbeit theoretische Grundlagen zur mengenwertigen Optimierung gelegt und anschließend wird die Grundidee eines Algorithmus zur Bestimmung einer Überdeckung der Lösungsmenge der mengenwertigen Optimierungsprobleme vorgestellt. Dabei wird mithilfe von oberen und unteren Schranken überprüft, ob Teilboxen Lösungen enthalten können. Der wichtigste Aspekt ist daher, möglichst gute Schranken für diese Teilboxen zu finden, weshalb in dieser Arbeit unter anderem neue Methoden dazu vorgestellt werden. Der beschriebene Algorithmus wurde in MATLAB implementiert und anhand von Testbeispielen ausführlich getestet.



Fabel, Marc;
Ein alternatives Lösungskonzept für 2-Personen Normalformspiele. - 60 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

In der nicht kooperativen Spieltheorie existiert kein komplett zufriedenstellendes Lösungskonzept. Selbst das häufig verwendete Nash-Gleichgewicht liefert nicht immer plausible Ergebnisse, sodass in der aktuellen Forschung nach neuen besseren Lösungskonzepten gesucht wird. In dieser Arbeit wird ein neues Lösungsverfahren für 2-Personen Normalformspiele vorgestellt, welches iterativ vorgeht. Nach der Definition werden erste Eigenschaften gezeigt, bevor es auf verschiedene bekannte Beispiele der Spieltheorie angewendet wird. Anhand dieser Spiele wird untersucht, ob das Verfahren plausible Lösungen liefert. Des Weiteren dienen die Beispiele um Vergleiche zu anderen bekannten Lösungskonzepten der Spieltheorie durchzuführen.



Mohr, Samuel;
Über untere Schranken zur Unabhängigkeit in Graphen. - 57 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Gegeben sei ein einfacher, endlicher, ungerichteter Graph G = (V, E) mit Eckenmenge V(G) und Kantenmenge E(G). Eine unabhängige Menge in G ist eine Teilmenge der Eckenmenge V(G), in der je zwei Ecken nicht adjazent in G sind. Ein oft untersuchtes kombinatorisches Optimierungsproblem ist die Frage nach einer unabhängigen Menge maximaler Kardinalität. Aufgrund der schweren Berechenbarkeit des dazugehörigen Entscheidungsproblems ist es gerechtfertigt, sich mit Schranken, überwiegend unteren Schranken, zu beschäftigen. Der Beitrag dieser Masterarbeit ist eine neue untere Schranke, die als Verbesserung der bekannten Caro-Wei-Schranke aufgefasst werden kann. Hierbei sind insbesondere Spezialisierungen von Interesse, die zu einfachen und leicht berechenbaren Schranken führen. Neben Vergleichen mit klassischen unteren Schranken von O. Murphy und S. M. Selkow wird das Resultat genutzt, um eine Schranke zu entwickeln, die einer Vermutung von E. Bertram und P. Horak nahe kommt.



Scholz, Stephan;
Direkte und inverse Streuprobleme in einem Mehrschichtenmodell. - 57 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

In dieser Arbeit werden Reflexion und Brechung von seismischen Wellen an Schichtgrenzen innerhalb eines Mehrschichtenmodells betrachtet. Grundlage dessen bildet die Publikation von Leyds und Fokkema (Leyds, F.B. and Fokkema, J.T., 1988. A discrete-time inverse scattering algorithm for plane wave incidence in a one-dimensional inhomogeneous acoustic medium.), welche mathematisch aufgearbeitet und um einige Punkte erweitert wurde. Die Ziele dieser Arbeit gliedern sich dabei in die Lösung des direkten und inversen Problems. Bei ersterem sollen bei einem bekannten Schichtenmodell der Verlauf von Druckwellen konstruiert werden. Bei der Lösung des inversen Problems wird die Struktur des Schichtenmodells, insbesondere die akustische Admittanz jeder Schicht, bei bekannten Wellen an der Oberfläche bestimmt. Im letzten Teil dieser Arbeit wird der Fokus auf den Spezialfall der überkritschen Brechung gelegt. Dabei treten Effekte auf, welche die Lösung des direkten und inversen Problems beeinträchtigen.



Tischer, Mario;
Modellierung eines Gasgemischs im hydrodynamischen Limes. - 51 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Verwendet man bei der Betrachtung des "Evaporation-Condensation-Problem" gängigen Methoden zur Analyse des Hydrodynamischen Limes, so erhält man ein als""Ghost-Effect" bezeichnet, physisch unmögliches Ergebnis. In einer Arbeit von Prof. Babovsky wurde stattdessen die Diffuse Skalierung verwendet, bei welcher der "Ghost-Effect" nicht auftrat. In meiner Arbeit wurde die Diffuse Skalierung auf ein bestimmtes Diskretes Geschwindigkeitsmodell (den Broadwell-Model) angewandt, um dieses Ergebnis anhand eines konkreten Beispieles zu verifizieren.



Burgardt, Carolin;
Mengenoptimierung mit Zielfunktionen von spezieller Struktur. - 37 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Diese Bachelorarbeit befasst sich mit dem Thema der Mengenoptimierung mithilfe des Mengenzugangs, bei dem Mengen im Bildraum als Ganzes miteinander verglichen werden. Dabei finden drei verschiedene Mengenrelationen Anwendung. Es werden spezielle Mengenoptimierungsprobleme betrachtet, bei denen die Bilder der Zielfunktionen einfache geometrische Formen haben wie Kreise oder Rechtecke. Für manche dieser Probleme wurde gezeigt, dass sie in ein äquivalentes multikriterielles Optimierungsproblem und damit in ein einfacher zu lösendes Optimierungsproblem überführt werden können.



Elbert, Lukas;
Die Schätzung des Market Impacts im Wertpapierhandel institutioneller Anleger. - 81 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Diese Arbeit untersucht die impliziten Transaktionskosten von Aktientransaktionen institutioneller Investoren wie Pensionskassen, Versorgungswerke und Versicherungen. Die Bestimmung der impliziten Transaktionskosten erfolgt durch die Kennzahl Market Impact, die die prozentuale Abweichung des Ausführungspreises von einer Benchmark misst. Zur Untersuchung des Market Impacts werden circa 60.000 Transaktionen deutscher Großinvestoren mittels linearer Regressionsmodelle betrachtet und analysiert. Dabei zeigt sich, dass die impliziten Transaktionskosten signifikant von vielen Variablen, durch die sich eine Transaktion charakterisiert, beeinflusst werden. Diese Variablen werden durch die Modelle und Schätzungen ermittelt, beschrieben und mit der vorhandenen Literatur verglichen. Zusätzlich erfolgt eine Identifizierung neuer Kenngrößen, die den Market Impact beeinflussen. Darunter fallen unter anderem ein relativer Liquiditätsfaktor und das Nacht-Momentum. Weiterhin werden das Akaike- und das Bayessche Informationskriterium zur Modellwahl für die Regressionen angewendet und beschrieben. Zudem wird ein Broker identifiziert, für den sich der Market Impact vergleichsweise gut schätzen lässt. Anschließend erfolgen weitere mathematische Modellierungen des Market Impacts, um sich den impliziten Transaktionskosten weiter theoretisch zu nähern.



Kulse, Katja;
Caro-Wei-ähnliche untere Schranken für Unabhängigkeit in Graphen. - 18 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

In der vorliegenden Arbeit wird für zusammenhängende und nicht vollständige Graphen die Caro-Wei-Schranke CW(G) betrachtet. Auf dessen Grundlage wird eine Klassifizierung von Caro-Wei-ähnlichen unteren Schranken für die Unabhängigkeitszahl in Graphen vorgenommen. Außerdem wird eine neue untere Schranke, $\alpha(G) \geq CW(G) + \sum\limits_{v \in V(G)} \sum\limits_{(A,B) \in \pi(v)} \sum\limits_{[A,B,v,\sigma,\tau]\in F(A,B,v)}\frac{1}{c_1\cdots c_{|A|}d_1\cdots d_{|B|}(d(v)+1-|B|)}$, bewiesen. Im Beweis wird der Spezialfall $|A|=|B|=1$ betrachtet und somit die Schranke $\alpha(G) \geq CW(G) + \sum\limits_{v \in V(G)} \sum\limits_{(v,w,u) \in W^2(v)} \frac{1}{|N[v,w,u]| (|N[v,w]|-1) d(v)}$ für induzierte Wege der Länge 2 formuliert. Das daraus entstandene schwächere Theorem wurde vollständig bewiesen.



Schröder, Thomas;
Darstellung ebener Gebiete mittels konformer Abbildungen. - 106 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Zur Statistik von Jordangebieten in der Ebene oder zum Zwecke der Mustererkennung bietet es sich an diese Gebiete möglichst so darzustellen, dass gewisse Operationen auf ihnen einfach ausgeführt werden können. Hierbei muss jedoch sicher gestellt werden, dass unter diesen Operationen wieder Jordangebiete entstehen. Eine Möglichkeit dies zu bewerkstelligen ohne viele Nebenbedingungen beachten zu müssen besteht in sogenannter konformer Verheftung. Dank des Riemann'schen Abbildungssatzes ist es möglich sowohl das Innere als auch das Äußere eines einfach zusammenhängenden Gebietes auf das Innere beziehungsweise das Äußere des Einheitskreises konform abzubilden. Diese Abbildungen sind homöomorph auf den Rand des Einheitskreises fortsetzbar und erlauben es dort einen charakteristischen Homöomorphismus des Gebietes zu definieren. Diese charakteristischen Homöomorphismen stellen die gewünschte Darstellung unseres Gebietes dar. Zur Rekonstruktion eines Gebietes aus einem solchen Homöomorphismus dient der Verheftungssatz, welcher es ermöglicht für quasisymmetrische Homöomorphismen gewisse Jordangebiete, sogenannte Quasikreise, zu konstruieren. Diese Arbeit stellt die komplette notwendige Theorie dieses Vorgehens dar. Des Weiteren enthält sie einige numerische Experimente, die das Verfahren illustrieren.



Rußwurm, Franz;
Diskontierte optimale Steuerung : eine Anwendung in der Lagerhaltung. - 63 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

In dieser Arbeit wird, nach einführenden Betrachtungen über optimale Steuerung, das Lagerhaltungsproblem ausführlich diskutiert und untersucht. Dies erfolgt zunächst mit Hilfe von Pontryagins Maximumprinzip und später mit Hilfe von Diskretisierung. Zum Abschluss werden die Ergebnisse beider Methoden verglichen.



Joost, Niels Gerrit;
Normalformen und Störungen niedrigen Ranges von Matrixbüscheln. - 46 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

In dieser Arbeit wird die Weierstraß-Form für Matrixbüschel vorgestellt, die, wie beispielsweise in neueren Veröffentlichungen [1] und [3], unter Zuhilfenahme der in [12] erstmals vorgestellten Wong Sequenzen, bewiesen wird. Einerseits liefern die Wong Sequenzen, im Gegensatz zu dem Beweis aus [7], eine geometrische Anschauung. Andererseits lässt sich ohne größeren Aufwand die Quasi-Weierstraß-Form, eine Normalform für Matrixbüschel auf beliebigen Körpern, ableiten. Des Weiteren werden Störungen von Matrixbüscheln untersucht und dabei anhand von Beispielen ein Einstieg in dieses aktuelle Forschungsthema mit zahlreichen Veröffentlichungen, wie zum Beispiel in [5], [11], [10], ermöglicht. Bereits in den 1960er Jahren verfasste F. R. Gantmacher sein Standardwerk über Matrizentheorie [7], in dem er sich unter Anderem mit dem verallgemeinerten Eigenwertproblem auseinandersetzte. Nach Gantmacher [7, S. 373]: "Ein Kriterium für die strenge Äquivalenz sowie die kanonische Form regulärer Matrizenbüschel wurde im Jahr 1867 von K. Weierstraß aufgestellt; die Grundlage bildete seine Elementarteilertheorie [...] Analoge Fragen für singuläre Büschel wurden später (im Jahr 1890) durch die Untersuchungen von L. Kronecker gelöst." Aufbauend auf seinen Leistungen wurden in der Folgezeit weiterführende Arbeiten zum Thema Matrixpolynome [8], im Speziellen Matrixbüschel, erarbeitet. Ebenfalls in den 1960er Jahren entwickelte vor allem G. H. Golub die ersten stabilen Algorithmen, die eine Transformation größerer Matrizen ermöglichen. Die Ergebnisse seiner Arbeit, welche in dem Buch Matrix Computations [9] gesammelt sind, stellen bis heute die Grundlage für viele Forschungsarbeiten dar. Ziel aktueller Untersuchungen ist vor allem die Suche nach dem singulären Matrixbüschel mit dem geringsten Abstand zu einem gegebenen regulären Matrixbüschel [5], wobei eine generelle Problemlösung noch außer Reichweite liegt.



Hippmann, Lisa;
Färbungskritische signierte Graphen. - 37 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Ein signierter Graph ist ein Graph, in dem jede Kante mit +1 oder -1 bewertet (signiert) ist. Die vorliegende Arbeit befasst sich mit kritischen signierten Graphen und ihren Färbungen. Kritische signierte Graphen sind besonders interessant, weil sich Färbungsprobleme signierter Graphen oft auf Färbungsprobleme kritischer signierter Graphen zurückführen lassen. So werden zunächst wichtige, bereits bekannte Ergebnisse der chromatischen Zahl signierter Graphen wiedergegeben und anschließend Färbungen kritischer signierter Graphen diskutiert. Den Hauptteil der Arbeit bildet dann der Vergleich gewöhnlicher kritischer Graphen mit kritischen signierten Graphen. Dabei wird sich zeigen, dass viele Eigenschaften kritischer Graphen auch für kritische signierte Graphen gelten. Den Abschluss bilden dann der Zusammenhang sowie die Hajós-Konstruktion kritischer signierter Graphen. Auch hier wird überprüft inwieweit sich Eigenschaften von kritischen Graphen auf kritische signierte Graphen übertragen lassen.



Kohl, Stefan;
Continuous reformulations of binary quadratic programs. - 46 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Diese Arbeit beschäftigt sich mit binären quadratischen Optimierungsproblem und zugehörigen kontinuierlichen Mengen-semidefiniten Relaxierungen, die unter bestimmten Bedingungen äquivalent sind. Zu diesem Zweck wird der dabei genutzte Mengen-semidefinite Kegel untersucht, indem die Menge, über der er definiert ist, als endlich erzeugter Kegel aufgefasst wird. Des weiteren wird das duale Problem zum relaxierten Optimierungsproblem aufgestellt. Zum Abschluss bietet diese Arbeit einen Ausblick auf Möglichkeiten, eine ähnliche Relaxierung auch mit gemischt-binären quadratischen Optimierungsproblemen durchzuführen.



Otte, Katrin; von
Deterministische Irrfahrten auf Graphen. - 31 Seiten
Technische Universität Ilmenau, Diplomarbeit 2016

Die Arbeit behandelt die deterministische Irrfahrt I in der Eckenversion und die deterministische Irrfahrt I' in der Kantenversion.



Mehner, Tom;
Nicht-asymptotische Konfidenzbereiche für den intrinsischen Erwartungswert auf dem Kreis. - 42 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

In der vorliegenden Bachelorarbeit wird zum ersten Mal ein Algorithmus zum Herleiten und Erstellen eines nicht-asymptotischen Konfidenzbereiches für den intrinsischen Erwartungswert von Zufallsvariablen auf dem Einheitskreis ermittelt. Die Korrektheit des Verfahrens wird in Kapitel 3 bewiesen. Auch wird die Länge des ermittelten Konfidenzbereiches mit der Asymptotik verglichen und die Ordnung des Verfahrens an einer numerischen Simulation untersucht.



Sauerteig, Philipp;
Greens Satz als Alternative zum Maximumprinzip. - 46 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Inhalt dieser Bachelorarbeit sind Optimalsteuerungsprobleme und mögliche Lösungsansätze. Es wird ein Problem aus der Biologie mit ökonomischer Anwendung betrachtet und versucht, es zum einen mit dem Maximumprinzip von Pontryagin und zum anderen mithilfe des Integralsatzes von Green zu lösen. Das zu untersuchende Optimalsteuerungsproblem betrifft die Fischzucht. Wie in den Wirtschaftswissenschaften üblich, geht es darum, den Gewinn zu maximieren. Dies soll durch einen optimalen Befischungsplan realisiert werden. Um diesen Plan zu bestimmen, wird ein passendes mathematisches Modell benötigt, auf dem die Entscheidungsfindung aufbaut. Es handelt sich also um eine Aufgabenstellung aus dem Bereich Operations Research. Beiden Lösungswegen wird zunächst ein Gerüst aus mathematischen Definitionen und Sätzen zugrunde gelegt. Darauf aufbauend wird das jeweilige Vorgehen Schritt für Schritt erklärt. Ziel ist es, am Ende der Untersuchungen eine/die optimale Lösung direkt anzugeben. Dieser Bachelorarbeit liegen weitere Arbeiten von unterschiedlichen Autoren zugrunde. Die Aufgabe besteht zunächst darin, die Vorgehensweisen nachzuvollziehen. Dazu müssen nicht durchgeführte Nebenrechnungen eigenständig erarbeitet werden. Dabei wird vor allem auf mathematische Korrektheit geachtet. Darüber hinaus werden an gegebener Stelle gänzlich eigene Lösungsansätze verfolgt.



Niebling, Julia;
Ein Branch-and-Bound-Verfahren für bikriterielle Optimierungsprobleme. - 75 S. : Ilmenau, Techn. Univ., Masterarbeit, 2015

Diese Masterarbeit beschäftigt sich mit einem Branch-and-Bound-Algorithmus für bikriterielle boxbeschränkte Optimierungsprobleme. Derartige Probleme treten zum Beispiel in den Ingenieur- oder Wirtschaftwissenschaften häufig auf. Dabei interessiert man sich für die globalen Lösungen. Nach der Bereitstellung der theoretische Grundlagen, werden die Idee und prinzipiellen Schritte für den Algorithmus vorgestellt, der eine Approximation der Lösungsmenge liefert. Dafür müssen sogenannte Auswahl-, Verwerfungs- und Abbruchkriterien entwickelt werden. Die Verwerfungskriterien sind dabei ein besonders wichtiger Aspekt. Diese untersuchen mit unterschiedlichen Methoden, ob eine Box optimale Lösungen enthalten kann. Das Kriterium, welches den Idealpunkt und den $\alpha$BB-Ansatz nutzt, wird in dieser Arbeit verbessert. Der beschriebene Algorithmus wurde in MATLAB implementiert und anhand von bekannten Testfunktionen ausführlich numerisch getestet.



Thomann, Jana;
Decomposed descent methods in multiobjective optimization. - 74 S. Ilmenau : Techn. Univ., Masterarbeit, 2015

In vielen Anwendungsbereichen der multikriteriellen Optimierung treten heterogene Zielfunktionen auf. Diese Heterogenität kann beispielsweise in der Berechnungszeit liegen. In den bisherigen Methoden der multikriteriellen Optimierung zur Berechnung effizienter Punkte werden mögliche Unterschiede der Zielfunktionen jedoch nicht berücksichtigt. Deshalb werden in der vorliegenden Masterarbeit erste Ansätze untersucht, die mögliche Heterogenität der Zielfunktionen einzubeziehen. Dabei beschränken sich die Betrachtungen auf bikriterielle Optimierungsprobleme. Zwei der drei untersuchten Ansätze wurden in Matlab implementiert und an selbst gewählten Testfunktionen getestet.



Fanselow, Niklas;
Die verallgemeinerte Goldberg-Vermutung. - 52 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

In dieser Arbeit wurde der f-chromatische Index, d.h., die Kantenfärbungszahl eines gewichteten Graphen auf obere und untere Schranken untersucht. Die verallgemeinerte Goldberg-Vermutung ist eine solche obere Schranke. Die Parametrisierung der verallgemeinerten Goldberg-Vermutung wurde bisher nur für m=9 bewiesen. In dieser Arbeit wird Parametrisierung mittels einer neuen Methode von Tashkinov für m=11 gezeigt und ein neuer Beweis für m=9 geliefert.



Steinacker, Alex;
Zur Struktur kritischer Hypergraphen. - 41 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

In dieser Arbeit werden kritische Hypergraphen betrachtet. Dabei werden bekannte Sätze von Graphen auf Hypergraphen erweitert und bewiesen, speziell über den Zusammenhang.



Roth, Carolin;
Über die Existenz von gewissen induzierten Untergraphen eines Graphen. - 15 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

Die vorliegende Arbeit beschäftigt sich mit einem Optimierungsproblem auf Graphen. Hierbei werden den n Knoten des Graphen G und den zwischen ihnen verlaufenden Kanten positive Zahlenwerte zugeordnet und mit diesen wird eine quadratische Funktion betrachtet. Ziel dieser Arbeit ist es, das Maximum dieser Funktion über dem n-dimensionalen Einheitswürfel zu ermitteln. Die Lösung dieses Problems, die Funktion zu maximieren, ist nicht einfach, da das untersuchte Problem NP-vollständige Unterprobleme enthält. Es wird deutlich, dass im Allgemeinen das Maximum der Funktion durch einen induzierten Untergraphen H von G realisiert wird. Dieser hat je nach Wahl der den Knoten und Kanten zugeordneten Zahlenwerte bestimmte Eigenschaften. Da die explizite Maximierung der Funktion NP-vollständige Probleme als Unterprobleme enthält, wird der Maximalwert in dieser Arbeit als gegeben angenommen. Es wird festgestellt, dass das Maximum in einer Ecke des Einheitswürfels angenommen wird. Mithilfe dieses Resultats wird ein gewisser Untergraph H von G betrachtet, welcher durch bestimmte Knoten des Graphen G induziert werden kann. Wird der Untergraph H zusätzlich minimal gewählt, können weitere Aussagen über den Maximalwert getroffen werden. Durch die verschiedene Wahl der Zahlenwerte an Knoten und Kanten, können gewisse Eigenschaften des Untergraphen H erzwungen werden. Somit werden Resultate erhalten, welche die Existenz von induzierten Untergraphen eines gegebenen Graphen G sichern. Die in den letzten Kapiteln der Arbeit beschriebenen Sätze sagen aus, dass unter gewisser spezieller Wahl der Zahlenwerte an Knoten und Kanten ein induzierter Untergraph H von G mit einem gewissen Maximum existiert, welcher eine gewisse zusätzliche Eigenschaft besitzt. Zum Beispiel ist in bestimmten Fällen die Knotenmenge unabhängig oder die Maximalvalenz beschränkt.



Höhler, Karen;
Pontryagins Maximumprinzip und dessen Anwendung im Supply Chain Management. - 64 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

In dieser Bachelorarbeit wird ein Optimalsteuerungsproblem aus dem Supply Chain Management betrachtet und mit Hilfe des Pontryagin'schen Maximumprinzips analytisch gelöst. Das Anwendungsmodell beschreibt die Zusammenarbeit eines Produzenten und seines Zulieferers. Hierbei wird untersucht, ob Maßnahmen zur Lieferantenentwicklung zu Gewinnsteigerungen aus Perspektive der einzelnen Marktteilnehmer und/oder innerhalb der gesamten Wertschöpfungskette führen können. Zur Beantwortung dieser Fragestellung werden mehrere Optimalsteuerungsprobleme formuliert und gelöst. Insbesondere wird ein Faktor zur Aufteilung der Kosten für die Lieferantenentwicklung so bestimmt, dass die Zusammenarbeit den aufsummierten Gewinn des Produzenten und des Zulieferers maximiert. Besonderer Wert wird dabei auf die ausführliche und mathematisch korrekte Darstellung des Lösungsweges gelegt. Im Anschluss erfolgt die ökonomische Interpretation, um Handlungsempfehlungen aus den Ergebnissen abzuleiten. Zur Lösungsbestimmung wird Pontryagins Maximumprinzip für feste Endzeiten und freie rechte Endbedingung angewendet. Dieses wird in einem vorangestellten Theorieteil ausgehend von Pontryagins Maximumprinzip für feste Endpunkte und freie Endzeit hergeleitet und angegeben.



Semper, Sebastian;
Bounds for the coherence of Khatri-Rao-products and Vandermonde matrices. - 80 S. : Ilmenau, Techn. Univ., Masterarbeit, 2015

Diese Arbeit handelt von einem kleinen Teil des weiten Feldes Compressed Sensing, welches heutzutage eine große Rolle in der Signal- und Bildverarbeitung spielt. Diese Arbeit besteht aus fünf Kapiteln. Das erste Kapitel erläutert einige grundlegende Begriffe im Zusammenhang mit Compressed Sensing. Unter anderem werden die Begriffe Sparsity, Kohärenz und der Kruskal-Rang eingeführt. Darüber hinaus wird das Vorgehen bei Sparsity Order Estimation beschrieben. Dies dient als Motivation im zweiten Kapitel zunächst das allgemeine Packungsproblem zu erläutern. Hier wird ein bekanntes Resultat für die n-dimensionale Sphäre auf einen projektiven Raum übertragen, welches es uns ermöglicht Schranken für die Packungszahlen von Matrizen mit Rang 1 herzuleiten. Dies ermöglicht die Ableitung von Schranken für die Kohärenz von Khatri-Rao-Produkten, welche ein zentrales Ergebnis dieser Arbeit darstellen. Das dritte Kapitel dreht sich um das Problem, wie man explizit Matrizen mit niedriger Kohärenz konstruieren kann, wobei reell- und komplexwertige Matrizen zum Tragen kommen. Wir stellen Strategien zur Konstruktion von beliebigen Matrizen, Khatri-Rao-Produkten und Vandermonde Matrizen vor. Der Algorithmus für letztere zieht auch untere und obere Köhärenzschranken nach sich. Kapitel vier illustriert einige numerische Resultate für die Schranken und Algorithmen, welche vorher hergeleitet wurden. Wann immer möglich werden numerische Resultate mit theoretischen verglichen. Das letzte Kapitel gibt eine kurze Zusammenfassung der Arbeit und zeigt einige Bereiche auf, welche noch offene Fragen beinhalten.



Schmitz, Philipp;
Zur WKB-Näherung für Lösungen gewöhnlicher Differentialgleichungen einer komplexen Veränderlichen. - 72 S. : Ilmenau, Techn. Univ., Masterarbeit, 2015

In der vorliegenden Arbeit wird für Lösungen gewöhnlicher, linearer Differentialgleichungen zweiter Ordnung der Form $f''=(p+q)f$ das Wachstumsverhalten mit Hilfe der WKB-Näherung untersucht. Neben Problemen entlang der reellen Achse werden insbesondere Differentialgleichungen innerhalb einfach zusammenhängender Gebiete betrachtet. Ein Schwerpunkt ist die Konstruktion von Fehlerschranken für die WKB-Näherungen. Dieses Problem wird auf eine Volterra-Integralgleichung zurückgeführt, wobei in dieser Arbeit eine Aussage über das Wachstumsverhalten von Lösungen bewiesen wird. Die Resultate der WKB-Methode werden für den Fall polynomieller Koeffizienten angewendet. Dabei werden Lösungen konstruiert, die in bestimmten Bereichen (Stokes wedges und Stokes lines) der komplexen Zahlenebene mit exponentieller Geschwindigkeit wachsen beziehungsweise gegen Null konvergieren. Dieser Fall spielt eine herausragende Rolle in der sogenannten $\PT$-Quantenmechanik.



Zeng, Sebastian;
Generalized stochastic processes and stochastic differential equations. - 55 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

m Rahmen der vorliegenden Bachelorarbeit wird mit Hilfe verallgemeinerter Funktionen eine Lösungstheorie für eine bestimmte Gruppe linearer stochastischer Differentialgleichungen erarbeitet. Das dafür benötigte Wissen aus der Theorie der verallgemeinerten Funktionen sowie die benötigten Kenntnisse aus der Theorie der verallgemeinerten stochastischen Prozesse wird einleitend knapp und in einem modernen mathematischen Stil dargestellt. Darauffolgend nutzen wir dieses Wissen, um für eine gegebene stochastische Differentialgleichung eine Lösung zu ermitteln. Das Hauptergebnis besteht in der Formulierung sowie dem Beweis eines Theorems, welches Existenz und Eindeutigkeit der Lösung gewährleistet. Abschließend soll die Analyse zweier bekannter Beispiele zeigen, dass die entwickelte Theorie durchaus Anwendung in der Praxis findet.



Krumbholz, Michaela;
Kontrahierbare Kanten in Spannbäumen 3-zusammenhängender Graphen und die Konstruktion von Füchsen. - 43 S. Ilmenau : Techn. Univ., Masterarbeit, 2015

Es wurde das Hauptresultat aus der Arbeit "Every DFS-tree of a 3-connected graph contains a contractible edge" von Elmasry, Mehlhorn und Schmidt einfacher bewiesen. Weiterhin wurden sechs Konstruktionen für unendliche Klassen von Füchsen mit der Eigenschaft |m-2n| wächst mit n angegeben. Damit konnte sogar eine erste Antwort auf die Frage gefunden werden, wieviele Ecken vom Grad 3 ein Fuchs, im Verhaltnis zu seiner Eckenzahl, maximal enthalten kann.



Abdul Hai, Ziad;
Differentialoperatoren zweiter Ordnung mit komplexen Koeffizienten. - 39 S. Ilmenau : Techn. Univ., Masterarbeit, 2015

Ein Sturm-Liouville-Problem besteht ist eine gewöhnliche Differentialgleichung der Form $$-(p(x)y'(x))'+(q(x)-\lambda w(x))y(x)=0\quad \text{für } -\infty \le a<x<b\le \infty,$$ für $\lambda\in \mathbb{C}$ mit Anfangswerten $y(x_0)=y_0, \quad y'(x_0)=y_1.$. Hier sind die Funktionen $p,q:(a,b)\mapsto \mathbb{C}$ und $w:(a,b)\mapsto \mathbb{R}$ meßbar und $\frac{1}{p},q,w$ sind lokal integrierbar. Zudem gelte für fast alle $x\in (a,b)$, dass $p(x)\neq 0$ und $r(x)>0$. Die Differentialgleichung besitzt zwei linear unabhängige Lösungen. Diese Lösungen müssen aber nicht unbedingt im Hilbertraum $$L^2(a,b,w\,dx):=\bigg\{u:(a,b)\mapsto \mathbb{C}:\int_{a}^{b}w|u|^2\,dx<\infty\bigg\}$$ liegen. Sind $p$ und $q$ reellwertige Funktionen, so besagt ein berühmtes Ergebnis von H. Weyl, dass entweder alle Lösungen des Eigenwertproblems für jedes $\lambda\in\mathbb{C}$ im Hilbertraum $L^2(a,b,w\,dx)$ liegen oder nur eine Lösung (und ihre Vielfachen) in $L^2(a,b,w\,dx)$ liegen. Liegen alle Lösungen im Hilbertraum $L^2(a,b,w\,dx)$, spricht man vom Grenzkreisfall anderenfalls vom Grenzpunktfall. In dieser Masterarbeit werden einige der Ergebnisse der Arbeit "Secondary conditions for linear differential operators of the second order" von A. R. Sims (Journal of Mathematics and Mechanics, 6 (1957), 247-285) vorgestellt. A. R. Sims erweiterte die Grenzpunkt-Grenzkreis-Klassifikation von Weyl auf komplexwertige Koeffizienten im Fall $p=w\equiv 1$. In dieser Klassifikation einen Fall mehr, als in der klassischen Klassifikation von H. Weyl für reelle Koeffizienten $p$ und $q$. Außerdem werden Eigenschaften der Weylschen $M$-Funktion untersucht und ein Lösungsoperator $R_{\lambda}$ erklärt. In den Fällen, in denen alle Lösungen in $L^2[a,b)$ liegen, ist dieser Lösungsoperator ein Hilbert-Schmidt Operator. Damit besteht das Spektrum in diesen Fällen nur aus isolierten Eigenwerten mit endlicher algebraischer Vielfachheit, welche in der unteren Halbebene liegen.



Schweser, Thomas;
Zur listenchromatischen Zahl signierter Graphen. - 39 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2015

Signierte Graphen sind Graphen, in denen jede Kante mit +1 oder -1 beschriftet (signiert) ist. Die vorliegende Arbeit gibt zunächst bereits bekannte Ergebnisse wieder, insbesondere zur signierten chromatischen Zahl, und beschäftigt sich danach intensiv mit Listenfärbungen signierter Graphen. Insbesondere wird eine Listenversion des Satzes von Brooks für signierte Graphen bewiesen. Den Abschluss der Arbeit bildet ein Kapitel über kritische und listenkritische signierte Graphen. In diesem liegt der Schwerpunkt darauf, eine Schranke für die minimale Anzahl von Kanten in schlichten k-listenkritischen signierten Graphen nachzuweisen. Ein kurzer Exkurs zu toroidalen Graphen schließlich zeigt den Nutzen dieser Schranke auf und motiviert dazu, sich weiter mit der Thematik der signierten Graphen zu beschäftigen.



Frey, Jonathan;
Der Direct-Algorithmus und seine Anwendbarkeit in der multikriteriellen Optimierung. - 72 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

In meiner Bachelorarbeit befasse ich mich mit dem Direct-Algorithmus, den D.R. Jones, C.D. Perttunen und B.E. Stuckman 1993 in "Lipschitzian optimization without the Lipschitz constant" vorgestellt haben. Der Algorithmus wird zunächst erläutert und diskutiert. Daraufhin stelle ich einige auf Direct beruhende Ansätze, um die effiziente Menge von multikriteriellen Optimierungsproblemen zu approximieren, vor. Diese habe ich implementiert und an Testproblemen getestet. In Teilen der Arbeit beschränke ich mich auf bikriterielle Probleme.



Gruschwitz, Michael;
Attraktordimensionen zeitdiskreter dynamischer Systeme: Grundlagen und numerische Verfahren. - 146 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2015

Bei dissipativen dynamischen Systemen ist - insbesondere im Rahmen der Modellbildung - meist das Langzeitverhalten, und damit der sogenannte Attraktor des dynamischen Systems von besonderem Interesse. Eine wichtige Eigenschaft des Attraktors ist dabei dessen Dimension. Zum einen kann die Dimension des Attraktors einen Anhaltspunkt für die Art des vorliegenden dynamischen Systems geben: ganzzahlige Dimensionswerte deuten auf reguläre, nicht ganzzahlige Dimensionswerte hingegen auf chaotische dynamische Systeme hin. Darüber hinaus kann die Dimension des Attaktors beispielsweise bei der Modellbildung einen Anhaltspunkt für die Anzahl der benötigten unabhängigen Variablen liefern. Die vorliegende Arbeit beschäftigt sich daher mit den Möglichkeiten die Dimension eines (diskreten) dissipativen dynamischen Systems numerisch zu bestimmen. Ausgehend von einer Zusammenfassung der wichtigsten mathematischen Grundlagen und einer kurzen Einführung in die Begriffe der dynamischen Systeme, werden die verschiedenen, in der Literatur gängigen Dimensionsbegriffe einheitlich motiviert und dargelegt. Nach einer Bewertung der numerischen Bestimmbarkeit der unterschiedlichen Dimensionsbegriffe werden für die am geeignetsten erscheinenden Dimensionsbegriffe - Lyapunov-Dimension und Korrelationsdimension - Algorithmen motiviert und dargestellt sowie diese Algorithmen an Beispielen getestet. Abschließend werden die erhaltenen Resultate bzgl. der Genauigkeit der Resultate und der dafür benötigten Laufzeiten miteinander verglichen.



Schacht, Johanna Eleonore;
Notwendige und hinreichende Bedingungen für Nachbarschaftshypergraphen. - 28 S. Ilmenau : Techn. Univ., Masterarbeit, 2015

Ein Nachbarschaftshypergraph ist ein Hypergraph H, der aus einem schlichten Graphen G entsteht, indem die Nachbarschaft jeder Ecke von G einen Block von H bildet. Der Graph G wird dabei Ursprungsgraph von H genannt. Wir betrachten in dieser Arbeit, unter welchen Bedingungen ein Hypergraph ein Nachbarschaftshypergraph ist. In Kapitel 2 zeigen wir notwendige Bedingungen, die alle Nachbarschaftshypergraphen erfüllen. Insbesondere beweisen wir mit Satz 2.7, dass sie selbstdual sind. Außerdem stellen wir mit Satz 2.10 den Zusammenhang zwischen einer Adjazenzmatrix eines Graphen und der Inzidenzmatrix des zugehörigen Nachbarschaftshypergraphen vor. In Kapitel 3 beschäftigen wir uns mit der Klasse der 2-Designs. Dabei zeigen wir mit Lemma 3.3, welche Eigenschaften die Ursprungsgraphen von 2-Designs haben und darauf aufbauend beweisen wir mit algebraischen Methoden in Satz 3.4 notwendige Bedingungen für die Parameter der 2-Designs, die Nachbarschaftshypergraphen sind. Auswirkungen der Eigenschaften Bipartitheit und Zusammenhang der Ursprungsgraphen auf ihre Nachbarschaftshypergraphen betrachten wir in Kapitel 4. Die Sätze 4.5 und 4.6 zeigen, welche Beziehungen zwischen den Zusammenhangskomponenten eines Hypergraphen genau dann bestehen, wenn es einen bipartiten Ursprungsgraphen gibt. Beispiel 4.9 beweist, dass ein Hypergraph verschiedene, nicht bipartite Ursprungsgraphen haben kann. Dahingegen ist ein bipartiter Ursprungsgraph immer bis auf Isomorphie eindeutig, was aus Satz 4.8 folgt. Für die Hypergraphen in Kapitel 5 setzen wir Kreisfreiheit voraus. Daraus folgt, dass gegebenenfalls Ursprungsgraphen Wälder sind, wo durch wir auf den Ergebnissen aus Kapitel 4 aufbauen können. Wir greifen einen Algorithmus zur Überprüfung, ob Bäume isomorph sind, auf, der von Hochstättler in dem Buch Algorithmische Mathematik vorgestellt wird. Diesen nutzen wir, um einen Algorithmus anzugeben, mit dem getestet werden kann, ob die Zusammenhangskomponenten eines Hyperwaldes die notwendigen und hinreichenden Bedingungen für die Existenz eines bipartiten Ursprungsgraphen erfüllen. Dieser Algorithmus arbeitet in Polynomialzeit.



Büttner, Florian;
Differentialoperatoren zweiter Ordnung mit komplexwertigen Koeffizienten. - 46 S. Ilmenau : Techn. Univ., Masterarbeit, 2015

Diese Masterarbeit befasst sich mit Differentialausdrücken zweiter Ordnung der Form $\tau[y]=\frac{1}{w}[-(py')'+qy]$. Hier sind $p^{-1}$, $q$ und $w$ lokal summierbare Funktionen, welche auf einem halboffenen, nicht notwendigerweise beschränktem, Intervall [a,b) erklärt sind. Das dazugehörige Eigenwertproblem $\tau[y]=\lambda y$ heißt Sturm-Liouville'sches Eigenwertproblem. Diese Differentialgleichung besitzt zwei linear unabhängige Lösungen, die aber nicht unbedingt im Hilbertraum $$L^2(a,b,w\, dx):= \left{u:(a,b)\rightarrow \mathbb{C}:\int_a^bw|u|^2\, dx <\infty \right}$$ liegen. Ein berühmtes Ergebnis von H. Weyl besagt, dass entweder für jedes $\lambda$ alle Lösungen des Eigenwertproblems in $L^2(a,b,w\, dx$ liegen oder nur eine Lösung (und ihre Vielfache) in $L^2(a,b,w\, dx$ liegt. Im ersten Fall spricht man vom Grenzkreisfall, sonst vom Grenzpunktfall. Es werden die Ergebnisse der Arbeit "On the spectrum of second-order differential operators with complex coefficients" von B.M. Brown, D.K.R. McCormack, W.D. Evans und M. Plum (Proc. R. Soc. Lond. 455 (1999), 1235-1257) vorgestellt. Diese behandelt das Sturm-Liouville'sche Eigenwertproblem mit komplexwertigen $p$ und $q$. Auch in diesem Fall lassen sich die Ergebnisse von H.Weyl zumindest teilweise übertragen. Die Charakterisierung führt dann auf zwei Grenzpunktfälle und einen Grenzkreisfall. Außerdem werden Eigenschaften der Weylschen $m$-Funktion untersucht und eine Operatorrealisierung von $\tau$ angegeben. Für diesen Operator bestimmen wir Mengen, in denen das Spektrum des Operators nur aus Eigenwerten mit endlicher algebraischer Vielfachheit besteht.



Zeuner, Stefan;
Stellvertreterspiele. - 35 S. Ilmenau : Techn. Univ., Masterarbeit, 2015

In der vorliegenden Arbeit werden 2-Personen Normalformspiele untersucht. Jedem solchen Spiel kann ein so genanntes Stellvertreterspiel zugeordnet werden. Die Idee dabei ist, dass die Spieler ihre Aktionen nicht selbst auswählen, sondern Stellvertreter benennen, welche das Spiel in ihrem Auftrag spielen. Die Nutzenfunktionen der Stellvertreter stimmen nicht notwendig mit denen der Spieler überein. Es wird angenommen, dass die Stellvertreter rational im Sinne der Spieltheorie sind und sowohl die eigene Nutzenfunktion als auch die Nutzenfunktion des jeweils anderen Stellvertreters kennen. Rationalität impliziert, dass die Stellvertreter ein Nash Equilibrium in dem durch ihre Nutzenfunktionen induzierten Spiel spielen. Die Spieler erhalten die Auszahlung, welche sich aus diesem Nash Equilibrium ergibt. Da das sich ergebende Spiel mehr als ein Nash Equilibrium haben kann, muss eine Auswahlfunktion Phi fixiert werden, welche das Nash Equilibrium auswählt. Damit wird ein neues Spiel definiert, in welchem die Strategien der Spieler die Stellvertreter sind und die Auszahlungen die Auszahlungen in den durch Phi ausgewählten Nash Equilibria in dem durch die Nutzenfunktionen der Stellvertreter induzierten Spiel sind. Das Studium der Nash Equilibria dieses neuen Spiels bildet den Inhalt der vorliegenden Arbeit.



Zeyda, Robert;
Algorithmen zur Berechnung des Volumens beschränkter nicht notwendig konvexer Polyeder im R 3. - 41 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

Die effiziente Volumenberechnung allgemeiner beschränkter Polyeder hat große Bedeutung in geometrischen und computergrafischen Bereichen. In dieser Arbeit wird dazu unter Benutzung geeigneter Datenstrukturen eine Methode aus der Literatur zur Berechnung von Geradenschnittpunkten aufgegriffen. Mithilfe dieser wird eine Struktur verwaltet, die das Problem zerlegt und sukzessive Teilvolumen aufaddiert. Damit ergibt sich für einen gegebenen Polyeder mit n berandenden Polygonen und höchstens m Ecken für jedes Polygon eine Laufzeit von O((nm + s) log(nm) + n 2 m 2 log n) mit s <= n 2 m 2. Die Schranke, insbesondere der Wert s, bietet Verbesserungsmöglichkeiten in der Abschätzung. Nach Konstruktion sind Verallgemeinerungen des gegeben Algorithmus für Polyederschnitte möglich. Dem gegenüber wird eine Methode mit Laufzeit O(nm) beschrieben, die eine konsistente Orientierung der Polygone fordert.



Glock, Matthias;
Banachräume mit reproduzierenden Kernen. - 43 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

Diese Arbeit ist in sechs Kapitel unterteilt. Die Einleitung gibt einen kurzen Überblick über die Theorie der reproduzierenden Kerne für Hilberträume und motiviert zugleich die Verallgemeinerung auf Banachräume. Im zweiten Kapitel sind die theoretischen Grundlagen zusammengestellt, welche notwendig sind um spezielle Banachräume zu entwickeln, welche reproduzierende Kerne besitzen können. Kapitel 3 befasst sich schließlich mit Banachräumen mit reproduzierenden Kernen (RKBS), welche aufgrund der Theorie des zweiten Kapitels definiert werden können. Insbesondere werden hier grundlegende Resultate aus der Hilbertraumtheorie analog auf RKBS verallgemeinert. In Kapitel 4 wird erläutert, wie sich RKBS zur Lösung von Interpolationsproblemen einsetzen lassen. In Kapitel 5 wird die Theorie der letzten beiden Kapitel an zwei ausführlichen Beispielen erläutert. Im letzten Kapitel werden die Ergebnisse diskutiert und es gibt einen Ausblick auf mögliche weitere Forschung.



Mendez, Thomas;
Baumweite endlicher Graphen und Separatortheoreme. - 21 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2014

Die Ergebnisse dieser Bachelorarbeit sind Aussagen über den Zusammenhang zwischen Baumweite und Zerlegbarkeit eines Graphen.



Mohr, Samuel;
Quadratic forms on graphs and maximum weighted induced subgraphs. - 35, 29 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2014

Gegeben sei ein einfacher, endlicher, ungerichteter Graph G = (V, E) mit Eckenmenge V (G) und Kantenmenge E(G). Eine unabhängige Menge von G ist eine Teilmenge von V (G), in der je zwei Ecken nicht adjazent in G sind. Ein oft untersuchtes kombinatorisches Optimierungsproblem ist die Frage nach einer unabhängigen Menge maximaler Kardinalität. Angenommen, den Ecken sind Gewichte zugewiesen, dann ist ein weiteres Problem, eine unabhängige Menge maximalen Gewichtes zu finden. Es ist bekannt, dass die Entscheidungsversion dieser Probleme NP-vollständig ist, wodurch Untersuchungen von Schranken für das maximale Gewicht unabhängiger Mengen gerechtfertigt sind. Eine bekannte Schranke, auf dem diese Arbeit aufbaut, ist eine Veröffentlichung von Gibbons, Hearn, Pardalos und Ramana [1]. Diese Bachelorarbeit untersucht quadratische Formen auf Graphen, welche durch eine Arbeit von Motzkin und Straus [2] motiviert sind. Mit den Ergebnissen kann die Schranke von Gibbons und andere verbessert werden. Des Weiteren wird eine Verallgemeinerung der gewichteten Unabhängigkeit zu maximal gewichteten induzierten Untergraphen untersucht.



Heyder, Stefan;
Chromatische Zahl und Spektrum von Graphen. - 51 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2014

In dieser Bachelorarbeit wird der Zusammenhang zwischen den Eigenwerten und der chromatischen Zahl eines Graphen erarbeitet. Außerdem wird ein Zusammenhang zwischen den Eigenwerten eines Graphen und der Erdös-Faber Lovasz Vermutung hergestellt und eine stärkere Vermutung über die Eigenwerte und seine chromatische Zahl formuliert.



Sumi, Susanne;
Modifikation der alphaBB-Methode für die inverse Kinematik von Roboterarmen. - 92 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

In dieser Arbeit wurde das Problem der inversen Kinematik für Roboterarme als Optimierungsproblem formuliert. Es ergibt sich ein globales Optimierungsproblem, welches mehrere oder sogar unendlich viele globale Minimalstellen hat. Unendlich viele globale Minimalstellen treten bei Roboterarmen mit redundanter Struktur und an singulären Stellungen auf. Für die Anwendung ist es sinnvoll, alle globalen Minimalstellen zu kennen. Zur Lösung dieses Optimierungsproblems wurde die aus der Literatur bekannte alphaBB-Methode erweitert. Mit Hilfe dieses modifizierten Optimierungsverfahrens können von box-restringierten, zweimal stetig differenzierbaren Optimierungsproblemen alle globalen Minimalstellen approximiert werden, unabhängig davon, ob es endlich oder unendlich viele globale Minimalstellen gibt. Es wurde die Korrektheit und Endlichkeit des entwickelten Verfahrens bewiesen.



Fabel, Marc;
Analyse eines MINLP-Problems in der Kraftwerkseinsatzplanung. - 35 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2014

In der Kraftwerkseinsatzplanung gibt es nach der Liberalisierung der Energiemärkte viel zu beachten, wodurch die Optimierungsprobleme in diesem Bereich an Komplexität gewinnen. Somit ist es von Nöten die vielen Facetten der Kraftwerkseinsatzplanung in ein gemischt-ganzzahliges nichtlineares Optimierungsproblem umzuwandeln, um dies mit entsprechenden Solvern lösen zu können. In dieser Bachelorarbeit haben wir nun ein konkretes Beispiel aus der Kraftwerkseinsatzplanung betrachtet. Wie haben aus den vorhandenen Rahmenbedingungen ein Optimierungsproblem erstellt und dieses anschließend auf zwei verschiedene Arten gelöst. Anhand dieser Ergebnisse haben wir einen Vergleich zwischen dem kommerziellen Solver LINDO und dem in Matlab implementierten SQP-Verfahren angestellt. Des Weiteren haben wir untersucht welche Eigenschaften die einzelnen nichtlinearen Teilfunktionen der Zielfunktion besitzen und wie sich Veränderungen an verschiedenen Variablen auf das Gesamtsystem auswirken um zu analysieren wie stabil das gesamte System ist.



Storch, Patrick;
k-kritische Hypergraphen deren Ordnung höchstens 2k-2 ist. - 34 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2014

Ein Hypergraph heißt k-kritisch, wenn seine chromatische Zahl den Wert k hat, jedoch jeder echte Unterhypergraph mit weniger als k Farben färbbar ist. 1963 bewies T. Gallai, dass jeder k-kritische Graph mit einer Ordnung größer als 2k-2 zerlegbar ist, d.h. sein Komplement ist unzusammenhängend. In dieser Arbeit wird ein analoges Resultat für Hypergraphen bewiesen, sowie einige Klassen k-kritischer Hypergraphen untersucht. Desweiteren enthält die Arbeit eine vollständige Liste (mit Beweis) aller 3-kritischen Hypergraphen der Ordnung 5.



Martens, Björn;
Zur Stabilisierbarkeit von linearen zeitvarianten diskreten Systemen. - 40 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

In dieser Masterarbeit wird das Problem der Stabilisierbarkeit durch lineares Feedback für lineare zeitvariante diskrete Systeme mit beschränkten Systemmatrizen untersucht. Es wird unter anderem gezeigt, dass vollständige Steuerbarkeit nach Null die Existenz eines linearen Feedbacks impliziert, so dass das geschlossene System asymptotisch stabil ist. Des Weiteren wird bewiesen, dass dem System durch geeignetes Feedback ein beliebiger Lyapunov-Exponent zugewiesen werden kann, wenn das System vollständig steuerbar nach Null ist. Die Umkehrung gilt im Allgemeinen nicht. Die Resultate wurden mit der Hilfe von zwei endlichen Kosten-Bedingungen gezeigt. Der Unterschied, ob das System asymptotisch oder gleichmäßig exponentiell stabilisierbar ist, liegt in der Frage, ob die endliche Kostenbedingung gleichmäßig in der Anfangszeit erfüllt ist oder nicht.



Gernandt, Hannes;
Untersuchung von Quantengraphen mittels direkter Summen von Randtripeln. - 73 S. : Ilmenau, Techn. Univ., Masterarbeit, 2014

In der vorliegenden Arbeit werden Quantengraphen untersucht. Quantengraphen bestehen aus einer endlichen oder abzählbar unendlichen Eckenmenge, einer endlichen oder abzählbar unendlichen Menge von Kanten, welche die Ecken miteinander verbinden, einer Kantenlängenfunktion und Differentialausdrücken auf jeder Kante zusammen mit Vernüpfungs- und Randbedingungen an den Ecken. Zur Modellierung der Operatoren auf dem Graphen verwenden wir die direkte Summe von Hilberträumen und linearen Relationen sowie das aus der Erweiterungstheorie symmetrischer linearer Relationen bekannte Konzept der Randtripel. Genauer werden Kirchhoff-Erweiterungen und Punktinteraktionen untersucht. Zur Beschreibung dieser Erweiterungen benutzen wir Regularisierungstechniken für Randtripel in Verbindung mit Zwischenerweiterungen. Von besonderem Interesse ist hier der Fall, dass die Kantenlängen beliebig klein werden dürfen. In diesem Fall übertragen sich gewisse Eigenschaften von diskreten Laplace-Operatoren auf die von uns betrachteten Erweiterungen. Hiermit wird die Selbstadjungiertheit, die Halbbeschränktheit und das Spektrum von Punktinteraktionen auf Quantengraphen beschrieben.



Buchholz, Jens;
Zur Struktur kritischer Graphen. - 34 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2014

In dieser Arbeit wird eine Klasse von Graphen, nämlich die Klasse Cri*(k) charakterisiert. Sie umfasst alle k-kritischen Graphen, deren Nebenpunktegraph zusammenhängend ist und deren Hauptpunktegraph eine Färbung mit k-2 Farben besitzt. Weil die Charakterisierung bereits durch Sachs und Stiebitz erfolgt ist, wurden in dieser Arbeit neue und einfachere Beweise für die Charakterisierungssätze gefunden. Dazu wurde auf das Listenfärbungskonzept zurückgegriffen, welches eine Verallgemeinerung des Färbungskonzeptes darstellt, indem jeder Ecke v eine Farbe aus der zugehörigen Farbliste L(v) zugeordnet wird.



Dennstädt, Dario;
Ein nichtlinearer Regler mit Zeitverzögerung. - 24 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2014

Mingxuan Sun stellte in seinem Manuskript "Convergence of incremental adaptive systems" ein Konzept für einen nichtlinearen Regler mit Zeitverzögerung vor. Diese Bachelorarbeit greift den grundlegenden Entwurf auf und gibt einen überarbeiteten Vorschlag wieder, der vorhandene mathematische Ungenauigkeiten im basierenden Manuskript auflöst. Als Erweiterung der Ideen wird abschließend der Aufbau des Reglers mit dem Konzept der Funnel-Regelung verbunden.



Wieditz, Johannes;
Nicht-asymptotische Konfidenzbereiche für extrinsische Erwartungswerte zirkulärer Daten. - 60 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2014

In dieser Arbeit werden nicht-asymptotische Konfidenzbereiche für den extrinsischen Erwartungswert von Zufallsvariablen mit Werten auf dem Einheitskreis konstruiert. Dabei wird neben der Hoeffdingschen Ungleichung, der Tschebyscheffschen Ungleichung und Hoeffdings Theorem˜3, eine verschärfte Version der Hoeffdingschen Ungleichung für die Konstruktion verwendet. Letztere wird dazu hergeleitet und bewiesen. Die Konfidenzbereiche werden dann für zwei Anwendungsbeispiele mit unterschiedlich stark konzentrierten Daten konstruiert und sowohl untereinander als auch mit asymptotischen Konfidenzbereichen verglichen.



Dumke, Mandy;
Über Geschlecht und längste Kreise von 3-fach zusammenhängenden, kubischen, bipartiten, nicht-hamiltonschen Graphen. - 35 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

Über Geschlecht und längste Kreise von 3-fach zusammenhängenden, kubischen, bipartiten, nicht-hamiltonschen Graphen.



Henneberg, Jessica;
LCPs und Kopositivität. - 44 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2014

Diese Bachelorarbeit befasst sich mit dem Zusammenhang zwischen der Lösbarkeit eines linearen Komplementaritätsproblems (LCP) und den Eigenschaften der Matrix, die dieses LCP definiert. Insbesondere die Bedeutung der Kopositivität der Matrix wird hierbei untersucht. Dabei wird auch der Zusammenhang zwischen LCPs und quadratischen Optimierungsproblemen dargestellt. Außerdem wird ein numerisches Verfahren zur Lösung von LCPs, der Lemke Algorithmus, vorgestellt. Es wird diskutiert, welche Bedingungen an die Matrix des LCPs garantieren, dass der Lemke Algorithmus eine Lösung findet. Auch hier wird wieder speziell auf die Bedeutung der Kopositivität der Matrix eingegangen. Abschließend werden die Ergebnisse genutzt, um eine Matrix mit Hilfe des Lemke Algorithmus auf Kopositivität zu untersuchen. Es werden numerische Experimente durchgeführt und auftretende Probleme aufgezeigt.



Glock, Stefan;
Edge-connectivity and Steiner tree packings in graphs. - 85 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

Der zentrale Gegenstand dieser Masterarbeit ist Kriesells Vermutung. Es sei G ein Graph und A eine Menge von Ecken, den sogenannten Terminalen. Ein A-Steinerbaum ist ein Teilgraph von G, welcher ein Baum ist und alle Terminale enthält. Das Packen von Steinerbäumen in Graphen ist ein kompliziertes Problem mit vielen Anwendungen, zum Beispiel im VLSI-Design und Broadcasting. Aus theoretischer Sicht ist es von Interesse, hinreichende Bedingungen für die Existenz einer bestimmten Anzahl kantendisjunkter Steinerbäume zu kennen. Kriesell vermutete, wenn jeder Schnitt in G, der zwei Ecken aus A trennt, mindestens 2k Kanten enthält, dann existieren k kantendisjunkte A-Steinerbäume. Im Blickpunkt dieser Arbeit steht der aktuellste Forschungsbeitrag zu dieser noch offenen Vermutung. Außerdem wird ein neues Resultat über den Fall weniger Nichtterminale bewiesen. Insbesondere ist Kriesells Vermutung wahr, wenn es höchstens fünf Nichtterminale gibt.



Langner, Kerstin;
Chromatische Zahl, Ordnung und Maximalgrad von Graphen. - 73 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

Die Arbeit beschäftigt sich einerseits mit Graphen, deren chromatische Zahl nahe ihrer Ordnung liegt und zum anderen mit solchen, deren chromatische Zahl nahe ihres Maximalgrades liegt.



Fechner, Felix;
Numerische Simulation der makroskopischen Lasergleichungen. - 34 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2014

Ziel dieser Arbeit ist die Analyse des Einflusses diverser Parameter auf die makroskopischen Lasergleichungen. Hierzu bedarf es einer numerischen Beschreibung und einer programmiertechnischen Umsetzung, welche ebenfalls durchgeführt werden sollen. Um ein Verständnis sowohl der physikalischen als auch der mathematisch-numerischen Grundlagen zu gewährleisten, werden beide detailliert vorgestellt. Zunächst soll hierbei die semiklassische Theorie des Laserlichts wiedergegeben werden, welche die Maxwellsche Theorie des Elektromagnetismus mit einem quantenmechanischen Zweiniveausystem verbindet. Dies führt letztlich auf drei gekoppelte Differentialgleichungen, welche die physikalischen Größen elektrische Feldstärke, Polarisation und Besetzungsinversion miteinander verknüpfen. Direkt anschließend wird die numerische Theorie der gewöhnlichen und partiellen Differentialgleichungen ausgearbeitet. Hierbei werden im Rahmen der gewöhnlichen Differentialgleichungen zunächst verschiedene Einschrittverfahren und darauf folgend explizite und implizite Mehrschrittverfahren vorgestellt. Die numerische Theorie der partiellen Differentialgleichungen beschränkt sich auf die Methode der finiten Differenzen, wobei explizite, implizite und gemischte Verfahren an den Beispielen der Wellen- und der Diffusionsgleichung vorgestellt werden. Zudem werden die theoretischen Konzepte der Stabilitätsuntersuchung sowie verschiedene Stabilitätskriterien angegeben. Darauf aufbauend wird die numerische Umsetzung der Lasergleichungen beschrieben. Es wird darauf Wert gelegt, die Herangehens- und Arbeitsweise des Autors aufzuzeigen, um somit ein einfacheres Nachvollziehen der Gedankengänge zu ermöglichen. Aus diesem Grund wird zunächst die physikalische Vorbereitung - das Reskalieren der Gleichungen behandelt. Dies ermöglicht eine einheitenlose und somit mathematisch-numerisch stark vereinfachte Handhabung der Gleichung. Anschließend folgt die numerische Stabilitätsuntersuchung verschiedener Verfahren, angewandt auf die zunächst noch entkoppelt partielle Lasergleichung. Diese Untersuchung soll ebenfalls die Arbeitsweise des Autors in den Vordergrund rücken und wird deshalb nicht in der strengen mathematischen Beweisstruktur wiedergegeben. Vielmehr werden die Stabilitätsbedingungen - der formalen Beweisrichtung entgegengesetzt - hergeleitet, wodurch die Nachvollziehbarkeit und der Lesefluss erhöht werden. Nach der physikalischen Interpretation der Werte der entkoppelten Gleichung werden abschließend die drei gekoppelten Gleichungen computertechnisch umgesetzt. Von den mannigfaltigen untersuchenswerten Phänomenen werden einerseits ein assymetrisches Auftreten der Besetzungsinversion und andererseits die Abhängigkeit des Laserprozesses von Dämpfungstermen untersucht.



Schneider, Daniel;
On confidence sets in multiobjective optimization. - 41 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

Es gibt viele multikriterielle Optimierungsprobleme in denen verschiedene Größen unbekannt sind und daher geschätzt werden müssen. Solche Schätzungen liefern eine Folge von Ersatzproblemen. Daher wäre es nützlich die Qualität dieser Probleme in Bezug auf die zulässige Menge, die effiziente Menge und die zugehörige Lösungsmenge zu kennen. Das Ziel dieser Arbeit ist die Herleitung geeigneter quantitativer Aussagen zur Konvergenz der Mengenfolgen die durch das Lösen der Ersatzprobleme entstehen. Weiterhin wird gezeigt wie diese Aussagen dazu benutzt werden können, um Konfidenzmengen zu erhalten.



Bradler, Mario;
Kopositivität testen mit der [alpha] bb-Methode. - 50 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2014

Das Ziel der Bachelorarbeit ist die Entwicklung eines Kopositivitätstestes mit der [alpha] bb-Methode. Das Testen einer Matrix auf Kopositivität ist zu einem wichtigen Forschungsgebiet geworden, weil sich viele Optimierungsprobleme gerade aus der gemischt-ganzzahligen und quadratischen Optimierung auf lineare Optimierungsprobleme über dem Kegel der kopositiven Matrizen umformulieren lassen. Die [alpha] bb-Methode ist ein Verfahren aus der globalen Optimierung, das sich auf eine sehr große Klasse von Funktionen anwenden lässt. In der Arbeit wird die [alpha] bb-Methode allgemein vorgestellt, auf dieser Basis ein Kopositivitätstest erstellt und die Ergebnisse mit denen anderer Verfahren verglichen.



Beck, Matthias;
Dichteschätzungen mit Epi-Splines. - 108 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

Die Masterarbeit befasst sich mit einer neuartigen Methode innerhalb der nichtparametrischen Dichteschätzung, die auf sogenannten Epi-Splines beruht. Zunächst geht es in der Arbeit um die Aufbereitung eines Artikels von Johannes O. Royset und Roger J-B Wets zur Schätzung eindimensionaler Dichten mittels exponentieller Epi-Splines. Dieser Ansatz wird schließlich in der Arbeit auf den zweidimensionalen Fall erweitert und es wird dabei das theoretische Fundament zur Schätzung bivariater Dichtefunktionen gelegt. Hierbei wird unter anderem eine Konsistenz-Aussage der entstehenden Dichteschätzer für eine spezielle Klasse von Dichten hergeleitet. Empirische Studien, die vor allem für den eindimensionalen Fall durchgeführt wurden, bildeten die Grundlage, um sowohl mögliche Potentiale als auch Schwachstellen des Schätzverfahrens aufzudecken.



Fischer, Steffen;
Färbungskritische Graphen mit vollständigem Hauptpunktegraph. - 35 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2014

Die Arbeit ist in drei Kapitel unterteilt. Zu Beginn erfolgt die Erläuterung, der für die Arbeit wichtigen Begriffe und Bezeichnungen für Graphen. Unter anderem werden Färbung und auch die für die Beweise wichtige Listenfärbung erklärt. Der letzte Abschnitt dieses Kapitels beschäftigt sich dann mit der Klasse der kritischen Graphen. Daran anschließend befasst sich das zweite Kapitel mit den im Mittelpunkt dieser Arbeit liegenden Sätzen 2.2 und 2.4 sowie ihren neuen Beweisen. Diesbezüglich behandelt das Kapitel zwei Konstruktionsmöglichkeiten, welche aus gegebenen Haupt- und Nebenpunktegraphen einen k-kritischen Graphen konstruieren. Am Ende fügt sich noch ein kurzes Fazit an.



Diegnitz, Sandro;
Fast isometrische Einbettung von Graphmetriken in die euklidische Ebene. - 26 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

In der Arbeit wird gezeigt, dass es möglich ist einen unendlichen, schlichten, zusammenhängenden Graphen so in die Ebene abzubilden, dass er der Einbettungseigenschaft genügt. Der Graph bzw. die Abbildung, welche den Graphen in die Ebene einbettet muss dafür die epsilon-Netz Eigenschaft haben. Außerdem wird der Begriff der r-Kontraktion benutzt um die gewünschten Resultate zu erzielen. Zudem wird gezeigt, dass das Resultat für alle durch Normen induzierte Metriken gilt.



Schierwagen, Thomas;
Stochastische Stabilität am Beispiel eines zellulären Automaten. - 55 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2013

Die vorliegende Arbeit beschäftigt sich mit der Stabilität von Zuständen unter stochastischen Störungen am Beispiel eines zellulären Automaten auf einem periodischen Gitter mit dem Ising-Modell ähnlichen Übergangsregeln. Als Modell für diesen Automaten dienen Markowketten und deren Darstellung als Übergangsgraphen. Unter der Verwendung eines Satzes von Peyton Young kann gezeigt werden, dass sich als stochastisch stabile Zustände Streifen auf dem Gitter ergeben, was in Übereinstimmung mit der Ausbildung langlebiger Streifenzustände in entsprechenden Computersimulationen ist.



Rublack, Liane;
Datenreduzierung beim MRT mit Hilfe semidefiniter Optimierung. - 141 S. Ilmenau : Techn. Univ., Masterarbeit, 2013

Diese Masterarbeit beschäftigt sich mit der semidefiniten Optimierung und deren Anwendung in der Magnetresonanztomographie. Dazu führen wir zuerst die Grundlagen der semidefiniten Optimierung ein. Anschließend werden die Ideen zur Datenreduzierung von Beobachtungspunkten bei der Magenetresonanztomographie aus der Arbeit von G. Eichfelder und M. Gebhardt mathematisch aufgearbeitet. Wir betrachten dann das in dieser Arbeit hergeleitete semidefinite Optimierungsproblem, für das zwei Matrixnormen als (nichtlineare) Zielfunktion gewählt werden können. Diese Optimierungsprobleme formulieren wir zu Problemen mit linearen Zielfunktionen um. Ebenfalls leiten wir die zugehörigen dualen Optimierungsprobleme her und erbringen den Nachweis über die starke Dualität. Zum Schluss lösen wir die oben erwähnten Optimierungsprobleme, die anhand von Zufallsdaten und Daten aus der Anwendung gebildet wurden, mit Hilfe verschiedener Software-Pakete für MATLAB und diskutieren die gewonnenen Ergebnisse.



Krumbholz, Michaela;
Kritische Hypergraphen kleiner Ordnung. - 34 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2013

Es wurden Regeln zum Erhalten der k-kritischen Hypergraphen mit k, k+1 oder k+2 Ecken, sowie aller 2-kritischen Hypergraphen aufgestellt. Weiterhin wurden vollständige Listen der 1-kritischen Hypergraphen, 3-kritischen Hypergraphen mit fünf Ecken und 4-kritischen Hypergraphen mit sechs Ecken erstellt.



Thomann, Jana;
Eckenfärbungskonzepte für verschiedene Graphenklassen. - 39 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2013

Für einen Graph G mit der Eckenmenge V und der Kantenmenge E wird das klassische Eckenfärbungskonzept verallgemeinert. Hierbei weist man zunächst jeder Ecke v des Graphen eine Menge S(v) zu, welche lediglich eine Teilmenge von V \cup E sein muss. Des Weiteren wählt man eine Gewichtsfunktion w : V \cup E -> {1,2,..,k}, wobei k eine natürliche Zahl ist. Nun wird für jede Ecke v mittels c(v) = sum_{x \in S(v)} w(x) eine Farbe definiert. Die so entstandene Färbung soll zulässig sein, d.h. benachbarte Ecken sollen stets verschieden gefärbt sein. Unter dieser Bedingung soll die Zahl k minimiert werden. Wie obere Schranken für dieses minimale k aussehen können, wird für verschiedene Färbungskonzepte, also verschiedene Mengen S(v), angewendet auf einige Graphenklassen untersucht. Genauer werden die Färbungskonzepte S(v) = N(v) = {x \in V | xv \in E} und S(v) = N[v] = N(v) \cup {v} für Kreise, Bäume, bipartite und vollständige r-partite Graphen betrachtet. Zusätzlich werden die Färbungskonzepte S(v) = N_E(v) = {uv \in E | u \in V} , S(v) = N[v] \cup N_E(v) und S(v) = N(v) \cup N_E(v) für Bäume betrachtet.



Niebling, Julia;
Ein Beitrag zu Graphenpackungen. - 34 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2013

Zu zwei gegebenen endlichen, schlichten und ungerichteten Graphen $G$ und $H$ können verschiedene Packungskonzepte betrachtet werden. Zwei eckendisjunkte induzierte Untergraphen $H$ und $H'$ von $G$ heißen unabhängig, wenn $G$ keine Kante zwischen $H$ und $H'$ enthält. So ist $\alpha(G, H)$ die größte Anzahl eckendisjunkter Kopien von $H$, die induzierte Untergraphen von $G$ und paarweise unabhängig sind. Für $H=K_1$ stellt $\alpha(G, K_1)$ die Unabhängigkeitszahl $\alpha(G)$ dar. Die Bestimmung von $\alpha(G, H)$ ist im Allgemeinen schwer. In "Packing of induced subgraphs" von J. Harant, S. Richter und H. Sachs werden unter anderen im Fall, dass $G$ ein $r$-regulärer Graph ist, zwei obere Schranken für $\alpha(G, H)$ bewiesen. Motiviert dadurch stellt sich die Frage nach einem Satz, der für nicht notwendig reguläre Graphen $G$ gilt und den Satz aus der Literatur verallgemeinern kann. In dieser Arbeit wird ein neuer Satz mit Hilfsmitteln aus der Graphentheorie, linearen Algebra und Lagrange-Theorie bewiesen. Der Satz gilt für nicht notwendig reguläre Graphen $G$ und ist in einem Spezialfall eine Verallgemeinerung des Satzes von Harant, Richter und Sachs. Zur Berechnung der bewiesenen Schranken müssen sowohl induzierte Untergraphen von $H$, als auch mehrere Gleichungssysteme gelöst werden. Dieser Aufwand ist dennoch durchaus vertretbar, da meist "kleine" Graphen $H$ in $G$ gepackt werden und die Menge der induzierten Untergraphen von $H$ damit überschaubar bleibt.



Semper, Sebastian;
Gitterfreie Invertierung der Radontransformation mit reproduzierenden Kernen. - 60 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2013

Diese Arbeit ist in sechs Kapitel unterteilt. Die Einleitung dient einerseits der Erläuterung der praktischen Problemstellung am Beispiel der Computertomographie und andererseits bereits der Einführung einiger grundlegender Objekte, welche vor allem im zweiten Teil eine übergeordnete Rolle spielen werden. Weiterhin die Methode der gefilterten Rückprojektionen zur Invertierung der Radontransformation vorgestellt und deren Vor- und Nachteile beleuchtet. Das zweite Kapitel legt zunächst alle theoretischen Grundlagen für die Entwicklung der Theorie und erläutert die mathematische Seite des neuen Verfahrens zur Invertierung der Radontransformation. Im Zuge dessen ergibt sich auch ein neues Ergebnis über lineare stetige Funktionale in Hilberträumen mit reproduzierenden Kernen. Kapitel 2 endet mit dem Invertierungstheorem, welches den Mittelpunkt dieser Arbeit darstellt. Es erlaubt eine Approximation der inversen Radontransformation, die viel weniger Anforderungen an die Messdaten stellt, als beispielsweise die gefilterte Rückprojektion. Die hier entwickelte Methode wird im Folgenden der Einfachheit halber Kernmethode genannt werden. Kapitel 3 befasst sich damit, ein konkretes Beispiel von Kernfunktionen im Sinne der entwickelten Theorie aufzubereiten, um diese in einer praktischen Problemstellung verwenden zu können. Weiterhin wird der Einfluss von einigen weiteren Parametern erläutert, welche bei der Approximation eine Rolle spielen. In den letzten Kapiteln wird zunächst eine kurze Erklärung der benutzten Numerik gegeben. Dann wird die Kernmethode mit verschiedenen Datensätzen getestet und untersucht. Schlussendlich werden die Ergebnisse der Kernmethode mit denen der gefilterten Rückprojektion verglichen. Der Schluss beinhaltet einige weiterführende Aspekte und gibt mögliche Anhaltspunkte für weitere Untersuchungen der Kernmethode.



Haase, Jens;
Ein Netzwerkfärbungsalgorithmus mit Listenfärbungen. - 38 S. Ilmenau : Techn. Univ., Diplomarbeit, 2013

Kernpunkt dieser Arbeit ist die verteilte Färbung von Netzwerken. Als allgemeine Form von Färbungen werden Listenfärbungen verwendet, die von verteilten Algorithmen vorgenommen werden. Bei verteilten Algorithmen besteht das Problem des "symmetry breaking", welches beispielsweise durch probabilistische Algorithmen gelöst werden kann. Kommunikation geschieht nur durch Erkennen der Farben der Nachbarn. Zunächst wird mit Hilfe eines Greedy-Algorithmus mit probabilistischer Farbauswahl bei vorgegebener Mindestwahrscheinlichkeit 1-d einer zulässigen Färbung die obere Schranke O(log(n/d)) für Listenfärbungen mit Mindestlistenlänge d(u)+1 für jede Ecke u bewiesen. Im Anschluss wird ein Algorithmus vorgestellt, der ein einfaches zentralisiertes Färbungsverfahren, welches die Färbungszahl col(G) zu Hilfe nimmt, auf verteilte Färbungen überträgt. Mit diesem Algorithmus wird bei vorgegebener Mindestwahrscheinlichkeit 1-d einer zulässigen Färbung die obere Schranke O(n log(n/d)) für Listenfärbungen mit Mindestlistenlänge col(G) für jede Ecke gezeigt. Abschließend wird bewiesen, dass jeder beliebige verteilte Algorithmus mindestens Omega(n) Runden benötigt, um jeden beliebigen Graphen mit mindestens col(G) Farben zulässig zu färben.



Holzlehner, Saskia;
Flächenberechnung polygonalberandeter Objekte. - 62 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2013

Im Katasteramt ist es nötig, verschiedene Grundstücksgrenzen zu markieren. Vor allem spielt die Unterteilung dieser Flächen in Nutz- und Grundstücksflächen eine zentrale Rolle. In dieser Arbeit wird ein Algorithmus entwickelt, welcher die Flächen von ebenen polygonalberandeten Objekten und deren Schnitten berechnet. Um mit zweidimensionalen Objekten handhaben zu können, besteht die Möglichkeit deren Ränder durch einfach geschlossene Polygonzüge zu approximieren. Zunächst wird die Flächenberechnung affiner Funktionen auf endlichen Intervallen betrachtet. Anschließend steigert man sich mittels Vereinigungen von Trapezflächen auf die Berechnung der Flächeninhalte polygonalberandeter Objekte. Hierbei werden diese Objekte in endlich viele Trapeze mittels Schnittgeraden zerlegt. Dafür müssen die Schnittpunkte zwischen den verschiedenen einfach geschlossenen Polygonzügen ausfindig gemacht werden. Am Schluss wurde dieser Algorithmus zur Flächenberechnung in einem C++-Programm umgesetzt.



Aschenbach, Daniel;
Beiträge zur Ruintheorie im Versicherungswesen. - 94 S. Ilmenau : Techn. Univ., Masterarbeit, 2013

In meiner Arbeit betrachte ich diverse Modelle zur Berechnung der Ruinwahrscheinlichkeit für verschiedene Versicherungsbestände. Neben der Herleitung eines Modells zur Berechnung der approximativen Ruinwahrscheinlichkeit für einen Bestand aus Erlebensfallversicherungen, werden unter anderem obere und untere Schranken für die Wahrscheinlichkeit des Ruins angegeben.



Sasse, Thomas;
An improvement on the Erdös-Pósa property for long circuits. - 43 S. : Ilmenau, Techn. Univ., Masterarbeit, 2013

Zu jeder natürlichen Zahl $\ell \geq 3$ und jedem beliebigen Graphen $G$ derart, dass $G$ keine zwei eckendisjunkte Kreise der Länge mindestens $\ell$ enthält, exisitert eine Eckenmenge $X$ von höchstens $\frac{5}{3}\ell+\frac{13}{3}$ Elementen derart, dass $G - X$ keinen Kreis der Länge mindestens $\ell$ mehr enthält. Dies ist eine Verbesserung der oberen Schranke $2\ell+3$ von Birmelé, Bondy und Reed (The Erdös-Pósa property for long circuits, {Combinatorica} {27} (2007), 135-145).



Heilmann, Gerrit;
Empirische Likelihood-Quotienten-Konfidenzintervalle für Funktionale der Verteilungsfunktionen. - 36 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2013

In dieser Arbeit geht es darum, asymptotische Konfidenzintervalle bereitzustellen, dafür wird der Artikel "Empirical likelihood ratio confidence intervals for a single functional" von Art B. Owen aufgearbeitet. Die Beweise, die im Artikel nur angedeutet werden, werden in dieser Arbeit tiefgründiger vollzogen, so dass der Leser diesen besser folgen kann. Außerdem sollen die Simulationen, die der Autor dieses Artikels durchgeführt hat, anhand eigener eingeschätzt werden.



Seeger, Stefan;
Kerndichteschätzer im Kontext universaler Konfidenz. - 127 S. Ilmenau : Techn. Univ., Masterarbeit, 2013

Die Masterarbeit befasst sich mit einer nichtparametrischen Variante der Dichteschätzung, den Kerndichteschätzern. Im Mittelpunkt stehen gleichmäßige und punktweise Approximationen der unbekannten Dichte in Wahrscheinlichkeit durch einen Kerndichteschätzer. Diese Approximationen bilden die Grundlage zur Bestimmung von universalen Konfidenzmengen. Im Fall punktweiser Approximationen werden die resultierenden universalen Konfidenzmengen mit bekannten asymptotischen Aussagen verglichen. Der Schwerpunkt liegt jedoch auf der Bestimmung von Konfidenzmengen für obere Niveaumengen der unbekannten Dichte, welche in der explorativen Statistik eine wesentliche Rolle spielen. Die benötigten gleichmäßigen Approximationen der Dichte in Wahrscheinlichkeit liegen Arbeiten von Frau Professor Vogel und Frau Dünnbier vor. Diese Möglichkeiten werden in der Arbeit aufgegriffen und abgeändert. Die Voraussetzungen an die unbekannte Dichte werden abgeschwächt und es wird gezeigt, dass die Hölder- Stetigkeit der Dichte hinreichend ist, um Approximationen der Dichte in Wahrscheinlichkeit zu erhalten. Basierend auf der Definition geeigneter multivariater Kernfunktionen wird eine Abschätzung des gleichmäßigen Bias für hinreichend glatte Dichten unter Berücksichtigung einer allgemeineren Bandbreitenmatrix angegeben, welche ebenfalls in die Approximation der Dichte in Wahrscheinlichkeit einfließt. Es wird gezeigt, dass die Angabe der universalen Konfidenzmengen für obere Niveaumengen der Dichte über die Bestimmung von oberen Niveaumengen des Kerndichteschätzers zu realisieren ist. Auf Grundlage dieser Aussage und der fast sicheren Hölder- Stetigkeit des Kerndichteschätzers werden allgemeine multivariate Algorithmen vorgeschlagen und in der Statistiksoftware R umgesetzt. Die Algorithmen ermöglichen eine äußere und innere Approximation der oberen Niveaumengen des realisierten Kerndichteschätzers. Es wird gezeigt, dass sich die fast sicher Hölder- Stetigkeit des Kerndichteschätzers unter bestimmten Voraussetzungen an die unbekannte Dichte abschwächen lässt und so eine verbesserte Laufzeit der Algorithmen zu erreichen ist. Insbesondere für uni- und bivariate Kerndichteschätzer bilden die vorgeschlagenen Algorithmen eine erste Grundlage die oberen Niveaumengen des Kerndichteschätzers auch ohne weitere Strukturaussagen, wie die Konvexität oder Sternförmigkeit der Niveaumengen, zu bestimmen.



Langner, Kerstin;
Über Unterteilungen des $K_{3,3}$ in Graphen. - 30 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

Diese Arbeit beschäftigt sich mit den Fragen: 1. Unter welchen Voraussetzungen enthält ein nichtplanarer Graph eine Unterteilung des $K_{3,3}$? 2. Unter welchen Voraussetzungen enthält ein paarer Graph sogar eine saubere Unterteilung des $K_{3,3}$?



Schacht, Johanna Eleonore;
Spektrum und quadratisch numerischer Wertebereich von Blockoperatormatrizen. - 36 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

Eine wichtige Eigenschaft des quadratisch numerischen Wertebereichs ist die sogenannte Spektralinklusion. Das bedeutet, dass das Punktspektrum eines Operators in seinem quadratisch numerischen Wertebereich liegt und das Spektrum von im Abschluss enthalten ist. Diese Eigenschaft ist auch vom numerischen Wertebereich bekannt. Dabei bietet der quadratisch numerische Wertebereich im Allgemeinen eine genauere Abschätzung des Spektrums als der numerische Wertebereich. Generell gilt, dass der quadratisch numerische Wertebereich im numerischem Wertebereich enthalten ist. Dagegen gehen beim quadratisch numerischem Wertebereich im Vergleich zum numerischem Wertebereich Eigenschaften, wie Konvexität und Zusammenhang verloren. Stattdessen besteht der quadratisch numerische Wertebereich aus bis zu zwei Zusammenhangskomponenten. In dieser Arbeit geben wir einen eigenen Beweis für diese Eigenschaft des quadratisch numerischen Wertebereichs an. Die in dieser Arbeit vorgestellten Theoreme und Aussagen über den quadratisch numerischen Wertebereich entstammen zu einem großen Teil den Abschnitten 1.1, 1.2 und 1.3 aus dem Buch von Christiane Tretter: Spectral Theory of Block Operator Matrices and Applications. Diese Abschnitte werden mit dieser Arbeit um eigene Beweise ergänzt. Außerdem werden Corollary 1.14 und Remark 1.3.5 aus diesem Buch korrigiert wiedergegeben und mit passenden Gegenbeispielen unterlegt.



Glock, Stefan;
Gebrochene Kantenfärbungen gewichteter Graphen. - 32 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

Das f-Kantenfärbungsproblem besteht darin, die Kanten eines gewichteten Graphen mit so wenig wie möglich Farben zu färben, wobei an jedem Knoten v jede Farbe höchstens f(v)-mal vorkommen darf. Zhang, Yu und Liu charakterisierten das f-Matching-Polytop durch lineare Ungleichungen und konnten damit eine Formel für den gebrochenen f-chromatischen Index herleiten. Es wird festgestellt, dass die Beweise lückenhaft sind, und durch Angabe von Gegenbeispielen belegt, dass die Aussagen falsch sind. Auf den Zusammenhang mit der Vermutung von Nakano, Nishizeki und Saito wird ebenfalls eingegangen.



Schmeißer, Susanne;
Beiträge zu kontinuierlichen Schwingungssystemen: Schwingungen abgesetzter Balken mit visko-elastischen Bettungen. - 96 S. Ilmenau : Techn. Univ., Diplomarbeit, 2012

Diese Arbeit untersucht Eigenkreisfrequenzen von abgesetzten Balken auf visko-elastischen Bettungen. Ein wichtiger Punkt in dieser Arbeit ist der Beweis, dass die Abschnitte des Balkensystems gemeinsame Eigenkreisfrequenzen besitzen, obwohl sie unterschiedliche Eigenwerte haben. Dieses Balkensystem wird stückweise aufgebaut, beginnend mit den Grundlagen von Biegeschwingern ohne Absatz und Bettung, basierend auf der Euler-Bernoulli'schen Balkentheorie. Danach wird der Einfluss von Absätzen auf die Eigenkreisfrequenzen untersucht. Als nächstes wird die Schwingung von Balken ohne Absatz auf rein elastischen und im Anschluss, mit der gleichen Herangehensweise, auf rein viskosen Bettungen untersucht. Letzendlich wird die Schwingung von abgesetzten Balken auf visko-elastischen Bettungen betrachtet. Für einen leichteren Einstieg in die Thematik wird jedes Kapitel mit dem entsprechenden Modell von längsschwingenden Stäben eingeleitet. Jedes Kapitel wird mit Beispielen abgeschlossen, dessen Ergebnisse in Maple numerisch berechnet wurden. Die Ergebnisse werden mit dem Rayleighquotienten und der Finiten Elemente Methode(FEM) verglichen.



Martens, Björn;
Populationsmodelle und deren Bifurkation. - 56 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

In dieser Arbeit werden zwei und drei Populationsmodelle untersucht. Es werden Ergebnisse aus der Literatur, wie die Herleitung von Differentialgleichungssystemen sowie die qualitative Lösung dieser Systeme, zusammengetragen und erweitert. Der Hauptteil der Untersuchungen bezieht sich auf das Lotka-Volterra Räuber-Beute-Modell. Das Stabilitätsverhalten von Fixpunkten wird hervorgehoben und es werden Phasenportraits erstellt. Darüber hinaus wird ein verbesserter Ansatz eines zwei Populationsmodells, mit innerspezifischer Konkurrenz, vorgestellt, welcher auch auf Stabilität untersucht wird. Außerdem soll ein neuer Aspekt der Bifurkationstheorie betrachtet werden. Es wird überprüft, ob die Systeme eine Bifurkation besitzen und welche Interpretation diese haben könnte. Dazu werden verschiedene Parameter variiert und die so veränderten Systeme qualitativ gelöst. Daraufhin wird die Bifurkation des zwei Populationsmodells mit innerspezifischer Konkurrenz näher betrachtet und mit der Hopfverzweigung verglichen. Zum Schluss wird ein Ansatz für ein Modell mit beliebig vielen Populationen vorgestellt und speziell für drei Spezies näher betrachtet. Dabei werden die Auswirkungen der Interaktion zwischen den drei Spezies auf die Wahl der Parameter erläutert und es wird versucht mit numerischen Mitteln Aussagen über die Entwicklung der verschiedenen Spezies zu machen.



Schäfer, Lukas Matthias;
Konfidenzmengen für multivariate, stetige Dichten und univariate Dichten mit Unstetigkeitsstellen auf der Basis von Kernschätzern. - 33 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

In der Arbeit werden für multivariate Dichtefunktionen optimale Bandbreiten und Kernfunktionen bez. einer gleichm. Approximation der Dichte in Wahrscheinlichkeit abgeleitet und diese in einer Computersimulation verwendet. Des Weiteren wird eine gleichm. Approximation der Dichte in Wahrscheinlichkeit für Dichten mit einer Unstetigkeitsstelle und modifizierte Kerndichteschätzer hergeleitet.



Büttner, Florian;
Ein implizites parallelisierbares Runge-Kutta-Verfahren. - 53 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

Das Ergebnis der Bachelorarbeit mit dem Thema: "Ein implizites parallelisierbares Runge-Kutta-Verfahren" ist das Auffinden eines problemspezifischen implizites Runge-Kutta-Verfahrens der Konsistenzordnung 2, welches die Eigenschaft der A-Stabilität erfüllt. Zunächst wird im ersten Kapitel ein kurzer Überblick über die Theorie der gewöhnlichen Differentialgleichungen gegeben. Anschließend wird auf die Grundlagen der Numerik gewöhnlicher Differentialgleichungen eingegangen, verschiedene implizite Runge-Kutta-Verfahren vorgestellt und deren Stabilitätseigenschaften beschrieben. Im fünften Kapitel werden Verfahren zur numerischen Lösung von Gleichungenssystemen vorgestellt, um somit die Gleichungen, welche bei der Berechnung der impliziten Runge-Kutta-Verfahren auftreten, zu berechnen. Das nächste Kapitel beschäftigt sich mit der Konstruktion des Runge-Kutta-Verfahrens und des Algorithmus zur Lösung eines Anfangwertproblems. Ferner wurden die Stabilitätseigenschaften des Verfahrens untersucht. Hierbei hat sich herausgestellt, dass das konstruierte Verfahren A-stabil, AN-stabil, B-stabil und algebraisch stabil ist. Allerdings sind die Voraussetzungen der starken A-Stabilität und der L-Stabilität nicht erfüllt. Anschließend wurde der Algorithmus an einem einfachen Testproblem, sowie an einer Variante des Broadwell-Modells überprüft. Im letzten Kapitel wurde mit einem adaptiven Verfahren noch eine Möglichkeit angegeben, den lokalen Diskretisierungsfehler mithilfe eines Kontrollverfahrens abschätzen zu können. Die im Unterkapitel 5.3 angegebenen Eigenschaften der Funktion J stimmen mit denen des Kollisionsoperators des allgemeinen diskreten Geschwindigkeitsmodells überein, wobei dieser parallel ausgewertet wird. Aus diesem Grund eignet sich der Algorithmus zur numerischen Lösung der Standardform des diskreten, linearisierten Geschwindigkeitsmodells der Boltzmanngleichung. Aufgrund der Stabilitätseigenschaften des impliziten Runge-Kutta-Verfahrens, lässt dieses Verfahren eine größere Schrittweite zur Berechnung der Lösung zu. Dies führt letztendlich zu einer schnelleren Berechnung der Differentialgleichungen bzw. bietet es die Möglichkeit bei komplexeren Modellen überhaupt zu einer Lösung zu gelangen.



Richter, Sebastian;
Packungen von isomorphen induzierten unabhängigen Untergraphen. - 38 S. Ilmenau : Techn. Univ., Masterarbeit, 2012

Zu einem gegebenen Graphen $G$ nennt man zwei eckendisjunkte induzierte Untergraphen $H$ und $H'$ von $G$ unabhängig in $G$, wenn in $G$ keine Kante zwischen $H$ und $H'$ existiert. Mit $\alpha(G,H)$ bezeichnen wir die maximale Anzahl von eckendisjunkten Kopien von $H$, die in $G$ als induzierte und paarweise unabhängige Untergraphen enthalten sind. Damit ist $\alpha(G,K_1)$ äquivalent zur Unabhängigkeitszahl von $G$. In der Arbeit werden obere Schranken für $\alpha(G,H)$ gezeigt. Dabei wird die Ungleichung $\alpha(G,K_1)\le \frac{-\lambda_0 }{r-\lambda_0 } |V(G)|$ von A.J. Hoffman für einen $r$ - regulären Graphen $G$ mit kleinstem Eigenwert $\lambda_0$ verallgemeinert. Für einen beliebigen Graphen $G$ mit größtem Eigenwert $\ambda^0$ und Minimalgrad $\delta$ hat W.H. Haemers die Ungleichung von Hoffman erweitert zu $\alpha(G,K_1)\le \frac{-\lambda_0\lambda^0}{\delta^2-\lambda_0\lambda^0} |V(G)|$. Unsere Resultate sind nicht mit dem Ergebnis von W.H. Haemers vergleichbar.



Schneider, Daniel;
Konfidenzintervalle für Value-at-Risk und Average Value-at-Risk. - 33 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

In dieser Arbeit werden Konfidenzintervalle für die Risikomaße Value-at-Risk und Average Value-at-Risk abgeleitet. Dies geschieht jeweils unter Benutzung der empirischen Verteilungsfunktion und unter Verwendung von Kerndichteschätzern. Abschließend werden die theoretischen Ergebnisse in einer Computersimulation umgesetzt.



Dumke, Mandy;
Unabhängigkeit und Potentiale in ungerichteten Graphen. - 45 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

Abschlussarbeit zur Approximation der Unabhängigkeitszahl mit Hilfe von Potentialen, eine Verbesserung der Caro-Wei-Schranke, unterstützt durch das Programm "Graphen"



Krannich, Cornelia;
Selbstadjungierte Operatoren und Skalen von Hilberträumen. - 51 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

Betrachtet man einen Hilbertraum $H$ und einen Operator $A:D(A)\to H$, so lässt sich mit Hilfe der Norm $\|x\|_{1/2}:=\|(I+A^{1/2})x\|, x\in D(A^{1/2})$ der Raum H_{1/2}:=(D(A^{1/2},\|.\|_{1/2)$ erklären. Dieses Verfahren lässt sich auf Operatoren verallgemeinern, für die nicht unbedingt eine Wurzel definiert ist. Dazu verwendet man die Tatsache, dass für dicht definierte, abgeschlossene Operatoren $A$ die Operatoren $I+AA^*$ und $I+A^*A$ selbstadjungiert sind. Die Potenzen dieser Operatoren und die zugehörigen Definitionsbereiche werden benutzt, um eine Skala von Hilberträumen einzuführen.



Sumi, Susanne;
Ermittlung von Verfahren zur Gewichtskraftschätzung mit dem BioRob-Arm. - 43 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

Der BioRob ist ein Roboterarm der Firma Tetra. Er ist durch eine elastische und leichte Konstruktion gekennzeichnet, wodurch er besonders für sensible Assistenz- und Serviceaufgaben sowie die Kooperation mit dem Menschen geeignet ist. Für den Einsatz am Fließband um Gegenstände nach ihrem Gewicht zu sortieren oder wenn er als Assistenzroboter eingesetzt wird, um Menschen zur Hand zu gehen, ist es wichtig, dass der BioRob das Gewicht von gegriffenen Objekten bestimmen kann. In der Bachelor-Arbeit wird ein numerisches Verfahren für den BioRob zur Bestimmung des Gewichtes von gegriffenen Objekten entwickelt, programmtechnisch umgesetzt und getestet. Dabei wird der Roboter als Blackbox betrachtet und nur die vorhandenen Messwerte werden untersucht und bezüglich ihrer Masseabhängigkeit ausgewertet. Die Gewichtsbestimmung sollte so genau wie möglich erfolgen. Als Orientierung dient die Genauigkeit, mit der der Mensch Gewichte schätzen kann. Durch die elastische Struktur des Roboters wird es bei der Krafteinprägung zu einer Schwingungsanregung kommen. Aus praktischer Sicht ergibt sich die Forderung nach einer möglichst schnellen Ermittlung des Gewichts.



Schmitz, Philipp;
Zur Selbstadjungiertheit regulärer Sturm-Liouville-Differentialoperatoren. - 45 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2012

In vielen Bereichen der mathematischen Physik treten Sturm-Liouville-Differentialausdrücke im Zusammenhang mit Eigenwertproblemen auf. In dieser Arbeit werden daher, neben der Lösungstheorie solcher Differentialgleichungen, selbstadjungierte Realisierungen von Sturm-Liouville-Differentialausdrücken in geeigneten Hilberträumen sowie die Spektraleigenschaften dieser Realisierungen untersucht. Dabei beschränken sich die Betrachtungen im Wesentlichen auf den regulären Fall. Am Ende dieser Arbeit findet sich eine vollständige Beschreibung aller selbstadjungierten Realisierungen regulärer Sturm-Liouville-Differentialausdrücke.



Goertz, Mathias;
Freundliche Eckenzerlegung von Graphen. - 42 S. Ilmenau : Techn. Univ., Diplomarbeit, 2012

In meiner Diplomarbeit behandelten wir Probleme folgender Art. Eine Gruppe von n Reisenden muss in zwei Teilgruppen aufgeteilt werden, wobei jeder Reisende möchte, dass sich wenigstens so viele Freunde von ihm in seiner Teilgruppe befinden wie in der anderen und er somit keinen Grund hat die Teilgruppe zu wechseln. Dieses Problem lässt sich als Zerlegungsproblem für Graphen formulieren und ist in der Literatur unter dem Namen SATISFACTORY PARTITION bekannt. Wir untersuchten die Frage, ob es zu einem gegebenen Graphen G und zwei Funktionen a, b: V(G) &flech; N eine Zerlegung (A, B) der Eckenmenge von G gibt mit d_G[A] (x)≥a(x) für alle Ecken x A und d_G[B] (x)≥b(x) für alle Ecken x B. Eine solche Zerlegung (A, B) von V(G) heißt (a, b)- Zerlegung von G. Wir haben gezeigt, dass man unter bestimmten Gradbedingungen solche (a, b)- Zerlegungen findet. Eine (a, b)- Zerlegung von G mit a(x)=b(x)= (d_G (x)) 2 für alle x V(G) wird freundliche Zerlegung genannt. Aus unseren Untersuchungen folgt, dass jeder Graph mit Taillenweite mindestens 5 und Minimalgrad mindestens 3 eine freundliche Zerlegung besitzt. Im letzten Abschnitt der Arbeit betrachteten wir Zerlegungen unter bestimmten Färbungsbedingungen. Insbesondere beschäftigten wir uns mit einer bekannten Vermutung von Erd&dblac;os und Lovász aus dem Jahr 1968, welche bis heute ungelöst ist. Seien s, t ≥ 2 natürliche Zahlen und sei G ein Graph mit (G)<(G)=s+t-1, wobei (G) die Cliquenzahl von G ist und (G) die chromatische Zahl von G ist. Dann besitzt G zwei eckendisjunkte Teilgraphen G1 und G2 mit (G_1)≥s und (G_2)≥t.



Boßecker, Anett;
Über die Güte der Potentialschranke für die Unabhängigkeitszahl in k-degenerierten Graphen. - 47 S. Ilmenau : Techn. Univ., Masterarbeit, 2012

Die Caro-Wei-Schranke d(G) ist eine berühmte untere Schranke für die Unabhängigkeitszahl alpha(G) in einem Graphen. In einer Arbeit von Borowiecki und anderen wurden Parameter gleicher Art untersucht, die ebenso von einem Eckenpotential abhängen. Dabei wird eine Klasse von Potentialen definiert, die zu einer Verbesserung der Caro-Wei-Schranke führt. Die Aufgabenstellung war nun, die Güte dieser neuen Schranke p(G) für Bäume zu untersuchen: Gibt es für Bäume eine Konstante C > 0, sodass der Quotient p(G) / d(G) durch C beschränkt bleibt? Für k-degenerierte Graphen konnte in einem einfachen Beweis C(k) = (2k + 1) / 2 gezeigt und dies in einem aufwändigeren Beweis zu C(k) = (k^2 + 5k + 6) / (4k + 6) verbessert werden. Darüber hinaus wurde ein bestmögliches Resultat für Bäume, 1-degenerierte Graphen, bewiesen.



Tischer, Mario;
Struktur und Eigenschaften 5-chordaler Graphen. - 22 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

Bei den 5-chordalen Graphen handelt es sich um die Graphen, in denen jeder induzierte Kreis die Länge 5 hat. In dieser Bachelorarbeit wurden einige Eigenschaften solcher Graphen bewiesen, sowie zwei äquivalente Klassen zu den 5-chordalen Graphen gefungen.



Peter, Lucie;
Flow-Shop Probleme : Theorie, Heuristiken und ein Anwenderbeispiel. - 53 S. Ilmenau : Techn. Univ., Diplomarbeit, 2011

Maschinenbelegungsplanung oder Scheduling optimiert Bearbeitungspläne von n Jobs auf m vielen Maschinen. Hierbei sind Ein-Maschinen-Modelle und spezielle m=3 Open-Shop, Flow-Shop und Job-Shop-Probleme relativ einfach realisierbar. In meiner Diplomarbeit werden geeignete Lösungsverfahren zu diesen Schedulingproblemen vorgestellt. Insbesondere wird auf Flow-Shop-Probleme eingegangen und moderne Verfahren und Heuristiken zur Minimierung der Gesamtbearbeitungsdauer besprochen. Anschließend wird das spezielle Anwenderproblem F3|p2j Eta [0;∞)|Cmax vorgestellt, welches z.B. im Bereich der Lackierung und Montage Verwendung findet. Es wird ein erster Algorithmus erarbeitet, der eine näherungsweise optimale Bearbeitungsreihenfolge der n Jobs erstellt. Im nächsten Schritt wird dieser verbessert, indem ein Ergänzungverfahren erarbeitet wird, welches Leerzeiten auf Maschine 3 reduziert und somit die Gesamtbearbeitungsdauer verkürzt. Schließlich wird ein Satz formuliert, mit dessen Hilfe eine rasche Aussage getroffen werden kann, ob eine ermittelte Jobreihenfolge bereits näherungsweise optimal ist.



Kaufmann, Julia;
Ausgewähte Themen der Online-Optimierung. - 53 S. Ilmenau : Techn. Univ., Masterarbeit, 2011

In der Arbeit beschäftige ich mich hauptsächlich mit Online-Optimierungsproblemen und der Kompativitätsanalyse der zugehörigen Online-Algorithmen. Im Speziellen habe ich die k-Server Probleme und die SDDP-Probleme bearbeitet und u.a. diese miteinander verglichen.



Boldt, Sebastian;
Schätzung des Value-at-Risk mit Hilfe elliptischer Copulas. - 121 S. Ilmenau : Techn. Univ., Diplomarbeit, 2011

Die Finanzmärkte haben sich in jüngster Zeit rasant entwickelt. Ein wichtiger Aspekt beim Halten eines Portfolios besteht deshalb darin, Abhängigkeiten und Risiken adäquat zu modellieren. Die seit Jahrzehnten benutzte Normalverteilungsannahme mit dem Korrelationskoeffizienten nach Bravais-Pearson erweist sich durch immer neue statistische Untersuchungen als dafür ungeeignet. Für ein Portfolio werden gemeinsame extreme Ereignisse durch die mehrdimensionale Normalverteilung nur unzureichend erfasst. Ein Standardmaß zur Bestimmung des Marktrisikos ist der Value-at-Risk. Dabei wird eine Wahrscheinlichkeit vorgegeben und der Wert des Value-at-Risk bestimmt. Beim Value-at-Risk handelt es sich einfach um ein Quantil der vorgegebenen Wahrscheinlichkeit der Verteilung einer risikobehafteten Anlage. Für die Modellierung des Value-at-Risk werden elliptische Copulas verwendet. Copulafunktionen stellen ein allgemeines Konzept zur Modellierung von Abhängigkeiten dar. Die Copula soll die eindimensionalen Randverteilungen zu einer gemeinsamen, mehrdimensionalen Verteilungsfunktion koppeln. Dabei trägt die Copula die ganze Abhängigkeitsstruktur in sich. Für stetige mehrdimensionale Verteilungen können durch die Copula die eindimensionalen Randverteilungen und die mehrdimensionale Abhängigkeitsstruktur separiert werden. Das Hauptaugenmerk wird auf der Gauß- und der t-Copula liegen. Für diese beiden Copulas wird die praktische Anwendung auf reale Finanzmarktdaten im Rahmen der Risikomessung mit dem Value-at-Risk gezeigt. Dabei werden nicht nur die Copulas, sondern auch die Randverteilungen der einzelnen Vermögenswerte eine Rolle spielen. Es wird ein parametrischer Ansatz verwendet. Dazu werden Verfahren vorgestellt, mit denen die Parameter der benutzen Copulas und Randverteilungen geschätzt werden können. Für die Schätzungen wird das Statistikprogramm R verwendet. Es werden Befehle und Programmcodes vorgestellt um die vollständige Anwendung in R darzustellen. Die zur Schätzung des Value-at-Risk benötigten Zufallsrenditen werden mit Hilfe der durch die Copula vorgegebenen Abhängigkeitsstruktur mit Berücksichtigung der Randverteilungen erzeugt.



Zeuner, Stefan;
Mechanismendesign am Beispiel der Berechnung von Ersatzzahlungen bei ungewissen Schäden. - 25 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

Diese Bachelorarbeit beschäftigt sich mit kollektiven Entscheidungsproblemen und deren Lösung über sogenannte anreizeffiziente Wahlmechanismen. Hierzu wird ein von Roger B. Myerson vorgestelltes Verfahren näher erläutert und anschließend ein von ihm gewähltes Beispiel überprüft und erweitert. Des Weiteren wird in Abschnitt 3 das dem Traveler's Dilemma zugrunde liegende Entscheidungsproblem betrachtet und umgeformt zur Berechnung von Ersatzzahlungen.



Pflugradt, Steffi;
Obere Schranken für die Summe der p-ten Potenzen der Knotengrade dreikreisfreier, schlichter Graphen. - 40 S. Ilmenau : Techn. Univ., Masterarbeit, 2011

Um obere Schranken für die Summe der p-ten Potenzen der Knotengrade zu finden werden in der Arbeit, neben der Dreikreisfreiheit, weitere Voraussetzungen an die Graphen gestellt. Dadurch konnten obere Schranken für die Summe der p-ten Potenzen der Knotengrade für dreikreisfreie Graphen mit bekannter chromatischer Zahl, dreikreisfreie Graphen mit bekanntem Minimal- und Maximalgrad und dreikreisfreie Graphen mit verschiedenen Planaritätseigenschaften gewonnen werden. Im Zusammenhang mit der Suche nach oberen Schranken für die Summe der p-ten Potenzen der Knotengrade für Graphen mit verschiedenen Planaritätseigenschaften wurde für 1-planare, dreikreisfreie Graphen eine neue obere Schranke für die Kantenanzahl bewiesen. Der letzte Teil der Arbeit zeigt lediglich eine Anwendungsmöglichkeit für die oberen Schranken der Summe der p-ten Potenzen der Knotengrade auf. Indem die Jensensche Ungleichung auf die Ungleichung von Caro und Wei angewendet wird, können wir mit Hilfe der gewonnenen oberen Schranken für die Summe der p-ten Potenzen der Knotengrade untere Schranken für die Unabhängigkeitszahl gewinnen.



Kreibich, Maria;
Construction of codimension one relative homoclinic cycles. - 57 S. Ilmenau : Techn. Univ., Masterarbeit, 2011

Zeitlich veränderliche Prozesse aus der Physik, der Chemie oder der Biologie werden mathematisch häufig durch (gewöhnliche) Differentialgleichungen beschrieben. Von wachsendem Interesse ist dabei das Studium heterokliner und homokliner Zykel, da diese als "Quelle" für nichttriviale Dynamik erkannt wurden. Diese Arbeit befasst sich damit, Beispiele für homokline Zykel zu konstruieren. Ein Orbit der eine Gleichgewichtslage mit sich selbst verbindet, heißt homokliner Orbit. Ein homokliner Zykel besteht aus mehreren homoklinen Orbits an die selbe Gleichgewichtslage. Speziell werden relative homokline Zykel der Kodimension-1 betrachtet, also homokline Zykel, die in einparametrigen Familien von Vektorfeldern auftauchen, die eine diskrete Symmetrie aufweisen. Die konstruierten Vektorfelder sind äquivariant bezüglich der Diedergruppe D_m, der Symmetriegruppe des regulären m-Ecks in der Ebene. Die homoklinen Orbits laufen tangential zu den führenden Richtungen einer hyperbolischen Gleichgewichtslage ein, wobei die führenden Eigenwerte reell sind. Desweiteren finden sich in dieser Arbeit auch Beispiele für robuste homokline Orbits.



Gernandt, Hannes;
Ein Zusammenhang zwischen Dominanz, Maximalgrad und Packungen. - 31 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2011

Henning, Löwenstein und Rautenbach zeigten, dass zwischen der Dominanzzahl $\gamma(G)$, der Packungszahl $\rho(G)$ und dem Maximalgrad $\Delta(G)$ eines Graphen $G$ die Beziehung $\gamma(G)\leq \Delta(G)\rho(G)$ besteht. Für $\Delta(G)\leq3$ können sie diese Ungleichung zu $\gamma(G)\leq 2\rho(G)$ verschärfen, sofern $G$ keinen $K_{1,3}$ als induzierten Teilgraphen hat. Wir zeigen, dass auch Graphen G mit $\Delta(G)\leq3$ und $\gamma(G)\in[\frac{n(G)}{4}, \frac{2}{7}n(G)]\cup[\frac{4}{9}n(G), \frac{n(G)}{2}]$ diese Verschärfung erfüllen. Ferner beweisen wir für $\Delta(G)=\Delta\in\N$, dass $\gamma(G)\leq f(\Delta)\rho(G)$ für Graphen $G$ mit $\gamma(G)\in [\frac{n(G)}{\Delta+1}, \frac{f(\Delta)}{f(\Delta)\Delta+1}n(G)]$ und einer Funktion $f:\N\rightarrow\N$, die $f(\Delta)<\Delta$ für alle $\Delta\in\N$ erfüllt, gilt.



May, Verena;
Die Hadwiger Vermutung. - 104 S. Ilmenau : Techn. Univ., Diplomarbeit, 2011

Hadwiger stellte 1943 eine Vermutung über die Beziehung zwischen der chromatischen Zahl und der Existenz von vollständigen Minoren in Graphen auf: Ein zusammenhängender Graph mit chromatischer Zahl k lässt sich auf einen vollständigen Graphen K_k kontrahieren. Für k kleiner als 7 ist die Vermutung bewiesen, für alle anderen Fälle ist sie noch offen. Die Vermutung ist im Rahmen von Beweisversuchen zum Vierfarbenproblem entstanden. Diese Diplomarbeit liefert einen Überblick über die bisher erzielten Teilergebnisse und Beweisversuche zur Hadwiger Vermutung.



Lorbeer, Sascha;
Ein Lösungsverfahren für Stochastic Dynamic Distance Optimal Partitioning (SDDP) : Probleme mit MATLAB. - 107 S. Ilmenau : Techn. Univ., Masterarbeit, 2011

Das Ziel dieser Masterarbeit besteht darin, eine Software zu entwickeln, welche in der Lage ist Stochastic Dynamic Distance Optimal Partitioning (SDDP) Probleme zu lösen. Zu diesem Zweck werden nach einer kurzen Vorstellung des zugrundeliegenden markovschen Entscheidungsmodelles die benötigten Parameter für ein SDDP-Modell nach HILDENBRANDT (2010) eingeführt. Zum Auffinden einer optimalen Strategie wird das Strategieiterationsverfahren von Howard benutzt und dessen wesentliche Schritte vorgestellt. Nach einigen kurzen Erklärungen zur Implementation wird die Software an einigen Beispielen untersucht. Dafür werden mit leichten Modifikationen der vorliegenden Software Untersuchungen zur Struktur der verwendeten Beispiele vorgenommen. Desweiteren wird die Größenordnung der vorgestellten Beispiele deutlich. Die Leistungsfähigkeit der Software, welche mit MATLAB entwickelt wurde, ist in Anbetracht der Komplexität der verwendeten Beispiele beachtlich, so dass sich die Software für weitergehende Forschung als wertvolles Hilfsmittel darstellt. In diesem Sinne wird abschließend eine Vermutung aus HILDENBRANDT (2010) zu spezielleren SDDP-Modellen mit einheitlichen Basiskosten und unabhängig, gleichverteilten Bedarfskomponenten widerlegt. Dazu wird ein kleines Gegenbeispiel genauer untersucht und eine Vielzahl weiterer Beispiel-Daten angegeben.



Körner, Ina;
Orthogonalreihenschätzer. - 74 S. Ilmenau : Techn. Univ., Diplomarbeit, 2011

Orthogonalreihenschätzer werden verwendet um verauschte Funktionen (Regressionsmodell) oder Wahrscheinlichkeitsdichte von einen gegebenen Satz an Zufallszahlen auf eine nichtparametrische Art zu schätzen. Deren Erwartungstreue und Konsistenz wird gezeigt. Die optimale Anzahl an Orthogonalfunktionen, der sogenannte Glättungsparameter, hängt von der Funktion oder Dichte ab, welche geschätzt werden soll. Dieser Parameter kann durch Verwendung von Kriterien bestimmt werden, welche ebenfalls in dieser Arbeit behandelt werden. Beispiele demonstrieren Schätzungen mit verschiedenen Basen, Glättungsparamtern, sowie Kriterien. Das verwendete Code-Paket wurde für MATLAB geschrieben und ist dieser Arbeit angehangen. Es enthält Schätzer, Kriterien und Orthonormalsysteme, welche alle in dieser Arbeit vorgestellt wurden. Weiterhin wird die Verwandtschaft zwischen Orthogonalreihenschätzern und Kernschätzern gezeigt.



Werner, Jürgen;
Optimization of imaging optical systems. - 48 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

In the design of optical systems, after creating a starting system, choosing the values of the remaining free parameters in order to maximize image quality is a problem of mathematical optimization. The (objective) function used to assess image quality typically requires ray tracing. We implement a ray tracing procedure for conventional optical systems that allows extension with free-form surfaces and show it to work correctly and sufficiently fast. We compare the performance of optimization algorithms from a freely available package to a commercial optical design software. Optimization algorithms often require derivatives of the objective function and numerical differentiation is commonly used to obtain these derivatives. We implement automatic differentiation and provide evidence that it is preferable to numerical differentiation also in the optimization of optical systems.



Diegnitz, Sandro;
Hamiltonkreiserzwingende Mengen in planaren Graphen. - 29 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

In der Arbeit wird erklärt was man unter einer Hamiltonkreiserzwingenden Menge und der Hamiltonkreiserzwingenden Zahl versteht. Es werden einige Sätze angegeben, welche klären wie man Hamiltonkreiserzwingende Mengen in Graphen findet und die Hamiltonkreiserzwingende Zahl eines Graphen bestimmt. Desweiteren werden Beweise geführt welche die Hamiltonkreiserzwingenden Zahl in Polyedergraphen, Triangulationen und bestimmten Ringgraphen bestimmen.



Beck, Matthias;
Konfidenzmengen für Shortfall Constraints. - 33 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

Die Behandlung des Themas "Konfidenzmengen für Shortfall Constraints" stellt eine Verbindung zwischen der stochastischen Optimierung und deren wirtschaftlicher Anwendung dar. Dazu betrachte ich eine in der Portolio-Optimierung auftretende Nebenbedingung zur Risikoregulierung, die Shortfall Constraint genannt wird. Im ersten Teil meiner Arbeit beschreibe ich ein Vorgehen zur Herleitung von Konfidenzmengen für allgemeine Restriktionsmengen. Im zweiten Teil gehe ich näher auf die Shortfall-Restriktionsmenge ein und wende die Theorie an, um zu einem vorgegebenen Stichprobenumfang eine Konfidenzmenge zu bestimmen.



Richter, Sebastian;
Einfluß der Anzahl großer vollständiger Teilgraphen auf die Unabhängigkeitszahl von Graphen . - 34 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

Thomas Hofmeister und Hanno Lefmann haben gezeigt, dass für einen Graphen G ein Algorithmus existiert, der eine unabhängige Menge findet, die mindestens die Mächtigkeit c(n/d)ln(\beta*d) hat. Dabei ist \beta=min{1,\sqrt(n/s)}, c eine positive Konstante und s die Anzahl der Dreiecke, die G enthält. Dieser Algorithmus wird aufgegriffen und auf Graphen, welche vollständige Teilgraphen der Ordnung k, k>=3, enthalten, erweitert. Im zweiten Teil beschäftigen wir uns mit der Arbeit "On the Independence number of sparse graphs" von James B. Shearer und arbeiten diese Stück für Stück durch.



Kulse, Katja;
Lokale optimale Färbungen. - 20 S. Ilmenau : Techn. Univ., Bachlor-Arbeit, 2011

Sucht man zu einer Färbung eines Graphen eine alternative Färbung die weniger Farben verwendet, so steht man oft vor algorithmisch schwierigen Problemen. Vorallem über die Menge der umzufärbenden Ecken hat man keine Kontrolle. Um dies zu umgehen, besteht die Möglichkeit sich auf alternative Färbungen einzuschränken, die durch Anwendung lokaler Operationen hervorgehen. Diese Arbeit beschäftigt sich mit solchen Operationen und ihren Färbungsparametern.



Brechtken, Stefan;
Modellierung der Boltzmanngleichung auf diskreten Geschwindigkeitsgittern, numerische Umsetzung und Parallelisierung mithilfe von CUDA. - 116 S. Ilmenau : Techn. Univ., Masterarbeit, 2010

Im ersten Teil dieser Arbeit wurden die wichtigsten Eigenschaften der Boltzmanngleichung zusammengetragen. Daraufhin wurde die Boltzmanngleichung auf einem diskreten Geschwindigkeitsgitter modelliert und gezeigt, dass die modellierte Gleichung die gleichen Eigenschaften besitzt wie die originale Gleichung. In der zweiten Hälfte entwickelten wir einfache Algorithmen um die modellierte (diskrete) Boltzmanngleichung numerisch zu lösen. Diese Algorithmen wurden in C++ zur Berechnung auf einem CPU und parallelisiert in CUDA zur Berechnung auf einem GPU umgesetzt. Abschließend wurden einige Modellprobleme numerisch mithilfe der beiden Implementierungen gelöst und überprüft, ob eine parallelisierte Implementierung dieses Problems auf einem GPU sinnvoll ist.



Sasse, Thomas;
Cycle lengths in cubic Hamiltonian graphs. - 39 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2010

We prove that the number of cycles of die rent length is at least linear in n, for S_ {1, a, b}-free, cubic Hamiltonian graphs of order n. Furthermore we prove linear, lower bounds for K_ {1, 3}, S_ {1, 1, 2}, or S_ {1, 2, 2}-free, cubic Hamiltonian graphs, that are best possible. These results corm a conjecture by Rautenbach in some special cases.



Hahnemann, Susanne;
Die minimale Kantenbelastung in Raupen. - 35 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2010

Diese Arbeit beschäftigt sich mit der minimalen Kantenbelastung in Raupen gleicher Ordnung. Dabei wird versucht die maximale Kantenbelastung von einer Raupe G in einer Raupe T zu minimieren, indem beide nach dem gleichen Schema nummeriert werden und anschließend die Knoten mit gleicher Nummer bijektiv aufeinander abgebildet werden. Zum Vergleich werden auch noch zwei weitere Schemata getestet und es werden Aussagen über diese getroffen. Außerdem werden Gesetzmäßigkeiten für Spezialfälle der Raupe gezeigt. Schließlich werden noch obere Schranken für die Kantenbelastung vorgestellt.



Aschenbach, Daniel;
Zur Unabhängigkeitszahl in Graphen. - 37 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2010

Die Unabhängigkeitszahl eines Graphen zu berechnen ist, wie sich im Laufe der Zeit herausgestellt hat, eine äußerst schwierige Aufgabe. Gerade deshalb sind möglichst genaue Abschätzungen jener von großem Interesse. In dieser Arbeit wird zum einen untersucht, wie sich die Unabhängigkeitszahl in einem n-eckigen Graphen, in welchen der Maximalgrad auf drei beschränkt ist, durch sum(f(di , ti), i=1..n) abschätzen lässt, wobei di die Gradzahl und ti die Dreieckszahl der jeweiligen Ecke i wiederspiegeln. Dabei ist die Funktion f rekursiv durch f(0,0) = 1 sowie f(d,t) = 1/(d+1) für t >=binomial(d,2) und f(d,t) = (1+(d^2-d-2t)f(d-1,t))/(d^2+1-2t) für t <binomial(d,2) gegeben. Zum anderen wird untersucht, welche Probleme auftreten, wenn anstelle des Maximalgrades die Dreieckszahl, eines jeden Eckpunktes in G, auf zwei beschränkt wird. Es wird ausführlich auf die dabei aufgetretenen Schwierigkeiten eingegangen.



Heinemann, Katrin;
Vergleich von Algorithmen zum Auffinden großer unabhängiger Mengen in Graphen. - 39 S. Ilmenau : Techn. Univ., Diplomarbeit, 2010

Das Finden unabhängiger Mengen in Graphen lässt sich mit Hilfe verschiedener Algorithmen realisieren. Die Arbeit beschäftigt sich mit einer speziellen Gruppe der Algorithmen. Bei diesen wird sukzessiv, mit einer bestimmten Auswahlregel, ein Punkt ausgewählt und dessen komplette abgeschlossene Nachbarschaft gelöscht. Jene Punkte bilden am Ende eine unabhängige Menge.Die Auswahlregeln setzen sich aus einer Kombination dreier Grundbedingungen zusammen: Erstens die Minimalvalenz. Die zweite Bedingung ist, dass die Anzahl der Kanten, die gelöscht werden, maximal ist. Die dritte Bedingung bewirkt, dass nach dem Löschen der abgeschlossenen Nachbarschaft ein Graph entsteht, der einen Punkt hat, dessen Valenz möglichst gering ist. Dass heißt, es wird der Punkt gesucht, bei dem die Minimalvalenz im Folgegraphen minimal ist. Zum Vergleich dient ein C++ Programm, dass die verschiedenen Ergebnisse ausgibt. Am Ende zeigt sich, dass Auswahlregeln, die mit der ersten Bedingung beginnen, die besten Ergebnisse liefern.



Krauße, Claudia;
Dichtefunktionsbestimmung zur Korngrößenverteilung im Zement. - 86 S. Ilmenau : Techn. Univ., Diplomarbeit, 2010

Diese Arbeit dient der Unterstützung des DFG-geförderten Forschungsprojekts "Dynamische Korngrößenmessungen zur Verfolgung des Hydratationsverlaufs von Zementen im frühen Stadium". Schwerpunkt der Arbeit ist die Ermittlung einer Dichtefunktion, welche die gegebenen Messdaten hinreichend genau wiedergibt. Hierbei werden bereits bekannte Methoden aus der Verfahrenstechnik (Potenzverteilung, RRSB-Verteilung und Logarithmische Normalverteilung) untersucht und auch andere bisher nicht getestete Verteilungen (Weibullverteilung, gestutzte Verteilung, Mischverteilung) auf ihre Eignung geprüft. Für den Zeitpunkt t=0 Minuten ergibt sich keine zufriedenstellende Approximation der Messwerte. Für Zeiten größer t=0 Minuten können jedoch die Messwerte mittels einer vierkomponentigen Mischverteilung aus logarithmischen Normalverteilungen hinreichend genau angenähert werden.



Bechmann, Marcel;
Kantenfärbungen Gewichteter Multigraphen. - 51 S. Ilmenau : Techn. Univ., Diplomarbeit, 2010

Kantenfärbungen ungerichteter Graphen sind ein vielbehandeltes Problem der Graphentheorie. Die vorliegende Arbeit verallgemeinert diese Problemstellung auf fraktionelle f Kantenfärbungen. Der f chromatische Index eines Graphen wird dabei als binäres lineares Optimierungsproblem angesehen welches reell relaxiert wird. Daraus ergeben sich in natürlicher Weise Begriffe und Sätze, die ähnlich sind zu denen der klassischen Kantenfärbungen. Einige zentrale Resultate werden auf gebrochene Kantenfärbungen übertragen und der gebrochene f chromatische Index als effizient realisierbare Schranke in Verbindung mit dem f chromatischen Index gebracht.



Vielitz, Martin;
Nonreversible homoclinic snaking in R 3. - 77 S. Ilmenau : Techn. Univ., Diplomarbeit, 2010

Im Kontext gewöhnlicher Differentialgleichungen bezeichnet "Homoclinic Snaking" ein bestimmtes Fortsetzungsszenario homokliner Orbits in einer Umgebung eines heteroklinen Zykel zwischen einem Gleichgewicht und einem periodischen Orbit. Die betrachteten Differentialgleichungen beschreiben häufig Gleichgewichte partieller Differentialgleichungen und sind oftmals reversibel und Hamiltonisch - besitzen also eine spezielle aufgeprägte Struktur. - In der vorliegenden Diplomarbeit werden zweiparametrige Familien gewöhnlicher Differentialgleichungen im R 3 betrachtet, die weder reversibel noch Hamiltonisch sind. Es wird angenommen, dass ein heterokliner Zykel zwischen einem hyperbolischen Gleichgewicht E und einem hyperbolischen periodischen Orbit [gamma] existiert. Weiter werden Voraussetzungen über das Schnittverhalten der stabilen und instabilen Mannigfaltigkeit von E und [gamma] gemacht. Unter diesen Annahmen wird das Fortsetzungsverhalten von 1-homoklinen Orbits zu E (das sind Orbits, die einmal entlang des originalen Zykels laufen) analytisch untersucht. Für solche Orbits wird "Homoclinic Snaking" nachgewiesen. Dabei wird gezeigt, dass das "Snakingverhalten" durch die Bifurkationen der heteroklinen Verbindungen zwischen E und [gamma] bestimmt wird.



Kreibich, Maria;
Das Sil'nikov Problem für kontinuierliche und diskrete Systeme. - 40 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2010

Das Sil'nikov Problem (nach dem russischen Mathematiker L. P. Sil'nikov) bezeichnet ein speziell gestelltes Randwertproblem, welches ursprünglich benutzt wurde, um den Fluss eines Vektorfeldes (bzw. einer gewöhnlichen autonomen Differentialgleichung) in der Umgebung einer hyperbolischen Gleichgewichtslage zu beschreiben. Solche Betrachtungen finden u.a. Anwendung bei der Untersuchung des dynamischen Verhaltens in der Nähe von homoklinen Orbits und heteroklinen Zykeln. Ziel dieser Arbeit ist es, das Sil'nikov Problem für den kontinuierlichen Fall mit den existierenden Aussagen über Existenz und Eindeutigkeit einer Lösung, sowie deren Glattheit und asymptotisches Verhalten für t gegen unendlich vorzustellen, und in analoger Weise auf diskrete dynamische Systeme zu übertragen.



Berger, Thomas;
On stability of time-varying linear differential-algebraic equations. - 81 S. Ilmenau : Techn. Univ., Masterarbeit, 2010

Differential-algebraische Gleichungen gewinnen in vielen technischen Gebieten, wie zum Beispiel der Elektrotechnik, immer mehr an Bedeutung. Da sie aber in den meisten Fällen nicht explizit lösbar sind, oder schwer handhabbare Lösungen besitzen, und die Lösungen auch nicht eindeutig sein müssen, konzentriert man sich auf qualitative Aussagen über das Systemverhalten. Die Stabilität linearer zeitvarianter differential-algebraischer Gleichungen der Form $E(t) \dot x = A(t)x + f(t)$ wird in dieser Arbeit studiert. Eine detailierte Untersuchung solcher Systeme ohne irgendwelche Einschränkungen scheint bisher nicht verfügbar zu sein. Ein zentrales Ziel dieser Arbeit ist es eine Verbindung zwischen dem Stabilitätsverhalten der Lösungen dieses Systems und dem Stabilitätsverhalten der trivialen Lösung des zugehörigen homogenen Systems herzustellen. Weiterhin entwickeln wir, mittels einer Lyapunov-Methode, Bedingungen für eine eingeschränkte Form von exponentieller Stabilität. Des Weiteren führen wir eine detailierte Untersuchung der Lösungs- und Stabilitätstheorie von Systemen, die sich in Standard-Normalform überführen lassen durch. Dies betreffend geben wir eine Darstellung der allgemeinen Lösung an und eine Bedingung unter der diese existiert. Wir führen konsistente Anfangswerte und, für homogene Systeme, die verallgemeinerte Übergangsmatrix ein und bestimmen ihre Eigenschaften, welche als direkte Verallgemeinerungen der Eigenschaften der Übergangsmatrix einer gewöhnlichen linearen Differentialgleichung angesehen werden können. Weiterhin führen wir die projizierte verallgemeinerte zeitvariante Lyapunov-Gleichung ein und leiten unter der Benutzung dieser notwendige und hinreichende Bedingungen für exponentielle Stabilität her. In diesem Zusammenhang untersuchen wir auch die Lösbarkeit der Lyapunov-Gleichung sowie die Eindeutigkeit und Darstellung der Lösung.



Tack, Claudia;
Angewandte Credibility-Verfahren in der Versicherungswirtschaft. - 171 S. Ilmenau : Techn. Univ., Diplomarbeit, 2010

Meine Diplomarbeit ist eine Übersetztung vom Englischen ins Deutsche von vier Kapiteln der gleichnamigen Monographie von R. Kaas, D. R. Dannenburg und M. J. Goovaerts. Dabei habe ich zusätzlich Beweise im Text ausgeführt und die zu jedem Kapitel gestellten Aufgaben gelöst. In der Praxis muss oft eine Prämie für eine Gruppe von Versicherungsverträgen bestimmt werden, bei der nur eine begrenzte Erfahrung über die einzelne Gruppe von Verträgen verfügbar ist, aber dafür viel Erfahrung über andere, mehr oder weniger ähnliche, Verträge. Um daraus eine optimale Credibility-Prämie zu bekommen, betrachten wir ein gewichtetes Mittel z_jX_j+(1-z_j)X mit dem Gesamtmittelwert X aller Daten (Kollektivprämie), den Schadenmittelwerten X_j für jede Gruppe j als Individualprämien und dem Credibility-Faktor z_j , der die Glaubwürdigkeit der individuellen Erfahrung von Gruppe j beschreibt. Je nach Voraussetzungen gibt es Modelle, wie das balanzierte Bühlmann- oder Bühlmann-Straub-Modell, um den homogenen und inhomogenen Credibility-Schätzer zu bestimmen. Ebenso wird ein allgemeines Modell mit invertierter Kovarianzmatrix betrachtet, aus dem sich die speziellen Modelle herleiten lassen. Zum Schluss wird der Fall untersucht, wenn der Schätzer nicht als linear vorausgesetzt ist.



Klöppel, Michael;
Application of sparse grid integration techniques in chance-constrained optimization. - 45 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Die meisten Prozesse unterliegen in der Praxis unsicheren Einflüssen. Daher ist es wichtig diese Einflüsse zu betrachten, wenn solche Prozesse optimiert werden. "Chance-constrained optimization" ist geeignet um derartige Optimierungsprobleme zu lösen. Die Schwierigkeit der Methode liegt in der Auswertung der Wahrscheinlichkeitsrestriktionen, da dafür die Berechnung mehrdimensionaler Integrale notwendig ist. Monte-Carlo- und Full-Grid-Methoden sind wegen ihrer langen Rechenzeiten ungeeignet, vor allem wenn ein nichtlineares dynamisches Problem betrachtet wird. An Stelle solcher Methoden wurden die von Smolyak eingeführten Sparse Grid-Techniken benutzt. Auf Grundlage dieser Techniken wird ein numerisches Framework für die Lösung von "Chance constrained optimization" Problemen eingeführt. Das Framework wird an mehreren Beispielen aus der chemischen Prozesstechnik getestet. Es zeigt sich, dass die Rechenzeit für größere Probleme mit Sparse-Grid Techniken signifikant geringer sind als mit Full-Grid-Methoden.



Schäfer, Philipp Matthias;
Two topics in discrete convexity. - 25 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Abstrakte Konvexität behandelt Mengensysteme, die einige Eigenschaften mit den klassischen konvexen Mengen des $\mathbb{R}^n$ gemeinsam haben. Diskrete Strukturen, wie Graphen und partiell geordnete Mengen, induzieren konvexe Räume und verwandte mathematische Strukturen auf deren Grundmengen auf verschiedenste Art und Weise. - Der erste Teil behandelt sogenannte Strict Betweenness Relationen. Zwei Relationen dieser Art werden von Graphen und partiell geordneten Mengen induziert. Es wird gezeigt für welche Strict Betweeneess Relationen sowohl Graphen als auch partiell geordnete Mengen existieren, die diese induzieren. Das Hauptresultat gibt an, dass die Komponenten bzw. schwachen Komponenten von Graphen und partiell geordneten Mengen eines solchen induzierenden Paares eine schichtartige Struktur haben müssen. Es wird weiter gezeigt, dass unter gewissen Minimalitätsforderungen das induzierende Graph-Poset-Paar einer Strict Betweenness Relation eindeutig ist. - Ein weiteres Konzept von Konvexität, $\Delta$-Konvexität auf Kantenmengen von Graphen, wird im zweiten Teil behandelt. Im Speziellen werden Graphklassen, deren minimale $\Delta$-Hüllenmengen ihre spannenden Bäume sind, betrachtet. Zunächst werden zwei Resultate von Jamison \cite{Jamison} präsentiert. Dann werden einige weitere Beispiele solcher Klassen aufgezeigt. Zum Schluss wird gezeigt, dass alle Graphen, deren minimale $\Delta$-Hüllenmengen ihre spannenden Bäume sind, eine bestimmte Eigenschaft haben, um damit zu zeigen, dass die Vermutung Jamisons, dass alle null-homotopischen Graphen zu dieser Klasse gehören, falsch ist.



Kaufmann, Julia;
Iterationen hoher Ordnung - von Newton bis zur Gegenwart. - 50 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2009

In dieser Arbeit geht es um die näherungsweise Bestimmung von nichtlinearen skalaren Gleichungen mit festem Parameterwert a. Es wurde untersucht, ob die quadratische Konvergenz des Newtonverfahrens auf eine beliebig hohe Konvergenzordnung ausgeweitet werden kann. Dies wurde an einigen Beispielen in Maple untersucht.



Brechtken, Stefan;
Fehlerschranken bei symbolischer Approximation von DAEs. - 51 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2009

Differential - algebraische Gleichungen, kurz DAEs, treten in Naturwissenschaften in natürlicher Weise oft auf. Die Lösungen solcher DAEs sind allerdings oftmals nicht explizit angebbar, oder zu komplex um an ihnen ein Systemverhalten ablesen zu können. Aus diesem Grund werden sie zum Teil mithilfe einer Laplace-transformation gelöst, wobei eine sogenannte symbolische Approximation im Frequenzbereich durchgeführt wird. Dieses Verfahren führt im allgemeinen zu wesentlich einfacheren Systemen mit gut handhabbaren Lösungen. Den hierbei entstehenden Fehler kann man im Frequenzbereich gut abschätzen, wie sich dieser aber im Zeitbereich verhält ist weitesgehend unbekannt. Aus diesem Grund werden in dieser Arbeit untersucht, wie sich Störungen von DAEs im Frequenzbereich auf die Lösung im Zeitbereich auswirken und es werden Fehlerschranken für die Lösung im Zeitbereich entwickelt. Hierbei wird nur zugrunde gelegt, dass man weiß, wie die Störung aussah, wie die Lösung des gestörten Systems aussieht und dass das Eingangssignal aus dem Raum Lø stammt. Als Grundlage dient die Laplace-theorie, um dann mithilfe der Theorie der Lebesgue- und Hardyräume Fehlerschranken im Zeitbereich zu gewinnen. Schließlich wird anhand eines praxisnahen Beispiels demonstriert, in welchen Fällen diese Fehlerschranken nützlich sind.



Xie, Yang;
Numerische Verfolgung von Gleichgewichtslagen dynamischer Systeme - Stabilitätsanalyse und Lösungsdiagramme mit praktischen Anwendungen. - Online-Ressource (PDF-Datei: 98 S., 1,29 MB) : Ilmenau, Techn. Univ., Diplomarbeit, 2009

Durch die Einstellung der Parameter des Programms, kann man selbst wählen, wie genau und wie effektiv die Kurven bestimmt werden sollen. An verschiedenen Beispielen wurden die Einstellungsmöglichkeiten der Parameter getestet, um eine Stabilität im Programm festzulegen.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2009200161
Guo, Suqing;
Numerische Verfahren für lineare Advektionsgleichung. - 85 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Meine Diplomarbeit beschreibt die numerische Verfahren für die lineare Advektionsgleichungen. Die linearen Advektionsgleichungen sind spezielle partielle Differentialgleichungen. Mit der verschiedene numerische Verfahren kann man die Nährungswert von den liearen Advektionsgleichung bestimmen. Die verschiedene Verfahren haben verschiedene Eigenschaften, z.B Konvergent, Stabilität, CFL-Bedingung usw. Wenn ein numerische Verfahren Konsistent und Stabilität ist, ist das Verfahren Konvergent. Für mehrer Dimensionen kann man durch spezielle numerische Verfahren anwenden, z.B. Taylorreihen-Verfahren, Charaktristiken-Verfahren und Operator-Splitting-Verfahren.



Hartleb, Christopher;
Beiträge zu unteren Schranken für die Unabhängigkeitszahl eines Graphen in Termen von Knotenzahl und Kantenzahl. - 34 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Der Autor konstruiert multilineare untere Schranken für die Unabhängigkeitszahl beliebiger Graphen, deren Werte auf der Hauptdiagonale des zulässigen Bereiches monoton wachsen. - Desweiteren berechnet er durch eine Verfeinerung MIN-Algorithmus untere Schranken in dreiecksfreien Graphen.



Pflugradt, Steffi;
Obere Schranken für die Summe der Quadrate der Knotengrade eines dreikreisfreien Graphen mit chromatischer Zahl k. - 18 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2009

In dieser Arbeit betrachten wir die obere Schranke m(n-f(k-2)) für die Summe der Quadrate der Knotengrade eines dreikreisfreien k-chromatischen Graphen mit n Knotenpunkten und m Kanten. Dabei sei f(l), für ein l aus den natürlichen Zahlen, die minimale Anzahl von Knotenpunkten eines Graphen, so dass dieser l-chromatisch ist. Weiterhin ziehen wir Schlußfolgerungen aus dieser Schranke und betrachten sie für Graphen mit chlomatischer Zahl von 2 bis 7 näher.



Mann, Sebastian;
Anwendung kryptographischer Verfahren für Privacy Enhancement in multimedialen Anwendungen. - 85 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Zielsetzung der vorliegenden Arbeit ist, Sinn und Einsatzmöglichkeiten kryptographischer Verfahren für Privacy Enhancement in muldimedialen Anwendungen zu untersuchen und die Verfahren im Anwendungsbereich der Nutzerauthentifizierung weiter zu entwickeln. Zu diesem zweck wird in der Arbeit ein Protokoll entwickelt, welches eine Pseudonymisierung von Nutzern ermöglichen soll, ohne dabei Rückschlüsse auf die reale Identität des Nutzers zuzulassen. Dieses Protokoll wird mit mathematischen und kryptoanalytischen Verfahren und Methoden untersucht. Weiterhin wird eine Anwendung dieses Authentifizierungsprotokolls in Form eines speziellen Abstimmungsverfahrens beschrieben und konzeptionell umgesetzt, die zur Überprüfung der Funktionalität des Authentifizierungsprotokolls dient.



Pöppich, Emanuel;
Evolutionäre Algorithmen zur Lösung von restringierten Vektoroptimierungsproblemen. - 46 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Restringierte Vektoroptimierungsprobleme sind Probleme, die mehrere Zielfunktionen und Restriktionen besitzen. Sie treten in verschiedenen Bereichen wie z.B. das Finanz- und Ingenieurwesen auf. Um diese Art von Problemen zu lösen gibt es mehrere Verfahren, wobei in dieser Arbeit speziell die evolutionären Algorithmen untersucht wurden. Zunächst wird Theorie zu Vektoroptimierungsproblemen erläutert. Anschließend werden evolutionäre Algorithmen und deren Berücksichtigung von Restriktionen vorgestellt. Zuletzt werden Beispiele gerechnet.



Seeger, Stefan;
Statistische Analysen der Festbetoneigenschaften bei der Produktion von Betonsteinen. - 118 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2009

Die vorliegende Arbeit befasst sich mit statistischen Analysen der Festbetoneigenschaften (Feucht- und Trockenmasse, Dichte, Druckfestigkeit und Steinhöhe) von Betonsteine. Im Rahmen der Theorie des Linearen Modells der mathematischen Statistik wird ein varianzanalytisches Modell vorgeschlagen. In diesem Modell werden mögliche Mittelwerteinflüsse auf die Festbetonmerkmale, welche durch die Zeilen- und Spaltenlage der Steine innerhalb der Produktionsform sowie die Zugehörigkeit der Betonsteine zu verschiedenen Produktionszyklen verursacht werden, geprüft. Unter Berücksichtigung möglicher Wechselwirkungen werden die benötigten Nebenbedingungen mit Hilfe einer Reparametrisierungsmatrix angegeben. Es zeigt sich, dass sich die Nebenbedingungen direkt in die Normalengleichungen des Modells einbeziehen lassen. Dieses Vorgehen ermöglicht eine vereinfachte Bestimmung des MQ-Schätzers. Des Weiteren lässt sich der Stichprobenvektor orthogonal zerlegen, was den Beweis der Streuungszerlegung und der Kovariationszerlegung sowie die Angabe der relevanten Hypothesenräume mit ihren Dimensionen ermöglicht. Mit Hilfe der Streuungszerlegung werden für die Produktion relevante Streuparameter angegeben. Diese relativen Streuparameter ermöglichen eine Bewertung der Produktion hinsichtlich der Homogenität der Festbetonmerkmale. Des Weiteren eignen sich diese Parameter zur Bewertung von Änderungen im Produktionsablauf. Mit Hilfe der Kovariationszerlegung und der Streuungszerlegung wird eine additive Zerlegung des empirischen Korrelationskoeffizienten zwischen zwei Merkmalen, welche durch das gleiche varianzanalytische Modell dargestellt werden, gezeigt. Diese Zerlegung ermöglicht eine differenziertere Betrachtungsweise der Korrelationsstruktur der Festbetonmerkmale. Die Analysen univariater Daten, beginnend mit der Deskription über die Exploration bis zur Anwendung inferenzstatistischen Verfahren, können durch eine in R entwickelte Funktion (univariat) durchgeführt werden. Die Lage der Steine innerhalb der Produktionsform und innerhalb eines Produktionszyklus übt einen signifikanten Mittelwerteinfluss auf die Festbetonmerkmale der Steine aus. Des Weiteren führen diese Einflüsse dazu, dass der empirische Korrelationskoeffizient zwischen zwei Merkmalen als Schätzung für die tatsächliche Korrelation nicht geeignet ist.



Freytag, Sebastian;
Eine Einführung in Copulas. - 336 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Übersetzung der gleichnamigen Monographie von R. B. Nelsen, Ausarbeitung angedeuteter Beweise und Lösung ausgewählter Aufgaben.



Wang, Jingjing;
Optimale Raten bei Modalwertschätzung von nichtparametrischen Regressionsmodellen im glatten Fall des Fixed Design Modells. - 55 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

In dieser Arbeit wird die Schätzung des Modalwertes einer nichtparametrischen Regression behandelt. Der Modalwert wird im Vergleich zu dem arithmetischen Mittel oder dem Median von fehlerhaften Daten nicht so stark verzerrt. Weiterhin wird gezeigt, unter welchen Voraussetzungen die normalerweise verwendeten Kernschätzer wie der Gasser-Müller-, Nadaraya-Watson und der Priestley-Chao-Kernschätzer die gefundenen Raten erzielen können.



Hartwig, Andreas;
Numerische Approximation und Visualisierung periodischer und quasiperiodischer Lösungen dynamischer Systeme mittels Fouriermethoden. - 106 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Diese Diplomarbeit beschäftigt sich mit der Approximation von periodischen und quasiperiodischen Lösungen dynamischer Systeme. Dazu wird die sogenannte Spektralmethode verwendet. Im Falle von periodisch und quasiperodische erregten Systemen wird ein Stabilitätskriterium hergeleitet. Desweiteren wird in einem kleinen Tutorial erklärt, wie man in MATLAB mit Hilfe des Werkzeugs GUIDE grafische Benutzeroberflächen (kurz GUI) entwickeln kann.



Engert, Sonja;
Vergleich numerischer Verfahren zur Berechnung des LCE-Spektrums parameterabhängiger zeitkontinuierlicher dynamischer Systeme. - 82 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Dynamische Systeme sind ein wesentlicher Bestandteil zur Beschreibung zeitabhängiger Prozesse. Da allerdings die quantitative Analyse dynamischer Systeme eien sehr komplexe Problematik ist, wurden, um diesen Sachverhalt zu vereinfachen, gewisse gemittelte größen, die sogenannten Lyapunov-Exponenten eingeführt. Diese sind ein maß dafür, wie stark sich zwei benachbarte Trajektorien im Verlauf des dynamischen Systems einander annähern oder voneinander entfernen. Die Menge aller Lyapunov-Exponenten eines Systems nennt man das LCE-Spektrum. Es dient der Klassifikation der verschiedenen Attraktortypen und des Chaos. Im Rahmen dieser Arbeit wurden drei numerische Verfahren zur Bestimmung des LCE-Spektrums aufbereitet, praktisch in Matlab umgesetzt und miteinander verglichen. Die in dieser Arbeit vorgestellten Berechnungsverfahren basieren auf der Gram-Schmidt-Orthogonalisierung, der Singulärwertzerlegung und der QR-Zerlegung. Für diese Verfahren werden Möglichkeiten zur Bestimmung einer geeigneten Anzahl an Iterationsschritten und einer günstigen Integrationsschrittweite vorgestellt, die auch als Ansatzpunkt für die Vergleiche verwendet werden.



Schönemann, Andy;
Quadratur und Kubatur: Formeln, Adaptivität, Genauigkeit und Implementationen. - 113 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Die Diplomarbeit untersucht verschiedene Aspekte der numerischen Integration. Mögen diese auf den ersten Blick nicht unbedingt direkt miteinander verknüpft sein, so erkennt man jedoch bei genauem Hinsehen, dass sie durchaus kapitelübergreifend sind. - Gleichzeitig sind die untersuchten Fragestellungen und die dabei gewonnenen Erkenntnisse schöne und sinnvolle Bausteine auf dem Gebiet der numerischen Integration. Dabei wurde Wert darauf gelegt, dass einige Sachverhalte ausführlich erläutert und begründet werden (z.B. Clenshaw-Curtis-Quadratur oder Gauss-Legendre-Quadratur). In den dazu erstellten Programmen in Maple und Matlab werden sowohl bekannte Formeln, als auch die in den einzelnen Abschnitten dargestellten Beziehungen implementiert. Die numerischen und grafischen Auswertungen illustrieren anschaulich und übergreifend die erzielten Ergebnisse. - Der Diplomarbeit füge ich eine CD bei, auf der alle Maple- und Matlab-Arbetisblätter zu finden sind.



Koch, Heike;
Inflationsprozesse in festen Röhren als Optimalsteuerproblem. - 57 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

In dieser Arbeit wird ein nachgiebiges mechanisches Bauelement betrachtet, das als Segment eines künstlichen Wurmes oder als Ballon für die Gefäßchirurgie betrachtet werden kann. Das Segment wird in einer verengten starren Röhre platziert, gegen die sich die Membran des Segmentes beim Aufblasen presst. Entgegengesetzt der Arbeit von Joachim Steigenberger und Harald Abeßer wird das Segment nicht symmetrisch in der Verengung liegen. Die äußere Form des Segmentes und die Kontaktkraft werden untersucht. Die mechanische Modellierung führt zu einem Optimalsteuerproblem mit Zustandsbeschränkung. Nach Auswertung der notwendigen Bedingungen werden die Ergebnisse an einigen Beispielen veranschaulicht.



Frank, Astrid;
Eigenvalues of compact integral operators with smooth kernels . - 40 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Die Arbeit beschäftigt sich mit dem Eigenwertverhalten kompakter Integraloperatoren mit quadratisch integriebaren Kernen, vornehmlich im L2-Funktionenraum über einem kompakten Intervall. Die Konvergenzgeschwindigkeit der Eigenwertfolge wächst mit der Glattheit des Kerns. Sätze von H. Weyl und J.B. Reade über selbstadjungierte Operatoren mit p-mal differenzierbaren Kernen werden zusammengefasst und zueinander in Beziehung gesetzt, und der vollständige Beweis für das Ergebnis von Reade wird geführt. Ein Beweis dieses Ergebnisses von C.M. Dikmen und J.B. Reade, der die Faktorisierung von Operatoren benutzt, schlägt eine Brücke zur Theorie der s-Zahlen.



Just, Elke;
Nash-Gleichgewichte des Pagerankspiels. - 49 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Betrachtet wird jenes Normalformspiel, das die Webseiten des World Wide Web als Spieler enthält, welche in beliebigerweise Links setzen können und als Auszahlung den von Google verwendeten PageRank erhalten. Ziel der Arbeit ist es, die Struktur der Nash-Gleichgewichte dieses Spiels zu bestimmen. Mit Hilfe des Modells des nachtragenden Websurfers werden notwendige und hinreichende Bedingungen für das Vorliegen eines Nash-Gleichgewichtes angegeben. Desweiteren wird ein Algorithmus zur automatischen Berechnung von Nashgleichgewichten vorgestellt.



Reinke, Stefanie;
Schätzung eines Graustufenbildes mit Methoden der multivariaten nichtparametrischen Regression. - 68 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Ein typisches Problem der Bildanalyse ist das Rekonstruieren eines Bildes aus verrauschten Daten. Thema dieser Diplomarbeit ist die Schätzung eines Graustufenbildes mit Methoden der multivariaten, nichtparametrischen Regression. Neben der Darstellung eines Modells und Schätzers, liegt der Fokus dieser Arbeit auf der detaillierten Herleitung einer asymptotischen oberen Schranke des Schätzers. Es kommt ein Zwei-Schritt-Schätzer zum Einsatz, dabei folgt nach einer einfachen Klassifikation, die Anwendung eines lokalen Polynom-Schätzers im Mehrdimensionalen.



Ribe-Baumann, Elizabeth;
Dense graphs with large odd girth. - 45 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Ein Graph G mit ungerader Taillenweite (mindestens) 2k + 1 ist ein Graph, der keine Kreise von ungerader Länge kleiner als 2k + 1 besitzt. Diese Arbeit beschäftigt sich mit der Struktur von Graphen mit beliebiger ungerader Taillenweite 2k+1 und großem Minimalgrad. Frühere Arbeiten haben die Struktur von Graphen mit ungerader Taillenweite 5 und hohem Minimalgrad hinreichend charakterisiert. Als erstes wird eine Zusammenfassung der Kette dazu beitrageneder Ergebnisse gegeben. Einfach formuliert lautet das Hauptresultat: Jeder Graph von Ordnung n mit ungerader Taillenweite 5 und Minimalgrad > n/3 ist 4-färbbar und homomorph mit einem Graphen aus zwei unendlichen Folgen von Graphen. Weiterhin ist eine neue Charakterisierung einer bestimmten Klasse von Teilgraphen (die "generalized pentagons"), die in Graphen mit ungerader Taillenweite 5 und großem Minimalgrad enthalten sind, gegeben. Die wenigen Resultate für Graphen mit ungerader Taillenweite 7 und beliebiger ungerader Taillenweite 2k + 1 für k > 3 werden dann präsentiert. Im Anschluss folgt das Hauptergebnis dieser Arbeit, eine Bestätigung einer Vermutung von Albertson, Chan, and Haas, die besagt: jeder Graph von Ordnung n mit ungerader Taillenweite 2k + 1 und Minimalgrad mindestens 3n/4k ist entweder homomorph dem (2k + 1)-Kreis oder kann durch eine Reihe von Ecken-Duplikationen der Möbiusleiter mit 2k Sprossen erhalten werden. Ein maximaler Graph mit ungerader Taillenweite 2k + 1 ist ein Graph mit ungerader Taillenweite 2k + 1 zu dem keine Kante hinzugefügt werden kann ohne einen ungeraden Kreis von Länge kleiner als 2k + 1 zu erzeugen. Solche maximalen Graphen sind von zentraler Bedeutung im Beweis des Hauptergebnisses, da die wichtigsten mathematischen Werkzeuge in den nachfolgenden Beobachtungen einfache Eigenschaften von maximalen Graphen mit ungerader Taillenweite 2k + 1 sind.



Lorbeer, Sascha Christopher;
Optimale Produktionsplanung mit MATLAB unter Berücksichtigung unterer Produktionsmargen. - 67 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2009

Für einen optimalen Produktionsplan wird zunächst ein Lineares Optimierungsmodell aufgestellt und in das Computeralgebrasystem MATLAB implementiert. Hierbei werden für die einzelnen Produktionszahlen, bis auf die Forderung der Nichtnegativität, keine Schranken gesetzt. Diese werden mit Hilfe eines unvollständigen Branch-and-Bound Algorithmus so gesetzt, dass der Zielfunktionswert nur einen marginalen Unterschied zur unbeschränkten Lösung aufweist. Diese Eigenschaft lässt sich durch die nahezu orthogonale Lage des Gradienten der Zielfunktion zu den Gradienten der Restriktionen erklären. Des Weiteren wird der Algorithmus an anderen linearen Optimierungsproblemen ohne oben genannte Eigenschaft getestet und ausgewertet. Weiterhin werden die anderen Programmteile, soweit notwendig, auf ihre Funktionsfähigkeit untersucht. Abschließend werden Unregelmäßigkeiten in der Produktion mit Hilfe der erstellten Grafiken festgestellt und eine geeignete Gegenmaßnahme benannt.



Schlutter, Stefanie;
Numerische Fortsetzung stabiler und instabiler Invarianzkurven von Poincaré-Abbildungen dynamischer Systeme. - 96 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Die Diplomarbeit beschäftigt sich mit der numerischen Approximation stabiler und instabiler Invarianzkurven von Poincaré-Abbildungen dynamischer Systeme. Bei periodisch erregten Systemen lassen sich in der Regel mehrere stabile Lösungen bestimmen. Nun stellt sich bei gegebener Anfangslösung die Frage, auf welche dieser Lösungen sich das System einschwingt. Dazu sollen mit der Fortsetzungsmethode von Philippow die Grenzen der Einzugsgebiete (die so genannten Separatrizen) stabiler periodischer Lösungen numerisch approximiert werden. Mit Hilfe eines selbst entwickelten Matlab-Programms soll das Lösungsverhalten periodisch erregter Systeme der Dimension˜2 geklärt werden. Der Fortsetzungs-Algorithmus knüpft an die langjährige Forschungsarbeit auf diesem Gebiet an und verbessert ein bereits bestehendes Programm.



Zeiße, Tina;
Experimentelle Überprüfung einer Vermutung zu Delay-optimalen Bäumen. - 68 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2009

In dieser Arbeit werden Delay-optimale Bäume betrachtet, die durch einen Algorithmus von Bartoschek, Held, Rautenbach und Vygen erzeugt werden. Diese Bäume dienen zur Realisierung von Schaltungen auf einem Computer-Chip. Durch Bartoschek, Held, Rautenbach und Vygen wurde bereits eine untere Schranke für die Zielfunktion des Algorithmus angegeben. Ziel der Arbeit ist es, durch eine experimentelle Überprüfung in Maple festzustellen, wie stark die resultierenden Delay-optimalen Bäume bei Veränderung der Ausgangsbedingungen (Eingabe von unsortierten Ausgangswerten an Stelle von fallend sortierten Werten) voneinander abweichen. Dazu wurde der Algorithmus in Maple 10 implementiert und etwa 250000 Berechnungen durchgeführt. Dabei wurden die Veränderungen der Delay-optmalen Bäume miteinander verglichen. Durch diese Überprüfung war es möglich für die berechneten Beispiele eine neue obere Schranke für die Zielfunktion anzugeben.



Bauermann, Patrick;
Initialisierung einer Kommunikation. - 53 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Bei der Betrachtung von Lernverfahren für wiederholte Normalformspiele ergibt sich die Frage nach solchen Verfahren, die in einem beliebigen, fest vorgegebenen Spiel fast sicher gegen ein vorhandenes Nash-Gleichgewicht konvergieren. - In der Arbeit wird gezeigt, welche Voraussetzungen dafür erfüllt sein müssen und wie ein solches Lernverfahren konstruiert werden kann. Darüber hinaus wird bewiesen, dass die ermittelten Voraussetzungen notwendig sind für die Existenz eines Lernverfahrens. Zu diesem Zweck wird die Problemstellung in eine Begriffswelt überführt, welche die Diskussion der Lernverfahren als Algorithmus veranschaulicht.



Boßecker, Anett;
Die Unabhängigkeitszahl in Graphen mit wenigen Dreiecken. - 41 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2008

James B. Shearer zeigt, dass die Unabhängigkeitszahl [alpha](G) eines dreiecksfreien, n-eckigen Graphen G mindestens so groß wie n i = 1 f(d i) ist, wobei d i dem Grad der Ecke i entspricht. Die Funktion f ist hierbei rekursiv gegeben durch f(0) = 1 und f(d) = (1 + (d 2 - d)f(d - 1))/(d 2 + 1) für d 1 (A Note on the Independence Number of Triangle-Free Graphs, Discrete Mathematics, 46:83-87, 1983). - Dieser Satz und der dazugehörende Beweis bilden die Basis für die Betrachtungen der Unabhängigkeitszahl in Graphen ohne Dreiecke. In dieser Arbeit wird nun untersucht, wie sich die Funktion f ändert, wenn man einige Dreiecke in Graphen, insbesondere in Graphen mit Maximalgrad [delta](G) 3, zulässt. Mit der neuen Funktion f, gegeben durch f(0, 0) = 1 und f (d, t) = (1 + (d 2 d - 2t)f(d - 1, t))/(d 2 - 2t + 1) für t (d 2) und f(d, t) = 0 sonst, genügt die Unabhängigkeitszahl der Abschätzung [alpha](G) n i = 1 f(d i, t i). Dabei bezeichnet d i wiederum den Grad der Ecke i und t i ihre Dreieckszahl, die für jede Ecke die Anzahl der Dreiecke angibt, die die jeweilige Ecke enthalten.



Berger, Thomas;
Zur asymptotischen Stabilität linearer differential-algebraischer Gleichungen. - 65 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2008

Differential-algebraische Gleichungen gewinnen in vielen technischen Gebieten, wie zum Beispiel der Elektrotechnik, immer mehr an Bedeutung. Da sie in den meisten Fällen aber nicht explizit lösbar sind, oder schwer handhabbare Lösungen besitzen, konzentriert man sich auf qualitative Aussagen über das Systemverhalten. In dieser Arbeit wird daher die asymptotische Stabilität linearer, homogener, differential-algebraischer Gleichungen mit konstanten Koeffizienten-Matrizen ausführlich untersucht und notwendige sowie hinreichende Bedingungen für diese angegeben. In diesem Zusammenhang wird die Lösbarkeit der sogenannten verallgemeinerten Lyapunov-Gleichung sowie die Eindeutigkeit und Darstellung der Lösung analysiert werden. Als Grundlage dient die Lösungstheorie differential-algebraischer Gleichungen. Im Anhang befindet sich diesbezüglich eine vermutlich neue Darstellungsform der Lösungen mittels verallgemeinerter Hauptvektoren.



Kellner, Tobias;
Applications of adaptive observers and tracking. - 55 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Dynamische Eingangs-/Ausgangssysteme dienen oft der Beschreibung von technischen oder physikalischen Systemen. Oftmals ist es dabei nicht möglich auf alle internen Zustände eines solchen Systems zuzugreifen, so dass die Konstruktion von Algorithmen, die diese Zustände zumindest schätzen können, notwendig wird. Eines der wichtigsten Mittel dafür ist der Beobachterentwurf. Ein Beobachter ist ein dynamisches System, welches mit den Ein- und Ausgabesignalen des Originalsystems die inneren Zustände des Originalsystems schätzt. - Eine wichtige Frage beim Beobachterentwurf ist, wie sich der Fehler zum Originalsystem transient verhält. Das Hauptresultat des ersten Teils dieser Arbeit ist ein Beobachter, der zumindest das Ausgangssignal des Originalsystems innerhalb einer vorgeschriebenen Grenze schätzt. - Der zweite Teil beschäftigt sich mit Systemen, die unbekannte Parameter enthalten. Unter Anderem wird hier der Beobachterentwurf dazu ausgenutzt, eine Zustandsrückführung zu erstellen, welche das Ausgangsverhalten unseres Systems gegen ein vorgeschriebenes Ausgangssignal konvergieren lässt. Es wird ein lückenhafter Beweis von T. Marino und P. Tomei aufgearbeitet und Möglichkeiten zur Ergänzung und Vereinfachung der von T. Marino und P. Tomei angegebenen dynamischen Zustandsrückführung aufgezeigt



Siegfried, Nadine;
Die Readability monotoner boolescher Funktionen. - 38 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

In dieser Diplomarbeit betrachten wir ein Problem, welches von Golumbic, Peled und Rotics aufgeworfen wurde. Es behandelt das Verhältnis zwischen einem Komplexitätsmaß für Boolesche Funktionen und einer Problematik der Graphenüberdeckung. Genauer gesagt, setzt das Problem die sogenannte Readability von monotonen Booleschen Funktionen in Verbindung mit Kantenüberdeckungen von Graphen, die solchen Funktionen zugeordnet werden, durch Kantenmengen vollständiger bipartiter Teilgraphen. - Eine monotone Boolesche Funktion hat eine Readability von höchstens k, wenn sie durch eine Formel dargestellt werden kann, in welcher jede Variable höchstens k mal vorkommt. Wir ordnen einer monotonen Booleschen Funktion F einen Graph G zu, dessen Knotenmenge die Menge von Variablen von F ist und die Minimalterme von F genau den maximalen Cliquen von G entsprechen. - Golumbic et al. stellten die Frage, ob jede monotone Boolesche Funktion F, deren zugehöriger Graph G dreiecksfrei ist, durch eine hinsichtlich der Readability optimale Formel p dargestellt werden kann, so dass p einer Kantenüberdeckung c von G durch Kantenmengen vollständiger bipartiter Teilgraphen entspricht. Hierbei ist die Anzahl, wie oft eine bestimmte Variable x in p vorkommt, gleich der Anzahl von vollständigen bipartiten Teilgraphen, welche von c benutzt werden und den Knoten x enthalten. - In Ihrem Manuskript bewiesen Golumbic et al. die Beziehung zwischen der Readability und der Problematik der Graphenüberdeckung für eine spezielle Folge von Graphen. In Abschnitt 2 beweisen wir als unser erstes Hauptresultat, dass die Argumente von Golumbic et al. noch für eine andere Folge von Graphen funktionieren. Darüber hinaus bearbeiten wir in Abschnitt 3 einen Spezialfall dieser Problematik, welcher Formeln einer eingeschränkten Struktur behandelt, dessen zugehörige Graphen dreiecksfrei sind.



Prätor, Nico;
Kombinierte Lösungsverfahren für Gleichungssysteme. - 83 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Gegenstand der Betrachtungen sind drei iterative Verfahren zum Lösen von Gleichungssystemen; das Gradientenverfahren (GV), ein modifiziertes Gradientenverfahren (MGV) und das Newtonverfahren (NV). Die Arbeitsweise der Verfahren ist ähnlich. In jedem Schritt der Iteration wird der nächste Iterationspunkt als Summe des aktuellen Punktes und einer Korrektur berechnet, bis man eine Lösung des Gleichungssystems erreicht. Der wesentliche Unterschied der Verfahren liegt in der Korrektur und der Art ihrer Berechnung. Ziel ist es nun, ein neues, iteratives Verfahren zu entwickeln, in dem die Korrekturen der einzelnen Verfahren kombiniert werden, um zum nächsten Iterationpunkt zu gelangen. Für lineare Gleichungssysteme werden wir dazu das GV, das MGV und das NV kombinieren. Bei nichtlinearen Gleichungssystemen findet eine Kombination zweier NV mit dem MGV Anwendung. Die auf diese Weise entstandenen Algorithmen wurden im Computeralgebrasystem Maple programmiert. Sie wurden in kleindimensionierten Beispielen praktischen Tests unterzogen, Iterationsverläufe wurden anschaulich illustriert und die Resultate anschließend ausgewertet und bewertet.



Christiani, Daniela;
Vergleich der Behandlung von Mehr-/Mindermengen im analytischen und synthetischen Verfahren anhand von Daten eines realen Elektrizitätsverteilnetzes. - 90 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Zielstellung dieser Arbeit ist es, die Frage zu klären, welches von 2 Verfahren für die Belieferung und Abrechnung von Strom für Kleinkunden aus Sicht eines Verteilnetzbetreibers besser geeignet ist. Durch die Erläuterung des Netznutzungsmodells in der Einleitung werden zunächst wichtige Zusammenhänge am Strommarkt deutlich. Im Anschluss werden die einzelnen Verfahren vorgestellt und mit Daten eines speziellen Geschäftsjahres in Excel durchgerechnet. Im 3. Kapitel wurden verschiedene Situationen und die Auswirkungen auf beide Verfahren betrachtet. Dabei ist deutlich geworden, dass im synthetischen Verfahren das Risiko besteht, dass Kosten, die durch Prognoseungenauigkeiten entstehen, nicht genau auf die Verursacher umgewälzt werden. Dieses Risiko tritt im analytischen Verfahren nicht ein. Durch verschiedene Fallbetrachtungen sind die Fälle herausgearbeitet worden, in denen für den Verteilnetzbetreiber Gewinne oder Verluste eintreten. Die Größenordnung der Verluste und Gewinne war letztendlich ausschlaggebend, dass sich das analytische Verfahren aus Sicht des Verteilnetzbetreibers als das bessere herausgestellt hat.



Dünnbier, Anne;
Konfidenzintervalle für Modalwerte. - 44 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Die Diplomarbeit befasst sich mit universalen Konfidenzintervallen für den Modalwert einer eindimensionalen stetigen Verteilung. Diese Konfidenzintervalle werden bestimmt als geeignete Umgebungen der Maximalstellen von Dichteschätzern. Die Methode beruht auf allgemeinen Resultaten von G. Pflug und S. Vogel über Konfidenzmengen für Lösungen von Entscheidungsproblemen und liefert für jeden Stichprobenumfang Intervalle, die den Modalwert mit einer vorgegebenen Genauigkeit überdecken.- Zunächst werden die Aussagen bewiesen, auf denen die Methode aufbaut. Anschließend werden die Voraussetzungen dieser Aussagen für Modalwertschätzer überprüft, die auf Kernschätzern für die Dichtefunktion beruhen. Zum Nachweis der benötigten Konvergenzraten und "Tail-Behavior-Funktionen" für die gleichmäßige Konvergenz in Wahrscheinlichkeit der Dichteschätzer werden Maßkonzentrationsaussagen eingesetzt.



Schmidt, Michael;
"Football pools" mit höchstens 13 Spielen. - 67 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Erstes Kapitel ist allgemeine Einleitung. Darauf folgt ein Kapitel mit Grundlagen der Codierungstheorie. Das Kapitel 3 beschäftigt sich mit Codes und Tippsystemen, worauf in Kapitel 4 eine Verallgemeinerung dessen und eine Betrachtung mit Hilfe der Graphentheorie folgt. Insbesondere geht es um die Einführung des "football pool problem" als Dominanzproblem. Es folgt die Einführung einer eigenen minimalen Tippmenge und dem Aufstellen unterer und oberer Schranken. Kapitel 5 gibt einen Überblick über die bis dato vorliegenden Verbesserungen der in der Literatur betrachteten Systeme und damit den minimalen Tippmengen. Abschließend erfolgt in Kapitel 6 eine Betrachtung des Problems als lineares ganzzahliges Optimierungsproblem.



Sturm, Sabine;
Oberflächenmaximierung eines Rotationskörpers als Optimalsteuerproblem mit Zustandsrestriktionen. - 84 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Gegenstand dieser Arbeit ist das Problem der Oberflächenmaximierung eines Rotationskörpers als Optimalsteuerproblem mit Zustandsrestriktionen. Hierfür werden zwei Fälle untersucht: Die Extremalen liegen symmetrisch unter einer symmetrischen, nicht-konstanten Restriktion und die Extremalen liegen nicht-symmetrisch unter einer symmetrischen, nicht-konstanten Restriktion. Das Hauptaugenmerk liegt auf der Auswertung der notwendigen Optimalitätsbedingungen.



Artmann, Sarah;
Über die Dominanzzahl regulärer Graphen unter Nutzung multilinearer Funktionen. - 34 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Die Dominanzzahl eines Graphen ist die minimale Anzahl von Knoten in einer Menge D, für die jeder Knoten des Graphen entweder selber in der Menge D liegt oder einen Nachbarn in D besitzt. - In dieser Arbeit werden reguläre Graphen mit großer Taillenweite betrachtet, das heißt, jeder Knoten des Graphen hat die gleiche Anzahl von Nachbarn und ein kürzester Kreis im Graphen hat eine hinreichend große Länge. - Es wird eine neue Strategie entwickelt, durch die neue obere Schranken für die Dominanzzahl dieser Graphenklasse bewiesen werden können.



Vollrath, Oliver;
Schätzung in scheinbar unverbundenen Regressionsmodellen unter besonderer Berücksichtigung orthogonaler Regressoren. - 160 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

In meiner Diplomarbeit geht es um die Schätzung in Scheinbar unverbundenen Regressionsmodellen (SUR). Nach einer Einführung in die SUR- Modelle mit M Regressionsgleichungen beschäftigen wir uns mit dem Problem, des effizienten Schätzens der Regressionskoeffizienten bei unbekannter Kovarianzmatrix. Dazu wird zunächst ein allgemeiner SUR- bzw. FGLS- Schätzer betrachtet und im Anschluss zwei spezielle Ausprägungen dieses Schätzers definiert. Zum einen der SUR-Schätzer mit Restriktionen, kurz SURR und zum anderen jener ohne Restriktionen genannt SUUR. - Nach diesen einführenden Betrachtungen reduzieren wir unser SUR Modell auf ein SUR- Modell mit zwei Gleichungen und nennen es SUR2. Es werden in SUR2 allgemeine SUR- bzw. FGLS- Schätzer für die Regressionskoeffizienten hergeleitet und diese Konzepte auf die SUUR und SURR Schätzer übertragen. Alsdann wird das Modell SUR2 weiter vereinfacht werden, d.h. wir untersuchen dann ein Zwei- Gleichungs- SUR Modell mit orthogonalen Regressoren und nennen dieses SUR3. Jenes SUR3 Modell und die Schätzung darin nimmt den Hauptteil der Diplomarbeit ein. Dazu werden in aufwändigen Rechnungen Kovarianzmatrizen der SUUR und SURR-Schätzer im Modell SUR3 hergeleitet. Damit sind Effizienzvergleiche zwischen diesen Schätzern möglich und werden ausführlich diskutiert. Danach wird die Stichprobenverteilung des SUUR- Schätzers im Mittelpunkt stehen. Genauer wird eine Dichtefunktion des zufälligen Schätzfehlers des SUUR Schätzers bestimmt. Es wird sich zeigen, dass diese Dichte bei großen Stichprobenumfängen gegen die Normalverteilung strebt. - Welche Bedeutung SUR- Modelle und SUR-Schätzungen in der Praxis haben, wird zum Ende der Diplomarbeit an einem kleinen Beispiel aus Grunfelds Investitionstheorie illustriert.



Scheide, Diego;
Kantenfärbungen von Multigraphen. - 34 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Das Kantenfärbungsproblem für Graphen ist ein NP-schweres Problem. Für einen Multigraphen G ist der chromatische Index c(G) - die minimale Anzahl an benötigten Farben - nach unten beschränkt durch den Maximalgrad D(G) und nach oben durch die Summe D(G)+m(G) aus dem Maximalgrad und der maximalen Kantenvielfachheit von G. Aus der Literatur ist eine Vielzahl weiterer oberer Schranken für den chromatischen Index bekannt, für die sich mittels effizienter Färbungsalgorithmen entsprechende Färbungen konstruieren lassen. - Auf der Basis der klassischen Umfärbungsmethoden an sogenannten Fächern wird im ersten Teil dieser Arbeit eine neue obere Schranke - die Fächerzahl - eingeführt, welche gleichzeitig eine Vielzahl der bekannten Schranken verbessert. Ein entsprechender Färbungsalgorithmuss, der diese Fächerzahl effizient realisiert, wird ebenfalls angegeben. - Im zweiten Teil der Arbeit wird die Güte der bereits erwähnten klassischen Schranke D(G)+m(G) von Vizing in Abhängigkeit der beiden benötigten Parameter D(G) und m(G) untersucht. Dabei werden Bereiche charakterisiert, für die Graphen G mit c(G)=D(G)+m(G) konstruiert werden können. Diese Charakterisierung ist zudem vollständig, falls die Goldbergvermutung stimmt. Für weitere Bereiche kann auch ohne Goldberg gezeigt werden, dass die Vizing-Schranke nicht erreichbar und sogar beliebig schlecht wird.



Mönch, Ines;
Asymptotische Eigenschaften von Kernschätzern für die mittlere Ableitung der Regressionsfunktion. - 153 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

In der Arbeit wird die Regressionsfunktion betrachtet und deren mittlere Ableitung geschätzt. Für diesen Schätzer wird mit dem mittleren quadratischen Fehler (MSE) eine Fehlerabschätzung und eine Konvergenzrate angegeben. Weiter werden auf Basis des MSE die optimale Bandbreite und die optimale Kernfunktion bestimmt. Im Anschluss erfolgt mit dem Law of demand ein Anwendungsbeispiel.



Reinard, Aylin;
Vergleich und Modifikation vorhandener Ansätze zum Nachweis asymptotischer Normalität von Modalwertschätzern mehrdimensionaler Dichten. - 144 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Es wird ein Ansatz zum Nachweis asymptotischer Normalität von Modalwertschätzern mehrdimensionaler Dichten eines Artikels vom Autor Samanta ausgearbeitet und - zur Erhaltung der asymptotischen Normlität des Modalwertschätzers - modifiziert. Zwei weitere Ansätze werden vorgestellt und mit dem ersten auf ihre Voraussetzungen und Ergebnisse verglichen.



Paul, Rene;
Numerische Untersuchungen zu einem diskreten Modell der Boltzmann-Gleichung. - 90 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

In dieser Arbeit wurden mit Hilfe von C++ Programmen verschiedene numerische Untersuchungen zu diskreten Modellen der Boltzmann-Gleichung durchgeführt. Im Kapitel II. wurden am kleinsten Kollisionsmodell (6-Punkte Modelle) die Eigenschaften gezeigt und anschließend für größere Modelle verallgemeinert. Im Kapitel III. 'Numerische Untersuchungen' ist zuerst die Abhängigkeit der Lösung vom Gitter näher untersucht worden. Wir kamen zu dem Schluss, je näher der Extrempunkt (Peak) der Funktion $ M_G(v_x^{(i)},v_y^{(i)}) $ an einem Gitterpunkt liegt, um so besser wird die Energie $ E_N $ approximiert. Erhöht man die Punkte Anzahl der Modelle (vom 24-Punkte zum 96-Punkte Modell) wird die Energie $E_N$ ebenfalls besser approximiert. Probleme traten nur auf, wenn die Temperatur $ T$ sehr klein oder sehr groß wurde. Beim Test der Anfangsbedingungen wurde festgestellt, dass die Wahl der Anfangsbedingungen einen großen Einfluss auf die Berechnungen haben. In einem weiteren Punkt der Arbeit wurden die Abklingzeiten vom H- und vom M-Funktional verglichen. Wir haben festgestellt, dass das H-Funktional schneller abklingt als das M-Funktional. Bei dem M-Funktional hängt der Funktionsverlauf sehr stark von der Wahl der Variablen $ \alpha $ und $ \beta $ ab. Die Wahl der Anfangsgeschwindigkeiten spielt bei den beiden Funktionalen keine große Rolle. Im nächsten Punkt hat sich die Arbeit mit der Konstruktion diskreter Lösungen zu vorgegebenen Momenten beschäftigt. Als Grundlage diente hierfür das Newton-Verfahren. Hier hat sich gezeigt, dass die numerisch errechneten Grenzen in einigen Fällen von den theoretisch ermittelten Grenzen abweichen. Im Abschnitt III.5 haben wir das qualitative Verhalten unterschiedlicher Modelle untersucht. Mit Hilfe des Newton-Verfahrens wurde nach der Wahl von Anfangsbedingungen eine Grenzfunktion berechnet. Danach wurde mit den Anfangsbedingungen das Hauptprogramm gestartet. In jedem Schritt wurde das 4. Moment berechnet und mit dem 4. Moment der Grenzfunktion verglichen. Als Ergebnis haben wir die Funktion $\phi(t)$ erhalten und festgestellt, dass sie in den Bereichen gemäß Tabelle 1 (Kapitel III.1) einen linearen Verlauf hat. Der optimale Verlauf zeigte sich im 96-Punkte Modell mit der Anfangsbedingung $\theta=1$ und dem Vorfaktor $\alpha_1=1$ vor dem Stoßoperator. Diese Werte wurden dann im Abschnitt III.3 übernommen. Hier wurde gezeigt, dass die Lösung die Eigenschaften des BKW-Typ erfüllen. Das Kapitel IV. stellt die Programme, die während der numerischen Untersuchungen benutzt wurden, näher vor. Im Anhang sind die Abbildungen, die im Text nur schwer erkennbar sind, nochmals dargestellt. Weiterhin sind die Tabellen und die Quellcodes der einzelnen Programme angegeben.



Wieczorek, Barbara;
Nichtparametrische Kurvenschätzung : Modalwertschätzung für Regressionsfunktionen mit nichtdifferenzierbarer Modalstelle im heteroscedastischen Fixed Design Modell. - 92 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Es wird die nichtparametrische Modalwertschätzung für stetige Regressionsfunktionen mit nichtglatter Modalstelle im heteroscedastischen Fixed Design Modell behandelt. Unter Voraussetzung eines zeilenweise m-abhängigen Dreiecksschemas für Fehlervariablen wird ein Resultat für die Konsistenzordnung fast sicher des Modalwertschätzers erzielt. Im Falle der zeilenweise Unabhängigkeit und unter Voraussetzung der Quasi-Glattheit der Regressionskurve an der Modalstelle kann asymptotische Normalität des Modalwertschätzers erzielt werden.



Hopfe, Norman;
Adaptive Stabilisierung von minimalphasigen Systemen mit bekannter oberer Schranke des Relativgrades. - 109 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Die Beschreibung eines technischen oder physikalischen Systems geschieht oft durch ein lineares System. Eine wichtige Größe ist dabei der sogenannte Relativgrad. Die Zustandsrückführung eines linearen, zeitinvarianten, minimalphasigen Eingrößensystems mit positivem Hochverstärkungsfaktor geschieht oft durch ein sogenanntes konstantes Feedback. In dieser Arbeit wird gezeigt, dass diese Art der Rückführung bei der Stabilisierung von Systemen mit höherem Relativgrad versagt. Es wird eine neue Klasse von hochverstärkenden, parameterabhängigen dynamischen Reglern angegeben, die unter gewissen Voraussetzungen an das Systemmodell diesen Mangel der konstanten Zustandsrückführung beseitigen. Dabei geht der Relativgrad in die Darstellung des Reglers explizit mit ein. Bei der Modellierung eines technischen oder physikalischen Systems ist der Relativgrad oftmals nicht exakt bekannt. Eine wichtige Frage ist, wie robust diese neue Reglerklasse gegenüber Unsicherheiten bei der Kenntnis des Relativgrades ist. Diese Frage kann beantwortet werden und es zeigt sich, dass bei dieser Klasse von Reglern der Relativgrad exakt bekannt sein muss, um Stabilit¨at zu erreichen. Dies ist Grundlage eine zweite Klasse von hochverstärkenden parameterabhängigen dynamischen Reglern anzugeben, wobei die exakte Kenntnis des Relativgrades nicht erforderlich ist und die Kenntnis einer oberen Schranke genügt. Das Hauptresultat dieser Arbeit ist, unter gewissen Voraussetzungen an das Systemmodell und unter Verwendung dieser zwei Reglerklassen, die parametermonotone adaptive Stabilisierung von minimalphasigen, linearen Eingrößensystemen mit einem adaptiven Gesetz, das in der Literatur so nicht auftaucht.



Groß, Olga;
Eine untere Schranke für die Unabhängigkeitszahl eines Graphen. - 33 S. Ilmenau : Techn. Univ., Diplomarbeit, 2006

Durch eine Untersuchung des bekannten Algorithmus' wird in dieser Arbeit eine neue untere Schranke für die Unabhängigkeitszahl eines Graphen bestimmt. Ebenso wird diese Schranke an verschiedenen Graphen getestet und mit bekannten Schranken für die Unabhängigkeitszahl verglichen.



Müller, Markus;
A normal form for time-varying linear systems. - 39 S. Ilmenau : Techn. Univ., Diplomarbeit, 2005

Für zeitinvariante Eingangs/Ausgangssysteme existieren verschiedene Charakterisierungen für den sogenannten Relativgrad des Systems. Man unterscheidet zwischen linearen und nichtlinearen Eingangs/Ausgangssystemen. In dieser Arbeit wird eine verallgemeinerte Definition des Relativgrades für zeitvariante nicht-lineare Systeme angegeben und darauf aufbauend eine Charakterisierung des Relativgrades zeitvarianter linearer Systeme begründet. Diese Charakterisierung stützt sich ausschließlich auf die zeitabhängigen Systemmatrizen und deren Ableitungen. Es wird gezeigt, dass in dieser Darstellung des Relativgrades zeitvarianter linearer Systeme die bekannte Darstellung für zeitinvariante lineare Systeme aufgehoben ist und, interpretiert man das zeitvariante lineare System als zeitinvariantes nichtlineares System, die Definition ebenso aufgehoben ist. Die Darstellung des Relativgrades zeitvarianter linearer Systeme wird nun genutzt, um bezüglich einer zeitvarianten linearen Transformation eine Normalform für zeitvariante lineare Systeme zu entwickeln, welche in ihrer Struktur der Normalform zeitinvarianter linearer Systeme gleicht. Die Normalform für zeitvariante lineare Systeme wird schließlich als Grundlage der Betrachtung der sogenannten Nulldynamik dieser Systeme verwendet. Dazu wird Beschränktheit sowie Stabilität der Nulldynamik definiert und es wird bewiesen, dass die Nulldynamik eines zeitvarianten linearen Systems genau dann beschränkt ist, wenn die Nulldynamik der korrespondierenden Normalfrom beschränkt ist. Entsprechende Behauptungen werden auch für asymptotische und exponentielle Stabilität gezeigt.



Trenn, Stephan;
Hardy spaces and robustness of linear systems. - 49 S. Ilmenau : Techn. Univ., Diplomarbeit, 2004

Die Beschreibung eines linearen Modells eines technischen oder physikalischen Systems geschieht oft durch eine sogenannte Transfermatrix, die als Element eines geeigneten Hardy-Raumes betrachtet wird. Es wird auch oft angenommen, dass Eingang und Ausgang des modellierten Systems Elemente eines weiteren Hardy-Raumes sind. In dieser Arbeit wird eine detaillierte mathematische Einführung in die Theorie der Hardy-Räume gegeben. Eigenschaften der Hardy-Räume, die wichtig für die Beschreibung von technischen oder physikalischen Systemen sind, werden betont. Eine wichtige Frage ist, wie robust ein System unter Eingangsstörungen ist. Die Frage kann beantwortet werden, wenn der Verstärkungsfaktor eines Systems bekannt ist. Dieser ist das maximale Verhältnis zwischen Ausgang und Eingang und kann deshalb nicht leicht bestimmt werden, da jeder mögliche Eingang betrachtet werden muss. Das Hauptergebnis dieser Arbeit ist, dass man unter gewissen Voraussetzungen an das Systemmodell das Verstärkungsverhältnis in einer viel einfacheren Weise berechnen kann. Dieses Ergebnis ist in der Literatur bekannt, aber nach Wissen des Autors sind keine überzeugenden Beweise in der Literatur verfügbar. Die Lücken existierender Beweise werden diskutiert und ein vollständiger Beweis wird angegeben.