Studentinnen und Studenten hören eine Vorlesung im Hörsaal, zwei Laptops sind zu sehenTU Ilmenau / Michael Reichel (ari)

Teaching

Our courses are intended for students of mathematics as well as for students of computer science, technical physics and engineering courses.

Bachelor and Master Theses

Bitte beachten Sie, dass die Hochschulbibliographie den Datenstand 31.07.2024 hat.
Alle neueren Einträge finden Sie in der Universitätsbibliographie der Technischen Universität Ilmenau (TUUniBib).

Anzahl der Treffer: 53
Erstellt: Wed, 18 Sep 2024 21:29:47 +0200 in 0.0548 sec


Beck, Matthias;
Dichteschätzungen mit Epi-Splines. - 108 S. : Ilmenau, Techn. Univ., Masterarbeit, 2014

Die Masterarbeit befasst sich mit einer neuartigen Methode innerhalb der nichtparametrischen Dichteschätzung, die auf sogenannten Epi-Splines beruht. Zunächst geht es in der Arbeit um die Aufbereitung eines Artikels von Johannes O. Royset und Roger J-B Wets zur Schätzung eindimensionaler Dichten mittels exponentieller Epi-Splines. Dieser Ansatz wird schließlich in der Arbeit auf den zweidimensionalen Fall erweitert und es wird dabei das theoretische Fundament zur Schätzung bivariater Dichtefunktionen gelegt. Hierbei wird unter anderem eine Konsistenz-Aussage der entstehenden Dichteschätzer für eine spezielle Klasse von Dichten hergeleitet. Empirische Studien, die vor allem für den eindimensionalen Fall durchgeführt wurden, bildeten die Grundlage, um sowohl mögliche Potentiale als auch Schwachstellen des Schätzverfahrens aufzudecken.



Niebling, Julia;
Ein Beitrag zu Graphenpackungen. - 34 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2013

Zu zwei gegebenen endlichen, schlichten und ungerichteten Graphen $G$ und $H$ können verschiedene Packungskonzepte betrachtet werden. Zwei eckendisjunkte induzierte Untergraphen $H$ und $H'$ von $G$ heißen unabhängig, wenn $G$ keine Kante zwischen $H$ und $H'$ enthält. So ist $\alpha(G, H)$ die größte Anzahl eckendisjunkter Kopien von $H$, die induzierte Untergraphen von $G$ und paarweise unabhängig sind. Für $H=K_1$ stellt $\alpha(G, K_1)$ die Unabhängigkeitszahl $\alpha(G)$ dar. Die Bestimmung von $\alpha(G, H)$ ist im Allgemeinen schwer. In "Packing of induced subgraphs" von J. Harant, S. Richter und H. Sachs werden unter anderen im Fall, dass $G$ ein $r$-regulärer Graph ist, zwei obere Schranken für $\alpha(G, H)$ bewiesen. Motiviert dadurch stellt sich die Frage nach einem Satz, der für nicht notwendig reguläre Graphen $G$ gilt und den Satz aus der Literatur verallgemeinern kann. In dieser Arbeit wird ein neuer Satz mit Hilfsmitteln aus der Graphentheorie, linearen Algebra und Lagrange-Theorie bewiesen. Der Satz gilt für nicht notwendig reguläre Graphen $G$ und ist in einem Spezialfall eine Verallgemeinerung des Satzes von Harant, Richter und Sachs. Zur Berechnung der bewiesenen Schranken müssen sowohl induzierte Untergraphen von $H$, als auch mehrere Gleichungssysteme gelöst werden. Dieser Aufwand ist dennoch durchaus vertretbar, da meist "kleine" Graphen $H$ in $G$ gepackt werden und die Menge der induzierten Untergraphen von $H$ damit überschaubar bleibt.



Semper, Sebastian;
Gitterfreie Invertierung der Radontransformation mit reproduzierenden Kernen. - 60 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2013

Diese Arbeit ist in sechs Kapitel unterteilt. Die Einleitung dient einerseits der Erläuterung der praktischen Problemstellung am Beispiel der Computertomographie und andererseits bereits der Einführung einiger grundlegender Objekte, welche vor allem im zweiten Teil eine übergeordnete Rolle spielen werden. Weiterhin die Methode der gefilterten Rückprojektionen zur Invertierung der Radontransformation vorgestellt und deren Vor- und Nachteile beleuchtet. Das zweite Kapitel legt zunächst alle theoretischen Grundlagen für die Entwicklung der Theorie und erläutert die mathematische Seite des neuen Verfahrens zur Invertierung der Radontransformation. Im Zuge dessen ergibt sich auch ein neues Ergebnis über lineare stetige Funktionale in Hilberträumen mit reproduzierenden Kernen. Kapitel 2 endet mit dem Invertierungstheorem, welches den Mittelpunkt dieser Arbeit darstellt. Es erlaubt eine Approximation der inversen Radontransformation, die viel weniger Anforderungen an die Messdaten stellt, als beispielsweise die gefilterte Rückprojektion. Die hier entwickelte Methode wird im Folgenden der Einfachheit halber Kernmethode genannt werden. Kapitel 3 befasst sich damit, ein konkretes Beispiel von Kernfunktionen im Sinne der entwickelten Theorie aufzubereiten, um diese in einer praktischen Problemstellung verwenden zu können. Weiterhin wird der Einfluss von einigen weiteren Parametern erläutert, welche bei der Approximation eine Rolle spielen. In den letzten Kapiteln wird zunächst eine kurze Erklärung der benutzten Numerik gegeben. Dann wird die Kernmethode mit verschiedenen Datensätzen getestet und untersucht. Schlussendlich werden die Ergebnisse der Kernmethode mit denen der gefilterten Rückprojektion verglichen. Der Schluss beinhaltet einige weiterführende Aspekte und gibt mögliche Anhaltspunkte für weitere Untersuchungen der Kernmethode.



Heilmann, Gerrit;
Empirische Likelihood-Quotienten-Konfidenzintervalle für Funktionale der Verteilungsfunktionen. - 36 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2013

In dieser Arbeit geht es darum, asymptotische Konfidenzintervalle bereitzustellen, dafür wird der Artikel "Empirical likelihood ratio confidence intervals for a single functional" von Art B. Owen aufgearbeitet. Die Beweise, die im Artikel nur angedeutet werden, werden in dieser Arbeit tiefgründiger vollzogen, so dass der Leser diesen besser folgen kann. Außerdem sollen die Simulationen, die der Autor dieses Artikels durchgeführt hat, anhand eigener eingeschätzt werden.



Seeger, Stefan;
Kerndichteschätzer im Kontext universaler Konfidenz. - 127 S. : Ilmenau, Techn. Univ., Masterarbeit, 2013

Die Masterarbeit befasst sich mit einer nichtparametrischen Variante der Dichteschätzung, den Kerndichteschätzern. Im Mittelpunkt stehen gleichmäßige und punktweise Approximationen der unbekannten Dichte in Wahrscheinlichkeit durch einen Kerndichteschätzer. Diese Approximationen bilden die Grundlage zur Bestimmung von universalen Konfidenzmengen. Im Fall punktweiser Approximationen werden die resultierenden universalen Konfidenzmengen mit bekannten asymptotischen Aussagen verglichen. Der Schwerpunkt liegt jedoch auf der Bestimmung von Konfidenzmengen für obere Niveaumengen der unbekannten Dichte, welche in der explorativen Statistik eine wesentliche Rolle spielen. Die benötigten gleichmäßigen Approximationen der Dichte in Wahrscheinlichkeit liegen Arbeiten von Frau Professor Vogel und Frau Dünnbier vor. Diese Möglichkeiten werden in der Arbeit aufgegriffen und abgeändert. Die Voraussetzungen an die unbekannte Dichte werden abgeschwächt und es wird gezeigt, dass die Hölder- Stetigkeit der Dichte hinreichend ist, um Approximationen der Dichte in Wahrscheinlichkeit zu erhalten. Basierend auf der Definition geeigneter multivariater Kernfunktionen wird eine Abschätzung des gleichmäßigen Bias für hinreichend glatte Dichten unter Berücksichtigung einer allgemeineren Bandbreitenmatrix angegeben, welche ebenfalls in die Approximation der Dichte in Wahrscheinlichkeit einfließt. Es wird gezeigt, dass die Angabe der universalen Konfidenzmengen für obere Niveaumengen der Dichte über die Bestimmung von oberen Niveaumengen des Kerndichteschätzers zu realisieren ist. Auf Grundlage dieser Aussage und der fast sicheren Hölder- Stetigkeit des Kerndichteschätzers werden allgemeine multivariate Algorithmen vorgeschlagen und in der Statistiksoftware R umgesetzt. Die Algorithmen ermöglichen eine äußere und innere Approximation der oberen Niveaumengen des realisierten Kerndichteschätzers. Es wird gezeigt, dass sich die fast sicher Hölder- Stetigkeit des Kerndichteschätzers unter bestimmten Voraussetzungen an die unbekannte Dichte abschwächen lässt und so eine verbesserte Laufzeit der Algorithmen zu erreichen ist. Insbesondere für uni- und bivariate Kerndichteschätzer bilden die vorgeschlagenen Algorithmen eine erste Grundlage die oberen Niveaumengen des Kerndichteschätzers auch ohne weitere Strukturaussagen, wie die Konvexität oder Sternförmigkeit der Niveaumengen, zu bestimmen.



Schäfer, Lukas Matthias;
Konfidenzmengen für multivariate, stetige Dichten und univariate Dichten mit Unstetigkeitsstellen auf der Basis von Kernschätzern. - 33 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2012

In der Arbeit werden für multivariate Dichtefunktionen optimale Bandbreiten und Kernfunktionen bez. einer gleichm. Approximation der Dichte in Wahrscheinlichkeit abgeleitet und diese in einer Computersimulation verwendet. Des Weiteren wird eine gleichm. Approximation der Dichte in Wahrscheinlichkeit für Dichten mit einer Unstetigkeitsstelle und modifizierte Kerndichteschätzer hergeleitet.



Schneider, Daniel;
Konfidenzintervalle für Value-at-Risk und Average Value-at-Risk. - 33 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2012

In dieser Arbeit werden Konfidenzintervalle für die Risikomaße Value-at-Risk und Average Value-at-Risk abgeleitet. Dies geschieht jeweils unter Benutzung der empirischen Verteilungsfunktion und unter Verwendung von Kerndichteschätzern. Abschließend werden die theoretischen Ergebnisse in einer Computersimulation umgesetzt.



Boldt, Sebastian;
Schätzung des Value-at-Risk mit Hilfe elliptischer Copulas. - 121 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2011

Die Finanzmärkte haben sich in jüngster Zeit rasant entwickelt. Ein wichtiger Aspekt beim Halten eines Portfolios besteht deshalb darin, Abhängigkeiten und Risiken adäquat zu modellieren. Die seit Jahrzehnten benutzte Normalverteilungsannahme mit dem Korrelationskoeffizienten nach Bravais-Pearson erweist sich durch immer neue statistische Untersuchungen als dafür ungeeignet. Für ein Portfolio werden gemeinsame extreme Ereignisse durch die mehrdimensionale Normalverteilung nur unzureichend erfasst. Ein Standardmaß zur Bestimmung des Marktrisikos ist der Value-at-Risk. Dabei wird eine Wahrscheinlichkeit vorgegeben und der Wert des Value-at-Risk bestimmt. Beim Value-at-Risk handelt es sich einfach um ein Quantil der vorgegebenen Wahrscheinlichkeit der Verteilung einer risikobehafteten Anlage. Für die Modellierung des Value-at-Risk werden elliptische Copulas verwendet. Copulafunktionen stellen ein allgemeines Konzept zur Modellierung von Abhängigkeiten dar. Die Copula soll die eindimensionalen Randverteilungen zu einer gemeinsamen, mehrdimensionalen Verteilungsfunktion koppeln. Dabei trägt die Copula die ganze Abhängigkeitsstruktur in sich. Für stetige mehrdimensionale Verteilungen können durch die Copula die eindimensionalen Randverteilungen und die mehrdimensionale Abhängigkeitsstruktur separiert werden. Das Hauptaugenmerk wird auf der Gauß- und der t-Copula liegen. Für diese beiden Copulas wird die praktische Anwendung auf reale Finanzmarktdaten im Rahmen der Risikomessung mit dem Value-at-Risk gezeigt. Dabei werden nicht nur die Copulas, sondern auch die Randverteilungen der einzelnen Vermögenswerte eine Rolle spielen. Es wird ein parametrischer Ansatz verwendet. Dazu werden Verfahren vorgestellt, mit denen die Parameter der benutzen Copulas und Randverteilungen geschätzt werden können. Für die Schätzungen wird das Statistikprogramm R verwendet. Es werden Befehle und Programmcodes vorgestellt um die vollständige Anwendung in R darzustellen. Die zur Schätzung des Value-at-Risk benötigten Zufallsrenditen werden mit Hilfe der durch die Copula vorgegebenen Abhängigkeitsstruktur mit Berücksichtigung der Randverteilungen erzeugt.



Körner, Ina;
Orthogonalreihenschätzer. - 74 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2011

Orthogonalreihenschätzer werden verwendet um verauschte Funktionen (Regressionsmodell) oder Wahrscheinlichkeitsdichte von einen gegebenen Satz an Zufallszahlen auf eine nichtparametrische Art zu schätzen. Deren Erwartungstreue und Konsistenz wird gezeigt. Die optimale Anzahl an Orthogonalfunktionen, der sogenannte Glättungsparameter, hängt von der Funktion oder Dichte ab, welche geschätzt werden soll. Dieser Parameter kann durch Verwendung von Kriterien bestimmt werden, welche ebenfalls in dieser Arbeit behandelt werden. Beispiele demonstrieren Schätzungen mit verschiedenen Basen, Glättungsparamtern, sowie Kriterien. Das verwendete Code-Paket wurde für MATLAB geschrieben und ist dieser Arbeit angehangen. Es enthält Schätzer, Kriterien und Orthonormalsysteme, welche alle in dieser Arbeit vorgestellt wurden. Weiterhin wird die Verwandtschaft zwischen Orthogonalreihenschätzern und Kernschätzern gezeigt.



Beck, Matthias;
Konfidenzmengen für Shortfall Constraints. - 33 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2011

Die Behandlung des Themas "Konfidenzmengen für Shortfall Constraints" stellt eine Verbindung zwischen der stochastischen Optimierung und deren wirtschaftlicher Anwendung dar. Dazu betrachte ich eine in der Portolio-Optimierung auftretende Nebenbedingung zur Risikoregulierung, die Shortfall Constraint genannt wird. Im ersten Teil meiner Arbeit beschreibe ich ein Vorgehen zur Herleitung von Konfidenzmengen für allgemeine Restriktionsmengen. Im zweiten Teil gehe ich näher auf die Shortfall-Restriktionsmenge ein und wende die Theorie an, um zu einem vorgegebenen Stichprobenumfang eine Konfidenzmenge zu bestimmen.