Studentinnen und Studenten hören eine Vorlesung im Hörsaal, zwei Laptops sind zu sehenTU Ilmenau / Michael Reichel (ari)

Lehre

Unsere Lehrveranstaltungen richten sich sowohl an die Studierenden der Studienrichtung Mathematik als auch an die Studierenden der Studienrichtungen Informatik, Technische Physik sowie der Ingenieur-Studiengänge.

Studienabschlussarbeiten

Anzahl der Treffer: 50
Erstellt: Wed, 17 Apr 2024 23:09:36 +0200 in 0.0777 sec


Heilmann, Gerrit;
Empirische Likelihood-Quotienten-Konfidenzintervalle für Funktionale der Verteilungsfunktionen. - 36 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2013

In dieser Arbeit geht es darum, asymptotische Konfidenzintervalle bereitzustellen, dafür wird der Artikel "Empirical likelihood ratio confidence intervals for a single functional" von Art B. Owen aufgearbeitet. Die Beweise, die im Artikel nur angedeutet werden, werden in dieser Arbeit tiefgründiger vollzogen, so dass der Leser diesen besser folgen kann. Außerdem sollen die Simulationen, die der Autor dieses Artikels durchgeführt hat, anhand eigener eingeschätzt werden.



Seeger, Stefan;
Kerndichteschätzer im Kontext universaler Konfidenz. - 127 S. Ilmenau : Techn. Univ., Masterarbeit, 2013

Die Masterarbeit befasst sich mit einer nichtparametrischen Variante der Dichteschätzung, den Kerndichteschätzern. Im Mittelpunkt stehen gleichmäßige und punktweise Approximationen der unbekannten Dichte in Wahrscheinlichkeit durch einen Kerndichteschätzer. Diese Approximationen bilden die Grundlage zur Bestimmung von universalen Konfidenzmengen. Im Fall punktweiser Approximationen werden die resultierenden universalen Konfidenzmengen mit bekannten asymptotischen Aussagen verglichen. Der Schwerpunkt liegt jedoch auf der Bestimmung von Konfidenzmengen für obere Niveaumengen der unbekannten Dichte, welche in der explorativen Statistik eine wesentliche Rolle spielen. Die benötigten gleichmäßigen Approximationen der Dichte in Wahrscheinlichkeit liegen Arbeiten von Frau Professor Vogel und Frau Dünnbier vor. Diese Möglichkeiten werden in der Arbeit aufgegriffen und abgeändert. Die Voraussetzungen an die unbekannte Dichte werden abgeschwächt und es wird gezeigt, dass die Hölder- Stetigkeit der Dichte hinreichend ist, um Approximationen der Dichte in Wahrscheinlichkeit zu erhalten. Basierend auf der Definition geeigneter multivariater Kernfunktionen wird eine Abschätzung des gleichmäßigen Bias für hinreichend glatte Dichten unter Berücksichtigung einer allgemeineren Bandbreitenmatrix angegeben, welche ebenfalls in die Approximation der Dichte in Wahrscheinlichkeit einfließt. Es wird gezeigt, dass die Angabe der universalen Konfidenzmengen für obere Niveaumengen der Dichte über die Bestimmung von oberen Niveaumengen des Kerndichteschätzers zu realisieren ist. Auf Grundlage dieser Aussage und der fast sicheren Hölder- Stetigkeit des Kerndichteschätzers werden allgemeine multivariate Algorithmen vorgeschlagen und in der Statistiksoftware R umgesetzt. Die Algorithmen ermöglichen eine äußere und innere Approximation der oberen Niveaumengen des realisierten Kerndichteschätzers. Es wird gezeigt, dass sich die fast sicher Hölder- Stetigkeit des Kerndichteschätzers unter bestimmten Voraussetzungen an die unbekannte Dichte abschwächen lässt und so eine verbesserte Laufzeit der Algorithmen zu erreichen ist. Insbesondere für uni- und bivariate Kerndichteschätzer bilden die vorgeschlagenen Algorithmen eine erste Grundlage die oberen Niveaumengen des Kerndichteschätzers auch ohne weitere Strukturaussagen, wie die Konvexität oder Sternförmigkeit der Niveaumengen, zu bestimmen.



Schäfer, Lukas Matthias;
Konfidenzmengen für multivariate, stetige Dichten und univariate Dichten mit Unstetigkeitsstellen auf der Basis von Kernschätzern. - 33 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

In der Arbeit werden für multivariate Dichtefunktionen optimale Bandbreiten und Kernfunktionen bez. einer gleichm. Approximation der Dichte in Wahrscheinlichkeit abgeleitet und diese in einer Computersimulation verwendet. Des Weiteren wird eine gleichm. Approximation der Dichte in Wahrscheinlichkeit für Dichten mit einer Unstetigkeitsstelle und modifizierte Kerndichteschätzer hergeleitet.



Schneider, Daniel;
Konfidenzintervalle für Value-at-Risk und Average Value-at-Risk. - 33 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

In dieser Arbeit werden Konfidenzintervalle für die Risikomaße Value-at-Risk und Average Value-at-Risk abgeleitet. Dies geschieht jeweils unter Benutzung der empirischen Verteilungsfunktion und unter Verwendung von Kerndichteschätzern. Abschließend werden die theoretischen Ergebnisse in einer Computersimulation umgesetzt.



Boldt, Sebastian;
Schätzung des Value-at-Risk mit Hilfe elliptischer Copulas. - 121 S. Ilmenau : Techn. Univ., Diplomarbeit, 2011

Die Finanzmärkte haben sich in jüngster Zeit rasant entwickelt. Ein wichtiger Aspekt beim Halten eines Portfolios besteht deshalb darin, Abhängigkeiten und Risiken adäquat zu modellieren. Die seit Jahrzehnten benutzte Normalverteilungsannahme mit dem Korrelationskoeffizienten nach Bravais-Pearson erweist sich durch immer neue statistische Untersuchungen als dafür ungeeignet. Für ein Portfolio werden gemeinsame extreme Ereignisse durch die mehrdimensionale Normalverteilung nur unzureichend erfasst. Ein Standardmaß zur Bestimmung des Marktrisikos ist der Value-at-Risk. Dabei wird eine Wahrscheinlichkeit vorgegeben und der Wert des Value-at-Risk bestimmt. Beim Value-at-Risk handelt es sich einfach um ein Quantil der vorgegebenen Wahrscheinlichkeit der Verteilung einer risikobehafteten Anlage. Für die Modellierung des Value-at-Risk werden elliptische Copulas verwendet. Copulafunktionen stellen ein allgemeines Konzept zur Modellierung von Abhängigkeiten dar. Die Copula soll die eindimensionalen Randverteilungen zu einer gemeinsamen, mehrdimensionalen Verteilungsfunktion koppeln. Dabei trägt die Copula die ganze Abhängigkeitsstruktur in sich. Für stetige mehrdimensionale Verteilungen können durch die Copula die eindimensionalen Randverteilungen und die mehrdimensionale Abhängigkeitsstruktur separiert werden. Das Hauptaugenmerk wird auf der Gauß- und der t-Copula liegen. Für diese beiden Copulas wird die praktische Anwendung auf reale Finanzmarktdaten im Rahmen der Risikomessung mit dem Value-at-Risk gezeigt. Dabei werden nicht nur die Copulas, sondern auch die Randverteilungen der einzelnen Vermögenswerte eine Rolle spielen. Es wird ein parametrischer Ansatz verwendet. Dazu werden Verfahren vorgestellt, mit denen die Parameter der benutzen Copulas und Randverteilungen geschätzt werden können. Für die Schätzungen wird das Statistikprogramm R verwendet. Es werden Befehle und Programmcodes vorgestellt um die vollständige Anwendung in R darzustellen. Die zur Schätzung des Value-at-Risk benötigten Zufallsrenditen werden mit Hilfe der durch die Copula vorgegebenen Abhängigkeitsstruktur mit Berücksichtigung der Randverteilungen erzeugt.



Körner, Ina;
Orthogonalreihenschätzer. - 74 S. Ilmenau : Techn. Univ., Diplomarbeit, 2011

Orthogonalreihenschätzer werden verwendet um verauschte Funktionen (Regressionsmodell) oder Wahrscheinlichkeitsdichte von einen gegebenen Satz an Zufallszahlen auf eine nichtparametrische Art zu schätzen. Deren Erwartungstreue und Konsistenz wird gezeigt. Die optimale Anzahl an Orthogonalfunktionen, der sogenannte Glättungsparameter, hängt von der Funktion oder Dichte ab, welche geschätzt werden soll. Dieser Parameter kann durch Verwendung von Kriterien bestimmt werden, welche ebenfalls in dieser Arbeit behandelt werden. Beispiele demonstrieren Schätzungen mit verschiedenen Basen, Glättungsparamtern, sowie Kriterien. Das verwendete Code-Paket wurde für MATLAB geschrieben und ist dieser Arbeit angehangen. Es enthält Schätzer, Kriterien und Orthonormalsysteme, welche alle in dieser Arbeit vorgestellt wurden. Weiterhin wird die Verwandtschaft zwischen Orthogonalreihenschätzern und Kernschätzern gezeigt.



Beck, Matthias;
Konfidenzmengen für Shortfall Constraints. - 33 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

Die Behandlung des Themas "Konfidenzmengen für Shortfall Constraints" stellt eine Verbindung zwischen der stochastischen Optimierung und deren wirtschaftlicher Anwendung dar. Dazu betrachte ich eine in der Portolio-Optimierung auftretende Nebenbedingung zur Risikoregulierung, die Shortfall Constraint genannt wird. Im ersten Teil meiner Arbeit beschreibe ich ein Vorgehen zur Herleitung von Konfidenzmengen für allgemeine Restriktionsmengen. Im zweiten Teil gehe ich näher auf die Shortfall-Restriktionsmenge ein und wende die Theorie an, um zu einem vorgegebenen Stichprobenumfang eine Konfidenzmenge zu bestimmen.



Krauße, Claudia;
Dichtefunktionsbestimmung zur Korngrößenverteilung im Zement. - 86 S. Ilmenau : Techn. Univ., Diplomarbeit, 2010

Diese Arbeit dient der Unterstützung des DFG-geförderten Forschungsprojekts "Dynamische Korngrößenmessungen zur Verfolgung des Hydratationsverlaufs von Zementen im frühen Stadium". Schwerpunkt der Arbeit ist die Ermittlung einer Dichtefunktion, welche die gegebenen Messdaten hinreichend genau wiedergibt. Hierbei werden bereits bekannte Methoden aus der Verfahrenstechnik (Potenzverteilung, RRSB-Verteilung und Logarithmische Normalverteilung) untersucht und auch andere bisher nicht getestete Verteilungen (Weibullverteilung, gestutzte Verteilung, Mischverteilung) auf ihre Eignung geprüft. Für den Zeitpunkt t=0 Minuten ergibt sich keine zufriedenstellende Approximation der Messwerte. Für Zeiten größer t=0 Minuten können jedoch die Messwerte mittels einer vierkomponentigen Mischverteilung aus logarithmischen Normalverteilungen hinreichend genau angenähert werden.



Tack, Claudia;
Angewandte Credibility-Verfahren in der Versicherungswirtschaft. - 171 S. Ilmenau : Techn. Univ., Diplomarbeit, 2010

Meine Diplomarbeit ist eine Übersetztung vom Englischen ins Deutsche von vier Kapiteln der gleichnamigen Monographie von R. Kaas, D. R. Dannenburg und M. J. Goovaerts. Dabei habe ich zusätzlich Beweise im Text ausgeführt und die zu jedem Kapitel gestellten Aufgaben gelöst. In der Praxis muss oft eine Prämie für eine Gruppe von Versicherungsverträgen bestimmt werden, bei der nur eine begrenzte Erfahrung über die einzelne Gruppe von Verträgen verfügbar ist, aber dafür viel Erfahrung über andere, mehr oder weniger ähnliche, Verträge. Um daraus eine optimale Credibility-Prämie zu bekommen, betrachten wir ein gewichtetes Mittel z_jX_j+(1-z_j)X mit dem Gesamtmittelwert X aller Daten (Kollektivprämie), den Schadenmittelwerten X_j für jede Gruppe j als Individualprämien und dem Credibility-Faktor z_j , der die Glaubwürdigkeit der individuellen Erfahrung von Gruppe j beschreibt. Je nach Voraussetzungen gibt es Modelle, wie das balanzierte Bühlmann- oder Bühlmann-Straub-Modell, um den homogenen und inhomogenen Credibility-Schätzer zu bestimmen. Ebenso wird ein allgemeines Modell mit invertierter Kovarianzmatrix betrachtet, aus dem sich die speziellen Modelle herleiten lassen. Zum Schluss wird der Fall untersucht, wenn der Schätzer nicht als linear vorausgesetzt ist.



Pöppich, Emanuel;
Evolutionäre Algorithmen zur Lösung von restringierten Vektoroptimierungsproblemen. - 46 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Restringierte Vektoroptimierungsprobleme sind Probleme, die mehrere Zielfunktionen und Restriktionen besitzen. Sie treten in verschiedenen Bereichen wie z.B. das Finanz- und Ingenieurwesen auf. Um diese Art von Problemen zu lösen gibt es mehrere Verfahren, wobei in dieser Arbeit speziell die evolutionären Algorithmen untersucht wurden. Zunächst wird Theorie zu Vektoroptimierungsproblemen erläutert. Anschließend werden evolutionäre Algorithmen und deren Berücksichtigung von Restriktionen vorgestellt. Zuletzt werden Beispiele gerechnet.