http://www.tu-ilmenau.de

Logo TU Ilmenau


Arbeitsgruppe Stochastik



Foto des Ansprechpartners
Ansprechpartner

Prof. Dr. rer. nat. Thomas Hotz

Fachgebietsleiter

Telefon +49 3677 69 3627

E-Mail senden


Ihre Position

INHALTE

Abschlussarbeiten

Anzahl der Treffer: 28
Erstellt: Mon, 16 Jul 2018 23:06:17 +0200 in 0.2293 sec


Krämer, Alexander
General Chaos Expansion für reellwertige Zufallsvariablen. - Ilmenau. - 55 Seiten
Technische Universität Ilmenau, Bachelorarbeit, 2018

In dieser Arbeit wird das Problem, für eine gewisse Zufallsgröße X mit bekannter Verteilung eine unbekannte Funktion f zu approximieren, wobei f(X) quadratisch integrierbar ist. Dazu wird ausgenutzt, dass der Raum solcher Funktionen ein Hilbertraum ist, sodass f in eine Fourierreihe entwickelt werden kann, falls dieser ein bekanntes vollständiges und abzählbares Orthonormalsystem besitzt. Dieses Verfahren heißt Chaos Expansion. Es wird nachgewiesen, dass zu jeder Verteilung von X ein vollständiges abzählbares Orthonormalsystem existiert. Ferner wird ein Algorithmus beschrieben, mit dem ein solches Orthonormalsystem konstruiert werden kann. Dabei wird auf verschiedene Methoden zurückgegriffen, sowohl auf die eher klassische Polynomial Chaos Expansion als auch auf eine selbst erarbeitete, die auf Transformation basiert, speziell mit der Verteilungsfunktion von X. Außerdem müssen die Koeffizienten zur Reihenentwicklung berechnet oder zumindest approximiert werden, wobei Schwierigkeiten auftreten, da f nicht explizit bekannt ist. Es wird ein Kriterium für eine hinreichende Approximation angegeben und beschrieben, wie - vorausgesetzt die Auswertung von f(x) ist für jedes reelle x möglich - bekannte numerische Verfahren genutzt oder auch adaptiert werden können, um dieses Kriterium zu erfüllen. Schließlich wird noch ein mögliches Konzept zur Beurteilung der Approximationsgenauigkeit bei Verwendung einer gewissen Partialsumme der Fourierreihe vorgeschlagen.


http://www.gbv.de/dms/ilmenau/abs/1018818871kraem.txt
Mendez, Thomas
Konfidenzbereiche zur optimalen Anpassung von Versicherungsverträgen. - Ilmenau. - 42 Seiten
Technische Universität Ilmenau, Masterarbeit, 2018

In der Versicherungsbranche werden mit dem Modell der logistischen Regression vertragsindividuelle Stornowahrscheinlichkeiten in Abhängigkeit von Beitragsanpassungen geschätzt. Diese werden im Anschluss genutzt, um den erwarteten Gewinn zu Optimieren. Dabei wird zunächst nicht berücksichtigt, dass der im Modell geschätzte Parameter und damit auch der optimierte Gewinn durch einen Konfidenzbereich zu relativieren ist. In dieser Arbeit zeigen wir zunächst die asymptotischen Eigenschaften des Maximum-Likelihood-Schätzers in dem Modell der logistischen Regression, um anschließend für den wahren Parameter einen asymptotischen Konfidenzellipsoid anzugeben. Diesen nutzen wir, um für jede zweifach stetig differenzierbare Funktion mit beschränkter Hesse-Matrix einen uns in der Literatur bisher nicht bekannten asymptotischen Konfidenzbereich herzuleiten. Dieses Ergebnis wird abschließend in einer Fallstudie veranschaulicht.


http://www.gbv.de/dms/ilmenau/abs/1015728871mende.txt
Heyder, Stefan
Kalman-Filter auf Lie-Gruppen. - Ilmenau. - 62 Seiten
Technische Universität Ilmenau, Masterarbeit, 2018

In dieser Arbeit formulieren wir, motiviert durch das Problem der Korrektur der Kopfbewegung in der Magnetoenzephalographie, Kalman-Filter auf Mannigfaltigkeit und Lie-Gruppen. Auf Lie-Gruppen erhalten wir unter Anwendung von verschiedenen Approximationen der Baker-Campbell-Hausdorff-Formel zwei Algorithmen. In Simulationen testen wir die so gewonnen Verfahren anhand typischer Bewegungsmuster und erzielen dabei gute Rekonstruktionen. Noch ist nicht klar welcher der beiden Algorithmen bessere Ergebnisse erzeugt.


http://www.gbv.de/dms/ilmenau/abs/1013853725heyde.txt
Henneberg, Jessica
Universale Konfidenzbänder im Fixed-Design-Modell. - 53 Seiten
Technische Universität Ilmenau, Masterarbeit, 2016

Die Regressionsschätzung ist ein wichtiger Teil der Statistik. Hierbei werden Abhängigkeiten zwischen verschiedenen Größen genauer untersucht. In einem Regressionsmodell, dem sogenannten Fixed-Design-Modell, werden zu festen Eingabewerten zufällig gestörte Daten einer Funktion beobachtet. Ziel ist es nun, die unbekannte Funktion anhand dieser Datenpaare zu schätzen. In der vorliegenden Arbeit wurde dazu der Priestley-Chao-Schätzer und der Gasser-Müller-Schätzer verwendet. Für solche Schätzer ist außerdem von Interesse, wie weit die geschätzte Funktion von der unbekannten Funktion abweicht. Hierzu werden Konfidenzbänder betrachtet. Das heißt, es wird ein möglichst kleines Band um die geschätzte Funktion gesucht, welches die unbekannte Funktion mit einer vorgegebenen Wahrscheinlichkeit überdeckt. Dabei soll auf eine Verteilungsannahme sowie auf eine asymptotische Betrachtung verzichtet werden. Ziel dieser Arbeit ist die Bestimmung universaler Konfidenzbänder. Es wird daher für jede feste Stichprobenzahl ein Konfidenzband in Abhängigkeit dieser bestimmt.


http://www.gbv.de/dms/ilmenau/abs/877005230henne.txt
Elbert, Lukas
Die Schätzung des Market Impacts im Wertpapierhandel institutioneller Anleger. - 81 Seiten
Technische Universität Ilmenau, Masterarbeit, 2016

Diese Arbeit untersucht die impliziten Transaktionskosten von Aktientransaktionen institutioneller Investoren wie Pensionskassen, Versorgungswerke und Versicherungen. Die Bestimmung der impliziten Transaktionskosten erfolgt durch die Kennzahl Market Impact, die die prozentuale Abweichung des Ausführungspreises von einer Benchmark misst. Zur Untersuchung des Market Impacts werden circa 60.000 Transaktionen deutscher Großinvestoren mittels linearer Regressionsmodelle betrachtet und analysiert. Dabei zeigt sich, dass die impliziten Transaktionskosten signifikant von vielen Variablen, durch die sich eine Transaktion charakterisiert, beeinflusst werden. Diese Variablen werden durch die Modelle und Schätzungen ermittelt, beschrieben und mit der vorhandenen Literatur verglichen. Zusätzlich erfolgt eine Identifizierung neuer Kenngrößen, die den Market Impact beeinflussen. Darunter fallen unter anderem ein relativer Liquiditätsfaktor und das Nacht-Momentum. Weiterhin werden das Akaike- und das Bayessche Informationskriterium zur Modellwahl für die Regressionen angewendet und beschrieben. Zudem wird ein Broker identifiziert, für den sich der Market Impact vergleichsweise gut schätzen lässt. Anschließend erfolgen weitere mathematische Modellierungen des Market Impacts, um sich den impliziten Transaktionskosten weiter theoretisch zu nähern.


http://www.gbv.de/dms/ilmenau/abs/872816397elber.txt
Semper, Sebastian
Bounds for the coherence of Khatri-Rao-products and Vandermonde matrices. - 80 S.
Ilmenau : Techn. Univ., Masterarbeit, 2015

Diese Arbeit handelt von einem kleinen Teil des weiten Feldes Compressed Sensing, welches heutzutage eine große Rolle in der Signal- und Bildverarbeitung spielt. Diese Arbeit besteht aus fünf Kapiteln. Das erste Kapitel erläutert einige grundlegende Begriffe im Zusammenhang mit Compressed Sensing. Unter anderem werden die Begriffe Sparsity, Kohärenz und der Kruskal-Rang eingeführt. Darüber hinaus wird das Vorgehen bei Sparsity Order Estimation beschrieben. Dies dient als Motivation im zweiten Kapitel zunächst das allgemeine Packungsproblem zu erläutern. Hier wird ein bekanntes Resultat für die n-dimensionale Sphäre auf einen projektiven Raum übertragen, welches es uns ermöglicht Schranken für die Packungszahlen von Matrizen mit Rang 1 herzuleiten. Dies ermöglicht die Ableitung von Schranken für die Kohärenz von Khatri-Rao-Produkten, welche ein zentrales Ergebnis dieser Arbeit darstellen. Das dritte Kapitel dreht sich um das Problem, wie man explizit Matrizen mit niedriger Kohärenz konstruieren kann, wobei reell- und komplexwertige Matrizen zum Tragen kommen. Wir stellen Strategien zur Konstruktion von beliebigen Matrizen, Khatri-Rao-Produkten und Vandermonde Matrizen vor. Der Algorithmus für letztere zieht auch untere und obere Köhärenzschranken nach sich. Kapitel vier illustriert einige numerische Resultate für die Schranken und Algorithmen, welche vorher hergeleitet wurden. Wann immer möglich werden numerische Resultate mit theoretischen verglichen. Das letzte Kapitel gibt eine kurze Zusammenfassung der Arbeit und zeigt einige Bereiche auf, welche noch offene Fragen beinhalten.


http://www.gbv.de/dms/ilmenau/abs/837290228sempe.txt
Schneider, Daniel
On confidence sets in multiobjective optimization. - 41 S.
Ilmenau : Techn. Univ., Masterarbeit, 2014

Es gibt viele multikriterielle Optimierungsprobleme in denen verschiedene Größen unbekannt sind und daher geschätzt werden müssen. Solche Schätzungen liefern eine Folge von Ersatzproblemen. Daher wäre es nützlich die Qualität dieser Probleme in Bezug auf die zulässige Menge, die effiziente Menge und die zugehörige Lösungsmenge zu kennen. Das Ziel dieser Arbeit ist die Herleitung geeigneter quantitativer Aussagen zur Konvergenz der Mengenfolgen die durch das Lösen der Ersatzprobleme entstehen. Weiterhin wird gezeigt wie diese Aussagen dazu benutzt werden können, um Konfidenzmengen zu erhalten.


http://www.gbv.de/dms/ilmenau/abs/786788186schne.txt
Beck, Matthias
Dichteschätzungen mit Epi-Splines. - 108 S.
Ilmenau : Techn. Univ., Masterarbeit, 2014

Die Masterarbeit befasst sich mit einer neuartigen Methode innerhalb der nichtparametrischen Dichteschätzung, die auf sogenannten Epi-Splines beruht. Zunächst geht es in der Arbeit um die Aufbereitung eines Artikels von Johannes O. Royset und Roger J-B Wets zur Schätzung eindimensionaler Dichten mittels exponentieller Epi-Splines. Dieser Ansatz wird schließlich in der Arbeit auf den zweidimensionalen Fall erweitert und es wird dabei das theoretische Fundament zur Schätzung bivariater Dichtefunktionen gelegt. Hierbei wird unter anderem eine Konsistenz-Aussage der entstehenden Dichteschätzer für eine spezielle Klasse von Dichten hergeleitet. Empirische Studien, die vor allem für den eindimensionalen Fall durchgeführt wurden, bildeten die Grundlage, um sowohl mögliche Potentiale als auch Schwachstellen des Schätzverfahrens aufzudecken.


http://www.gbv.de/dms/ilmenau/abs/786294973beck.txt
Heilmann, Gerrit
Empirische Likelihood-Quotienten-Konfidenzintervalle für Funktionale der Verteilungsfunktionen. - 36 S.
Ilmenau : Techn. Univ., Bachelor-Arbeit, 2013

In dieser Arbeit geht es darum, asymptotische Konfidenzintervalle bereitzustellen, dafür wird der Artikel "Empirical likelihood ratio confidence intervals for a single functional" von Art B. Owen aufgearbeitet. Die Beweise, die im Artikel nur angedeutet werden, werden in dieser Arbeit tiefgründiger vollzogen, so dass der Leser diesen besser folgen kann. Außerdem sollen die Simulationen, die der Autor dieses Artikels durchgeführt hat, anhand eigener eingeschätzt werden.


Seeger, Stefan
Kerndichteschätzer im Kontext universaler Konfidenz. - 127 S.
Ilmenau : Techn. Univ., Masterarbeit, 2013

Die Masterarbeit befasst sich mit einer nichtparametrischen Variante der Dichteschätzung, den Kerndichteschätzern. Im Mittelpunkt stehen gleichmäßige und punktweise Approximationen der unbekannten Dichte in Wahrscheinlichkeit durch einen Kerndichteschätzer. Diese Approximationen bilden die Grundlage zur Bestimmung von universalen Konfidenzmengen. Im Fall punktweiser Approximationen werden die resultierenden universalen Konfidenzmengen mit bekannten asymptotischen Aussagen verglichen. Der Schwerpunkt liegt jedoch auf der Bestimmung von Konfidenzmengen für obere Niveaumengen der unbekannten Dichte, welche in der explorativen Statistik eine wesentliche Rolle spielen. Die benötigten gleichmäßigen Approximationen der Dichte in Wahrscheinlichkeit liegen Arbeiten von Frau Professor Vogel und Frau Dünnbier vor. Diese Möglichkeiten werden in der Arbeit aufgegriffen und abgeändert. Die Voraussetzungen an die unbekannte Dichte werden abgeschwächt und es wird gezeigt, dass die Hölder- Stetigkeit der Dichte hinreichend ist, um Approximationen der Dichte in Wahrscheinlichkeit zu erhalten. Basierend auf der Definition geeigneter multivariater Kernfunktionen wird eine Abschätzung des gleichmäßigen Bias für hinreichend glatte Dichten unter Berücksichtigung einer allgemeineren Bandbreitenmatrix angegeben, welche ebenfalls in die Approximation der Dichte in Wahrscheinlichkeit einfließt. Es wird gezeigt, dass die Angabe der universalen Konfidenzmengen für obere Niveaumengen der Dichte über die Bestimmung von oberen Niveaumengen des Kerndichteschätzers zu realisieren ist. Auf Grundlage dieser Aussage und der fast sicheren Hölder- Stetigkeit des Kerndichteschätzers werden allgemeine multivariate Algorithmen vorgeschlagen und in der Statistiksoftware R umgesetzt. Die Algorithmen ermöglichen eine äußere und innere Approximation der oberen Niveaumengen des realisierten Kerndichteschätzers. Es wird gezeigt, dass sich die fast sicher Hölder- Stetigkeit des Kerndichteschätzers unter bestimmten Voraussetzungen an die unbekannte Dichte abschwächen lässt und so eine verbesserte Laufzeit der Algorithmen zu erreichen ist. Insbesondere für uni- und bivariate Kerndichteschätzer bilden die vorgeschlagenen Algorithmen eine erste Grundlage die oberen Niveaumengen des Kerndichteschätzers auch ohne weitere Strukturaussagen, wie die Konvexität oder Sternförmigkeit der Niveaumengen, zu bestimmen.


http://www.gbv.de/dms/ilmenau/abs/736411461seege.txt
Schäfer, Lukas Matthias
Konfidenzmengen für multivariate, stetige Dichten und univariate Dichten mit Unstetigkeitsstellen auf der Basis von Kernschätzern. - 33 S.
Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

In der Arbeit werden für multivariate Dichtefunktionen optimale Bandbreiten und Kernfunktionen bez. einer gleichm. Approximation der Dichte in Wahrscheinlichkeit abgeleitet und diese in einer Computersimulation verwendet. Des Weiteren wird eine gleichm. Approximation der Dichte in Wahrscheinlichkeit für Dichten mit einer Unstetigkeitsstelle und modifizierte Kerndichteschätzer hergeleitet.


Schneider, Daniel
Konfidenzintervalle für Value-at-Risk und Average Value-at-Risk. - 33 S.
Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

In dieser Arbeit werden Konfidenzintervalle für die Risikomaße Value-at-Risk und Average Value-at-Risk abgeleitet. Dies geschieht jeweils unter Benutzung der empirischen Verteilungsfunktion und unter Verwendung von Kerndichteschätzern. Abschließend werden die theoretischen Ergebnisse in einer Computersimulation umgesetzt.


Boldt, Sebastian
Schätzung des Value-at-Risk mit Hilfe elliptischer Copulas. - 121 S.
Ilmenau : Techn. Univ., Diplomarbeit, 2011

Die Finanzmärkte haben sich in jüngster Zeit rasant entwickelt. Ein wichtiger Aspekt beim Halten eines Portfolios besteht deshalb darin, Abhängigkeiten und Risiken adäquat zu modellieren. Die seit Jahrzehnten benutzte Normalverteilungsannahme mit dem Korrelationskoeffizienten nach Bravais-Pearson erweist sich durch immer neue statistische Untersuchungen als dafür ungeeignet. Für ein Portfolio werden gemeinsame extreme Ereignisse durch die mehrdimensionale Normalverteilung nur unzureichend erfasst. Ein Standardmaß zur Bestimmung des Marktrisikos ist der Value-at-Risk. Dabei wird eine Wahrscheinlichkeit vorgegeben und der Wert des Value-at-Risk bestimmt. Beim Value-at-Risk handelt es sich einfach um ein Quantil der vorgegebenen Wahrscheinlichkeit der Verteilung einer risikobehafteten Anlage. Für die Modellierung des Value-at-Risk werden elliptische Copulas verwendet. Copulafunktionen stellen ein allgemeines Konzept zur Modellierung von Abhängigkeiten dar. Die Copula soll die eindimensionalen Randverteilungen zu einer gemeinsamen, mehrdimensionalen Verteilungsfunktion koppeln. Dabei trägt die Copula die ganze Abhängigkeitsstruktur in sich. Für stetige mehrdimensionale Verteilungen können durch die Copula die eindimensionalen Randverteilungen und die mehrdimensionale Abhängigkeitsstruktur separiert werden. Das Hauptaugenmerk wird auf der Gauß- und der t-Copula liegen. Für diese beiden Copulas wird die praktische Anwendung auf reale Finanzmarktdaten im Rahmen der Risikomessung mit dem Value-at-Risk gezeigt. Dabei werden nicht nur die Copulas, sondern auch die Randverteilungen der einzelnen Vermögenswerte eine Rolle spielen. Es wird ein parametrischer Ansatz verwendet. Dazu werden Verfahren vorgestellt, mit denen die Parameter der benutzen Copulas und Randverteilungen geschätzt werden können. Für die Schätzungen wird das Statistikprogramm R verwendet. Es werden Befehle und Programmcodes vorgestellt um die vollständige Anwendung in R darzustellen. Die zur Schätzung des Value-at-Risk benötigten Zufallsrenditen werden mit Hilfe der durch die Copula vorgegebenen Abhängigkeitsstruktur mit Berücksichtigung der Randverteilungen erzeugt.


http://www.gbv.de/dms/ilmenau/abs/672958457boldt.txt
Körner, Ina
Orthogonalreihenschätzer. - 74 S.
Ilmenau : Techn. Univ., Diplomarbeit, 2011

Orthogonalreihenschätzer werden verwendet um verauschte Funktionen (Regressionsmodell) oder Wahrscheinlichkeitsdichte von einen gegebenen Satz an Zufallszahlen auf eine nichtparametrische Art zu schätzen. Deren Erwartungstreue und Konsistenz wird gezeigt. Die optimale Anzahl an Orthogonalfunktionen, der sogenannte Glättungsparameter, hängt von der Funktion oder Dichte ab, welche geschätzt werden soll. Dieser Parameter kann durch Verwendung von Kriterien bestimmt werden, welche ebenfalls in dieser Arbeit behandelt werden. Beispiele demonstrieren Schätzungen mit verschiedenen Basen, Glättungsparamtern, sowie Kriterien. Das verwendete Code-Paket wurde für MATLAB geschrieben und ist dieser Arbeit angehangen. Es enthält Schätzer, Kriterien und Orthonormalsysteme, welche alle in dieser Arbeit vorgestellt wurden. Weiterhin wird die Verwandtschaft zwischen Orthogonalreihenschätzern und Kernschätzern gezeigt.


http://www.gbv.de/dms/ilmenau/abs/665312849koern.txt
Beck, Matthias
Konfidenzmengen für Shortfall Constraints. - 33 S.
Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

Die Behandlung des Themas "Konfidenzmengen für Shortfall Constraints" stellt eine Verbindung zwischen der stochastischen Optimierung und deren wirtschaftlicher Anwendung dar. Dazu betrachte ich eine in der Portolio-Optimierung auftretende Nebenbedingung zur Risikoregulierung, die Shortfall Constraint genannt wird. Im ersten Teil meiner Arbeit beschreibe ich ein Vorgehen zur Herleitung von Konfidenzmengen für allgemeine Restriktionsmengen. Im zweiten Teil gehe ich näher auf die Shortfall-Restriktionsmenge ein und wende die Theorie an, um zu einem vorgegebenen Stichprobenumfang eine Konfidenzmenge zu bestimmen.


Krauße, Claudia
Dichtefunktionsbestimmung zur Korngrößenverteilung im Zement. - 86 S.
Ilmenau : Techn. Univ., Diplomarbeit, 2010

Diese Arbeit dient der Unterstützung des DFG-geförderten Forschungsprojekts "Dynamische Korngrößenmessungen zur Verfolgung des Hydratationsverlaufs von Zementen im frühen Stadium". Schwerpunkt der Arbeit ist die Ermittlung einer Dichtefunktion, welche die gegebenen Messdaten hinreichend genau wiedergibt. Hierbei werden bereits bekannte Methoden aus der Verfahrenstechnik (Potenzverteilung, RRSB-Verteilung und Logarithmische Normalverteilung) untersucht und auch andere bisher nicht getestete Verteilungen (Weibullverteilung, gestutzte Verteilung, Mischverteilung) auf ihre Eignung geprüft. Für den Zeitpunkt t=0 Minuten ergibt sich keine zufriedenstellende Approximation der Messwerte. Für Zeiten größer t=0 Minuten können jedoch die Messwerte mittels einer vierkomponentigen Mischverteilung aus logarithmischen Normalverteilungen hinreichend genau angenähert werden.


http://www.gbv.de/dms/ilmenau/abs/633172626kraus.txt
Tack, Claudia
Angewandte Credibility-Verfahren in der Versicherungswirtschaft. - 171 S.
Ilmenau : Techn. Univ., Diplomarbeit, 2010

Meine Diplomarbeit ist eine Übersetztung vom Englischen ins Deutsche von vier Kapiteln der gleichnamigen Monographie von R. Kaas, D. R. Dannenburg und M. J. Goovaerts. Dabei habe ich zusätzlich Beweise im Text ausgeführt und die zu jedem Kapitel gestellten Aufgaben gelöst. In der Praxis muss oft eine Prämie für eine Gruppe von Versicherungsverträgen bestimmt werden, bei der nur eine begrenzte Erfahrung über die einzelne Gruppe von Verträgen verfügbar ist, aber dafür viel Erfahrung über andere, mehr oder weniger ähnliche, Verträge. Um daraus eine optimale Credibility-Prämie zu bekommen, betrachten wir ein gewichtetes Mittel z_jX_j+(1-z_j)X mit dem Gesamtmittelwert X aller Daten (Kollektivprämie), den Schadenmittelwerten X_j für jede Gruppe j als Individualprämien und dem Credibility-Faktor z_j , der die Glaubwürdigkeit der individuellen Erfahrung von Gruppe j beschreibt. Je nach Voraussetzungen gibt es Modelle, wie das balanzierte Bühlmann- oder Bühlmann-Straub-Modell, um den homogenen und inhomogenen Credibility-Schätzer zu bestimmen. Ebenso wird ein allgemeines Modell mit invertierter Kovarianzmatrix betrachtet, aus dem sich die speziellen Modelle herleiten lassen. Zum Schluss wird der Fall untersucht, wenn der Schätzer nicht als linear vorausgesetzt ist.


http://www.gbv.de/dms/ilmenau/abs/618587551tack.txt
Pöppich, Emanuel
Evolutionäre Algorithmen zur Lösung von restringierten Vektoroptimierungsproblemen. - 46 S.
Ilmenau : Techn. Univ., Diplomarbeit, 2009

Restringierte Vektoroptimierungsprobleme sind Probleme, die mehrere Zielfunktionen und Restriktionen besitzen. Sie treten in verschiedenen Bereichen wie z.B. das Finanz- und Ingenieurwesen auf. Um diese Art von Problemen zu lösen gibt es mehrere Verfahren, wobei in dieser Arbeit speziell die evolutionären Algorithmen untersucht wurden. Zunächst wird Theorie zu Vektoroptimierungsproblemen erläutert. Anschließend werden evolutionäre Algorithmen und deren Berücksichtigung von Restriktionen vorgestellt. Zuletzt werden Beispiele gerechnet.


http://www.gbv.de/dms/ilmenau/abs/607883596poepp.txt
Seeger, Stefan
Statistische Analysen der Festbetoneigenschaften bei der Produktion von Betonsteinen. - 118 S.
Ilmenau : Techn. Univ., Bachelor-Arbeit, 2009

Die vorliegende Arbeit befasst sich mit statistischen Analysen der Festbetoneigenschaften (Feucht- und Trockenmasse, Dichte, Druckfestigkeit und Steinhöhe) von Betonsteine. Im Rahmen der Theorie des Linearen Modells der mathematischen Statistik wird ein varianzanalytisches Modell vorgeschlagen. In diesem Modell werden mögliche Mittelwerteinflüsse auf die Festbetonmerkmale, welche durch die Zeilen- und Spaltenlage der Steine innerhalb der Produktionsform sowie die Zugehörigkeit der Betonsteine zu verschiedenen Produktionszyklen verursacht werden, geprüft. Unter Berücksichtigung möglicher Wechselwirkungen werden die benötigten Nebenbedingungen mit Hilfe einer Reparametrisierungsmatrix angegeben. Es zeigt sich, dass sich die Nebenbedingungen direkt in die Normalengleichungen des Modells einbeziehen lassen. Dieses Vorgehen ermöglicht eine vereinfachte Bestimmung des MQ-Schätzers. Des Weiteren lässt sich der Stichprobenvektor orthogonal zerlegen, was den Beweis der Streuungszerlegung und der Kovariationszerlegung sowie die Angabe der relevanten Hypothesenräume mit ihren Dimensionen ermöglicht. Mit Hilfe der Streuungszerlegung werden für die Produktion relevante Streuparameter angegeben. Diese relativen Streuparameter ermöglichen eine Bewertung der Produktion hinsichtlich der Homogenität der Festbetonmerkmale. Des Weiteren eignen sich diese Parameter zur Bewertung von Änderungen im Produktionsablauf. Mit Hilfe der Kovariationszerlegung und der Streuungszerlegung wird eine additive Zerlegung des empirischen Korrelationskoeffizienten zwischen zwei Merkmalen, welche durch das gleiche varianzanalytische Modell dargestellt werden, gezeigt. Diese Zerlegung ermöglicht eine differenziertere Betrachtungsweise der Korrelationsstruktur der Festbetonmerkmale. Die Analysen univariater Daten, beginnend mit der Deskription über die Exploration bis zur Anwendung inferenzstatistischen Verfahren, können durch eine in R entwickelte Funktion (univariat) durchgeführt werden. Die Lage der Steine innerhalb der Produktionsform und innerhalb eines Produktionszyklus übt einen signifikanten Mittelwerteinfluss auf die Festbetonmerkmale der Steine aus. Des Weiteren führen diese Einflüsse dazu, dass der empirische Korrelationskoeffizient zwischen zwei Merkmalen als Schätzung für die tatsächliche Korrelation nicht geeignet ist.


Freytag, Sebastian
Eine Einführung in Copulas. - 336 S.
Ilmenau : Techn. Univ., Diplomarbeit, 2009

Übersetzung der gleichnamigen Monographie von R. B. Nelsen, Ausarbeitung angedeuteter Beweise und Lösung ausgewählter Aufgaben.


http://www.gbv.de/dms/ilmenau/abs/605921482freyt.txt
Wang, Jingjing
Optimale Raten bei Modalwertschätzung von nichtparametrischen Regressionsmodellen im glatten Fall des Fixed Design Modells. - 55 S.
Ilmenau : Techn. Univ., Diplomarbeit, 2009

In dieser Arbeit wird die Schätzung des Modalwertes einer nichtparametrischen Regression behandelt. Der Modalwert wird im Vergleich zu dem arithmetischen Mittel oder dem Median von fehlerhaften Daten nicht so stark verzerrt. Weiterhin wird gezeigt, unter welchen Voraussetzungen die normalerweise verwendeten Kernschätzer wie der Gasser-Müller-, Nadaraya-Watson und der Priestley-Chao-Kernschätzer die gefundenen Raten erzielen können.


http://www.gbv.de/dms/ilmenau/abs/604994745wang.txt
Reinke, Stefanie
Schätzung eines Graustufenbildes mit Methoden der multivariaten nichtparametrischen Regression. - 68 S.
Ilmenau : Techn. Univ., Diplomarbeit, 2009

Ein typisches Problem der Bildanalyse ist das Rekonstruieren eines Bildes aus verrauschten Daten. Thema dieser Diplomarbeit ist die Schätzung eines Graustufenbildes mit Methoden der multivariaten, nichtparametrischen Regression. Neben der Darstellung eines Modells und Schätzers, liegt der Fokus dieser Arbeit auf der detaillierten Herleitung einer asymptotischen oberen Schranke des Schätzers. Es kommt ein Zwei-Schritt-Schätzer zum Einsatz, dabei folgt nach einer einfachen Klassifikation, die Anwendung eines lokalen Polynom-Schätzers im Mehrdimensionalen.


http://www.gbv.de/dms/ilmenau/abs/595134041reink.txt
Christiani, Daniela
Vergleich der Behandlung von Mehr-/Mindermengen im analytischen und synthetischen Verfahren anhand von Daten eines realen Elektrizitätsverteilnetzes. - 90 S.
Ilmenau : Techn. Univ., Diplomarbeit, 2008

Zielstellung dieser Arbeit ist es, die Frage zu klären, welches von 2 Verfahren für die Belieferung und Abrechnung von Strom für Kleinkunden aus Sicht eines Verteilnetzbetreibers besser geeignet ist. Durch die Erläuterung des Netznutzungsmodells in der Einleitung werden zunächst wichtige Zusammenhänge am Strommarkt deutlich. Im Anschluss werden die einzelnen Verfahren vorgestellt und mit Daten eines speziellen Geschäftsjahres in Excel durchgerechnet. Im 3. Kapitel wurden verschiedene Situationen und die Auswirkungen auf beide Verfahren betrachtet. Dabei ist deutlich geworden, dass im synthetischen Verfahren das Risiko besteht, dass Kosten, die durch Prognoseungenauigkeiten entstehen, nicht genau auf die Verursacher umgewälzt werden. Dieses Risiko tritt im analytischen Verfahren nicht ein. Durch verschiedene Fallbetrachtungen sind die Fälle herausgearbeitet worden, in denen für den Verteilnetzbetreiber Gewinne oder Verluste eintreten. Die Größenordnung der Verluste und Gewinne war letztendlich ausschlaggebend, dass sich das analytische Verfahren aus Sicht des Verteilnetzbetreibers als das bessere herausgestellt hat.


http://www.gbv.de/dms/ilmenau/abs/570590817chris.txt
Dünnbier, Anne
Konfidenzintervalle für Modalwerte. - 44 S.
Ilmenau : Techn. Univ., Diplomarbeit, 2008

Die Diplomarbeit befasst sich mit universalen Konfidenzintervallen für den Modalwert einer eindimensionalen stetigen Verteilung. Diese Konfidenzintervalle werden bestimmt als geeignete Umgebungen der Maximalstellen von Dichteschätzern. Die Methode beruht auf allgemeinen Resultaten von G. Pflug und S. Vogel über Konfidenzmengen für Lösungen von Entscheidungsproblemen und liefert für jeden Stichprobenumfang Intervalle, die den Modalwert mit einer vorgegebenen Genauigkeit überdecken.- Zunächst werden die Aussagen bewiesen, auf denen die Methode aufbaut. Anschließend werden die Voraussetzungen dieser Aussagen für Modalwertschätzer überprüft, die auf Kernschätzern für die Dichtefunktion beruhen. Zum Nachweis der benötigten Konvergenzraten und "Tail-Behavior-Funktionen" für die gleichmäßige Konvergenz in Wahrscheinlichkeit der Dichteschätzer werden Maßkonzentrationsaussagen eingesetzt.


http://www.gbv.de/dms/ilmenau/abs/568252926duenn.txt
Vollrath, Oliver
Schätzung in scheinbar unverbundenen Regressionsmodellen unter besonderer Berücksichtigung orthogonaler Regressoren. - 160 S.
Ilmenau : Techn. Univ., Diplomarbeit, 2007

In meiner Diplomarbeit geht es um die Schätzung in Scheinbar unverbundenen Regressionsmodellen (SUR). Nach einer Einführung in die SUR- Modelle mit M Regressionsgleichungen beschäftigen wir uns mit dem Problem, des effizienten Schätzens der Regressionskoeffizienten bei unbekannter Kovarianzmatrix. Dazu wird zunächst ein allgemeiner SUR- bzw. FGLS- Schätzer betrachtet und im Anschluss zwei spezielle Ausprägungen dieses Schätzers definiert. Zum einen der SUR-Schätzer mit Restriktionen, kurz SURR und zum anderen jener ohne Restriktionen genannt SUUR. - Nach diesen einführenden Betrachtungen reduzieren wir unser SUR Modell auf ein SUR- Modell mit zwei Gleichungen und nennen es SUR2. Es werden in SUR2 allgemeine SUR- bzw. FGLS- Schätzer für die Regressionskoeffizienten hergeleitet und diese Konzepte auf die SUUR und SURR Schätzer übertragen. Alsdann wird das Modell SUR2 weiter vereinfacht werden, d.h. wir untersuchen dann ein Zwei- Gleichungs- SUR Modell mit orthogonalen Regressoren und nennen dieses SUR3. Jenes SUR3 Modell und die Schätzung darin nimmt den Hauptteil der Diplomarbeit ein. Dazu werden in aufwändigen Rechnungen Kovarianzmatrizen der SUUR und SURR-Schätzer im Modell SUR3 hergeleitet. Damit sind Effizienzvergleiche zwischen diesen Schätzern möglich und werden ausführlich diskutiert. Danach wird die Stichprobenverteilung des SUUR- Schätzers im Mittelpunkt stehen. Genauer wird eine Dichtefunktion des zufälligen Schätzfehlers des SUUR Schätzers bestimmt. Es wird sich zeigen, dass diese Dichte bei großen Stichprobenumfängen gegen die Normalverteilung strebt. - Welche Bedeutung SUR- Modelle und SUR-Schätzungen in der Praxis haben, wird zum Ende der Diplomarbeit an einem kleinen Beispiel aus Grunfelds Investitionstheorie illustriert.


http://www.gbv.de/dms/ilmenau/abs/545798523vollr.txt
Mönch, Ines
Asymptotische Eigenschaften von Kernschätzern für die mittlere Ableitung der Regressionsfunktion. - 153 S.
Ilmenau : Techn. Univ., Diplomarbeit, 2007

In der Arbeit wird die Regressionsfunktion betrachtet und deren mittlere Ableitung geschätzt. Für diesen Schätzer wird mit dem mittleren quadratischen Fehler (MSE) eine Fehlerabschätzung und eine Konvergenzrate angegeben. Weiter werden auf Basis des MSE die optimale Bandbreite und die optimale Kernfunktion bestimmt. Im Anschluss erfolgt mit dem Law of demand ein Anwendungsbeispiel.


http://www.gbv.de/dms/ilmenau/abs/537625356moenc.txt
Reinard, Aylin
Vergleich und Modifikation vorhandener Ansätze zum Nachweis asymptotischer Normalität von Modalwertschätzern mehrdimensionaler Dichten. - 144 S.
Ilmenau : Techn. Univ., Diplomarbeit, 2007

Es wird ein Ansatz zum Nachweis asymptotischer Normalität von Modalwertschätzern mehrdimensionaler Dichten eines Artikels vom Autor Samanta ausgearbeitet und - zur Erhaltung der asymptotischen Normlität des Modalwertschätzers - modifiziert. Zwei weitere Ansätze werden vorgestellt und mit dem ersten auf ihre Voraussetzungen und Ergebnisse verglichen.


http://www.gbv.de/dms/ilmenau/abs/532178386reina.txt
Wieczorek, Barbara
Nichtparametrische Kurvenschätzung : Modalwertschätzung für Regressionsfunktionen mit nichtdifferenzierbarer Modalstelle im heteroscedastischen Fixed Design Modell. - 92 S.
Ilmenau : Techn. Univ., Diplomarbeit, 2007

Es wird die nichtparametrische Modalwertschätzung für stetige Regressionsfunktionen mit nichtglatter Modalstelle im heteroscedastischen Fixed Design Modell behandelt. Unter Voraussetzung eines zeilenweise m-abhängigen Dreiecksschemas für Fehlervariablen wird ein Resultat für die Konsistenzordnung fast sicher des Modalwertschätzers erzielt. Im Falle der zeilenweise Unabhängigkeit und unter Voraussetzung der Quasi-Glattheit der Regressionskurve an der Modalstelle kann asymptotische Normalität des Modalwertschätzers erzielt werden.


http://www.gbv.de/dms/ilmenau/abs/525043683wiecz.txt