Studentinnen und Studenten hören eine Vorlesung im Hörsaal, zwei Laptops sind zu sehenTU Ilmenau / Michael Reichel (ari)

Lehre

Unsere Lehrveranstaltungen richten sich sowohl an die Studierenden der Studienrichtung Mathematik als auch an die Studierenden der Studienrichtungen Informatik, Technische Physik sowie der Ingenieur-Studiengänge.

Studienabschlussarbeiten

Anzahl der Treffer: 50
Erstellt: Wed, 24 Apr 2024 23:09:29 +0200 in 0.5165 sec


Bernstein, Tobias;
Ein starkes Gesetz der großen Zahlen für Epidemien auf inhomogenen Bevölkerungen. - Ilmenau. - 49 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Wir formulieren und beweisen ein Gesetz der großen Zahlen für ein zeitdiskretes stochastisches SIR-Modell einer Epidemie, welches eine Erweiterung des entsprechenden Modells für homogene Bevölkerungen ist: Nach Ziehen einer potentiell inhomogenen Bevölkerung startet eine Epidemie, wobei die Infektions- und Genesungswahrscheinlichkeiten von dieser zufälligen Bevölkerung abhängen. Das zentrale Ergebnis der Arbeit besagt, dass zu jedem Zeitpunkt die empirischen Maße der aktuell Suszeptiblen, Infizierten und Genesenen punktweise in Wahrscheinlichkeit gegen deterministische Grenzwerte konvergieren, wobei diese Grenzwerte explizit durch Iterationsgleichungen gegeben sind. Wir beweisen dies zunächst für Epidemien mit einer endlichen Anzahl von Typen von Individuen und verwenden solche, um den allgemeinen Fall zu approximieren. Im weiteren Verlauf untersuchen wir die Stetigkeit der Grenzwerte in den Parametern und ihr Verhalten für gegen unendlich konvergierende Zeitpunkte. Zur Illustration unserer Ergebnisse haben wir solche Epidemien auf dem zweidimensionalen Torus simuliert und mit den deterministischen Grenzwerten verglichen.



Geordnete Halbgruppen in der amtlichen Statistik. - Ilmenau. - 47 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2023

Im Rahmen der amtlichen Statistik werden die erhobenen Daten in der Regel in Form von Summen, seien es Anzahlen oder Durchschnittswerte, verarbeitet und veröffentlicht. In dieser Arbeit leiten wir her, dass unter bestimmten Annahmen die Addition die, bis auf isotone Transformationen, einzige Form der Aggregation im Rahmen amtlicher Datenerhebungen ist. Dazu formalisieren wir die Datenzusammenfassung in der amtlichen Statistik und charakterisieren diese mithilfe geordneter Halbgruppen, um deren Ordnungsisomorphie zu den reellen Zahlen mit der Addition nachzuweisen.



Arndt, Cinja;
Robustheit von Schätzern epidemiologischer Parameter gegen Missspezifikationen im Infektiositätsprofil. - Ilmenau. - 41 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

Das Schätzen epidemiologischer Parameter ist ein wichtiges Hilfsmittel zur Beurteilung der aktuellen Situation im Falle einer Epidemie. Ausgehend von der Intuition, dass sich der Wachstumsfaktor auch ohne Kenntnis des Infektiositätsprofils durch das lokale Anfitten einer Exponentialkurve an die Inzidenzen bestimmen ließe, beschäftigen wir uns mit der Reproduktionszahl und davon abgeleiteten Parametern in Hinblick auf Missspezifikationen des Infektiositätsprofils. Dabei betrachten wir jeweils den asymptotischen Bias und vergleichen für verschiedene Fälle vergangener Inzidenzen die Schätzer dahingehend. Anschließend verifizieren wir anhand von Simulationen die theoretischen Ergebnisse und bestätigen obige Intuition für in der Realität weitestgehend anzunehmende Fälle.



Krämer, Alexander;
Berechnung von Greeks mittels Malliavin-Kalkül. - Ilmenau. - 73 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Gegenstand dieser Arbeit ist es, gewisse Funktionale der Lösungen von stochastischen Differentialgleichungen (kurz SDE) auf Differenzierbarkeit nach Parametern der SDE zu untersuchen und diese Ableitungen gegebenenfalls als Erwartungswert darzustellen, um eine möglichst einfache numerische Berechnung mittels MonteCarloSimulation zu ermöglichen. Im Zentrum der Betrachtung steht die finanzmathematische Anwendung und die Berechnung von Greeks. Ziel soll es sein, die theoretische Grundlage für einen numerischen Versuchslauf zu erarbeiten. Zu diesem Zweck werden zunächst die SDE aufgestellt und die wichtigsten allgemeinen Voraussetzungen aufgeführt. Anschließend wird der Malliavin-Kalkül eingeführt, der das zentrale Werkzeug in dieser Arbeit darstellt. Dessen zwei Operatoren, die Malliavin-Ableitung und der Divergenzoperator, werden definiert und auf einige wichtige grundlegende Eigenschaften untersucht. Außerdem wird die grundlegende Anwendung der Malliavin-Ableitung auf die Lösung der SDE behandelt. Anschließend wird die Darstellung von Greeks als Erwartungswerte mittels Malliavin-Kalkül untersucht. Es werden auch die Grenzen dieser Methode bei bestimmten Greeks aufgezeigt und ein paar Alternativen für das Erreichen des angestrebten Ziels dargestellt. Zum Abschluss wird kurz ein Blick auf die numerische Lösung von SDEs geworfen, um bei der Monte-Carlo-Simulation die auftretenden Zufallsgrößen genau genug simulieren zu können.



Bernstein, Tobias;
Nichtasymptotische Multiskalenansätze zur Dichteschätzung. - Ilmenau. - 44 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

In der vorliegenden Arbeit werden simultane Konfidenzbereiche für geglättete Wahrscheinlichkeitsdichten hergeleitet. Wir beschränken uns auf den Fall u.i.v. reellwertiger Beobachtungen, denen eine stetige Verteilung zugrunde liegt und die fast sicher Werte in einem kompakten Intervall annehmen. Zum Schätzen der geglätteten Dichte werden Kerndichteschätzer mit variabler positiver Bandbreite verwendet, wobei wir beliebige Lipschitz-stetige Kerne zulassen. Zunächst werden einige bekannte Eigenschaften des Kerndichteschätzers gezeigt. Danach ermitteln wir erst für feste Bandbreite und später simultan für alle Bandbreiten Konfidenzbereiche in der Supremumsnorm für die tatsächlichen geglätteten Dichten. Hierbei verwenden wir nichtasymptotische Methoden und erhalten konservative Konfidenzbereiche.



Trautmann, Luca;
Doob-Martin-Ränder kombinatorischer Familien. - Ilmenau. - 83 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Der Zustandsraum von Markovketten lässt sich durch die Doob-Martin-Kompaktifizierung um den Martin-Rand erweitern, sodass diese fast sicher konvergieren. In dieser Arbeit werden die Doob-Martin-Kompaktifizierungen verschiedener kombinatorischer Markovketten und kombinatorischer Familien betrachtet. Hierbei wird nachgewiesen, dass der Martin-Rand kombinatorischer Familien bestehend aus Permutationen S* und schlichter Graphen G bezüglich einer Vielzahl kombinatorischer Markovketten der Menge der Permutons beziehungsweise Graphons entspricht. Allgemeiner werden für beliebige kombinatorische Familien mit geeignetem Einbettungsbegriff kombinatorische Markovketten konstruiert. Diese Markovketten sind eng mit den Einbettungsbegriffen verknüpft und die über sie definierten Doob-Martin-Kompaktifizierungen können als natürliche Kompaktifizierung der kombinatorischen Familie aufgefasst werden. Die Annahmen über die Einbettungsbegriffe der kombinatorischen Familien sind hierbei so schwach gewählt, dass neben den G und S* viele der bisher in der Literatur betrachteten kombinatorischen Familien als Spezialfälle dieses neuen generischen Ansatzes betrachtet werden können.



Fredrich, Sina;
Simultane Konfidenzintervalle für die Multinomialverteilung. - Ilmenau. - 76 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

In dieser Arbeit werden simultane Konfidenzintervalle mithilfe der Bonferroni-Methode und der Scheffé-Methode für den Wahrscheinlichkeitenvektor einer Multinomialverteilung hergeleitet. Diese werden dann auf eigens erhobene Daten eines Galtonbrettes angewendet, um die Nutzbarkeit dieser Apparatur zu Lehrzwecken zu beurteilen. Dabei wird untersucht, welche der beiden Methoden für diese Anwendung zu kleineren Konfidenzintervallen führt. Es zeigt sich, dass die Bonferroni-Methode, die im Gegensatz zur Scheffé-Methode die linearen Abhängigkeiten in den Komponenten des Wahrscheinlichkeitenvektors ignoriert, die kleineren Intervalle erzeugt. Die Anwendung der simultanen Konfidenzintervalle an dem Galtonbrett führt zu der Erkenntnis, dass dieses für zwei der insgesamt drei Einstellungen seinen Lehrzweck erfüllt.



Kohl, Stefan;
Eine Verallgemeinerung der Markov-Chain-Monte-Carlo-Methode. - Ilmenau. - 45 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

Diese Arbeit beschäftigt sich damit, das Integral einer Funktion gegen ein Wahrscheinlichkeitsmaß zu approximieren, welches implizit als invariante Verteilung einer Markovkette gegeben ist. Dabei wird eine Verallgemeinerung des Markov-Chain-Monte-Carlo-Verfahrens eingeführt und die Konvergenz des dabei entstehenden Approximationsterms bewiesen. Dabei werden sowohl Markovketten in diskreter als auch in stetiger Zeit behandelt. Weiterhin wird die Übergangsmatrix in diskreter Zeit mit einer linearen Abbildung derart transformiert, dass Selbstübergänge ausgeschlossen werden. Analog dazu wird die Generatormatrix in stetiger Zeit derart transformiert, dass alle Übergänge mit Rate Eins erfolgen.



Staub, Tobias;
Stochastic differential equations via rough paths. - Ilmenau. - 99 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

In dieser Arbeit wird ein analytischer Ansatz vorgestellt, der es ermöglicht stochastische Differentialgleichungen pfadweise zu interpretieren. Wir verwenden hierfür Rough Path Integrationstheorie. Zunächst werden Rough Path Integrale eingeführt und einige Eigenschaften dieser sowie der zugehörigen Differential- bzw. Integralgleichungen gezeigt. Danach wird dies verwendet um Lösungstheorie für stochastische Differentialgleichungen zu erhalten.



Yu, Bin;
Simultane Konfidenzintervalle für Kontingenztafeln. - Ilmenau. - 40 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2020

Bei Datenanalysen werden Informationen oft in Kontingenztafeln zusammengefasst. In dieser Arbeit untersuchen die Abhängigkeit zweier Merkmale. Anstatt einen chi-Quadrat-Test anzuwenden, berechnen wir hierzu simultane Konfidenzintervalle der bedingten Wahrscheinlichkeiten. Daraus leiten wir einen Test auf Unabhängigkeit ab.



Mu, Weikang;
Eine Delta-Methode für den Wasserstein-Abstand. - Ilmenau. - 44 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Die Steinsche Methode dient der Herleitung von Grenzwertsätzen in der Wahrscheinlichkeitstheorie. Sie erlaubt es, dabei auch Konvergenzgeschwindigkeiten zu bestimmen, da sie den Abstand der Verteilung der betrachteten Zufallsvariable zur asymptotischen Verteilung abschätzt. Diese Arbeit beschäftigt sich hauptsächlich mit der Steinschen Methode ohne Reskalierung, wobei die zugehörigen Approximationsfehler quantifiziert. Dies wird anschließend für die Delta-Methode verwendet, welche eine große Rolle in der asymptotischen Statistik spielt.



Zeng, Sebastian;
Ein verallgemeinerter Kalman-Filter für den homogenen Raum der Tensorzerlegungen . - Ilmenau. - 64 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

In dieser Arbeit formulieren wir, motiviert durch das Problem der Vorhersage des Ausbreitungskanals in einem MIMO Übertragungssystem, verallgemeinerte Zustandsraummodelle und Kalman-Filter auf Mannigfaltigkeiten. Die Ausbreitungskanäle lassen sich durch komplexe 3-Weg Tensoren niedrigen Ranges beschreiben. Zur Reduktion der zu schätzenden Parameter dienen Tensorzerlegungen. Zunächst weisen wir nach, dass die Menge dieser Tensorzerlegungen einen homogenen Raum bildet. Im Anschluss formulieren wir Zustandsraummodelle, wobei der Zustandsraum durch den homogenen Raum der Tensorzerlegungen und der Beobachtungsraum, durch den Raum der komplexen 3-Weg Tensoren gegeben ist. Das Vorhersageproblem lösen wir mit Hilfe eines verallgemeinerten Kalman-Filters. Abschließend testen wir durch Simulation eines einfachen Zustandsraummodells, wie gut das gewonnene Verfahren zur Rekonstruktion dient.



Staub, Tobias;
Ein zentraler Grenzwertsatz für unvollständige U-Statistiken. - Ilmenau. - 49 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

In dieser Arbeit wird ein hinreichendes Kriterium dafür entwickelt, dass eine unvollständige U-Statistik asymptotisch normalverteilt ist. Genauer wird der Wasserstein-Abstand zur Normalverteilung mittels Steins Methode abgeschätzt. Der Beweis basiert auf einer Variation des Beweises für den gewöhnlichen Zentralen Grenzwertsatz. Schließlich wird der gezeigte Satz auf U-Statistiken und Erd˝os-Rényi-Zufallsgraphen angewendet.



Böhm, Martin;
Einige Kategorien glatter Strukturen auf metrischen Räumen. - Ilmenau. - 44 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

In dieser Arbeit wurde betrachtet, in welchen Weisen sich der Begriff glatter Funktionen von Mannigfaltigkeiten auf metrische Räume verallgemeinern lässt. Dabei wurde zunächst untersucht, inwiefern dies mit der Theorie der Frölicher Räume, in der die glatte Struktur durch glatte Kurven beziehungsweise glatte reellwertige Funktionen ausgedrückt ist, möglich ist. Für zwei derartige Ansätze wurde gezeigt, dass diese auf metrischen Räumen mit bereits bekannter glatter Struktur nicht das gewünschte Ergebnis liefern. Anschließend wurden zwei Kategorien beschreiben, die auf natürliche Weise den Begriff der Glattheit auf metrischen Räumen definieren. Für diese wurde gezeigt, dass diese auf Riemannschen Mannigfaltigkeiten die übliche Struktur liefern. An einem weiteren Beispiel wurde gezeigt, dass diese Kategorien auch auf weiteren Räumen wünschenswerte Ergebnisse liefern, an einem weiteren allerdings auch Grenzen der Anwendbarkeit dieser Kategorien aufgezeigt.



Krämer, Alexander;
General Chaos Expansion für reellwertige Zufallsvariablen. - Ilmenau. - 55 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

In dieser Arbeit wird das Problem, für eine gewisse Zufallsgröße X mit bekannter Verteilung eine unbekannte Funktion f zu approximieren, wobei f(X) quadratisch integrierbar ist. Dazu wird ausgenutzt, dass der Raum solcher Funktionen ein Hilbertraum ist, sodass f in eine Fourierreihe entwickelt werden kann, falls dieser ein bekanntes vollständiges und abzählbares Orthonormalsystem besitzt. Dieses Verfahren heißt Chaos Expansion. Es wird nachgewiesen, dass zu jeder Verteilung von X ein vollständiges abzählbares Orthonormalsystem existiert. Ferner wird ein Algorithmus beschrieben, mit dem ein solches Orthonormalsystem konstruiert werden kann. Dabei wird auf verschiedene Methoden zurückgegriffen, sowohl auf die eher klassische Polynomial Chaos Expansion als auch auf eine selbst erarbeitete, die auf Transformation basiert, speziell mit der Verteilungsfunktion von X. Außerdem müssen die Koeffizienten zur Reihenentwicklung berechnet oder zumindest approximiert werden, wobei Schwierigkeiten auftreten, da f nicht explizit bekannt ist. Es wird ein Kriterium für eine hinreichende Approximation angegeben und beschrieben, wie - vorausgesetzt die Auswertung von f(x) ist für jedes reelle x möglich - bekannte numerische Verfahren genutzt oder auch adaptiert werden können, um dieses Kriterium zu erfüllen. Schließlich wird noch ein mögliches Konzept zur Beurteilung der Approximationsgenauigkeit bei Verwendung einer gewissen Partialsumme der Fourierreihe vorgeschlagen.



Mendez, Thomas;
Konfidenzbereiche zur optimalen Anpassung von Versicherungsverträgen. - Ilmenau. - 42 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

In der Versicherungsbranche werden mit dem Modell der logistischen Regression vertragsindividuelle Stornowahrscheinlichkeiten in Abhängigkeit von Beitragsanpassungen geschätzt. Diese werden im Anschluss genutzt, um den erwarteten Gewinn zu Optimieren. Dabei wird zunächst nicht berücksichtigt, dass der im Modell geschätzte Parameter und damit auch der optimierte Gewinn durch einen Konfidenzbereich zu relativieren ist. In dieser Arbeit zeigen wir zunächst die asymptotischen Eigenschaften des Maximum-Likelihood-Schätzers in dem Modell der logistischen Regression, um anschließend für den wahren Parameter einen asymptotischen Konfidenzellipsoid anzugeben. Diesen nutzen wir, um für jede zweifach stetig differenzierbare Funktion mit beschränkter Hesse-Matrix einen uns in der Literatur bisher nicht bekannten asymptotischen Konfidenzbereich herzuleiten. Dieses Ergebnis wird abschließend in einer Fallstudie veranschaulicht.



Heyder, Stefan;
Kalman-Filter auf Lie-Gruppen. - Ilmenau. - 62 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

In dieser Arbeit formulieren wir, motiviert durch das Problem der Korrektur der Kopfbewegung in der Magnetoenzephalographie, Kalman-Filter auf Mannigfaltigkeit und Lie-Gruppen. Auf Lie-Gruppen erhalten wir unter Anwendung von verschiedenen Approximationen der Baker-Campbell-Hausdorff-Formel zwei Algorithmen. In Simulationen testen wir die so gewonnen Verfahren anhand typischer Bewegungsmuster und erzielen dabei gute Rekonstruktionen. Noch ist nicht klar welcher der beiden Algorithmen bessere Ergebnisse erzeugt.



Glock, Matthias;
Spherical means : concentration of measure and confidence sets. - Ilmenau. - 53 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Diese Arbeit beschäftigt sich mit Daten auf der Sphäre in beliebiger Dimension. In diesem Kontext wird das Problem, einen Konfidenzbereich für den extrinsischen sphärischen Mittelwert zu finden, gelöst. Ein großer Teil der Arbeit behandelt deshalb multivariate Konzentrationsungleichungen, da diese die Lösung für alle Dimensionen ermöglichen. Insbesondere wird ein neuer Beweis für eine Ungleichung von I. Pinelis und A. I. Sakhanenko angegeben, dies geschieht mithilfe der Theorie der Matrixkonzentrationsungleichungen von J. A. Tropp. Diese Ungleichung ermöglicht nun die Konstruktion von nicht-asymptotischen Konfidenzbereichen des sphärischen Mittelwertes. Diese Konstruktion wird abschließend auf echte und simulierte Daten angewendet und mit vorherigen Ergebnissen für den zirkulären Fall sowie der asymptotischen Theorie verglichen.



Henneberg, Jessica;
Universale Konfidenzbänder im Fixed-Design-Modell. - 53 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Die Regressionsschätzung ist ein wichtiger Teil der Statistik. Hierbei werden Abhängigkeiten zwischen verschiedenen Größen genauer untersucht. In einem Regressionsmodell, dem sogenannten Fixed-Design-Modell, werden zu festen Eingabewerten zufällig gestörte Daten einer Funktion beobachtet. Ziel ist es nun, die unbekannte Funktion anhand dieser Datenpaare zu schätzen. In der vorliegenden Arbeit wurde dazu der Priestley-Chao-Schätzer und der Gasser-Müller-Schätzer verwendet. Für solche Schätzer ist außerdem von Interesse, wie weit die geschätzte Funktion von der unbekannten Funktion abweicht. Hierzu werden Konfidenzbänder betrachtet. Das heißt, es wird ein möglichst kleines Band um die geschätzte Funktion gesucht, welches die unbekannte Funktion mit einer vorgegebenen Wahrscheinlichkeit überdeckt. Dabei soll auf eine Verteilungsannahme sowie auf eine asymptotische Betrachtung verzichtet werden. Ziel dieser Arbeit ist die Bestimmung universaler Konfidenzbänder. Es wird daher für jede feste Stichprobenzahl ein Konfidenzband in Abhängigkeit dieser bestimmt.



Elbert, Lukas;
Die Schätzung des Market Impacts im Wertpapierhandel institutioneller Anleger. - 81 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Diese Arbeit untersucht die impliziten Transaktionskosten von Aktientransaktionen institutioneller Investoren wie Pensionskassen, Versorgungswerke und Versicherungen. Die Bestimmung der impliziten Transaktionskosten erfolgt durch die Kennzahl Market Impact, die die prozentuale Abweichung des Ausführungspreises von einer Benchmark misst. Zur Untersuchung des Market Impacts werden circa 60.000 Transaktionen deutscher Großinvestoren mittels linearer Regressionsmodelle betrachtet und analysiert. Dabei zeigt sich, dass die impliziten Transaktionskosten signifikant von vielen Variablen, durch die sich eine Transaktion charakterisiert, beeinflusst werden. Diese Variablen werden durch die Modelle und Schätzungen ermittelt, beschrieben und mit der vorhandenen Literatur verglichen. Zusätzlich erfolgt eine Identifizierung neuer Kenngrößen, die den Market Impact beeinflussen. Darunter fallen unter anderem ein relativer Liquiditätsfaktor und das Nacht-Momentum. Weiterhin werden das Akaike- und das Bayessche Informationskriterium zur Modellwahl für die Regressionen angewendet und beschrieben. Zudem wird ein Broker identifiziert, für den sich der Market Impact vergleichsweise gut schätzen lässt. Anschließend erfolgen weitere mathematische Modellierungen des Market Impacts, um sich den impliziten Transaktionskosten weiter theoretisch zu nähern.



Schröder, Thomas;
Darstellung ebener Gebiete mittels konformer Abbildungen. - 106 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Zur Statistik von Jordangebieten in der Ebene oder zum Zwecke der Mustererkennung bietet es sich an diese Gebiete möglichst so darzustellen, dass gewisse Operationen auf ihnen einfach ausgeführt werden können. Hierbei muss jedoch sicher gestellt werden, dass unter diesen Operationen wieder Jordangebiete entstehen. Eine Möglichkeit dies zu bewerkstelligen ohne viele Nebenbedingungen beachten zu müssen besteht in sogenannter konformer Verheftung. Dank des Riemann'schen Abbildungssatzes ist es möglich sowohl das Innere als auch das Äußere eines einfach zusammenhängenden Gebietes auf das Innere beziehungsweise das Äußere des Einheitskreises konform abzubilden. Diese Abbildungen sind homöomorph auf den Rand des Einheitskreises fortsetzbar und erlauben es dort einen charakteristischen Homöomorphismus des Gebietes zu definieren. Diese charakteristischen Homöomorphismen stellen die gewünschte Darstellung unseres Gebietes dar. Zur Rekonstruktion eines Gebietes aus einem solchen Homöomorphismus dient der Verheftungssatz, welcher es ermöglicht für quasisymmetrische Homöomorphismen gewisse Jordangebiete, sogenannte Quasikreise, zu konstruieren. Diese Arbeit stellt die komplette notwendige Theorie dieses Vorgehens dar. Des Weiteren enthält sie einige numerische Experimente, die das Verfahren illustrieren.



Mehner, Tom;
Nicht-asymptotische Konfidenzbereiche für den intrinsischen Erwartungswert auf dem Kreis. - 42 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

In der vorliegenden Bachelorarbeit wird zum ersten Mal ein Algorithmus zum Herleiten und Erstellen eines nicht-asymptotischen Konfidenzbereiches für den intrinsischen Erwartungswert von Zufallsvariablen auf dem Einheitskreis ermittelt. Die Korrektheit des Verfahrens wird in Kapitel 3 bewiesen. Auch wird die Länge des ermittelten Konfidenzbereiches mit der Asymptotik verglichen und die Ordnung des Verfahrens an einer numerischen Simulation untersucht.



Semper, Sebastian;
Bounds for the coherence of Khatri-Rao-products and Vandermonde matrices. - 80 S. : Ilmenau, Techn. Univ., Masterarbeit, 2015

Diese Arbeit handelt von einem kleinen Teil des weiten Feldes Compressed Sensing, welches heutzutage eine große Rolle in der Signal- und Bildverarbeitung spielt. Diese Arbeit besteht aus fünf Kapiteln. Das erste Kapitel erläutert einige grundlegende Begriffe im Zusammenhang mit Compressed Sensing. Unter anderem werden die Begriffe Sparsity, Kohärenz und der Kruskal-Rang eingeführt. Darüber hinaus wird das Vorgehen bei Sparsity Order Estimation beschrieben. Dies dient als Motivation im zweiten Kapitel zunächst das allgemeine Packungsproblem zu erläutern. Hier wird ein bekanntes Resultat für die n-dimensionale Sphäre auf einen projektiven Raum übertragen, welches es uns ermöglicht Schranken für die Packungszahlen von Matrizen mit Rang 1 herzuleiten. Dies ermöglicht die Ableitung von Schranken für die Kohärenz von Khatri-Rao-Produkten, welche ein zentrales Ergebnis dieser Arbeit darstellen. Das dritte Kapitel dreht sich um das Problem, wie man explizit Matrizen mit niedriger Kohärenz konstruieren kann, wobei reell- und komplexwertige Matrizen zum Tragen kommen. Wir stellen Strategien zur Konstruktion von beliebigen Matrizen, Khatri-Rao-Produkten und Vandermonde Matrizen vor. Der Algorithmus für letztere zieht auch untere und obere Köhärenzschranken nach sich. Kapitel vier illustriert einige numerische Resultate für die Schranken und Algorithmen, welche vorher hergeleitet wurden. Wann immer möglich werden numerische Resultate mit theoretischen verglichen. Das letzte Kapitel gibt eine kurze Zusammenfassung der Arbeit und zeigt einige Bereiche auf, welche noch offene Fragen beinhalten.



Zeng, Sebastian;
Generalized stochastic processes and stochastic differential equations. - 55 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

m Rahmen der vorliegenden Bachelorarbeit wird mit Hilfe verallgemeinerter Funktionen eine Lösungstheorie für eine bestimmte Gruppe linearer stochastischer Differentialgleichungen erarbeitet. Das dafür benötigte Wissen aus der Theorie der verallgemeinerten Funktionen sowie die benötigten Kenntnisse aus der Theorie der verallgemeinerten stochastischen Prozesse wird einleitend knapp und in einem modernen mathematischen Stil dargestellt. Darauffolgend nutzen wir dieses Wissen, um für eine gegebene stochastische Differentialgleichung eine Lösung zu ermitteln. Das Hauptergebnis besteht in der Formulierung sowie dem Beweis eines Theorems, welches Existenz und Eindeutigkeit der Lösung gewährleistet. Abschließend soll die Analyse zweier bekannter Beispiele zeigen, dass die entwickelte Theorie durchaus Anwendung in der Praxis findet.



Glock, Matthias;
Banachräume mit reproduzierenden Kernen. - 43 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

Diese Arbeit ist in sechs Kapitel unterteilt. Die Einleitung gibt einen kurzen Überblick über die Theorie der reproduzierenden Kerne für Hilberträume und motiviert zugleich die Verallgemeinerung auf Banachräume. Im zweiten Kapitel sind die theoretischen Grundlagen zusammengestellt, welche notwendig sind um spezielle Banachräume zu entwickeln, welche reproduzierende Kerne besitzen können. Kapitel 3 befasst sich schließlich mit Banachräumen mit reproduzierenden Kernen (RKBS), welche aufgrund der Theorie des zweiten Kapitels definiert werden können. Insbesondere werden hier grundlegende Resultate aus der Hilbertraumtheorie analog auf RKBS verallgemeinert. In Kapitel 4 wird erläutert, wie sich RKBS zur Lösung von Interpolationsproblemen einsetzen lassen. In Kapitel 5 wird die Theorie der letzten beiden Kapitel an zwei ausführlichen Beispielen erläutert. Im letzten Kapitel werden die Ergebnisse diskutiert und es gibt einen Ausblick auf mögliche weitere Forschung.



Wieditz, Johannes;
Nicht-asymptotische Konfidenzbereiche für extrinsische Erwartungswerte zirkulärer Daten. - 60 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2014

In dieser Arbeit werden nicht-asymptotische Konfidenzbereiche für den extrinsischen Erwartungswert von Zufallsvariablen mit Werten auf dem Einheitskreis konstruiert. Dabei wird neben der Hoeffdingschen Ungleichung, der Tschebyscheffschen Ungleichung und Hoeffdings Theorem˜3, eine verschärfte Version der Hoeffdingschen Ungleichung für die Konstruktion verwendet. Letztere wird dazu hergeleitet und bewiesen. Die Konfidenzbereiche werden dann für zwei Anwendungsbeispiele mit unterschiedlich stark konzentrierten Daten konstruiert und sowohl untereinander als auch mit asymptotischen Konfidenzbereichen verglichen.



Schneider, Daniel;
On confidence sets in multiobjective optimization. - 41 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

Es gibt viele multikriterielle Optimierungsprobleme in denen verschiedene Größen unbekannt sind und daher geschätzt werden müssen. Solche Schätzungen liefern eine Folge von Ersatzproblemen. Daher wäre es nützlich die Qualität dieser Probleme in Bezug auf die zulässige Menge, die effiziente Menge und die zugehörige Lösungsmenge zu kennen. Das Ziel dieser Arbeit ist die Herleitung geeigneter quantitativer Aussagen zur Konvergenz der Mengenfolgen die durch das Lösen der Ersatzprobleme entstehen. Weiterhin wird gezeigt wie diese Aussagen dazu benutzt werden können, um Konfidenzmengen zu erhalten.



Beck, Matthias;
Dichteschätzungen mit Epi-Splines. - 108 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

Die Masterarbeit befasst sich mit einer neuartigen Methode innerhalb der nichtparametrischen Dichteschätzung, die auf sogenannten Epi-Splines beruht. Zunächst geht es in der Arbeit um die Aufbereitung eines Artikels von Johannes O. Royset und Roger J-B Wets zur Schätzung eindimensionaler Dichten mittels exponentieller Epi-Splines. Dieser Ansatz wird schließlich in der Arbeit auf den zweidimensionalen Fall erweitert und es wird dabei das theoretische Fundament zur Schätzung bivariater Dichtefunktionen gelegt. Hierbei wird unter anderem eine Konsistenz-Aussage der entstehenden Dichteschätzer für eine spezielle Klasse von Dichten hergeleitet. Empirische Studien, die vor allem für den eindimensionalen Fall durchgeführt wurden, bildeten die Grundlage, um sowohl mögliche Potentiale als auch Schwachstellen des Schätzverfahrens aufzudecken.



Niebling, Julia;
Ein Beitrag zu Graphenpackungen. - 34 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2013

Zu zwei gegebenen endlichen, schlichten und ungerichteten Graphen $G$ und $H$ können verschiedene Packungskonzepte betrachtet werden. Zwei eckendisjunkte induzierte Untergraphen $H$ und $H'$ von $G$ heißen unabhängig, wenn $G$ keine Kante zwischen $H$ und $H'$ enthält. So ist $\alpha(G, H)$ die größte Anzahl eckendisjunkter Kopien von $H$, die induzierte Untergraphen von $G$ und paarweise unabhängig sind. Für $H=K_1$ stellt $\alpha(G, K_1)$ die Unabhängigkeitszahl $\alpha(G)$ dar. Die Bestimmung von $\alpha(G, H)$ ist im Allgemeinen schwer. In "Packing of induced subgraphs" von J. Harant, S. Richter und H. Sachs werden unter anderen im Fall, dass $G$ ein $r$-regulärer Graph ist, zwei obere Schranken für $\alpha(G, H)$ bewiesen. Motiviert dadurch stellt sich die Frage nach einem Satz, der für nicht notwendig reguläre Graphen $G$ gilt und den Satz aus der Literatur verallgemeinern kann. In dieser Arbeit wird ein neuer Satz mit Hilfsmitteln aus der Graphentheorie, linearen Algebra und Lagrange-Theorie bewiesen. Der Satz gilt für nicht notwendig reguläre Graphen $G$ und ist in einem Spezialfall eine Verallgemeinerung des Satzes von Harant, Richter und Sachs. Zur Berechnung der bewiesenen Schranken müssen sowohl induzierte Untergraphen von $H$, als auch mehrere Gleichungssysteme gelöst werden. Dieser Aufwand ist dennoch durchaus vertretbar, da meist "kleine" Graphen $H$ in $G$ gepackt werden und die Menge der induzierten Untergraphen von $H$ damit überschaubar bleibt.



Semper, Sebastian;
Gitterfreie Invertierung der Radontransformation mit reproduzierenden Kernen. - 60 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2013

Diese Arbeit ist in sechs Kapitel unterteilt. Die Einleitung dient einerseits der Erläuterung der praktischen Problemstellung am Beispiel der Computertomographie und andererseits bereits der Einführung einiger grundlegender Objekte, welche vor allem im zweiten Teil eine übergeordnete Rolle spielen werden. Weiterhin die Methode der gefilterten Rückprojektionen zur Invertierung der Radontransformation vorgestellt und deren Vor- und Nachteile beleuchtet. Das zweite Kapitel legt zunächst alle theoretischen Grundlagen für die Entwicklung der Theorie und erläutert die mathematische Seite des neuen Verfahrens zur Invertierung der Radontransformation. Im Zuge dessen ergibt sich auch ein neues Ergebnis über lineare stetige Funktionale in Hilberträumen mit reproduzierenden Kernen. Kapitel 2 endet mit dem Invertierungstheorem, welches den Mittelpunkt dieser Arbeit darstellt. Es erlaubt eine Approximation der inversen Radontransformation, die viel weniger Anforderungen an die Messdaten stellt, als beispielsweise die gefilterte Rückprojektion. Die hier entwickelte Methode wird im Folgenden der Einfachheit halber Kernmethode genannt werden. Kapitel 3 befasst sich damit, ein konkretes Beispiel von Kernfunktionen im Sinne der entwickelten Theorie aufzubereiten, um diese in einer praktischen Problemstellung verwenden zu können. Weiterhin wird der Einfluss von einigen weiteren Parametern erläutert, welche bei der Approximation eine Rolle spielen. In den letzten Kapiteln wird zunächst eine kurze Erklärung der benutzten Numerik gegeben. Dann wird die Kernmethode mit verschiedenen Datensätzen getestet und untersucht. Schlussendlich werden die Ergebnisse der Kernmethode mit denen der gefilterten Rückprojektion verglichen. Der Schluss beinhaltet einige weiterführende Aspekte und gibt mögliche Anhaltspunkte für weitere Untersuchungen der Kernmethode.



Heilmann, Gerrit;
Empirische Likelihood-Quotienten-Konfidenzintervalle für Funktionale der Verteilungsfunktionen. - 36 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2013

In dieser Arbeit geht es darum, asymptotische Konfidenzintervalle bereitzustellen, dafür wird der Artikel "Empirical likelihood ratio confidence intervals for a single functional" von Art B. Owen aufgearbeitet. Die Beweise, die im Artikel nur angedeutet werden, werden in dieser Arbeit tiefgründiger vollzogen, so dass der Leser diesen besser folgen kann. Außerdem sollen die Simulationen, die der Autor dieses Artikels durchgeführt hat, anhand eigener eingeschätzt werden.



Seeger, Stefan;
Kerndichteschätzer im Kontext universaler Konfidenz. - 127 S. Ilmenau : Techn. Univ., Masterarbeit, 2013

Die Masterarbeit befasst sich mit einer nichtparametrischen Variante der Dichteschätzung, den Kerndichteschätzern. Im Mittelpunkt stehen gleichmäßige und punktweise Approximationen der unbekannten Dichte in Wahrscheinlichkeit durch einen Kerndichteschätzer. Diese Approximationen bilden die Grundlage zur Bestimmung von universalen Konfidenzmengen. Im Fall punktweiser Approximationen werden die resultierenden universalen Konfidenzmengen mit bekannten asymptotischen Aussagen verglichen. Der Schwerpunkt liegt jedoch auf der Bestimmung von Konfidenzmengen für obere Niveaumengen der unbekannten Dichte, welche in der explorativen Statistik eine wesentliche Rolle spielen. Die benötigten gleichmäßigen Approximationen der Dichte in Wahrscheinlichkeit liegen Arbeiten von Frau Professor Vogel und Frau Dünnbier vor. Diese Möglichkeiten werden in der Arbeit aufgegriffen und abgeändert. Die Voraussetzungen an die unbekannte Dichte werden abgeschwächt und es wird gezeigt, dass die Hölder- Stetigkeit der Dichte hinreichend ist, um Approximationen der Dichte in Wahrscheinlichkeit zu erhalten. Basierend auf der Definition geeigneter multivariater Kernfunktionen wird eine Abschätzung des gleichmäßigen Bias für hinreichend glatte Dichten unter Berücksichtigung einer allgemeineren Bandbreitenmatrix angegeben, welche ebenfalls in die Approximation der Dichte in Wahrscheinlichkeit einfließt. Es wird gezeigt, dass die Angabe der universalen Konfidenzmengen für obere Niveaumengen der Dichte über die Bestimmung von oberen Niveaumengen des Kerndichteschätzers zu realisieren ist. Auf Grundlage dieser Aussage und der fast sicheren Hölder- Stetigkeit des Kerndichteschätzers werden allgemeine multivariate Algorithmen vorgeschlagen und in der Statistiksoftware R umgesetzt. Die Algorithmen ermöglichen eine äußere und innere Approximation der oberen Niveaumengen des realisierten Kerndichteschätzers. Es wird gezeigt, dass sich die fast sicher Hölder- Stetigkeit des Kerndichteschätzers unter bestimmten Voraussetzungen an die unbekannte Dichte abschwächen lässt und so eine verbesserte Laufzeit der Algorithmen zu erreichen ist. Insbesondere für uni- und bivariate Kerndichteschätzer bilden die vorgeschlagenen Algorithmen eine erste Grundlage die oberen Niveaumengen des Kerndichteschätzers auch ohne weitere Strukturaussagen, wie die Konvexität oder Sternförmigkeit der Niveaumengen, zu bestimmen.



Schäfer, Lukas Matthias;
Konfidenzmengen für multivariate, stetige Dichten und univariate Dichten mit Unstetigkeitsstellen auf der Basis von Kernschätzern. - 33 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

In der Arbeit werden für multivariate Dichtefunktionen optimale Bandbreiten und Kernfunktionen bez. einer gleichm. Approximation der Dichte in Wahrscheinlichkeit abgeleitet und diese in einer Computersimulation verwendet. Des Weiteren wird eine gleichm. Approximation der Dichte in Wahrscheinlichkeit für Dichten mit einer Unstetigkeitsstelle und modifizierte Kerndichteschätzer hergeleitet.



Schneider, Daniel;
Konfidenzintervalle für Value-at-Risk und Average Value-at-Risk. - 33 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

In dieser Arbeit werden Konfidenzintervalle für die Risikomaße Value-at-Risk und Average Value-at-Risk abgeleitet. Dies geschieht jeweils unter Benutzung der empirischen Verteilungsfunktion und unter Verwendung von Kerndichteschätzern. Abschließend werden die theoretischen Ergebnisse in einer Computersimulation umgesetzt.



Boldt, Sebastian;
Schätzung des Value-at-Risk mit Hilfe elliptischer Copulas. - 121 S. Ilmenau : Techn. Univ., Diplomarbeit, 2011

Die Finanzmärkte haben sich in jüngster Zeit rasant entwickelt. Ein wichtiger Aspekt beim Halten eines Portfolios besteht deshalb darin, Abhängigkeiten und Risiken adäquat zu modellieren. Die seit Jahrzehnten benutzte Normalverteilungsannahme mit dem Korrelationskoeffizienten nach Bravais-Pearson erweist sich durch immer neue statistische Untersuchungen als dafür ungeeignet. Für ein Portfolio werden gemeinsame extreme Ereignisse durch die mehrdimensionale Normalverteilung nur unzureichend erfasst. Ein Standardmaß zur Bestimmung des Marktrisikos ist der Value-at-Risk. Dabei wird eine Wahrscheinlichkeit vorgegeben und der Wert des Value-at-Risk bestimmt. Beim Value-at-Risk handelt es sich einfach um ein Quantil der vorgegebenen Wahrscheinlichkeit der Verteilung einer risikobehafteten Anlage. Für die Modellierung des Value-at-Risk werden elliptische Copulas verwendet. Copulafunktionen stellen ein allgemeines Konzept zur Modellierung von Abhängigkeiten dar. Die Copula soll die eindimensionalen Randverteilungen zu einer gemeinsamen, mehrdimensionalen Verteilungsfunktion koppeln. Dabei trägt die Copula die ganze Abhängigkeitsstruktur in sich. Für stetige mehrdimensionale Verteilungen können durch die Copula die eindimensionalen Randverteilungen und die mehrdimensionale Abhängigkeitsstruktur separiert werden. Das Hauptaugenmerk wird auf der Gauß- und der t-Copula liegen. Für diese beiden Copulas wird die praktische Anwendung auf reale Finanzmarktdaten im Rahmen der Risikomessung mit dem Value-at-Risk gezeigt. Dabei werden nicht nur die Copulas, sondern auch die Randverteilungen der einzelnen Vermögenswerte eine Rolle spielen. Es wird ein parametrischer Ansatz verwendet. Dazu werden Verfahren vorgestellt, mit denen die Parameter der benutzen Copulas und Randverteilungen geschätzt werden können. Für die Schätzungen wird das Statistikprogramm R verwendet. Es werden Befehle und Programmcodes vorgestellt um die vollständige Anwendung in R darzustellen. Die zur Schätzung des Value-at-Risk benötigten Zufallsrenditen werden mit Hilfe der durch die Copula vorgegebenen Abhängigkeitsstruktur mit Berücksichtigung der Randverteilungen erzeugt.



Körner, Ina;
Orthogonalreihenschätzer. - 74 S. Ilmenau : Techn. Univ., Diplomarbeit, 2011

Orthogonalreihenschätzer werden verwendet um verauschte Funktionen (Regressionsmodell) oder Wahrscheinlichkeitsdichte von einen gegebenen Satz an Zufallszahlen auf eine nichtparametrische Art zu schätzen. Deren Erwartungstreue und Konsistenz wird gezeigt. Die optimale Anzahl an Orthogonalfunktionen, der sogenannte Glättungsparameter, hängt von der Funktion oder Dichte ab, welche geschätzt werden soll. Dieser Parameter kann durch Verwendung von Kriterien bestimmt werden, welche ebenfalls in dieser Arbeit behandelt werden. Beispiele demonstrieren Schätzungen mit verschiedenen Basen, Glättungsparamtern, sowie Kriterien. Das verwendete Code-Paket wurde für MATLAB geschrieben und ist dieser Arbeit angehangen. Es enthält Schätzer, Kriterien und Orthonormalsysteme, welche alle in dieser Arbeit vorgestellt wurden. Weiterhin wird die Verwandtschaft zwischen Orthogonalreihenschätzern und Kernschätzern gezeigt.



Beck, Matthias;
Konfidenzmengen für Shortfall Constraints. - 33 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

Die Behandlung des Themas "Konfidenzmengen für Shortfall Constraints" stellt eine Verbindung zwischen der stochastischen Optimierung und deren wirtschaftlicher Anwendung dar. Dazu betrachte ich eine in der Portolio-Optimierung auftretende Nebenbedingung zur Risikoregulierung, die Shortfall Constraint genannt wird. Im ersten Teil meiner Arbeit beschreibe ich ein Vorgehen zur Herleitung von Konfidenzmengen für allgemeine Restriktionsmengen. Im zweiten Teil gehe ich näher auf die Shortfall-Restriktionsmenge ein und wende die Theorie an, um zu einem vorgegebenen Stichprobenumfang eine Konfidenzmenge zu bestimmen.



Krauße, Claudia;
Dichtefunktionsbestimmung zur Korngrößenverteilung im Zement. - 86 S. Ilmenau : Techn. Univ., Diplomarbeit, 2010

Diese Arbeit dient der Unterstützung des DFG-geförderten Forschungsprojekts "Dynamische Korngrößenmessungen zur Verfolgung des Hydratationsverlaufs von Zementen im frühen Stadium". Schwerpunkt der Arbeit ist die Ermittlung einer Dichtefunktion, welche die gegebenen Messdaten hinreichend genau wiedergibt. Hierbei werden bereits bekannte Methoden aus der Verfahrenstechnik (Potenzverteilung, RRSB-Verteilung und Logarithmische Normalverteilung) untersucht und auch andere bisher nicht getestete Verteilungen (Weibullverteilung, gestutzte Verteilung, Mischverteilung) auf ihre Eignung geprüft. Für den Zeitpunkt t=0 Minuten ergibt sich keine zufriedenstellende Approximation der Messwerte. Für Zeiten größer t=0 Minuten können jedoch die Messwerte mittels einer vierkomponentigen Mischverteilung aus logarithmischen Normalverteilungen hinreichend genau angenähert werden.



Tack, Claudia;
Angewandte Credibility-Verfahren in der Versicherungswirtschaft. - 171 S. Ilmenau : Techn. Univ., Diplomarbeit, 2010

Meine Diplomarbeit ist eine Übersetztung vom Englischen ins Deutsche von vier Kapiteln der gleichnamigen Monographie von R. Kaas, D. R. Dannenburg und M. J. Goovaerts. Dabei habe ich zusätzlich Beweise im Text ausgeführt und die zu jedem Kapitel gestellten Aufgaben gelöst. In der Praxis muss oft eine Prämie für eine Gruppe von Versicherungsverträgen bestimmt werden, bei der nur eine begrenzte Erfahrung über die einzelne Gruppe von Verträgen verfügbar ist, aber dafür viel Erfahrung über andere, mehr oder weniger ähnliche, Verträge. Um daraus eine optimale Credibility-Prämie zu bekommen, betrachten wir ein gewichtetes Mittel z_jX_j+(1-z_j)X mit dem Gesamtmittelwert X aller Daten (Kollektivprämie), den Schadenmittelwerten X_j für jede Gruppe j als Individualprämien und dem Credibility-Faktor z_j , der die Glaubwürdigkeit der individuellen Erfahrung von Gruppe j beschreibt. Je nach Voraussetzungen gibt es Modelle, wie das balanzierte Bühlmann- oder Bühlmann-Straub-Modell, um den homogenen und inhomogenen Credibility-Schätzer zu bestimmen. Ebenso wird ein allgemeines Modell mit invertierter Kovarianzmatrix betrachtet, aus dem sich die speziellen Modelle herleiten lassen. Zum Schluss wird der Fall untersucht, wenn der Schätzer nicht als linear vorausgesetzt ist.



Pöppich, Emanuel;
Evolutionäre Algorithmen zur Lösung von restringierten Vektoroptimierungsproblemen. - 46 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Restringierte Vektoroptimierungsprobleme sind Probleme, die mehrere Zielfunktionen und Restriktionen besitzen. Sie treten in verschiedenen Bereichen wie z.B. das Finanz- und Ingenieurwesen auf. Um diese Art von Problemen zu lösen gibt es mehrere Verfahren, wobei in dieser Arbeit speziell die evolutionären Algorithmen untersucht wurden. Zunächst wird Theorie zu Vektoroptimierungsproblemen erläutert. Anschließend werden evolutionäre Algorithmen und deren Berücksichtigung von Restriktionen vorgestellt. Zuletzt werden Beispiele gerechnet.



Seeger, Stefan;
Statistische Analysen der Festbetoneigenschaften bei der Produktion von Betonsteinen. - 118 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2009

Die vorliegende Arbeit befasst sich mit statistischen Analysen der Festbetoneigenschaften (Feucht- und Trockenmasse, Dichte, Druckfestigkeit und Steinhöhe) von Betonsteine. Im Rahmen der Theorie des Linearen Modells der mathematischen Statistik wird ein varianzanalytisches Modell vorgeschlagen. In diesem Modell werden mögliche Mittelwerteinflüsse auf die Festbetonmerkmale, welche durch die Zeilen- und Spaltenlage der Steine innerhalb der Produktionsform sowie die Zugehörigkeit der Betonsteine zu verschiedenen Produktionszyklen verursacht werden, geprüft. Unter Berücksichtigung möglicher Wechselwirkungen werden die benötigten Nebenbedingungen mit Hilfe einer Reparametrisierungsmatrix angegeben. Es zeigt sich, dass sich die Nebenbedingungen direkt in die Normalengleichungen des Modells einbeziehen lassen. Dieses Vorgehen ermöglicht eine vereinfachte Bestimmung des MQ-Schätzers. Des Weiteren lässt sich der Stichprobenvektor orthogonal zerlegen, was den Beweis der Streuungszerlegung und der Kovariationszerlegung sowie die Angabe der relevanten Hypothesenräume mit ihren Dimensionen ermöglicht. Mit Hilfe der Streuungszerlegung werden für die Produktion relevante Streuparameter angegeben. Diese relativen Streuparameter ermöglichen eine Bewertung der Produktion hinsichtlich der Homogenität der Festbetonmerkmale. Des Weiteren eignen sich diese Parameter zur Bewertung von Änderungen im Produktionsablauf. Mit Hilfe der Kovariationszerlegung und der Streuungszerlegung wird eine additive Zerlegung des empirischen Korrelationskoeffizienten zwischen zwei Merkmalen, welche durch das gleiche varianzanalytische Modell dargestellt werden, gezeigt. Diese Zerlegung ermöglicht eine differenziertere Betrachtungsweise der Korrelationsstruktur der Festbetonmerkmale. Die Analysen univariater Daten, beginnend mit der Deskription über die Exploration bis zur Anwendung inferenzstatistischen Verfahren, können durch eine in R entwickelte Funktion (univariat) durchgeführt werden. Die Lage der Steine innerhalb der Produktionsform und innerhalb eines Produktionszyklus übt einen signifikanten Mittelwerteinfluss auf die Festbetonmerkmale der Steine aus. Des Weiteren führen diese Einflüsse dazu, dass der empirische Korrelationskoeffizient zwischen zwei Merkmalen als Schätzung für die tatsächliche Korrelation nicht geeignet ist.



Freytag, Sebastian;
Eine Einführung in Copulas. - 336 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Übersetzung der gleichnamigen Monographie von R. B. Nelsen, Ausarbeitung angedeuteter Beweise und Lösung ausgewählter Aufgaben.



Wang, Jingjing;
Optimale Raten bei Modalwertschätzung von nichtparametrischen Regressionsmodellen im glatten Fall des Fixed Design Modells. - 55 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

In dieser Arbeit wird die Schätzung des Modalwertes einer nichtparametrischen Regression behandelt. Der Modalwert wird im Vergleich zu dem arithmetischen Mittel oder dem Median von fehlerhaften Daten nicht so stark verzerrt. Weiterhin wird gezeigt, unter welchen Voraussetzungen die normalerweise verwendeten Kernschätzer wie der Gasser-Müller-, Nadaraya-Watson und der Priestley-Chao-Kernschätzer die gefundenen Raten erzielen können.



Reinke, Stefanie;
Schätzung eines Graustufenbildes mit Methoden der multivariaten nichtparametrischen Regression. - 68 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Ein typisches Problem der Bildanalyse ist das Rekonstruieren eines Bildes aus verrauschten Daten. Thema dieser Diplomarbeit ist die Schätzung eines Graustufenbildes mit Methoden der multivariaten, nichtparametrischen Regression. Neben der Darstellung eines Modells und Schätzers, liegt der Fokus dieser Arbeit auf der detaillierten Herleitung einer asymptotischen oberen Schranke des Schätzers. Es kommt ein Zwei-Schritt-Schätzer zum Einsatz, dabei folgt nach einer einfachen Klassifikation, die Anwendung eines lokalen Polynom-Schätzers im Mehrdimensionalen.



Christiani, Daniela;
Vergleich der Behandlung von Mehr-/Mindermengen im analytischen und synthetischen Verfahren anhand von Daten eines realen Elektrizitätsverteilnetzes. - 90 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Zielstellung dieser Arbeit ist es, die Frage zu klären, welches von 2 Verfahren für die Belieferung und Abrechnung von Strom für Kleinkunden aus Sicht eines Verteilnetzbetreibers besser geeignet ist. Durch die Erläuterung des Netznutzungsmodells in der Einleitung werden zunächst wichtige Zusammenhänge am Strommarkt deutlich. Im Anschluss werden die einzelnen Verfahren vorgestellt und mit Daten eines speziellen Geschäftsjahres in Excel durchgerechnet. Im 3. Kapitel wurden verschiedene Situationen und die Auswirkungen auf beide Verfahren betrachtet. Dabei ist deutlich geworden, dass im synthetischen Verfahren das Risiko besteht, dass Kosten, die durch Prognoseungenauigkeiten entstehen, nicht genau auf die Verursacher umgewälzt werden. Dieses Risiko tritt im analytischen Verfahren nicht ein. Durch verschiedene Fallbetrachtungen sind die Fälle herausgearbeitet worden, in denen für den Verteilnetzbetreiber Gewinne oder Verluste eintreten. Die Größenordnung der Verluste und Gewinne war letztendlich ausschlaggebend, dass sich das analytische Verfahren aus Sicht des Verteilnetzbetreibers als das bessere herausgestellt hat.



Dünnbier, Anne;
Konfidenzintervalle für Modalwerte. - 44 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Die Diplomarbeit befasst sich mit universalen Konfidenzintervallen für den Modalwert einer eindimensionalen stetigen Verteilung. Diese Konfidenzintervalle werden bestimmt als geeignete Umgebungen der Maximalstellen von Dichteschätzern. Die Methode beruht auf allgemeinen Resultaten von G. Pflug und S. Vogel über Konfidenzmengen für Lösungen von Entscheidungsproblemen und liefert für jeden Stichprobenumfang Intervalle, die den Modalwert mit einer vorgegebenen Genauigkeit überdecken.- Zunächst werden die Aussagen bewiesen, auf denen die Methode aufbaut. Anschließend werden die Voraussetzungen dieser Aussagen für Modalwertschätzer überprüft, die auf Kernschätzern für die Dichtefunktion beruhen. Zum Nachweis der benötigten Konvergenzraten und "Tail-Behavior-Funktionen" für die gleichmäßige Konvergenz in Wahrscheinlichkeit der Dichteschätzer werden Maßkonzentrationsaussagen eingesetzt.



Vollrath, Oliver;
Schätzung in scheinbar unverbundenen Regressionsmodellen unter besonderer Berücksichtigung orthogonaler Regressoren. - 160 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

In meiner Diplomarbeit geht es um die Schätzung in Scheinbar unverbundenen Regressionsmodellen (SUR). Nach einer Einführung in die SUR- Modelle mit M Regressionsgleichungen beschäftigen wir uns mit dem Problem, des effizienten Schätzens der Regressionskoeffizienten bei unbekannter Kovarianzmatrix. Dazu wird zunächst ein allgemeiner SUR- bzw. FGLS- Schätzer betrachtet und im Anschluss zwei spezielle Ausprägungen dieses Schätzers definiert. Zum einen der SUR-Schätzer mit Restriktionen, kurz SURR und zum anderen jener ohne Restriktionen genannt SUUR. - Nach diesen einführenden Betrachtungen reduzieren wir unser SUR Modell auf ein SUR- Modell mit zwei Gleichungen und nennen es SUR2. Es werden in SUR2 allgemeine SUR- bzw. FGLS- Schätzer für die Regressionskoeffizienten hergeleitet und diese Konzepte auf die SUUR und SURR Schätzer übertragen. Alsdann wird das Modell SUR2 weiter vereinfacht werden, d.h. wir untersuchen dann ein Zwei- Gleichungs- SUR Modell mit orthogonalen Regressoren und nennen dieses SUR3. Jenes SUR3 Modell und die Schätzung darin nimmt den Hauptteil der Diplomarbeit ein. Dazu werden in aufwändigen Rechnungen Kovarianzmatrizen der SUUR und SURR-Schätzer im Modell SUR3 hergeleitet. Damit sind Effizienzvergleiche zwischen diesen Schätzern möglich und werden ausführlich diskutiert. Danach wird die Stichprobenverteilung des SUUR- Schätzers im Mittelpunkt stehen. Genauer wird eine Dichtefunktion des zufälligen Schätzfehlers des SUUR Schätzers bestimmt. Es wird sich zeigen, dass diese Dichte bei großen Stichprobenumfängen gegen die Normalverteilung strebt. - Welche Bedeutung SUR- Modelle und SUR-Schätzungen in der Praxis haben, wird zum Ende der Diplomarbeit an einem kleinen Beispiel aus Grunfelds Investitionstheorie illustriert.



Mönch, Ines;
Asymptotische Eigenschaften von Kernschätzern für die mittlere Ableitung der Regressionsfunktion. - 153 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

In der Arbeit wird die Regressionsfunktion betrachtet und deren mittlere Ableitung geschätzt. Für diesen Schätzer wird mit dem mittleren quadratischen Fehler (MSE) eine Fehlerabschätzung und eine Konvergenzrate angegeben. Weiter werden auf Basis des MSE die optimale Bandbreite und die optimale Kernfunktion bestimmt. Im Anschluss erfolgt mit dem Law of demand ein Anwendungsbeispiel.



Reinard, Aylin;
Vergleich und Modifikation vorhandener Ansätze zum Nachweis asymptotischer Normalität von Modalwertschätzern mehrdimensionaler Dichten. - 144 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Es wird ein Ansatz zum Nachweis asymptotischer Normalität von Modalwertschätzern mehrdimensionaler Dichten eines Artikels vom Autor Samanta ausgearbeitet und - zur Erhaltung der asymptotischen Normlität des Modalwertschätzers - modifiziert. Zwei weitere Ansätze werden vorgestellt und mit dem ersten auf ihre Voraussetzungen und Ergebnisse verglichen.



Wieczorek, Barbara;
Nichtparametrische Kurvenschätzung : Modalwertschätzung für Regressionsfunktionen mit nichtdifferenzierbarer Modalstelle im heteroscedastischen Fixed Design Modell. - 92 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Es wird die nichtparametrische Modalwertschätzung für stetige Regressionsfunktionen mit nichtglatter Modalstelle im heteroscedastischen Fixed Design Modell behandelt. Unter Voraussetzung eines zeilenweise m-abhängigen Dreiecksschemas für Fehlervariablen wird ein Resultat für die Konsistenzordnung fast sicher des Modalwertschätzers erzielt. Im Falle der zeilenweise Unabhängigkeit und unter Voraussetzung der Quasi-Glattheit der Regressionskurve an der Modalstelle kann asymptotische Normalität des Modalwertschätzers erzielt werden.