Publikationen

Anzahl der Treffer: 58
Erstellt: Wed, 05 May 2021 23:30:40 +0200 in 0.0848 sec


Röhrig, Steve; Rockel, Tobias;
Analyse existierender Simulationsstudien zum Umgang mit fehlenden qualitativen Daten. - Ilmenau : Technische Universität Ilmenau, Fakultät für Wirtschaftswissenschaften, Institut für Wirtschaftsinformatik, 2020. - 1 Online-Ressource (iii, 14 Seiten). . - (Ilmenauer Beiträge zur Wirtschaftsinformatik. - 2020,4) ISBN 978-3-938940-63-1

Das vorliegende Arbeitspapier betrachtet die Struktur von 30 Simulationsstudien, welche die Güte von verschiedenen MD-Verfahren für fehlende Werte in qualitativen Merkmalen untersuchen. Für die Betrachtung wird zunächst der allgemeine Aufbau der Studien beschrieben. Des Weiteren werden Merkmale der in den Studien verwendeten Datenmatrizen erhoben, aggregiert und ausgewertet. Dabei ist auffällig, dass z. B. ordinalskalierte Merkmale verhältnismäßig wenig untersucht werden. Darüber hinaus werden mit den verwendeten Ausfallraten gemeinsam mit den Ausfallmechanismen und -mustern die Variationen der fehlenden Daten in den Studien betrachtet. Ein weiterer Überblick wird außerdem zu den verwendeten MD-Verfahren und Bewertungskriterien gegeben. Dabei ist auffällig, dass bei den MD-Verfahren und den Bewertungskriterien sehr viele Unterschiede zwischen den Studien existieren, wodurch im Endeffekt kein MD-Verfahren oder Bewertungskriterium in mehr als 60 % der Studien verwendet wird.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020200439
Ströhl, Florian; Rockel, Tobias;
Auswirkungen fehlender Daten in der multiplen Regression : eine Simulationsstudie. - Ilmenau : Technische Universität Ilmenau, Fakultät für Wirtschaftswissenschaften, Institut für Wirtschaftsinformatik, 2020. - 1 Online-Ressource (iii, 37 Seiten). . - (Ilmenauer Beiträge zur Wirtschaftsinformatik. - 2020,3) ISBN 978-3-938940-62-4

Fehlende Werte stellen in zahlreichen praktischen Anwendungen vie-mehr den Regelfall als eine Ausnahme dar, erweisen sich aber bei vielen statistischen Verfahren als störend. Die vorliegende Studie untersucht die Auswirkungen von fehlenden Werten auf die Ergebnisse der multiplen linearen Regression. Dazu werden zunächst spezielle Formen von fehlenden Daten und ausgewählte Verfahren zum Umgang mit diesen vorgestellt. Im Rahmen einer Simulationsstudie werden anschließend die Auswirkungen von verschiedenen Ausfallquoten und -mechanismen anhand von sechs empirischen Datensätzen untersucht. Neben einer Analyse verschiedener Einflussgrößen erfolgt ein Vergleich der vorgestellten Verfahren zur Behandlung der fehlenden Werte. Es zeigt sich, dass keines der untersuchten Verfahren allen anderen Verfahren in jeder Hinsicht überlegen ist und die Wahl des "besten" Verfahrens von der Struktur des Datensatzes und der späteren Verwendung der Regressionsfunktion abhängt. Darüber hinaus konnte festgestellt werden, dass eine Erhöhung der Ausfallquote im Allgemeinen zu einer Verschlechterung der Ergebnisse führt. Die Einflüsse der Objekt- und Merkmalsanzahl hängen von dem jeweiligen Verfahren und den weiteren Eigenschaften des Datensatzes ab und sollten stets zusammen betrachtet werden.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020200403
Rockel, Tobias;
Vergleich von Imputationsverfahren - eine Simulationsstudie. - Ilmenau : Technische Universität Ilmenau, Fakultät für Wirtschaftswissenschaften und Medien, Institut für Wirtschaftsinformatik, 2018. - 1 Online-Ressource (iii, 31 Seiten). . - (Ilmenauer Beiträge zur Wirtschaftsinformatik. - 2018,1) ISBN 978-3-938940-60-0

Imputationsverfahren stellen eine Strategie zum Umgang mit fehlenden Werten dar. Der Vorteil der Imputationsverfahren ist, dass sie einen vervollständigten Datensatz zur Verfügung stellen, der mit Hilfe herkömmlicher Analyseverfahren ausgewertet werden kann. Dabei ist jedoch zu beachten, dass eine Imputation auch zu Verzerrungen von Analyseergebnissen führen kann. Die Auswirkungen verschiedener Imputationsverfahren auf unterschiedliche Datensatzstrukturen wird in diesem Arbeitspapier mit Hilfe einer Simulationsstudie untersucht. Dabei zeigt sich, dass keins der untersuchten Imputationsverfahren in jeder Situation allen anderen Verfahren überlegen ist. Vielmehr sollte bei der Auswahl eines Imputationsverfahrens das Analyseziel und die Struktur des vorliegenden Datensatzes berücksichtigt werden.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2018200160
Rockel, Tobias;
Gütevergleich von Imputationsverfahren - eine Analyse existierender Simulationsstudien. - Ilmenau : Technische Universität Ilmenau, Fakultät für Wirtschaftswissenschaften, Institut für Wirtschaftsinformatik, 2017. - 1 Online-Ressource (iii, 32 Seiten). . - (Ilmenauer Beiträge zur Wirtschaftsinformatik. - 2017,1)

Das vorliegende Arbeitspapier aggregiert die Erkenntnisse aus 125 Simulationsstudien, die Imputationsverfahren vergleichen. Dazu werden zunächst der Aufbau der Studien untersucht und die Studien mit verlässlichen Ergebnissen ausgewählt. Diese Studien bilden die Basis für eine Analyse der Imputationsverfahren. Hierbei werden die Verfahren zunächst separat betrachtet und danach paarweise miteinander verglichen. Zusammenfassend ergeben beide Untersuchungen, dass die Imputation mittels adaptiver Regression, die multiple Imputation und die ML-Parameterschätzverfahren am besten zur Behandlung fehlender Werte geeignet sind. Über den Verfahrensvergleich hinaus erlauben die Studien auch Rückschlüsse über Faktoren, die die Qualität der Imputation beeinflussen. Die Studien zeigen, dass sowohl eine größere Anzahl an Objekten als auch ein geringere Anteil fehlender Werte zu besseren Ergebnissen führen. Die Aggregation der Studien zeigt auch weiteren Forschungsbedarf auf. Zum einen sind die Auswirkungen der Merkmale auf die Imputationsqualität nicht eindeutig und zum anderen sind viele Verfahren noch nie oder nicht häufig genug für belastbare Aussagen miteinander verglichen worden. Insbesondere wurden die drei besten Verfahren in keiner Studie direkt miteinander verglichen.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2017200274
Rockel, Tobias; Joenssen, Dieter William; Bankhofer, Udo;
Decision trees for the imputation of categorical data. - In: Archives of data science. - Karlsruhe : KIT Scientific Publishing, ISSN 2363-9881, Bd. 2 (2017), 1, insges. 15 S.

Resolving the problem of missing data via imputation can theoretically be done by any prediction model. In the field of machine learning, a well known type of prediction model is a decision tree. However, the literature on how suitable a decision tree is for imputation is still scant to date. Therefore, the aim of this paper is to analyze the imputation quality of decision trees. Furthermore, we present a way to conduct a stochastic imputation using decision trees. We ran a simulation study to compare the deterministic and stochastic imputation approach using decision trees among each other and with other imputation methods. For this study, real datasets and various missing data settings are used. In addition, three different quality criteria are considered. The results of the study indicate that the choice of imputation method should be based on the intended analysis.



Joenssen, Dieter William; Müllerleile, Thomas;
Limitless crowdfunding? : the effect of scarcity management. - In: Crowdfunding in Europe. - Cham [u.a.] : Springer, (2016), S. 193-199
- Literaturangaben

Rockel, Tobias; Joenssen, Dieter William; ; Bankhofer, Udo;
Entscheidungsbäume zur Imputation kategorialer Daten. - Ilmenau : Techn. Univ., Inst. für Wirtschaftsinformatik, 2015. - Online-Ressource (PDF-Datei: III, 13 S., 355,4 KB). . - (Ilmenauer Beiträge zur Wirtschaftsinformatik. - 2015,2) ISBN 978-3-938940-57-0

Entscheidungsbäume sind als Prognoseverfahren im Bereich des maschinellen Lernens verbreitet. Jedoch fehlt bisher eine Untersuchung, in wieweit sich die Algorithmen auch zur Imputation eignen. Dies ist insbesonders vor dem Hintergrund der verschiedenen Zielstellungen einer Imputation und einer Klassifikation relevant. So liegt bei einer Imputation häufig ein stärkerer Fokus auf der Struktur des Gesamtdatensatzes, wohingegen eine Klassifikation auf eine möglichst genaue Vorhersage einzelner Objekte abzielt. Neben den klassischen deterministischen Entscheidungsbäumen mit Majority Rule werden daher auch Entscheidungsbäume mit Class Probability Rule mit einer Zufallskomponente in die Untersuchung mit einbezogen. In einer Simulationsstudie, in der als Vergleichsverfahren zusätzlich eine Modus-Imputation und ein Random Hot Deck eingesetzt werden, zeigt sich, dass kein Verfahren in allen Fällen zum besten Ergebnis führt. So führt die Imputation mittels Entscheidungsbaum und Class Probability Rule meist zur geringsten Verzerrung der Häufigkeitsverteilung, jedoch stellt der Entscheidungsbaum mit Majority Rule meist die ursprünglichen Werte am besten wieder her. Welches Verfahren zur Imputation verwendet werden sollte, ist also abhängig vom Ziel der Imputation.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2015200187
Joenssen, Dieter William Hermann;
Hot-Deck-Verfahren zur Imputation fehlender Daten : Auswirkungen des Donor Limits, 2015. - Online-Ressource (PDF-Datei: IX, 220 S., 3,73 MB). Ilmenau : Techn. Univ., Diss., 2015

Imputationsverfahren stellen eine von mehreren Möglichkeiten dar, dem Problem fehlender Daten bei empirischen Untersuchungen zu begegnen. Im Gegensatz zu den Eliminierungsverfahren, die Objekte und/oder Merkmale mit fehlenden Werten aus der weiteren Analyse ausschließen, und den Parameterschätzverfahren, die auf der Basis von Verteilungsannahmen die gewünschten Parameter aus einer unvollständigen Datenmatrix direkt schätzen, werden bei den Imputationsverfahren die fehlenden durch geeignete Werte ersetzt. Dadurch resultiert letztendlich eine vollständige Datenmatrix, bei der herkömmliche statistische Verfahren zur Datenauswertung herangezogen werden können. Hot-Deck-Verfahren sind spezielle Imputationsverfahren, die auf der Duplizierung vorhandener Werte basieren. Das Objekt, das dabei die vorhandenen Daten zur Imputation liefert, wird als Spender bezeichnet, und das Objekt, bei dem die Werte fehlen, wird als Empfänger bezeichnet. Da beim grundlegenden Algorithmus die Möglichkeit besteht, dass ein Spender mehreren Empfängern zugeordnet wird, beschränken einige Hot-Deck-Varianten, wie häufig ein Spender zur Imputation ausgewählt werden kann. Dieses sogenannte Donor-Limit führt theoretisch zu einer Reihe an wünschenswerten Algorithmuseigenschaften. Unter anderem wird das Risiko, dass ein Spender zu häufig verwendet oder gar allen Empfängern zugeordnet wird, beschränkt. Die vorliegende Dissertation untersucht, ob die theoretischen Vorteile des Donor-Limits empirisch haltbar sind, und im Spannungsfeld mit den möglichen Nachteilen überwiegen. Hierzu werden zunächst Grundlagen der Missing-Data-Theorie dargestellt und erarbeitet. Danach erfolgt eine Darstellung der historischen Entwicklung der Hot-Deck-Verfahren, auf deren Basis eine allgemeingültige Definition aufgestellt wird. Im Anschluss werden existente Hot-Deck-Varianten anhand der vier identifizierten Eigenschaften systematisiert und dargestellt. Abgeschlossen wird die Dissertation mit empirischen Untersuchungen zu der Vorteilhaftigkeit des Donor-Limits. Diese umfassenden Simulationsstudien weisen darauf hin, dass ein Donor-Limit zur Verbesserung der Impuationsqualität in vielen Situationen zwingend erforderlich ist. Ferner können Grenzfälle und Tendenzen identifiziert werden, unter denen ein Donor-Limit zu schlechteren Imputationsergebnissen führt.



http://www.db-thueringen.de/servlets/DocumentServlet?id=26076
Fox, Alexander; Müllerleile, Thomas; ; Joenssen, Dieter William;
Zur Eignung von Mezzanine-Kapital für Crowdfunding in Deutschland. - In: Corporate finance. - Düsseldorf : Handelsblatt Fachmedien, ISSN 2198-8889, Bd. 6 (2015), 1/2, S. 1-9

Der Beitrag beschäftigt sich mit Crowdfunding als Finanzierungsmöglichkeit für innovative Unternehmen in der Early Stage-Phase. Auf deutschen Crowdfunding-Plattformen mit der Ausrichtung auf monetäre Gegenleistungen dominiert mittlerweile Mezzanine-Kapital. Der Vorteil liegt zweifelsohne in der Kombination von vorteilhaften Aspekten der Eigen- und Fremdfinanzierung. Zudem ist die Ausrichtung auf private Kapitalgeber förderlich bei der Platzierung von Mezzanine-Kapital auf Crowdfunding-Plattformen.



Vogel, Jürgen;
Prognose von Zeitreihen : eine Einführung für Wirtschaftswissenschaftler. - Wiesbaden : Springer Gabler, 2015. - 167 Seiten. ISBN 3-658-06836-1
- Literaturangaben

Zuverlässige Aussagen über die weitere Entwicklung unserer Volkswirtschaft, der Güter- und Finanzmärkte oder eines Betriebes sind nicht nur für Politiker und Unternehmer von großer Bedeutung, sondern betreffen auch jeden Einzelnen. In diesem Buch wird in kompakter Form die Fortsetzung einer zeitlich erhobenen Datenreihe in die Zukunft behandelt. Zahlreiche, mit realen Daten berechnete Beispiele ermöglichen es, die Verfahren und quantitativen Prognosetechniken nachzuvollziehen. Dabei werden auch Hinweise zum Einsatz der Statistik-Software R gegeben. Viele Abbildungen veranschaulichen das Vorgehen und die Interpretation der Ergebnisse. Der Inhalt: - Allgemeine Prognosetechniken und Prognosefehler, - Theoretische Grundlagen von Zeitreihen, - Komponentenmodelle, - ARMA-Modelle, - ARIMA- und SARIMA-Modelle, - Volatilitätsmodelle.