Publikationen

Anzahl der Treffer: 61
Erstellt: Wed, 24 Apr 2024 23:14:28 +0200 in 0.0811 sec


Rockel, Tobias; Bankhofer, Udo; Bankhofer, Udo *1966-*; Joenssen, Dieter William;
Entscheidungsbäume zur Imputation kategorialer Daten. - Ilmenau : Techn. Univ., Inst. für Wirtschaftsinformatik, 2015. - Online-Ressource (PDF-Datei: III, 13 S., 355,4 KB). - (Ilmenauer Beiträge zur Wirtschaftsinformatik ; 2015,2) ISBN 978-3-938940-57-0

Entscheidungsbäume sind als Prognoseverfahren im Bereich des maschinellen Lernens verbreitet. Jedoch fehlt bisher eine Untersuchung, in wieweit sich die Algorithmen auch zur Imputation eignen. Dies ist insbesonders vor dem Hintergrund der verschiedenen Zielstellungen einer Imputation und einer Klassifikation relevant. So liegt bei einer Imputation häufig ein stärkerer Fokus auf der Struktur des Gesamtdatensatzes, wohingegen eine Klassifikation auf eine möglichst genaue Vorhersage einzelner Objekte abzielt. Neben den klassischen deterministischen Entscheidungsbäumen mit Majority Rule werden daher auch Entscheidungsbäume mit Class Probability Rule mit einer Zufallskomponente in die Untersuchung mit einbezogen. In einer Simulationsstudie, in der als Vergleichsverfahren zusätzlich eine Modus-Imputation und ein Random Hot Deck eingesetzt werden, zeigt sich, dass kein Verfahren in allen Fällen zum besten Ergebnis führt. So führt die Imputation mittels Entscheidungsbaum und Class Probability Rule meist zur geringsten Verzerrung der Häufigkeitsverteilung, jedoch stellt der Entscheidungsbaum mit Majority Rule meist die ursprünglichen Werte am besten wieder her. Welches Verfahren zur Imputation verwendet werden sollte, ist also abhängig vom Ziel der Imputation.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2015200187
Joenssen, Dieter William Hermann;
Hot-Deck-Verfahren zur Imputation fehlender Daten : Auswirkungen des Donor Limits, 2015. - Online-Ressource (PDF-Datei: IX, 220 S., 3,73 MB) Ilmenau : Techn. Univ., Diss., 2015

Imputationsverfahren stellen eine von mehreren Möglichkeiten dar, dem Problem fehlender Daten bei empirischen Untersuchungen zu begegnen. Im Gegensatz zu den Eliminierungsverfahren, die Objekte und/oder Merkmale mit fehlenden Werten aus der weiteren Analyse ausschließen, und den Parameterschätzverfahren, die auf der Basis von Verteilungsannahmen die gewünschten Parameter aus einer unvollständigen Datenmatrix direkt schätzen, werden bei den Imputationsverfahren die fehlenden durch geeignete Werte ersetzt. Dadurch resultiert letztendlich eine vollständige Datenmatrix, bei der herkömmliche statistische Verfahren zur Datenauswertung herangezogen werden können. Hot-Deck-Verfahren sind spezielle Imputationsverfahren, die auf der Duplizierung vorhandener Werte basieren. Das Objekt, das dabei die vorhandenen Daten zur Imputation liefert, wird als Spender bezeichnet, und das Objekt, bei dem die Werte fehlen, wird als Empfänger bezeichnet. Da beim grundlegenden Algorithmus die Möglichkeit besteht, dass ein Spender mehreren Empfängern zugeordnet wird, beschränken einige Hot-Deck-Varianten, wie häufig ein Spender zur Imputation ausgewählt werden kann. Dieses sogenannte Donor-Limit führt theoretisch zu einer Reihe an wünschenswerten Algorithmuseigenschaften. Unter anderem wird das Risiko, dass ein Spender zu häufig verwendet oder gar allen Empfängern zugeordnet wird, beschränkt. Die vorliegende Dissertation untersucht, ob die theoretischen Vorteile des Donor-Limits empirisch haltbar sind, und im Spannungsfeld mit den möglichen Nachteilen überwiegen. Hierzu werden zunächst Grundlagen der Missing-Data-Theorie dargestellt und erarbeitet. Danach erfolgt eine Darstellung der historischen Entwicklung der Hot-Deck-Verfahren, auf deren Basis eine allgemeingültige Definition aufgestellt wird. Im Anschluss werden existente Hot-Deck-Varianten anhand der vier identifizierten Eigenschaften systematisiert und dargestellt. Abgeschlossen wird die Dissertation mit empirischen Untersuchungen zu der Vorteilhaftigkeit des Donor-Limits. Diese umfassenden Simulationsstudien weisen darauf hin, dass ein Donor-Limit zur Verbesserung der Impuationsqualität in vielen Situationen zwingend erforderlich ist. Ferner können Grenzfälle und Tendenzen identifiziert werden, unter denen ein Donor-Limit zu schlechteren Imputationsergebnissen führt.



http://www.db-thueringen.de/servlets/DocumentServlet?id=26076
Fox, Alexander; Müllerleile, Thomas; Müllerleile, Thomas *1982-*; Joenssen, Dieter William;
Zur Eignung von Mezzanine-Kapital für Crowdfunding in Deutschland. - In: Corporate finance, ISSN 2198-8889, Bd. 6 (2015), 1/2, S. 1-9

Der Beitrag beschäftigt sich mit Crowdfunding als Finanzierungsmöglichkeit für innovative Unternehmen in der Early Stage-Phase. Auf deutschen Crowdfunding-Plattformen mit der Ausrichtung auf monetäre Gegenleistungen dominiert mittlerweile Mezzanine-Kapital. Der Vorteil liegt zweifelsohne in der Kombination von vorteilhaften Aspekten der Eigen- und Fremdfinanzierung. Zudem ist die Ausrichtung auf private Kapitalgeber förderlich bei der Platzierung von Mezzanine-Kapital auf Crowdfunding-Plattformen.



Joenssen, Dieter William; Michaelis, Anne; Müllerleile, Thomas
A link to new product preannouncement: success factors in crowdfunding. - In: SSRN eLibrary, ISSN 1556-5068, (2014), S. 1-22

https://dx.doi.org/10.2139/ssrn.2476841
Bankhofer, Udo;
Wirtschaftsmathematik und -statistik
2., überarb. und erw. Aufl.. - Stuttgart : Steinbeis-Ed., 2014. - XIV, 130 S.. - (Transfer-Dokumentation-Report, Steinbeis Business Administration Basics)Literaturverz. S. 122

Mathematische und statistische Methoden werden in vielen Bereichen der Betriebswirtschaftslehre benötigt, um entsprechende Probleme zu analysieren und zu lösen. Darüber hinaus dienen sie zur Vorbereitung und Unterstützung zahlreicher betrieblicher Entscheidungssituationen. Der vorliegende TDR Wirtschaftsmathematik und -Statistik soll dabei einen Einblick in grundlegende mathematische und statistische Verfahren geben und ein Basiswissen in diesem Bereich vermitteln.



Joenssen, Dieter William;
Testing for Benford's law: a Monte Carlo comparison of methods. - In: SSRN eLibrary, ISSN 1556-5068, (2015), S. 1-21

https://dx.doi.org/10.2139/ssrn.2545243
Michaelis, Anne; Joenssen, Dieter William; Müllerleile, Thomas; Pezoldt, Kerstin
Catching the crowd - applying insights from new product preannouncement for successful crowdfunding campaigns. - In: Engaging customers, 2014, S. G21-G22

Crowdfunding is a process where organizations or individuals seek to secure project funding by soliciting pledges from potential donors, usually via an internet platform. Crowdfunding is employed in many different categories, ranging from technology to arts. As a reward the pledgees receive, upon project success, a compensation respectively to their amount pledged, i.e., the product. This paper investigates the impact of theoretical constructs derived from product preannouncement literature on the success of crowdfunding campaigns by conducting a logistic regression. For empirical analysis, technology as a category was selected, yielding a subsample size of 1,042 out of 45,400 collected observations.



Joenssen, Dieter William; Müllerleile, Thomas;
Fehlende Daten beim Data-Mining. - In: HMD, ISSN 2198-2775, Bd. 51.2014, 4=298, S. 458-468

Der Beitrag zeigt, in welchem Schritt der Analyse von großen Datenmengen die Behandlung von fehlenden Daten stattfindet und warum ein angemessener Umgang mit diesen unerlässlich ist. Vorgestellt werden zudem Methoden zum Umgang mit fehlenden Werten, die sich insbesondere im Kontext von Data-Mining eignen, da hier die Komplexität der Algorithmen eine übergeordnete Rolle spielt. Abgerundet wird der Beitrag mit einer Fallstudie, in der die Verfahren auf einen Beispieldatensatz des US Census Bureau angewandt werden, der in ähnlicher Weise oft in CRM-Systemen der betrieblichen Umwelt anzutreffen ist. Thematisiert werden die Auswirkungen der Methoden sowie in der Praxis zu erwartende Herausforderungen.



http://dx.doi.org/10.1365/s40702-014-0038-8
Bankhofer, Udo; Joenssen, Dieter William
On limiting donor usage for imputation of missing data via hot deck methods. - In: Data analysis, machine learning and knowledge discovery, (2014), S. 3-11
Literaturverz. S. 10-11

Hot deck methods impute missing values within a data matrix by using available values from the same matrix. The object from which these available values are taken for imputation is called the donor. Selection of a suitable donor for the receiving object can be done within imputation classes. The risk inherent to this strategy is that any donor might be selected for multiple value recipients. In extreme cases one donor can be selected for too many or even all values. To mitigate this donor over usage risk, some hot deck procedures limit the amount of times one donor may be selected for value donation. This study answers if limiting donor usage is a superior strategy when considering imputation variance and bias in parameter estimates.



Joenssen, Dieter W.; Vogel, Jürgen
A power study of goodness-of-fit tests for multivariate normality implemented in R. - In: The journal of statistical computation and simulation, ISSN 1563-5163, Bd. 84 (2014), 5, S. 1055-1078

Multivariate statistical analysis procedures often require data to be multivariate normally distributed. Many tests have been developed to verify if a sample could indeed have come from a normally distributed population. These tests do not all share the same sensitivity for detecting departures from normality, and thus a choice of test is of central importance. This study investigates through simulated data the power of those tests for multivariate normality implemented in the statistic software R and pits them against the variant of testing each marginal distribution for normality. The results of testing two-dimensional data at a level of significance α=5% showed that almost one-third of those tests implemented in R do not have a type I error below this. Other tests outperformed the naive variant in terms of power even when the marginals were not normally distributed. Even though no test was consistently better than all alternatives with every alternative distribution, the energy-statistic test always showed relatively good power across all tested sample sizes.



http://dx.doi.org/10.1080/00949655.2012.739620