Publications

Anzahl der Treffer: 61
Erstellt: Sun, 28 Apr 2024 19:22:13 +0200 in 0.5678 sec


Röhrig, Steve;
Eine Simulationsstudie zum Umgang mit fehlenden nominalen Daten. - Ilmenau : Technische Universität Ilmenau, Fakultät für Wirtschaftswissenschaften, Institut für Wirtschaftsinformatik, 2023. - 1 Online-Ressource (iii, 59 Seiten). - (Ilmenauer Beiträge zur Wirtschaftsinformatik ; 2023,1) ISBN 978-3-938940-66-2

Durch eine Imputation lassen sich fehlende Werte innerhalb einer unvollständigen Datenmatrix ersetzen, wodurch eine vollständige Datenmatrix entsteht. Auf dieser Grundlage können anschließend weitere Analysen und Untersuchungen durchgeführt werden. Die Güte der Imputation kann anhand verschiedener Kriterien bewertet werden, die wiederum von den Eigenschaften der Datenmatrix mit fehlenden Werten abhängen. Im Rahmen einer Simulationsstudie werden die Auswirkungen dieser Eigenschaften auf die Ergebnisse verschiedener Imputationsverfahren für nominale Daten untersucht. Neben etablierten Gütekriterien wird auch ein eigens konzipiertes Bewertungskriterium herangezogen, um die Qualität der Imputationen zu beurteilen. Die Ergebnisse dieser Studie verdeutlichen, dass die Wahl eines geeigneten Imputationsverfahrens von den spezifischen Eigenschaften der unvollständigen Datenmatrix sowie den angestrebten Untersuchungszielen abhängt. Ein Verfahren, dass für alle Eigenschaften und Ziele die besten Ergebnisse erzeugt, konnte nicht gefunden werden.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2023200311
Bankhofer, Udo;
Quantitative Unternehmensplanung : mathematische Methoden und betriebliche Anwendungsbeispiele. - Wiesbaden : Springer Fachmedien Wiesbaden, 2022. - 1 Online-Ressource (X, 330 Seiten). - (Studienbücher Wirtschaftsmathematik) ISBN 978-3-8348-2466-0

Teil 1: Grundlagen der quantitativen Unternehmensplanung. Grundfragen der Planung -- Quantitative Planung im Unternehmen -- Teil 2: Optimierungsmodelle und Optimierungsmethoden. Lineare Optimierung. Ganzzahlige Optimierung -- Nichtlineare Optimierung -- Teil 3: Projektplanung und Netzplantechnik. Graphentheoretische Grundlagen -- Grundbegriffe und Darstellungsformen für Netzpläne -- Zeitplanung mit Vorgangsknotennetzen -- Zeitplanung mit Vorgangspfeilnetzen -- Optimale Flüsse in Digraphen -- Planung von Projektkosten -- Teil 4: Stochastische Modelle. Homogene Markovketten -- Warteschlangen -- Lagerhaltungsmodelle -- Teil 5: Nichtexakte Lösungsverfahren. Heuristische Verfahren -- Simulation -- Literaturverzeichnis -- Stichwortverzeichnis.



https://doi.org/10.1007/978-3-8348-2466-0
Rockel, Tobias;
Güteuntersuchung von Imputationsverfahren für unvollständige Datenmatrizen. - Ilmenau : Universitätsverlag Ilmenau, 2022. - 1 Online-Ressource (XVI, 347 Seiten)
Technische Universität Ilmenau, Dissertation 2022

Reale Datenmatrizen sind häufig unvollständig und können aus diesem Grund normalerweise nicht direkt ausgewertet werden. Eine Möglichkeit, mit diesem Problem umzugehen, sind Imputationsverfahren, die fehlende Werte ersetzen. Dieses Werk gibt zunächst einen Überblick über gängige Imputationsverfahren und stellt darauf aufbauend einen generellen Aufbau von Imputationsverfahren vor. Anhand von existierenden Simulationsstudien und einer eigenen Simulationsstudie wird die Güte verschiedener Imputationsverfahren analysiert. Basierend auf diesen Ergebnissen werden unter anderem Empfehlungen für die Auswahl von Imputationsverfahren abgeleitet.



https://doi.org/10.22032/dbt.53257
Röhrig, Steve; Rockel, Tobias
Analyse existierender Simulationsstudien zum Umgang mit fehlenden qualitativen Daten. - Ilmenau : Technische Universität Ilmenau, Fakultät für Wirtschaftswissenschaften, Institut für Wirtschaftsinformatik, 2020. - 1 Online-Ressource (iii, 14 Seiten). - (Ilmenauer Beiträge zur Wirtschaftsinformatik ; 2020,4) ISBN 978-3-938940-63-1

Das vorliegende Arbeitspapier betrachtet die Struktur von 30 Simulationsstudien, welche die Güte von verschiedenen MD-Verfahren für fehlende Werte in qualitativen Merkmalen untersuchen. Für die Betrachtung wird zunächst der allgemeine Aufbau der Studien beschrieben. Des Weiteren werden Merkmale der in den Studien verwendeten Datenmatrizen erhoben, aggregiert und ausgewertet. Dabei ist auffällig, dass z. B. ordinalskalierte Merkmale verhältnismäßig wenig untersucht werden. Darüber hinaus werden mit den verwendeten Ausfallraten gemeinsam mit den Ausfallmechanismen und -mustern die Variationen der fehlenden Daten in den Studien betrachtet. Ein weiterer Überblick wird außerdem zu den verwendeten MD-Verfahren und Bewertungskriterien gegeben. Dabei ist auffällig, dass bei den MD-Verfahren und den Bewertungskriterien sehr viele Unterschiede zwischen den Studien existieren, wodurch im Endeffekt kein MD-Verfahren oder Bewertungskriterium in mehr als 60 % der Studien verwendet wird.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020200439
Ströhl, Florian; Rockel, Tobias
Auswirkungen fehlender Daten in der multiplen Regression : eine Simulationsstudie. - Ilmenau : Technische Universität Ilmenau, Fakultät für Wirtschaftswissenschaften, Institut für Wirtschaftsinformatik, 2020. - 1 Online-Ressource (iii, 37 Seiten). - (Ilmenauer Beiträge zur Wirtschaftsinformatik ; 2020,3) ISBN 978-3-938940-62-4

Fehlende Werte stellen in zahlreichen praktischen Anwendungen vie-mehr den Regelfall als eine Ausnahme dar, erweisen sich aber bei vielen statistischen Verfahren als störend. Die vorliegende Studie untersucht die Auswirkungen von fehlenden Werten auf die Ergebnisse der multiplen linearen Regression. Dazu werden zunächst spezielle Formen von fehlenden Daten und ausgewählte Verfahren zum Umgang mit diesen vorgestellt. Im Rahmen einer Simulationsstudie werden anschließend die Auswirkungen von verschiedenen Ausfallquoten und -mechanismen anhand von sechs empirischen Datensätzen untersucht. Neben einer Analyse verschiedener Einflussgrößen erfolgt ein Vergleich der vorgestellten Verfahren zur Behandlung der fehlenden Werte. Es zeigt sich, dass keines der untersuchten Verfahren allen anderen Verfahren in jeder Hinsicht überlegen ist und die Wahl des "besten" Verfahrens von der Struktur des Datensatzes und der späteren Verwendung der Regressionsfunktion abhängt. Darüber hinaus konnte festgestellt werden, dass eine Erhöhung der Ausfallquote im Allgemeinen zu einer Verschlechterung der Ergebnisse führt. Die Einflüsse der Objekt- und Merkmalsanzahl hängen von dem jeweiligen Verfahren und den weiteren Eigenschaften des Datensatzes ab und sollten stets zusammen betrachtet werden.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020200403
Rockel, Tobias;
Vergleich von Imputationsverfahren - eine Simulationsstudie. - Ilmenau : Technische Universität Ilmenau, Fakultät für Wirtschaftswissenschaften und Medien, Institut für Wirtschaftsinformatik, 2018. - 1 Online-Ressource (iii, 31 Seiten). - (Ilmenauer Beiträge zur Wirtschaftsinformatik ; 2018,1) ISBN 978-3-938940-60-0

Imputationsverfahren stellen eine Strategie zum Umgang mit fehlenden Werten dar. Der Vorteil der Imputationsverfahren ist, dass sie einen vervollständigten Datensatz zur Verfügung stellen, der mit Hilfe herkömmlicher Analyseverfahren ausgewertet werden kann. Dabei ist jedoch zu beachten, dass eine Imputation auch zu Verzerrungen von Analyseergebnissen führen kann. Die Auswirkungen verschiedener Imputationsverfahren auf unterschiedliche Datensatzstrukturen wird in diesem Arbeitspapier mit Hilfe einer Simulationsstudie untersucht. Dabei zeigt sich, dass keins der untersuchten Imputationsverfahren in jeder Situation allen anderen Verfahren überlegen ist. Vielmehr sollte bei der Auswahl eines Imputationsverfahrens das Analyseziel und die Struktur des vorliegenden Datensatzes berücksichtigt werden.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2018200160
Rockel, Tobias;
Gütevergleich von Imputationsverfahren - eine Analyse existierender Simulationsstudien. - Ilmenau : Technische Universität Ilmenau, Fakultät für Wirtschaftswissenschaften, Institut für Wirtschaftsinformatik, 2017. - 1 Online-Ressource (iii, 32 Seiten). - (Ilmenauer Beiträge zur Wirtschaftsinformatik ; 2017,1) ISBN 978-3-938940-59-4

Das vorliegende Arbeitspapier aggregiert die Erkenntnisse aus 125 Simulationsstudien, die Imputationsverfahren vergleichen. Dazu werden zunächst der Aufbau der Studien untersucht und die Studien mit verlässlichen Ergebnissen ausgewählt. Diese Studien bilden die Basis für eine Analyse der Imputationsverfahren. Hierbei werden die Verfahren zunächst separat betrachtet und danach paarweise miteinander verglichen. Zusammenfassend ergeben beide Untersuchungen, dass die Imputation mittels adaptiver Regression, die multiple Imputation und die ML-Parameterschätzverfahren am besten zur Behandlung fehlender Werte geeignet sind. Über den Verfahrensvergleich hinaus erlauben die Studien auch Rückschlüsse über Faktoren, die die Qualität der Imputation beeinflussen. Die Studien zeigen, dass sowohl eine größere Anzahl an Objekten als auch ein geringere Anteil fehlender Werte zu besseren Ergebnissen führen. Die Aggregation der Studien zeigt auch weiteren Forschungsbedarf auf. Zum einen sind die Auswirkungen der Merkmale auf die Imputationsqualität nicht eindeutig und zum anderen sind viele Verfahren noch nie oder nicht häufig genug für belastbare Aussagen miteinander verglichen worden. Insbesondere wurden die drei besten Verfahren in keiner Studie direkt miteinander verglichen.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2017200274
Rockel, Tobias; Joenssen, Dieter William; Bankhofer, Udo
Decision trees for the imputation of categorical data. - In: Archives of data science, ISSN 2363-9881, Bd. 2 (2017), 1, insges. 15 S.

Resolving the problem of missing data via imputation can theoretically be done by any prediction model. In the field of machine learning, a well known type of prediction model is a decision tree. However, the literature on how suitable a decision tree is for imputation is still scant to date. Therefore, the aim of this paper is to analyze the imputation quality of decision trees. Furthermore, we present a way to conduct a stochastic imputation using decision trees. We ran a simulation study to compare the deterministic and stochastic imputation approach using decision trees among each other and with other imputation methods. For this study, real datasets and various missing data settings are used. In addition, three different quality criteria are considered. The results of the study indicate that the choice of imputation method should be based on the intended analysis.



Joenssen, Dieter William; Müllerleile, Thomas;
Limitless crowdfunding? : the effect of scarcity management. - In: Crowdfunding in Europe, (2016), S. 193-199
Literaturangaben

Vogel, Jürgen;
Prognose von Zeitreihen : eine Einführung für Wirtschaftswissenschaftler. - Wiesbaden : Springer Gabler, 2015. - 167 Seiten ISBN 3-658-06836-1
Literaturangaben

Zuverlässige Aussagen über die weitere Entwicklung unserer Volkswirtschaft, der Güter- und Finanzmärkte oder eines Betriebes sind nicht nur für Politiker und Unternehmer von großer Bedeutung, sondern betreffen auch jeden Einzelnen. In diesem Buch wird in kompakter Form die Fortsetzung einer zeitlich erhobenen Datenreihe in die Zukunft behandelt. Zahlreiche, mit realen Daten berechnete Beispiele ermöglichen es, die Verfahren und quantitativen Prognosetechniken nachzuvollziehen. Dabei werden auch Hinweise zum Einsatz der Statistik-Software R gegeben. Viele Abbildungen veranschaulichen das Vorgehen und die Interpretation der Ergebnisse. Der Inhalt: - Allgemeine Prognosetechniken und Prognosefehler, - Theoretische Grundlagen von Zeitreihen, - Komponentenmodelle, - ARMA-Modelle, - ARIMA- und SARIMA-Modelle, - Volatilitätsmodelle.



Rockel, Tobias; Bankhofer, Udo; Bankhofer, Udo *1966-*; Joenssen, Dieter William;
Entscheidungsbäume zur Imputation kategorialer Daten. - Ilmenau : Techn. Univ., Inst. für Wirtschaftsinformatik, 2015. - Online-Ressource (PDF-Datei: III, 13 S., 355,4 KB). - (Ilmenauer Beiträge zur Wirtschaftsinformatik ; 2015,2) ISBN 978-3-938940-57-0

Entscheidungsbäume sind als Prognoseverfahren im Bereich des maschinellen Lernens verbreitet. Jedoch fehlt bisher eine Untersuchung, in wieweit sich die Algorithmen auch zur Imputation eignen. Dies ist insbesonders vor dem Hintergrund der verschiedenen Zielstellungen einer Imputation und einer Klassifikation relevant. So liegt bei einer Imputation häufig ein stärkerer Fokus auf der Struktur des Gesamtdatensatzes, wohingegen eine Klassifikation auf eine möglichst genaue Vorhersage einzelner Objekte abzielt. Neben den klassischen deterministischen Entscheidungsbäumen mit Majority Rule werden daher auch Entscheidungsbäume mit Class Probability Rule mit einer Zufallskomponente in die Untersuchung mit einbezogen. In einer Simulationsstudie, in der als Vergleichsverfahren zusätzlich eine Modus-Imputation und ein Random Hot Deck eingesetzt werden, zeigt sich, dass kein Verfahren in allen Fällen zum besten Ergebnis führt. So führt die Imputation mittels Entscheidungsbaum und Class Probability Rule meist zur geringsten Verzerrung der Häufigkeitsverteilung, jedoch stellt der Entscheidungsbaum mit Majority Rule meist die ursprünglichen Werte am besten wieder her. Welches Verfahren zur Imputation verwendet werden sollte, ist also abhängig vom Ziel der Imputation.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2015200187
Joenssen, Dieter William Hermann;
Hot-Deck-Verfahren zur Imputation fehlender Daten : Auswirkungen des Donor Limits, 2015. - Online-Ressource (PDF-Datei: IX, 220 S., 3,73 MB) Ilmenau : Techn. Univ., Diss., 2015

Imputationsverfahren stellen eine von mehreren Möglichkeiten dar, dem Problem fehlender Daten bei empirischen Untersuchungen zu begegnen. Im Gegensatz zu den Eliminierungsverfahren, die Objekte und/oder Merkmale mit fehlenden Werten aus der weiteren Analyse ausschließen, und den Parameterschätzverfahren, die auf der Basis von Verteilungsannahmen die gewünschten Parameter aus einer unvollständigen Datenmatrix direkt schätzen, werden bei den Imputationsverfahren die fehlenden durch geeignete Werte ersetzt. Dadurch resultiert letztendlich eine vollständige Datenmatrix, bei der herkömmliche statistische Verfahren zur Datenauswertung herangezogen werden können. Hot-Deck-Verfahren sind spezielle Imputationsverfahren, die auf der Duplizierung vorhandener Werte basieren. Das Objekt, das dabei die vorhandenen Daten zur Imputation liefert, wird als Spender bezeichnet, und das Objekt, bei dem die Werte fehlen, wird als Empfänger bezeichnet. Da beim grundlegenden Algorithmus die Möglichkeit besteht, dass ein Spender mehreren Empfängern zugeordnet wird, beschränken einige Hot-Deck-Varianten, wie häufig ein Spender zur Imputation ausgewählt werden kann. Dieses sogenannte Donor-Limit führt theoretisch zu einer Reihe an wünschenswerten Algorithmuseigenschaften. Unter anderem wird das Risiko, dass ein Spender zu häufig verwendet oder gar allen Empfängern zugeordnet wird, beschränkt. Die vorliegende Dissertation untersucht, ob die theoretischen Vorteile des Donor-Limits empirisch haltbar sind, und im Spannungsfeld mit den möglichen Nachteilen überwiegen. Hierzu werden zunächst Grundlagen der Missing-Data-Theorie dargestellt und erarbeitet. Danach erfolgt eine Darstellung der historischen Entwicklung der Hot-Deck-Verfahren, auf deren Basis eine allgemeingültige Definition aufgestellt wird. Im Anschluss werden existente Hot-Deck-Varianten anhand der vier identifizierten Eigenschaften systematisiert und dargestellt. Abgeschlossen wird die Dissertation mit empirischen Untersuchungen zu der Vorteilhaftigkeit des Donor-Limits. Diese umfassenden Simulationsstudien weisen darauf hin, dass ein Donor-Limit zur Verbesserung der Impuationsqualität in vielen Situationen zwingend erforderlich ist. Ferner können Grenzfälle und Tendenzen identifiziert werden, unter denen ein Donor-Limit zu schlechteren Imputationsergebnissen führt.



http://www.db-thueringen.de/servlets/DocumentServlet?id=26076
Fox, Alexander; Müllerleile, Thomas; Müllerleile, Thomas *1982-*; Joenssen, Dieter William;
Zur Eignung von Mezzanine-Kapital für Crowdfunding in Deutschland. - In: Corporate finance, ISSN 2198-8889, Bd. 6 (2015), 1/2, S. 1-9

Der Beitrag beschäftigt sich mit Crowdfunding als Finanzierungsmöglichkeit für innovative Unternehmen in der Early Stage-Phase. Auf deutschen Crowdfunding-Plattformen mit der Ausrichtung auf monetäre Gegenleistungen dominiert mittlerweile Mezzanine-Kapital. Der Vorteil liegt zweifelsohne in der Kombination von vorteilhaften Aspekten der Eigen- und Fremdfinanzierung. Zudem ist die Ausrichtung auf private Kapitalgeber förderlich bei der Platzierung von Mezzanine-Kapital auf Crowdfunding-Plattformen.



Joenssen, Dieter William; Michaelis, Anne; Müllerleile, Thomas
A link to new product preannouncement: success factors in crowdfunding. - In: SSRN eLibrary, ISSN 1556-5068, (2014), S. 1-22

https://dx.doi.org/10.2139/ssrn.2476841
Bankhofer, Udo;
Wirtschaftsmathematik und -statistik
2., überarb. und erw. Aufl.. - Stuttgart : Steinbeis-Ed., 2014. - XIV, 130 S.. - (Transfer-Dokumentation-Report, Steinbeis Business Administration Basics)Literaturverz. S. 122

Mathematische und statistische Methoden werden in vielen Bereichen der Betriebswirtschaftslehre benötigt, um entsprechende Probleme zu analysieren und zu lösen. Darüber hinaus dienen sie zur Vorbereitung und Unterstützung zahlreicher betrieblicher Entscheidungssituationen. Der vorliegende TDR Wirtschaftsmathematik und -Statistik soll dabei einen Einblick in grundlegende mathematische und statistische Verfahren geben und ein Basiswissen in diesem Bereich vermitteln.



Joenssen, Dieter William;
Testing for Benford's law: a Monte Carlo comparison of methods. - In: SSRN eLibrary, ISSN 1556-5068, (2015), S. 1-21

https://dx.doi.org/10.2139/ssrn.2545243
Michaelis, Anne; Joenssen, Dieter William; Müllerleile, Thomas; Pezoldt, Kerstin
Catching the crowd - applying insights from new product preannouncement for successful crowdfunding campaigns. - In: Engaging customers, 2014, S. G21-G22

Crowdfunding is a process where organizations or individuals seek to secure project funding by soliciting pledges from potential donors, usually via an internet platform. Crowdfunding is employed in many different categories, ranging from technology to arts. As a reward the pledgees receive, upon project success, a compensation respectively to their amount pledged, i.e., the product. This paper investigates the impact of theoretical constructs derived from product preannouncement literature on the success of crowdfunding campaigns by conducting a logistic regression. For empirical analysis, technology as a category was selected, yielding a subsample size of 1,042 out of 45,400 collected observations.



Joenssen, Dieter William; Müllerleile, Thomas;
Fehlende Daten beim Data-Mining. - In: HMD, ISSN 2198-2775, Bd. 51.2014, 4=298, S. 458-468

Der Beitrag zeigt, in welchem Schritt der Analyse von großen Datenmengen die Behandlung von fehlenden Daten stattfindet und warum ein angemessener Umgang mit diesen unerlässlich ist. Vorgestellt werden zudem Methoden zum Umgang mit fehlenden Werten, die sich insbesondere im Kontext von Data-Mining eignen, da hier die Komplexität der Algorithmen eine übergeordnete Rolle spielt. Abgerundet wird der Beitrag mit einer Fallstudie, in der die Verfahren auf einen Beispieldatensatz des US Census Bureau angewandt werden, der in ähnlicher Weise oft in CRM-Systemen der betrieblichen Umwelt anzutreffen ist. Thematisiert werden die Auswirkungen der Methoden sowie in der Praxis zu erwartende Herausforderungen.



http://dx.doi.org/10.1365/s40702-014-0038-8
Bankhofer, Udo; Joenssen, Dieter William
On limiting donor usage for imputation of missing data via hot deck methods. - In: Data analysis, machine learning and knowledge discovery, (2014), S. 3-11
Literaturverz. S. 10-11

Hot deck methods impute missing values within a data matrix by using available values from the same matrix. The object from which these available values are taken for imputation is called the donor. Selection of a suitable donor for the receiving object can be done within imputation classes. The risk inherent to this strategy is that any donor might be selected for multiple value recipients. In extreme cases one donor can be selected for too many or even all values. To mitigate this donor over usage risk, some hot deck procedures limit the amount of times one donor may be selected for value donation. This study answers if limiting donor usage is a superior strategy when considering imputation variance and bias in parameter estimates.



Joenssen, Dieter W.; Vogel, Jürgen
A power study of goodness-of-fit tests for multivariate normality implemented in R. - In: The journal of statistical computation and simulation, ISSN 1563-5163, Bd. 84 (2014), 5, S. 1055-1078

Multivariate statistical analysis procedures often require data to be multivariate normally distributed. Many tests have been developed to verify if a sample could indeed have come from a normally distributed population. These tests do not all share the same sensitivity for detecting departures from normality, and thus a choice of test is of central importance. This study investigates through simulated data the power of those tests for multivariate normality implemented in the statistic software R and pits them against the variant of testing each marginal distribution for normality. The results of testing two-dimensional data at a level of significance α=5% showed that almost one-third of those tests implemented in R do not have a type I error below this. Other tests outperformed the naive variant in terms of power even when the marginals were not normally distributed. Even though no test was consistently better than all alternatives with every alternative distribution, the energy-statistic test always showed relatively good power across all tested sample sizes.



http://dx.doi.org/10.1080/00949655.2012.739620
Joenssen, Dieter William; Vogel, Jürgen
A comparative power study of goodness-of-fit tests for multivariate normality. - In: Essays on mathematics and statistics: [containing selected papers presented at the 5th and 6th ATINER Annual International Conferences on Mathematics and Statistics], ISBN 978-618-5065-18-8, (2013), S. 69-88

Joenssen, Dieter W.;
Two digit testing for Benford's law. - Online-Ressource (PDF-Datei: 6 S., 280,3 KB)Publ. entstand im Rahmen der Veranstaltung: 59th ISI World Statistics Congress, Hong Kong (China), 25. - 30. August 2013, Session: Statistical theory and methodology: Statistical inference (2) / CPS021 (26 Aug 2013), Paper 2. - http://www.statistics.gov.hk/wsc/CPS021-P2-S.pdf

Benford's law has been used by auditors to help reveal data manipulation not only in the context of tax audits and corporate accounting, but also election fraud. The principle idea behind Benford's law is that the frequency distribution of the first digits from numerical data of certain processes should conform to a discrete distribution known as the Benford distribution. Goodness-of-fit tests have been used to assess if the data's first digits conform to said distribution. When data should conform to Benford's law, a null-hypothesis rejection suggests that some form of data manipulation has taken place. Goodness-of-fit tests, like all tests of statistical significance, are prone not only to the type I error, which is limited by the chosen level of significance, but also to the type II error which decreases not only with sample size but is also inherently lower for some testing procedures than others. One possible procedural change is not to test the distribution of the data's first digit, as is the current standard, but to test the joint distribution of the data's first two digits. The gain in power would be due to an increased utilization of information, because, given that the null hypothesis is true, the distributions of the first and second digits are not independent. This paper describes how four goodness-of-fit tests can be extended to test the joint distribution of the first and second digit for conformity to Benford's law. Additionally, a comparison of power yielded by the original (one-digit) as well as the proposed (two-digit) analysis is provided.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2013200266
Joenssen, Dieter William;
Hot-Deck Imputation unter Verwendung eines Donor-Limit: ein ganzzahliges Optimierungsproblem. - Ilmenau : Techn. Univ., Inst. für Wirtschaftsinformatik, 2013. - Online-Ressource (PDF-Datei: V, 15 S., 402 KB). - (Ilmenauer Beiträge zur Wirtschaftsinformatik ; 2013,6) ISBN 978-3-938940-51-8
Literaturverz. S. 14 - 15

Hot-Deck Methoden imputierten fehlende Daten durch eine Zuordnung von vollständigen Objekten zu den Objekten, bei denen Werte fehlen. Fehlende Beobachtungen innerhalb des Rezipienten werden dann durch Verdopplung der Werte des zugeordneten Donor behoben. Einige Hot-Deck Verfahren begrenzen die Häufigkeit, mit der ein vollständiges Objekt seine Werte spenden kann, um die Präzision von der postimputationalen Parameterschätzung zu erhöhen. Diese Beschränkung, auch Donor-Limit gennant, beschränkt das Risiko, dass ein Spender exklusiv oder "zu häufig" zur Imputation herangezogen wird. Trotz dieser erstrebenswerten Eigenschaften sind in Konsequenz die Ergebnisse eines spenderbegrenzten Hot-Deck abhängig von der Reihenfolge, in der die Objekte mit fehlenden Werten imputiert werden. Dies ist eine unerwünschte Eigenschaft, da nun nicht mehr die Gesamtähnlichkeit zwischen allen Donor und Recipients maximiert wird durch die schrittweise Wahl des ähnlichsten Donor für einen Recipient. Daher kann die Imputationsqualität durch eine global optimale Zuordnung von Spendern zu Empfängern verbessert werden. In dieser Arbeit wird das ganzzahlige Optimierungsproblem formuliert sowie eine Simulation präsentiert die zeigt, dass eine bessere Lösung dieses Optimierungsproblems nie zu schlechteren Ergebnissen führt.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2013200251
Joenssen, Dieter William;
Zur Güte von Signifikanztests auf Benfordverteilung unter Nutzung der ersten zwei Ziffern. - Ilmenau : Techn. Univ., Inst. für Wirtschaftsinformatik, 2013. - Online-Ressource (PDF-Datei: V, 10 S., 480,7 KB). - (Ilmenauer Beiträge zur Wirtschaftsinformatik ; 2013,5) ISBN 978-3-938940-50-1
Literaturverz. S. 9 - 10

Das benfordsche Gesetz wird nicht nur im Bereich der Wirtschafts- und Steuerprüfung, sondern auch bei Wahlen verwendet, um Datenmanipulation aufzudecken. Der prinzipielle Gedanke hinter Benfords Gesetz ist, dass die ersten Ziffern von Zahlen, die aus bestimmten Prozessen stammen, einer als Benfords Verteilung bekannten diskreten Verteilung entsprechen. Operativ werden statistische Anpassungstests verwendet, um zu prüfen, ob die ersten Ziffern von vorliegenden Daten dieser diskreten Verteilung entsprechen. Wenn die Daten Benfords Gesetz folgen sollten, legt eine Verwerfung der Null-Hypothese nah, dass eine Manipulation der Daten stattgefunden hat. Jedoch tritt bei Anpassungstests, wie bei allen Signifikanztests, nicht nur der Fehler erster Art, welcher durch das gewählte Signifikanzniveau begrenzt wird, sondern auch der Fehler zweiter Art auf. Dieser Fehler sinkt nicht nur mit steigender Stichprobengröße, sondern ist von Natur aus für manche Testverfahren kleiner als für andere. Eine mögliche Variante ist es, nicht nur die erste Ziffer, sondern die gemeinsame Verteilung der ersten beiden Ziffern zu prüfen. Der Zuwachs an Güte wäre auf eine stärkere Nutzung vorhandener Informationen zurückzuführen, da unter der Null-Hypothese die Verteilungen der ersten und zweiten Ziffern nicht unabhängig sind. Dieser Aufsatz beschreibt, wie vier Anpassungstests erweitert werden können, um die gemeinsame Verteilung der ersten und zweiten Ziffer zu prüfen. Zusätzlich wird die Güte des ursprünglichen Ansatzes (Prüfen der ersten Ziffer) mit der Güte des neuen Ansatzes (Prüfen beider Ziffern) verglichen.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2013200249
Joenssen, Dieter William; Bankhofer, Udo
Donor limited hot deck imputation: effects on parameter estimation. - In: Journal of theoretical and applied computer science, ISSN 2299-2634, Bd. 6 (2012), 3, S. 58-70

Joenssen, Dieter William; Bankhofer, Udo
Zur Begrenzung der Verwendungshäufigkeit von Spenderobjekten bei der Imputationen fehlender Daten mittels Hot-Deck-Verfahren. - In: Program & abstracts, (2012), S. 40

Joenssen, Dieter William; Bankhofer, Udo;
Hot deck methods for imputing missing data : the effects of limiting donor usage. - In: Machine Learning and Data Mining in Pattern Recognition, (2012), S. 63-75

Missing data methods, within the data mining context, are limited in computational complexity due to large data amounts. Amongst the computationally simple yet effective imputation methods are the hot deck procedures. Hot deck methods impute missing values within a data matrix by using available values from the same matrix. The object, from which these available values are taken for imputation within another, is called the donor. The replication of values leads to the problem, that a single donor might be selected to accommodate multiple recipients. The inherent risk posed by this is that too many, or even all, missing values may be imputed with the values from a single donor. To mitigate this risk, some hot deck variants limit the amount of times any one donor may be selected for donating its values. This inevitably leads to the question under which conditions such a limitation is sensible. This study aims to answer this question though an extensive simulation. The results show rather clear differences between imputations by hot deck methods in which the donor limit was varied. In addition to these differences, influencing factors are identified that determine whether or not a donor limit is sensible.



http://dx.doi.org/10.1007/978-3-642-31537-4_6
Vogel, Jürgen;
Die Güte von Anpassungstests auf Benfordverteilung. - Ilmenau : Techn. Univ., Inst. für Wirtschaftsinformatik, 2012. - Online-Ressource (PDF-Datei: II, 10 S., 723,1 KB). - (Ilmenauer Beiträge zur Wirtschaftsinformatik ; 2012,1) ISBN 978-3-938940-42-6

http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2012200141
Bankhofer, Udo; Vogel, Jürgen;
Übungsbuch Datenanalyse und Statistik : Aufgaben - Musterklausuren - Lösungen. - Wiesbaden : Springer Gabler, 2012. - VIII, 202 S. ISBN 3-8349-4110-7

Bankhofer, Udo; Joenssen, Dieter William;
Hot-Deck-Verfahren zur Imputation fehlender Daten : Ergebnisse einer Simulationsstudie zur Untersuchung der Auswirkungen einer wiederholten Verwendung des Spenderobjekts. - Ilmenau : Techn. Univ., Inst. für Wirtschaftsinformatik, 2011. - Online-Ressource (PDF-Datei: III, 20 S., 573 KB). - (Ilmenauer Beiträge zur Wirtschaftsinformatik ; 2011,5) ISBN 978-3-938940-37-2

http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2011200564
Bankhofer, Udo;
Standortcontrolling im Industrieunternehmen : Aufgaben, Methoden und multivariate Lösungsansätze. - Ilmenau : Techn. Univ., Inst. für Wirtschaftsinformatik, 2010. - Online-Ressource (PDF-Datei: iii, 26 S., 168,2 KB). - (Ilmenauer Beiträge zur Wirtschaftsinformatik ; 2010,4) ISBN 978-3-938940-28-0

http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2010200364
Scharfe, Christian; Markscheffel, Bernd; Stelzer, DirkPelzl, Norman; Fischer, Daniel;
RFID-Technologie im Technischen Außendienst : Analyse und Bewertung von Einsatzmöglichkeiten am Beispiel der IBM Deutschland GmbH. - Ilmenau : Techn. Univ., Inst. für Wirtschaftsinformatik, 2010. - Online-Ressource (PDF-Datei: iv, 21 S., 168,2 KB). - (Ilmenauer Beiträge zur Wirtschaftsinformatik ; 2010,3) ISBN 978-3-938940-31-0

http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2010200326
Joenssen, Dieter William; Vogel, Jürgen
Zur Güte von Signifikanztests auf mehrdimensionale Normalverteiltheit. - Ilmenau : Techn. Univ., Inst. für Wirtschaftsinformatik, 2010. - Online-Ressource (PDF-Datei: iii, 15 S., 429 KB). - (Ilmenauer Beiträge zur Wirtschaftsinformatik ; 2010,2)
http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2010200316
Bankhofer, Udo;
Zusammenhangsmaße. - In: Vahlens großes Personallexikon, (2009), S. 1248-1249

Bankhofer, Udo;
Standardabweichung. - In: Vahlens großes Personallexikon, (2009), S. 1067

Bankhofer, Udo;
SPSS. - In: Vahlens großes Personallexikon, (2009), S. 1066-1067

Bankhofer, Udo;
Skala. - In: Vahlens großes Personallexikon, (2009), S. 1037

Bankhofer, Udo;
Korrelationsanalyse. - In: Vahlens großes Personallexikon, (2009), S. 630

Bankhofer, Udo;
Hypothese. - In: Vahlens großes Personallexikon, (2009), S. 481

Bankhofer, Udo;
Varianzanalyse. - In: Vahlens großes Personallexikon, (2009), S. 1171-1172

Bankhofer, Udo;
Regressionsanalyse. - In: Vahlens großes Personallexikon, (2009), S. 979

Bankhofer, Udo;
Signifikanztest. - In: Vahlens großes Personallexikon, (2009), S. 1032-1033

Bankhofer, Udo;
Multidimensionale Skalierung. - In: Vahlens großes Personallexikon, (2009), S. 764

Bankhofer, Udo;
Kontingenzanlyse. - In: Vahlens großes Personallexikon, (2009), S. 618

Bankhofer, Udo;
Kausalanlyse. - In: Vahlens großes Personallexikon, (2009), S. 577-578

Bankhofer, Udo;
Faktorenanlyse. - In: Vahlens großes Personallexikon, (2009), S. 341

Bankhofer, Udo;
Diskriminanzanlyse. - In: Vahlens großes Personallexikon, (2009), S. 249-250

Bankhofer, Udo;
Clusteranlyse. - In: Vahlens großes Personallexikon, (2009), S. 192-194

Bankhofer, Udo;
Datenanlyse. - In: Vahlens großes Personallexikon, (2009), S. 223-225

Bankhofer, Udo; Luhn, Karl
Operations Research. - In: Das neue Lexikon der Betriebswirtschaftslehre, (2008), S. 939-942

Bankhofer, Udo; Vogel, Jürgen;
Datenanalyse und Statistik : eine Einführung für Ökonomen im Bachelor ; [Bachelor geeignet]
1. Aufl.. - Wiesbaden : Gabler, 2008. - X, 328 S.. - (Lehrbuch) ISBN 978-3-8349-0434-8
Literaturverz. S. 315 - 320

Bankhofer, Udo; Wilhelm, Michael; Wilhelm, Michael *1944-*; Williner, Gabriela
Modelle und Methoden der Tourenplanung. - Ilmenau : Techn. Univ., Inst. für Wirtschaftsinformatik, 2006. - 27 S. = 108,9 KB, Text. - (Ilmenauer Beiträge zur Wirtschaftsinformatik ; 2006,5) ISBN 3-938940-06-9

http://www.db-thueringen.de/servlets/DocumentServlet?id=6905
Bankhofer, Udo;
Wirtschaftsmathematik und -statistik
1. Aufl.. - Stuttgart [u.a.] : Steinbeis-Ed., 2006. - 128 S.. - (SteinbeisBBA)Literaturverz. S. 122

Bankhofer, Udo;
Zur Standortplanung und -kontrolle im Rahmen des Supply Chain Managements. - Ilmenau : Techn. Univ., Inst. für Wirtschaftsinformatik, 2006. - 17 S. = 96,9 KB, Text. - (Ilmenauer Beiträge zur Wirtschaftsinformatik ; 2006,2) ISBN 3-938940-05-0

http://www.db-thueringen.de/servlets/DocumentServlet?id=5506
Ilmenauer Beiträge zur Wirtschaftsinformatik. - Ilmenau : Inst. für Wirtschaftsinformatik. - Online-Ressource, 1.2005 -. - ISSN 1861-9223Gesehen am 19.10.21

http://www.bibliothek.uni-regensburg.de/ezeit/?2206055
Böselt, Martin;
Statistik-Übungsbuch : Aufgaben, Hinweise und Lösungen
2., verb. und erw. Aufl. - München [u.a.] : Oldenbourg, 2001. - VI, 434 S ISBN 3-486-25668-8

Böselt, Martin;
Statistik
2., erg. Aufl.. - München : Oldenbourg, 1999. - 286 S. ISBN 3-486-25136-8
Literaturangaben

Böselt, Martin; Luhn, Karl
Über mws-Matrizen aus der Wechselkursanalyse. - In: Amtliche und nichtamtliche Statistiken, (1999), S. 1-19
Literaturangaben

Boeselt, Martin
Amtliche und nichtamtliche Statistiken : Tagungsband. - Ilmenau : Technische Univ., Fak. für Wirtschaftswiss., 1999. - 134 SLiteraturangaben

Böselt, Martin;
Wurzeln der Wirtschaftswissenschaften an der Technischen Universität Ilmenau. - In: Jahrbücher für Nationalökonomie und Statistik, ISSN 0021-4027, 1997,Mai = Bd. 216, H. 3, S. 295-334
Sprache der Zusammenfassung: Englisch

Luhn, Karl;
Zur Lösung des Nutzungsdauerproblems mit dynamischer Optimierung. - In: Operations research proceedings 1993, (1994), S. 277