Publikationen

Anzahl der Treffer: 61
Erstellt: Thu, 28 Mar 2024 23:12:27 +0100 in 0.0509 sec


Joenssen, Dieter William; Vogel, Jürgen
A comparative power study of goodness-of-fit tests for multivariate normality. - In: Essays on mathematics and statistics: [containing selected papers presented at the 5th and 6th ATINER Annual International Conferences on Mathematics and Statistics], ISBN 978-618-5065-18-8, (2013), S. 69-88

Joenssen, Dieter W.;
Two digit testing for Benford's law. - Online-Ressource (PDF-Datei: 6 S., 280,3 KB)Publ. entstand im Rahmen der Veranstaltung: 59th ISI World Statistics Congress, Hong Kong (China), 25. - 30. August 2013, Session: Statistical theory and methodology: Statistical inference (2) / CPS021 (26 Aug 2013), Paper 2. - http://www.statistics.gov.hk/wsc/CPS021-P2-S.pdf

Benford's law has been used by auditors to help reveal data manipulation not only in the context of tax audits and corporate accounting, but also election fraud. The principle idea behind Benford's law is that the frequency distribution of the first digits from numerical data of certain processes should conform to a discrete distribution known as the Benford distribution. Goodness-of-fit tests have been used to assess if the data's first digits conform to said distribution. When data should conform to Benford's law, a null-hypothesis rejection suggests that some form of data manipulation has taken place. Goodness-of-fit tests, like all tests of statistical significance, are prone not only to the type I error, which is limited by the chosen level of significance, but also to the type II error which decreases not only with sample size but is also inherently lower for some testing procedures than others. One possible procedural change is not to test the distribution of the data's first digit, as is the current standard, but to test the joint distribution of the data's first two digits. The gain in power would be due to an increased utilization of information, because, given that the null hypothesis is true, the distributions of the first and second digits are not independent. This paper describes how four goodness-of-fit tests can be extended to test the joint distribution of the first and second digit for conformity to Benford's law. Additionally, a comparison of power yielded by the original (one-digit) as well as the proposed (two-digit) analysis is provided.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2013200266
Joenssen, Dieter William;
Hot-Deck Imputation unter Verwendung eines Donor-Limit: ein ganzzahliges Optimierungsproblem. - Ilmenau : Techn. Univ., Inst. für Wirtschaftsinformatik, 2013. - Online-Ressource (PDF-Datei: V, 15 S., 402 KB). - (Ilmenauer Beiträge zur Wirtschaftsinformatik ; 2013,6) ISBN 978-3-938940-51-8
Literaturverz. S. 14 - 15

Hot-Deck Methoden imputierten fehlende Daten durch eine Zuordnung von vollständigen Objekten zu den Objekten, bei denen Werte fehlen. Fehlende Beobachtungen innerhalb des Rezipienten werden dann durch Verdopplung der Werte des zugeordneten Donor behoben. Einige Hot-Deck Verfahren begrenzen die Häufigkeit, mit der ein vollständiges Objekt seine Werte spenden kann, um die Präzision von der postimputationalen Parameterschätzung zu erhöhen. Diese Beschränkung, auch Donor-Limit gennant, beschränkt das Risiko, dass ein Spender exklusiv oder "zu häufig" zur Imputation herangezogen wird. Trotz dieser erstrebenswerten Eigenschaften sind in Konsequenz die Ergebnisse eines spenderbegrenzten Hot-Deck abhängig von der Reihenfolge, in der die Objekte mit fehlenden Werten imputiert werden. Dies ist eine unerwünschte Eigenschaft, da nun nicht mehr die Gesamtähnlichkeit zwischen allen Donor und Recipients maximiert wird durch die schrittweise Wahl des ähnlichsten Donor für einen Recipient. Daher kann die Imputationsqualität durch eine global optimale Zuordnung von Spendern zu Empfängern verbessert werden. In dieser Arbeit wird das ganzzahlige Optimierungsproblem formuliert sowie eine Simulation präsentiert die zeigt, dass eine bessere Lösung dieses Optimierungsproblems nie zu schlechteren Ergebnissen führt.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2013200251
Joenssen, Dieter William;
Zur Güte von Signifikanztests auf Benfordverteilung unter Nutzung der ersten zwei Ziffern. - Ilmenau : Techn. Univ., Inst. für Wirtschaftsinformatik, 2013. - Online-Ressource (PDF-Datei: V, 10 S., 480,7 KB). - (Ilmenauer Beiträge zur Wirtschaftsinformatik ; 2013,5) ISBN 978-3-938940-50-1
Literaturverz. S. 9 - 10

Das benfordsche Gesetz wird nicht nur im Bereich der Wirtschafts- und Steuerprüfung, sondern auch bei Wahlen verwendet, um Datenmanipulation aufzudecken. Der prinzipielle Gedanke hinter Benfords Gesetz ist, dass die ersten Ziffern von Zahlen, die aus bestimmten Prozessen stammen, einer als Benfords Verteilung bekannten diskreten Verteilung entsprechen. Operativ werden statistische Anpassungstests verwendet, um zu prüfen, ob die ersten Ziffern von vorliegenden Daten dieser diskreten Verteilung entsprechen. Wenn die Daten Benfords Gesetz folgen sollten, legt eine Verwerfung der Null-Hypothese nah, dass eine Manipulation der Daten stattgefunden hat. Jedoch tritt bei Anpassungstests, wie bei allen Signifikanztests, nicht nur der Fehler erster Art, welcher durch das gewählte Signifikanzniveau begrenzt wird, sondern auch der Fehler zweiter Art auf. Dieser Fehler sinkt nicht nur mit steigender Stichprobengröße, sondern ist von Natur aus für manche Testverfahren kleiner als für andere. Eine mögliche Variante ist es, nicht nur die erste Ziffer, sondern die gemeinsame Verteilung der ersten beiden Ziffern zu prüfen. Der Zuwachs an Güte wäre auf eine stärkere Nutzung vorhandener Informationen zurückzuführen, da unter der Null-Hypothese die Verteilungen der ersten und zweiten Ziffern nicht unabhängig sind. Dieser Aufsatz beschreibt, wie vier Anpassungstests erweitert werden können, um die gemeinsame Verteilung der ersten und zweiten Ziffer zu prüfen. Zusätzlich wird die Güte des ursprünglichen Ansatzes (Prüfen der ersten Ziffer) mit der Güte des neuen Ansatzes (Prüfen beider Ziffern) verglichen.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2013200249
Joenssen, Dieter William; Bankhofer, Udo
Donor limited hot deck imputation: effects on parameter estimation. - In: Journal of theoretical and applied computer science, ISSN 2299-2634, Bd. 6 (2012), 3, S. 58-70

Joenssen, Dieter William; Bankhofer, Udo
Zur Begrenzung der Verwendungshäufigkeit von Spenderobjekten bei der Imputationen fehlender Daten mittels Hot-Deck-Verfahren. - In: Program & abstracts, (2012), S. 40

Joenssen, Dieter William; Bankhofer, Udo;
Hot deck methods for imputing missing data : the effects of limiting donor usage. - In: Machine Learning and Data Mining in Pattern Recognition, (2012), S. 63-75

Missing data methods, within the data mining context, are limited in computational complexity due to large data amounts. Amongst the computationally simple yet effective imputation methods are the hot deck procedures. Hot deck methods impute missing values within a data matrix by using available values from the same matrix. The object, from which these available values are taken for imputation within another, is called the donor. The replication of values leads to the problem, that a single donor might be selected to accommodate multiple recipients. The inherent risk posed by this is that too many, or even all, missing values may be imputed with the values from a single donor. To mitigate this risk, some hot deck variants limit the amount of times any one donor may be selected for donating its values. This inevitably leads to the question under which conditions such a limitation is sensible. This study aims to answer this question though an extensive simulation. The results show rather clear differences between imputations by hot deck methods in which the donor limit was varied. In addition to these differences, influencing factors are identified that determine whether or not a donor limit is sensible.



http://dx.doi.org/10.1007/978-3-642-31537-4_6
Vogel, Jürgen;
Die Güte von Anpassungstests auf Benfordverteilung. - Ilmenau : Techn. Univ., Inst. für Wirtschaftsinformatik, 2012. - Online-Ressource (PDF-Datei: II, 10 S., 723,1 KB). - (Ilmenauer Beiträge zur Wirtschaftsinformatik ; 2012,1) ISBN 978-3-938940-42-6

http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2012200141
Bankhofer, Udo; Vogel, Jürgen;
Übungsbuch Datenanalyse und Statistik : Aufgaben - Musterklausuren - Lösungen. - Wiesbaden : Springer Gabler, 2012. - VIII, 202 S. ISBN 3-8349-4110-7

Bankhofer, Udo; Joenssen, Dieter William;
Hot-Deck-Verfahren zur Imputation fehlender Daten : Ergebnisse einer Simulationsstudie zur Untersuchung der Auswirkungen einer wiederholten Verwendung des Spenderobjekts. - Ilmenau : Techn. Univ., Inst. für Wirtschaftsinformatik, 2011. - Online-Ressource (PDF-Datei: III, 20 S., 573 KB). - (Ilmenauer Beiträge zur Wirtschaftsinformatik ; 2011,5) ISBN 978-3-938940-37-2

http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2011200564