abgeschlossene Masterarbeiten im Fachgebiet:

Anzahl der Treffer: 130
Erstellt: Fri, 19 Apr 2024 23:12:27 +0200 in 0.0500 sec


Rebhan, Felix;
Entwicklung und Evaluation eines Kriterienkatalogs für Visual Analytics Tools und Umsetzung eines Anwendungsfalls. - Ilmenau. - 112 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Aktuell stehen viele Unternehmen vor der Herausforderung, die schnell wachsende Datenmenge und Datenvielfalt zu bewältigen. Nahezu kein Unternehmen muss in der heutigen Zeit entscheiden, welche Daten entscheidungsrelevant sind und gespeichert werden müssen, was wiederum die Datenmenge ansteigen lässt (Kohlhammer et al. 2018, S. 198). Die Herausforderung von Big Data besteht darin, wie mit den großen und unstrukturierten Datenmengen umgegangen wird. Erst analytische Auswertungen machen aus den Daten relevante Informationen, die für Entscheidungsträger von Bedeutung sind. (Kohlhammer 2018, S. 198) Eine Möglichkeit zur Auswertung von Big Data stellt Visual Analytics dar. Die Methoden und Werkzeuge des Visual Analytics ermöglichen eine flexible Analyse und Darstellung großer Datenmengen, sodass Wissen mithilfe von Visualisierung aufgedeckt werden kann. Visual Analytics kombiniert die menschlichen Fähigkeiten, Muster und Trends schnell zu erfassen, mit den Stärken der automatischen Datenverarbeitung. Durch Visual Analytics können somit verdeckte Probleme und unvermutete Zusammenhänge im Big Data Bereich schneller erkannt werden als mit herkömmlichen Analysetools. Um Unternehmen bei der Auswahl der passenden Visual Analytics Tools zu unterstützen, wird im Rahmen dieser Arbeit ein Kriterienkatalog erstellt. In diesem sollen sowohl allgemeine Anforderungen an IT Tools, als auch spezifische Anforderungen für Visual Analytics betrachtet werden. Zur Entwicklung des Kriterienkatalogs wird eine Literaturanalyse durchgeführt. Anschließend wird der vorläufige Kriterienkatalog mithilfe von Experten plausibilisiert. Zur Evaluierung des Kriterienkatalogs werden drei ausgewählte Tools mithilfe des Katalogs und einer passenden Methode bewertet. Für die Bewertung wird ein Tool eines Marktführers und eines Visionärs gewählt. Zusätzlich geht ein Nischenprodukt in die Bewertung ein. Zum Abschluss wird ein Visual Analytics Anwendungsfall mithilfe eines zuvor ausgewählten Tools umgesetzt.



Jattke, Matthias;
Effektivität von Datenaufbereitungsverfahren auf fehlerbehafteten Datenreihen zur Analyse von Blutzuckermessdaten des Freestyle Libre. - Ilmenau. - 74 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Moderne Blutzuckermessysteme bieten häufigere und genauere Blutzuckermessungen im Vergleich zu diskreten Messungen über Kapilarblut. In den Messdaten treten aber immer wieder Lücken auf, also Abstände zwischen zwei Messpunkten, die größer sind als der eigentliche Standard des Messgeräts es vorsieht. Diese Lücken wurden als Untersuchungsgegenstand der vorliegenden Masterarbeit genutzt. Sie befasst sich mit der Effektivität von Methoden zum Füllen von Lücken in Messreihen. Hierzu wurden mathematisch-statistische Methoden darauf geprüft, wie genau sie Lücken in Blutzuckermessverläufen füllen können. Da aufgrund der sehr individuellen Messcharakteristik von Blutzuckermessdaten die hochqualitative Lückenfüllung durch mathematisch-statistische Methoden durch den Autor in Frage gestellt wurde, sollte zusätzlich zum Vergleich vorhandener Methoden im Rahmen eines Proof of Concept ein Algorithmus konzipiert und prototypisch umgesetzt werden, welcher die Charakteristik von Blutzuckermessdaten einbezieht und eine hochwertigere Lückenfüllung ermöglicht.



Zeckey, Julius;
Blockchain : Technologie und Anwendungsperspektiven. - Ilmenau. - 143 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Der Blockchain-Technologie wird vielfach ein großes disruptives Potential zugeschrieben. Ursprünglich als technisches Konzept für eine unabhängige und digitale Währung von Satoshi Nakamoto im Jahr 2008 entwickelt, nimmt die Anwendung im Bereich der Kryptowährungen eine Vorreiterrolle ein, stellt aber gleichzeitig nur eines von vielen möglichen Anwendungsgebieten dar. Verteilt in einem Peer-to-Peer Netzwerk können Informationen manipulationssicher in einer kryptografisch verketteten Datenstruktur - der Blockchain - gespeichert werden. Die Anwendung von Konsensalgorithmen stellt die netzwerkweite Integrität der Datenstruktur sicher. Erstmals wird Vertrauen nicht durch ein bilaterales Verhältnis oder eine zentrale Autorität geschaffen, sondern beruht auf einem mathematisch integren Konsens innerhalb eines dezentralen Netzwerkes. Darüber hinaus bieten Smart Contracts und dApps die Möglichkeit, komplexe Algorithmen direkt auf der Blockchain zu implementieren. Der Markt ist gekennzeichnet durch hohe Erwartungen und großes Interesse, da die frühzeitige Evaluation von Anwendungsgebieten Wettbewerbsvorteile schaffen kann. Aufbauend auf dem Konzept des Task-Technology-Fit Modells fasst die vorliegende Arbeit die technologischen Grundlagen strukturiert zusammen und gibt Interessenten ein Werkzeug zur Evaluation und Identifikation von Anwendungspotentialen an die Hand. Das Task-Technology-Fit Modell von Goodhue und Thomson (1995) beschreibt einen Zusammenhang zwischen der Leistung und der Eignung der zur Erfüllung einer Aufgabe verwendeten Technologie. Während sich die Leistungsmerkmale aus der Technologie ableiten, werden die Anwendungsanforderungen im Rahmen dieser Arbeit mithilfe eines mehrdimensionalen Ansatzes betrachtet und beziehen bestehende Frameworks, existierende Anwendungen und die Technologie selbst mit ein. Vorteilhafte Kombinationen der technologie- und anwendungsspezifischen Merkmale spannen einen Rahmen für vielversprechende Anwendungspotentiale auf. Eine Betrachtung der Schwächen und Risiken der Blockchain-Technologie sowie der Vergleich mit herkömmlichen Lösungen runden die Arbeit ab und vermitteln dem Leser ein detailliertes Bild in Bezug auf potentielle Einsatzgebiete. Im Rahmen der Evaluation des Frameworks soll die Anwendbarkeit der Technologie zur Eindämmung des Bullwhip-Effekts in industriellen Supply Chains analysiert werden.



Anforderungsanalyse für eine risikoorientierte Data Lineage sowie Entwurf eines Datenqualitätsreportings für die Thüringer Aufbaubank. - Ilmenau. - 193 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Vor dem Hintergrund der immer stärker werdenden aufsichtsrechtlichen Anforderungen bezüglich der Datentransparenz und -qualität an Banken, die sich u.a. aus der BCBS 239, MaRisk und den BAIT ergeben, wurde im Rahmen dieser Arbeit eine Anforderungsanalyse für eine Data Lineage Anwendung durchgeführt und ein risikoorientiertes Datenqualitätsreporting entwickelt. Das Ziel hierbei war es, die Voraussetzungen für die Entwicklung einer Data Lineage zu schaffen, die die Transparenz der Datenverarbeitung erhöht und somit unterstützend auf die Datenqualität wirkt. Das entwickelte Datenqualitätsreporting ermöglicht es, die Datenqualität nicht nur für automatisiert verarbeitete Daten und Verarbeitungsprozesse zu erfassen und kontrollieren, sondern auch für manuelle. Die hierfür erforderlichen Informationen wurden in Experteninterviews in den risikorelevanten Fachbereichen Finanzen/Controlling und der IT gewonnen. Mit Hilfe der qualitativen Inhaltsanalyse nach Mayring wurde das Interviewmaterial mit der Software QCAmap nach folgenden Kategorien ausgewertet: 1. Ist-Zustand der Datennachvollziehbarkeit; 2. Soll-Zustand der Data Lineage; 3. Ist-Zustand der Datenqualität; 4. Datenaktualität; 5. Datengenauigkeit; 6. Datenintegrität; 7. Datenvollständigkeit. In Kategorie 4 bis 7 wurden Detailinformationen zu vorher festgelegten zu prüfenden Datenqualitätskriterien erhoben. Mit Hilfe der durchgeführten Auswertungen konnte ein Überblick über den Ist-Zustand der Data Lineage als auch der Datenqualität gewonnen werden. Des Weiteren wurde aus den erhobenen Daten ein Anforderungskatalog gemäß des Requirements Engineering mit funktionalen und nicht-funktionalen Anforderungen an eine Data Lineage erstellt. Hieraus ergibt sich die Grundlage zur Entwicklung einer Data Lineage Anwendung. Die Umsetzung der Datenqualitätsmessung geschieht mit Hilfe von Datenqualitätskontrollen, welche an kritischen Punkten in der Prozesskette der Datenverarbeitung implementiert sind. Die Datenqualitätskontrollen sind mit den ihnen zugrundeliegenden Datenqualitätskriterien verknüpft. Die datenbankunterstütze Erfassung von Datenqualitätsvorfällen mit der betroffenen Kontrolle ermöglicht den Aufbau des Reportings. Hierfür wurde eine Kennzahl entwickelt, die flexibel für die einzelnen Datenqualitätskriterien, verschiedene Anspruchsgruppen etc. berechnet werden kann.



Marschall, Jens;
Ein Modell zur Bestimmung und Evaluierung der Vernetzungsqualität in Gesundheitsnetzwerken. - Ilmenau. - 70 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Das deutsche Gesundheitswesen sieht sich mit einer sinkenden Anzahl von Ärzten in ländlichen Gegenden und allgemeinen Rationierungsmaßnahmen konfrontiert. Des Weiteren bedarf es einer Lösung für die gegenwärtigen und zukünftigen Versorgungsprobleme, die durch den demografischen Wandel verursacht werden. Immer mehr ältere, chronisch kranke und multimorbide Patienten müssen auch weiterhin eine umfangreiche Versorgung erhalten. Die intersektorale Vernetzung zu sogenannten Gesundheitsnetzwerken ist ein Ansatz, um dieses Problem zu lösen. Um herausfinden zu können wie hoch die Qualität der Vernetzung in solchen Gesundheitsnetzwerken ist, wurde im Rahmen dieser Arbeit ein Modell zur Bestimmung und Evaluierung der Vernetzungsqualität entwickelt. Dieses besteht aus einer Qualitätsmatrix, einem Fragebogen für medizinische Leistungserbringer und einem Fragebogen für leitende IT-Mitarbeiter innerhalb eines Gesundheitsnetzwerkes. Die Durchführung dieses Modells konnte dessen Funktionalität beweisen und bietet die Grundlage für weitere Forschungsarbeiten zur Vernetzungsqualität.



Friedrich, Julia;
Theoretische und gestaltungsorientierte Untersuchung der Messbarkeit des Digitalisierungsgrads wissensintensiver Dienstleistungen. - Ilmenau. - 208 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Speziell in der Dienstleistungsbranche zählt die Digitalisierung zu einer der größten Herausforderungen. Dabei weisen insbesondere wissensintensive Dienstleistungen zum Teil ein großes Virtualisierungspotential auf. Da sich durch die Digitalisierung neue Möglichkeiten zur Sicherung der Wettbewerbsfähigkeit, zur Verbesserung der Effizienz und zur Umsatzsteigerung eröffnen, sollte eine zielgerichtete digitale Transformation eingeleitet werden. Um dort erreichte Fortschritte zu überprüfen, eignet sich die Messung des unternehmensspezifischen Digitalisierungsgrads. Bisher existierende, branchenneutrale Reifegradmodelle zur Analyse des Digitalisierungsgrads sind allerdings nicht auf die konstitutiven Merkmale wissensintensiver Dienstleistungen abgestimmt. Folglich sind bei einer generischen Anwendung auf wissensintensive Dienstleistungen keine eindeutigen Ergebnisse gewährleistet. Daher wird in dieser Arbeit eine geeignete Methode für die Einschätzung des Digitalisierungsgrads entwickelt, welche speziell auf wissensintensive Dienstleistungen ausgerichtet ist. Auf Grundlage der Ergebnisse des entwickelten Selbsttests können zukünftig spezifische Verbesserungspotentiale abgeleitet werden. Zudem ist die Bildung einer ersten Entscheidungshilfe für Finanzierungs- und Investitionsentscheidungen im Rahmen der Digitalisierung möglich.



Topoglu, Timucin;
Evaluierung und praktische Anwendung von Implementierungsmodellen der Industrie 4.0 und warum der Digitalisierungsboom bis heute ausbleibt . - Ilmenau. - 62 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Trotz großen Chancen die durch den Einsatz von Industrie 4.0 angepriesen werden, stehen viele Unternehmen bei der Umsetzung vor Schwierigkeiten. Ziel dieser Arbeit ist es, ein Vorgehensmodell zu entwickeln, welches Unternehmen beim Wandel zu Industrie 4.0 unterstützt. Dazu wird mittels Literaturreview untersucht, ob bereits wissenschaftliche Ansätze zur Implementierung von Industrie 4.0 existieren. Nach Auswertung der gefundenen Literatur wird auf Basis des Design Science Research Ansatzes im Anschluss ein Leitfaden zur Umsetzung von Industrie 4.0 erarbeitet. Dieser Leitfaden wird anschließend an einem realen Unternehmen angewendet und ausgewertet. Das letzte Kapitel schildert durch die Auswertung verschiedener Literaturen Daten und Fakten, warum der Digitalisierungsboom bis heute in der Industrie weitgehend ausbleibt.



Zayarnyy, Alexey;
Vergleich von genetischen Algorithmen und Evolutionsstrategien im Rahmen der untertägigen Personaleinsatzplanung. - Ilmenau. - 116 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Die Personaleinsatzplanung spielt für viele Dienstleistungs- und Industrieunternehmen eine sehr wichtige Rolle. Das Ziel der vorliegenden Masterarbeit ist der Vergleich der genetischen Algorithmen und der Evolutionsstrategien im Rahmen der untertägigen Personaleinsatzplanung. Dafür wird ein Modell für die untertägige Personaleisatzplanung eines Call Centers präsentiert, bei dem die Qualifikationen der Agenten berücksichtigt werden, und die Über- und Unterdeckung im Personaleinsatz, die untertägigen Tätigkeitswechsel sowie die Balance zwischen den Auslastungen der Agenten optimiert werden sollen. Für die Experimente wurde ein genetischer Algorithmus mit folgenden Komponenten implementiert: (1) betrachtete Selektionsmethoden sind: Turnierselektion, stochastisches universelles Sampling, Rouletteselektion, Turnierselektion mit Geschlechtern, Rouletteselektion mit Geschlechtern; (2) betrachtete Rekombinationsoperatoren sind: One-point crossover, Two-point crossover, Uniform crossover, Order crossover, Partially mapped crossover, Uniform order based crossover, drei Agent-based-crossover-Operatoren und drei Interval-based-crossover-Operatoren; (3) betrachtete Mutationsoperatoren: Random resetting, Swap mutation, Insert mutation, Scramble mutation; (4) die gewählten Wiedereinfügunsmethoden sind: Pure reinsertion, Elitism, Reinsertion with offspring selection. Die Evolutionsstrategien wurden mit allen Rekombinations- und Mutationsoperatoren der genetischen Algorithmen, und folgenden Unterscheidungen, implementiert und getestet: als Selektionsmethoden wurde die Plus- und Kommaselektion gewählt und als Mutationsoperatoren wurden noch zusätzlich die Gauss Mutation, die Gauss Mutation mit der 1/5 Erfolgsregel sowie die Mutation mit dem Konzept der maximalen Entropie betrachtet. Bei beiden evolutionären Algorithmen wurden Reparaturoperatoren eingesetzt. Für das Parametertuning wurde die Response Surface Methode benutzt. Das beste Ergebnis konnte mit Evolutionsstrategien als Lösungsverfahren und der Kommaselektion, dem "Interval-based"-Rekombinationsoperator und der "Swap"-Mutation als Operatoren erzielt werden. Die Ergebnisse der Experimente suggerieren, dass blinde Rekombinationsoperatoren keine signifikanten Verbesserungen für die untertägige Personaleinsatzplanung erreichen können und zur Erzielung einer besseren Performance sowohl die Konzepte der genetischen Algorithmen als auch die Konzepte der Evolutionsstrategien eingesetzt werden sollten.



Brekow, Marcel;
Digitale Geschäftsmodellinnovation im Consulting - ein Vergleich zum 4PL-Konzept. - Ilmenau. - 98 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Obwohl die digitale Transformation in unterschiedlichen Branchen einen Wandel vollzogen hat, ist bis dato die Unternehmensberatungsbranche weniger davon betroffen. Jedoch gibt es Strömungen, die hier ebenso einen Wandel vorhersagen. Dazu kann es zu grundlegenden Änderungen im Geschäftsmodell der Beratungsbranche kommen. Als mögliche Alternative hat Nissen dafür die Idee des Fourth Party Logistics-Konzepts auf die Unternehmensberatung übertragen. Dieses Konzept stellt eine Form des Outsourcings dar, bei dem ein Logistiker die einzelnen Marktakteure über eine digitale internetbasierte Plattform vernetzt. Um diese Idee weiter zu präzisieren, wird mithilfe des Business Models von Wirtz ein Rahmenkonzept konzeptioniert, das die essenziellen Aspekte einer Geschäftsmodellinnovation in der Unternehmensberatung näher beleuchtet. Dazu wird zusätzlich ermittelt, welche Tätigkeiten in dem Rahmen ausgliederbar sind und zugleich auf einer Plattform angeboten werden können. Das Ergebnis ist eine digitale Plattform, die Klient, Berater sowie Bewerber vernetzt und für die jeweilige Kundengruppe einen Mehrwert darstellen kann. Abschließend wird die Geschäftsmodellinnovation durch Experten aus der Unternehmensberatung evaluiert.



Reiter, Jakob;
Weiterentwicklung einer virtuellen Beratungsleistung. - Ilmenau. - 113 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Die digitale Transformation hat bereits für viele Veränderungen in verschiedenen Branchen gesorgt. Auch in der Welt der Unternehmensberatungen treten nun erste Veränderungen auf, nachdem sich das Geschäftsmodell der Beratungen lange nicht verändert hat. Nun etablieren sich die ersten digitalen Angebote von Unternehmensberatungen am Markt und bieten einen interessanten Forschungsansatz. Innerhalb dieser Arbeit wurde eine virtuelle Beratungsleistung für den Ansatz der gutachterlichen Beratung entwickelt. Dazu wurde zunächst ein systematisches Vorgehen entwickelt, damit zukünftig ein einfacher Einstieg in digitale Produkte innerhalb des Beratungsansatzes möglich ist. Außerdem wurde parallel eine bereits existierende Software-Umgebung zur Realisierung von virtuellen Beratungsleistungen weiterentwickelt. Mit dem systematischen Vorgehen wurde anschließend eine virtuelle Beratungsleistung im Themengebiet der IT-Agilität entwickelt. Zum Abschluss dieser Arbeit fand eine Evaluation des systematischen Vorgehens und der erstellen Beratungsleistung statt.