completed master's theses in the subject area:

Anzahl der Treffer: 130
Erstellt: Tue, 23 Apr 2024 23:10:18 +0200 in 0.4012 sec


Walther, Luisa Ines;
Einsatz von Domänenwissen für Process Mining Analysen. - Ilmenau. - 71 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Mit Hilfe von Process Mining analysieren Unternehmen große Mengen von Ereignisprotokollen aus IT-Systemen, um anhand der Ermittlung unbekannter Prozesse sowie versteckter Prozessinformationen eine beständige Verbesserung ihrer Geschäftsprozesse zu erreichen. Bisher beschäftigte sich die Business Process Management Community ausführlich mit der Verbesserung der Datenqualität in hoch digitalisierten, automatisierten und standardisierten Prozessen. Mit der Untersuchung der Anwendung von Process Mining auf wissensintensive, analoge und manuelle Prozesse wurde hingegen erst begonnen. Einerseits soll anhand der Integration von Domänenwissen im Process Mining versucht werden, in den aufgezeichneten Ereignisprotokollen fehlerhafte Ereignisse zu erkennen und zu korrigieren sowie auf Basis impliziter Fakten auf fehlende Ereignisse zu schließen. Das Domänenwissen kann andererseits auch dazu eingesetzt werden, um Begründungen und Erklärungen für die erzeugten Analyseergebnisse zu generieren. Für die Untersuchung, welche wissensbasierten Ansätze, insbesondere zur Integration von Domänenwissen, bereits für Process Mining Analysen existieren, wird eine systematische Literaturanalyse durchgeführt. Die Betrachtung der Chancen und Herausforderungen durch deren Einsatz erfolgt anschließend anhand einer Fallstudie. Hierfür wird der Wissensgraph-basierte Ansatz zur semantischen Prozessanalyse (KBXAI-PA) nach Füßl et al. (2022) fokussiert und Konzepte aus der vorangegangenen Literaturanalyse werden ausgewählt, umgesetzt sowie evaluiert. Mit Hilfe der Literaturanalyse konnten die sechs Konzepte der Referenz-Initialisierung, Ontologie, Prozessmodell-Initialisierung, Formalisierung anhand von Regeln und Einschränkungen, Gamification sowie Feedback zur Integration von Domänenwissen ermittelt werden. Bei der Durchführung der Fallstudie zeigte sich, dass der KBXAI-PA-Wissensgraph Defizite bei der Lesbarkeit der Verbesserungsvorschläge aufweist, welche u.a. anhand der Integration des Ontologie Konzepts überwunden werden können. Die theoretische Betrachtung der Umsetzung des Gamification-Konzepts ergab zudem, dass dieses in Zukunft zur Überprüfung der Richtigkeit des in Wissensgraphen gespeicherten Domänenwissens eingesetzt werden könnte.



Hofmann, Julian;
Entwicklung einer Unterstützungsmethode für die Auswahl von RPA-Software-Lösungen : Vergleich von Lösungen mittels standardisierter Evaluierungskriterien. - Ilmenau. - 73 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Robotic Process Automation (RPA) ist eine weit verbreitete Technologie zur Automatisierung von Geschäftsprozesse. Allerdings fehlen bisher geeignete Methoden und Werkzeuge zur Auswahl einer passenden RPA-Software aus der wachsenden Anzahl an Anbietern. Daher wurde eine Literaturanalyse durchgeführt, um allgemeine Kriterien für die Softwareauswahl zu ermitteln und im nächsten Schritt auf den Kontext von RPA zu übertragen. Im Rahmen dieser Analyse wurde ein vorläufiger Katalog von Kriterien erstellt, welcher für den Vergleich von RPA-Software-Lösungen genutzt werden kann. Dieser Katalog wurde anschließend mittels Experten-Interviews hinsichtlich Praktikabilität, Plausibilität und Vollständigkeit geprüft. Das Ergebnis dieser Untersuchung ist ein evaluierter Kriterienkatalog, der insgesamt 24 Kriterien umfasst und technologische, organisatorische sowie Aspekte der Umgebung berücksichtigt.



Design Thinking : Status Quo und Handlungsempfehlungen. - Ilmenau. - 74 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Design Thinking ist die systematische, iterative und nutzerorientierte Vorgehensweise zur Entwicklung innovativer Ergebnisse unter dem Einbezug interdisziplinärer Teams. In den letzten Jahren fand der Design Thinking-Ansatz auch Einzug in den Bereich der Wirtschaftsinformatik. Grund hierfür war vorallem die Nutzung des Ansatzes im Bereich der Softwareentwicklung. Ziel dieser Arbeit ist es, den aktuellen Forschungsstand des Design Thinking-Ansatzes zu beschreiben und darauf basierend Handlungsempfehlungen für die Forschung und Praxis abzuleiten. Um das Forschungsziel zu erreichen wurde eine systematische Literaturanalyse durchgeführt und die Ergebnisse mittels eines Kriterienkatalogs weiter gegliedert. Auf Grundlage der Ergebnisse konnten 14 Einsatzgebiete des Design Thinking-Ansatzes in der Wirtschaftsinformatik abgeleitet werden sowie Schwerpunkte, Zusammenhänge und Forschungslücken identifiziert werden. Der Schwerpunkt des Design Thinking-Ansatzes im Bereich der Wirtschaftsinformatik liegt im praktischen Bereich. Hier dominiert die Softwaretechnik, während der Fokus im wissenschaftlichen Bereich auf der Forschungsmethode Design Science Research liegt. Es wird empfohlen in der Softwaretechnik Frameworks auf Basis von Praxisstudien zu entwickeln und so ein gemeinsames Vorgehen zu erstellen. Im Bereich Design Science Research wird empfohlen, die Methoden des Design Thinking-Ansatz in vorhandene DSR-Vorgehensmodelle zu integrieren. Als Ausblick kann empfohlen werden, die Forschung auch auf die Rollen des Design Thinking-Ansatzes zu fokussieren, da dieser ein holistischer Ansatz darstellt. Die Erforschung der Rollen und Einbettung in Organisationen kann folglich Mehrwert bieten.



Peter, Fabian;
Potenzialanalyse eines wissensbasierten, erklärbaren KI-Ansatzes für die Interpretation von Process Mining-Modellen. - Ilmenau. - 105 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Die Process Mining Methode untersucht Geschäftsprozesse auf Basis von Ereignisprotokollen eines Informationstechnologie-Systems. Die Ereignisprotokolle werden u. a. für die Konstruktion von Prozessmodellen genutzt. Anwender können die Prozessmodelle für die Interpretation und die Analyse der Ist-Prozesse verwenden. Die Prozessmodelle zeigen dem Anwender, welche Aktivitäten zu welchem Zeitpunkt geschehen. Zusätzlich können kausale Zusammenhänge für das Auftreten bestimmter Aktivitäten im Prozessmodell identifiziert werden. Trotz des Potenzials in der Nutzung der Process Mining Methode wird das Konzept in der Praxis nur teilweise als bedeutend eingeschätzt. Zur Anwendung der Methode werden Zeit und Fachkräfte benötigt. Ohne diese Faktoren kann kein Nutzen aus der Process Mining Methode generiert werden. Für die Analyse und Interpretation von Geschäftsprozessen können wissensbasierte, erklärbare KI-Ansätze verwendet werden. Füßl und Nissen (2022) entwerfen eine ontologieähnliche Wissensgraph-Architektur mit Inferenzmechanismen und maschinellen Lernansätzen als Ansatz zur Geschäftsprozessanalyse. Prozessmodelle der Notationsvorschrift Business Process Model and Notation dienen als Inputdaten. Auf Basis von explizitem Expertenwissen der Prozessanalyse und semantischen Hintergrundinformationen über Prozesse sollen Schwachstellen und Optimierungspotenziale des Prozesses automatisiert identifiziert werden. In dieser Masterarbeit werden die Potenziale und Herausforderungen für die Interpretation von Process Mining Ergebnissen mithilfe eines wissensbasierten, erklärbaren KI-Ansatzes zur Prozessanalyse untersucht. Dazu wird ein Lösungskonzept zur Interpretation von Process Mining Ergebnissen auf Basis einer Literaturrecherche und einer Fallstudie entwickelt, an einem Beispiel demonstriert und mithilfe geeigneter Testfälle und Experten evaluiert. Das finale Lösungskonzept enthält sieben Schritte, um aus Ereignisprotokollen Interpretationsreports zu generieren. Die Ereignisprotokolle werden durch die Process Mining Methode verarbeitet. Die Process Mining Ergebnisse werden aufbereitet und mithilfe des Geschäftsprozessanalyseansatzes von Füßl und Nissen (2022) analysiert und interpretiert. Im letzten Schritt wird dem Anwender ein Interpretationsreport in Form eines Question-Answering-Dialogs bereitgestellt.



Heringklee, Stefan Horst;
Gestaltung von Erklärungsschnittstellen für interaktives maschinelles Lernen am Beispiel von iKnow BPA. - Ilmenau. - 83 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Die Entscheidungen einiger Modelle des maschinellen Lernens (ML) sind für die Nutzer nicht immer verständlich und nachvollziehbar. Erklärbares maschinelles Lernen zielt darauf ab, die Entscheidungen eines ML-Modells für die Nutzer erklärbar zu machen. Beim interaktiven maschinellen Lernen können die Nutzer mit den Ergebnissen des ML-Modells interagieren und damit die ML-Ergebnisse anpassen. iKnow BPA ist ein ML-Algorithmus-basierter Ansatz für die automatisierte Prozessanalyse. Hierbei werden die Schwachstellen und geeigneten Verbesserungsmaßnahmen eines importierten BPMN-Modells ausgegeben. Dennoch verstehen die Nutzer nicht, warum die iKnow-BPA diese Schwachstellen identifiziert hat, warum diese Verbesserungsmaßnahmen ermittelt wurden, ob sie den Entscheidungen vertrauen können und wie sie sie korrigieren können. Eine Erklärungsschnittstelle kann verwendet werden, um dem Nutzer die Ergebnisse eines ML-Modells auf erklärbare Weise zu präsentieren, indem der Entscheidungsprozess offengelegt wird. Die Forschung zur Entwicklung einer Erklärungsschnittstelle befindet sich noch in einer frühen Phase. In dieser Arbeit wurden zwei Forschungsfragen untersucht und beantwortet. Forschungsfrage 1 lautet: Wie können Erklärungsschnittstellen im Zusammenhang mit interaktivem maschinellen Lernen gestaltet werden, um KI-Ergebnisse zu erklären und auf Basis von Nutzerfeedback stetig zu verbessern? Forschungsfrage 2 lautet: Welche Gestaltungsoptionen eignen sich zur Entwicklung einer Erklärungsschnittstelle für die Prozessanalyse mit Hilfe von iKnow BPA? Zur Beantwortung von Forschungsfrage 1 wurde eine umfangreiche Literaturrecherche durchgeführt. Es wurden 28 interaktive Erklärungsschnittstellen identifiziert, charakterisiert und abgegrenzt. Aus diesen Komponenten wurde ein Kriterienkatalog für die Gestaltung einer interaktiven Erklärungsschnittstelle abgeleitet. Anschließend wurde dieser Kriterienkatalog zur Entwicklung einer Erklärungsschnittstelle für iKnow BPA verwendet. Der entwickelte Prototyp der Erklärungsschnittstelle für iKnow BPA wurde durch sechs Experteninterviews bewertet, wobei geeignete Verbesserungsmaßnahmen abgeleitet werden konnten. Durch die vorangegangenen Ausführungen konnte Forschungsfrage 2 beantwortet werden. Abschließend wurden die Ergebnisse der Arbeit zusammengefasst, ihre Grenzen aufgezeigt und ein Ausblick auf zukünftige Forschung gewagt.



Talia, Vladimir;
Heatmap der Datenqualität. - Ilmenau. - 94 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Im heutigen Marktumfeld erkennen immer mehr Unternehmen die Rolle von Daten als wichtiger Vermögenswert, potenzieller Innovationstreiber und Mittel zur Sicherung eines Wettbewerbsvorteils auf dem Markt an. Im Big-Data-Zeitalter nimmt der Datenfluss in großen Unternehmen stetig zu. In diesem Zusammenhang steigt die Komplexität sowohl der Gewinnung relevanter Informationen aus dem Datenfluss als auch der Bewertung ihrer Qualität an. Die vorliegende Arbeit präsentiert eine umfassende Analyse der Anforderungen an das Datenqualitätsmanagement, Branchenspezifika und Barrieren, denen große Unternehmen beim Datenqualitätsmanagement gegenüberstehen. Die identifizierten Problempunkte und Verbesserungsmöglichkeiten des Datenqualitätsmanagements legten den Grundstein für die Entwicklung der technischen Anforderungen an eine BI-Anwendung “Heatmap der Datenqualität”, die den Prozess der Qualitätsbewertung von den im Data Lake eines Unternehmens aggregierten Daten automatisiert. Die Anwendung trägt zur Verbesserung von Datenqualitätsmanagementprozessen, Erhöhung der Transparenz des Datenqualitätsniveaus und Sensibilisierung der Mitarbeiter für den Zustand der Datenqualität in einem Unternehmen bei. Die Umsetzung der vorgeschlagenen Lösung wird im Rahmen der Fallstudie am Beispiel einer großen russischen Ölgesellschaft demonstriert. Die während der Arbeit durchgeführte Analyse der Spezifika des Datenqualitätsmanagements in Großunternehmen zeigt die Bedeutung und Relevanz der Anwendung für alle Unternehmen, die vor der Aufgabe stehen, die Qualität großer Datenmengen zu bewerten, die Transparenz der Datenqualität zu erhöhen und die Effektivität der datenbasierten Entscheidungsfindung zu steigern.



Joksch, Niklas;
Consulting after Corona : pandemiebedingte Veränderungen in der Unternehmensberatung in Deutschland. - Ilmenau. - 235 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Die Unternehmensberatung in Deutschland war vor dem Jahr 2020 typisches People-Business. Der größte Teil der Beratungsleistungen basierte auf Face-to-Face-Beratung in Präsenz beim Kunden vor Ort. Evolutionäre Formen der digitalen Transformation galten für das Geschäftsmodell relevanter als disruptive. Digitale Geschäftsmodelle waren in der deutschen Consulting-Branche kaum zu finden. Mangelnde Nachfrage und Akzeptanz der Kunden stellten die größten Hindernisse der Virtualisierung dar. Mit der COVID19-Pandemie ergab sich eine potenzielle Ursache für eine disruptive Veränderung in der Unternehmensberatung. Kontakt- und Reisebeschränkungen, sowie Homeofficepflicht erschwerten den persönlichen Kontakt im People-Business. Aufgrund der Einschränkungen wurden Veränderungen in den Beratungsprozessen an der Kundenschnittstelle und organisationsintern im Arbeitsalltag der Berater erwartet. Zur Untersuchung der pandemiebedingten Veränderungen und der Prognosen des zukünftigen Bestehens dieser, wurde eine empirische Untersuchung nach der Mixed Method durchgeführt. Durch die Verknüpfung von quantitativer Erhebung in Form eines Online-Fragebogens mit der qualitativen Erhebung, in Form von Experteninterviews, wurden repräsentative Ergebnisse einer größeren Stichprobe mit vertiefenden, detaillierten Erfahrungen und Prognosen der Experten ergänzt. Die Stichprobe umfasste 155 Teilnehmer des Fragebogens und 20 Experteninterviews und entsprach annährend den marktüblichen, soziodemografischen Merkmalen. Die Auswertung der Umfrage erfolgte über deskriptive Analysen und Gruppenvergleiche. Für die Experteninterviews wurde eine auf Aussagen basierte inhaltlich strukturierende qualitative Inhaltsanalyse durchgeführt. An der Kundenschnittstelle konnte eine Virtualisierung der Kommunikation festgestellt werden. Der Anteil von Remoteberatung stieg durch die Pandemie deutlich. Weitere Virtualisierungsformen und Geschäftsmodelle des virtuellen Beratungsgeschäfts wurden selten eingesetzt. Neben Effizienz- und Effektivitätsvorteilen der Remoteberatung wurden Nachteile vor allem in der sozialen Beziehung zwischen Beratern und Kunden gesehen. Zukünftig wird für das Beratungsgeschäft deshalb eine Mischform aus Präsenz- und Remoteberatung erwartet. Die Belastung der Berater nahm durch die Remotearbeit zu. Mobiles Arbeiten hat sich als Arbeitsform etabliert und es wird eine Umgestaltung der Büros zu Begegnungsstätten erwartet. Für die Führung virtueller Teams ergeben sich einige neue Herausforderungen.



Wender, Sebastian;
Consulting after Corona : UK. - Ilmenau. - 143 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Diese Masterarbeit beschäftigt sich mit den Auswirkungen der Corona-Pandemie auf die Beratungsbranche im Vereinigten Königreich. Dazu wurde sowohl eine quantitative Untersuchung mittels eines Fragebogens durchgeführt, als auch eine qualitative Untersuchung mittels eines leitfadengestützten Interviews. Die Erkenntnisse daraus wurden in drei großen Kategorien zusammengefasst. Die erste Kategorie beschäftigt sich mit den verwendeten virtuellen Technologien. Auf diese Weise ist z.B. ein Zuwachs bei der Nutzung von virtuellen Kommunikationsmitteln wie Zoom und Microsoft Teams zu sehen. Aber auch virtuelle Whiteboards wie Miro erfreuen sich großer Beliebtheit. Die interne Organisation der Unternehmensberatung wird im Rahmen der zweiten Kategorie thematisiert. Dadurch ist zum Beispiel eine Abnahme der Bürofläche zu sehen. In der letzten Kategorie ging es um soziale Aspekte. Hier gab es keine eindeutigen Erkenntnisse in Bezug auf Loyalität zum Arbeitgeber oder das Teamgefühl. Zuletzt wurde ein Vergleich mit den Auswirkungen der Corona-Pandemie auf den deutschen Beratungsmarkt durchgeführt.



Westphal, Leo;
Inhouse Consulting : Status Quo und Perspektiven. - Ilmenau. - 78 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Megatrends in der Wirtschaft, wie die Globalisierung und Digitalisierung, haben zu einer enormen Intensivierung des Wettbewerbs geführt und zwingen Unternehmen zunehmend, sich laufend an neue Marktveränderungen anzupassen, um die eigene Wettbewerbsfähigkeit sicherzustellen. Hierfür benötigtes Knowhow und Personalkapazitäten sind jedoch nicht immer vorhanden. Eine Möglichkeit, diesen Limitationen entgegenzuwirken, ist die Beauftragung von externen Beratern zur gezielten Unterstützung der eigenen Transformationsprozesse. Die dadurch steigende Nachfrage für Beratungsleistungen sowie damit verbundene Beratungsausgaben führten bereits vor Jahrzehnten zu Überlegungen, unternehmensinterne Beratungskapazitäten aufzubauen. In Deutschland kam es bereits in den 1990ern zu zahlreichen Gründungen interner Beratungseinheiten. Dennoch erhielt das Thema Inhouse Consulting bis heute nur wenig Aufmerksamkeit im wissenschaftlichen Diskurs, insbesondere mangelt es seit Jahren an empirischen Untersuchungen. Die vorliegende Arbeit leistet einen Beitrag, diese Forschungslücke zu schließen. Basierend auf einer Literaturanalyse werden wichtige theoretische Grundlagen des Inhouse Consulting erläutert sowie interne und externe Unternehmensberatung gegenübergestellt. Auf Basis der Literatur sowie früherer Studien zum Inhouse Consulting wurde zudem eine empirische Studie unter Inhouse Beratungen durchgeführt. Ziel dieser war es, den Status Quo im Inhouse Consulting in Bezug auf Aspekte wie die Mitarbeiter- und Organisationsstrukturen, die Verrechnungsmodelle, die Themenschwerpunkte und die Digitalisierung zu erheben. Die Arbeit schließt mit einer Diskussion der Ergebnisse ab, in welcher stellenweise auch ein Bezug zu früheren Studien über Inhouse Consulting sowie zu Studien zum externen Beratungsmarkt hergestellt wird.



Kohrt, Peter;
IT-Innovationsmanagement : Status quo und Perspektiven. - Ilmenau. - 171 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Innovationen haben für Unternehmen aufgrund des zunehmend globalen Wettbewerbs, raschen technologischen Entwicklungen, der digitalen Transformation und sich ändernden Kundenwünschen eine hohe Bedeutung. In diesem Zusammenhang sind die optimale Gestaltung und Steuerung des IT-Innovationsmanagements im Unternehmen als ein Ausgangspunkt für die Sicherung der Wettbewerbsfähigkeit von besonderem Interesse. Dies wird durch die vorliegende Arbeit untersucht. Dazu werden zunächst die Grundlagen und Vorüberlegungen im Zusammenhang mit den Begriffen Innovation und Management dargestellt. Zusätzlich werden Herausforderungen in der Unternehmenspraxis betrachtet, um einen Eindruck darüber zu gewinnen, durch welche Eigenschaften sich ein potenziell erfolgreiches IT-Innovationsmanagement auszeichnet und welche Aspekte ein entsprechender Vorschlag berücksichtigen sollte. Im Anschluss daran, werden die über eine Literaturanalyse identifizierten, bereits existierenden Konzepte beschrieben und unter Verwendung eines, im Rahmen dieser Arbeit erstellten, Kriterienkatalogs bewertet. Aufbauend auf dieser Bewertung und unter Einbeziehung aktueller Entwicklungen in der Forschungsliteratur wird ein neues bzw. erweitertes Framework für das IT-Innovationsmanagement erarbeitet. Das neue und holistische Framework bietet Unternehmen Struktur und Orientierung für eine systematische Generierung und Umsetzung von Innovationen. Es zeigt zudem den aktuellen Stand der Forschung auf und kann als Ausgangspunkt für weitere Forschungsarbeiten dienen.



Brill, Johannes;
Smart Services im Consulting : Status quo und Perspektiven. - Ilmenau. - 138 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Die Digitalisierung ist in vollem Gange und in vielen Dienstleistungsbereichen im Alltag der Unternehmen und deren Mitarbeiter angekommen. Allerdings ist zu beobachten, dass die Branche der Unternehmensberatung sich bisher nur wenig verändert. Zwar werden zunehmend Softwarelösungen eingesetzt, die eine virtuelle Kollaboration ermöglichen, wenngleich ein Großteil der Beratungsleistungen weiterhin von Personen im klassischen Sinn der Face-to-Face-Beratung beim Kunden erbracht werden. Dies hat zur Folge, dass Unternehmensberatung überwiegend schlecht skalierbar ist und diese typischerweise durch zusätzliche Ressourcen und Mitarbeiter realisiert werden muss. In anderen Dienstleistungsbranchen sowie aus industrieller Perspektive heraus haben sich bereits Geschäftsmodelle und Ansätze etabliert, welche die Skalierung verbessern können. Ein Ansatz aus dem Bereich Manufacturing sind Smart Services. Diese Form der Dienstleistung fußt i.d.R. auf Daten eines Smart Products und ist durch eine starke Interaktion zwischen Anbieter und Kunde gekennzeichnet, um einen neuartigen Mehrwert zu generieren. Da der Anwendungsfall eines Smart Service stark auf den Bereich des Internets der Dinge (IoT) zugeschnitten ist, wird im Rahmen des Ansatzes des Design-Science Research eine erweiterte Smart Service Definition und eine anhängige Smart Service Checkliste entwickelt, die den Anwendungsbereich eines Smart Service vergrößert und gleichzeitig eine eindeutige Möglichkeit bietet Smart Services zu identifizieren. Grundlage der beiden Artefakte bildet ein Literaturreview, dessen Erkenntnisse nutzenstiftend für die Darstellung des Status quo von Smart Services aus wissenschaftlicher und praktischer Perspektive sind. Anschließend werden die Ergebnisse mit Hilfe von Experteninterviews plausibilisiert und evaluiert. Darauf aufbauend wird ein Vorgehen vorgeschlagen, wie Smart Service Anwendungspotentiale im Produktportfolio einer Unternehmensberatung identifiziert werden können. Ferner werden Chancen und Risiken der Nutzung von Smart Services beschrieben.



Ruttmann, Katharina;
Fairness in der Personaleinsatzplanung. - Ilmenau. - 186 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Die Bedeutsamkeit von Fairness nimmt in der heutigen Arbeitswelt durch den ständigen Wandel der bestehenden Strukturen und Faktoren, wie z.B. die steigende Digitalisierung, stetig zu. Grundsätzlich vermittelt Fairness den Menschen das Gefühl von Sicherheit und hat einen positiven Einfluss auf die Gesundheit. Im Kontext des Arbeitslebens begünstigt sie ein harmonisches Arbeitsklima und steigert die Leistungsbereitschaft sowie freiwilliges Engagement der Mitarbeiter. In Hinsicht auf den existierenden Fachkräftemangel dienen der Einsatz von Fairness und organisationaler Gerechtigkeit der Steigerung der Attraktivität eines Unternehmens und sind entscheidend für die langfristige Mitarbeiterbindung. In Bezug auf den bestehenden Personalmangel in Krankenhäusern, ist es immer relevanter geworden, die Pflegekräfte zu halten und mehr Menschen für den Berufszweig zu gewinnen. Dies gilt insbesondere seit der epidemiologischen weltweiten Lage durch COVID-19. Daher wird mittels der automatisierten Personaleinsatzplanung die Erstellung von effizienten, qualitativ hochwertigen und flexiblen Dienstplänen angestrebt. Grundlegend wird die Verbesserung der Personaleinsatzplanungsprozesse im Hinblick auf die Flexibilität und die Anpassung an persönliche Wünsche sowie die gleichmäßige Verteilung des Arbeitspensums erzielt. Aus dieser Motivation heraus setzt sich diese Masterarbeit mit der Integration von Fairness in den Prozess der Personaleinsatzplanung auseinander, wobei die Fairness aus der Perspektive der Mitarbeiter betrachtet wird. Die Beurteilung der Fairness eines beispielhaft vorliegenden Dienstplans wird mittels eines entwickelten Fairness-Bewertungs-Tools realisiert. Der Begriff "Fairness" orientiert sich in dieser Arbeit an dem bestehenden Ansatz der organisationalen Gerechtigkeit und bezieht sich auf die Sicht des Menschen mit seinem individuellen Gerechtigkeitsempfinden sowie daraus resultierenden Konsequenzen. Im Kontext der Personaleinsatzplanung umfasst Fairness alle Bedingungen, die dem einzelnen Mitarbeiter sowie dem gesamten Personal eines Unternehmens das Gefühl vermitteln, gerecht behandelt zu werden. Der Prozess der Personaleinsatzplanung beinhaltet dabei die Verteilung der bestehenden Angestellten im Unternehmen auf die zu belegenden Stellen bzw. zu erfüllenden Tätigkeiten, entsprechend der passenden Qualifikation der Mitarbeiter, in der benötigten Anzahl, zur richtigen Zeit, am richtigen Ort. Der Fokus dieser Arbeit liegt auf der Integration individueller Bedürfnisse der Mitarbeiter in den Prozess der Dienstplanung. Dazu wird den Angestellten die Möglichkeit gegeben, Wünsche zu ihren Arbeits- und Freizeiten zu äußern. Zur Umsetzung dieser Ansätze in ein mathematisches Modell werden zunächst mittels eines systematischen Literatur Reviews aktuelle Konzepte und bestehende Modelle zur Integration bzw. Berücksichtigung von Fairness im Prozess der Dienstplanung ermittelt. Es werden die zwei Hauptfairnesskriterien, die "Präferenzen der Mitarbeiter" sowie die "Balance" bestimmt, die den Untersuchungsschwerpunkt der Arbeit darstellen. Aus einer erstellten Übersicht von definierten, quantifizierbaren Faktoren der verschiedenen Kriterien zur Integration von Fairness in die Dienstplanung, wird eine Auswahl zur Umsetzung im mathematischen Modell entsprechend der Zielstellung getroffen. Die Integration der Mitarbeiterwünsche wird dabei mittels einer abgewandelten Form der Selbstplanung realisiert. Die Faktoren zur Beurteilung der Integration von Mitarbeiterwünschen werden mittels zweier mathematisch definierter Fairnessfaktoren in einer Zielfunktion zusammengefasst und somit quantifizierbar und bewertbar gemacht. Zur Durchführung von Anwendungsszenarien und potentiellen, zukünftigen Anwendung des Modells wird ein Fairness-Bewertungs-Tool entwickelt, welches das mathematische Modell automatisiert mittels eines Programms umsetzt. Dieses gibt die Berechnungsergebnisse der Fairnessfaktoren und Zielfunktionen sowie weitere individuell anpassbare Ergebnis- bzw. Übersichtstabellen einer Personaleinsatzplanung auf einer Weboberfläche aus. Mittels der Durchführung fiktiver Anwendungsszenarien wurde das Fairness-Bewertungs-Tool hinsichtlich der Wirkungsweise der einzelnen Parameter untersucht und kritisch analysiert.



Slocum, Daniel Leonard;
Entwicklung einer Methode zur Identifikation und Bewertung von Digitalisierungspotentialen in Geschäftsprozessmodellen. - Ilmenau. - 156 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Die Digitalisierung wird von vielen Unternehmen als Chance wahrgenommen, Kosten zu senken, die Effizienz zu steigern und neue Geschäftsfelder zu erschließen. Um Digitalisierungspotentiale zu identifizieren, gibt es derzeit eine Reihe von digitalen Reifegradmodellen. Diese bestehenden Modelle weisen jedoch einige Schwächen auf. Sie erfordern weiterhin Fachwissen und sind Gegenstand aufwendiger Expertenbefragungen. Auch erweisen sich die Ergebnisse bestehender digitaler Reifegradmodelle als ungenau und damit unzureichend, um daraus Schlussfolgerungen und konkrete Handlungsempfehlungen abzuleiten. Zudem gibt es nur wenige Digitale Reifegradmodelle, die sich mit der Identifikation von Digitalisierungspotentialen in Geschäftsprozessmodellen befassen. Die vorliegende Arbeit adressiert die Lücken und Schwächen der bisherigen Forschung und entwickelt auf Basis einer systematischen Literaturrecherche eine Methode zur Identifikation und Bewertung von Digitalisierungspotenzialen in Geschäftsprozessmodellen. Diese neue Methode wird wie folgt entwickelt. Zunächst werden relevante Kriterien zur Identifikation von Digitalisierungspotenzialen aus bestehenden digitalen Reifegradmodellen extrahiert. Anschließend werden für die Digitalisierung von Geschäftsprozessen relevante Schwachstellenmuster identifiziert und mit den genannten Kriterien in Verbindung gebracht. Daraufhin wird ein neuer Ansatz zur Berechnung von Digitalisierungspotenzialen etabliert. Nach Eingabe von Prozessinformationen in ein erstelltes Excel-Tool wird der Berechnungsansatz angewandt, was zur Berechnung des Digitalisierungspotenzials des untersuchten Geschäftsprozesses führt. Diese Berechnungen werden automatisch ausgewertet und es werden konkrete Handlungsempfehlungen für die untersuchten Geschäftsprozesse gegeben, sodass der Anwender eine qualitative und quantitative Bewertung erhält. Diese neu entwickelte Methode dient als benutzerfreundliche Möglichkeit, Digitalisierungspotenziale in Geschäftsprozessmodellen zu identifizieren und zu bewerten.



Göpel, Fabian;
Self-Services im Consulting : Status quo und Perspektiven. - Ilmenau. - 147 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Durch die fortschreitende Digitalisierung werden Geschäftsprozesse und Leistungen zunehmend durch elektronische Medien erbracht. Während dieses Phänomen bereits in vielen Dienstleistungsbereichen beobachtbar ist, hat sich das klassische Beratungsmodell bisher kaum verändert. Zwar setzen Berater bereits elektronische Medien ein, wodurch sie ihre Tätigkeiten effizienter durchführen können, jedoch findet dabei keine Entkopplung der Leistung von konkret erbringenden Personen statt. Das Geschäftsmodell der Unternehmensberatung skaliert dadurch nur linear, da zusätzliche Leistungen nur durch zusätzliche Mitarbeiter erbracht werden können. In anderen Dienstleistungsbranchen sind jedoch bereits exponentiell skalierende Geschäftsmodelle etabliert. Self-Service-Beratung stellt eine Form skalierbarer Beratungsleistungen dar. Kunden werden dabei dazu befähigt, diese selbst zu erbringen. Die Unternehmensberatung stellt ihnen dazu Software bereit, welche den klassischen Beratungsprozess abbildet. Allerdings sind nicht alle klassischen Beratungsleistungen gleichermaßen für eine Self-Service-Transformation geeignet. Mit Hilfe eines Design-Science-Ansatzes wird deshalb ein Kriterienkatalog entwickelt, welcher als Werkzeug zur systematischen Bewertung des Self-Service-Potentials verwendet wird. Die Grundlage für dessen Entwicklung bildet eine Literaturreview. Dessen Ergebnisse werden zudem zur Bestimmung des Status quo von Self-Service-Beratung in Wissenschaft und Praxis, sowie für eine kritische Betrachtung des Konzepts und seiner zukünftigen Rolle verwendet. Die somit gewonnenen Erkenntnisse werden durch Experteninterviews auf ihre Praxisrelevanz überprüft.



Integration prozessbezogener Einflussfaktoren für ein inferenzfähiges Geschäftsprozessanalyse-Werkzeug. - Ilmenau. - 90 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

In zahlreichen Branchen der freien Marktwirtschaft führt der Einsatz intelligenter Verfahren zu hoher Produktivität und Effizienz. Auch enorme Umsatzsteigerungen werden der zunehmenden Digitalisierung zugeschrieben. Speziell die Branche der Beratungsdienstleistungen muss für den Erhalt der Wettbewerbsfähigkeit im technologiegetriebenen Markt intelligente Verfahren einsetzen. Bisherige Bestreben setzen am Einsatz künstlicher Intelligenz sowie an Data- und Process-Mining Verfahren an. Mit dem Ziel der automatisierten Geschäftsprozessanalyse wird ein Geschäftsprozessanalyse-Werkzeug (GPAW) entwickelt, das auf dem abstrakten und inferenzfähigen Wissensmodell iKnow beruht. Durch die Ergebnisse bisheriger Entwicklungsschritte ist es möglich, Wissen formal anhand von Kanten und Knoten abzubilden. Ebenfalls ist das automatische Schlussfolgern neuer Wissenselemente unter Anwendung deduktiver Inferenzalgorithmen umgesetzt. Auch die Schwachstellenanalyse wurde bereits beleuchtet. Der Fokus liegt dabei auf dem Erkennen einer Schwachstelle, wobei bisher keine Aussage über die Beschaffenheit im konkreten Prozessanalysefall getätigt werden kann. Dabei hängt die Qualität der Analyseergebnisse maßgeblich vom Umfang und Detailgrad der modellierten Prozessschwachstellen sowie der aus diesen abgeleiteten Verbesserungsmaßnahmen ab. Informationen über die Beschaffenheit einer Schwachstelle können durch den Einbezug weiterer prozessbezogener Einflussfaktoren in die Analyse erfolgen. Als Beispiel für einen solchen Einflussfaktor dient die Motivation. In der vorliegenden Arbeit werden zunächst essentielle Einflussfaktoren durch eine aussagekräftige Literaturanalyse bestimmt. Aus der Liste relevanter Untersuchungskriterien wird eine konkrete Auswahl im Anschluss detailliert dargelegt. Auf diese Weise wird erläutert, wie eine Modellierung der Ausprägungen der Faktoren erfolgen kann. Zur Integration der modellierten Einflussfaktoren in den bisherigen Stand des GPAW wird im weiteren Verlauf ein Konzept vorgestellt. Durch die Erweiterung des GPAW kann eine detaillierte Analyse der mit dem bisherigen Entwicklungsstand ermittelten Schwachstellen vorgenommen werden.



Pan, Xi;
Das inferenzfähiges Wissensmodell iKnow zur Digitalisierung wissensintensiver Dienstleistungen. - Ilmenau. - 72 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Die zunehmende Digitalisierung löst große Veränderungen in der Wirtschaft und den Märkten aus. Für die wissensintensive Dienstleistungsbranche ist der Wechsel von traditionellen zu digitalen Geschäftsmodellen jedoch noch ein weiter Weg. Das inferenzfähiges Wissensmodell iKnow besitzt Assoziationsklassen zur Wissensstrukturierung, Deduktionsalgorithmen zur automatisierten Schlussfolgerung sowie maschinelle Lernansätze. Entwickelt wurde iKnow von Füßl (2016) mit dem Ziel Wissen auf dem Gebiet der Softwareentwicklung zu formalisieren. Ziel dieser Arbeit ist es, dass eine Potenzialanalyse des inferenzfähigen Wissensmodells iKnow als Hilfsmittel zur Digitalisierung wissensintensiver Dienstleistungen durchgeführt wird. Hierbei soll die Definition der wissensintensiven Dienstleistungsbranche und ihrer konstituierenden Merkmale durch eine Literaturrecherche bestätigen. Auf der Grundlage konstitutiver Merkmale werden drei Digitalisierungsmöglichkeiten für wissensintensive Dienstleistungen vorgeschlagen. Ein Multiple-Case-Modell von Yin (2003) wird verwendet, um das Potenzial von iKnow als digitales Werkzeug für wissensintensive Dienstleistungsbranchen zu analysieren. Die Anwendungsfälle gehen detailliert auf das Modell iKnow bei Management von explizitem und implizitem Wissen, personalisierten Diagnose und der Identifizierung von Beratungsfragen ein. Nach Bewertungsmatrizen wird der Grad der Übereinstimmung zwischen den Anwendungsfällen und den Bewertungskriterien aufgrund der konstitutiven Merkmale bewertet. Diese Arbeit blasiert auf des inferenzfähigen Modells iKnow und demonstrieren seine Funktionalität bei der Unterstützung von Wissensmanagement, als interaktive Schnittstelle für wissensintensive Dienstleistung und individuelle Ergebnisvorhersage.



Breitbart, Konstantin;
Methode zur Ermittlung der Gefahr digitaler Substitution in der Unternehmensberatung. - Ilmenau. - 76 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

In unterschiedlichen Wirtschaftsfeldern hat die Digitalisierung bereits zu weitreichenden Veränderungen geführt. Im Gegensatz dazu wurden Unternehmensberatungen von der Digitalisierung nur wenig beeinflusst; das Geschäftsmodell der Beratung hat sich im digitalen Zeitalter kaum verändert. Branchenexperten gehen jedoch davon aus, dass auch Beratungsleistungen in den nächsten Jahren zunehmend moderne Internet- und Kommunikationstechnologien nutzen werden, was erhebliche Veränderungen der Unternehmensberatungen bedingen könnte. Daher erscheinen Fragenstellungen zu den Zukunftschancen klassischer Beratungsleistungen und zur Gefahr, dass diese Leistungen durch digitale Technologien substituiert sinnvoll. Im Rahmen dieser Masterarbeit wurde eine Methode zur Bewertung der Substitutionsgefahr von Beratungsleistungen entwickelt. Nach Durchführung einer Literaturanalyse und mehrerer Experteninterviews wurden drei Aspekte identifiziert, die für die Bewertung der Substitutionsgefahr von Beratungsleistungen wesentlich sind: 1. das leistungsbezogene Digitalisierungspotenzial, 2. der Einfluss der Marktsituation sowie des Wettbewerbs und 3. die Situation innerhalb der Kundenunternehmen. Zu jedem dieser Aspekte wurde ein Kriterienkatalog entwickelt, um die vom jeweiligen Aspekt ausgehende Gefahrenlage für eine Substitution zu analysieren. Im letzten Schritt der Methode werden die Teilbewertungen wieder verdichtet, um so die Gefahr der digitalen Substitution einzelner Beratungsleistungen für die Zukunft einschätzen zu können.



Reiß, Isabell;
Design Science Research : State-of-the Art und aktuelle Entwicklungen. - Ilmenau. - 87 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

Die Design Science Research ist ein Forschungsansatz der Wirtschaftsinformatik, mit dem IT-Artefakte mithilfe von Designaktivitäten entwickelt und evaluiert werden können. Seit der Hervorbringungen des Ansatzes durch Hevner et al. 2004 wurden zahlreiche Methoden zur Durchführung erarbeitet. Dies geht aus einer umfassenden Literaturanalyse im Rahmen dieser Arbeit hervor. Zudem nehmen es sich verschiedene Forscher zum Ziel, die Design Science Research in unterschiedlichen Belangen weiterzuentwickeln. Diese Arbeit greift derartige Forschungsbemühungen auf und stellt diese gesammelt dar. Dadurch soll die Entwicklung der Design Science Research seit der Hervorbringung im Zeitverlauf aufgezeigt werden, um den aktuellen Forschungsstand darzutellen und Trends oder Hypes zu identifizieren. Des Weiteren gilt es, bisherige Durchführungsmethoden wie die Design Science Research Methodology auf Verbesserungen und Weiterentwicklungen zu prüfen, um Forschern Empfehlungen zur Wahl der Durchführungsmethode zu bieten.



Experimentelle Untersuchung des Einflussfaktors Ressourcenbeschränkung auf die Prozessakzeptanz. - Ilmenau. - 69 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

Der aktuelle Trend in der deutschen Automobilindustrie und der Politik tendiert in die Richtung, neue Fahrzeuge zu entwickeln, was zugleich mit neuen Herausforderungen einhergeht. Der Grund dafür liegt darin, dass an die Fahrzeugentwicklung zahlreiche ökologische und rechtliche Ansprüche gestellt werden - von der Berücksichtigung der Klimaschutzziele, Erwartungen der Kunden bis hin zum stetig wachsenden Druck der Konkurrenz. Das Geschäftsprozessmanagement übernimmt daher eine wesentliche Aufgabe, indem es den hohen Anforderungen nachkommen muss. Dementsprechend müssen auch Prozessvorgänge verändert werden oder sogar komplett neue Prozesse erstellt werden, wobei der Prozessnutzen auch von der Akzeptanz der Geschäftsprozesse stark beeinflusst wird. Die Akzeptanz der Geschäftsprozesse wird von einer Reihe an Faktoren beeinflusst, welche wiederum in unterschiedlichen Prozesszyklusphasen sowie innerhalb unterschiedlicher Dimensionen und auf unterschiedliche Gegenstände einwirken. Darüber hinaus müssen auch die physiologischen Einflussfaktoren beachtet werden, die sich zwischen den jeweiligen Prozessanwendern unterscheiden können. Die Verbesserung der Akzeptanz der Geschäftsprozesse zeugt daher von wesentlicher Bedeutung. Für die vorliegende Forschung wurden bereits einige Faktoren, welche die Prozessakzeptanz beeinflussen, genannt. Diese basieren auf den Ergebnissen qualitativer Forschung, wobei weder ein Vergleich noch eine Bewertung zwischen diesen durchgeführt noch Effektstärken oder Wechselbeziehungen zwischen den einzelnen Faktoren erforscht wurden. Aufgrund dieser Tatsache wird diese Arbeit auf ein Experiment eingehen, welches durchgeführt wurde, um diese hier genannten Faktoren zu analysieren und diese Forschungslücke zu schließen. Die Studie wurde innerhalb einer Entwicklungsabteilung eines bekannten Automobilherstellers durchgeführt und kann somit als Feldstudie eingestuft werden. Für die Untersuchung wurde ein spezieller Prozess mit seinen potentiellen Anwendern durchgelaufen. Die methodische Vorgehensweise, auf welche hier eingegangen wird, baut auf den Analyseergebnissen dieser Forschung auf und zeigt, wie sie sich diese auf die weitere Forschung auswirken könnten.



Gabriel, Patrick;
Auswirkung von Einflussgrößen auf die Akzeptanz von Prozessen : eine experimentelle Untersuchung. - Ilmenau. - 80 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

Viele Unternehmen versuchen stetig ihre Prozesse zu optimieren. Allerdings ist es möglich, dass diese trotz abgeschlossener Optimierungsprojekte nicht die erwarteten positiven Effekte erbringen. Zumeist liegt dies an einer fehlerhaften Ausführung oder Missachtung der durchgeführten Änderungen. In der Literatur ist in diesem Zusammenhang von Prozessakzeptanz die Rede. Das Ziel dieser Forschung ist es zu bestimmen, wie die Einflussgrößen Hierarchie und Bürokratie auf die Prozessakzeptanz für ein quantitatives Versuchsdesign operationalisiert werden können. Zusätzlich wird beobachtet, welche Effekte der einzelnen Variablen wie gemessen werden können und ob die Untersuchung realer Prozesse einen Einfluss auf die Aussagekraft kontextbezogener Experimente hat. Um diese Ziele zu erreichen, wurden Experimente in einem Unternehmen als Dienstleister für Beratungen durchgeführt. Es wurde eine Befragung mit verschiedenen, speziell manipulierten Prozessen für jede untersuchte Einflussgröße durchgeführt und mittels SPSS ausgewertet. Die Auswertung der Ergebnisse zeigt, dass lediglich in der affektiven Dimension die Akzeptanz der Probanden für eine Verringerung der Hierarchie signifikant war. In der kognitiven und konativen Akzeptanzdimension konnten keine signifikanten Unterschiede nachgewiesen werden. Bei den Ergebnissen der Variable Bürokratie waren in allen Akzeptanzdimensionen die Unterschiede signifikant. Diese Ergebnisse sind allerdings mit Vorsicht zu betrachten. Vor allem die vorliegende Untersuchung der Bürokratie sollte durch eine Zweitstudie validiert werden. Hierbei ist nach Meinung des Autors darauf zu achten, dass eine ausreichend große Stichprobe gewählt wird und eine bessere Prozessauswahl zu treffen ist.



Zhang, Simin;
Corporate compliance management / IT compliance - approaches and assessment. - Ilmenau. - 67 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

Diese Arbeit befasst sich mit der Frage, wie Compliance innerhalb eines Unternehmens verwaltet und bewertet werden kann. Effektive und effiziente IT Compliance werden definiert, mit denen ein Unternehmen regulatorischen und vertraglichen Anforderungen erfüllen kann, um auf das Sicherheitsniveau hinzuweisen und ein gewisses Vertrauen in das konforme Geschäftsumfeld gewährleisten zu können. Deswegen werden einerseits die wesentlichen Elemente und wirksamen Compliance-Funktionen identifiziert, die das Unternehmen aufweisen sollte. Andererseits wird eine IT-Compliance-Bewertungsmatrix erstellt, in der IT-Compliance-Objekte, Anforderungen und effektive Kriterien dargestellt werden. Diese Kriterien werden anhand fünf systemorientierter und funktionsorientierter Evaluationsdimensionen zugeordnet, definiert und gemessen, um sie dann im dreistufigen Effektivitätsniveau zu interpretieren, d. h. hoch, mittel und niedrig. Darüber hinaus wird im Rahmen des integrierten GRC-Ansatzes das Sicherheitsniveau entwickelt. Damit werden effektive IT-Compliance-Management, angemessenes Risikomanagement und ein internes Kontrollsystem zuverlässig kombiniert. Die Skala umfasst die zwei festgelegten Indizes "Risiko/Kontrolle" und "Effektivität, sowie drei Signalfarben (Rot, Gelb, Grün), um die Sicherheit der Geschäftsumgebung einzuordnen. Schließlich wird ein strategisches Konzept in reaktiver und proaktiver IT-Compliance vorgeschlagen, mit denen das Unternehmen die Herausforderungen im digitalen Zeitalter bewältigen kann.



Maktabi, M. Ali;
Standard, Preise und Frameworks der Digitalisierung und digitalen Transformation. - Ilmenau. - 92 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

Die digitale Transformation sorgt heutzutage für große Herausforderungen in den Dienstleistungs-, Industrie-, Produktions- und Logistikunternehmen. Für die Anwendung dieser Transformation sollte daher eine klare Strategie und ein Vorgehensmodell oder Framework geplant und vorbereitet sein. In der Literatur existieren viele Vorgehensmodelle/Framework, die entweder nur in der Theorie oder auch in der Praxis angewendet werden. In dieser Masterarbeit wurden die Forschungsfragen beantwortet: - Welche Vorgehensmodelle/Frameworks für die digitale Transformation existieren? - Welche Kriterien bzw. Anforderungen können zur Bewertung/Beurteilung der gefundenen Vorgehensmodelle herangezogen werden, um eine bessere Entscheidungsfindung für den Anwender zu ermöglichen? Am Anfang der Arbeit wurde die Methodik und die Zielsetzung festgelegt und die benötigten Begriffe für dieses Thema definiert. Danach wurde nach dem Verfahren von Webster und Watson (2002) eine Literaturanalyse durchgeführt und das Ergebnis dieser Analyse in einer Matrix zusammengefasst. Der nächste Schritt war die Entwicklung eines Kriterienkatalogs. In diesem Katalog wurden zuerst allgemeine Kriterien sowie spezifische Kriterien definiert und dann zusammengefasst. Dieser entwickelte Kriterienkatalog wurde für die Bewertung der in der Literatur gefundenen Vorgehensmodelle/Frameworks eingesetzt. Nach der Bewertung der Vorgehensmodelle unter den allgemeinen und spezifischen Kriterien wurden zunächst die Ergebnisse dieser Bewertung in einer Matrix zusammengestellt. Im Folgenden wurden die sechs am besten bewerteten Vorgehensmodelle erläutert und erklärt. Diese Vorgehensmodelle liefern detaillierte Empfehlungen für die Umsetzung der digitalen Transformation. Am Ende der Arbeit befindet sich eine Kritische Reflexion, um das Ergebnis der Arbeit zu diskutieren.



Hoffmann, Harry;
Anwendung von Data Mining-Verfahren auf Optimierungsdaten im Rahmen der strategischen Personalplanung. - Ilmenau. - 78 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

Für Optimierungsprobleme mit mehreren Zielfunktion wird heuristisch eine Lösungsmenge bestimmt. Die darin enthaltenen Lösungen werden durch Trade-offs charakterisiert. Die Lösungen beherbergen jedoch auch Informationen über das zugrundeliegende Problem, welche zur Generation und Bewertung neuer Lösungen verwendet werden kann. Zur Offenlegung dieser Informationen und deren Umwandlung in nutzbares Wissen können verschiedene Data Mining-Verfahren genutzt werden. Ziel der Arbeit ist deshalb die Identifikation, Anwendung und Bewertung geeigneter Verfahren. Dazu wird zunächst ein Review der relevanten Mehrzieloptimierungsliteratur durchgeführt. Danach werden Verfahren des visuellen Data Minings, Clustering, Self-Organizing Maps, eine Assoziationsanalyse und Entscheidungsbäume im Rahmen einer Fallstudie auf Lösungen eines Mehrzieloptimierungsproblems zur strategischen Personalplanung angewendet. Anschließend erfolgt ein Vergleich der Verfahren anhand der Nützlichkeit, Gültigkeit, Neuartigkeit und Verständlichkeit ihrer Ergebnisse.



Sagemüller, Britta;
"Digitale Readiness" - welche Unternehmensbereiche sind zu unterscheiden und wo liegen die Unterschiede?. - Ilmenau. - 163 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

Die digitale Transformation - eine Veränderung, die insbesondere in Unternehmen eine Strategie benötigt. Um eine solche Strategie entwickeln zu können, müssen die Verantwortlichen jedoch zunächst feststellen, wo sich das Unternehmen momentan in Bezug auf den digitalen Wandel befindet und welche Fähigkeiten und Kompetenzen das Unternehmen in diesem Zusammenhang besitzt. Die Bereitschaft für die digitale Transformation, die durch diese Fähigkeiten und Kompetenzen definiert wird, wird als "digitale Readiness" eines Unternehmens bezeichnet. Die Feststellung dieser digitalen Readiness betrachtet nicht nur digitale Technologien und Anwendungen, sondern auch die nicht direkt greifbaren Rahmenbedingungen des Unternehmens (z.B. Mitarbeiter, Unternehmenskultur, Strategie, Vision etc.). Diese Arbeit entwickelt auf der Grundlage eines systematischen Literatur-Reviews von bestehenden Modellen zur Bewertung der "digitalen Readiness" ein "Best-of-Breed"-Modell in Form eines Selbstbewertungstools. Dieses Selbstbewertungstool baut auf einem methodisch entwickelten Reifegradmodell auf und bestimmt anhand von erhobenen und validierten Kriterien aus verschiedenen Unternehmensbereichen die digitale Bereitschaft eines Unternehmens. Die Unternehmensbereiche sind: "Daten & IT", "Kultur", "Kunden & Partner", "Leadership", "Mitarbeiter", "Organisation & Kommunikation", "Produkte / Services", "Strategie & Vision", "Wertschöpfung & Prozesse". Zu jedem dieser Unternehmensbereiche leitet das entwickelte Modell - das Digital Readiness Model - erste Handlungsempfehlungen für die Unternehmen ab. Das Digital Readiness Model wurde in der Praxis durch ausgewählte Experten getestet und evaluiert.



Ress, Julia;
Theorie der Prozessakzeptanz und Process Virtualization Theorie : Möglichkeiten der Integration theoretischer Zugänge der Virtualisierung in der Unternehmensberatung. - Ilmenau. - 126 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

Die digitale Transformation ist heute, wie in vielen anderen Domänen, zum Taktgeber der Consultingbranche geworden. Technologische Entwicklungen sorgen für neue Möglichkeiten, Beratungsleistungen zu optimieren oder Produkte und Prozesse gänzlich neu zu gestalten. Durch neue, innovationsgetriebene Wettbewerber und veränderte Ansprüche der Kunden entsteht eine neue Marktdynamik. Um sich als Beratungsunternehmen am Markt behaupten zu können, ist es unabdingbar, die eigenen Leistungen und das eigene Geschäftsmodell kontinuierlich kritisch zu überprüfen und weiterzuentwickeln. Während die Auseinandersetzung mit der Problematik in der Praxis an Wichtigkeit gewinnt, nimmt auch im Consulting Research die Forschung zur Virtualisierung von Beratungsleistungen stetig zu. Ziel dieser Arbeit ist die Auseinandersetzung mit zwei Artefakten aus diesem Gebiet. Anhand der Design Science Research Methode werden Integrationsmöglichkeiten theoretischer Zugänge für die 'Methode zur Ermittlung des Virtualisierungspotentials von Beratungsleistungen' sowie für das 'Prozessmodell zur Virtualisierung von Beratungsleistungen' aufgezeigt. Konkret werden dazu Erkenntnisse der Process Virtualization Theorie (PVT) und der Theorie der Prozessakzeptanz (TPA) sowie anknüpfende Beiträge genutzt. Ferner fließen auch Erkenntnisse zur digitalen Transformation von Geschäftsmodellen in der Beratung ein. Der Integration vorausgehend wird ein methodischer Theorievergleich aufgestellt. Durch diesen wird festgestellt, dass kein logischer Widerspruch zwischen PVT und TPA besteht. Vielmehr wird erkannt, dass eine horizontale Integration beider Theorien möglich ist. Auf dieser Grundlage werden die Artefakte weiterentwickelt. Die weiterentwickelte Methode zur Ermittlung des Virtualisierungspotenzials wird überdies im Rahmen einer Fallstudie am Beispiel eines Softwareeinführungsprozesses einer Beratung demonstriert. Ferner wird die Methode im Rahmen von Experteninterviews evaluiert. Die Evaluation bestätigt die Funktionalität der weiterentwickelten Methode weitestgehend. Gleichzeitig zeigt sie Entwicklungspotential auf, welches in künftige Iterationen einfließen kann. Als Ergebnis zeigt die Arbeit, dass Integrationsmöglichkeiten bestehen und wie diese umgesetzt werden können. Sie birgt in diesem Sinne einen Erkenntnisgewinn für sowohl Fachwissenschaftler als auch Beratungsunternehmen in der Praxis.



State of Practice : Systeme zum internen und Projekt-Controlling in Unternehmensberatungen. - Ilmenau. - 93 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

Im Rahmen dieser Arbeit wurden vorerst Controlling-Systeme konkretisiert. Anschließend wurden Instrumente für das interne und das Projektcontrolling vorgestellt. Zur organisatorischen Einbettung wurden schließlich die Anforderungen der Unternehmensberatung an Controlling-Systeme untersucht. Im schließlich erfolgenden Design wurden die relevantesten Instrumente für das interne Controlling einerseits und das Projektcontrolling andererseits bei einer Unternehmensberatung identifiziert. Zu Beginn des zweiten Kapitel wurde ermittelt, dass ein Controlling-System mit einem Regelkreis verglichen werden kann. Diesbezüglich ist im weiteren Verlauf jedoch festgestellt worden, dass eine Betrachtung des ganzen Systems als ein Zusammenwirken vieler Instrumente als miteinander verbundenes Controlling-System nicht realistisch ist. Vielmehr ist es ein voneinander unabhängiges Nutzen verschiedener Instrumente zum Zweck der Rationalitätssicherung. Die Instrumente selbst besitzen jedoch Elemente des Controlling-Regelkreises. Weiterhin wurden die Controlling-Instrumente für das interne Controlling präsentiert, wobei diese in verschiedene Perspektiven des Unternehmens eingeteilt wurden. Im folgenden dritten Kapitel wurde speziell auf das Projektcontrolling eingegangen, wobei die verschiedenen Phasen der Auswahl von Projekten, der Planung von Projekten und der Betreuung von Projekten berücksichtigt wurden. Es wurden erneut die relevanten Instrumente für die einzelnen Phasen präsentiert. Das folgende Kapitel 4 beschreibt die Grundzüge der Unternehmensberatung, spezifische Charakteristika und schließlich Besonderheiten, welche konkret für das Controlling in Unternehmensberatungen relevant sind. Hierbei wurde in besonderem Maße die Bedeutung des Projektcontrollings hervorgehoben und bezüglich des internen Controlling-Systems festgestellt, dass grundlegende Besonderheiten nicht vorhanden sind. Schließlich wurden in Kapitel 5 zwei Systeme entwickelt, welche für das Controlling und das Projektcontrolling in Unternehmensberatungen passend sind. Das Projektcontrolling wurde hierbei in ein sehr engmaschiges System implementiert, um das Einhalten der Vorgaben zu gewährleisten. Beim internen Controlling wurden organisationale Besonderheiten beachtet, welche die gewählten Instrumente beeinflusst haben.



Anwendung von Data Mining-Verfahren auf Optimierungsdaten im Kontext der strategischen Personalplanung. - Ilmenau. - 68 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

Das Hauptziel dieser Arbeit ist es, geeignete Data Mining-Verfahren auszuwählen, die auf die Daten zur Personaleinsatz- und Arbeitszeitplanung angewendet werden können und nützliches Wissen für Entscheidungsträger zu entdecken. Aufgrund der Besonderheit des Datentyps im Entscheidungsraum sollten die ausgewählten Data Mining-Verfahren in der Lage sein, mit diskreten Daten umzugehen, um explizites Wissen zu generieren. Frequent Pattern Mining, Flexible Pattern Mining und Klassifikationsbaum werden gewählt, um explizites Wissen zu generieren. FPM und Flexible-PM behandeln diskrete Daten, indem sie jeden Wert in Kategorien einteilen, das generierte Wissen sind "Muster". Klassifikationsbaum kann diskrete Daten direkt verarbeiten. Das von Klassifikationsbaum generierte explizite Wissen sind "Entscheidungsregeln". Weil Klassifikationsbaum eine überwachte Methode ist, benötigt es vor der Implementierung gekennzeichnete Daten. In dieser Arbeit werden im Experiment zwei Möglichkeiten zur Zuweisung von Kennzeichen vorgestellt. (1) Verwendung der vom Entscheidungsträger bereitgestellten Präferenzinformationen. (2) Verwendung von Clustering-Methoden. Um die Fähigkeiten und Vorteile ausgewählter Data Mining-Verfahren darzustellen, werden in dieser Arbeit drei Szenarien entworfen. In diesen drei Szenarien hat der Entscheidungsträger die Präferenzinformationen von drei Niveaus. In dem entsprechenden Szenario werden geeignete Methoden gewählt, um nützliches Wissen zu generieren. Szenario 1: Die Entscheidungsträger haben eine bestimmte Präferenz für die Lösungen. Die bevorzugten Lösungen können als gekennzeichnete Lösungen behandelt werden, nach der Visualisierung auf dem Zielraum können Klassifikationsbaum, FPM, Flexible-PM eingesetzt werden. Szenario 2: Der Entscheidungsträger hat keine Präferenz für die Lösungen. Mit Hilfe des Agglomerativen Hierarchischen Clustering-Verfahrens kann ein Cluster ausgewählt und den Lösungen als Kennzeichen zugeordnet werden. Szenario 3: Die Entscheidungsträger haben nur eine kleine Anzahl von bevorzugten Lösungen. Durch den Einsatz von semi-überwachten Clustering-Verfahren kann das Wissen der Entscheidungsträger sinnvoll genutzt werden. Die Kombination aus semi-überwachtem Clustering und Klassifikationsbaum wird in dieser Arbeit neu vorgeschlagen. In dem Experiment kann beobachtet werden, dass alle gewählten Methoden in Bezug auf jedes Szenario gut wirken. Bislang können alle Forschungsfragen dieser Arbeit beantwortet werden. Die genannten Einschränkungen sind zum Teil überwunden. Es kann wie folgt zusammengefasst werden: 1. In allen 3 Szenarien wird Wissen über den Entscheidungsraum als auch über den Zielraum generiert. Variablen im Zielraum werden visualisiert, um seine Struktur zu verdeutlichen, und in Clustern zusammengefasst, um Informationen über Kennzeichen zu liefern. Explizites Wissen wird aus Variablen im Entscheidungsraum generiert. 2. Klassifikationsbaum, FPM und Flexible-PM sind in der Lage, mit allen Arten von diskreten Variablen umzugehen, kein Abstandsmaß im Entscheidungsraum. Clustering-Verfahren werden nur im Zielraum eingesetzt, wenn Entfernungsmaße verwendet werden. 3. Explizites Wissen kann in allen drei Szenarien in Form von Muster- oder Entscheidungsregeln generiert werden. 4. Die Entscheidungsträger können in allen drei Szenarien einbezogen werden. Mit der Intervention des Entscheidungsträgers werden die entstehenden Ergebnisse leichter verständlich sein. Die Leistung des Experiments zeigt auch, dass die gewählten Data Mining-Verfahren und entworfenen Szenarien nicht nur für die Daten zur Personaleinsatz- und Arbeitszeitplanung zur Verfügung stehen, sondern auch für alle MOO-Datensätze mit diskreten Variablen geeignet sind.



Mann, Felix;
Vergleich von Surrogatmodellen zur parallelen Optimierung. - Ilmenau. - 81 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

Durch immer mehr Fortschritt in der Technik und mehr Rechenleistung werden unter anderem immer mehr Probleme mit evolutionären Algorithmen gelöst. Diese Art der Problemlösung erfordert neue Möglichkeiten der Datenauswertung und mehr Rechenleistung als je zuvor. Diese wissenschaftliche Arbeit dient der Analyse von Surrogatmodellen, ein Modell eines Modells, welche die Berechnung von evolutionären Algorithmen effizienter gestalten sollen. Dafür wurde ein Literaturreview erstellt, welches analysiert, welche Arten von Surrogatmodellen in der Optimierung relevant sind. Im Anschluss an die Analyse wird ein Computerprogramm erstellt, welches die aus dem Literaturreview als relevanten erachteten Surrogatmodelle auf einen gegeben Datensatz aus dem Bereich der evolutionären Algorithmen anwendet und auswertet. Die Arbeit wird durch einen Vergleich der Surrogatmodelle in ihrer Genauigkeit beendet.



Hülsmann, Ina;
Studie zur Evaluation der Qualität von Beratungsleistungen in der IT-Unternehmensberatung. - Ilmenau. - 80 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

Der Bereich der Unternehmensberatung zählt in Deutschland zu den umsatzstärksten Brachen. Ein Teilbereich ist die IT-Beratung. Obwohl jährlich mehrere Milliarden Euro von IT-Beratern umgesetzt wird, ist der Bereich in der wissenschaftlichen Literatur noch kaum untersucht. Ziel dieser Forschungsarbeit ist es, das Beratungsverhalten der Klienten in der Praxis zu untersuchen. Auf Basis einer Analyse bestehender Modelle zur Bewertung von Unternehmensberatungen mit anderen Kernaufgaben, werden empirische Studien durchgeführt. Mit Hilfe von Experteninterviews und einer Online-Umfrage wird das momentane Bewertungsvorgehen in der Praxis untersucht. Im Vordergrund stehen hier die Fragen ob, wie und nach welchen Kriterien Klienten die Qualität erhaltener Beratungsleistungen bewerten. Zudem wird die Frage nach der Verwendung der Bewertungsergebnisse gestellt. Aus den gesammelten Daten wird im Anschluss ein Kriterienkatalog zur systematischen Bewertung von IT-Beratungsleistungen entwickelt.



Integrationslösungen für Werkzeuge zur Überwachung und Optimierung von betriebswirtschaftlichen Prozessen an ein ERP-System : Entwicklung eines Vorgehensmodells und Demonstration am Beispiel SAP ERP. - Ilmenau. - 85, 73 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

Der Übergang von physischen zu virtuellen Prozessen, auch Virtualisierung von Prozessen genannt, stellt in der Beratungsbranche eine Möglichkeit dar, sich in einem Markt mit hohem Konkurrenzdruck, durch innovative Lösungen zu bewähren. Eine solche Leistung kann das Geschäftsprozessmanagement, die Analyse und Gestaltung von Geschäftsprozessen im Unternehmen sein. In den letzten Jahren hat sich in diesem Zusammenhang bei der Analyse von Informationssystemen das Forschungsfeld des Process Mining gebildet. Dieses ermöglicht es, Informationen zu extrahieren und daraus (versteckte) Geschäftsprozesse, sowie deren Variationen, abzuleiten und analysieren. Doch um Process Mining in gegebenen Systemlandschaft anwenden zu können, müssen gewissen Voraussetzungen erfüllt werden. In diesem Zusammen werden drei Forschungsfragen gestellt: "Welche speziellen Anforderungen an eine Integrationslösung gibt es, um ein ERP-System an Werkzeuge zur Überwachung und Optimierung von betriebswirtschaftlichen Prozessen anzubinden?" "Welches Vorgehen ist notwendig, um Werkzeuge zur Überwachung und Optimierung von betriebswirtschaftlichen Prozessen auf die Daten eines ERP-Systems anzuwenden?" "In wie fern kann Visual Analytics Process Mining unter diesen Bedingungen unterstützen?" Diese Fragen werden mit Hilfe einer Literaturanalyse beantwortet. Auf Basis dieser Analyse wird ein Vorgehensmodell für den Integrationsprozess erstellt. Anschließend wird das erstellte Modell in einem Testszenario erfolgreich angewendet.



Eichelsbacher, Julia;
Standardisierung eines Softwareeinführungsprozesses und potenzielle Virtualisierungsmöglichkeiten. - Ilmenau. - 128 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Durch die Standardisierung und Virtualisierung von Prozessen können Unternehmensberatungen die Effizienz, Effektivität, Transparenz und Flexibilität ihrer Leistungen sicherstellen. Die vorliegende Arbeit entstand im Umfeld einer IT- und Softwareberatung, deren Softwareeinführungsprozess als Beispielprozess diente. Für die Standardisierung dieses Prozesses wurde ein Vorgehensmodell der Softwareeinführung nach einer umfassenden Literaturrecherche ausgewählt. Für diese Auswahl wurden Auswahlkriterien in einem Kriterienkatalog festgelegt. Letzterer entstand auf Basis des Kriterienkatalogs für die Bewertung von Informations- und Kommunikationssystemen von Pietsch (2003). Das ausgewählte Vorgehensmodell der Softwareeinführung wurde weiterentwickelt. Die Optimierungsmöglichkeiten wurden aus einer Istanalyse des Prozesses des Praxispartners erarbeitet. Anschließend erfolgte eine praktische Anwendung des Vorgehensmodells im Rahmen einer Fallstudie. Diese galt auch der Evaluation des Vorgehensmodells. Im zweiten Teil der Arbeit wurde die Virtualisierbarkeit des standardisierten Softwareeinführungsprozesses überprüft. Dazu wurde die Methode zur Ermittlung des Virtualisierungspotenzials von Beratungsleistungen (Nissen und Seifert 2017) auf den Praxisprozess angewendet. Die schrittweise Analyse des Virtualisierungspotenzials diente der Evaluation der Methode.



Breitbarth, Eric;
Mehrstufige Standort- und Transportplanung mit hierarchischer Zielfunktion : Untersuchung der Trinkwassernotversorgung der Stadt Berlin. - Ilmenau. - 132 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Trinkwasser ist für das Überleben des Menschen eines der wichtigsten Güter. Die Erfahrungen der letzten Jahre - z. B. in Verbindung mit extremen Naturereignissen oder terroristischen Anschlägen - machen deutlich, dass außergewöhnliche Ereignisse die leitungsgebundene Wasserversorgung der Bevölkerung gefährden können. In einer derartigen Versorgungskrise ist der Bund direkt zu Handlungen gezwungen. In Großstadtregionen sind für derartige Ereignisse Trinkwassernotbrunnen platziert, welche zur Notversorgung der Bevölkerung ausgelegt sind. Die vorliegende Arbeit stellt anhand eines Modells auf GIS-Basis im Modellraum Berlin das sich ergebende Wasserangebot der Wassernachfrage gegenüber. Es wird ersichtlich, dass die geografische Verteilung der Notbrunnen heterogen ausgestaltet ist. Dadurch haben Teile der Bevölkerung keine Wasserquelle in erreichbarer Nähe, wohingegen in anderen Gebieten ein Wasserüberschuss besteht. Diese Problematik gilt es mathematisch zu formulieren und logistisch durch Standort- und Transportplanung zu lösen. In den Fokus der Betrachtung rückt dabei ein multikriterielles Covering-Problem. Um größere Teile der Bevölkerung direkt versorgen zu können, wird das Konzept der Trinkwassernotversorgung um Standorte des Lebensmitteleinzelhandels zur Ausgabe von Wasser ergänzt. Durch sequenzielle Optimierungsschritte werden sechs Versorgungsalternativen - mit und ohne Kooperationen - entwickelt und anhand humanitärer und wirtschaftlicher Kriterien verglichen. Zur Lösungsfindung wird ein Branch-and-Cut-Algorithmus der Optimierungssoftware Gurobi auf Tauglichkeit zur Anwendung bei großen gemischt-ganzzahligen linearen Problemen untersucht. Die Ergebnisse belegen, dass die öffentlich-private Partnerschaft hinsichtlich erreichter Bevölkerung, Transportaufwand und Standortkosten einen beachtlichen Mehrwert bieten kann.



Giel, Christian;
Automatische Umplanung von Personaleinsatzplänen im ÖPNV. - Ilmenau. - 94 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Mithilfe von Personaleinsatzplänen, bzw. Dienstplänen, werden Mitarbeiter im öffentlichen Personennahverkehr auf Tätigkeiten verplant. Besonders die Planung des Fahrpersonals ist wichtig, da sie das Ausführen der angebotenen Touren übernehmen. Jedoch ist ein geplanter Dienstplan nur solange gültig, bis es zum Ausfall eines Mitarbeiters kommt. In diesem Fall muss der bestehende Dienstplan umgeplant werden. Diese Umplanung wird meist manuell erledigt, was viel Erfahrung und Wissen benötigt. In dieser Arbeit wird ein Prototyp entwickelt, der diese Umplanung automatisch vornimmt. Ziel einer Umplanung im Vergleich zu einer Neuplanung ist die minimale Veränderung des Dienstplans, um Auswirkungen auf die Tagesplanung der Fahrer so gering wie möglich zu halten. Vor der Umsetzung werden verschiedene Algorithmen analysiert und evaluiert, anschließend werden zwei davon ausgewählt: ein rekursiver Suchalgorithmus sowie eine Tabu-Suche. Beide Algorithmen werden umgesetzt und die Wirksamkeit an Beispielen demonstriert. Eine Evaluation der Qualität der Umplanungen schließt die Arbeit ab.



Übertragbarkeit von Online-Diensten der öffentlichen Verwaltung im Zusammenhang mit dem Onlinezugangsgesetz (OZG). - Ilmenau. - 84 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Das im Jahr 2017 vom deutschen Bundestag verabschiedete "Onlinezugangsgesetz" verpflichtet den Bund und die Länder sowie die Kommunen ihre Verwaltungsleistungen bis zum Jahr 2022 in Form von Online-Diensten zur Verfügung zu stellen. Dies stellt aufgrund der heterogenen Digitalisierungslandschaft in Deutschland eine kaum zu bewältigende Herausforderung für die Verwaltung dar. In dieser Masterarbeit soll die Übertragbarkeit von E-Government-Lösungen von einer Verwaltungsstelle auf eine andere untersucht werden, da die Übertragung von bereits an anderer Stelle entwickelten Lösungen als Schlüssel zur Beschleunigung der Entwicklungsgeschwindigkeit von Online-Diensten der öffentlichen Verwaltung gesehen wird. Das Ziel dieser Masterarbeit ist es eine Methode zu entwerfen, anhand derer die Übertragbarkeit einer Verwaltungsleistung untersucht werden kann. Zudem sollen für die untersuchte Verwaltungsleistung denkbare Übertragungsgegenstände identifiziert werden, um konkrete Handlungsempfehlungen und Strategien für die Förderung der Übertragbarkeit ableiten zu können. Methodisch folgt die Arbeit hierbei der "Design Science Research Methodology" von Peffers et al. mit dem Ergebnis einer Methode zur Bestimmung der Übertragbarkeit von Online-Diensten der öffentlichen Verwaltung. Um die Übertragbarkeit zu bestimmen, werden zunächst anhand des Metamodells der "Rahmenarchitektur IT-Steuerung Bund" mögliche Übertragungsgegenstände für die Entwicklung von IT-Lösungen in der öffentlichen Verwaltung abgeleitet. Es konnten Referenzmodelle, Basiskomponenten, Architekturmuster, konfigurierbare Online-Dienste sowie Standard-Lösungen als mögliche Übertragungsgegenstände herausgearbeitet werden. In der Methode wird letztlich der Einfluss von einem gemeinsamen Prozessverständnis der Übertragungsparteien und der vorliegenden Marktsituation der Anbieter von Fachverfahrens-Software auf die Übertragbarkeit untersucht. Ein gemeinsames Prozessverständnis zur Erbringung einer Verwaltungsleistung (homogene Prozesse), sowie das Interesse großer Anbieter und IT-Dienstleister an Übertragung von Lösungen in dem betroffenen fachlichen Bereich aufgrund von Skaleneffekten konnten als zentrale Einflussfaktoren für eine gute Übertragbarkeit identifiziert werden. Aufbauend auf die Ergebnisse der Methode können in zukünfigen Arbeiten Strategien für eine Steigerung der Übertragbarkeit abgeleitet werden.



Analyse von Scrum als Rahmenmodell im Bereich Enterprise Application Integration. - Ilmenau. - 106, 76 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Diese wissenschaftliche Arbeit dient der Analyse und Evaluierung der Eignung des agilen Rahmenmodells Scrum im Bereich Enterprise Application Integration (EAI). Ausgehend von allgemeinen agilen Methoden zur Softwareentwicklung, hin zum agilen Rahmenmodell Scrum wird untersucht inwiefern es wissenschaftliche Empfehlungen für die optimale Anwendung von Scrum in Bezug auf die allgemeine Projektart und für Softwareprojekte gibt. Desweiteren wird genauer auf Integration im IT-Kontext eingegangen, ein Überblick über verschiedene Integrationskonzepte und -ansätze gegeben sowie auf EAI im speziellen und verbreitete Vorgehensmodelle in diesem Bereich eingegangen. Dies bildet die Grundlage für die Analyse der Eignung von Scrum in EAI-Projekten. Evaluiert werden die Ergebnisse der Analyse mit Hilfe von Experteninterviews die mit Integrationsspezialisten durchgeführt wurden.



Strategische Optimierung der Tourenplanung. - Ilmenau. - 122 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Der Beitrag soll die vorhandenen Rahmenbedingungen bezüglich der Tourenplanung identifizieren und wie sich diese gegebenenfalls für eine strategische Optimierung beeinflussen lassen. Die Tourenplanung wird je nach Zielsetzung und Unternehmung durch verschiedene Restriktionen eingeschränkt. Aus diesem Grund werden zuerst die sogenannten Vehicle Routing Probleme und ihre Ausprägungen und Variationen anhand einer Review-Analyse untersucht. Diese Untersuchung verschafft einen Überblick über vorhandene Rahmenbedingungen, welche in einer autorenzentrierte Konzeptmatrix erfasst werden. In Folge dieser Arbeit sollen die Auswirkungen und die Beeinflussbarkeit der identifizierten Rahmenbedingungen durch eine argumentative-deduktive Analyse überprüft werden, die in einem eigen erstellten Kriterienkatalog veranschaulicht werden. Das Ergebnis der Review-Analyse zeigt auf, dass eine Einordnung der vorhandenen Rahmenbedingungen in einzelne Kategorien durch die Fülle an Varainten nicht immer klar und eindeutig vorgenommen werden konnte, da viele dieser Bedingungen mit einander in Verbindungen stehen und sich somit gegenseitig beeinflussen und eine eindeutige Trennung dadurch erschwert wird. Dieses Problem tritt folglich auch bei der Erstellung des Kriterienkatalogs auf. Hier sollte allerdings auf die subjektive Sichtweise des Kriterienkatalogs hingewiesen werden. Fazit dieser Arbeit ist, dass in diesem Gebiet noch weitere Rahmenbedingungen und ihre Fähigkeit zur strategischen Optimierung für die Tourenplanung untersucht werden müssen, um eindeutigere Ergebnisse vorweisen zu können. Allerdings sollte das Potenzial und die Auswirkungen solcher beeinflussbaren Rahmenbedingungen nicht unterschätzt werden.



Leistner, Adrian;
Umlaufplanung im regionalen Busverkehr : Lösungsmöglichkeiten durch Anwendung von Metaheuristiken. - Ilmenau. - 98 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Im Rahmen dieser Arbeit wurden Vehicle Scheduling Probleme und deren Lösungen behandelt. Dabei bestand die Zielsetzung in der Erarbeitung einer Übersicht möglicher Lösungsverfahren zur Minimierung der Kosten in der Umlaufplanung. Daher wurde eine Literature Review erstellt. Durch Einordnung der Literatur in Konzeptmatritzen konnten die Artikel voneinander abgegrenzt werden. Um Kostenpotentiale voll auszuschöpfen können die verschiedenen Artikel der Literature Review anhand ihrer Ziele und Konzepte verglichen werden, um einen Überblick der Möglichkeiten zur Potentialerkennung zu erlangen. Nach der Ausarbeitung verschiedener exakter, heuristscher, metaheuristischer und hybrider Lösungsansätze, wurde versucht diese exemplarisch nach ihren Konzepten auf ein Beispielumlaufproblem eines regionalen Busunternehmens anzuwenden.



Cetin, Cansu;
Mitarbeiterentwicklung in Unternehmensberatungen : Untersuchung von Strategien, Organisationen und Prozessen in Unternehmensberatungen zur Weiterentwicklung ihrer Mitarbeiter. - Ilmenau. - 153 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Die Weiterbildung spielt in vielen Unternehmen eine wichtige Rolle. Speziell in der Unternehmensberatung ist die Weiterbildung des Beraters von sehr großer Bedeutung. Denn das Wissen und die Erfahrung des Beraters bringt den Erfolg des Unternehmens. Dabei ist es wichtig das Thema nicht aus der Sicht des Unternehmens zu betrachten, sondern eher aus der Beratersicht. Werden die Ergebnisse dieser Studie näher erläutert, ist festzustellen, dass diese die Weiterbildung ebenso wichtig betrachten. Hierfür werden von den Unternehmen unterschiedliche Strategien mit gleichen Methoden angewendet. Der Berater hat eine Vielzahl an Freiraum und wird von seinem Beratungshaus meistens unterstützt. Das Thema Virtualisierung ist ebenso ein Bestandteil dieser Arbeit. Hier ist jedoch festzustellen, dass die virtualisierten Beratungsleistungen nicht stark eingesetzt werden. Auch wenn diese ausreichenden Vorteile vorweisen, spielen aus Beratersicht einige Faktoren wie hohe Kosten, Umstellung der Arbeitsweise und Verlust des direkten Kundenkontaktes eine große Rolle, den Einsatz zu vermeiden. Im Großen und Ganzen kann anhand der Ergebnisse jedoch festgehalten werden, dass die meisten Berater mit dem Weiterbildungsangebot ihres Unternehmens zufrieden sind.



Hemmrich, Simon;
Vertrauensbildung durch Blockchain-Technologie. - Ilmenau. - 107 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Der Blockchain-Technologie wird Vertrauen attribuiert, das Vertrauen in Intermediäre ersetzen kann. Gleichwohl ist dabei die Verbindung zwischen technikbezogenem zu personenbezogenem Vertrauen schwer zugänglich. Diese Arbeit untersucht aus soziologischer Perspektive das Vertrauenskonstrukt, um einen Entwurf eines Reputationssystems theoriebezogen zu fundieren. Mit der Systemtheorie nach Luhmann ist technisches und personenbezogenes Vertrauen gleichermaßen sprachformal erfassbar. In einer tiefgehenden systemtheoretischen Betrachtung wird Vertrauen in Technik untersucht. Unter Einbezug des Vertrauensmodells nach Mayer et al. (1995) wird ein systemtheoretisches Vertrauens- und Misstrauensmodell entwickelt, das personenbezogenes Vertrauen und Vertrauen in Technik erfasst. Das Scheinparadoxon zwischen Vertrauen und Kontrolle wird dabei theoriebezogen getrennt. Das Modell weist eine Allgemeingültigkeit auf, sodass es auch in anderen Forschungsdisziplinen Verwendung finden könnte. Mit dem Modell ist auf abstrakte Weise erklärbar, wie Vertrauen durch Blockchain-Technologie entsteht. Die Konsensfindung der Blockchain-Technologie ist hierbei als Kontrollmechanismus zu verstehen, welcher Verlässlichkeitserwartungen erzeugt und damit persönliche Vertrauenserwartungen stützen kann. Weiter erfolgt eine Einordnung der Technologie bezüglich der Erfolgsmedien der Gesellschaft wie Luhmann sie sieht, um daraus weitere Erkenntnisse für den Aufbau eines Reputationssystems zu gewinnen. Anhand der Design Science Research Methodik nach Peffers et al. (2007) wird ein neuartiger Entwurf eines Reputationssystems entwickelt, der zugleich neben der technischen Systemverlässlichkeit von Blockchain auch Systemvertrauen in soziale Systeme beachtet. Das geschaffene Artefakt skizziert, wie Vertrauen bei der Neukundengewinnung im Dienstleistungsbereich aufgebaut werden kann. Es ist vorgesehen, dass die darin generierten Informationen an Eigeninteressen von Parteien gebunden sind, miteinander aufrichtig zu agieren. Mittels des Zero-Knowledge-Proof sollen dann Leistungsinformationen zu Dienstleistungen über eine Blockchain anonym austauschbar sein. Das Artefakt ist noch unausgereift und bedarf der Weiterentwicklung durch weitere Design-Zyklen. Diese Arbeit beschreibt mit dem Reputationssystem einen potenziellen Anwendungsfall der Blockchain-Technologie, der in der Literatur in dieser Art nicht vorzufinden ist. Die Arbeit verspricht zudem eine abstrakte Erklärung des Vertrauenskonstrukt und kann so das Verständnis zu Vertrauen hinsichtlich Blockchain-Technologie erweitern.



Keßler, Thomas;
Qualitätsmessung von IT-Services : State of the Art und Perspektiven. - Ilmenau. - 112 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

IT-Services haben in den letzten Jahren zunehmend an Bedeutung für Unternehmen gewonnen. Im Sinne der Arbeitsteilung haben sich Unternehmen darauf spezialisiert ausschließlich IT-Services anzubieten. IT-Services werden angeboten, jedoch gibt es noch keine IT-Service-Qualitätsmessung nach dem wissenschaftlichen Verständnis von Qualität. Um IT-Service qualitativ bemessen zu können, wurde ITSQM-NV entwickelt. Die Entwicklung beruht auf der Darstellung und Analyse bereits bestehender IT-Standards. Die fachspezifische Sichtweise wurde um weitere Aspekte ergänzt. Hierfür wurden die Qualitätsmessung von Wein, die Qualitätsmessung in der Warenannahme, die PISA und Qualitätsmessmethoden für Dienstleistungen mit einbezogen. Die Ergebnisse der Analyse bilden die Grundlage der Entwicklung von ITSQM-NV.



Marquart, Tobias;
Entwicklung eines Modells zur Implementierung von Industrie 4.0 in einen Produktionsprozess. - Ilmenau. - 68 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Das Ziel dieser Arbeit ist es aufzuzeigen, welche Potentiale die Industrie 4.0 für Unternehmen bietet und wie diese bei der Einführung der Technologien in den Produktionsprozess vorgehen sollten. Daraus ergibt sich die folgende Forschungsfrage: Wie sollten Unterneh-men bei der Einführung von Industrie 4.0 in einen Produktionsprozess vorgehen? Für die Beantwortung der Forschungsfrage wurde ein Modell entwickelt, das die einzelnen Schritte sowie Einflussfaktoren bei der Implementierung beschreibt. Die praktische Anwendung dieses Modells auf einen realen Produktionsprozess der Robert Bosch GmbH führt zu einer Steigerung der Produktivität und Qualität sowie einer Reduzierung der Fehlerquote.



Friedl, Simon;
Digitale Transformation dienstleistungsorientierter Geschäftsmodelle zur Smart Mobility : die Entwicklung eines Mobilitätsreifegradmodells. - Ilmenau. - 217 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Die Mobilität der Zukunft unterliegt ökonomischen, ökologischen und gesellschaftlichen Herausforderungen, denn ohne Mobilität scheint kaum Wohlstand zu existieren. Speziell die fortschreitende Digitalisierung definiert das digitale Mobilitäts-Ökosystem neu, sodass innovative Geschäftsmodelle und Prozessverbesserungen zur Sicherung der unternehmerischen Wettbewerbsfähigkeit entstehen. Hier setzen die Fragestellungen an, wie zukünftige Prozesse im Mobilitätssektor durch den Einsatz innovativer Technologien gestaltet werden können. Darüber hinaus gilt es zu erörtern, wie die damit einhergehende digitale Reife und der Transformationsfortschritt von Geschäftsmodellen hinsichtlich Smart Mobility quantifiziert werden können. Für die Validierung dieses digitalen Transformationsfortschritts zur Smart Mobility bewährt sich die Anwendung von Reifegradmodellen, wenngleich in Wissenschaft und Praxis bislang kein mobilitätsspezifisches Reifegradverständnis existiert. Zwar sind Veröffentlichungen generischer Reifegradmodelle zur digitalen Transformation und Smart City publiziert, jedoch vereint keines relevante Reifekriterien im Sinne einer Smart Mobility Transformation. Mittels des gestaltungsorientierten Forschungsansatzes ist ein Mobilitätsreifegradmodell für Akteure in dem Mobilitäts-Ökosystem entwickelt, das den Transformationsfortschritt zur digital vernetzten Mobilität quantifiziert und betroffene Geschäftsmodellbestandteile zur weiteren Prozessverbesserung benennt. Die Realisierbarkeitsstudie des Artefakts mit Unternehmen aus der Mobilitätsbranche zeigt die Anwendbarkeit und Nutzerakzeptanz des Mobilitätsreifegradmodells auf. Einerseits bietet das Mobilitätsreifegradmodell einen Mehrwert als ein praktisch anwendbares Konstrukt für Fachleute und Management, welche Handlungspotentiale über alle Geschäftsmodellbestandteile hinweg eruieren. Andererseits steht der Wissenschaft ein grundlegendes Reifegradmodell für die Bewertung von Mobilitätsentwicklungen zur Verfügung, das im Rahmen weiterer iterativer Forschungsvorhaben präzisiert und fortlaufend dynamisch aktualisiert werden kann.



Fakhrshafaei, Ghazal;
Measuring Business-IT Alignment : existing approaches and own conception. - Ilmenau. - 71 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

In den letzten drei Jahrzehnten wird das Alignment von Business und Information Technology (IT) stetig als eines der wichtigsten Thematiken des Top Managements aufgeführt. Die Wichtigkeit von Business-IT Alignment zieht seit Jahren die Aufmerksamkeit von zahlreichen Wissenschaftlern auf sich. Obwohl sowohl die Vorteile von Business-IT Alignment immer wieder in der Literatur aufgezeigt werden als auch die Notwendigkeit und der Nutzen des Alignments für Firmen untersucht wurde, bleibt das Erzielen und Aufrechterhalten von Alignment eines der Hauptprobleme von vielen Unternehmen. Der wichtigste Schritt auf dem Weg zu einem funktionierenden Alignment zwischen Business und IT ist die Identifizierung der Ursprünge. Durch die Evaluierung und Analyse der Treiber können anschließend angemessene Vorkehrungen zur Verbesserung des Alignments getroffen werden. Aufgrund dessen ist das Hauptziel dieser Arbeit, ein geeignetes Instrument zur Messung des Levels von Business-IT Alignment vorzuschlagen. Dieses Ziel wird in dieser Arbeit durch die Evaluierung von existierenden Messinstrumenten aus vorherigen Forschungsarbeiten mit einer anschließenden Verbesserung des am besten geeigneten Instruments auf Basis von Expertenwissen und praktischer Validierung erreicht.



Kaltschmidt, Erik;
Ursachen von Projektverzug und mögliche Abstellmaßnahmen bei Schienenfahrzeugbeschaffungsprojekten der Deutschen Bahn AG. - Ilmenau. - 407 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Unpünktlichkeit führt zu Einschränkungen für die Kunden der DB AG im Reise- und Güterverkehr. Hierfür sind diverse Gründe ausschlaggebend, wie bspw. zu spät gelieferte Schienenfahrzeuge oder Qualitätsmängel an diesen. Ursache können zeitlich zu knapp bemessene Entwicklungs- und Liefertermine im Beschaffungsprozess sein. Das Ziel dieser Arbeit ist es, die Ursachen für Projektverzug in 16 aktuellen Schienenfahrzeugbeschaffungsprojekten der DB AG zu identifizieren. Außerdem sollen kritische Phasen im Produktentwicklungsprozess ermittelt und eingesetzte Abstellmaßnahmen identifiziert werden. Hierzu werden 16 Experteninterviews mit Projektleitern von aktuellen Beschaffungsprojekten der DB AG durchgeführt und im Anschluss mittels qualitativer Inhaltsanalyse nach Mayring ausgewertet. Die Ergebnisse dienen dazu, drei Forschungsfragen bezüglich Ursachen, auffälligen Phasen im Produktentwicklungsprozess und möglicher Abstellmaßnahmen gegen Verzug zu beantworten. Im Anschluss daran werden allgemeine Handlungsempfehlungen gegeben um einen Projektverzug zu vermeiden und ein Konzept für eine mögliche Abstellmaßnahme eines kritischen Prozesses erarbeitet.



Zum Zusammenhang zwischen einer agilen IT mit einem agilen Unternehmen. - Ilmenau. - 92 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Mit wachsender Globalisierung steigt der Wettbewerb für beteiligte Unternehmen innerhalb einer Branche. Produktlebenszyklen verkürzen sich, der Preisdruck steigt und neue Technologien, die einen Wandel in einer Unternehmensbranche bedeuten können, sind nur einige Einflussfaktoren, denen heutzutage Unternehmen in einer dynamischen Umwelt ausgesetzt sind. Starre Strukturen und Prozesse werden meist als hinderlich angesehen, um auf diese - oft ungeahnte - Ereignisse reagieren zu können. In der Vergangenheit wurde gerade deshalb die Flexibilität von Unternehmen genauer betrachtet. In den letzten 20 Jahren wurde dann das Prinzip der Flexibilität mehr und mehr von dem Agilitätsprinzip abgelöst. Die Agilität erweitert das Prinzip der Flexibilität um einen proaktiven Part, d.h. Unternehmen reagieren nicht nur auf Ereignisse, sondern nehmen Möglichkeiten und Chancen wahr und versuchen proaktiv daraufhin zu handeln. Neben dem Erhalt alter Geschäftsmodelle, können so neue Geschäftsmodelle erschlossen werden. Der IT wird bei diesem Vorgang eine wichtige Rolle zugesprochen. Sie gilt für viele als Enabler für Unternehmensagilität. In dieser Masterarbeit wird der Einfluss einer agilen IT auf ein agiles Unternehmen näher beleuchtet. Dazu wird eine umfangreiche Literaturrecherche angefertigt. Mit Hilfe der gefundenen relevanten Literatur wird ein Modell zum Zusammenhang zwischen IT-Agilität und Unternehmensagilität erstellt. Einzelne Beziehungen innerhalb des Modells werden durch Veröffentlichungen, die empirische Studien enthalten, analysiert. Wegen der genaueren Betrachtung einzelner Beziehungen, werden sowohl vorhandene Forschung, die Einflüsse zwischen einer agilen IT und einem agilen Unternehmen aufdeckt, als auch Forschungslücken, mit denen sich die Forschung in Zukunft auseinandersetzen muss.



Kong, Lingchen;
Ergebnisse zum Zusammenhang von geschäftlicher Agilität und IT-Agilität in Unternehmen und Non-Profit-Organisationen. - Ilmenau. - 74 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Während in den 1960er Jahren IT lediglich eine unterstützende Rolle in eine Organisation spielte, sind heutige sehr gefragte Geschäftsmodelle, z. B. Big Data, künstliche Intelligenz, Blockchain-Technologie, ohne die Unterstützung von IT nicht möglich. IT ist daher als eine Quelle für Business-Innovation in einer Organisation betrachtet. Aus Resource-based-View ist IT auf der einen Seite keine strategische Ressource und IT ist von anderen Wettbewerbern leicht imitierbar, auf der anderen Seite kann die Veränderungsfähigkeit der IT (IT-Agilität) die Veränderungsfähigkeit der Organisation (Business-Agilität) unterstützen und außerdem ist IT-Agilität eine strategische Ressource für Wettbewerbsfähigkeit. IT spielt daher eine komplexe Rolle in einer Organisation. In der Arbeit wird der (empirische) Zusammenhang von Business-Agilität und IT-Agilität in einer Organisation durch Literaturreview betrachtet und das Ergebnis der Literaturreview zeigt, dass während IT-Agilität ein wichtiger Erfolgsfaktor für die Erhöhung Business-Agilität in Unternehmen und Non-Profit-Organisationen ist, kann Business-Agilität auch IT-Agilität positiv beeinflussen.



Niemz, Michael;
Analyse zur Erhöhung der Prozessakzeptanz durch die Virtualisierung eines Beratungsprozesses - eine explorative Studie. - Ilmenau. - 79 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Im Zuge der Untersuchung von Akzeptanz wurde das Prozess-Akzeptanz-Modell entwickelt, dass bestimmte Faktoren vorgibt. Diese Arbeit beschäftigt sich mit der Frage, ob diese Faktoren uneingeschränkt auf die Beratungsbranche übertragbar sind und untersucht ob es möglich ist eine Akzeptanzsteigerung zu erreichen in dem ein Prozess virtualisiert wird. Es wird beispielhaft eine Änderung in einem laufenden Prozess analysiert und die Akzeptanzänderung eingeschätzt.



Pütz, Dennis;
Messbarkeit IT-basierter Innovativität. - Ilmenau. - 102 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Die vorliegende Arbeit beschäftigt sich mit der Messbarkeit IT-basierter Innovativität. Zu diesem Zweck wurde eine tiefgreifende Literaturrecherche zu entsprechenden Themen durchgeführt. Aufgrund der geringen Menge an Arbeiten zur Messung von Innovation speziell im IT-Bereich eines Unternehmens, wurden Beiträge aus IT-fremden Bereichen ebenfalls berücksichtigt. Die so identifizierten Beiträge wurden auf ihre Möglichkeit Innovation zu messen untersucht. Aus den so identifizierten Bausteinen der einzelnen Methoden wurde schlussendlich eine neue Methode entwickelt. Die sogenannte (Information Technology Innovation Score) ITIS-Methode basiert sowohl auf IT-fremden Methoden als auch auf für die IT entwickelten Methoden und hat zum Ziel die Innovationskraft eines IT-Bereiches in einem Unternehmen messen zu können. Nach einer einleitenden Betrachtung der relevanten Begriffe in Kapitel 1 werden in Kapitel 2 die Begriffe Innovation und IT in Bezug auf diese Arbeit genau betrachtet und analysiert. In Kapitel 3 werden verschiedene Methoden zur Messung von Innovation detailliert betrachtet und auf ihre Anwendbarkeit im Kontext einer Methode zur Messung von Innovationskraft in der IT geprüft. In Kapitel 4 wird aus den untersuchten Methoden heraus die ITIS-Methode entwickelt. Kapitel 5 beinhaltet schließlich eine praktische Durchführung der Methode an einem vorhandenen Unternehmen. Die ITIS-Methode ordnet dem IT-Bereich eines Unternehmens einen einzelnen Gesamtwert zur Bewertung der Innovationskraft zu. Zum erweiterten Verständnis wird ebenso ein Wert für die Innovationskapazität, dem Innovationspotential eines IT-Bereiches, und für die Innovationsintensität, die tatsächlich umgesetzte Innovation, ermittelt.



Francke, Matthias;
Akzeptanz vom Smart Speakern im E-Commerce. - Ilmenau. - 71 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Durch eine weiterhin anhaltende Digitalisierung und stetig neue Entwicklungen im E-Commerce suchen Unternehmen immer neue Wege, um mit ihren Kunden in Kontakt zu treten. Eine der neusten Technologien die dies ermöglicht sind Smart Speaker. Durch ihr hauptsächliches Anwendungsgebiet in den Häusern von Kunden bieten sich neue Möglichkeiten, jedoch ist noch nicht viel darüber bekannt, was den Erfolg dieser Geräte ausmacht. Ziel dieser Arbeit ist aus diesem Grund relevante Faktoren der Nutzung von Smart Speakern zu identifizieren.



Röhrig, Steve;
Entwicklung eines Konzepts zum Einsatz von Smart Contracts zur Konformitätsbewertung von Umformmaschinen. - Ilmenau. - 91 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

In den vergangenen Jahren wurde der Technologie der Blockchain ein hohes Maß an Aufmerksamkeit zuteil. Über den Finanzdienstleistungssektor hinaus werden Anwendungsfälle gesucht, die für eine Blockchain prädestiniert sind. Als denkbarer Anwendungsfall wurde der Prozess der Konformitätsbewertung von Umformmaschinen näher betrachtet. Dieser eignete sich nicht nur aufgrund der vorhandenen Rahmenbedingungen als Anwendungsfall, sondern kann wegen mangelnder IT-Unterstützung weitere Vorteile aus der Blockchain-Technologie beziehen. Die Unterstützung erfolgt dabei in Form von Smart Contracts, einfachen Programmen, die zur Durchführung des Konformitätsbewertungsprozesses genutzt werden.



Rebhan, Felix;
Entwicklung und Evaluation eines Kriterienkatalogs für Visual Analytics Tools und Umsetzung eines Anwendungsfalls. - Ilmenau. - 112 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Aktuell stehen viele Unternehmen vor der Herausforderung, die schnell wachsende Datenmenge und Datenvielfalt zu bewältigen. Nahezu kein Unternehmen muss in der heutigen Zeit entscheiden, welche Daten entscheidungsrelevant sind und gespeichert werden müssen, was wiederum die Datenmenge ansteigen lässt (Kohlhammer et al. 2018, S. 198). Die Herausforderung von Big Data besteht darin, wie mit den großen und unstrukturierten Datenmengen umgegangen wird. Erst analytische Auswertungen machen aus den Daten relevante Informationen, die für Entscheidungsträger von Bedeutung sind. (Kohlhammer 2018, S. 198) Eine Möglichkeit zur Auswertung von Big Data stellt Visual Analytics dar. Die Methoden und Werkzeuge des Visual Analytics ermöglichen eine flexible Analyse und Darstellung großer Datenmengen, sodass Wissen mithilfe von Visualisierung aufgedeckt werden kann. Visual Analytics kombiniert die menschlichen Fähigkeiten, Muster und Trends schnell zu erfassen, mit den Stärken der automatischen Datenverarbeitung. Durch Visual Analytics können somit verdeckte Probleme und unvermutete Zusammenhänge im Big Data Bereich schneller erkannt werden als mit herkömmlichen Analysetools. Um Unternehmen bei der Auswahl der passenden Visual Analytics Tools zu unterstützen, wird im Rahmen dieser Arbeit ein Kriterienkatalog erstellt. In diesem sollen sowohl allgemeine Anforderungen an IT Tools, als auch spezifische Anforderungen für Visual Analytics betrachtet werden. Zur Entwicklung des Kriterienkatalogs wird eine Literaturanalyse durchgeführt. Anschließend wird der vorläufige Kriterienkatalog mithilfe von Experten plausibilisiert. Zur Evaluierung des Kriterienkatalogs werden drei ausgewählte Tools mithilfe des Katalogs und einer passenden Methode bewertet. Für die Bewertung wird ein Tool eines Marktführers und eines Visionärs gewählt. Zusätzlich geht ein Nischenprodukt in die Bewertung ein. Zum Abschluss wird ein Visual Analytics Anwendungsfall mithilfe eines zuvor ausgewählten Tools umgesetzt.



Jattke, Matthias;
Effektivität von Datenaufbereitungsverfahren auf fehlerbehafteten Datenreihen zur Analyse von Blutzuckermessdaten des Freestyle Libre. - Ilmenau. - 74 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Moderne Blutzuckermessysteme bieten häufigere und genauere Blutzuckermessungen im Vergleich zu diskreten Messungen über Kapilarblut. In den Messdaten treten aber immer wieder Lücken auf, also Abstände zwischen zwei Messpunkten, die größer sind als der eigentliche Standard des Messgeräts es vorsieht. Diese Lücken wurden als Untersuchungsgegenstand der vorliegenden Masterarbeit genutzt. Sie befasst sich mit der Effektivität von Methoden zum Füllen von Lücken in Messreihen. Hierzu wurden mathematisch-statistische Methoden darauf geprüft, wie genau sie Lücken in Blutzuckermessverläufen füllen können. Da aufgrund der sehr individuellen Messcharakteristik von Blutzuckermessdaten die hochqualitative Lückenfüllung durch mathematisch-statistische Methoden durch den Autor in Frage gestellt wurde, sollte zusätzlich zum Vergleich vorhandener Methoden im Rahmen eines Proof of Concept ein Algorithmus konzipiert und prototypisch umgesetzt werden, welcher die Charakteristik von Blutzuckermessdaten einbezieht und eine hochwertigere Lückenfüllung ermöglicht.



Zeckey, Julius;
Blockchain : Technologie und Anwendungsperspektiven. - Ilmenau. - 143 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Der Blockchain-Technologie wird vielfach ein großes disruptives Potential zugeschrieben. Ursprünglich als technisches Konzept für eine unabhängige und digitale Währung von Satoshi Nakamoto im Jahr 2008 entwickelt, nimmt die Anwendung im Bereich der Kryptowährungen eine Vorreiterrolle ein, stellt aber gleichzeitig nur eines von vielen möglichen Anwendungsgebieten dar. Verteilt in einem Peer-to-Peer Netzwerk können Informationen manipulationssicher in einer kryptografisch verketteten Datenstruktur - der Blockchain - gespeichert werden. Die Anwendung von Konsensalgorithmen stellt die netzwerkweite Integrität der Datenstruktur sicher. Erstmals wird Vertrauen nicht durch ein bilaterales Verhältnis oder eine zentrale Autorität geschaffen, sondern beruht auf einem mathematisch integren Konsens innerhalb eines dezentralen Netzwerkes. Darüber hinaus bieten Smart Contracts und dApps die Möglichkeit, komplexe Algorithmen direkt auf der Blockchain zu implementieren. Der Markt ist gekennzeichnet durch hohe Erwartungen und großes Interesse, da die frühzeitige Evaluation von Anwendungsgebieten Wettbewerbsvorteile schaffen kann. Aufbauend auf dem Konzept des Task-Technology-Fit Modells fasst die vorliegende Arbeit die technologischen Grundlagen strukturiert zusammen und gibt Interessenten ein Werkzeug zur Evaluation und Identifikation von Anwendungspotentialen an die Hand. Das Task-Technology-Fit Modell von Goodhue und Thomson (1995) beschreibt einen Zusammenhang zwischen der Leistung und der Eignung der zur Erfüllung einer Aufgabe verwendeten Technologie. Während sich die Leistungsmerkmale aus der Technologie ableiten, werden die Anwendungsanforderungen im Rahmen dieser Arbeit mithilfe eines mehrdimensionalen Ansatzes betrachtet und beziehen bestehende Frameworks, existierende Anwendungen und die Technologie selbst mit ein. Vorteilhafte Kombinationen der technologie- und anwendungsspezifischen Merkmale spannen einen Rahmen für vielversprechende Anwendungspotentiale auf. Eine Betrachtung der Schwächen und Risiken der Blockchain-Technologie sowie der Vergleich mit herkömmlichen Lösungen runden die Arbeit ab und vermitteln dem Leser ein detailliertes Bild in Bezug auf potentielle Einsatzgebiete. Im Rahmen der Evaluation des Frameworks soll die Anwendbarkeit der Technologie zur Eindämmung des Bullwhip-Effekts in industriellen Supply Chains analysiert werden.



Anforderungsanalyse für eine risikoorientierte Data Lineage sowie Entwurf eines Datenqualitätsreportings für die Thüringer Aufbaubank. - Ilmenau. - 193 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Vor dem Hintergrund der immer stärker werdenden aufsichtsrechtlichen Anforderungen bezüglich der Datentransparenz und -qualität an Banken, die sich u.a. aus der BCBS 239, MaRisk und den BAIT ergeben, wurde im Rahmen dieser Arbeit eine Anforderungsanalyse für eine Data Lineage Anwendung durchgeführt und ein risikoorientiertes Datenqualitätsreporting entwickelt. Das Ziel hierbei war es, die Voraussetzungen für die Entwicklung einer Data Lineage zu schaffen, die die Transparenz der Datenverarbeitung erhöht und somit unterstützend auf die Datenqualität wirkt. Das entwickelte Datenqualitätsreporting ermöglicht es, die Datenqualität nicht nur für automatisiert verarbeitete Daten und Verarbeitungsprozesse zu erfassen und kontrollieren, sondern auch für manuelle. Die hierfür erforderlichen Informationen wurden in Experteninterviews in den risikorelevanten Fachbereichen Finanzen/Controlling und der IT gewonnen. Mit Hilfe der qualitativen Inhaltsanalyse nach Mayring wurde das Interviewmaterial mit der Software QCAmap nach folgenden Kategorien ausgewertet: 1. Ist-Zustand der Datennachvollziehbarkeit; 2. Soll-Zustand der Data Lineage; 3. Ist-Zustand der Datenqualität; 4. Datenaktualität; 5. Datengenauigkeit; 6. Datenintegrität; 7. Datenvollständigkeit. In Kategorie 4 bis 7 wurden Detailinformationen zu vorher festgelegten zu prüfenden Datenqualitätskriterien erhoben. Mit Hilfe der durchgeführten Auswertungen konnte ein Überblick über den Ist-Zustand der Data Lineage als auch der Datenqualität gewonnen werden. Des Weiteren wurde aus den erhobenen Daten ein Anforderungskatalog gemäß des Requirements Engineering mit funktionalen und nicht-funktionalen Anforderungen an eine Data Lineage erstellt. Hieraus ergibt sich die Grundlage zur Entwicklung einer Data Lineage Anwendung. Die Umsetzung der Datenqualitätsmessung geschieht mit Hilfe von Datenqualitätskontrollen, welche an kritischen Punkten in der Prozesskette der Datenverarbeitung implementiert sind. Die Datenqualitätskontrollen sind mit den ihnen zugrundeliegenden Datenqualitätskriterien verknüpft. Die datenbankunterstütze Erfassung von Datenqualitätsvorfällen mit der betroffenen Kontrolle ermöglicht den Aufbau des Reportings. Hierfür wurde eine Kennzahl entwickelt, die flexibel für die einzelnen Datenqualitätskriterien, verschiedene Anspruchsgruppen etc. berechnet werden kann.



Marschall, Jens;
Ein Modell zur Bestimmung und Evaluierung der Vernetzungsqualität in Gesundheitsnetzwerken. - Ilmenau. - 70 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Das deutsche Gesundheitswesen sieht sich mit einer sinkenden Anzahl von Ärzten in ländlichen Gegenden und allgemeinen Rationierungsmaßnahmen konfrontiert. Des Weiteren bedarf es einer Lösung für die gegenwärtigen und zukünftigen Versorgungsprobleme, die durch den demografischen Wandel verursacht werden. Immer mehr ältere, chronisch kranke und multimorbide Patienten müssen auch weiterhin eine umfangreiche Versorgung erhalten. Die intersektorale Vernetzung zu sogenannten Gesundheitsnetzwerken ist ein Ansatz, um dieses Problem zu lösen. Um herausfinden zu können wie hoch die Qualität der Vernetzung in solchen Gesundheitsnetzwerken ist, wurde im Rahmen dieser Arbeit ein Modell zur Bestimmung und Evaluierung der Vernetzungsqualität entwickelt. Dieses besteht aus einer Qualitätsmatrix, einem Fragebogen für medizinische Leistungserbringer und einem Fragebogen für leitende IT-Mitarbeiter innerhalb eines Gesundheitsnetzwerkes. Die Durchführung dieses Modells konnte dessen Funktionalität beweisen und bietet die Grundlage für weitere Forschungsarbeiten zur Vernetzungsqualität.



Friedrich, Julia;
Theoretische und gestaltungsorientierte Untersuchung der Messbarkeit des Digitalisierungsgrads wissensintensiver Dienstleistungen. - Ilmenau. - 208 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Speziell in der Dienstleistungsbranche zählt die Digitalisierung zu einer der größten Herausforderungen. Dabei weisen insbesondere wissensintensive Dienstleistungen zum Teil ein großes Virtualisierungspotential auf. Da sich durch die Digitalisierung neue Möglichkeiten zur Sicherung der Wettbewerbsfähigkeit, zur Verbesserung der Effizienz und zur Umsatzsteigerung eröffnen, sollte eine zielgerichtete digitale Transformation eingeleitet werden. Um dort erreichte Fortschritte zu überprüfen, eignet sich die Messung des unternehmensspezifischen Digitalisierungsgrads. Bisher existierende, branchenneutrale Reifegradmodelle zur Analyse des Digitalisierungsgrads sind allerdings nicht auf die konstitutiven Merkmale wissensintensiver Dienstleistungen abgestimmt. Folglich sind bei einer generischen Anwendung auf wissensintensive Dienstleistungen keine eindeutigen Ergebnisse gewährleistet. Daher wird in dieser Arbeit eine geeignete Methode für die Einschätzung des Digitalisierungsgrads entwickelt, welche speziell auf wissensintensive Dienstleistungen ausgerichtet ist. Auf Grundlage der Ergebnisse des entwickelten Selbsttests können zukünftig spezifische Verbesserungspotentiale abgeleitet werden. Zudem ist die Bildung einer ersten Entscheidungshilfe für Finanzierungs- und Investitionsentscheidungen im Rahmen der Digitalisierung möglich.



Topoglu, Timucin;
Evaluierung und praktische Anwendung von Implementierungsmodellen der Industrie 4.0 und warum der Digitalisierungsboom bis heute ausbleibt . - Ilmenau. - 62 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Trotz großen Chancen die durch den Einsatz von Industrie 4.0 angepriesen werden, stehen viele Unternehmen bei der Umsetzung vor Schwierigkeiten. Ziel dieser Arbeit ist es, ein Vorgehensmodell zu entwickeln, welches Unternehmen beim Wandel zu Industrie 4.0 unterstützt. Dazu wird mittels Literaturreview untersucht, ob bereits wissenschaftliche Ansätze zur Implementierung von Industrie 4.0 existieren. Nach Auswertung der gefundenen Literatur wird auf Basis des Design Science Research Ansatzes im Anschluss ein Leitfaden zur Umsetzung von Industrie 4.0 erarbeitet. Dieser Leitfaden wird anschließend an einem realen Unternehmen angewendet und ausgewertet. Das letzte Kapitel schildert durch die Auswertung verschiedener Literaturen Daten und Fakten, warum der Digitalisierungsboom bis heute in der Industrie weitgehend ausbleibt.



Zayarnyy, Alexey;
Vergleich von genetischen Algorithmen und Evolutionsstrategien im Rahmen der untertägigen Personaleinsatzplanung. - Ilmenau. - 116 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Die Personaleinsatzplanung spielt für viele Dienstleistungs- und Industrieunternehmen eine sehr wichtige Rolle. Das Ziel der vorliegenden Masterarbeit ist der Vergleich der genetischen Algorithmen und der Evolutionsstrategien im Rahmen der untertägigen Personaleinsatzplanung. Dafür wird ein Modell für die untertägige Personaleisatzplanung eines Call Centers präsentiert, bei dem die Qualifikationen der Agenten berücksichtigt werden, und die Über- und Unterdeckung im Personaleinsatz, die untertägigen Tätigkeitswechsel sowie die Balance zwischen den Auslastungen der Agenten optimiert werden sollen. Für die Experimente wurde ein genetischer Algorithmus mit folgenden Komponenten implementiert: (1) betrachtete Selektionsmethoden sind: Turnierselektion, stochastisches universelles Sampling, Rouletteselektion, Turnierselektion mit Geschlechtern, Rouletteselektion mit Geschlechtern; (2) betrachtete Rekombinationsoperatoren sind: One-point crossover, Two-point crossover, Uniform crossover, Order crossover, Partially mapped crossover, Uniform order based crossover, drei Agent-based-crossover-Operatoren und drei Interval-based-crossover-Operatoren; (3) betrachtete Mutationsoperatoren: Random resetting, Swap mutation, Insert mutation, Scramble mutation; (4) die gewählten Wiedereinfügunsmethoden sind: Pure reinsertion, Elitism, Reinsertion with offspring selection. Die Evolutionsstrategien wurden mit allen Rekombinations- und Mutationsoperatoren der genetischen Algorithmen, und folgenden Unterscheidungen, implementiert und getestet: als Selektionsmethoden wurde die Plus- und Kommaselektion gewählt und als Mutationsoperatoren wurden noch zusätzlich die Gauss Mutation, die Gauss Mutation mit der 1/5 Erfolgsregel sowie die Mutation mit dem Konzept der maximalen Entropie betrachtet. Bei beiden evolutionären Algorithmen wurden Reparaturoperatoren eingesetzt. Für das Parametertuning wurde die Response Surface Methode benutzt. Das beste Ergebnis konnte mit Evolutionsstrategien als Lösungsverfahren und der Kommaselektion, dem "Interval-based"-Rekombinationsoperator und der "Swap"-Mutation als Operatoren erzielt werden. Die Ergebnisse der Experimente suggerieren, dass blinde Rekombinationsoperatoren keine signifikanten Verbesserungen für die untertägige Personaleinsatzplanung erreichen können und zur Erzielung einer besseren Performance sowohl die Konzepte der genetischen Algorithmen als auch die Konzepte der Evolutionsstrategien eingesetzt werden sollten.



Brekow, Marcel;
Digitale Geschäftsmodellinnovation im Consulting - ein Vergleich zum 4PL-Konzept. - Ilmenau. - 98 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Obwohl die digitale Transformation in unterschiedlichen Branchen einen Wandel vollzogen hat, ist bis dato die Unternehmensberatungsbranche weniger davon betroffen. Jedoch gibt es Strömungen, die hier ebenso einen Wandel vorhersagen. Dazu kann es zu grundlegenden Änderungen im Geschäftsmodell der Beratungsbranche kommen. Als mögliche Alternative hat Nissen dafür die Idee des Fourth Party Logistics-Konzepts auf die Unternehmensberatung übertragen. Dieses Konzept stellt eine Form des Outsourcings dar, bei dem ein Logistiker die einzelnen Marktakteure über eine digitale internetbasierte Plattform vernetzt. Um diese Idee weiter zu präzisieren, wird mithilfe des Business Models von Wirtz ein Rahmenkonzept konzeptioniert, das die essenziellen Aspekte einer Geschäftsmodellinnovation in der Unternehmensberatung näher beleuchtet. Dazu wird zusätzlich ermittelt, welche Tätigkeiten in dem Rahmen ausgliederbar sind und zugleich auf einer Plattform angeboten werden können. Das Ergebnis ist eine digitale Plattform, die Klient, Berater sowie Bewerber vernetzt und für die jeweilige Kundengruppe einen Mehrwert darstellen kann. Abschließend wird die Geschäftsmodellinnovation durch Experten aus der Unternehmensberatung evaluiert.



Reiter, Jakob;
Weiterentwicklung einer virtuellen Beratungsleistung. - Ilmenau. - 113 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Die digitale Transformation hat bereits für viele Veränderungen in verschiedenen Branchen gesorgt. Auch in der Welt der Unternehmensberatungen treten nun erste Veränderungen auf, nachdem sich das Geschäftsmodell der Beratungen lange nicht verändert hat. Nun etablieren sich die ersten digitalen Angebote von Unternehmensberatungen am Markt und bieten einen interessanten Forschungsansatz. Innerhalb dieser Arbeit wurde eine virtuelle Beratungsleistung für den Ansatz der gutachterlichen Beratung entwickelt. Dazu wurde zunächst ein systematisches Vorgehen entwickelt, damit zukünftig ein einfacher Einstieg in digitale Produkte innerhalb des Beratungsansatzes möglich ist. Außerdem wurde parallel eine bereits existierende Software-Umgebung zur Realisierung von virtuellen Beratungsleistungen weiterentwickelt. Mit dem systematischen Vorgehen wurde anschließend eine virtuelle Beratungsleistung im Themengebiet der IT-Agilität entwickelt. Zum Abschluss dieser Arbeit fand eine Evaluation des systematischen Vorgehens und der erstellen Beratungsleistung statt.



Dittler, Johannes;
Messung und Management der Reputation von Unternehmensberatungen. - Ilmenau. - 80 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Reputation hat im Verlauf der letzten Jahre zunehmend an Bedeutung für Unternehmen aller Branchen gewonnen. Viele sehen Reputation als einen der wichtigsten Hebel, um die Zukunft von Unternehmen profitabel zu gestalten, da sich strategische Vorteile aus dem Reputationsmanagement gewinnen lassen. Vor allem für die Branche der Unternehmensberatung ist die Reputation des eigenen Unternehmens ein wichtiger Faktor, um eine erfolgsversprechende Stellung im Wettbewerb einzunehmen. Um ein funktionierendes Reputationsmanagement in der eigenen Unternehmensberatung aufzusetzen und die Reputation mit den generierten Wettbewerbsvorteilen zu verknüpfen, ist es jedoch notwendig, geeignete Messinstrumente für die Reputation zu entwickeln. Innerhalb dieser Arbeit wird, aufbauend auf den Besonderheiten von Unternehmensberatungen, ein Messinstrument für die Reputation entwickelt und evaluiert. Weiterhin werden Ansätze für ein funktionierendes Reputationsmanagement in Unternehmensberatungen aufgezeigt und das entwickelte Messinstrument darin eingeordnet.



Halle, Paul;
Ermittlung des Virtualisierungspotenzials von Beratungsleistungen im Consulting - eine Fallstudie. - Ilmenau. - 106 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Die Virtualisierung von Beratungsleistungen stellt eine vielversprechende Strategie im Rahmen der digitalen Transformation dar, mit der Beratungsunternehmen Wettbewerbsvorteile erzielen können. Diesbezüglich schlagen Nissen und Seifert (2017) eine Methode zur Ermittlung des Virtualisierungspotenzials von Beratungsleistungen vor. Die vorliegende Arbeit untersucht deren Praxistauglichkeit im Rahmen einer multiperspektivischen Evaluation (Fettke und Loos 2004). Diese erfolgt primär durch eine partizipative Fallstudie (Baskerville 1997). Die Methode wird in einem Beratungsunternehmen angewandt und das Leistungsportfolio hinsichtlich des Virtualisierungspotenzials analysiert. Zusätzlich wird die Methodenbeschreibung im Rahmen einer merkmalsbasierten Evaluation (Siau und Rossi 2011) anhand von literaturgestützten Evaluationskriterien beurteilt. Die Evaluation zeigt, dass die Methode nicht praxistauglich ist. Auf Basis der Ergebnisse werden Implikationen für die Methodenanpassung und der weitere Forschungsbedarf formuliert. Des Weiteren werden konkrete Virtualisierungsansätze für das Beratungsunternehmen konzipiert und deren strategisches Potenzial untersucht.



Breitbart, Jan-Philipp;
Risikomanagement in Projekten : zur Verbesserung der Entscheidung unter Unsicherheit. - Ilmenau. - 91 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Projekte und die Projektumwelt zeichnen sich durch inhärente Unsicherheiten aus, die sich in auftretenden Risiken manifestierten. Aus diesem Grund sollte Risikomanagement (RSKM) zur Identifizierung der Ursachen und Steuerung der Auswirkungen der Risiken ein wichtiger Bestandteil des Projektmanagements (PM) sein. In der Praxis scheitern heute immer noch viele Projekte, was in der Literatur darauf zurückgeführt wird, dass RSKM entweder überhaupt nicht eingesetzt oder nur mangelhaft umgesetzt wird. Auch sogenannte "Best-Practice- Ansätze" in Form eines Methodenleitfadens sind ebenfalls kaum existent oder werden selten genutzt. In dieser Masterarbeit wird zunächst der (grundlegenden positivistischen) Fragestellung nachgegangen, ob ein kontinuierliches RSKM in Projekten als erfolgsversprechend für den Projekterfolg angesehen wird. Ausgehend von diesen Ergebnissen/ Erkenntnissen wird anschließend ein Vorschlag für einen Methodenleitfaden entwickelt, der die Akzeptanz von RSKM und "Best-Practice- Ansätzen" für die praktische Projektarbeit verbessern/ erhöhen soll. Darüber hinaus stellt diese Masterarbeit Lösungsansätze zu einer systematischeren und kontinuierlicheren verbesserten Umsetzung des RSKM in Projekten für Mitarbeiter der LHT AG bereit. Zur Erhebung des Ist-Zustands des Projektrisikomanagements (PRSKM) und der Entwicklung eines Methodenleitfadens/ "Best-Practice-Ansatzes" für das PRSKM greift der Autor auf die empirischen Forschungsmethoden des Literaturreviews, einer semi-quantitativen Umfrage und eines qualitativen Leitfadeninterviews zurück. Dabei konnte gezeigt werden, dass ein PRSKM als nützlich und hilfreich zur Erreichung der Projektziele wahrgenommen wird. Ein RSKM kommt sowohl auf operativer Ebene in Projekten, als auch auf unternehmensweiter Ebene bei einem Großteil der Befragten zum Einsatz. In diesem Zusammenhang wird v.a. die Art/ Herangehensweise und der Umfang der RSKM-Aktivitäten entsprechend der Risikobehaftung des Projekts und Projektumfelds als entscheidend für den Erfolg angesehen. Der Einsatz spezifischer RSKM Methoden wird hingegen als weniger relevant angesehen. Des Weiteren zeigte sich, dass das Wissen der ProjektleiterInnen zum PRSKM als auch die Herangehensweise und Umsetzung des PRSKM unterschiedlich stark ausgeprägt sind. Dies begründet die praktische Relevanz eines Mindeststandards, der in dieser Masterarbeit in Form einer ersten Fassung eines (standardisierten) "Best-Practice-Ansatzes" zur Verfügung gestellt wird. Neben der Hilfe bei der systematischen und kontinuierlichen Umsetzung des PRSKM in der Praxis soll dieser Leitfaden auch als Ausgangsbasis für weitere Forschung zum Thema genutzt werden. Hierbei wird auf die Heterogenität von Projekten hingewiesen, sodass der vorliegende allgemeine Ansatz in folgenden Arbeiten auf spezifische Projektarten angepasst werden könnte.



Röhrig, Lucas;
Konzepte der formalisierten Beschreibung von Dienstleistungen und deren Anwendung im Rahmen des Service Engineering. - Ilmenau. - 102 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Die vorliegende Masterarbeit verfolgt die Anpassung des Entwicklungsprozesses von Dienstleistungen an veränderte Marktbedingungen. Dies wurde durch die Integration von geeigneten Modellierungsmethoden für Dienstleistungen in den Entwicklungsprozess dieser erreicht. Dazu wurde den Fragen nachgegangen welche Ansätze zur Modellierung von Dienstleistungen derzeit existieren, welche dieser Ansätze sich zur Entwicklung von Dienstleistungen im Rahmen des Service Engineering eigenen und wie die geeigneten Ansätze effektiv in einem Service Engineering Konzept genutzt und dieses dadurch an die veränderten Marktbedingungen angepasst werden kann. Die Beantwortung der ersten Fragestellung mittels einer methodischen Literaturreche führte zur Identifikation von 19 Modellierungsansätzen für Dienstleistungen. Durch die Bewertung und den Vergleich dieser anhand eines dafür entwickelten Kriterienkataloges und Bewertungsverfahrens sind fünf Modellierungsansätze identifiziert wurden welche zusammengenommen vorteilhaft zur ganzheitlichen formalisierten Abbildung der während der Dienstleistungsentwicklung entstehenden Informationen eingesetzt werden können. Zur Unterstützung dieses Einsatzes ist ein Modellierungskonzept entwickelt wurden mit welchem die Modellierungsansätze in ein geeignetes Service Engineering Konzept integriert und dieses dadurch an die veränderten Marktbedingungen angepasst wurde. Durch diese Anpassung wird die Entwicklung von marktgerechten Dienstleistungen, welche sich durch eine hohe Komplexität, Informations- und Kommunikationstechnologiebestandteile sowie technische Produkte als Bestandteil auszeichnen, unterstützt.



Amtmann, Hannah;
Analyse eines Datenpools zur Rolle und den Aufgaben von CIO in Deutschland. - Ilmenau. - 35 tSeiten
Technische Universität Ilmenau, Masterarbeit 2017

Die IT hat in den letzten Jahren einen immer größeren Stellenwert für Unternehmen eingenommen. Dementsprechend ist auch die Rolle des CIO von großer Bedeutung. Um herauszufinden, wie sich die Situation in deutschen Großunternehmen darstellt, wurde eine umfangreiche Online-Befragung zum Stand des IT-Managements durchgeführt. Auf Basis der Daten aus dieser Umfrage werden im Rahmen dieser Arbeit statistische Auswertungen vorgenommen, um mögliche Einflussfaktoren auf die Rolle der IT zu identifizieren. Insbesondere wurde untersucht, ob bezüglich der Unternehmensumwelt, der Organisationsstruktur sowie der IT-Architektur und -Infrastruktur Unterschiede bzw. Zusammenhänge bestehen. Die daraus gewonnenen Erkenntnisse sind Grundlage für weitere Studien.



Ackert, Mats-Niklas;
Entwurf eines Vorgehensmodells zur Virtualisierung von Beratungsleistungen. - Ilmenau. - 96 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Die Transformation von realen in virtuelle Prozesse wird als Virtualisierung bezeichnet. Die Virtualisierung von Beratungsleistungen stellt eine vielversprechende Möglichkeit der Optimierung für Unternehmensberatungen dar. Indem Informations- und Kommunikationstechnologie zur Virtualisierung und Automatisierung genutzt wird, sollen neue Potenziale in Bezug auf Flexibilität, Geschwindigkeit und Kosten erschlossen werden. Bevor diese Potenziale genutzt werden können, müssen die realen Beratungsprozesse in die virtuelle Umgebung migriert werden. Um diese Aufgabe erfolgreich zu lösen bedarf es eines geeigneten Vorgehens, das im Rahmen der Arbeit hergeleitet wird. Zunächst werden bestehende Vorgehensmodelle (V-Modelle), die mithilfe einer strukturierten Literaturrecherche ermittelt wurden, gegen einen aufgestellten Anforderungskatalog evaluiert und ein V-Modell als Referenz ausgewählt. Anschließend werden bestehende Vorgehen zur Referenzmodellierung adaptiert und so ein erster Entwurf des V-Modells konstruiert. Die Ergebnisse wurden in einer Expertenbefragung evaluiert. Abschließend wird die Verwendbarkeit des V-Modells anhand eines bereits abgeschlossenen Virtualisierungsprojektes demonstriert. Im Ergebnis wurde ein achtphasiges V-Modell zur Virtualisierung von Beratungsleistungen entworfen. Es besteht aus den Phasen Analyse, Konzeption, Modellierung & Spezifikation, Implementierung & Tests, Einführung, Management & Betrieb, Performance- & Qualitätsmessung und Optimierung.



Nagy, Chris;
Virtuelles Training - in Vergleich zwischen auf Virtual Reality basierendem Training und klassischen Trainingsmethoden . - Ilmenau. - 97 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Mit der vorliegenden Arbeit wird das Potential von Virtual Reality für die betriebliche Qualifizierung am Beispiel der Fahrzeugendmontage eines Automobilherstellers bewertet. Dafür wird die Virtual-Reality-Technologie grundlegend vorgestellt und ein Einblick in die aktuell in der Konsumgüterindustrie zur Verfügung stehenden Ausgabegeräte gegeben. Aufbauend auf die Vorstellung der aktuell verwendeten industriellen Qualifizierungsmaßnahmen werden die Anforderungen an ein virtuelles Training formuliert. Für die vergleichende Gegenüberstellung von virtuellem und klassischem Training werden beide Trainingskonzepte mithilfe eines Literaturüberblicks in den Feldern Lernkurve, Lernerfolg, Trainingsdauer sowie Bereitschaft und Akzeptanz bewertet. Eine Kostenrechnung vergleicht das wirtschaftliche Potential einer Digitalisierung der Qualifizierungsmaßnahme. Die Ergebnisse der Untersuchungen werden abschließend mithilfe einer Nutzwertanalyse zusammengefügt, gewichtet und in ihrer Gesamtheit ausgewertet. Bei der Betrachtung der Chancen und Risiken sowie der qualifizierungsrelevanten Erfolgsfaktoren weist das virtuelle Training gegenüber der klassischen Trainingsmethode Vorteile auf. Aufgrund seiner hohen Entwicklungskosten liegt der Gesamtnutzen des virtuellen Trainings jedoch aktuell noch hinter dem des klassischen Trainings.



Krähmer, Johannes;
Robuste, kombinatorische Optimierung unter Verwendung von Metaheuristiken - ein Review. - Ilmenau. - 76 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Diese Arbeit beschäftigt sich mit der robusten, kombinatorischen Optimerung unter Verwendung von Metaheuristiken. Insbesondere die Berücksichtigung von Unsicherheiten steht im Fokus. Hierfür wird zunächst ein Überblick zu bisher veröffentlichten Reviews zum Thema Personalplanung und Scheduling algemein gegeben. Mittels dieser Recherche wird das Thema für den weiteren Verlauf eingegrenzt. Anschließend wird eine Übersicht der zum Thema veröffentlichten Arbeiten gegeben. Diese werden mit Bezug auf die verwendeten Metaheuristiken, sowie der Betrachtung der Unsicherheit miteinander verglichen. Zum Abschluss wird ein Ausblick auf zukünftige Themen gegeben.



Rau, Rebecca;
Analytische Untersuchung der Prozessakzeptanz. - Ilmenau. - 135 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Häufig kommt es vor, dass in einer Arbeitsumgebung neue Prozesse für bestimmte Arbeitsabläufe eingeführt werden. Diese Prozesse sollen eine effektivere und effizientere Arbeit als zuvor ermöglichen. Die Effekte sind allerdings nur erzielbar, wenn sich alle Prozessbeteiligten an den neuen Prozess halten und diesen wie vorgegeben durchführen. Es kann aber vorkommen, dass die betroffenen Personen aus bestimmten Gründen diesen neuen Prozess nicht wie gewünscht umsetzen. Ein Grund ist die Prozessakzeptanz. Wenn der neue Prozess, aufgrund von Eigenschaften die er besitzt, für die Beteiligten unkomfortabel in der Umsetzung ist, werden sich die Beteiligten nicht an die neuen Abläufe halten, den Prozess also, so wie er ist, nicht akzeptieren. Deshalb ist es wichtig, bereits vor Prozesseinführung, möglichst genau einschätzen zu können, ob ein Prozess zukünftig akzeptiert werden wird oder nicht. Deshalb war es das Ziel dieser Masterarbeit erstmalig herauszufinden, ob eine softwareseitige Überprüfung von Prozessmodellen auf ausgewählte Eigenschaften, die die Prozessakzeptanz beeinflussen, überhaupt möglich ist. Dazu wurden zunächst Möglichkeiten evaluiert, mit denen es möglich ist, Prozessmodelle analytisch zu untersuchen. Diese sind, die Anwendung der Graphentheorie auf den gerichteten Graph eines BPMN-Prozessmodells, die Analyse der einzelnen Elemente eines Prozessmodells sowie die Anwendung des Text Minings auf die Namen und Beschreibungen der Elemente in einem Modell. Zum Abschluss dieses Grundlagenkapitels wurden dann die Faktoren der Prozessakzeptanz hinsichtlich ihrer Eignung zur softwarebasierten Untersuchung bewertet und Möglichkeiten vorgestellt, wie die Faktoren, auch tatsächlich untersucht werden könnten. Anschließend wurde ein Prototyp mit der Library JDOM eintwickelt und vorgestellt. Dieser zeigt, dass es möglich ist, Prozessmodelle, zumindest auf einzelne ausgewählte Faktoren der Prozessakzeptanz zu prüfen. Zum Abschluss der Arbeit, werden die Ergebnisse des Prototyps ausgewertet und Kennzahlen vorgeschlagen, die zukünftig zur Untersuchung der Prozessakzeptanz genutzt werden könnten. Das Ergebnis der Arbeit ist, dass es tatsächlich möglich ist, einige Faktoren der Prozessakzeptanz softwaretechnisch analytisch zu untersuchen, bevor das Prozessmodell implementiert wird und so zumindest eine Teilaussage zur Prozessakzeptanz treffen zu können.



Voigt, Alexander;
Konzeption und Implementierung eines E-Learning Systems für die Legasthenie-Therapeuten-Ausbildung. - Ilmenau. - 87 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Diese Arbeit beschäftigt sich mit der Einführung von E-Learning in einen Weiterbildungsgang. Dabei sollen Kriterien für nutzbare Lehrinhalte aufgestellt werden. Danach ist zu prüfen, inwieweit E-Learning in die bestehende Struktur eingebuden werden kann. Eine E-Learning-Form ist das Blended Learning. Die grundlegenden Überlegungen führen zu einer Gestaltungsempfehlung der E-Learning Plattform (Moodle). Es werden alle für die Weiterbildung möglichen Funktionalitäten untersucht. Außerdem sind verschiedene Präsentationsformen des Lehrinhalts gegenübergestellt. Die theoretische Ausarbeitung wird anschließend praktisch im Moodle-System der Universität umgesetzt. Eine Evaluation mit der Gründerin der Weiterbildung soll erste Erkenntnisse über die Machbarkeit zeigen.



Blumenstein, Marco;
Entwurf einer Methode zur Unterstützung der Technologieauswahl für die Virtualisierung von Beratungsleistungen. - Ilmenau. - 98 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Die Digitale Transformation in der Unternehmensberatung und mithin die Virtualisierung von Beratungsleistungen basieren auf dem gezielten Einsatz von Informations- und Kommunikationstechnologien, wie Audio-Video-Konferenz-Tools, Data-Mining-Software oder Kollaborationswerkzeugen. Bisher mangelt es jedoch an geeigneten Methoden und Werkzeugen, um aus einem Bündel an möglichen Technologien und Tools die passende Wahl für den zu virtualisierenden Beratungsprozess zu treffen. Basierend auf einer Literaturrecherche, der Verwendung des Analytical Hierarchy Process (AHP) und der Analyse von bestehenden Virtualisierungsinitiativen, wird eine toolgestützte Methode konstruiert, die Unternehmensberatungen dabei unterstützen soll, geeignete Technologien und Tools für die Virtualisierung von Beratungsleistungen zu bestimmen. Die entworfene Methode ist Teil des Vorgehensmodells (V-Modells) virtueller Beratungsleistungen und setzt auf den Ergebnissen der Methode zur Bestimmung des Virtualisierungspotentials auf. An Hand eines praxisnahen Beispiels wird die Methode vorgestellt und ihr zukünftiges Potential hinsichtlich einer toolgestützten Anwendung kritisch reflektiert.



Töpfer, Lukas;
Untersuchung der Nutzerakzeptanz von IT-gestützten Produktionsplanungs- und Steuerungsprozessen. - Ilmenau. - 62 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Im Rahmen der Arbeit sollten Faktoren ermittelt werden, die bestimmten warum bestimmte Produktionsplanungsprozesse in Unternehmen von den Mitarbeitern akzeptiert oder abgelehnt werden. Hierzu konnte in einem Praxisfall die Implementierung eines SAP APO Moduls zur Produktions- und Feinplanung (PP/DS) rückblickend untersucht und analysiert werden. In diesem Kontext wurden Interviews mit Mitarbeitern eines Unternehmens der Chemiebranche durchgeführt. Zu Beginn der Untersuchung wurden unter Anwendung einer Literaturrecherche akzeptanzwirksame Größen und Modelle der Akzeptanzforschung erörtert. Ein Schwerpunkt lag dabei auch in der Aufarbeitung des aktuellen Forschungsstandes zur Bewertung der Akzeptanz von IT-Implementierungen. Um dem Kontext der Arbeit gerecht zu werden, wurden im Anschluss daran die Geschäftsprozesse der Produktionsplanung genauer eingegrenzt. Der Fokus lag dabei in den sogenannten Advanced Planning Systems (APS). Diese werden u.a. zur detaillierten Abbildung der Produktionssteuerung entlang der Supply Chain eingesetzt, als Erweiterung zu bestehenden ERP-Systemen. Nach Vorstellung des Praxisfalls, galt es einen passenden Interviewleitfaden für die anstehenden Einzelgespräche zu erstellen. Auf Grundlage der in den Interviews erhoben Daten konnte daraufhin eine qualitative Datenanalyse durchgeführt werden. Dazu wurden die transkribierten Interviews mit Hilfe des Open Coding hinsichtlich akzeptanzbeeinflussender Faktoren untersucht. Im Laufe der Arbeit stellte sich heraus, dass der Untersuchungsberiech in zwei Teile zu trennen war. Der erste Teil beinhaltet den Projektverlauf der IT-Einführung des APS-Systems, der zweite Teil widmet sich der eigentlichen Ausführung der Planungsprozesse in APO PP/DS. Vor allem in Bezug auf die IT-Implementierung konnten zahlreiche akzeptanzbeeinflussende Faktoren ermittelt werden. Daraus ließen sich Maßnahmen ableiten, die bei anstehenden IT-Einführungen berücksichtigt werden sollten. Diese Handlungsempfehlungen lassen sich somit auch auf andere Unternehmen anwenden.



Bartels, Steven;
Process Testing - Architektur und Implementierung einer Crowdsourcing-basierten Testumgebung zur Messung von Prozessakzeptanz. - Ilmenau. - 118 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Organisationen strukturieren sich über Prozesse, die zur Leistungserstellung dienen. Die Prozesse (Arbeitsabläufe) liefern einen Mehrwert, wenn sie von Subjekten prozesskonform ausgeführt werden. Ob Prozesse ausgeführt werden, hängt von der subjektiven Prozessakzeptanz ab. Dahingehend lässt sich formulieren, dass eine Prozessausführung mit der Prozessakzeptanz korreliert. Trotzdem ist das Testen von Prozessen in der Praxis kein etabliertes Anwendungsverfahren. Die vorliegende Arbeit liefert einen Vorschlag, um prozesskonformes Verhalten zu testen und sicherzustellen. Die vorgestellte Methode des Process Testing konzentriert sich darauf, dass Prozessakteure einen Arbeitsablauf konform ausführen. Die Sicherstellung erfolgt über ein partizipatives Testszenario, das Prozess-beteiligte Subjekte absolvieren. Fokus liegt auf einer frühzeitigen Testdurchführung, sodass eine anschließende Prozessimplementierung auf Erfahrungen und Feedback vom Subjekt basiert. Das Framework für Process Testing leitet sich aus der Literatur zum Thema Testen ab. Die verschiedenen Testkomponenten sind auf den unternehmerischen Kontext übertragen. Innerhalb des Bezugsrahmens von Process Testing kommt eine Testumgebung zum Einsatz, die im Rahmen der Arbeit entwickelt wurde. Die Testumgebung entstand als Artefakt gemäß der Design Science und basiert auf definierten Anforderungen. Sie vereint durch die Kombination von JATOS, Bonita BPM und Amazon Mechanical Turk Softwarekomponenten, die eine empirische Untersuchung von Prozessakzeptanz möglich macht.



Özdemir, Umut Mehmet;
Big Data Visualisierung im Webbrowser - Visualisierung großer Datenmengen mittels Techniken des Internets. - Ilmenau. - 155 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Die permanente Weiterentwicklung von Hardware-Technologien ermöglicht die clientseitige Visualisierung und Analyse stetig zunehmender Datenmengen mithilfe eines Webbrowsers über das World Wide Web. Mit der vorliegenden Masterarbeit sollen die aktuellen Möglichkeiten und Grenzen der Visualisierung bzw. Analyse von großen Datenmengen aufgedeckt werden. Auf Basis der gestaltungsorientierten Forschungsmethode sowie einer Literaturanalyse erfolgte die Identifizierung von Einflussfaktoren, Problemen und Lösungen zur clientseitigen Visualisierung und Analyse von Daten. Betrachtet wurden Balkendiagramme, Histogramme, zwei- und dreidimensionale Streuungsdiagramme, Streuungsdiagramm-Matrizen, Chord-Diagramme und Parallele-Koordinaten. Für Letzteres erfolgte die prototypische Entwicklung eines Artefakts durch Zuhilfenahme einer JavaScript-Programm-Bibliothek. Die Evaluation des Artefakts zeigt auf, dass die Obergrenze bei 27 Datendimensionen zwischen 1.000.000 und 1.499.999 Tupeln liegen. Bei 80 Datendimensionen liegt die Obergrenze zwischen 400.000 und 499.999 Tupeln. Das Ausreizen der Obergrenzen führt zur unverhältnismäßigen Verschlechterung der Performanz des Artefakts im Vergleich zu geringeren Tupelanzahlen.



Engert, Philipp;
Die Digitalisierung der Lehre. - Ilmenau. - 74 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Diese Arbeit beschäftigt sich mit der Digitalisierung der Lehre und welche Möglichkeiten diese bietet. Die Betrachtung unterschiedlicher Modelle im Bereich des e-Learning/Teachings, den Prozess der Wissensbildung, den Vergleich der klassischen mit der digitalen Lehre und der möglichen Zukunft elektronischer Lernsysteme sind ein Teil davon. Darüber hinaus enthält diese Ausarbeitung den Entwicklungsprozess eines Lehrangebotes auf Webbasis für das Fachgebiet "Wirtschaftsinformatik für Dienstleistungen an der Technischen Universität Ilmenau. Dieses Angebot wurde als Ersatzleistung für die bisherige Präsenzveranstaltung "Informationsverarbeitung in der Logistik" entworfen und ist seit Oktober 2016 über die hochschuleigene moodle-Umgebung erreichbar.



Heidrich, Christoph;
Virtualisierung des PMI-Projektassessment. - 98 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Unternehmensberatungen müssen sich kritisch mit den Chancen und Risiken der Virtualisierung auseinandersetzen, um innovativen Wettbewerbern und anspruchsvollen Klienten auch in Zukunft auf Augenhöhe begegnen zu können. Bisher existieren nur wenige Arbeiten, die beschreiben wie eine Beratungsleistung virtualisiert wird. Folglich mangelt es an noch an Methoden, Erfolgsfaktoren und Beispielen, die Unternehmensberatungen bei der Virtualisierung unterstützen. Die vorliegende Arbeit zeigt am Beispiel eines durch das Project Management Institute veröffentlichten Projektassessments, wie eine gutachterliche Beratungsleistung virtualisiert werden kann. Hierzu wurde unter Verwendung des von Peffers et al. (2007) entwickelten "Design Science Research Model" (DSRM) ein Artefakt im Sinne der gestaltungsorientierten Forschung entwickelt. Die Virtualisierbarkeit gutachterlicher Beratungsleistungen wurde am Beispiel des Projektassessments unter Einbezug der von Overby (2008) vorgestellten "Process Virtualization Theory" und einer von Nissen und Seifert (2016) vorgestellten Evaluationsmethodik untersucht. Die Realisierung des Artefaktes erfolgte in Form eines prototypisch implementierten Online-Assessments. Das Ergebnis dieser Arbeit ist das Online-Assessment VCompass, welches ein Projekt bezüglich der in ihm vorhandenen Komplexität analysiert und individuelle Maßnahmen zu ihrer Minderung vorschlägt. Die Evaluation des Artefaktes im Zuge des DSRM erfolgte auf zwei Arten. Zum einen wurde eine strukturierte Expertenbefragung unter neun Unternehmensberatern durchgeführt, welche die Funktionalität und Qualität des Artefaktes bewerteten. Zum anderen wurde ein Vergleich mit virtualisierten Projektassessments anderer Anbieter durchgeführt. Ihr Ergebnis zeigte einige Ansätze zur Erweiterung und Verbesserung des Werkzeugs auf, bestätigte jedoch die bereits hohe Qualität und den Nutzen von VCompass. Die Arbeit schließt mit einer Zusammenfassung und der Ableitung von Implikationen für Berater und Klienten, die ein ähnliches Virtualisierungsvorhaben realisieren möchten.



Ritter, Stefan;
Akzeptanz von Innovationen im Bereich Business Intelligence am Beispiel In-Memory-Datenmanagement. - 114 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Obwohl sich im Bereich Business Intelligence (BI) in den letzten 20 Jahren neue Theorien, Technologien und Techniken entwickelt haben, werden diese von Unternehmen trotz offensichtlicher Vorteile abgelehnt oder nur sehr zögerlich angenommen. Diese Untersuchung erhebt am Beispiel In-Memory-Datenmanagement (IMDM) Faktoren, welche die Akzeptanz einer Innovation beschreiben können. Zudem wird eruiert, welchen Einfluss IMDM auf die Akzeptanz von BI-Applikationen haben kann. Dabei werden verschiedene Forschungsrichtungen der Diffusions- und Akzeptanzforschung in der Wirtschaftsinformatik betrachtet und empirisch untersucht. Auf Basis einer Literaturrecherche und einer empirischen Untersuchung wird im Rahmen dieser Arbeit ein Modell entwickelt. Das "Phasenorientierte Akzeptanzmodell zur Erklärung der Übernahme von BI-Innovationen" beinhaltet Übernahmefaktoren einer Innovation und verknüpft diese mit Akzeptanzfaktoren einer BI-Applikation. Durch die Phasenorientierung ist der dynamische Charakter von Akzeptanz mit Betrachtung der Einstellungs-, Handlungs- und Nutzungsakzeptanz abgebildet. Dazu wird Akzeptanz im Spannungsfeld von Subjekt, Objekt und Kontext dargestellt. Das Modell ist zur Beurteilung der Akzeptanz von zwei BI-Applikationen aus der Praxis angewendet und anschließend praxisnah evaluiert wurden. Im Ergebnis zeigt die Arbeit auf, dass trotz der Vorteile von Innovationen stets Risiken und der jeweilige Kontext betrachtet werden sollten. Je nach Situation und Anwendungsfall können Innovationen in verschiedenen Branchen, Unternehmen oder Geschäftssegmenten unterschiedliche Akzeptanz erfahren.



Radtke, Alexander;
Entwicklung einer Klassifikation von BI-Architekturvarianten für Realtime Business Intelligence. - 130 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Anforderungen an aktuelle Business Intelligence Systeme befinden sich im steten Wandel. Ein aktueller Trend ist die Analyse von Unternehmensdaten in Echtzeit. Realtime Business Intelligence bringt zum Teil ganz neue Voraussetzungen an die Systemlandschaft und Architektur mit sich. Neue Technologien und Verfahren werden eingesetzt und Komponenten umstrukturiert. Diese Arbeit soll die Vielzahl der unterschiedlichen Architekturvarianten und konzepte klassifizieren und somit in einer begrenzten Anzahl an Klassen beschreibbar machen. Dafür wird zunächst ein Einblick in die Grundlagen des Realtime Business Intelligence gegeben und anschließend ein Verfahren beschrieben und durchgeführt, welches die Einteilung von Architekturen in Klassen ermöglicht. Abschließend werden sechs Architekturklassen als Ergebnis beschrieben und bewertet. Es wird ein Vorgehen präsentiert, welches ein Wiederholen und Anpassen für zukünftige Untersuchungen moderner Architekturklassen ermöglicht.



Frischhut, Bettina;
Leistungsbewertung (und beruflicher Aufstieg) in der IV-Beratung im Vergleich zur Strategieberatung. - 44 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Die vorliegende Arbeit beschäftigt sich mit der Leistungsbewertung und einem möglichen Zusammenhang mit dem beruflichen Aufstieg von Unternehmensberatern. Diesbezüglich wird gezielt ein Vergleich zwischen IV-Beratung und Strategieberatung gezogen. Mit seinem starken Wachstum in der Vergangenheit, sowie gleichartigen Prognosen gewinnt die Unternehmensberatungsbranche zunehmend an Bedeutung. Aufgrund ihres direkten Einflusses auf die Qualität der Beratungsleistung, stellen die einzelnen Unternehmensberater in diesem Zusammenhang eine wesentliche Ressource dar. Bisher wenig erforscht blieb dabei eine mögliche Beziehung zwischen deren Leistungsbewertung und dem beruflichen Aufstieg, sowie der damit verknüpften Firmenpolitik des "Up-or-Out", in IV-Beratungen und Strategieberatungen. Mithilfe eines leitfadengestützten Interviews wurden 19 Experten aus 15 verschiedenen Unternehmen befragt. Bei der Auswahl der Interviewpartner wurde insbesondere auf die Berufserfahrung und das Tätigkeitsfeld in der Beratungsbranche geachtet. Eine Abgrenzung der Berater erfolgte insbesondere hinsichtlich der Tätigkeit in einer IV-Beratung oder Strategieberatung. Diese Klassifizierung diente als Grundlage für den weiterführenden Vergleich der beiden Unternehmensberatungsarten. Im Ergebnis zeigt sich, dass hinsichtlich der Leistungsbewertung und des beruflichen Aufstiegs tendenziell keine Abgrenzung zwischen den Beratungsarten vorgenommen werden kann.



Schepens, Michael;
Möglichkeiten und Grenzen des Prozessmanagements in der öffentlichen Verwaltung. - 139 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Die öffentliche Verwaltung sieht sich zunehmend mit Problemen, wie dem Personalschwund oder der Budgetreduzierung, konfrontiert. Das Prozessmanagement bietet die Möglichkeit, diese und weitere Probleme zu kompensieren. Allerdings ist das Konzept des Prozessmanagements sowie seine Methoden bisher kaum in der öffentlichen Verwaltung aufzufinden. Was ist der Grund für die mangelhafte Etablierung? Die Begründung liegt in der diffizilen Übertragung der aus der Privatwirtschaft hervorgegangenen Methoden des Prozessmanagements auf die öffentliche Verwaltung. Diese Masterarbeit widmet sich den Grenzen und Möglichkeiten des Prozessmanagements innerhalb der öffentlichen Verwaltung. Dabei werden die Grenzen den einzelnen Phasen des Prozessmanagements zugeordnet und thesenförmig dargestellt. Im Anschluss wird auf Basis aktueller Publikationen eine Verifikation der ermittelten Grenzen vorgenommen. Sofern diese tatsächlich vorliegen, werden Möglichkeiten des Prozessmanagements aufgezeigt, mit den Grenzen zu verfahren oder diese zu umgehen. Die dabei gewonnenen Erkenntnisse werden anhand eines konkreten Bauantrags- und -genehmigungsprozesses evaluiert. Abschließend wird dieser Prozess einer Optimierung unterzogen, um das Potenzial der erörterten Möglichkeiten aufzuzeigen.



Kausch, Andreas;
Gegenstand, Aufgaben und Prozesse im IT-Eskalationsmanagement. - 101 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

IT Eskalationsmanagement ist ein Mittel zur Koordinierung notwendiger Ressourcen und Kommunikation zur schnellstmöglichen Entstörung, um schwerwiegende Businessauswirkungen für den Kunden zu vermeiden (Major Incident). Hierfür wurden zunächst die Grundlagen und Zusammenhänge des IT Eskalationsmanagements in Bezug auf das IT Service Management Framework ITIL geschaffen. Bereits in der Strategie und im Design von IT Services müssen Entscheidungen bezüglich der gewählten Service Klasse und der damit verbundenen Umsetzung der IT Architektur getroffen sein. Diese Einstufung hat letztendlich einen starken Einfluss auf die Kritikalität des Ausfalls und somit unterschiedliche Eskalationsreichweiten. In der ITIL Phase Service Transition sollten darüber hinaus bereits viele Störszenarien identifiziert und durch geeignete Maßnahmen verhindert werden. Trotz aller Planung gibt es keinen 100%igen Schutz und für den Fall einer schwerwiegenden Störung eines IT Service bietet das IT Eskalationsmanagement zur effizienteren Entstörung geeignete Hilfestellungen. Diese Arbeit beschreibt hierfür die typischen Frameworkelemente Funktionen, Prozesse, Rollen, Methoden und Instrumente. Die besondere Priorisierung von Incidents spielt dabei genauso eine Rolle wie die Rufbereitschaft der Mitarbeiter, um nur zwei Beispiele zu nennen.



Rose, Steven;
Executable BPMN - der Einsatz einer Business Process Engine zur Analyse von Prozessmodellen. - 105 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Aufgrund der hohen Kosten bei der Einführung von Geschäftsprozessen in Unternehmen und der im Vorfeld zu untersuchenden Prozessakzeptanz wird nach neuen Techniken gesucht, diese Prozessmodelle zu analysieren und zu optimieren. In dieser Arbeit wird daher der Frage nachgegangen, ob sich der Einsatz einer Business Process Engine zur Analyse von Prozessmodellen eignet. Zur Verbesserung des Verständnisses für dieses Thema wird zunächst eine Einführung in die theoretischen Grundlagen gegeben. Im Anschluss findet eine detaillierte Beschreibung der anzuwendenden Methodiken, des Design Science Research und des Experimentaldesigns statt. Nachfolgend wird der praktisch konzeptionelle Teil der Arbeit dargelegt. In diesem wurde zuerst die verwendete Business Process Management Solution "Bonita BPM" vorgestellt und anschließend die Prozessmodelle auf Basis der Masterarbeit von Drewes (2016) implementiert sowie dokumentiert. Insgesamt wurden in dieser Bachelorarbeit zwei Experimente programmiert. Die verwendeten Variablen sind Eager-/Lazy-Loading und Interdependence. Letztere Ausprägung wurde zudem in Form mehrerer Prozessmodelle implementiert. Im Anschluss fand die Planung einer Testreihe zur Untersuchung der Prozessmodelle in Bezug auf deren Prozessakzeptanz statt. Die Durchführung der Experimente ist nicht Teil dieser Arbeit.



Ortlepp, Diana;
Kennzahlensystem zur Bewertung der Qualität von Hochschulen und Studiengängen. - 132 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Neben den Hauptaufgaben Forschung und Lehre beschäftigen sich Hochschulen verstärkt mit dem Thema Qualitätsmanagement. Vor allem mit der Einführung der Systemakkreditierung, bei der ein integriertes Qualitätsmanagementsystem im Vordergrund steht, wird vermehrt Aktivität in die Messung und Verbesserung der Qualität von Studium und Lehre gelegt. Neben verschiedenen Ansätzen zur Überprüfung von Anforderungen an die Qualität einer Hochschule und deren Studiengängen werden von den Hochschulen vermehrt Studierendenbefragungen eingesetzt. Die Haltung von Studierenden gegenüber der Bewertung einer Veranstaltung wird dabei von verschiedenen Faktoren geprägt. Dies wirft die Forschungsfrage auf, ob es möglich ist, Studium und Lehre objektiv mit Hilfe von Kennzahlen zu bewerten. Das Ziel der Arbeit ist es daher, nach möglichen Kennzahlen im Hochschulbereich zu recherchieren, deren Eignung für die Bewertung der Qualität von Studium und Lehre zu untersuchen und darauf aufbauend für ausgewählte Bereiche ein Kennzahlensystem zu erarbeiten. Das Kennzahlensystem soll einerseits einen schnellen Überblick über die Bedingungen in Studium und Lehre ermöglichen und andererseits erlauben, die Prozesse der Bewertung einer Hochschule, von Studiengängen und Fächern zu vereinfachen. Ausgangspunkt der Arbeit ist eine Literaturrecherche nach FETTKE (2006) zu Kennzahlen im Hochschulsektor. Weitere Kennzahlen sollen aus externen Studierendenbefragungen, internen Dokumenten der Technischen Universität Ilmenau zum Qualitätsmanagement und Rankings gewonnen werden.



http://www.gbv.de/dms/ilmenau/abs/85729640Xortle.txt
Hergarten, Alexander;
Untersuchung der Eignung einer Balanced Scorecard als Methode zur Unterstützung der Entscheidung bzgl. der Re-Implementierung einer BI-Analyseapplikation am Beispiel von SAP HANA. - 102 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Die Menge an Informationen steigt stetig und spielt für unsere Gesellschaft hinsichtlich Kommunikation und Wissensschaffung eine immer größer werdende Rolle. Aufgrund dessen ist eine informationsverarbeitende Software für ein Unternehmen unerlässlich, um am Markt überleben zu können. Für die Informationsbereitstellung existiert die Business Intelligence (BI), um die vorhandenen Daten zu analysieren, wobei die BI für diesen Zweck speziell entwickelte Applikationen wie z.B. Dashboards verwendet. Da jeder noch so kleine Unterschied in den Technologien einen Wettbewerbsvorteil gegenüber anderen Unternehmen bieten kann, befinden sich informationsverarbeitende Systeme und Analyseapplikationen in der ständigen Weiterentwicklung. Dies führt unter anderem dazu, dass sich vermehrt historisch gewachsene Applikationen, die nicht mehr zeitgemäß sind, im Unternehmen häufen. Bei diesen Altapplikationen ist als Folge zu entscheiden, ob diese weiterentwickelt oder ob eine neue Applikation entwickelt werden soll. Im Rahmen dieser Arbeit sollen Kriterien, bzw. Kennzahlen ermittelt werden, mit denen die Entscheidungsfindung bei solchen Fragestellungen speziell bezogen auf Analyseapplikationen unterstützt werden können. Zu diesem Zweck soll aus den ermittelten Kennzahlen eine für diesen Fall spezielle Balanced Scorecard entwickelt werden, dass als Framework für diese dienen soll. Dazu findet zunächst eine eingehende Literaturrecherche zum Thema Balanced Scorecard statt, anschließend werden aus der Literatur erste Kennzahlen für eine Entscheidungsunterstützung ermittelt und eine erste Version der Balanced Scorecard aus Ihnen gebildet. Anschließend werden auf Basis von Expertenbefragungen von Fachleuten aus der BI weitere, bzw. andere Kennzahlen ermittelt, um aus ihnen und vorher ermittelten Kriterien eine abschließende Version der Balanced Scorecard zu bilden. Die Anwendung der Balanced Scorecard geschieht prototypisch anhand eine Analyseapplikation aus dem SAP BW, die für den Zweck dieser Arbeit in eine SAP HANA-Analyseapplikation re-implementiert wird. Nach der Anwendung erfolgen die Darstellung der Ergebnisse und das daraus zu schließende Fazit. Im Anschluss wird auf methodische Schwächen innerhalb dieser Arbeit eingegangen sowie ein Ausblick auf mögliche zukünftige Forschungsansätzen, die sich aus dieser Arbeit ergeben, gegeben.



Drewes, Lars;
BPMN-Experimente : Modellierung und Konzeption von Experimenten zur Untersuchung der 'Prozessakzeptanz'. - 92 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Die Untersuchung der Prozessakzeptanz ist ein wichtiges Thema, wenn man verstehen will warum es häufig zu sogenannten Prozessabweichungen kommt. Um nun nachweisen zu können in wie weit bestimmte Treatmentvariablen einen Einfluss auf die Prozessakzeptanz von Individuen haben, ist es Ziel dieser Arbeit Experimente zu entwickeln. Diese sollen der Erfassung von Auswirkungen auf die abhängige Variable 'Prozessakzeptanz' durch gezielte Parametervariation von eben diesen Treatmentvariablen dienen. Zur Verbesserung des Verständnisses für dieses Thema, wird zunächst eine Einführung in die theoretischen Grundlagen vorgenommen. Im Anschluss findet eine genaue Beschreibung der anzuwendenden Methodiken, der Design Science Research und dem Experimentaldesign, statt. Im Rahmen der Beschreibung der Experimentalplanung soll auch ein Vorschlag aufgezeigt werden, wie eine Evaluation der Experimente durchgeführt werden sollte. Folgend an die theoretische Einführung in die Grundlagen und Methodiken, findet der praktisch konzeptionelle Teil der Arbeit statt. In diesem werden die letztendlichen Experimente auf Basis zuvor ausgewählter Treatmentvariablen geplant. Die angesprochenen Variablen stammen aus einer von Fachgebiet 'Wirtschaftsinformatik für Dienstleistungen' erstellten Liste, die in zuvor gehenden Arbeiten erstellt wurde. Dazu müssen allerdings vorerst passende Prozesse identifiziert und modelliert werden. Insgesamt wurden in dieser Masterarbeit acht Experimente geplant. Die verwendeten Variablen sind die folgenden: Eager-/Lazy-Loading, Interdependence, Medienbruch/Wartezeit (Dies sind zwei Variablen die in einem zweifaktoriellen Versuchsplan genutzt werden), Process Failure (Datenwiederherstellung), Process Failure (späte Veränderung), Process Feedback, Repetition und Session-Time. Die vollständige Evaluation und Durchführung der Experimente soll im Rahmen dieser Arbeit nicht stattfinden.



Ußler, Falk;
Konzeption eines Cloud-basierten Auditmanagementsystems. - 97 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Die Arbeit schlägt ein Cloud-basiertes Anwendungssystem zum Management von Lieferantenaudits vor und beschreibt es in einem Fachkonzept. Ein solches System ist notwendig, da die für Lieferantenaudits charakteristische organisationsübergreifende Kollaboration in herkömmlichen Systemen nicht ausreichend ermöglicht wird. Das Cloud-Paradigma kann darüber hinaus die Abwicklung von Audits und deren Verwaltung in einem IT-System effizienter machen. Zur Ermittlung funktionaler Anforderungen dient die Konstruktion eines Referenzprozesses für operative Audits, die in der Regel Gegenstand von Lieferantenaudits sind. Dieser Prozess ist unabhängig von Gegenständen, Geltungsbereichen und Branchen, in deren Kontext Audits durchgeführt werden. Er umfasst das Management von Auditprogrammen, Audits und der aus Feststellungen resultierenden Maßnahmen und ist deshalb ein vollständiger Prozess. Grundlage für die Konstruktion sind neben wissenschaftlicher Literatur vor allem einschlägige Auditmethoden und Frameworks, von denen besonders die Empfehlungen aus DIN EN ISO 19011 berücksichtigt werden. Der konstruierte Prozess wird mittels Befragungen von 13 Experten unterschiedlicher Branchen, Auditfunktionen und Auditarten validiert. In einer Literaturanalyse werden Erfolgsfaktoren für ein Cloud-basiertes Auditmanagementsystem ermittelt, die zur Ableitung nicht-funktionaler Anforderungen an ein derartiges IT-System herangezogen werden. Die Ermittlung erfolgt entlang von drei Perspektiven: Erfolgsfaktoren von SaaS sowie Qualitätskriterien von e-Services und Audits. Die Validität des schließlich aufgestellten Kriterienkatalogs sowie die relative Wichtigkeit der Kriterien werden ebenfalls mithilfe von Expertenbefragungen ermittelt. Aus dem Modell des Referenzprozesses und dem Katalog von Erfolgsfaktoren werden Anforderungen an das Cloud-basierte Auditmanagementsystem spezifiziert und priorisiert. Das Fachkonzept, das die im ARIS-Rahmenwerk enthaltenen Funktions-, Daten-, Organisations und Steuerungssichten umfasst, stellt diese Anforderungen modellhaft dar. In einem ersten Schritt hin zu einer prototypischen Umsetzung des Konzepts, erfolgt schließlich die Untersuchung zur Realisierung des Fachkonzepts als Software-as-a-Service in einem bestehenden Softwaresystem. Diese erfüllt die wesentlichen funktionalen Voraussetzungen des Auditmanagements. Lösungen für mandantenübergreifende Workflows und Datenzugriff müssen allerdings noch implementiert werden.



http://www.gbv.de/dms/ilmenau/abs/847082245ussle.txt
Lohr, Alexander;
Induktive Ermittlung des adäquaten Detaillierungsgrades von Prozessmodellen. - 150 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Aktuellen Studien zufolge sprechen Unternehmen dem Thema Prozessmanagement und damit verbunden der Prozessmodellierung eine hohe Bedeutung zu. Bei der Modellierung stellt sich die Frage nach dem adäquaten Detaillierungsgrad. Für diesen finden sich jedoch in der Literatur keine konkreten Empfehlungen. Daher wurde eine Methode entwickelt, mit deren Hilfe der adäquate Detaillierungsgrad ermittelt werden kann. In der vorliegenden Arbeit wurde diese bereits existierende Methode evaluiert, indem die in Prozessmodellen vorliegenden IST-Detaillierungsgrade den SOLL-Detaillierungsgraden, die die Methode vorschlagen würde, gegenübergestellt wurden. Da manchmal zwischen den IST- und den SOLL-Detaillierungsgraden Abweichungen festgestellt wurden, konnten mithilfe des induktiven Schlusses Maßnahmen zur Designanpassung der Methode abgeleitet und schließlich umgesetzt werden. Die Korrektheit der durchgeführten Anpassungsmaßnahmen wurde anhand der bereits zur Evaluation herangezogenen Prozessmodelle demonstriert. Auch einer erneuten Evaluation mittels bisher nicht verwerteter Prozessmodelle hielt die modifizierte Methode stand. Da der induktive Schluss jedoch die Gefahr birgt, dass ausgehend von Spezialfällen falsche allgemeingültige Sätze abgeleitet werden, wurde auf die forschungspraktischen Limitationen hingewiesen. Abschließend wurden Vorschläge für weiterführende Forschungsarbeiten gemacht.



http://www.gbv.de/dms/ilmenau/abs/846897725lohr.txt
Bonhage, Malte;
Approximation einer Krankenhaussimulation mittels KNN und Parameteroptimierung der Simulation durch geeignete Optimierungsverfahren in Verbindung mit KNN. - 119 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

In der vorliegenden Arbeit wurde das Modell einer Krankenhaussimulation mittels künstlicher neuronaler Netze approximiert. Dafür wurde zunächst der Stand der relevanten Grundlagen von künstlichen neuronalen Netzen, insbesondere der Lernalgorithmen, aufgezeigt. Die systemrelevanten Entscheidungsvariablen des Modells wurden herausgearbeitet und ein problemspezifisches Daten-Preprocessing durchgeführt. Mit MemBrain als neuronaler Simulationsumgebung wurde in einem empirischen Gestaltungsprozess eine geeignete Netztopologie für ein Feed-Forward Multi-Layer-Perceptron ermittelt. Resilent Backpropagation kam hierbei als Lernalgorithmus zum Einsatz. Als Approximation wurde letztlich eine Kombination mehrerer künstlicher neuronaler Netze verwendet. Darüber hinaus wurden im Zuge einer angestrebten Parameteroptimierung zwei Optimierungsverfahren implementiert, ein Zufallsaufstiegsverfahren und eine Evolutionäre Strategie. Diese Optimierungszyklen wurden bezüglich ihrer Optimierungsleistung auf der Approximation mit mehreren Konfigurationen eines vorliegenden Genetischen Algorithmus verglichen. Die Evolutionäre Strategie zeigte dabei in Bezug auf eine globale Suche die besten Ergebnisse. Der Optimierungsprozess wurde von fehlleitenden Approximationsleistungen beeinträchtigt. Eine Verbesserung des Benchmarks für die Krankenhaussimulation konnte dadurch nicht erzielt werden. Am Rande konnte gezeigt werden, dass die neuronale Modellapproximation das Potential zur erheblichen Beschleunigung des betrachteten Optimierungszyklus birgt. Abschließend wurden Verbesserungsansätze für die neuronale Approximation aufgezeigt.



http://www.gbv.de/dms/ilmenau/abs/846463954bonha.txt
Stratemann, Tim;
Beeinflussung des Energieverbrauchverhaltens privater Haushalte auf Basis variabler Stromtarife. - 74 Seiten
Technische Universität Ilmenau, Masterarbeit 2015

Der Energiemarkt in Deutschland unterliegt derzeit einem Wandel. Die Anforderungen der Strombereitstellung wurden um die Faktoren Ressourcenschonung und Klimafreundlichkeit ergänzt. Durch die geplante und teilweise bereits vollzogene Abschaltung der Kernkraftwerke in Deutschland treten zunehmend andere Energiequellen in den Vordergrund. Daraus ergeben sich für Deutschland und andere, dem Europäischen Verbundsystem angeschlossene Länder diverse Herausforderungen. Die benötigte Leistung, die bisher größtenteils mittels konventioneller Kraftwerke produziert wird, soll zunehmend durch erneuerbare Energien erzeugt werden. Diese sind jedoch im Gegensatz zu konventionellen Kraftwerken sehr volatil im Hinblick auf ihre Stromerzeugung, da sie von vielen Faktoren wie beispielsweise Sonneneinstrahlung oder Windgeschwindigkeit abhängig sind. Um eine stabile Energieversorgung gewährleisten zu können, muss die Menge der aus dem Netz entnommenen Energie genau der eingespeisten Energie entsprechen. Die Einflussgrößen der regenerativen Energieerzeugung sind jedoch größtenteils nicht beeinflussbar. Um ein Gleichgewicht zwischen Erzeuger- und Verbraucherseite herstellen zu können, besteht jedoch die Möglichkeit, die Verbraucherseite der Erzeugerseite anzupassen. Mit 26% des Bedarfs an elektrischer Energie in Deutschland stellen private Verbraucher einen wesentlichen Anteil der Verbraucherseite dar. Diese Arbeit beschäftigt sich mit den Möglichkeiten, das Verbrauchsverhalten von Privatkunden beeinflussen zu können, um diese Anpassung zu gewährleisten. Hierzu sollen verschiedene Tarifmodelle aufgezeigt und bewertet werden, die Anreize zur Lastanpassung bieten. Ziel dieser Arbeit ist es, das technische und ökonomische Potential variabler Stromtarife aufzuzeigen und die Akzeptanz der Endverbraucher abzuschätzen, um Implikationen für die Gestaltung dieser Stromtarife zu liefern.



Protzel, Maximilian;
Gestaltung von Geschäftsprozessen mit Hilfe von Servicekatalogen. - 115 S. Ilmenau : Techn. Univ., Masterarbeit, 2015

Einige IT Organisationen sind, getrieben durch Rahmenwerke wie ITIL und die Norm ISO 20000, dazu übergangen, ihre angebotenen Leistungen zu standardisieren und in einem IT Servicekatalog abzulegen. Die Services werden durch Attribute beschrieben und liegen in unterschiedlichen Qualitätsstufen vor. IT Services setzen sich aus weiteren Servicemodulen und -elementen zusammen, die selbst IT Services darstellen. Dank des modularen Aufbaus sind sie durch den Kunden konfigurierbar. Dieser Ansatz wurde in der vorliegenden Masterarbeit auf die Geschäftsprozessgestaltung übertragen. Es wurde das Konzept eines softwarebasierten Geschäftsprozesskatalogs entwickelt, in welchem Teilprozesse in Form von Prozessbausteinen als Pendant zum Begriff 'Service' vorliegen. Ein Geschäftsprozessgestalter setzt aus diesen Bausteinen seine Geschäftsprozesse zusammen. Diese Herangehensweise soll es ermöglichen, Geschäftsprozesse flexibel an verändernde Rahmenbedingungen anzupassen, indem einzelne Prozessbausteine ausgetauscht, entfernt oder hinzugefügt werden. Zur Entwicklung des Katalogs wurden zu Beginn Servicekataloge im Kontext der IT untersucht. Im Anschluss wurden notwendige Schritte der Geschäftsprozessgestaltung identifiziert, die ein Geschäftsprozesskatalog umsetzen muss. In einem weiteren Kapitel wurden Methoden und Ansätze vorgestellt, die ebenfalls Prozessbausteine nutzen oder Prozesse katalogisieren. Aus diesen Arbeiten wurden Ideen übernommen, die nötige Funktionen des Geschäftsprozesskatalogs ausmachen. Im Anschluss wurde beschrieben, wie diese Funktionen die Gestaltung von Geschäftsprozessen unterstützen und wie der Gestaltungsprozess mit einem Katalog verläuft. Außerdem wurde erläutert, wie ein unternehmensspezifischer Geschäftsprozesskatalog aufgebaut werden kann, der ebenfalls, entsprechend der Ideen eines IT Servicekatalogs, Kunden zugänglich gemacht werden kann. Diese können sich somit zwischen Alternativen der Leistungserbringung entscheiden sowie Teilleistungen eines Geschäftsprozesses wählen oder abwählen. Zum Ende der Arbeit konnten die Grenzen eines solchen Geschäftsprozesskatalogs beleuchtet werden. Die Darstellung der Vor und Nachteile konnte anhand von zwei Szenarien veranschaulicht werden.



Schulte, Julian;
Projektakzeptanz im Versicherungsumfeld. - 83 S. : Ilmenau, Techn. Univ., Masterarbeit, 2015

Im Rahmen zahlreicher Studien wird auf die geringe Erfolgsquote von Projekten im Allgemeinen und IT-Projekten im Speziellen hingewiesen. Das Erreichen der Projektziele hängt nicht zuletzt auch von der erbrachten Leistung sowie dem persönlichen Einsatz der Projektmitarbeiter ab. Hierfür ist es notwendig, dass die Mitarbeiter eine positive Einstellung gegenüber dem Projekt aufweisen, dieses akzeptieren. Fehlt die Akzeptanz der Mitarbeiter, kann dies beispielsweise zu einer geringeren Leistungsbereitschaft oder höheren Fehlzeiten führen. Die vorliegende Arbeit beschäftigt sich damit, die Projektakzeptanz der an einem (IT-)Projekt beteiligten Mitarbeiter verhaltenswissenschaftlich zu untersuchen und dafür relevante Einflussfaktoren zu identifizieren. Hierzu wurden Interviews mit Projektmitarbeitern eines auf die Versicherungsbranche spezialisierten mittelständischen Software- und Beratungshauses geführt. Konkret wurde für die Datenerhebung die Methodik des qualitativen Leitfaden-Interviews und für die Datenauswertung die des theoretischen Kodierens verwendet. Im Zuge der Auswertung konnten eine Vielzahl von möglichen Einflussfaktoren identifiziert werden, wie die Einstellung eines Projektmitarbeiters zum Projektziel, das menschliche Miteinander innerhalb des Projektteams, positives Feedback durch die Projektleitung oder die Projektlaufzeit. Es wurde festgestellt, dass die Projektakzeptanz der Mitarbeiter durch viele Faktoren gleichzeitig beeinflusst wird und sich negativ ausgeprägte Einflussfaktoren ausgleichen lassen. Das Wissen über die in dieser Arbeit aufgezeigten Einflussfaktoren und ihre möglichen Ausprägungen kann dazu genutzt werden, einzelne Faktoren direkt zu beeinflussen sowie negativ ausgeprägten Faktoren entgegenzuwirken, indem andere Einflussfaktoren intensiver betrachtet werden. Bedingt durch die gewählte Methodik fehlt jedoch eine statistische Repräsentativität und Verallgemeinerbarkeit der Ergebnisse. Zudem basieren die Annahmen über die Bedeutung der einzelnen Faktoren lediglich auf den Einschätzungen des Autors. Aus diesem Grund empfiehlt sich die Durchführung einer, auf dieser Arbeit aufbauenden, quantitativen Untersuchung.



Wüstemann, Anja;
Untersuchung der Nutzerakzeptanz von IT-gestützten Prozessen am Beispiel der Eckart GmbH. - 88 S. : Ilmenau, Techn. Univ., Masterarbeit, 2015

Im Rahmen der Arbeit sollte festgestellt werden, warum bestimmte Prozesse bei einem Unternehmen von den Mitarbeitern nicht oder nur schlecht akzeptiert werden. Als Beispielunternehmen wurde die Eckart GmbH mit ihren Produktionsprozessen genommen. Im Unternehmen sollte eine Untersuchung der Nutzerakzeptanz von bereits eingeführten Prozessen erfolgen. Zu Beginn der Arbeit wurden mit der Hilfe einer Literaturrecherche akzeptanzwirksame Größen und geeignete Akzeptanzmodelle erarbeitet. Nachdem im Anschluss die Prozesslandschaft der Eckart GmbH untersucht wurde, konnte auf Basis dieser Informationen ein Interviewleitfaden erstellt werden. In den anschließenden Interviews wurden Erkenntnisse gewonnen, die mit der Hilfe einer Inhaltsanalyse und einem Vergleich mit den Daten aus dem SAP ERP System evaluiert wurden. Auf der Basis der sieben Kategorien mit den zugeordneten Schlagwörtern konnten dann Maßnahmen zur Verbesserung der Prozessakzeptanz erarbeitet werden. Alles in allem werden die Prozesse schon weitgehend akzeptiert. Aber die teilweise auch von den Mitarbeitern angeregten Maßnahmen der Kategorien sollten zur Verbesserung noch umgesetzt werden. Besonders im Hinblick auf die anstehenden Rollouts in andere Standorte bietet sich die Gelegenheit von den bisherigen Erfahrungen zu profitieren und die Prozessakzeptanz von vorn herein zu begünstigen. Die bei der Eckart GmbH identifizierten Problembereiche können als Anhaltspunkte für eine genauere Untersuchung genutzt werden. Ebenso bieten die im Rahmen dieser Arbeit entwickelten Maßnahmen eine gute Grundlage, um unternehmens-/projektspezifische Maßnahmen zu entwickeln. Abschließend ist festzustellen, dass sich die in der Literatur behandelten Akzeptanzkriterien auch im Rahmen des SAP-Einführungsprojektes der Eckart GmbH in erwarteter Weise ausgewirkt haben. Für zukünftige Projekte und Prozessanpassungen ist somit zu empfehlen, dass diese Kriterien im Rahmen der Projektplanung und -durchführung mehr Beachtung finden sollten, um von Beginn an eine Prozessakzeptanz zu begünstigen.



Yavuz, Özhan;
Konzeption und Entwicklung eines IT-Servicekatalog-Generators. - 132 S. Ilmenau : Techn. Univ., Masterarbeit, 2015

Die Masterarbeit hat die Untersuchung von marktüblichen, inhaltlichen IT-Servicekatalogstrukturen sowie die Konzeption und prototypische Entwicklung eines IT-Servicekatalog-Generators zum Ziel. Der Beitrag analysiert mittels eines systematischen Literaturreviews und anschließend durchgeführten Experteninterviews die Anforderungen an einen IT-Servicekatalog und dessen (inhaltliche) Strukturierung. Auf Basis der ermittelten Ergebnisse wird ein Generator für IT-Servicekataloge prototypisch konzeptioniert und umgesetzt, welcher in zukünftigen Forschungsvorhaben sowie auch für den Einsatz in der Praxis weiter entwickelt und optimiert werden kann. Mit Hilfe des Designs, das im Laufe der Arbeit entwickelt wird, soll dem Leser eine sinnvolle (programmseitige) Unterstützung zur Erstellung von ITSK geboten werden, die als Einstiegshilfe in das Thema fungieren kann.



Fischer, Florian;
Gartner Hype Cycle: Grenzen und Möglichkeiten technologischer Prognosen. - 78 S. Ilmenau : Techn. Univ., Masterarbeit, 2015

In der vorliegenden Arbeit wird die Methodik auf Korrektheit geprüft, die Gartner Group nutzt, um Technologien bzw. Trends auf dem Hype Cycle zu platzieren. Aufgrund der Masse an Hype Cycle Publikationen werden speziell die Platzierung von neuen Technologien bzw. Trends auf dem Hype Cycle for Emerging Technologies aus den Jahren 1995 bis 2014 untersucht. Die empirische Untersuchung nutzt eine Übersicht aller Hype Cycle Berichte des betrachteten Zeitraums. Zusätzlich werden die reelle Sichtbarkeit und Erwartung von Konsumenten mit dem grafischen Hype Cycle Modell abgeglichen. Das gemessene Suchvolumen wird anhand von Google Suchanfragen (Erwartungen der Nutzer) durchgeführt. Es wird geprüft, ob erwähnte Hypes dem gesamten Hype Cycle folgen oder inmitten des Zyklus an Bedeutung verlieren und vom Hype Cycle verschwinden. Dies wird ebenfalls anhand bereits durchgeführter wissenschaftlicher Studien belegt. Möglichkeiten und Grenzen des momentanen Gartner Hype Cycle werden anhand wissenschaftlicher Literatur zusammengefasst.



Bosse, Jörn;
Agilität im Bereich IT Personal und Management - Entwicklung eines Kennzahlensystems. - 94 S. Ilmenau : Techn. Univ., Masterarbeit, 2015

In dieser Arbeit wird die Entwicklung der Struktur eines Messkonstrukts zur Messung der Agilität im Bereich IT-Personal und Management vorgenommen. Hierzu wurden die Fragen beantwortet wie ein solches Messkonstrukt aussehen und validiert werden kann. Außerdem wurden die relevanten Bereiche des Messkonstrukts im Rahmen einer Literaturanalyse und einer Expertenbefragung identifiziert. Aus diesen Ergebnissen wurde eine Zielhierarchie hergeleitet, auf deren Basis Kennzahlen zur Messung der IT-Agilität bestimmt wurden. Das entwickelte System wurde anschließend durch eine weitere Expertenbefragung validiert und im Rahmen eines Tests mit verschiedenen Items angereichert und zur Messung eingesetzt. Die gefundenen Items wurden, zur besseren Nachverfolgbarkeit gesammelt und im Anhang bereitgestellt.



Franke, Christoph Paul;
Ansätze zur Steuerung von IT-Dienstleistern. - 90 S. : Ilmenau, Techn. Univ., Masterarbeit, 2015

Im Jahr 1989 kennzeichnete die Entscheidung von Kodak, künftig informationstechnologiebezogene Leistungen nicht wie üblich selbst intern zu erbringen, sondern diese von IBM zu beziehen, eine Trendwende zur Fremdvergabe der unternehmenseigenen Informationstechnologie. Bis 2012 wuchs der Umsatz auf dem IT-Outsourcing-Markt auf 251,7 Mrd. USD an bei einer jährlich zu erwartenden Wachstumsrate von 5%. Die praktische Umsetzung des IT-Outsourcings beinhaltete dabei nicht nur das IT-Outsourcing als Projekt zum Übergang von einer internen Leistungserbringung zu einem externen Leistungsbezug, sondern auch die Gestaltung der andauernden Geschäftsbeziehung zwischen einem Leistungen fremdvergebenden Unternehmen und einem Outsourcing-Dienstleister. Diese wissenschaftliche Arbeit untersucht die Möglichkeiten einer steuernden Einflussnahme eines Leistungen fremdvergebenden Unternehmens auf einen Outsourcing-Dienstleister. Zu diesem Zweck wurden vorhandene Steuerungskonzepte aus der Literatur erhoben und anhand des entwickelten Kriterienkatalogs bewertet. Auf Grund der Unvollständigkeit bestehender Ansätze wurde im Ergebnis der Arbeit ein neues Steuerungskonzept auf Grundlage der bestehenden Modelle und des erarbeiteten Kriterienkatalogs entwickelt.



Lill, Maximilian;
Erarbeitung von allgemeinen Prozessmodellen für Beratungsanbieter im Bereich Qualitätsmanagement. - 92 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

Die Arbeit beschäftigt sich mit dem Prozessen des Qualitätsmanagements bei einem Anbieter von Beratungsleistungen. Dabei werden Prozesse aus der Literatur und für die Praxis aus einem Fall-Unternehmen zusammengeführt. Dieses Prozessmodell soll als allgemeingültig für die Unternehmensberatung betrachtet werden und anderen Dienstleistern bei der Implementierung oder Strukturierung ihres projektbezogenenen Qualitätsmanagements helfen. Die Allgemeingültigkeit wurde durch ein Experteninterview nachgewiesen. Eine Integration in das Consulting C ist ermöglicht worden.



Gollhardt, Torsten;
Entwicklung und Evaluation einer Methode zur Bestimmung eines adäquaten Detaillierungsgrads von Geschäftsprozessmodellen. - 98 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

Die Ermittlung des adäquaten Detaillierungsgrads von Geschäftsprozessmodellen ist eines der vorherrschenden Probleme bei der Modellierung von Geschäftsprozessen. Ziel dieser Arbeit war die Synthese und Evaluation zweier Methoden zur Bestimmung des adäquaten Detaillierungsgrads von Prozessmodellen, die am Fachgebiet 'Wirtschaftsinformatik für Dienstleistungen' entwickelt worden sind. Dazu wurden folgende Fragen beantwortet: Können die Methoden zielführend verbunden werden und hält das Ergebnis der Synthese einer theoretischen und praktischen Evaluation stand? Im Fokus der Literaturanalyse standen u. a. die zwei Masterarbeiten, in deren Rahmen die einzelnen Methoden zuvor entstanden sind, sowie unterschiedliche Publikationen zu Evaluationsmethoden in der Wirtschaftsinformatik. Um die Forschungsfragen zu beantworten, wurden die zwei Methoden zur Bestimmung des adäquaten Detaillierungsgrads von Geschäftsprozessmodellen zu Beginn kurz vorgestellt und auf verwendete Begriffe und Definitionen eingegangen. Auf Basis eines merkmalsbasierten Vergleichs wurde eine neue, synthetisierte Methode konstruiert. Im Anschluss wurde das Ergebnis der Synthese mit den ursprünglichen Methoden verglichen, wobei eine zielführende Synthese festgestellt werden konnte. Sofern möglich wurden alle Schwächen durch die Stärken der anderen Methode oder durch eigene Überlegungen beseitigt. Die synthetisierte Methode wurde danach mithilfe einer Delphi Studie über drei Befragungsrunden praktisch evaluiert. Hierbei wurde die Methode sukzessiv offengelegt, um die Meinung der Experten zunächst unabhängig von den ursprünglichen Ergebnissen zu erfassen. Im Verlauf der Delphi Studie wurde die Methode entsprechend der Gruppenmeinung angepasst. Die Experten bewerteten die Methode überwiegend positiv, kritisierten diese jedoch auch hinsichtlich einiger Aspekte, wodurch sich weitere Untersuchungen und Anpassungen anbieten, um die Methode nachträglich zu verbessern.



Flachsenberger, Rene;
Process Mining - Möglichkeiten und Grenzen. - 66 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

Geschäftsprozessmanagement entwickelt sich seit Jahren weiter um in Organisationen Prozesse immer weiter zu verbessern. Die Schnelllebigkeit der aktuellen Gesellschaft und ein hoher Innovationsgrad auf vielen Märkten machen eine effiziente Marktbearbeitung immer schwieriger. In vielen Bereichen gestaltet sich Prozessmanagement schwierig, da einige Prozesse schwer erkennbar sind. Dies liegt vor allem bei komplexen, unklaren und vielschichtigen Funktionen vor. Process Mining soll dieses Problem lösen und als Technologie des Geschäftsprozessmanagements Prozesse anhand von IT-Daten erkennen, analysieren und optimieren. Versteckte Prozesse werden somit sichtbar gemacht. Mit ihm soll es möglich gemacht werden Prozesse abzubilden und auch vorzugeben. Die vorliegende Arbeit befasst sich mit der möglichen Umsetzung dieser Idee anhand der Klärung folgender Fragestellungen: Was ist Process Mining genau? Welche Arten gibt es? Wie und wann kann Process Mining genutzt werden und für welche Arten von Vorgängen kann es überhaupt sinnvoll sein? Einzelne Teilbereiche und Verfahren werden vorgestellt und die Möglichkeiten ihrer Nutzen beleuchtet. Aus diesem wird ein Sollstand abgeleitet, aber auch kritisch die Grenzen des Process Mining veranschaulicht.



Paulik, Heiko;
Cloud Service Management - ein Ansatz der Integration des Cloud Computing in das IT Service Management. - 120 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

Das seit 2006 angebotene Cloud Computing erweist sich als neuer Trend in der Informationstechnologie (IT), der von Unternehmen weltweit angenommen wird. Mit einem Marktwachstum von bis zu 47% erweist sich Cloud Computing als neue Möglichkeit IT Ressourcen im Unternehmen bereitzustellen. Dabei zeigt sich in der Praxis, dass bei der Nutzung dieses Trends Änderungen im IT Service Management entstehen können. Hierfür kommen Rahmenwerke, wie beispielsweise die IT Infrasturcture Library (ITIL) zum Einsatz, wobei aus der Literatur hervorgeht, dass diese für Cloud Computing angepasst werden muss. Mit der aufgestellten These "Durch den Einsatz von Cloud Computing sind Änderungen im ITSM Rahmenwerk ITIL notwendig." wird in dieser Arbeit das Ziel verfolgt, Einflüsse von Cloud Computing auf die Prozesse der Phasen Service Strategy and Service Design aus Anwendersicht festzustellen. Für eine Beantwortung der These werden die drei Forschungsfragen "Welche Prozesse werden in ITIL durch Cloud Computing beeinflusst?", "Welche Inhalte zum Thema Cloud Computing bestehen bereits in ITIL 2011 und wie detailliert sind diese gestaltet?" und "Wie kann eine detailliertere Berücksichtigung von Cloud Computing in ITIL erfolgen?" hergeleitet. Aufbauend werden Einflüsse von Cloud Computing auf ITIL recherchiert, bestehende Integrationen von Cloud Computing in ITIL bewertet und mögliche weitere Integrationsansätze erstellt. Abschließend wird ein Teil, der in der Arbeit erbrachten Ergebnisse, durch eine Expertenbefragung evaluiert.



Heinz, Sascha;
Standardisierung von ITIL Prozessen am Beispiel der öffentlichen Verwaltung. - 150 S. : Ilmenau, Techn. Univ., Masterarbeit, 2014

IT-Organisationen in Behörden befinden sich stets im Wandel. Die Informationstechnologien iin Entwicklungen und Betrieb zu beherrschen reicht alleine nicht mehr aus um die wachsenden Anforderungen an Sicherheit, Stabilität und Wirtschaftlichkeit der IT in einem komplexen Umfeld zu gewährleisten. Eine Möglichkeit dieser Herausforderung zu begegnen ist die übergreifende Standardisierung von Prozessen auf Basis der IT Infrastructure Libary (ITIL). Zur erfolgreichen Implementierung von ITIL in der öffentlichen Verwaltung werden durch die Literatur lediglich Handlungsempfehlungen bereitgestellt, aber kein konkreten Aussagen über die tatsächlich benötigten Prozesse und deren Abläufe getroffen. Des Weiteren erfolgt keine einheitliche Beschreibung von Rahmenbedingungen, die bei der Implementierung von ITIL in der öffentlichen Verwaltung berücksichtigt werden müssen. Diese derzeitige Situation hat den Autor zur Aufstellung der These "Mit Hilfe eines standardisierten Umsetzungsverfahrens ist die Implementierung von ITIL in allen Behörden der öffentlichen Verwaltung möglich" veranlasst. Aus dieser These ergeben sich drei Forschungsfragen: "Welche Prozesse werden in den Behörden der öffentlichen Verwaltung benötigt?", "Ist eine Standardisierung der Prozessabläufe möglich?" und "Gibt es einheitliche Rahmenbedingung, die bei der Umsetzung berücksichtigt werden müssen?". Im Laufe der Arbeit werden diese Fragen beantwortet. Dabei erfolgt durch eine Literaturanalyse eine Auswahl an ITIL Prozessen, die für die Behörden der öffentlichen Verwaltung von Relevanz sind. Für diese Prozesse werden im Verlauf der Arbeit speziell auf die öffentliche Verwaltung zugeschnittene Prozessablaufdiagramme entwickelt und detailliert beschrieben. Dies geschah auf Basis einer mehrmonatigen Prozessanalyse der Betriebsprozesse des IT-Systemhauses der Bundesagentur für Arbeit und einschlägiger Fachliteratur zum Thema ITIL. Abschließend wurden Rahmenbedingungen zur Umsetzung von ITIL in der öffentlichen Verwaltung mit Hilfe einer Expertenbefragung definiert.



Friedrich, Tina;
Ansätze des Geschäftsprozessmanagements in der öffentlichen Verwaltung. - 125 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

In den öffentlichen Verwaltungen wurde bisher kein konsequentes Geschäftsprozessmanagement umgesetzt. Ein möglicher Grund dafür ist die fragliche Sinnhaftigkeit einer solchen Managementform in der öffentlichen Verwaltung. Ziel dieser Arbeit ist es, die vorhandenen Ansätze des Geschäftsprozessmanagements in der öffentlichen Verwaltung anhand einer Literaturanalyse zu untersuchen. Grundlagen der Arbeit bilden die Definition der öffentlichen Verwaltung, der Geschäftsprozesse und des Geschäftsprozessmanagements. Um die Ansätze zu analysieren, werden Chancen und Grenzen des Geschäftsprozessmanagements in der öffentlichen Verwaltung dargestellt. Grundlage für die Darstellung bietet ein Vergleich mit den Chancen des Geschäftsprozessmanagements in der Privatwirtschaft. Des Weiteren wird der Status quo anhand verschiedener Veröffentlichungen und Studien ermittelt und Perspektiven beschrieben. Das Ergebnis ist ein Konzept zur Einführung und Nutzung von Geschäftsprozessmanagement in öffentlichen Verwaltungen.



Markert, Daniel;
Konzeption eines generischen IT-Servicekatalog-Generators. - 110 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

Im ersten Kapitel wurde die Problemstellung kurz skizziert und die Zielsetzung der Arbeit erläutert. Neben diesen beiden Punkten wurde der Aufbau der Arbeit dargestellt und die zu nutzende Methodik erklärt. Das nachfolgende Kapitel legte die Grundlagen, welche für die späteren Betrachtungen benötigt wurden. Neben einer kurzen Darlegung der IT-Industrialisierung wurden der allgemeine Dienstleistungsbegriff und das Service-Engineering erläutert. Objektorientierte und serviceorientierte Architekturen sowie das zugehörige Konzept der Modularisierung wurden dargestellt. Den Abschluss bildete das IT-Service-Management mit den wichtigsten Prozessen. Im ersten Schritt von Kapitel 3 wurden IT-Services untersucht. Nach einer Erläuterung der Arten von IT-Services wurde ein Hilfsmittel für die Identifikation von IT-Services erarbeitet und vorgestellt. Die IT-Produkt-Identifikationsmatrix kann von IT-Dienstleistern beim Finden von IT-Service-Kandidaten eingesetzt werden. Das erreichbare Ergebnis sind Leistungskarten, die die IT-Service-Kandidaten und zugehörige Informationen in einer übersichtlichen Form darstellen. Durch eine Quellenanalyse wurden notwendige Attribute für die sich anschließende Beschreibung der IT-Services gefunden und ein Vorschlag für deren inhaltliche Beschreibung erarbeitet. Es wurden sechs wichtige Attribute gefunden, die alle notwendigen Informationen bereitstellen. Im zweiten Teil des Kapitels wurde eine analoge Betrachtung zum IT-Servicekatalog durchgeführt. Es erfolgte eine Untersuchung zum strukturellen Aufbau und zu differenzierten Sichten auf den Servicekatalog. Der strukturelle Aufbau spaltet den Katalog in die Bereiche Business Servicekatalog und technischer Servicekatalog. Bei der Betrachtung der Sichten konnte kein allgemeingültiges Ergebnis erreicht werden, da auch hier die spezifischen Einflüsse jedes IT-Dienstleisters beachtet werden müssen. Auch hier wurde ein Vorschlag entwickelt, der jedoch in der Realisierung abweichen kann. Zusätzlich zu diesen beiden Bereichen ist die inhaltliche Ausgestaltung des Servicekatalogs untersucht worden. Einige wichtige Elemente für den inhaltlichen Aufbau des Katalogs wurden beschrieben. Alle Erkenntnisse führen zum Modell des strukturellen Aufbaus eines IT-Servicekatalogs, welches als kurze Zusammenfassung im letzten Teilabschnitt zu finden ist. Der letzte Bereich beschreibt ein Vorgehen für die Erstellung eines IT-Servicekatalogs. Ausgehend von einer Quellenanalyse ist auch hier ein Hilfsmittel für einen IT-Dienstleister entstanden.



Rakelmann, Evelin;
Virtualisierung der Unternehmensberatung am Beispiel der Einführung von Unternehmenssoftware. - 66 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

Die vorliegende Arbeit befasst sich mit der Virtualisierung der Unternehmensberatung am Beispiel der Einführung von Unternehmenssoftware. Hierzu wurden die Phasen des Vorgehensmodells von Nissen/Simon (2009), das die gesamte Beratungsleistung bei der Softwareeinführung abbildet, auf ihre Virtualisierbarkeit hin untersucht. Geprüft wurde, welche Aufgabenfelder der Softwareeinführung mit Hilfe von Informations- und Kommunikationstechnik virtualisiert werden können und welche Kriterien für die Virtualisierung einer Beratungsleistung wichtig sind. Hierfür wurden im Rahmen einer Delphi-Studie insgesamt 16 Experten in einer ersten und 12 Experten in der zweiten Befragungswelle online befragt. Die erhobenen quantitativen und qualitativen Daten wurden anschließend statistisch bzw. interpretativ-hermeneutisch mithilfe der Inhaltsanalyse nach Mayring (2010) ausgewertet. Ergebnis der Untersuchung ist, dass alle Phasen der Softwareeinführung bis zu einem gewissen Grad virtualisierbar sind. Der Grad der Virtualisierbarkeit einer Phase ist jeweils abhängig von den dort gültigen Parametern. Obwohl eine Virtualisierung in der Unternehmensberatung möglich ist, bleibt es ein "People Business" und wird vorerst nicht ohne einen persönlichen Kontakt zwischen Berater und Klient auskommen.



Grimm, Martin;
Outsourcing als Dienstleistung. - 87 S. : Ilmenau, Techn. Univ., Masterarbeit, 2014

In dieser Masterarbeit wurden Publikationen hinsichtlich potenzieller Chancen und Risiken der beteiligten Stakeholder eines Outsourcing-Projektes, analysiert und systematisiert. Dabei zeigte sich, dass Auslagerungsentscheidungen von IT-Dienstleistungen im Inland wie auch im Ausland wohl überlegt sein sollten, da mit dieser Entscheidung beachtliche Risiken für das auslagernde Unternehmen sowie seiner externen und internen Stakholdern einhergehen. Die gewonnenen Erkenntnisse zeigten in diesem Zusammenhang, dass neben wirtschaftswissenschaftlichen Aspekten, zunehmend verhaltenspsychologische und soziologische Denkmuster der Stakeholder einen wesentlichen Einfluss auf Outsourcing-Entscheidungen ausüben können. Zu nennen ist in diesem Zusammenhang, die Selbstüberschätzung der IT-Manager. Die Selbstüberschätzung, die in der wissenschaftlichen Literatur als Fehleinschätzung hinsichtlich des persönlichen Könnens und Wissens definiert wird, kann Fehlentscheidung im Outsourcing-Kontext begünstigen. Erfahrungswerte, die in langjährigen Berufserfahrungen gesammelt wurden, werden allzu sorglos auf Outsourcing-Projekte übertragen. Das Risiko potenzieller Fehlentscheidungen steigt. Demgegenüber zeigte sich in der Soziologie, dass versunkene Kosten einen Einfluss darauf haben, dass IT-Manager an ihren in der Vergangenheit getroffenen Entscheidungen auch in Folgeentscheidungen festhalten. Zusammenfassend lässt sich konstatieren, dass ein vorbereitetes und geprüftes Outsourcing die Kostenstruktur der auslagernden Unternehmen verbessern kann. Um diesbezüglich eine Kostensenkungen zu erreichen, sind standardisierte Verfahren und Prozesse auf der Seite des Auftragnehmers wichtig. Der Auftraggeber sollte darauf bedacht sein, seinen Einfluss auf den Auftragnehmer hinsichtlich der zu verwendenden Technologie zu reduzieren. Darüber hinaus ist es von entscheidender Bedeutung, dass der Auftraggeber mit seinen internen und externen Stakeholdern in ständigen Kontakt bleibt und alle Veränderungen bzw. Maßnahmen mit ihnen abspricht. Die Bedeutung der Stakeholder zeigt sich beispielsweise im Kontext der Auslagerung von IT-Dienstleistungen in Länder außerhalb der Europäischen Union. In den sogenannten Drittstaaten wie z.B. Indien, China und Japan die laut EU-Richtlinie kein angemessenes Datenschutzniveau aufweisen, bedarf es der Zustimmung der Betroffenen Stakholder bzw. Abteilungen, dass ihre personenbezogenen Daten überführt werden. Dieser abschließende Aspekt kann maßgeblich die Entscheidungen bezüglich des Outsourcing-Projektes beeinflussen.



Liebold, Chris;
Referenzmodelle in der öffentlichen Verwaltung - Erstellung eines Vorgehensmodells zur Erhebung von Geschäftsprozessen und Anwendung am Beispiel der öffentlichen Verwaltung. - 145 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

Ziel dieser Arbeit war es, auf Grundlage des Design Science Research Process Model ein abstraktes Vorgehensmodell zur Erhebung von Prozessen zu konstruieren. Zunächst wurde eine Literaturanalyse nach Webster & Watson, mit der der Stand des Geschäftsprozessmanagements mit Fokus auf die Prozesserhebung untersucht werden sollte, erstellt. Insgesamt wurden 16 Lehrbücher und Konferenzbeiträge untersucht und verglichen. Demnach gibt es kein allgemein akzeptiertes Vorgehen, das im Speziellen die konzeptionelle Unterstützung der Prozesserhebung adressiert. Anhand der Auswertungsergebnisse wurden Implikationen gesammelt, die zur Konstruktion eines Vorgehensmodells für die Prozesserhebung genutzt wurden. Demnach besteht die eigentliche Prozesserhebung aus den Bereichen Prozessidentifikation, Sammlung von relevanten Prozessinformationen und einer Prozessmodellierung. Diese Aufgaben müssen durch weitere vor- und nachgelagerte Tätigkeiten unterstützt werden. Es gibt Rahmenbedingungen die sich jeweils auf die Prozesserhebung auswirken. Die wichtigste Rahmenbedingung ist der Zweck der Prozesserhebung, der Zweck wirkt sich in vielerlei Hinsicht auf die Prozesserhebung aus. Weiterhin sollten alle Aufgaben zur Prozesserhebung durch ein integriertes Projektmanagement unterstützt werden. Aus diesen Ergebnissen wurde ein Vorgehensmodell konstruiert, welches aus 7 Phasen besteht. Die Phase Untersuchung (1) zielt darauf ab, die Hintergründe einer Prozesserhebung zu verstehen und Informationen zur Durchführung zu erschließen. Die Phase Vorbereitung (2) legt Inhalte fest, die für die Phasen der Erhebung notwendig sind (Projektplanung, Auswahl von Modellierungstechniken etc.). In der Phase Identifikation (3) sollen Prozesse identifiziert, abgrenzt und gesammelt werden, um dann detaillierte Informationen (4) der Prozesse aufzunehmen und diese in Prozessmodelle umzuwandeln (5). Ergebnisse dieser Phasen werden validiert ggf. korrigiert (6) und freigegeben. In der Phase Abschluss (7) werden die Ergebnisse veröffentlicht sowie Maßnahmen zur Nutzung und eine Strategie zur Aktualisierung der Ergebnisse erarbeitet.



Noßke, Sebastian;
Aufwertung von Sachgütern durch IT-Dienstleistungen. - 87 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

Viele Hersteller von Sachgütern stehen der Problematik zunehmender Vergleichbarkeit von Produkten gegenüber. Besonders Unternehmen im produzierenden Bereich unterliegen dadurch einem hohen Wettbewerbs- und Preisdruck, was die Gewinnmargen von Sachgütern sinken lässt. Eine Möglichkeit dieser Entwicklung entgegen zu wirken, stellt das Angebot hybrider Produkte dar, wodurch Alleinstellungsmerkmale generiert werden können. Hybride Produkte sind Leistungsbündel, welche aus materiellen und immateriellen Leistungskomponenten bestehen. Hierbei verkörpert das Sachgut die materielle Komponente und die IT-Dienstleistung die immaterielle. Ein Beispiel hierfür stellte das IPhone mit dem Apple App Store dar. Ausgehend von diesem Ansatz, entsteht die Frage, wie eine solche Aufwertung eines Sachgutes durch eine IT-Dienstleistung ingenieursmäßig beschrieben werden kann. Diese Betrachtung erfolgt in der vorliegenden Arbeit. Hierfür werden zunächst verschiedene, bereits in der Literatur bestehende, Konzepte zur Förderung der Kreativität im Unternehmen, Selektion von Dienstleistungsideen und Entwicklung hybrider Produkte näher betrachtet. Darauf aufbauend wird in dieser Arbeit, ausgehend von den zuvor betrachteten Konzepten, ein Vorgehensmodell entwickelt, welches das Vorgehen zur Aufwertung von Sachgütern durch IT-Dienstleistungen beschreibt. Dabei handelt es sich um eine integrierte Sicht, ausgehend von einem Sachgut, über die Entwicklung und Selektierung von Dienstleistungsideen bis hin zur Entwicklung eines hybriden Produkts.



Blechschmidt, Christian;
Dynamik der ITK-Branche im Vergleich. - 97 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

Seit ihren Anfängen zeichnet sich die ITK-Branche durch die zwei wesentlichen Eigenschaften Dynamik und Wachstum aus. Sie ist durch das Auftreten von vielen raschen Entwicklungen und Veränderungen im Laufe der Zeit geprägt. Dabei scheint die Dynamik der ITK-Branche im Vergleich zu anderen Branchen besonders hoch zu sein. Zur Untersuchung der Dynamik der ITK-Branche herrschen lediglich Studien vor, die nur einzelne Merkmale der Branchendynamik beleuchten. Demzufolge finden multiperspektivische Bewertungen der Branchendynamik darin nicht statt. Ferner ist dem Autor zu Beginn der Arbeit kein multiperspektivisches Kennzahlensystem oder Bewertungsinstrument zur Quantifizierung der Dynamik einer Branche, im Speziellen der ITK-Branche, aus der Literatur ersichtlich. Daraus ergibt sich die Zielsetzung der Arbeit, die These "Die ITK-Branche ist die dynamischste aller Branchen" zu untersuchen. Aus der These abgeleitet sind die drei Forschungsfragen "Was ist eine Branche, im Speziellen die ITK-Branche?", "Was ist unter Branchendynamik zu verstehen?" und "Wie lässt sich die Branchendynamik verschiedener Branchen messen und vergleichen?". Im Laufe der Arbeit werden diese Forschungsfragen beantwortet. Ferner steht im Mittelpunkt der Arbeit die Entwicklung eines multiperspektivischen Kennzahlensystems zur Messung und zum Vergleich der Branchendynamik verschiedener Branchen. Die Grundlage dafür bilden einheitliche Verständnisse zum Branchenbegriff und Branchendynamik. Aufbauend dazu werden Kennzahlen mithilfe einer Expertenbefragung, die sich an der Delphi-Technik orientiert, und einer unterstützenden Literaturanalyse gebildet.



Götzl, Markus;
BPMN, BPEL und Co. - Verfahren und Ansätze der automatisierten Überführung von Prozessmodellen in Workflows. - 101 S. : Ilmenau, Techn. Univ., Masterarbeit, 2014

Innerhalb dieser Masterarbeit werden Ansätze und Verfahren zur automatisierten Überführung von Prozessmodellen in Workflows präsentiert. Dies bedeutet, dass grafische Sprachen in textbasierende Sprachen mithilfe dieser Ansätze und Verfahren transformiert werden können. Als grafische Sprache zur Modellierung von Prozessmodellen wird innerhalb dieser Arbeit schwerpunktmäßig die Sprache BPMN betrachtet. Zur Beschreibung von Workflows wird die textbasierte Sprache BPEL untersucht. Weiterhin werden die Verfahren und Ansätze zur Transformation von BPMN in BPEL miteinander verglichen und kritisch analysiert. Für den Vergleich werden die Kriterien Mächtigkeit, Grundstruktur, Automatisierung, Implementierung, Strategie und Transformationssprachen betrachtet. Um dies anschaulich zu präsentieren zu können, sind die 27 gefundenen Publikationen in einer Vergleichsmatrix eingeordnet. Abschließend werden zwei Verfahren detailliert erläutert.



Heinz, Elisabeth;
Erfolgsfaktoren von Geschäftsmodellen im Cloud Computing. - 74 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

Cloud Computing ist keine neue Technologie, sonder das Ergebnis einer jahrelangen Entwicklung. Obwohl es erst am Anfang seines Lebenszyklus steht, besteht in Deutschland und weltweit breites ein Milliardenmarkt, der stetig wächst. Dabei kann Cloud Computing durch seine Eigenschaften besonders für kleine und mittelständische Unternehmen, als auch für Gründungsunternehmen interessant sein. Die vorliegende Arbeit geht davon aus, dass diese jungen Unternehmen, welche noch nicht am Markt etabliert sind, vor spezifischen Problemen aufgrund ihrer tangiblen, intangiblen und personellen Ressourcenausstattung stehen. Dabei könnte es möglich sein, diese mit Hilfe des Cloud Computings zu reduzieren oder sogar zu lösen. Die vorliegende Arbeit untersucht deshalb im Rahmen einer empirischen Studie, welche Arten von Problemen in Gründungsunternehmen vorliegen und ob diese mit Hilfe von Cloud Computing - im Speziellen Software-as-a-Service - reduziert oder gelöst werden können. In einem zweiten Schritt stellte sich zudem die Frage, ob Gründungsunternehmen Software-as-a-Service Angebote häufiger nutzen würden, wenn die Geschäftsprozesse 'Akquise', 'Sales' und 'After-Sales-Service' auf Seiten der Anbieter bedürfnisspezifisch ausgestattet wären. Im Rahmen der Arbeit wurden zur Beantwortung dieser Frage, zuerst mit Hilfe eines Experteninterviews, drei mögliche Geschäftsprozesse aufgestellt und diese dann im Rahmen der empirischen Studie ebenfalls evaluiert. Aufgrund der geringen Teilnehmerzahl konnten keine fundierten Aussagen, sondern nur Tendenzaussagen getroffen werden. Die Ergebnisse zeigten, dass in der Tendenz alle Arten von Cloud Computing bekannt sind. Jedoch konnte keine klare Tendenz ausgemacht werden, wie sich die Probleme in Gründungsunternehmen abbilden lassen. Deutlich wurde jedoch, dass Unternehmen keine besonderen Anforderungen an die Ausgestaltung der Geschäftsprozesse auf Seiten der Anbieter stellen.



Göring, Sascha;
Der elektronische Personalausweis - Entwicklung, Chancen und Gefahren. - 84 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

Mit der Einführung des neuen Personalausweises im Jahr 2010 wurde ein weiterer Schritt in Richtung der Digitalisierung prognostiziert. Innerhalb von wenigen Jahren würde eine Vielzahl an Bundesbürgern in Besitz des neuen Ausweises sein und die elektronische Identifikationsfunktion aktiv nutzen. Auch sollte eine große Zahl an relevanten Anwendungen sowohl im Bereich des eGovernments, als auch im eCommerce vorhanden sein, die allen Parteien wesentliche Vorteile bringen würden. Betrachtet man heute, drei Jahre nach der Einführung, den Markt für Anwendungen des ePA, so stellt man fest, dass die Anzahl an Nutzungsmöglichkeiten noch recht überschaubar ist. Diese Arbeit soll die Probleme ergründen, welche mit der Einführung aufgetreten sind und einen Blick in die mögliche Zukunft der eID riskieren.



Heyn, Christian;
Richtlinien zur adäquaten Modellierung von Geschäftsprozessen. - 83 S. : Ilmenau, Techn. Univ., Masterarbeit, 2014

Die Bestimmung eines adäquaten Detaillierungsgrad (DetGrad) ist für die Geschäftsprozessmodellierung notwendig. Für die Bestimmung des DetGrad existieren in der Literatur bisher nur wenige Empfehlungen. Diese sind zudem unscharf beschrieben und weisen Lücken auf. Um diese Problemstellung zu lösen, wurden zunächst die relevanten Begriffe definiert und eine Definition des DetGrad in Bezug auf Geschäftsprozessmodelle wurde hergeleitet. Weiterhin wurden in dieser Arbeit Kriterien identifiziert, welche einen Einfluss auf den DetGrad von Geschäftsprozessmodellen nehmen. Darauf aufbauend wurde ein Modell entwickelt, das den adäquaten DetGrad bestimmen kann. Abschließend wird ein Demonstrationsbeispiel vorgestellt, welches das entwickelte Modell anhand eines abstrahierten Geschäftsprozesses veranschaulicht.



Koch, Matthias;
CIOs in Bund und Ländern der Bundesrepublik Deutschland - Aufgaben und Strukturen. - 111 S. Ilmenau : Techn. Univ., Masterarbeit, 2013

Das Ziel dieser Arbeit besteht darin, zu untersuchen in wie fern die Positionen des Chief Information Officers (CIOs) in Bund und Ländern der Bundesrepublik Deutschland ausgeübt werden sowie welche Unterschiede und Gemeinsamkeiten in Bezug auf Aufgaben und Strukturen bei CIOs der öffentlichen Verwaltung und denen der Privatwirtschaft vorhanden sind. Im öffentlichen Bereich sind diese Positionen unterschiedlich ausgeprägt und entstanden, bspw. wurde in Sachsen-Anhalt erst 2011 das Amt des "IT-Bevollmächtigten der Landesregierung" geschaffen, während seit 2007 das Amt des "Beauftragten der Deutschen Bundesregierung für Informationstechnik" existiert. In dieser Arbeit wurden die CIOs der deutschen Bundesregierung und der einzelnen Bundesländer vor- und gegenübergestellt. Für einen Vergleich mit der Privatwirtschaft wurden die Aspekte Bezeichnung, Aufgaben, Eigenschaften und organisatorische Einordnung von CIOs betrachtet und entsprechende Hypothesen aus wissenschaftlicher Literatur abgeleitet, welche mittels einer empirischen Untersuchung überprüft wurden. Die Ergebnisse der Untersuchung wurden dabei grafisch ausgewertet und letztlich anhand einer zusammenfassenden Übersicht dargestellt. Es konnte gezeigt werden, dass CIOs der öffentlichen Verwaltung in Bezug auf jene der Privatwirtschaft sich hinsichtlich grober Betrachtungen der untersuchten Aspekte mitunter überschneiden oder ähnlich sein können, jedoch im Detail eindeutige Unterschiede aufweisen.



Kuntzsch, Manja;
Optimale Organisation und Prozesse im Kundenkontaktbereich in einem Softwarehaus. - 80 S. Ilmenau : Techn. Univ., Masterarbeit, 2013

Für Unternehmen ist es in der heutigen Zeit wichtiger denn je, konkurrenzfähig zu sein. Ein gut funktionierendes Kundenbeziehungsmanagement ist daher unerlässlich für das perfekte Zusammenspiel zwischen Kunden und Dienstleistern. Innerhalb der IT-Dienstleister führen diese Anforderungen zu einem höheren Effizienz- und Kostendruck. Daher ist es unerlässlich, Prozesse kontinuierlich zu überprüfen und an bestehenden Frameworks und Best Practices auszurichten. Nur so kann man sich als Softwarehaus einen Wettbewerbsvorteil gegenüber Konkurrenzunternehmen sichern. In vielen Unternehmen mit historisch gewachsenen IT-Infrastrukturen besteht Optimierungsbedarf hinsichtlich des ITSM und der Kundenorientierung. Das Zusammenwirken der Prozesse zwischen und innerhalb von Abteilungen wird nicht ausreichend analysiert und optimiert. Incidents werden beispielsweise nicht über einen zentralen Ansprechpartner abgewickelt sondern der Kunde wird zu verschiedenen Zeitpunkten von sehr unterschiedlichen Personen betreut. Verantwortlichkeiten und Rollen sind häufig nicht klar strukturiert und erschweren die Umsetzung von Geschäftsprozessen. Informationslücken sind die Folge, die auch zu Lasten der Kommunikation mit dem Kunden gehen. Das Management benötigt aber konsolidierbare Informationen über das Unternehmen, um zukünftige Entscheidungen treffen zu können. Welche Möglichkeiten hat ein Unternehmen also, Prozesse kundenorientiert zu gestalten und zu optimieren? Gibt es Best Practices, die ein Standardvorgehen vorschlagen? Diese Arbeit soll sich daher mit den Optimierungsmöglichkeiten der Prozesse im Kundenkontaktbereich eines Softwarehauses beschäftigen. In Hinblick auf den Optimierungsbedarf wird der aktuelle Stand in der Forschung und Literatur hinzugezogen, Frameworks in Hinsicht auf Best Practices ausgewertet und Vorschläge zusammen mit den Fachabteilungen entwickelt, wie die Prozesse im Kundenbeziehungsmanagement besser zu gestalten sind. Ziele sind die Verbesserung der Prozesseffizienz, eine bessere Strukturierung der Organisation sowie die Kostenoptimierung.



Taubert, Anke;
Analyse, Anpassung und Optimierung der Geschäftsprozesse bei der Einführung eines Dokumentenmanagementsystems in der öffentlichen Verwaltung. - 82 S. Ilmenau : Techn. Univ., Masterarbeit, 2013

In der öffentlichen Verwaltung ist das Prozessmanagement noch in der Anfangsphase. Für eine Verwaltungsmodernisierung ist eine Analyse und Formulierung der Geschäftsprozesse allerdings unumgänglich. Insbesondere fand noch keine Prozessmodellierung des Dokumentenmanagements in der öffentlichen Verwaltung vor und nach der Einführung eines Dokumentenmanagementsystems (DMS) statt. Ziel der Arbeit ist es jene Prozesse zu analysieren und die sich aus der Einführung des DMS ergebenden Optimierungspotenziale herauszustellen. Dabei sind die Prozesse so allgemeingültig wie möglich gestaltet, damit sie von Bund, Land und Kommunen genutzt werden können. Auf Basis einer Prozessmodellierung und Literaturrecherche wurde ermittelt, dass sich besonders der Prozess der Eingangsbehandlung durch die Einführung des Scanprozesses verändert. Allerdings sind mit der Digitalisierung und anschließenden Indizierung der Eingänge zahlreiche Vorteile verbunden, die über den gesamten Ablauf der Vorgangsbearbeitung genutzt werden können. Des Weiteren werden nach der Einführung des DMS viele Aufgaben der konventionellen Registratur automatisiert durch das DMS oder die Bearbeiter übernommen. Dies bezieht sich insbesondere auf die Registrierung von Akten und deren Schlussbehandlung. Bei dem Bearbeitungsprozess gibt es nur marginale Prozessänderungen, aber Verbesserung, was die Bearbeitungsdauer, die Transparenz der Prozesse oder den Wegfall des physischen Transports der Dokumente betrifft.



Marburg, Jens;
Innovations-Diffusionsmodelle für IT-Innovationen. - 84 S. Ilmenau : Techn. Univ., Masterarbeit, 2013

In dieser wissenschaftlichen Arbeit wird ein Überblick über die Geschichte, den aktuellen Stand und die jüngsten Strömungen in der Innovations-Diffusionsforschung gegeben. Darüber hinaus wird der Leser für die spezielle Problematik der IT-Innovations-Diffusion sensibilisiert. Zudem wird im Rahmen dieser Arbeit eine Studie durchgeführt, welche aufzeigt, dass einige in der Innovations-Diffusionsforschung herrschende Theorien nicht allgemeingültig auf alle Innovationen übertragbar sind.



Werner, Markus;
Evaluation der Bestimmung von IT-Agilität für Data-Warehouse-Architekturen nach bestehenden Architekturprinzipien am Beispiel eines mittelständischen Unternehmens. - 107 S. Ilmenau : Techn. Univ., Masterarbeit, 2013

In den letzten Jahren unterliegen IT-Anwendungslandschaften stets dem Anspruch agil auf vorhersehbare und nicht vorhersehbare Änderungen reagieren zu können. Neben einer IT-Architektur können auch IT-Organisationen, IT-Management und IT-Prozesse entscheidenden Einfluss auf den IT-Agilitätsgrad nehmen. Da in der heutigen Zeit nahezu jeder Geschäftsprozess durch die Informationstechnologie unterstützt wird, besteht ein enger Zusammenhang zwischen der IT-Agilität und der Unternehmensagilität. Auch analytische Systemlandschaften - also konkrete Teile einer IT-Architektur - gewinnen durch die steigende Bedeutung des Produktionsfaktors Information und den Zuwachs der Anforderungen an diesen zur Generierung von Wettbewerbsvorteilen, enorm an Bedeutung. - Zur Aufbereitung und Darstellung von Informationen haben sich im Bereich analytischer Informationssysteme Data-Warehouse-Systeme etabliert, welche Daten automatisiert aus verschiedenen Quellen extrahieren, transformieren und effizient bereitstellen. Da der Prozess von der Datenbeschaffung bis zur Datenbereitstellung komplex ist, haben sich mehrschichtige Systemarchitekturen im Data-Warehouse-Umfeld durchgesetzt. Solche Architekturen strukturieren die Objekte eines Data-Warehouse-Systems in unterschiedliche Schichten, wobei die Ausgestaltung dieser unterschiedliche Ausprägungen annehmen können, wie zum Beispiel in Form einer Data-Mart-Bus-Architektur oder einer Nabe- und Speiche-Architektur. - Die vorliegende Arbeit basiert auf einem Modell, welches Agilitätsprinzipien von IT-Anwendungslandschaften beschreibt und definiert. Unbeantwortet ist jedoch derzeit, ob diese Prinzipien auch auf analytische Systemlandschaften zutreffen. Um die Frage zu beantworten wurden diese auf analytische Systeme übertragen und anhand einer Literaturstudie evaluiert. Im weiteren Verlauf der Arbeit wurden dann verschiedene Systemarchitekturen innerhalb einer Fallstudie an einem mittelständischen Unternehmen entwickelt und aus Agilitätssicht bewertet. Abgeschlossen wird die vorliegende Arbeit mit einer prototypischen Umsetzung einer Teilarchitektur, die erste Hinweise auf die spätere Einsetzbarkeit der Agilitätsprinzipien im Umfeld von analytischen Informationssystemen gibt.



Wessels, Nathalie;
Geschäftsprozess-Flexibilität durch service-orientierte Architekturen. - 97 S. Ilmenau : Techn. Univ., Masterarbeit, 2013

Die Flexibilität von Geschäftsprozessen ist ein wichtiges Kriterium für die Wettbewerbsfähigkeit von Unternehmen. Mit service-orientierten Architekturen (SOA) ist das Versprechen verbunden, die Geschäftsprozess-Flexibilität zu erhöhen. Doch bislang gibt es keine systematische Untersuchung zu diesem Thema. Diese Forschungslücke wird in dieser Arbeit geschlossen, indem zunächst die Definition der Geschäftsprozess-Flexibilität hergeleitet wird und im weiteren Verlauf die Kriterien flexibler Geschäftsprozesse sowie die Eigenschaften flexibler Architekturen herausgearbeitet werden. Es folgt eine Untersuchung, inwiefern Architekturen Einfluss auf die Flexibilität von Geschäftsprozessen haben. Abschließend wird untersucht, inwieweit SOA einen positiven Einfluss auf die Geschäftsprozess-Flexibilität hat.



Kellermann, Sebastian;
Automatische Modellgenerierung im Kontext der agentenbasierten Simulation von Produktionssystemen. - 81 S. Ilmenau : Techn. Univ., Masterarbeit, 2013

Im Rahmen dieser Masterarbeit wurde die Eignung und der Einsatz der automatischen Modellgenerierung und Simulation von Produktionssystemen aus der Agentenorientierten Perspektive untersucht. Dieser Simulationsansatz zeichnet sich im Gegensatz zu den klassischen Diskret Ereignisgesteuerten Simulationen durch seine starke individuenbasierte Sichtweise aus. Im theoretischen Teil wird neben der Begrifflichkeit des Agenten und der Definition der verschiedenen Agentenarchitekturen auch auf die vorherrschenden Weltsichten der Simulation eingegangen. Darauf aufbauend wird die Agententorientierte Simulation von den klassischen Ansätzen abgegrenzt und Vor- und Nachteile, sowie Einsatzmöglichkeiten in der Simulation von Produktionssystem erörtert. Im praktischen Teil erfolgte, nach Auswahl und Festlegung eines geeigneten Beispielszenarios einer Fertigung, die prototypische Implementierung eines automatisierten Modellgenerators in der Simulationssoftware Anylogic. Dabei wurde die Nutzung des Core Manufacturing Simulation Data (CMSD) Standard als Quelldatenformat angestrebt um eine möglichst hohe Interoperabilität zu gewährleisten.



Nacke, Steven;
Konzeption einer empirischen Untersuchung zum Stand der Umsetzung und Perspektiven von E-Government in Thüringen. - 109 S. : Ilmenau, Techn. Univ., Masterarbeit, 2012

Die dieser Arbeit zugrundliegende Problemstellung beschäftigte sich damit, die Thüringer Verwaltungen in Bezug auf deren Bemühungen im Bereich E-Government zu prüfen. Im Fokus der Überprüfung steht die Erhebung der vorliegenden IST-Zustände der E-Government Aktivitäten in den einzelnen Landes- und Kommunalverwaltungen. Es entstand somit eine Zusammenarbeit des Prüfungsreferats II4 des Thüringer Rechnungshofes und der Technischen Universität Ilmenau. Für die Betrachtung relevant, waren folgende Punkte: - Erhebung der Fachverfahren mit entsprechenden Transaktionsstufen und Zielgruppen; - Kostenerhebung im Rahmen von E-Government in den einzelnen Verwaltungen; - Erlangen von Kenntnissen über die Nutzungsintensität aus den jeweiligen Distributionskanälen; - Beurteilung der Verwaltung unter der Maßgabe von IT-Business-Alignment; - Aufschluss über die technische Unterstützung und die eingesetzten Produkte; - Einsatz des Faktors Zeit. Das Ziel dieser Arbeit ist dadurch definiert, zielgerichtete Aussagen über die einzelnen Verwaltungen treffen zu können. Hierzu gehört sowohl das Erlangen von Erkenntnissen aus dem Einsatz bestimmter Informationssystemen, als auch das Weiterentwickeln von Konzepten zur Umsetzung von E-Government. Weiterhin sollen mit den gewonnenen Informationen die Thüringer Verwaltungen vergleichbar gemacht werden. Des Weiteren von Bedeutung ist eine vollständige Erhebung der bisher aufgebrachten Kosten, welche sich aus den erhobenen Softwaresystemen als auch durch die Inanspruchnahme von externen Dienstleistungen und internen Aufwendungen berechnen lassen.



Wessels, Sven;
Gestaltungsempfehlungen zum optimalen Detaillierungsgrad von Prozessmodellen für unterschiedliche Modellierungszwecke. - 88 S. Ilmenau : Techn. Univ., Masterarbeit, 2012

Die Arbeit befasst sich mit einigen grundsätzlichen Überlegungen im Vorfeld der Definition optimaler Detaillierungsgrade von Geschäftsprozessmodellen für unterschiedliche Modellierungszwecke. Weiterhin wird eine Einschätzung der problemadäquaten Detaillierungsgrade je Modellierungszweck erarbeitet. Inhaltliche Basis der Arbeit sind wissenschaftliche Publikationen zum Thema der Prozessmodellierung der vergangenen Jahre. Im Fokus stehen Fragen zum Verständnis des Detaillierungsbegriffes und möglicher Detaillierungsaspekte sowie Einflussfaktoren auf den zweckmäßigen Detaillierungsgrad und ein mögliches Bewertungsschema der Modelldetaillierung. Es werden verschiedene Modellierungszwecke identifiziert und der zweckadäquate Detaillierungsgrad exemplarisch festgelegt. Mithilfe des in der Arbeit formulierten Bewertungsschemas konnten aus den Anforderungen der identifizierten Modellierungszwecke Empfehlungen für ihren adäquaten Detaillierungsgrad abgeleitet worden. Die einheitlichen Bewertungen ermöglichten es, einen Bezug zwischen den verschiedenen Modellierungszwecken in Abhängigkeit ihrer Detaillierung herzustellen. Es ist sind eine Einschätzung der Beziehungen zwischen den Prozessmodellen der verschiedenen Modellierungszwecke vorgeschlagen und exemplarisch Möglichkeiten für die Kombination der Prozessmodelle abgeleitet worden. Dabei wurde ersichtlich, dass die Prozessmodelle verschiedener Modellierungszwecke teilweise starke Parallelen aufweisen und gut mit einander kombiniert werden oder aufeinander aufbauen können. Es konnten aber auch Fälle identifiziert werden, bei denen sich eine parallele Modellierung nicht anbietet, sodass eine Berücksichtigung dieser Zwecke bei der Modellierung nicht ratsam ist.



Granzdorf, Katharina;
IT-Servicemanagement im öffentlichen Sektor - Einsatz von ITIL und COBIT bei IT-Dienstleistern. - 115 S. Ilmenau : Techn. Univ., Masterarbeit, 2012

Nicht nur Organisationen des privaten Sektors streben nach Kostensenkung und zeitgleich stärkerer Professionalisierung, Einrichtungen des öffentlichen Sektors haben sich ebenfalls dieser Forderungen zu unterwerfen. In dieser Arbeit wird das Hauptaugenmerk auf den möglichen Einsatz von ITIL und COBIT bei einem IT-Dienstleister im öffentlichen Sektor am Beispiel der Rechentechnik der TU Ilmenau gelegt. Zu Beginn der Ausführungen werden entsprechend notwendige Grundlagen zum IT-Servicemanagement und dessen Vertreter beleuchtet sowie ein kurzer 'State-of-the-Art'-Abschnitt dem IT-Servicemanagement im öffentlichen Sektor gewidmet. Im Anschluss daran wird das Vorgehen bei der Anwendung des IT-Servicemanagements auf den öffentlichen Sektor beschrieben, um fortlaufend daran die Ergebnisse dieses Vorgehens in Form von Prozessdarstellungen und -bewertungen zu untermauern. Bei der Darstellung der möglichen Prozessszenarien werden zwei Anwendungsfälle im Detail näher beleuchtet. Zum Abschluss dessen erfolgt eine kurze Bewertung der modellierten Prozesse sowie der entwickelten Kennzahlen. Ziel dieser Ausführungen ist es, aufzuzeigen wie mittels des Einsatzes von IT-Servicemanagement, verkörpert durch ITIL und COBIT, Dienste des IT-Dienstleisters im öffentlichen Sektor, speziell die Rechentechnik der TU Ilmenau, dargestellt und messbar gemacht werden können.



Lübbecke, Patrick;
Entwurf eines Kriterienkatalogs zur Auslagerung von Geschäftsprozessen und IT-Infrastruktur auf Grundlage von Cloud-Computing. - 114 S. Ilmenau : Techn. Univ., Masterarbeit, 2012

Die vorliegende Masterarbeit beschäftigt sich mit der Erstellung eines Kriterienkatalogs, der die wesentlichen Erfolgsfaktoren für eine erfolgversprechende Auslagerung von Geschäftsprozessen und IT-Infrastruktur in die Cloud enthält. Zur Bewertung des Erfolgspotenzials im Sinne von qualitativen und quantitativen Aspekten einer Outsourcing-Maßnahme existieren bereits verschiedene Vorgehensmodelle, die das Outsourcing an externe Dienstleister (IT-Outsourcing) unterstützen sollen. Weitestgehend ungeklärt ist im Rahmen der Auseinandersetzung von Wissenschaft und Praxis mit dem Thema Cloud-Computing jedoch die Frage, ob und unter welchen Umständen diese Modelle auch auf die spezifischen Charakteristika des Outsourcings von Applikationen und Geschäftsprozessen in eine Cloud-Umgebung (Cloud-Outsourcing) anwendbar sind. Die Masterarbeit sollte hierzu einen Beitrag leisten, indem die relevanten Anforderungen an ein Modell zur Entscheidungsunterstützung aus der Literatur extrahiert wurden. Sowohl die Modelle aus dem Bereich IT-Outsourcing als auch jene Modelle, die explizit an die Domäne des Cloud-Computing adressiert sind, wurden auf Grundlage der extrahierten Anforderungen bewertet. Es zeigte sich, dass die Modelle aus dem Bereich IT-Outsourcing überwiegend ungeeignet sind, um den spezifischen Anforderungen des Cloud-Outsourcings gerecht zu werden. Der Grund hierfür liegt in erster Linie an der Fokussierung auf finanzielle Aspekten und der Nichtberücksichtigung von qualitativen Aspekten des Outsourcings. Auch die Modelle aus dem Bereich Cloud-Outsourcing beschränkten sich zumeist auf einzelne Betrachtungselemente finanzieller oder qualitativer Art, berücksichtigten in der Regel jedoch nicht beides zugleich. Auf Basis des Kriterienkatalogs wurde abschließend ein Vorgehensmodell entwickelt, das sowohl finanzielle als auch qualitative Aspekte bei der Entscheidung, ob ein Outsourcing in die Cloud infrage kommt, berücksichtigt. Der Kriterienkatalog selbst unterteilt sich in fünf Bereiche: finanzielle-, technische-, rechtliche-, prozessuale- und strategische Erfolgsfaktoren. Er setzt sich aus Erkenntnissen zusammen, die während der Bewertung der Vorgehensmodelle und durch die Extrahierung relevanter Anforderungen an Cloud-Computing aus der gängigen Literatur der o. g. Bereiche erlangt wurden.



Braunholz, Sven;
Entwurf einer Softwarelösung zur Planung risikoorientierter Prüfungen im IuK-Bereich öffentlicher Verwaltungen. - XXXVI, 76 S. Ilmenau : Techn. Univ., Masterarbeit, 2012

Im Rahmen einer Masterarbeit soll eine Softwarelösung zur Unterstützung einer risikoorientierten Prüfungsplanung im Bereich der Informations- und Kommunikationstechnik (IuK) für Landesrechnungshöfe konzipiert und zum Nachweis der Tragfähigkeit des Konzepts exemplarisch umgesetzt werden. Dabei soll zunächst auch festgestellt werden, ob und welche Softwarelösungen am Markt bereits existieren. Des Weiteren sollen mögliche Indikatoren zur Identifizierung und Klassifizierung des Faktors Risiko erarbeitet werden. Dabei ist zu prüfen, wie die erarbeiteten Indikatoren bei den möglichen Prüfungsarten verwendet werden können. Zur Beurteilung der Risikokennwerte soll ein Berechnungsmodell erstellt werden.In der für den TRH zu konzipierenden Datenbank sollen Informationen über einzelne Behörden, Behördengruppen angelegt werden können. Als Grundlage soll ein Anforderungsprofil an die Software in Zusammenarbeit mit den Mitarbeitern des TRH erstellt werden. Zu diesen Informationen gehören u. a. - Soll- und Ist-Datenstand der Haushaltsmittel für IuK, - Informationen über laufende Projekte, - Planungen und Strategien für den IT-Bereich der Behörden, Behördengruppen, Ressorts, - Angaben über eingesetzte IT-Verfahren, - Prüfungserkenntnisse und weitere Informationen . des Rechnungshofs und seiner nachgeordneten Rechnungsprüfungsstellen, . anderer Rechnungshöfe, . aus sonstigen Quellen wie Presse, Hersteller/Lieferanten, Zuschriften, - Informationen über bereits durchgeführte Prüfungsverfahren, Zeitpunkt der letzten Prüfung. Weitere Risikoindikatoren sollen auf Basis der Literatur identifiziert werden. Auf Grundlage dieser Informationen und Indikatoren sollen Risikograde für einzelne Behörden oder Behördengruppen abgeleitet werden, die ihrerseits als Hilfestellung für die Priorisierung einzelner Prüfungsvorhaben dienen sollen. Als methodische Grundlage soll auf Control Objectives for Information and Related Technology (COBIT) und insbesondere auf den COBIT IT Assurance Guide zurückgegriffen werden. Das Konzept der Softwarelösung soll sich, soweit möglich, am COBIT IT Assurance Universe orientieren.



Klose, Stephan;
IT als Innovationstreiber - Anforderungen, Modelle und Beispiele. - 119 S. Ilmenau : Techn. Univ., Masterarbeit, 2011

Die IT hat in den letzten fünfzig Jahren eine Reihe bahnbrechender Neuerungen hervorgebracht. Unter Anwendung eines kontinuierlichen IT-Innovationsmanagements gelang es dadurch immer wieder einigen Unternehmen hochgradig innovative Produkte auf den Markt zu bringen und damit einen durchschlagenden Erfolg zu erzielen. Neben den Produkten haben sich über die Zeit auch Prozess- und Geschäftsmodellinnovationen darin bewiesen, als wichtiges strategisches Mittel zum langfristigen Erfolg auf einem hart umkämpften und zunehmend globalisierten Markt beitragen zu können. Das Ziel dieser Arbeit ist die Erarbeitung und Darstellung von drei wesentlichen Themengebieten im Zusammenhang mit IT-Innovationen. Zum einen sollen die Anforderungen an die moderne Unternehmens-IT herausgearbeitet werden. Dazu soll betrachtet werden, wie sich die Aufgaben der betriebswirtschaftlich eingesetzten IT über die letzten fünfzig Jahre geändert haben. Außerdem soll eine Differenzierung der Anforderungen nach einzelnen Branchen erfolgen. Als zweiter Schwerpunkt der Arbeit sollen Innovationsmodelle identifiziert und dargestellt werden. Dabei geht es vorrangig darum festzustellen, in wie weit sich diese Modelle für Innovationen im Bereich der IT eignen. Der dritte Schwerpunkt ist die Auswahl und Darstellung erfolgreicher Innovationsprojekte, bei denen die IT als Treiber der Innovation gedient hat. Die Arbeit ist dafür in vier größere Teile untergliedert (Kapitel 2 bis 5). Zu Beginn der Ausführungen werden einige grundlegende Aspekte von Innovationen und Innovationsmanagement geklärt. Dabei soll der Fokus immer auf den Innovationen im Bereich der IT und damit verbunden auch mit IT-Innovationsmanagement liegen.



Dietzel, Michael;
Cloud Computing vs. SOA - eine Analyse moderner Architekturparadigmen für betriebliche Informationssysteme. - 105 S. Ilmenau : Techn. Univ., Masterarbeit, 2011

Cloud Computing und Serviceorientierte Architekturen (kurz SOA) sind zwei moderne Vorgehensweisen zur Gestaltung betrieblicher Informationssysteme, sog. IT-Architekturparadigmen. Sie sind beide populär und zukunftsrelevant, und werden heute in Fachkreisen zahlreich diskutiert. Da es sich um zwei eher unscharf definierte Phänomene handelt, kommt es in Theorie und Praxis zu Verwirrungen und Unsicherheiten beim Umgang mit ihnen. Diese Masterarbeit soll in Form einer kritischen Analyse der Paradigmen dazu beitragen, mögliche Unklarheiten zu beseitigen. Hierfür werden Cloud Computing und SOA zunächst in den Kontext des betrieblichen Informationssystems und der IT-Architektur eingeordnet. Es folgt die Darlegung von theoretischen Grundlagen, von Umsetzungsformen und von Eigenschaften beider Paradigmen. Ausgewählte Beispiele für die Nutzung der Paradigmen in der unternehmerischen Praxis werden beschrieben. Im Anschluss werden Aussagen zur praktischen Relevanz des Einsatzes von Cloud Computing und SOA im Unternehmen getroffen. In einem weiteren Schritt der Analyse kommt es zur Gegenüberstellung der Paradigmen. Es werden ferner Möglichkeiten erörtert, wie beide kombiniert genutzt werden können. Im letzten Schritt der Analyse wird anhand von Erfolgsfaktoren erklärt, weshalb Cloud Computing und SOA so populär sind und für Diskussionsstoff sorgen. Am Ende der Arbeit folgen das Fazit der Analyse und eine kritische Würdigung beider IT-Architekturparadigmen.



Böhlen, Sebastian;
Analyse und Konzeption von Kritierien für eine e-Government Strategie in Thüringen. - 120 S. Ilmenau : Techn. Univ., Masterarbeit, 2011

In dieser Arbeit war es die Aufgabe, die verschiedenen Koordinierungsmaßnahmen und -mechanismen für die Ausrichtung von e-Government-Aktivitäten der deutschen Bundesländer, der Bundesrepublik, Europas sowie Österreichs zu analysieren und generische Kriterien für die Entwicklung und Weiterentwicklung von e Government-Aktivitäten abzuleiten. Zudem sollte am Beispiel von Thüringen betrachtet werden, inwiefern der Kriterienkatalog auf dieses Bundesland angewendet werden kann und welche Rahmenbedingungen dabei das e Government beeinflussen. Im Analysekapitel konnte dargelegt werden, dass die verschiedenen untersuchten Strategien, Vorgehensmodelle und Richtlinien über ähnliche Kernaussagen verfügen, welche über die reine Kosten-, Nutzen- und Machbarkeitsanalyse hinausgehen. Bei der Analyse der Strategien wurde deutlich, dass neben Aussagen zur Gestaltung und Koordination von e-Government-Aktivitäten das Flankieren mit regulatorischen Zielen und Maßnahmen eine wichtige Rolle spielt. In der Konzeptionsphase wurden die Kernaussagen unter einem Oberbegriff gebündelt und anschließend ein Kriterienkatalog entwickelt. Dieser beinhaltet neben den Kriterien zur Gestaltung, Entwicklung und Steuerung von e-Government-Aktivitäten auch regulatorische Kriterien, wie den verbindlichen Einsatz von Standards sowie die Rationalisierung bzw. Anpassung der Rechtsnormen. Mit den Hinweisen, ein Akzeptanzmanagement sowie Anreizsysteme zu etablieren, wird deutlich, dass neben der elektronischen Unterstützung von Verwaltungsprozessen und der Anpassung der Verwaltungsorganisation auch der Wandel innerhalb der Verwaltungskultur eine wichtige Rolle spielt. Die aufgestellten Kriterien geben einen Überblick über den derzeitigen IST-Zustand der geplanten Strategien und zeichnen dabei die zukünftigen Handlungsfelder vor. In der nachfolgenden Umsetzungsphase wurde durch die Analyse der thüringischen e Government-Aktivitäten festgestellt, dass Thüringen über keinerlei basistaugliche e Government-Dienstleistungen verfügt. Somit muss zunächst eine Teilmenge der aufgestellten Kriterien umgesetzt werden, um den derzeitigen Entwicklungsstand der übrigen Bundesländer aufzuholen und Basisdienste anbieten zu können. Mit den zur Umsetzung vorgeschlagenen Kriterien kann die Grundlage für ein ganzheitliches, ebenenübergreifendes e Government gestaltet werden. Erst nach der Schaffung dieser e Government-Basisdienstleistungen wird es möglich, weitere Kriterien anzuwenden.



Vogel, Christian;
Erstellung eines Reifegradmodells für das IT-Innovationsmanagement. - 95 S. Ilmenau : Techn. Univ., Masterarbeit, 2011

In der vorliegenden Arbeit werden unter IT-Innovationen sowohl durch die IT als auch in der IT verstanden. IT-Innovationen umfassen demnach Innovationen, die in Hard- und Software, als auch in der IT-Organisation entstehen können. Für Unternehmen, die eine hohe Marktmacht erreichen der behalten wollen ist die Innovationsfähigkeit - die Fähigkeit eigene Innovationen hervorbringen zu können - von sehr hoher Wichtigkeit. Aus diesem Grund bedarf es einem Mittel, dass es ermöglicht, die aktuelle Innovationsfähigkeit zu messen, zu bewerten und Vorschläge zur Verbesserung der Innovationsfähigkeit zu entwickeln. Ziel der vorliegenden Arbeit war es, ein Reifegradmodell für das IT-Innovationsmanagement zu entwickeln. Dabei stand die Frage im Vordergrund, welchen Beitrag die IT-Funktion (Organisation) leisten kann/muss, um die Innovationsfähigkeit eines Unternehmens zu verbessern. Das in der Arbeit entwickelte Modell besteht aus fünf Reifegraden, die den jeweils aktuellen Entwicklungsstand des zu untersuchenden Unternehmens in Hinblick auf seine IT getriebene Innovationsfähigkeit widerspiegeln. Diesen fünf Reifegraden wurden mehrere erfolgskritische Faktoren zugeordnet. Diese Faktoren wurden durch eine Literaturanalyse bestimmt und haben sich als notwendige Kernkompetenzen für den ihnen zugeordneten Reifegrad herausgestellt. Die Erlangung eines bestimmten Reifegrads ist demnach von der Erlangung der zugeordneten Kernkompetenzen abhängig. Neben der Bestimmung des aktuellen Reifegrads ist es für das untersuchte Unternehmen wichtig herauszufinden, ob der aktuelle Reifegrad ausreichend ist, oder ob das Unternehmen Investitionen tätigen sollte, um den nächst höheren Reifegrad zu erreichen und eventuell sogar das Erreichen des höchsten Reifegrads anzustreben. Um diese Frage zu klären, wurde ein Innovations-Portfolio vorgestellt und der IT-Grad definiert. Das Innovationsportfolio gibt dabei an, für welchen gewünschten Effekt Innovationen sinnvoll sind. Der IT-Grad gibt die Abhängigkeit des Unternehmens von der IT an. Ein Unternehmen, dessen Kerngeschäft die IT beinhaltet, hat einen höheren IT-Grad und ist somit abhängiger von IT-Innovationen als ein Unternehmen, dessen IT-Grad sehr gering ist. Um den nächsthöheren Reifegrad zu erreichen, muss das Unternehmen Veränderungen in Kauf nehmen, die von einer zentralen Stelle - z.B. dem Innovationsmanagement oder der Geschäftsleitung - vorangetrieben werden. Um dies zu unterstützen, wurde ein Maßnahmenkatalog erstellt, der Beispiele für Veränderungsmaßnahmen zu den jeweiligen Reifegraden beinhaltet. Innerhalb der vorliegenden Masterarbeit war es nicht möglich, das vorliegende Reifegradmodell zu evaluieren. Aus diesem Grund ist das Modell als Beispielmodell zu bewerten, dessen Evaluierung in der Praxis noch durchzuführen ist.



Möhring, Michael;
Konzeption eines Kostenrechnungsmodells zur Ermittlung der Kosten von Geschäftsprozessmodellierungsprojekten. - 132 S. Ilmenau : Techn. Univ., Masterarbeit, 2011

Sehr häufig werden Geschäftsprozesse u. a. im Unternehmensumfeld modelliert. Derartige Modellierungen werden in sog. Geschäftsprozessmodellierungsprojekten durchgeführt. Die Kosten solcher Projekte sind schwer im Voraus abzuschätzen und auch eine nachträgliche Evaluation erweist sich als schwierig. In dieser Arbeit wurde untersucht, welche Möglichkeiten der Kostenermittlung von Geschäftsprozessmodellierungsprojekten bestehen und wie diese anzuwenden sind. Es wurden konkrete Verfahren etwa aus den Bereichen der Investitions- und Kostenrechnungsverfahren sowie der Aufwandsschätzung aufgezeigt und angepasst. Des Weiteren wurde eine Fallstudie zur Ermittlung der Modellierungskosten von Geschäftsprozessen zur Veranschaulichung entwickelt.



Köhler, Patricia;
Entwicklung eines Reifegradmodells für das Geschäftsprozessmanagement. - 138 S. Ilmenau : Techn. Univ., Masterarbeit, 2011

Geschäftsprozessmanagement (GPM) findet in der Wirtschaft vielfach Anwendung. Auffallend ist dabei, dass es sich stark in Art und Umfang unterscheidet. Oftmals wird GPM durch einen externen Berater in das jeweilige Unternehmen gebracht. Dies trägt dazu bei, dass es oftmals als zusätzliche oder freiwillige Aufgabe im Unternehmen angesehen wird. Folglich wird es nur schwach verankert und kaum gepflegt, sodass das GPM nach einiger Zeit an Bedeutung verliert oder gar verschwindet. Ein möglicher Grund der "Orientierungslosigkeit" der Beteiligten in der Weiterentwicklung des GPMs ist das fehlende Wissen. Auf diesen Tatsachen basierend, soll in der Masterarbeit untersucht werden, welche Anforderungen durch die Art und den Umfang des GPMs an das Unternehmen gestellt werden. Im nächsten Schritt soll auf die Umsetzung des GPMs im Unternehmen eingegangen werden. Hierbei sollen Aufgaben, Kompetenzträger und die notwendige Verankerung im Unternehmen verdeutlicht werden. Darauf basierend können Gründe für das Scheitern des GPMs in der Praxis abgeleitet werden. Anschließend erfolgt die Prüfung der Faktoren, die für die "Orientierungslosigkeit" bei der Weiterentwicklung von Geschäftsprozessen verantwortlich sind. Da Reifegradmodelle die Güte von Prozessen beurteilen, kann ein solches Modell die Entwicklung von Geschäftsprozessen voranbringen. Neben den genannten Untersuchungen im Bereich GPM sollen bereits existierende Reifegradmodelle dargestellt werden. Die zu präsentierenden Modelle werden auf CMMI, SPICE, PEMM und EDEN eingegrenzt. Diese Modelle erlauben jedoch nur die Bewertung von einzelnen Geschäftsprozessen oder -modellen. Aber auch andere Restriktionen werden durch die Modelle gegeben. Aus diesem Grund soll ein Reifegradmodell für die Güte des GPMs erarbeitet werden. Zuerst sind hierzu Reifegrad sowie Kriterien zur Erfüllung des definierten Reifegrades festzulegen. Anschließend soll eine Prüfung der Möglichkeiten zur Selbstbewertung erfolgen. Hierbei sollen Audit und Benchmarking genauer betrachtet werden. Darauf aufbauend soll eine Handlungsempfehlung zur Weiterentwicklung des GPMs im Unternehmen gegeben werden.