completed master's theses in the subject area:

Anzahl der Treffer: 130
Erstellt: Thu, 28 Mar 2024 23:10:44 +0100 in 0.0554 sec


Kausch, Andreas;
Gegenstand, Aufgaben und Prozesse im IT-Eskalationsmanagement. - 101 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

IT Eskalationsmanagement ist ein Mittel zur Koordinierung notwendiger Ressourcen und Kommunikation zur schnellstmöglichen Entstörung, um schwerwiegende Businessauswirkungen für den Kunden zu vermeiden (Major Incident). Hierfür wurden zunächst die Grundlagen und Zusammenhänge des IT Eskalationsmanagements in Bezug auf das IT Service Management Framework ITIL geschaffen. Bereits in der Strategie und im Design von IT Services müssen Entscheidungen bezüglich der gewählten Service Klasse und der damit verbundenen Umsetzung der IT Architektur getroffen sein. Diese Einstufung hat letztendlich einen starken Einfluss auf die Kritikalität des Ausfalls und somit unterschiedliche Eskalationsreichweiten. In der ITIL Phase Service Transition sollten darüber hinaus bereits viele Störszenarien identifiziert und durch geeignete Maßnahmen verhindert werden. Trotz aller Planung gibt es keinen 100%igen Schutz und für den Fall einer schwerwiegenden Störung eines IT Service bietet das IT Eskalationsmanagement zur effizienteren Entstörung geeignete Hilfestellungen. Diese Arbeit beschreibt hierfür die typischen Frameworkelemente Funktionen, Prozesse, Rollen, Methoden und Instrumente. Die besondere Priorisierung von Incidents spielt dabei genauso eine Rolle wie die Rufbereitschaft der Mitarbeiter, um nur zwei Beispiele zu nennen.



Rose, Steven;
Executable BPMN - der Einsatz einer Business Process Engine zur Analyse von Prozessmodellen. - 105 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Aufgrund der hohen Kosten bei der Einführung von Geschäftsprozessen in Unternehmen und der im Vorfeld zu untersuchenden Prozessakzeptanz wird nach neuen Techniken gesucht, diese Prozessmodelle zu analysieren und zu optimieren. In dieser Arbeit wird daher der Frage nachgegangen, ob sich der Einsatz einer Business Process Engine zur Analyse von Prozessmodellen eignet. Zur Verbesserung des Verständnisses für dieses Thema wird zunächst eine Einführung in die theoretischen Grundlagen gegeben. Im Anschluss findet eine detaillierte Beschreibung der anzuwendenden Methodiken, des Design Science Research und des Experimentaldesigns statt. Nachfolgend wird der praktisch konzeptionelle Teil der Arbeit dargelegt. In diesem wurde zuerst die verwendete Business Process Management Solution "Bonita BPM" vorgestellt und anschließend die Prozessmodelle auf Basis der Masterarbeit von Drewes (2016) implementiert sowie dokumentiert. Insgesamt wurden in dieser Bachelorarbeit zwei Experimente programmiert. Die verwendeten Variablen sind Eager-/Lazy-Loading und Interdependence. Letztere Ausprägung wurde zudem in Form mehrerer Prozessmodelle implementiert. Im Anschluss fand die Planung einer Testreihe zur Untersuchung der Prozessmodelle in Bezug auf deren Prozessakzeptanz statt. Die Durchführung der Experimente ist nicht Teil dieser Arbeit.



Ortlepp, Diana;
Kennzahlensystem zur Bewertung der Qualität von Hochschulen und Studiengängen. - 132 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Neben den Hauptaufgaben Forschung und Lehre beschäftigen sich Hochschulen verstärkt mit dem Thema Qualitätsmanagement. Vor allem mit der Einführung der Systemakkreditierung, bei der ein integriertes Qualitätsmanagementsystem im Vordergrund steht, wird vermehrt Aktivität in die Messung und Verbesserung der Qualität von Studium und Lehre gelegt. Neben verschiedenen Ansätzen zur Überprüfung von Anforderungen an die Qualität einer Hochschule und deren Studiengängen werden von den Hochschulen vermehrt Studierendenbefragungen eingesetzt. Die Haltung von Studierenden gegenüber der Bewertung einer Veranstaltung wird dabei von verschiedenen Faktoren geprägt. Dies wirft die Forschungsfrage auf, ob es möglich ist, Studium und Lehre objektiv mit Hilfe von Kennzahlen zu bewerten. Das Ziel der Arbeit ist es daher, nach möglichen Kennzahlen im Hochschulbereich zu recherchieren, deren Eignung für die Bewertung der Qualität von Studium und Lehre zu untersuchen und darauf aufbauend für ausgewählte Bereiche ein Kennzahlensystem zu erarbeiten. Das Kennzahlensystem soll einerseits einen schnellen Überblick über die Bedingungen in Studium und Lehre ermöglichen und andererseits erlauben, die Prozesse der Bewertung einer Hochschule, von Studiengängen und Fächern zu vereinfachen. Ausgangspunkt der Arbeit ist eine Literaturrecherche nach FETTKE (2006) zu Kennzahlen im Hochschulsektor. Weitere Kennzahlen sollen aus externen Studierendenbefragungen, internen Dokumenten der Technischen Universität Ilmenau zum Qualitätsmanagement und Rankings gewonnen werden.



http://www.gbv.de/dms/ilmenau/abs/85729640Xortle.txt
Hergarten, Alexander;
Untersuchung der Eignung einer Balanced Scorecard als Methode zur Unterstützung der Entscheidung bzgl. der Re-Implementierung einer BI-Analyseapplikation am Beispiel von SAP HANA. - 102 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Die Menge an Informationen steigt stetig und spielt für unsere Gesellschaft hinsichtlich Kommunikation und Wissensschaffung eine immer größer werdende Rolle. Aufgrund dessen ist eine informationsverarbeitende Software für ein Unternehmen unerlässlich, um am Markt überleben zu können. Für die Informationsbereitstellung existiert die Business Intelligence (BI), um die vorhandenen Daten zu analysieren, wobei die BI für diesen Zweck speziell entwickelte Applikationen wie z.B. Dashboards verwendet. Da jeder noch so kleine Unterschied in den Technologien einen Wettbewerbsvorteil gegenüber anderen Unternehmen bieten kann, befinden sich informationsverarbeitende Systeme und Analyseapplikationen in der ständigen Weiterentwicklung. Dies führt unter anderem dazu, dass sich vermehrt historisch gewachsene Applikationen, die nicht mehr zeitgemäß sind, im Unternehmen häufen. Bei diesen Altapplikationen ist als Folge zu entscheiden, ob diese weiterentwickelt oder ob eine neue Applikation entwickelt werden soll. Im Rahmen dieser Arbeit sollen Kriterien, bzw. Kennzahlen ermittelt werden, mit denen die Entscheidungsfindung bei solchen Fragestellungen speziell bezogen auf Analyseapplikationen unterstützt werden können. Zu diesem Zweck soll aus den ermittelten Kennzahlen eine für diesen Fall spezielle Balanced Scorecard entwickelt werden, dass als Framework für diese dienen soll. Dazu findet zunächst eine eingehende Literaturrecherche zum Thema Balanced Scorecard statt, anschließend werden aus der Literatur erste Kennzahlen für eine Entscheidungsunterstützung ermittelt und eine erste Version der Balanced Scorecard aus Ihnen gebildet. Anschließend werden auf Basis von Expertenbefragungen von Fachleuten aus der BI weitere, bzw. andere Kennzahlen ermittelt, um aus ihnen und vorher ermittelten Kriterien eine abschließende Version der Balanced Scorecard zu bilden. Die Anwendung der Balanced Scorecard geschieht prototypisch anhand eine Analyseapplikation aus dem SAP BW, die für den Zweck dieser Arbeit in eine SAP HANA-Analyseapplikation re-implementiert wird. Nach der Anwendung erfolgen die Darstellung der Ergebnisse und das daraus zu schließende Fazit. Im Anschluss wird auf methodische Schwächen innerhalb dieser Arbeit eingegangen sowie ein Ausblick auf mögliche zukünftige Forschungsansätzen, die sich aus dieser Arbeit ergeben, gegeben.



Drewes, Lars;
BPMN-Experimente : Modellierung und Konzeption von Experimenten zur Untersuchung der 'Prozessakzeptanz'. - 92 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Die Untersuchung der Prozessakzeptanz ist ein wichtiges Thema, wenn man verstehen will warum es häufig zu sogenannten Prozessabweichungen kommt. Um nun nachweisen zu können in wie weit bestimmte Treatmentvariablen einen Einfluss auf die Prozessakzeptanz von Individuen haben, ist es Ziel dieser Arbeit Experimente zu entwickeln. Diese sollen der Erfassung von Auswirkungen auf die abhängige Variable 'Prozessakzeptanz' durch gezielte Parametervariation von eben diesen Treatmentvariablen dienen. Zur Verbesserung des Verständnisses für dieses Thema, wird zunächst eine Einführung in die theoretischen Grundlagen vorgenommen. Im Anschluss findet eine genaue Beschreibung der anzuwendenden Methodiken, der Design Science Research und dem Experimentaldesign, statt. Im Rahmen der Beschreibung der Experimentalplanung soll auch ein Vorschlag aufgezeigt werden, wie eine Evaluation der Experimente durchgeführt werden sollte. Folgend an die theoretische Einführung in die Grundlagen und Methodiken, findet der praktisch konzeptionelle Teil der Arbeit statt. In diesem werden die letztendlichen Experimente auf Basis zuvor ausgewählter Treatmentvariablen geplant. Die angesprochenen Variablen stammen aus einer von Fachgebiet 'Wirtschaftsinformatik für Dienstleistungen' erstellten Liste, die in zuvor gehenden Arbeiten erstellt wurde. Dazu müssen allerdings vorerst passende Prozesse identifiziert und modelliert werden. Insgesamt wurden in dieser Masterarbeit acht Experimente geplant. Die verwendeten Variablen sind die folgenden: Eager-/Lazy-Loading, Interdependence, Medienbruch/Wartezeit (Dies sind zwei Variablen die in einem zweifaktoriellen Versuchsplan genutzt werden), Process Failure (Datenwiederherstellung), Process Failure (späte Veränderung), Process Feedback, Repetition und Session-Time. Die vollständige Evaluation und Durchführung der Experimente soll im Rahmen dieser Arbeit nicht stattfinden.



Ußler, Falk;
Konzeption eines Cloud-basierten Auditmanagementsystems. - 97 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Die Arbeit schlägt ein Cloud-basiertes Anwendungssystem zum Management von Lieferantenaudits vor und beschreibt es in einem Fachkonzept. Ein solches System ist notwendig, da die für Lieferantenaudits charakteristische organisationsübergreifende Kollaboration in herkömmlichen Systemen nicht ausreichend ermöglicht wird. Das Cloud-Paradigma kann darüber hinaus die Abwicklung von Audits und deren Verwaltung in einem IT-System effizienter machen. Zur Ermittlung funktionaler Anforderungen dient die Konstruktion eines Referenzprozesses für operative Audits, die in der Regel Gegenstand von Lieferantenaudits sind. Dieser Prozess ist unabhängig von Gegenständen, Geltungsbereichen und Branchen, in deren Kontext Audits durchgeführt werden. Er umfasst das Management von Auditprogrammen, Audits und der aus Feststellungen resultierenden Maßnahmen und ist deshalb ein vollständiger Prozess. Grundlage für die Konstruktion sind neben wissenschaftlicher Literatur vor allem einschlägige Auditmethoden und Frameworks, von denen besonders die Empfehlungen aus DIN EN ISO 19011 berücksichtigt werden. Der konstruierte Prozess wird mittels Befragungen von 13 Experten unterschiedlicher Branchen, Auditfunktionen und Auditarten validiert. In einer Literaturanalyse werden Erfolgsfaktoren für ein Cloud-basiertes Auditmanagementsystem ermittelt, die zur Ableitung nicht-funktionaler Anforderungen an ein derartiges IT-System herangezogen werden. Die Ermittlung erfolgt entlang von drei Perspektiven: Erfolgsfaktoren von SaaS sowie Qualitätskriterien von e-Services und Audits. Die Validität des schließlich aufgestellten Kriterienkatalogs sowie die relative Wichtigkeit der Kriterien werden ebenfalls mithilfe von Expertenbefragungen ermittelt. Aus dem Modell des Referenzprozesses und dem Katalog von Erfolgsfaktoren werden Anforderungen an das Cloud-basierte Auditmanagementsystem spezifiziert und priorisiert. Das Fachkonzept, das die im ARIS-Rahmenwerk enthaltenen Funktions-, Daten-, Organisations und Steuerungssichten umfasst, stellt diese Anforderungen modellhaft dar. In einem ersten Schritt hin zu einer prototypischen Umsetzung des Konzepts, erfolgt schließlich die Untersuchung zur Realisierung des Fachkonzepts als Software-as-a-Service in einem bestehenden Softwaresystem. Diese erfüllt die wesentlichen funktionalen Voraussetzungen des Auditmanagements. Lösungen für mandantenübergreifende Workflows und Datenzugriff müssen allerdings noch implementiert werden.



http://www.gbv.de/dms/ilmenau/abs/847082245ussle.txt
Lohr, Alexander;
Induktive Ermittlung des adäquaten Detaillierungsgrades von Prozessmodellen. - 150 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Aktuellen Studien zufolge sprechen Unternehmen dem Thema Prozessmanagement und damit verbunden der Prozessmodellierung eine hohe Bedeutung zu. Bei der Modellierung stellt sich die Frage nach dem adäquaten Detaillierungsgrad. Für diesen finden sich jedoch in der Literatur keine konkreten Empfehlungen. Daher wurde eine Methode entwickelt, mit deren Hilfe der adäquate Detaillierungsgrad ermittelt werden kann. In der vorliegenden Arbeit wurde diese bereits existierende Methode evaluiert, indem die in Prozessmodellen vorliegenden IST-Detaillierungsgrade den SOLL-Detaillierungsgraden, die die Methode vorschlagen würde, gegenübergestellt wurden. Da manchmal zwischen den IST- und den SOLL-Detaillierungsgraden Abweichungen festgestellt wurden, konnten mithilfe des induktiven Schlusses Maßnahmen zur Designanpassung der Methode abgeleitet und schließlich umgesetzt werden. Die Korrektheit der durchgeführten Anpassungsmaßnahmen wurde anhand der bereits zur Evaluation herangezogenen Prozessmodelle demonstriert. Auch einer erneuten Evaluation mittels bisher nicht verwerteter Prozessmodelle hielt die modifizierte Methode stand. Da der induktive Schluss jedoch die Gefahr birgt, dass ausgehend von Spezialfällen falsche allgemeingültige Sätze abgeleitet werden, wurde auf die forschungspraktischen Limitationen hingewiesen. Abschließend wurden Vorschläge für weiterführende Forschungsarbeiten gemacht.



http://www.gbv.de/dms/ilmenau/abs/846897725lohr.txt
Bonhage, Malte;
Approximation einer Krankenhaussimulation mittels KNN und Parameteroptimierung der Simulation durch geeignete Optimierungsverfahren in Verbindung mit KNN. - 119 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

In der vorliegenden Arbeit wurde das Modell einer Krankenhaussimulation mittels künstlicher neuronaler Netze approximiert. Dafür wurde zunächst der Stand der relevanten Grundlagen von künstlichen neuronalen Netzen, insbesondere der Lernalgorithmen, aufgezeigt. Die systemrelevanten Entscheidungsvariablen des Modells wurden herausgearbeitet und ein problemspezifisches Daten-Preprocessing durchgeführt. Mit MemBrain als neuronaler Simulationsumgebung wurde in einem empirischen Gestaltungsprozess eine geeignete Netztopologie für ein Feed-Forward Multi-Layer-Perceptron ermittelt. Resilent Backpropagation kam hierbei als Lernalgorithmus zum Einsatz. Als Approximation wurde letztlich eine Kombination mehrerer künstlicher neuronaler Netze verwendet. Darüber hinaus wurden im Zuge einer angestrebten Parameteroptimierung zwei Optimierungsverfahren implementiert, ein Zufallsaufstiegsverfahren und eine Evolutionäre Strategie. Diese Optimierungszyklen wurden bezüglich ihrer Optimierungsleistung auf der Approximation mit mehreren Konfigurationen eines vorliegenden Genetischen Algorithmus verglichen. Die Evolutionäre Strategie zeigte dabei in Bezug auf eine globale Suche die besten Ergebnisse. Der Optimierungsprozess wurde von fehlleitenden Approximationsleistungen beeinträchtigt. Eine Verbesserung des Benchmarks für die Krankenhaussimulation konnte dadurch nicht erzielt werden. Am Rande konnte gezeigt werden, dass die neuronale Modellapproximation das Potential zur erheblichen Beschleunigung des betrachteten Optimierungszyklus birgt. Abschließend wurden Verbesserungsansätze für die neuronale Approximation aufgezeigt.



http://www.gbv.de/dms/ilmenau/abs/846463954bonha.txt
Stratemann, Tim;
Beeinflussung des Energieverbrauchverhaltens privater Haushalte auf Basis variabler Stromtarife. - 74 Seiten
Technische Universität Ilmenau, Masterarbeit 2015

Der Energiemarkt in Deutschland unterliegt derzeit einem Wandel. Die Anforderungen der Strombereitstellung wurden um die Faktoren Ressourcenschonung und Klimafreundlichkeit ergänzt. Durch die geplante und teilweise bereits vollzogene Abschaltung der Kernkraftwerke in Deutschland treten zunehmend andere Energiequellen in den Vordergrund. Daraus ergeben sich für Deutschland und andere, dem Europäischen Verbundsystem angeschlossene Länder diverse Herausforderungen. Die benötigte Leistung, die bisher größtenteils mittels konventioneller Kraftwerke produziert wird, soll zunehmend durch erneuerbare Energien erzeugt werden. Diese sind jedoch im Gegensatz zu konventionellen Kraftwerken sehr volatil im Hinblick auf ihre Stromerzeugung, da sie von vielen Faktoren wie beispielsweise Sonneneinstrahlung oder Windgeschwindigkeit abhängig sind. Um eine stabile Energieversorgung gewährleisten zu können, muss die Menge der aus dem Netz entnommenen Energie genau der eingespeisten Energie entsprechen. Die Einflussgrößen der regenerativen Energieerzeugung sind jedoch größtenteils nicht beeinflussbar. Um ein Gleichgewicht zwischen Erzeuger- und Verbraucherseite herstellen zu können, besteht jedoch die Möglichkeit, die Verbraucherseite der Erzeugerseite anzupassen. Mit 26% des Bedarfs an elektrischer Energie in Deutschland stellen private Verbraucher einen wesentlichen Anteil der Verbraucherseite dar. Diese Arbeit beschäftigt sich mit den Möglichkeiten, das Verbrauchsverhalten von Privatkunden beeinflussen zu können, um diese Anpassung zu gewährleisten. Hierzu sollen verschiedene Tarifmodelle aufgezeigt und bewertet werden, die Anreize zur Lastanpassung bieten. Ziel dieser Arbeit ist es, das technische und ökonomische Potential variabler Stromtarife aufzuzeigen und die Akzeptanz der Endverbraucher abzuschätzen, um Implikationen für die Gestaltung dieser Stromtarife zu liefern.



Protzel, Maximilian;
Gestaltung von Geschäftsprozessen mit Hilfe von Servicekatalogen. - 115 S. Ilmenau : Techn. Univ., Masterarbeit, 2015

Einige IT Organisationen sind, getrieben durch Rahmenwerke wie ITIL und die Norm ISO 20000, dazu übergangen, ihre angebotenen Leistungen zu standardisieren und in einem IT Servicekatalog abzulegen. Die Services werden durch Attribute beschrieben und liegen in unterschiedlichen Qualitätsstufen vor. IT Services setzen sich aus weiteren Servicemodulen und -elementen zusammen, die selbst IT Services darstellen. Dank des modularen Aufbaus sind sie durch den Kunden konfigurierbar. Dieser Ansatz wurde in der vorliegenden Masterarbeit auf die Geschäftsprozessgestaltung übertragen. Es wurde das Konzept eines softwarebasierten Geschäftsprozesskatalogs entwickelt, in welchem Teilprozesse in Form von Prozessbausteinen als Pendant zum Begriff 'Service' vorliegen. Ein Geschäftsprozessgestalter setzt aus diesen Bausteinen seine Geschäftsprozesse zusammen. Diese Herangehensweise soll es ermöglichen, Geschäftsprozesse flexibel an verändernde Rahmenbedingungen anzupassen, indem einzelne Prozessbausteine ausgetauscht, entfernt oder hinzugefügt werden. Zur Entwicklung des Katalogs wurden zu Beginn Servicekataloge im Kontext der IT untersucht. Im Anschluss wurden notwendige Schritte der Geschäftsprozessgestaltung identifiziert, die ein Geschäftsprozesskatalog umsetzen muss. In einem weiteren Kapitel wurden Methoden und Ansätze vorgestellt, die ebenfalls Prozessbausteine nutzen oder Prozesse katalogisieren. Aus diesen Arbeiten wurden Ideen übernommen, die nötige Funktionen des Geschäftsprozesskatalogs ausmachen. Im Anschluss wurde beschrieben, wie diese Funktionen die Gestaltung von Geschäftsprozessen unterstützen und wie der Gestaltungsprozess mit einem Katalog verläuft. Außerdem wurde erläutert, wie ein unternehmensspezifischer Geschäftsprozesskatalog aufgebaut werden kann, der ebenfalls, entsprechend der Ideen eines IT Servicekatalogs, Kunden zugänglich gemacht werden kann. Diese können sich somit zwischen Alternativen der Leistungserbringung entscheiden sowie Teilleistungen eines Geschäftsprozesses wählen oder abwählen. Zum Ende der Arbeit konnten die Grenzen eines solchen Geschäftsprozesskatalogs beleuchtet werden. Die Darstellung der Vor und Nachteile konnte anhand von zwei Szenarien veranschaulicht werden.