completed bachelor theses in the subject area:

Anzahl der Treffer: 100
Erstellt: Thu, 28 Mar 2024 23:10:42 +0100 in 0.8863 sec


Strategisches Informationsmanagement - Status Quo und Perspektiven. - Ilmenau. - 47 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2023

Die Digitalisierung beschäftigt Unternehmen weiterhin in hohem Maße. Besonders das Potential, durch den Einsatz von IT die Ziele sowie die Strategie eines Unternehmens zu unterstützen und somit einen strategischen Beitrag für das Unternehmen zu leisten, gewinnt zunehmend an Bedeutung. Dieses Ziel kann durch die Einführung von strategischem Management im Unternehmen erreicht werden. Durch strategisches Informationsmanagement können strategische Informationssysteme entwickelt werden, die Daten sammeln, verarbeiten und analysieren, um damit die Entwicklung und Umsetzung der Unternehmensstrategie zu unterstützen. Sowohl aus wissenschaftlicher als auch aus praktischer Perspektive gibt es eine Vielzahl von Ansätzen, die eine Erfüllung der Aufgaben und Zielen des strategischen Informationsmanagements fördern. Diese Ansätze werden im Rahmen dieser Bachelorarbeit vorgestellt und kategorisiert. Die Ergebnisse basieren dabei auf einer Literaturanalyse in Kombination mit einer Analyse der Webseiten von Beratungsunternehmen. Eine erfolgreiche Einführung des strategischen Informationsmanagements bietet zahlreiche Chancen sowohl für die unternehmensinterne Situation als auch für die Positionierung des Unternehmens im Wettbewerb. Dieses Potential kann allerdings nur ausgeschöpft werden, wenn das strategische Informationsmanagement sowie seine Ansätze erfolgreich implementiert werden. Dies birgt jedoch einige Risiken, weshalb bestimmte Anforderungen erfüllt werden müssen. Aus diesem Grund beschäftigt sich die Arbeit neben der Kategorisierung der Ansätze auch mit der Darstellung der Chancen und Herausforderungen des strategischen Informationsmanagements.



Angerer, Jan ;
Evaluation und Weiterentwicklung von Methoden zur Identifizierung von Self-Service-Potenzial und Smart-Service-Potenzial im Kontext des Leistungsportfolios einer Unternehmensberatung im Rahmen einer Fallstudie. - Ilmenau. - 76 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

Die digitale Transformation verändert weltweit Märkte und darin tätige Unternehmen. Neue Wettbewerber mit digitalen Wettbewerbsmodellen verdrängen etablierte Unternehmen. Anzeichen dieser Entwicklungen sind auch im deutschen Beratungsmarkt zu beobachten. Beratungsunternehmen stehen in diesem Zusammenhang vor der Herausforderung, die Skalierung ihres traditionell personenbezogenen Geschäftsmodells zu verbessern. Eine Möglichkeit dies zu erreichen ist die Transformation von Beratungsleistungen zu Smart- und Self-Services. In dieser Arbeit wird eine Methode evaluiert und weiterentwickelt, die es Beratungsunternehmen ermöglichen soll ihr Dienstleistungsportfolio auf Potenzial für die Entwicklung von Smart- und Self-Services zu untersuchen. Um dies zu erreichen wird die Methode zuerst im Rahmen einer Fallstudie auf Dienstleistungen eines kooperierenden Beratungshauses angewandt. Aus den Ergebnissen der Fallstudie werden anschließend Ansätze zur Weiterentwicklung der Methode abgeleitet. Die Relevanz und Nützlichkeit der Verbesserungsansätze wird schließlich durch Experteninterviews mit Beratern des kooperierenden Unternehmens validiert. Es konnte gezeigt werden, dass die untersuchte Methode sich eignet, um Potenzial für Smart- und Self-Services zu identifizieren. Darüber hinaus wurden Ansätze zur Weiterentwicklung der Vorbereitung, Durchführung und Ergebnisqualität der Methode erarbeitet und validiert.



Lingnau, Nadine;
Untersuchung der Ursachen und Auswirkungen gescheiterter Lean-Implementierungen im Rahmen der Covid-19-Pandemie : eine Entwicklung von Lösungsansätzen zur Verbesserung des Lean Managements in Unternehmen. - Ilmenau. - 67 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

In der heutigen Zeit organisieren Unternehmen komplexe Produktionsschritte häufig, indem sie Lean Management Methoden wie Outsourcing, Offshoring und die Just-in-Time-Produktion einsetzen. Dieser Managementansatz setzt den Fokus auf Effizienz und eine möglichst kostengünstige Produktion. Ziel der Arbeit ist es demnach, die negativen Auswirkungen der durchgeführten Lean Management Methoden der Unternehmen, in Bezug auf die Maßnahmen zur Eindämmung der Covid-19-Pandemie, aufzuzeigen. In diesem Zusammenhang werden Handlungsempfehlungen erarbeitet, sodass Unternehmen zukünftig auf Schwankungen in der Produktion vorbereitet sein können und die Abhängigkeit von Lieferanten zu vermindern. Bereits implementierte Lean Management Methoden werden dabei kritisch betrachtet und neu bewertetet, um Lieferketten zukünftig besser vor Krisen, wie der Covid-19-Pandemie, zu schützen. Um die Zielsetzung zu erreichen wird eine systematische Literaturanalyse und problemzentrierte Experteninterviews durchgeführt. Die entstandenen Schwierigkeiten können teils, aber nicht ausschließlich auf die Methoden selbst zurückgeführt werden, sondern vielmehr auf das mangelnde Verständnis der Implementierung der Lean Management Methoden. Es konnten bestimmte Handlungsempfehlungen abgeleitet werden, wie beispielsweise eine Verkürzung der Lieferketten oder der Einsatz des Business Continuity Management Systems. Generell ist jedoch zu beachten, dass jeder Fall stets separat betrachtet werden muss und Methoden an die konkrete Problemstellung und Organisation angepasst werden sollten.



Hertel, Dominik;
Semantische Analyse von Geschäftsprozessen. - Ilmenau. - 45 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

Gegenwärtig ist die Geschäftsprozessanalyse durch eine Vielzahl von Methoden und Werkzeugen gekennzeichnet, die sich durch verschiedene Anwendungsziele unterscheiden. Die vorliegende Arbeit hat das Ziel, den aktuellen Forschungs- und Entwicklungsstand zur semantischen Analyse von Geschäftsprozessen zu ermitteln. Zum erreichen des Ziels wird eine Literaturstudie nach Fettke, sowie Webster und Watson durchgeführt. Zu Anfang findet sich eine Erläuterung der Grundlagen zur Geschäftsprozessanalyse. Danach werden Analysemethoden in der Praxis wie beispielsweise Prozesskostenrechnung und Process Mining dargestellt. Im Anschluss daran sind Methoden und Ansätze der semantischen Geschäftsprozessanalyse dargestellt. Hierbei handelt es sich um die semantische Prozess Annotation, die Mustererkennung von Prozessschwachstellen und dem Semantic Process Mining. Zuletzt werden diese hinsichtlich ihrer Automatisierbarkeit und Vermeidung von Fehlinterpretationen miteinander verglichen.



Hofmann, Julian;
Analyse und Erhebung des Virtualisierungspotenzials von Consultingleistungen : eine empirische Fallstudie zur Bewertung des aktuellen Stands. - Ilmenau. - 37 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

Im Zuge der digitalen Transformation stehen Beratungsunternehmen vor der Herausforderung ihre Beratungsleistungen zu virtualisieren. Eine Methode zur Analyse des Virtualisierungspotenzials von Beratungsleistungen befindet sich bereits in einem zweiten Design-Zyklus. Der aktuelle Entwicklungsstand dieser Methode muss weiter erprobt werden. Hierzu wurde in einem Beratungsunternehmen eine Fallstudie durchgeführt. Die Ergebnisse der Fallstudie werden genutzt, um Handlungsempfehlungen für das Beratungsunternehmen abzuleiten und die Anwendung der Methode kritisch zu reflektieren. Basierend auf der kritischen Reflektion wird die Methode erweitert bzw. modifiziert.



Die Prototypisierung eines neuen Ticketsystem zur besseren Prozesssteuerung und Prozessautomatisierung. - Ilmenau. - 41 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

Der Onlinehandel erfährt in letzter Zeit eine der größten Wandlungen, denn viele Transaktionen finden nur noch über digitale Medien statt. Für die Bewältigung dieser vielen Anfragen, benötigen Kunden geeignete Software, um die Vielzahl von Anfragen zu bewältigen. Zudem bedarf es auch Software, um Teams zu managen, Ressourcen zu planen und den Anforderungen des Kunden effizient und innovativ nachzugehen. Aus diesem Grund handelt diese Abschlussarbeit, über die anwendungsbezogene Auswahl eines geeigneten neuen Ticketsystem. Mithilfe eines Kriterienkataloges wurden quantitative und qualitative Merkmale erfasst und diese mithilfe einer Interviewumfrage auf Relevanz untersucht. Die Probanden und Probandinnen haben eine Vielzahl von verschiedenen Fragen in Bezug auf Ticketsysteme beantwortet. Durch die Interviews konnten die Bewertung der Probanden, als auch die Merkmale der ISO 9126 innerhalb einer Nutzwertanalyse betrachtet und drei gewählte Ticketsysteme miteinander verglichen werden. Anhand der Durchführung von Tests konnte der Nutzwert eines jeden Systems evaluiert werden. Nach dem erfolgreichen Abschluss der Tests, wurde der Prototyp des Ticketsystems mit dem höchsten Nutzwert umgesetzt.



Buse, Franz;
Vergleich von Programmiersprachen am Beispiel eines genetischen Algorithmus. - Ilmenau. - 49 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2020

In der vorliegenden Arbeit wurde ein Vergleich der Programmiersprachen am Beispiel eines genetischen Algorithmus durchgeführt. Dazu wurde ein genetischer Algorithmus für die Personaleinsatzplanung entworfen und implementiert. Zur Bestimmung der Unterschiede wurde mit dem Algorithmus und seinen Parametern experimentiert. Auf Grundlage der Experimente konnten, die Vor- und Nachteil der Programmiersprachen erläutert werden.



Kaiser, Phillip;
Analyse von Supporttickets auf Muster mittels Visual Analytics. - Ilmenau. - 40 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2020

Täglich treten in Unternehmen große Mengen an Daten auf. Dies umfasst auch Fehlermeldungen. Die Aufgabe des IT-Supports ist es, auftretende Fehler schnellstmöglich zu beheben, denn ausfallende Systeme verursachen in der Regel kosten. Um Zusammenhänge zwischen Fehlern zu finden benötigt man Datamining Verfahren, die mit großen Datenmengen umgehen können. Visual Analytics bietet sich an. Das Ziel dieser Arbeit ist es, die Begriffe Data Mining und Visual Analytics zu erklären und voneinander abzugrenzen und eine Verbindung zum Begriff des IT-Supports zu erzeugen. Das Ergebnis ist, dass sich Visual Analytics im Prinzip als Vorbereitende Tätigkeit für Data Mining eignet. Die State-of-the-Art Analyse orientiert sich an der Reviewforschung nach Peter Fettke. Des Weiteren wird Visual Analytics auf die Fehlerdaten einer Firma angewandt. Die Forschungsfragen lauten hier, ob sich die Anwendung von Visual Analytics generell im IT-Support lohnt und wenn ja, wie oft und in welchem Umfang es durchgeführt werden sollte. Ausgehend von Rohdaten wird eine Datenaufbereitung und Datenbereinigung durchgeführt, ehe die Daten in das bereitgestellte Tool geladen werden. In zwei Durchgängen werden dabei Erkenntnisse gesammelt und zusammengefasst. Neben den gewonnenen Erkenntnissen werden auch Herausforderungen bei der Durchführung von Visual Analytics gesammelt. Diese umfassen unter anderem die Daten an sich, aber auch Einschränkungen durch das System, aus welchem die Daten extrahiert wurden. Nachdem die Frage, ob Visual Analytics generell im Bereich IT-Support hilfreich ist, mit Ja beantwortet werden konnte, werden basierend auf den Erkenntnissen und den Herausforderungen Empfehlungen abgegeben. Eine Verbesserung der Erkenntnisgewinnung kann zum Beispiel dadurch erzeugt werden, dass man zusätzliche Daten wie die Systemauslastung in die Betrachtung mit einfließen lässt oder dass man, wenn sich durch Visual Analytics konkrete Vermutungen ergeben haben, Data Mining zu einer detaillierteren Untersuchung anwendet.



Fischer, Sara;
Das Konzept der bimodalen IT-Darstellung : Anwendungsfälle und Kritik. - Ilmenau. - 35 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2020

Infolge der digitalen Transformation verändern sich die Anforderungen an die IT-Abteilung von Unternehmen. Diese müssen, um wettbewerbsfähig zu bleiben, agiler werden. Eine mögliche Gestaltungsform ist das Konzept der bimodalen IT. Im Rahmen dieser Arbeit wurde eine Literaturrecherche nach Webster und Watson durchgeführt, um das Konzept der bimodalen IT genauer zu erläutern. Das Thema wurde definiert und es wurde analysiert in welchen Unternehmen das Konzept angewendet wird und welche Herausforderungen es meistern muss, um erfolgreich zu sein. Des Weiteren wurden fünf zusätzliche Konzepte analysiert, die der bimodalen IT ähneln. Two-Speed-IT, Heavyweight und Lightweight IT, Right-Speed-IT, Multimodal IT und Ambidextrie. Diese konnten klar voneinander abgegrenzt werden.



Barth, Lukas;
Entwicklung eines Kriterienkatalogs zur Unterstützung der Entscheidungsfindung für oder wieder einer Cloud Migration am Beispiel SAP S/4HANA. - Ilmenau. - 104 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2019

Cloud Computing ist eine aufstrebende Technologie im Bereich der Softwarebereitstellung, die Softwareentwicklern, darunter unter anderem auch Anbietern von Enterprise-Resource-Planning (ERP) Software, über die Dienstleistungsmodelle Infrastructure as a Service (IaaS), Platform as a Service (PaaS) und Software as a Service (SaaS) die Möglichkeit bietet, ihre Produkte und Dienstleistungen entwickeln, anbieten und betreiben zu können. Damit werden Unternehmen neben dem klassischen On-Premise-System durch die Implementierung einer Private-, Public-, Hybrid- oder Community-Cloud in ihre Systemlandschaft vier weitere Bereitstellungsvarianten von Unternehmensmanagementsoftware angeboten. Immer mehr Unternehmen sehen sich deshalb mit der Frage konfrontiert, ob die Migration ihrer Systemlandschaft in eine Cloud-Lösung sinnvoll für sie ist. Diese Forschungsarbeit stellt sich dieser Frage mit dem Zweck der Entwicklung eines Kriterienkatalogs zur Unterstützung der Entscheidungsfindung für oder wider einer Cloud Migration am Beispiel SAP S/4HANA. Die Ausführungen dieser Arbeit richten sich dabei nach den Vorgaben der Design Science Research Methodology von Peffers et al. (2007) und stützen sich zusätzlich auf eine strukturierte Literaturrecherche nach Webster und Watson (2002). Die Erstellung des Kriterienkatalogs erfolgt durch die Durchführung einer Synthese der aus der Literaturrecherche hervorgehenden zu insgesamt 25 finalen Kriterien und der anschließenden Zuteilung dieser zu den für die Implementierung neuer IT-Lösungen entscheidenden Einflussbereichen des TOE-Frameworks nach Tornatzky und Fleischer (1990). Darauf aufbauend erfolgt die Weiterentwicklung des Kriterienkatalogs zu einem Bewertungstool in Anlehnung an die Erstellung eines Fragebogens nach Homburg (2017) sowie die anschließende Demonstration seiner Funktionalität anhand der Entwicklung und Durchführung eines fiktiven Fallbeispiels eines SAP-S/4HANA-Migrationsszenarios in Anlehnung an die Vorgaben zur Erstellung einer Fallstudie von Yin (2018). Abschließend werden die Ergebnisse dieser Forschung unter kritischer Würdigung resümierend zusammengefasst und sich ergebende Forschungsfragen abgeleitet.



Pudenz, Richard;
Smart City Ilmenau : Umdenken in einer Kleinstadt. - Ilmenau. - 52 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2019

Der Begriff Smart City ist ein viel gebrauchter und oft missverstandener Begriff. Viele Produkte der Neuzeit schmücken sich mit dem Ausdruck smart, doch was genau sagt dieser aus? Vor allem stehen Nachhaltigkeit und Effizienz im Mittelpunkt intelligenter Lösungen der Zukunft. Auch die intelligente Stadt bedient sich zahlreicher innovativer und zukunftsorientierter Lösungsansätze, um eben genau diese Attribute der Nachhaltigkeit und Effizienz in sämtlichen Sektoren zu etablieren. Diese Arbeit wird sich zunächst mit den Stressfaktoren einer Stadt, bedingt durch einen rasanten Bevölkerungsanstieg und einen stark steigenden Urbanisierungsgrad, auseinandersetzen. Dabei liegt der Fokus auf europäischen Städten und deren Strukturen. Zudem fördert sie ein grundlegendes Verständnis für die derzeitig prekäre Ausgangslage und die digitale Transformation in sämtlichen Sektoren. Erhöhte Luftverschmutzung, teure Strompreise und eine Alterung der Bevölkerung stehen der modernen Stadt nur beispielhaft als negative Konsequenz des vergangenen Jahrhunderts gegenüber. Nachdem der IST-Zustand europäischer Städte vergegenwärtigt und analysiert ist, folgt der SOLL-Zustand in Form eines eigenständig erarbeiteten Konzeptes. Dieses Konzept stellt offene Handlungsfelder dar und fasst grundlegende Eigenschaften einer Smart City zusammen. Mit besonderem Bezug auf die Stadt Ilmenau werden diese Eigenschaften auf ihre Praxistauglichkeit überprüft und angewandt.



Hanisch, Marco;
Dynamisches Vehicle-Routing mit evolutionären Algorithmen. - Ilmenau. - 53 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2019

In dieser Bachelorarbeit wurde ein Genetischer Algorithmus für ein dynamisches Vehicle Routing Problem programmiert. Dafür wurde zuerst ein Überblick über verschiedene dynamische Vehicle Routing Problems gegeben. Dieser Algorithmus betrachtet das Vehicle Routing Problem with time windows and capacity, unter besonderer Beachtung des Ausfalls eines Fahrzeuges. Mithilfe dieses Algorithmus wurden Experimente durchgeführt, um das Verhalten der Lösung bei dem Ausfall eines Fahrzeuges zu untersuchen.



Sam Osarenkhoe, Norris;
Entwicklung eines Vorgehensmodells zur Gestaltung von Blockchain-Konzepten. - Ilmenau. - 59 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

Im Rahmen dieser Arbeit soll herausgefunden werden, wie ein methodischer Ansatz zur Gestaltung von Blockchain-Konzepten entwickelt werden kann. Ziel dieser Forschung ist es zu eruieren, welche allgemeinen Anforderungen und Eigenschaften ein Vorgehensmodell aufweisen muss, um auf Basis dessen ein für Blockchain-Konzepte optimiertes Vorgehensmodell zu konzipieren. Dabei sollen bereits existierende Ansätze diskutiert sowie in das zu entwickelnde Vorgehensmodell integriert werden. Es ist indes nicht Ziel dieser Arbeit, eine detaillierte Softwareentwicklungsmethode inklusive Prozessmodell für die Entwicklung von Blockchain-basierten Anwendungen zu modellieren. Fraglich ist, ob eine umfängliche, beispielhafte Anwendung des entwickelten Vorgehensmodells ohne Nutzung zusätzlicher Forschungsmethoden einen ausreichenden Erkenntnisgewinn erlaubt. Um den Rahmen dieser Arbeit nicht unnötig auszuweiten, wird deshalb darauf verzichtet, alle Phasen des zu entwickelnden Vorgehensmodells anhand eines Beispiels zu simulieren, da hierzu mehrere zusätzliche Forschungsmethoden angewendet werden müssten. Die beispielhafte Anwendung einer Phase des entwickelten Vorgehensmodells findet im Kontext der PSC statt.



Integration von Cloud & On-Premise : eine Untersuchung von Erfolgsfaktoren anhand einer Enterprise-Application-Integration-Lösung. - Ilmenau. - 31 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

Ziel der vorliegenden Bachelorarbeit war es Erfolgsfaktoren im Bereich der Enterprise Application Integration (EAI) aus der Literatur zu identifizieren welche eine Integration in der Cloud begünstigen. Berücksichtigt wurden dabei die Erfolgsfaktoren von EAI wie sie bereits On-Premise bekannt sind (Chowanetz 2013) und es galt zu erörtern ob und gegebenenfalls in welcher Form sie sich im Szenario Cloud gegenüber On-Premise unterscheiden. Zwecks Plausibilitätsprüfung wurden Gespräche mit drei Experten geführt welche über langjährige EAI-Erfahrung verfügen und in Projekte involviert sind oder waren dies das Ziel verfolgten eine bestehende EAI-Lösung von On-Premise in die Cloud zu migrieren. Als Ergebnis ist festzuhalten das kein Erfolgsfaktor bezüglich Cloud- Integration identifiziert werden konnte der den bekannten aus On-Premise- Umsetzungen zuwiderläuft. Es konnte dagegen in der Literatur ein Erfolgsfaktor - der Bedarf zur engen Abstimmung mit dem konkreten Cloudanbieter - identifiziert werden und aus den Interviews mit den Experten deutete sich der Faktor Projektdauer an welcher Ansatzpunkt der weiteren Forschung sein sollte.



Bilevel Optimierung in der Maschinenbelegungsplanung : ein Vergleich aktueller Algorithmen. - Ilmenau. - 34 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

Scheduling Probleme im Bereich der Maschinenbelegungsplanung finden seit den 1950er Jahren ein einen festen Platz in der Operations Research Forschung. Die Optimierung von Produktionsabläufen ist ein zentraler Bestandteil eines jeden produzierenden Gewerbes um im Wettbewerb bestehen zu können. Es existieren eine Vielzahl von Algorithmen und Heuristiken zur Lösung der hohen Varianz von Problemstellungen. Gleichzeitig entstehen jedoch auch immer wieder neue Produktionslinien und -konzepte, sodass bestehende Lösungen immer weiterentwickelt werden müssen, um aktuell und wettbewerbsfähig zu bleiben. Im Rahmen dieser Bachelorarbeit wurde der aktuelle Stand der Forschung im Forschungsbereich Bilevel Optimierung im Umfeld der Maschinenbelegungsplanung erforscht, analysiert und aufbereitet. Eine Literaturrecherche zum Thema erfolgte auf Basis der Vorwärts- und Rückwärtssuche nach Webster und Watson, die Aufbereitung der Daten nach Fettke. Zusammenfassend kann festgehalten werden, dass die Bilevel Optimierung im Forschungsbereich zwar durchaus wahrgenommen und angewendet wird, jedoch nicht die Aufmerksamkeit zuteil bekommt, die ihrer würdig wäre, da Sie zuweilen deutliche Überlegenheit gegenüber klassischen Optimierungskonzepten bietet. Aktuelle Trends der Forschung zeigen eine zunehmende Entwicklung im Bereich moderner hybrider- und genetischer Algorithmen.



Postler, Markus;
Einsatz von Data-Mining-Verfahren für die Analyse und Prognose von Planungs- und Ergebniskennzahlen im Einkauf. - Ilmenau. - 37 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

Obwohl bereits viele Data-Mining-Anwendungen in den unterschiedlichsten Bereichen existieren, ist die Anwendung des Data Minings im Bereich des unternehmerischen Einkaufs bisher wenig untersucht. Die wissenschaftliche Arbeit gibt einen Überblick über die bisherige und aktuelle Forschung zum Nutzen von Data Mining im Einkauf. Weiterhin wird evaluiert, für welche Anwendungsfälle sich Data-Mining-Verfahren mit welchen Daten im Bereich Einkauf eignet. Anhand der empirischen Untersuchung eines Datensatzes eines Automobilzulieferers wird gezeigt, dass Data Mining auch im Bereich Einkauf einen Mehrwert für Entscheider generieren kann. Im Laufe der Untersuchung wird zudem auf die Aufbereitung der Daten eingegangen, die aus einem ERP-System stammen. Es wurden mehrere statistische Modelle entwickelt, die Varianzanalysen sowie Clusteranalysen als Beispiele für multivariate Verfahren im Data Mining beinhalten.



Dopf, Simon;
Demonstration von iKnow als Werkzeug zur Geschäftsprozessanalyse. - Ilmenau. - 45 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

iKnow ist ein ontologiebasiertes Wissensmodell und besitzt unabhängig von konventionellen Ontologiesprachen eine individuelle Syntax und Semantik. Entwickelt wurde iKnow von Füßl (2016) mit dem Ziel Wissen auf dem Gebiet der Softwareentwicklung zu formalisieren. Ziel dieser Arbeit ist die Demonstration von iKnow als Werkzeug zur Geschäftsprozessanalyse. Hierbei soll ein BPMN-Modell in XML-Format mit Hilfe von iKnow hinsichtlich vorhandener Schwachstellen (hier Medienbrüche) analysiert werden, um anschließend durch Nutzung von Deduktionsalgorithmen geeignete Verbesserungsmaßnahmen zu ermitteln. Der gezeigte Ansatz soll dazu dienen, Expertenwissen über Verbesserungspotenziale von Geschäftsprozessen in das lern- und entscheidungsfähige Modell zu integrieren und für die Geschäftsprozessanalyse und -optimierung im Beratungsprozess automatisiert nutzbar zu machen. Der Aufbau der Arbeit orientiert sich an dem von Füßl (2018) entwickelten Konzept zur Verwendung von iKnow als Prozessanalysewerkzeug. Die zu Beginn der Arbeit in iKnow modellierte Wissensbasis beschreibt explizites Expertenwissen über Analysekriterien von Medienbrüchen sowie geeignete Verbesserungsmaßnahmen. Über eine Schnittstelle (basierend auf XPath) wird anschließend ein BPMN-Modell in XML-Format eingelesen, um so die relevanten Eigenschaften des zu analysierenden Prozesses in iKnow abzubilden. Die eigentliche Prozessanalyse erfolgt durch Anwendung von Deduktionsalgorithmen auf die Wissensstruktur und umfasst die Identifikation von Medienbrüchen sowie die Ermittlung geeigneter Verbesserungsmaßnahmen. Obwohl das in dieser Arbeit beschriebene Konzept noch weit von einer praxistauglichen Umsetzung entfernt ist, konnte dennoch systematisch eine mögliche Herangehensweise konkretisiert und demonstriert werden.



Auer, Maik;
Entwicklung einer webbasierten EAM-Applikation. - Ilmenau. - 64 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2017

Die Bachelor-Arbeit beschäftigt sich mit dem Thema Enterprise Architecture Management. Auf Grundlage der gesammelten Informationen wurde ein eigenes EAM-Tool entwickelt.



Müller, Lara;
Entwicklung eines Konzepts zur Suchmaschinenoptimierung auf Online-Marktplätzen am Beispiel von Amazon. - Ilmenau. - 79 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2017

Die zunehmende Digitalisierung sowie der zu beobachtende Trend im Konsumentenverhalten zu möglichst hoher Individualität steigern gleichzeitig sowohl die Bedeutung von Online-Marktplätzen als auch die von Nischenprodukten. Wer diesen Trend mit der Reichweite und Infrastruktur Amazons kombiniert, hat die Chance, neben dem Massenmarkt zu bestehen und langfristig erfolgreich zu sein. Allerdings wird auf Amazon nur derjenige erfolgreich verkaufen, der von seinen Kunden gefunden werden kann. Allein in Deutschland bedeutet das, sich gegen über 120.000 Händler durchzusetzen. Dabei sollten sich Händler sogenannte Suchmaschinen-Optimierungsmaßnahmen zunutze machen. Da es aktuell keine allgemeingültige Anleitung gibt, wie eine solche Optimierung aussehen könnte, war das Ziel dieser Bachelorarbeit, ein Konzept zur Suchmaschinen-Optimierung von Nischenprodukten zu erstellen. Dafür wurden Informationen aus aktueller Literatur und Experteninterviews miteinander kombiniert. Dabei konnte sowohl die Relevanz einer Suchmaschinen-Optimierung als auch ihre Wirksamkeit dargestellt und unterstrichen werden. Nur so kann man sich von der vorherrschenden Konkurrenz abgrenzen und von der enormen Reichweite Amazons profitieren.



Langenhan, Erik;
Steigerung der Performance von Optimierungsverfahren durch Kombination mit künstlichen neuronalen Netzen. - Ilmenau. - 53 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2017

Diese Bachelorarbeit soll evaluieren, ob ein künstliches neuronales Netz die Performance von Optimierungsverfahren steigern kann. Für diesen Zweck wird ein Problem der Personaleinsatzplanung mithilfe eines evolutionären Algorithmus gelöst. Hierbei soll anschließend ein künstliches neuronale Netz als Substitution der Fitnessfunktion agieren. Dieses Experiment war nicht erfolgreich, da das Netz eine hohe Fehlerrate aufwies und die Berechnungszeit höher war als die zu substituierende Fitnessfunktion. Es konnte somit keine Verbesserung der Performance des Optimierungsverfahrens mithilfe des künstlichen neuronalen Netzes erreicht werden.



Gollinger, Maximilian;
Entwicklung von Induktionsregeln zur Überführung von BPMN-Modellen in das inferenzfähige Wissensmodell iKnow. - Ilmenau. - 79 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2017

Die vorliegende Bachelorarbeit beschreibt die Entwicklung und Anwendung eines Regelwerks zur Überführung von BPMN 2.0 Modellen in das inferenzfähige Wissensmodell iKnow, dieses als Grundlage zur automatisierten Prozessanalyse und Identifikation von Verbesserungspotentialen in Geschäftsprozessen zu nutzen. Im Rahmen einer Design Science Research Methodology erfolgt zunächst eine Einführung in die beiden Teilbereiche BPMN 2.0 und iKnow, sowie die Analyse bestehender Modelltransformationsansätze. Anschließend werden für ausgewählte BPMN 2.0 Elemente konkrete Transformationsregeln erarbeitet. Die erstellten Regeln werden zum einen durch eine manuelle Transformation evaluiert und zum anderen durch die Entwicklung einer JavaScript-Applikation, welche die automatisierte Überführung von BPMN 2.0 Modellen ermöglicht. Die Arbeit schließt mit einem Fazit und den durch die Arbeit neu entstandenen Forschungsfragen.



Kern, Christopher Julian;
E-Learning im Geschäftsprozessmanagement. - Ilmenau. - 61 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2017

Die Arbeit hat das Ziel, ein Konzept für die Digitalisierung der Lehrveranstaltung "Geschäftsprozessmanagement" des Fachgebietes Wirtschaftsinformatik für Dienstleistungen an der TU Ilmenau zu entwickeln. Dabei soll das Seminar der Veranstaltung unter Einsatz digitaler Medien für die Lehrenden effizienter und für die Lernenden effektiver gestaltet werden. Als Forschungsmethode verwendet werden die Design Science Methodology und Literaturanalysen. Um das gegebene Ziel zu erreichen werden drei Literaturanalysen als Grundlage für die Konzeptentwicklung verwendet. Als erstes wird ein allgemeiner Überblick über E-Learning gegeben, um verschiedene Herangehensweisen und technische Hilfsmittel zu identifizieren. Danach werden die Inhalte der Lehrveranstaltung auf ihre Aktualität überprüft. Die dritte Analyse befasst sich mit der Pädagogik und geht auf verschiedene für E-Learning relevante Lehrkonzepte und die Gestaltung von Lernaufgaben ein. Bei der Konzeptentwicklung werden als Erstes die für das Seminar relevanten Inhalte der Lehrveranstaltung identifiziert. Auf Basis der Inhalte und der allgemeinen Anforderungen wird ein geeignetes E-Learning-Modell ausgewählt. Danach werden, global für alle Seminare, allgemeine pädagogisch Richtlinien festgelegt. Nachfolgend werden Hinweise zur Implementierung der Richtlinien in der digitalen Lernumgebung gegeben. Am Ende der Designphase werden die Seminare durchlaufen und spezifische Angaben für die jeweilige Pädagogik und die Lernaufgaben gemacht. Die Arbeit passt das Inverted Classroom Model speziell auf die Veranstaltung "Geschäftsprozessmanagement" an, gibt jedoch auch grundlegende Hinweise zur Gestaltung von Unterricht, Lehr- und Lernmaterialien sowie der Ausgestaltung von digitalen Lernumgebungen. Die Seminare der Veranstaltung werden auf Basis der identifizierten Richtlinien neu gestaltet, um den Lernerfolg der Studierenden zu erhöhen und den Arbeitsaufwand der Lehrkräfte zu verringern.



Kirseck, Philipp;
Personalbedarfsplanung eines Automobilzulieferers - ein Vergleich von Theorie und Praxis. - Ilmenau. - 66 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2017

Jeder Leistungsprozess im Unternehmen benötigt eine dauerhafte und ausreichende Versorgung mit entsprechend benötigten Mitarbeitern, um zu funktionieren. Dem Personal kommt daher eine strategisch wichtige Rolle in einem Unternehmen zu. Veränderte Märkte und der anhaltende technische und gesellschaftliche Wandel stellen zunehmend andere und höhere Anforderungen an die Qualifikationen des Personals. Da sich die steigenden Erwartungen an Angestellte aber nicht kurzfristig durch Weiterbildung oder Umschulung erfüllen lassen, ist es notwendig, Anzahl, Beschaffung/Rekrutierung und Entwicklung des Personals rechtzeitig zu planen. Essentiellster Bestandteil der Personalplanung ist dabei die Personalbedarfsplanung. Sie liefert die Basisdaten für alle weiteren Planungen und Maßnahmen. In dieser Arbeit werden zunächst verschiedene theoretische Grundlagen zur Personalplanung und deren Teilbereich der Personalbedarfsplanung dargestellt. Besonders die in der Literatur beschriebenen Prozesse werden dann mit zwei Praxisbeispielen eines Automobilzulieferers verglichen, um so eine Aussage zur tatsächlichen Anwendung der Theorie in der Praxis treffen zu können. Letztlich wird versucht, mit den dabei gewonnenen Erkenntnissen, aktuelle Schwierigkeiten, Trends und Entwicklungen zu identifizieren.



Rosenberger, Guido;
Langfristige Personalbedarfsplanung in Call und Contact Centern. - Ilmenau. - 47 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2017

Die vorliegende Bachelorarbeit gibt einen Überblick über die langfristige Personalbedarfsplanung in Call und Contact Centern. Ausgangspunkt der Arbeit ist die Verfolgung einer bedarfsgerechten Planung bei konfliktären Zielen. Diese sind die Senkung hoher Personalkosten und die Qualität des Kundendienstes. Zu Beginn wird der Aufbau dieser Organisationen und die Personalbedarfsplanung sowie ihre Ausprägungen beschrieben. Dabei werden die Determinanten in dieser Art Dienstleistungsunternehmen untersucht. Danach erfolgt mit Hilfe einer Literaturanalyse die Betrachtung der Methoden aus der klassischen Personalbedarfsplanung und der Contact Center Planung. Aus den Vorgehensweisen wird eine Best Practise abgeleitet. Anschließend findet auf Basis der Ergebnisse eine qualitative Befragung sechs leitender Angestellter in deutschen Contact Centern statt. Die Ergebnisse geben einen Einblick in die Planungsprozesse der befragten Unternehmen und bestätigen zum großen Teil die Best Practise. Die Befragungen zeigen ebenfalls eine weiterführende Beschäftigung der Unternehmen mit möglichen Szenarien. Die Arbeit beschließt mit einem kurzen Fazit und entstandenen Fragestellungen.



Fischer, Clemens;
Optimierung von Identity und Access Management anhand gesetzlicher Vorgaben und Best Practice-Lösungen. - Ilmenau. - 55 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2017

Viele kleinere bis mittelständische IT-Unternehmen legen aus Kapazitäts- und Kostengründen den Hauptfokus ihrer Aktivität auf ihr Kerngeschäft. Das hat zur Folge, dass die Zeit für die Verwaltung im Fall von hoher Auslastung aufs Notwendigste reduziert wird, um operative Funktionalität zu gewährleisten. Aufgrund der geringen Größe dieser Unternehmen wird oft auch nicht die Notwendigkeit zur Veränderung und Strukturierung gesehen bzw. hat dies nur eine vergleichsweise geringe Priorität. Das kann jedoch gravierende Folgen haben, da sich vorrangig eben diese kleineren und mittelständischen Unternehmen der Sicherheitslücken, die sich durch fahrlässiges Handeln ergeben, nicht bewusst sind. Das Ziel der vorliegenden Bachelorarbeit war es, am Beispiel solch eines mittelständischen Unternehmens zu zeigen, wie die gesetzlichen Anforderungen an Unternehmen mit Best Practice-Lösungen verbunden und geeignete Vorgaben zur Optimierung des Identity und Access Managements abgeleitet werden können. Der Hauptfokus lag dabei auf dem Entwurf von Prozessen, die eine Verbesserung zu den Abläufen im Ist-Zustand darstellen. Zur Entwicklung dieser IT-Artefakte wurde die Methodik Design Science Research nach Peffers et al. angewandt. Mit Hilfe von Mitarbeiterinterviews wurde der Ist-Zustand erhoben und mittels Workshops die Vorgaben für den Soll-Zustand festgelegt. Besonderes Augenmerk lag hierbei auf der Einbindung der beteiligten Mitarbeiter in die Entscheidungsfindung, um die nötige Akzeptanz für die Problemlösung zu schaffen. Als Ergebnis der Ausarbeitung entstanden eine Rechte-Rollen-Matrix und BPMN-Prozessmodelle, die die Abläufe des Identity und Access Managements optimieren.



Leonhardt, Justus;
IT-gestützte Optimierung der Lademittelverwaltung in der europäischen Logistiklandschaft - Konzipierung eines Anwendungskonzepts. - 43 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Thema der Arbeit ist die IT-gestützte Optimierung der Lademittelverwaltung in der europäischen Logistiklandschaft. Konkret wird ein Anwendungskonzept konzipiert, was die Effektivierung und Optimierung des Informationsaustauschs zwischen Akteuren des Lademitteltauschs zum Ziel hat. Kern des Konzepts ist die Implementierung einer Blockchain. Eine Blockchain ist eine dezentrale Datenbank, die fortlaufend durch Transaktionen innerhalb eines Peer-to-Peer Netzwerks aktualisiert wird. Jeder Peer der mit dem Netzwerk kommuniziert hat eine lokale Kopie der Blockchain, es gibt keinen zentralen Speicher der Daten. Aktuell werden besonders für die Finanzindustrie Blockchain-Lösungen entwickelt und getestet. Aber auch in den Bereichen Social Media und Asset-Issuance gibt es bereits vielversprechende Konzepte. Die in dieser Arbeit vorgeschlagene Blockchain-Lösung zielt darauf ab, den Austausch von Lademitteln zwischen Akteuren innerhalb des Tauschsystems für Lademittel abzuwickeln und zu dokumentieren. Bevor das Konzept konkretisiert wird, wurde das Anwendungsproblem dargestellt, analysiert. Darauf aufbauend wurden Verbesserungspotentiale identifiziert. Kern des Konzepts ist es Daten eines jeden Tauschvorgangs digital aufzunehmen und auf dieser Basis den Transaktionswert für die Blockchain zu berechnen. Dafür wird im Konzept die Umstellung der Datenaufnahme über einen Tauschvorgang auf digitale Dokumente vorausgesetzt. In diesem Zusammenhang geht die Arbeit auf folgende Fragestellungen konkreter ein: - Welche Anforderungen sind für diese Datenbank sowie für die Zusatzkomponente notwendig? - Was sind die notwendigen Informationen im Stammdatenbereich einerseits und im operativen Bereich andererseits? - Kann der Informationsaustausch über Tauschvorgänge als Ankerfunktion für andere Daten oder Auswertungen dienen? - Welche Wertparameter in Bezug auf Nutzen, sowie Abnutzung über Zeit müssen innerhalb eines solchen Netzwerks für ein Lademittel angesetzt werden? Um ein Grundverständnis der Blockchain-Technologie zu erlangen wurde unteranderem mit folgenden Quellen gearbeitet: - Antonopoulos AM (2015) Mastering bitcoin; [unlocking digital cryptocurrencies]. O'Reilly, Beijing - Greenspan G (2015a) Avoiding the pointless blockchain project | MultiChain. http://www.multichain.com/blog/2015/11/avoiding-pointless-blockchain-project/. Zugegriffen: 25. Juli 2016. - Mainelli M, Milne A (09.05.2016) The Impact and Potential of Blockchain on the Securities Transaction Lifecycle - Satoshi Nakamoto (2008) Nakamoto: Bitcoin: A peer-to-peer electronic cash system - Google Scholar. cryptovest.co.uk. https://scholar.google.de/scholar?cluster= 372423383988544578&hl=de&as_sdt=0,5&sciodt=0,5. Zugegriffen: 16. August 2016. Um die Tragweite des Anwendungsproblems zu verdeutlichen wurde in der Arbeit der Umfang der Logistikbranche sowie der Einsatz von Lademitteln innerhalb logistischer Prozesse skizziert. Folgende Quellen kamen dabei unteranderem zum Einsatz: - Arvis J-F, Saslavsky D, Ojala L, Shepherd B, Busch C, Raj A, Naula T (2016) Connecting to Compete 2016 Trade Logistics in the Global Economy; The Logistics Performance Index and Its Indicators, Washington, DC. - DSLV Deutscher Speditions- und Logistikband e.V. (2015) Zahlen - Daten - Fakten aus Spedition und Logistik, Bonn - Ehrmann H (2014) Logistik. Kiehl, Herne - Jünemann R (1989) Materialfluß und Logistik; Systemtechnische Grundlagen mit Praxisbeispielen. Springer-Verl., Berlin. Die Informationen über die IST-Prozesse eines Unternehmens, das am Tauschsystem für Lademittel beteiligt ist, stammen aus einer Befragung von Sachbearbeitern. Diese erfolgte in Fragebogenform. Für die Modellierung der IST- und SOLL-Prozesse wurde die Modellierungssprache eEPK verwandt. Für alle Modellierungen von Prozessen und Architekturen wurde das Programm ARIS Express Version 2,4c der Software AG verwandt. Nach einem Vergleich der IST- mit den SOLL-Prozessen sowie einer Machbarkeitsstudie kommt die Arbeit zu folgendem Ergebnis: Eine Implementierung einer dezentralen Daten sowie einiger Zusatzkomponenten ist in der Lage wesentliche Verbesserungspotentiale des IST-Zustands aufzugreifen und so eine Effektivierung und Optimierung des beschriebenen Tauschsystems umzusetzen.



Wünsch, Laurin Augustin;
Virtualisierung der Unternehmensberatung - eine explorative Sekundäranalyse. - 91 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Die digitale Revolution der Gesellschaft wirkt sich nun auch verstärkt auf das "people business" Consulting aus. Beratungsunternehmen stehen vor der Herausforderung, ihre Geschäftsmodelle erfolgreich in das Informationszeitalter zu transformieren. Das traditionelle Konzept der individuellen, interaktiven und professionellen Bearbeitung von Problemen vor Ort mit dem Klienten, wird im Hinblick auf virtuelle Meetings, Remote Access auf Kundensysteme oder Online-Coaching-Ansätzen in Frage gestellt. Mit einer groß angelegten Online-Umfrage wurde durch das Fachgebiet Wirtschaftsinformatik für Dienstleistungen der TU Ilmenau in Kooperation mit dem Bundesverband Deutscher Unternehmensberatungen e.V. (BDU) eine repräsentative Studie zum Thema Virtualisierung der Unternehmensberatung durchgeführt. Im Rahmen einer explorativen Sekundäranalyse konnten Zusammenhänge im Datenmaterial gefunden und interpretiert werden. Auf Basis der empirisch erlangten Erkenntnissen wurde in einer Prognose ein dreistufiges Modell unterschiedlicher Virtualisierungsgrade und ihrer Charakteristika erstellt. Zentral ist dabei der Beratungsansatz der sich zukünftig in traditionelles face-to-face, IT-unterstütztes und IT-basiertes Konzept unterteilen wird. Das entstandene Modell dient zur Theoriebildung und sollte in weiterer Forschung im Gebiet der Virtualisierung der Unternehmensberatung bestätigt und erweitert werden.



Senft, Sebastian;
Regulatorische Anforderungen an IT in Banken und deren Umsetzung. - 41 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Banken sind durch die zunehmende staatliche Regulierung und die Anforderungen an Stresstests, einer ernstzunehmenden zusätzlichen Belastung was die Qualität für wirtschaftlich belastbare Aussagen für ihre Geschäftsfelder ausgesetzt. Die für die Banken nötigen Leistungen die sich aus der Vielzahl an Anforderungen ergibt wird in dieser Arbeit exemplarisch in einem Dienstekatalog zusammengefasst um Möglichkeiten der Vereinheitlichung und Rationalisierung nach ITIL V3 aufzuzeigen. Für die Betrachtung wurden einige ausgewählte Richtlinien berücksichtigt um einen Überblick über die Rahmenbedingungen zu erhalten. Anhand des COBIT Frameworks wurde die Implementierung einer IT-Governance beschrieben die aufzeigt wie die strategische Ebene mit der operativen Ebene der Bank verbunden ist, um den Wert der IT für das Unternehmensziel zu steigern. Dabei wurde der zugängliche Standard ITIL V3 zu Grunde gelegt. Ziel der Arbeit ist es Anforderungen einmalig abzudecken und in einem Dienstekatalog darzustellen.



Giel, Christian;
Gutachterliche virtualisierte Unternehmensberatung zur IT-Agilität. - 62 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

In der vorliegenden Arbeit wurde ein Prototyp einer gutachterlichen virtualisierten Unternehmensberatung zur IT-Agilität entwickelt. Nach Durchführung einer Online-Befragung erhält ein Unternehmen die individuelle Bewertung der eigenen IT-Agilität. Grundlage der Beratung bildet ein, am Fachgebiet Wirtschaftsinformatik für Dienstleistungen entwickeltes, Kennzahlensystem zur IT-Architektur. Die IT-Architektur ist neben IT-Personal, IT-Organisation und IT-Prozesse eines der vier Handlungsfelder der IT-Agilität. Diese Arbeit schränkt sich auf die IT-Architektur ein, da für die anderen Handlungsfelder die notwendigen theoretischen Grundlagen noch nicht vorhanden sind. In der Arbeit wurde das Kennzahlensystem an die Virtualisierung angepasst und mit dem Tool LimeSurvey in einen funktionstüchtigen Prototypen überführt.



Fidelak, Isabell;
WI Experimente und Crowdsourcing. - 94 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

In den letzten Jahren hat das Thema Crowdsourcing deutlich an Aufmerksamkeit und Wichtigkeit gewonnen. Egal ob in Form von gemeinsam verfassten Artikeln für die Online-Enzyklopädie Wikipedia oder gar dem Finanzieren von neuen Produktideen via Crowdfunding-Websites wie Kickstarter: Unternehmer erkennen das Potenzial, was Crowdsourcing bereithält und beginnen es zu nutzen. Diese Bachelorarbeit beschäftigt sich mit ebendiesem Thema. Hierbei liegt das Augenmerk auf der Microtask-Plattform Amazons Mechanical Turk (AMT), was sich auf die Arbeitserledigung via Crowdsourcing spezialisiert hat. So sollte AMT innerhalb dieser Arbeit auf dessen Eignung für die Durchführung von Experimenten überprüft werden. Auf Basis dieser erhaltenen Ergebnisse wurde anschließend nach den Richtlinien des Design Science Researchs ein Experiment zur Messung und Bewertung von Prozessakzeptanzen konstruiert und durchgeführt. Die Ergebnisse finden sich in dieser Arbeit wieder, ebenso wie Ausblicke zur weiteren Bearbeitung des Themas Prozessakzeptanz.



Wicklein, Sven;
Beobachtungen in der Wirtschaftsinformatik und ihre Auswirkungen auf Prozessakzeptanz. - 47 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Diese Bachelorarbeit beschäftigt sich mit dem Einsatz der Beobachtungsmethode in der Wirtschaftsinformatik. Die Messung und Steigerung der Prozessakzeptanz steht hierbei im Vordergrund der Forschung. Durch einen Abgleich der Datenerhebungsmethoden wurde das Beobachtungsprotokoll als geeignetste Methode ausgewählt und anhand eines Forschungsgegenstands der Elektromobilität untersucht. Mit der Hilfe von Design und Information Science konnte das Protokoll in einen wissenschaftlichen Rahmen gebracht werden. Durch den Vergleich der Induktions- und der Kabelladung für Elektrofahrzeuge sollte untersucht werden, welches dieser Ladeverfahren in Hinblick auf Prozessakzeptanz zu bevorzugen ist. Zur Analyse der gesammelten Daten wurden die Inhaltsanalyse und das Verfahren des Open Coding eingesetzt. Die Theoriebildung erfolgte mit der Hilfe von Grounded Theories. Mittels der analysierten Daten konnten Maßnahmen zur Steigerung der Prozessakzeptanz, jedoch nicht zum kompletten Nachweis dieser, bewiesen werden.



Rose, Steven;
Executable BPMN - der Einsatz einer Business Process Engine zur Analyse von Prozessmodellen. - 105 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Aufgrund der hohen Kosten bei der Einführung von Geschäftsprozessen in Unternehmen und der im Vorfeld zu untersuchenden Prozessakzeptanz wird nach neuen Techniken gesucht, diese Prozessmodelle zu analysieren und zu optimieren. In dieser Arbeit wird daher der Frage nachgegangen, ob sich der Einsatz einer Business Process Engine zur Analyse von Prozessmodellen eignet. Zur Verbesserung des Verständnisses für dieses Thema wird zunächst eine Einführung in die theoretischen Grundlagen gegeben. Im Anschluss findet eine detaillierte Beschreibung der anzuwendenden Methodiken, des Design Science Research und des Experimentaldesigns statt. Nachfolgend wird der praktisch konzeptionelle Teil der Arbeit dargelegt. In diesem wurde zuerst die verwendete Business Process Management Solution "Bonita BPM" vorgestellt und anschließend die Prozessmodelle auf Basis der Masterarbeit von Drewes (2016) implementiert sowie dokumentiert. Insgesamt wurden in dieser Bachelorarbeit zwei Experimente programmiert. Die verwendeten Variablen sind Eager-/Lazy-Loading und Interdependence. Letztere Ausprägung wurde zudem in Form mehrerer Prozessmodelle implementiert. Im Anschluss fand die Planung einer Testreihe zur Untersuchung der Prozessmodelle in Bezug auf deren Prozessakzeptanz statt. Die Durchführung der Experimente ist nicht Teil dieser Arbeit.



Aengenheister, Julian;
Service-Dominant Logic: State-of-the-Art und Perspektiven. - 40 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Die vorliegende Arbeit beschäftigt sich mit dem aktuellen Entwicklungsstand und Perspektiven der Service-Dominant Logic. Dieser Entwicklungsstand wird nach der Forschungsmethodik des State-of-the-Art erfasst und stimuliert die weitere Forschung. Die Grundlage hierfür bildet die Darstellung der historischen Hintergründe der Entwicklung einer alternativen Sicht auf ökonomische Austausch- und Wertschöpfungsprozesse. Die Service-Dominant Logic wird sowohl anhand der Terminologie, als auch anhand der berücksichtigten, integrierten Ressourcen und beteiligten Akteure, sowie der Wertentstehung und Sichtweise auf Austauschprozesse, von der Goods-Dominant Logic unterschieden. Die Basis der Service-Dominant Logic bilden die grundlegenden Voraussetzungen und Axiome, welche eine Zusammenfassung der Entwicklungen und Beiträge zahlreicher Wissenschaftler darstellen. Die Entwicklung dieser Voraussetzungen und Axiome wird durch Stephen Vargo und Robert Lusch vorangetrieben und formuliert. Service-Dominant Logic ist eine alternative Betrachtungsweise auf ökonomische Austauschbeziehungen. Maßgebliche Unterschiede zur Goods-Dominant Logic sind zum einen der Austausch von Diensten anstatt materiellen und immateriellen Gütern. Dienste werden in diesem Zusammenhang durch Güter repräsentiert. Zum anderen geschieht die Wertschöpfung nicht mehr auf Seiten des Produzenten, sondern auf Seiten des Kunden. Das hat zur Folge, dass die verfügbaren Ressourcen des Kunden bei der Angebotserstellung eines Dienstes berücksichtigt werden müssen. Aus diesem Grund wird in der SD-L nicht mehr zwischen Produzent und Konsument unterschieden, sondern zwischen Dienstanbieter und Dienstnehmer. Beide sind bei einem Austauschprozess an der Angebotserstellung beteiligt und werden auch als Akteure bezeichnet. Der Wert eines Dienstes wird allerdings vom Dienstnehmer bestimmt und kann nicht durch einen Dienstanbieter geliefert werden, was den Dienstnehmer zum zentralen Element der Angebotserstellung werden lässt. Allerdings wird ein Angebot von mehreren Akteuren direkt und indirekt mitgestaltet. Akteure sind mit anderen wirtschaftlichen, privaten und öffentlichen Akteuren vernetzt. Durch die Vernetzung der Akteure verdecken Dienste andere Dienste, sodass nicht immer klar ist, welche Dienste indirekt mit in Anspruch genommen werden. Zusammen formen Akteure ein Dienst-Ökosystem, durch das die Akteure selbst wieder beeinflusst werden. Es entstehen also wechselseitige Beziehungen zwischen Ökosystem und Akteuren. Die SD-L wird im Hinblick auf die Formulierung value-in-use kritisiert, da sie impliziert, dass die Wertschöpfung während der Inanspruchnahme eines Dienstes abhängt nur vom Dienst selbst abhängt. Value-in-use berücksichtigt dabei nicht den Faktor, wie und unter welchen Umständen ein Dienst in Anspruch genommen wird und ist daher nicht geeignet den Aufwand aller Akteure für die Inanspruchnahme zu beschreiben. Der Begriff value-in-experience füllt diese Lücke und kann als Erlebniswert bezeichnet werden. Zuletzt wurden Forschungsperspektiven behandelt die der Entwicklung der SD-L dienen. Als Beispiele können die Entwicklung einer Simulationssoftware für Dienst-Ökosysteme und ein Vorgehensmodell für die Implementierung der SD-L in einem Produktionsbetrieb genannt werden. Es wird deutlich, dass die Service-Dominant Logic eine sich entwickelnde Perspektive auf den Markt darstellt. Der Dienstnehmer wird aktiv in den Prozess der Diensterstellung mit eingebunden und stellt eine zukünftige Ressource dar. Die Berücksichtigung aller zugänglichen Ressourcen auf Seiten der Dienstanbieter und Dienstnehmer kann Potential für neue Dienstangebote bieten und Umsatz zu generieren. Dies kann in der Praxis analysiert werden.



http://www.gbv.de/dms/ilmenau/abs/856680648aenge.txt
Richter, Enrico;
Executable BPMN - Funktionsweise und Anforderungen an eine BMPN2 fähige BPEE. - 36 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Geschäftsprozessmanagement und der Einsatz von IT-Systemen zur Unterstützung von Geschäftsprozessen sowie deren Auswirkung auf den Erfolg eines Unternehmens sind in der Wirtschaft allgemein anerkannt. Im realen Einsatz müssen diese WfMS und BPMS teilweise Millionen Prozessinstanzen und tausende Nutzer gleichzeitig verwalten und zur Ausführung mit angebundenen Systemen kommunizieren. (Aalst 2013) (Fettke 2009) Ein zentraler Bestandteil dieser IT-Systeme ist die Geschäftsprozessausführungsumgebung Business Process Execution Engine (BPEE). (Aalst 2004) Im Rahmen dieser Arbeit wird die Funktionsweise einer abstrakten BPMN2 basierenden BPEE und die Umsetzung ausgewählter Beispiele dargestellt. Weiterhin werden aktuelle, über eine Literaturanalyse identizierte, für ausführbare Geschäftsprozesse relevante, Herausforderungen in einer an dem DSRP angelehnten Struktur präsentiert.



Sauer, Tom;
Ausführbare BPMN 2.0 Geschäftsprozesse. - 41 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Diese Bachelorarbeit beschäftigt sich mit der Wichtigkeit von ausführbaren Geschäftsprozessen, die in BPMN 2.0 modelliert worden sind. Dabei wird die Wichtigkeit der Benutzung der gleichen Modelle von Fach- und IT-Bereich herausgestellt. Es wird ein Vorgehensmodell entwickelt: "Stufenplan zur Ermittlung einer automatisierten Prozesssteuerung", welches erlaubt ein fachliches BPMN-Prozessmodell in ein technisch ausführbares BPMN-Prozessmodell zu überführen.



Niemz, Michael;
Flexibilität in Unternehmen. - 73 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Unternehmen sehen sich einer immer komplexeren und dynamischeren Umwelt gegenüber. Deswegen ist Flexibilität ein für Unternehmen durchaus wichtiger Aspekt. Um längerfristig erfolgreich zu sein, ist es wichtig, dass Unternehmen flexibel genug sind um auf Ereignisse und Auswirkungen ihrer Umwelt zu reagieren zu können. In dieser Arbeit wird dargestellt, was Flexibilität ist, was sie von Agilität unterscheidet und inwiefern die externe Umwelt der Unternehmen einen Flexibilitätsbedarf hervorruft. Anhand einer Analyse der Mikro- und Makroumwelt wird untersucht welche Faktoren für Unternehmen ein Flexibilitätspotential erfordern. Anhand von zwei Beispielen wird dargestellt wie die Umweltfaktoren für unterschiedliche Branchen wirken und der der daraus entstehende Flexibilitätsbedarf visuell dargestellt.



http://www.gbv.de/dms/ilmenau/abs/848085485niemz.txt
Kaluzny, Bartlomiej;
Flexibilität in Unternehmen - welche Branchen benötigen einen hohen Grad an Flexibilität und worin. - 41 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Heutige Märkte sind schnelllebig und dessen Akteure müssen sich mit kurzen Produktlebenszyklen, großer Modellvielfalt und neuen Technologien auseinandersetzen. Um den Ansprüchen der Kunden gerecht zu werden müssen Unternehmen kurzfristig auf sich ändernde Rahmenbedingungen reagieren können. Diese Reaktionsbereitschaft und -möglichkeit wird auch Flexibilität des Unternehmens genannt. Sind die internen Strukturen und Prozesse flexibel aufgebaut, ermöglicht dies eine höhere Konzentration auf die Kernaufgaben des Unternehmens. Durch den Einsatz neuer, flexibler Methoden kann der Aufwand zur Neuausrichtung des Unternehmens gering gehalten und zeitlich reduziert werden. Die Nutzung von Prozessvarianten und Geschäftsregeln ermöglicht es, zumindest Teile des Geschäftsprozesses variabel zu gestalten. Dies erhöht die Flexibilität des Geschäftsprozesses sowie des Unternehmens. Durch die enge Zusammenarbeit zwischen Geschäftspartnern, Unternehmen und Kunden hat die Flexibilität einen direkten Einfluss auf die Gestaltung der Geschäftsprozesse. Eine, aus heutiger Sicht, wirksame und zeitgerechte Methode für die Realisierung dieser Geschäftsprozesse ist SOA. Des Weiteren können insbesondere im Bereich der Forschung und Entwicklung agile Vorgehensweisen verwendet werden um auf sich ändernde Anforderungen flexibel zu reagieren. Die eingesetzten Methoden zur Erreichung der Flexibilität, z. B. SOA, sind nicht branchenspezifisch und unterscheiden sich nur geringfügig. Die angestrebten Ziele, die durch die Nutzung dieser Methoden verfolgt werden, sind jedoch je Branche unterschiedlich. Als Beispiel kann die Automobilindustrie herangezogen werden, welche insbesondere auf die Integration aller Geschäftspartner, entlang der Wertschöpfungskette, wert legt. Die Rolle, welche die Flexibilität innerhalb der Branchen einnimmt, ist jedoch anwendungs- und zielspezifisch. Durchgängig kann jedoch festgehalten werden, dass trotz unterschiedlicher Ziele, die IT-Unterstützung sowie die Mobilität in den drei genannten Branchen eine wichtige Rolle einnehmen und somit einen entscheidenden Beitrag zur Flexibilität leisten. Obwohl in diesen Branchen die gleichen Methoden zum Einsatz kommen, ist ein Vergleich aufgrund der unterschiedlichen Anforderungen und Zielsetzungen nur bedingt zu realisieren. Durch die Verwendung der vorgestellten Methoden und Ansätze kann der Grad an Flexibilität in den Unternehmen erhöht werden.



Trinks, Tobias;
Analyse und Optimierung von Integrationsprozessen mithilfe von Enterprise Integration Patterns. - 54 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Enterprise Integration Patterns werden als allgemeine Entwurfsmuster für Integrationen beschrieben. Ziel dieser Arbeit ist, das Optimierungspotential und die Erhöhung der Softwarequalität bei der Verwendung von Enterprise Integration Pattern in Integrationsprozessen nachzuweisen. Diese Verbesserung kann sich anhand von Optimalitätskriterien und Softwarequalitätsmerkmalen messen und vergleichen lassen. Es wurde zum Nachweis der Hypothese ein realer Integrationsprozess beschreiben und in der Modellierungssprache SAP BPM dargestellt. Im Weiteren wurde der Integrationsprozess auf Pattern analysiert und daraufhin die vorhandenen Pattern kurz beschrieben und erläutert. Weiterhin wurde der beschriebene Prozess als Designvorschlag neu modelliert und auch auf Pattern analysiert. Für eine Bewertung der Optimierung und Qualität wurden Softwarequalitätsmerkmale und Optimalitätskriterien aufgestellt. Anhand der beiden Analysen wurden die gewonnenen Erkenntnisse dann allgemein und im speziellen bewertet und daraus wurden Handlungsempfehlungen und Entwicklungsrichtlinien abgeleitet.



http://www.gbv.de/dms/ilmenau/abs/847021351trink.txt
Petri, Christian;
Flexible Geschäftsprozesse - Definition, State of the Art, existierende Ansätze. - 43 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Diese Bachelorarbeit beschreibt zunächst die veränderte Ausganssituation von Unternehmen und erläutert die Gründe des Wandels in einem dynamischen Umfeld. Die Begriffe Agilität und Flexibilität werden definiert und voneinander abgegrenzt. Als Grundlage wird die Flexibilität in einem System erläutert. Anschließend wird die Bedeutung von flexiblen Geschäftsprozessen beschrieben. Des Weiteren wird aufgezeigt, wie eine Flexibilisierung von Geschäftsprozessen erreicht werden kann und welche bestehenden Management-Konzepte dafür existieren. Abschließend wird auf moderne Informationstechnologie zur Unterstützung flexibler Geschäftsprozesse eingegangen.



Jattke, Matthias;
Entwurf und Prototypische Umsetzung eines Service-Katalogs am Beispiel der Öffentlichen Verwaltung. - 36 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

Die Welt wird digital. So einfach dieser Satz klingt, so viele Probleme bringt diese Entwicklung für IT-Dienstleister mit sich. Immer neue Wirtschaftszweige und Geschäftsprozesse werden durch moderne Informationstechnologien unterstützt und erschlossen. Neue Kunden bedeuten in diesem Zusammenhang immer auch einen zusätzlichen Aufwand bei der Umsetzung neuer Projekte. Arbeitsweisen und spezielle Anforderungen müssen herausgefunden und verinnerlicht werden. Zusätzlich ist es notwendig Entscheidungsträger in Kundenunternehmen zu identifizieren. Des Weiteren können neue Umgebungen auch zu geänderten gesetzlichen Regularien führen, welche eingehalten werden müssen. Dienstleister benötigen in dieser Situation die Fähigkeit, ihre angebotenen Produkte möglichst effektiv zu vertreiben und produktiv umzusetzen. Zur Verwaltung und geordneten Bereitstellung von IT-Dienstleistungen werden diese in zunehmendem Maße als Services verstanden. Dies bedeutet die Erbringung eines Mehrwerts für den Kunden, der über das Produkt hinaus Zusatznutzen für eben jenen generiert [ITIL V3]. Um Services zu strukturieren, werden so genannte Service-Kataloge genutzt. Diese sollen auf Seiten der Dienstleistungsnehmer einen Überblick über das Leistungsportfolio des Dienstleistungsgebers vermitteln und so die Auswahl der relevanten, benötigten Leistungen erleichtern. Auf Dienstleisterseite soll der Service-Katalog einen Überblick über alle zu einer angebotenen Leistung gehörenden Teilprozesse und Anforderungen geben. (DIN SPEC 33451, S. 3 und 5)



Harnisch, Ole;
Multikriterielle Optimierung von Produktionsprogrammen. - 61 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

Diese Arbeit befasst sich mit der Optimierung eines Maschinenbelegungsplans einer Werkstattfertigung durch einen Evolutionsstrategie-Algorithmus. Die Zielfunktion ist nach Kriterien, wie Termintreue, Durchlaufzeit, Maschinenauslastung und Minimierung der Bestände gewichtbar. Restriktionen im Domänenmodell sowie innerhalb der Veränderungsoperatoren verhindern Restriktionsverstöße. Eine harte Einschränkung wird zum Wohle der Diversität gelockert und die dadurch entstehenden Fehler werden durch eine Reparaturheuristik ausgeglichen. Beim Vergleich mit einem Multistart-Hill-Climber, bestätigt ein t-Test die Konkurrenzfähigkeit der implementierten Evolutionsstrategie.



Pütz, Dennis;
Anforderungen an einen CIO in der öffentlichen Verwaltung. - 40 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

Die vorliegende Arbeit beschäftigt sich mit einem Soll-Ist-Vergleich der Aufgabenfelder eines Chief Information Officer (CIO) in der öffentlichen Verwaltung (ÖV), sowie den Aufgaben die dem E-Government entspringen. Sie beschäftigt sich dabei konkret mit dem CIO in der ÖV auf Landesebene. Als Grundlage für die weitere Erkenntnisgewinnung, werden die Aufgabenfelder sowie das Arbeitsumfeld des CIO in der Privatwirtschaft (PRIV) herausgearbeitet. Daraufhin werden in einem zweiten Schritt auf dieselbe Weise die Aufgabenfelder und das Arbeitsumfeld des CIO in der ÖV herausgearbeitet. Zu beachten ist hierbei, dass die dargestellten Aufgabenfelder des CIO in der ÖV in diesem Abschnitt lediglich den Ist-Zustand repräsentieren, um diesen am Ende mit dem erarbeiteten Soll-Zustand vergleichen zu können. Im nächsten Kapitel werden zuerst die beiden Arbeitsumfelder der PRIV und der ÖV verglichen. Woraufhin, die Aufgabenfelder des CIO in der ÖV aus denen des CIO in der PRIV, unter Rücksichtnahme auf die erarbeiteten Unterschiede zwischen den Arbeitsumfeldern, abgeleitet werden. Abschließend wird in diesem Kapitel ein Soll-Ist-Vergleich der Aufgabenfelder eines CIO in der ÖV vorgenommen. Im letzten Kapitel sollen die Aufgaben und Tätigkeiten eines CIO in der ÖV, die sich aus den E-Government-Strategien ergeben, herausgearbeitet werden. Die gewonnen Erkenntnisse aus der vorliegenden Arbeit sind: 1. Aufgrund der unterschiedlichen Arbeitsumgebungen können nicht alle Aufgabenfelder aus der PRIV in die ÖV übernommen werden. 2. Viele CIO in der ÖV arbeiten nicht entsprechend des Soll-Zustandes. 3. Die Aufgaben des E-Government beschäftigen sich nur mit dem Aufgabenfeld der IT-Systementwicklung. 4. Die Befugnisse eines CIO in der PRIV sind grundlegend für dessen Arbeit, einem CIO in der ÖV müssen die Rechte ebenfalls gewährt werden. Dies ist aktuell noch nicht der Fall. In weiteren Forschungen muss geklärt werden, ob es Aufgaben für den CIO in der ÖV gibt, die weder der PRIV noch dem E-Government entspringen.



Heider, Jonas;
Flexibilisierung von Geschäftsprozessen in Unternehmen. - 39 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

Aufgrund der seit Jahren zunehmenden, komplexer werdenden und sich rapide wandelnden gesellschaftlichen und wirtschaftlichen Umweltsituationen ist der Unternehmenserfolg in zunehmender Masse von der Veränderungs- und Anpassungsfähigkeit des Unternehmens und deren IT abhängig. Durch einen Blick in die neuere Forschungsliteratur soll eine Systematisierung von Flexibilisierungsmaßnahmen erfolgen. Dabei wird deutlich, dass diese stets zwar unternehmensindividuell zu gestalten sind, dennoch soll auf dieser Basis ein grober Handlungsrahmen abgeleitet werden.



Rebhan, Felix;
Vorgehensmodelle zum strukturierten Entwurf hybrider Produkte. - 70 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

Die vorliegende Arbeit befasst sich mit Vorgehensmodellen zum strukturierten Entwurf hybrider Produkte. Nach Gudergan et al. (2011, S.1) sind hybride Produkte "eine komplexe Lösung, die aus einer integrierten Kombination aus Sach-und Dienstleistung besteht und auf die Bewältigung kundenspezifischer Probleme ausgerichtet ist." Die etablierten Entwicklungsmethoden für Sach- und Dienstleistungen genügen aber nicht dem Anspruch, um hybride Produkte zu entwickeln, da die verschiedenen Komponenten von Sach- und Dienstleistungen nicht aufeinander abgestimmt werden. Aus diesem Grund ist es notwendig, neuartige Vorgehensmodelle zu entwerfen, die eine integrierte Entwicklung zulassen. Deshalb wurden verschiedene Vorgehensmodelle zum Entwurf hybrider Produkte vorgestellt und anhand eines Vergleichsrahmens bewertet.



Brunner, Marc;
Kriterienkatalog zur Analyse und Auswertung etablierter Projektmanagement-Standards. - 60 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

Durch die steigende Relevanz des Themengebietes Projektmanagement sind eine Vielzahl von Projektmanagement-Standards entstanden. Projektmanagement umfasst ein komplexes Feld an Aufgaben zur Steuerung von Projekten. Durch etablierte und standardisierte Vorgehensweisen wird die Effizienz von Projekten vorangetrieben. Diese Arbeit stellt etablierte Projektmanagement-Standards vor und analysiert Kriterien, die zur Unterscheidung dienen. Eine Vergleichsmatrix stellt PRINCE2 von OGC (Office of Government Commerce), das PMBOK Guide von PMI (Projekt Management Institute) und die ICB 3.0 von IPMA (International Projekt Management Association) gegenüber. Basierend auf der Design Science Research-Methode, wird ein Kriterienkatalog zur Analyse und Auswertung der Projektmanagement-Standards entwickelt. Die anschließende Auswertung zeigt Relevanz und Gewichtung der Fragen und Antworten auf. Der Abschluss wird durch ein Fazit, sowie der kritischen Würdigung gebildet.



Francke, Matthias;
Moden und Trends in der Wirtschaftsinformatik - eine Literaturanalyse von 2001 bis 2014. - 52 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

Die Wirtschaftsinformatik (WI) entlehnt, als interdisziplinäre Wissenschaft, aktuelle Themen aus der Betriebswirtschaftslehre und Informatik. Aufgrund der oft nur kurzen intensiveren Betrachtung dieser Gebiete kamen Stimmen auf, welche sich kritisch über die Entwicklung der WI äußerten oder ihr sogar ihre Eigenständigkeit absprechen wollen. Durch eine statistische Auswertung der Publikationen jeweils zwei deutscher Zeitschriften und Tagungsbände sollen Moden und Trends der WI identifiziert werden und anhand dieser Aussagen zu Behauptungen getroffen werden.



Schatt, Maximilian;
Multidimensonale Auswertung von biomedizinischen Daten mittels OData. - 69 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

Der Einsatz von Webtechnologien ermöglicht die Entwicklung von plattformübergreifenden Anwendungen. Mithilfe des Open Data Protocol (OData) können Webanwendungen auf verschiedene Datenquellen zugreifen und dabei Funktionen zur Selektion und Einschränkung der Daten nutzen. Aufbauend auf einem Data Warehouse mit biomedizinischen Daten wird ein Prototyp zur multidimensionalen Auswertung von Daten entwickelt, anhand dessen Auswertungsmöglichkeiten des Open Data Protocol untersucht werden. Hierzu werden grundlegende Informationen zu Data Warehouse-Systemen und zum Open Data Protocol erarbeitet.



Englisch, Lucas;
Geschäftsprozessanalyse in der Produktentstehung: praktische Durchführung in Hinblick auf Prozessakzeptanz. - 97 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2015

Geschäftsprozesse durchlaufen verschiedene Phasen. Nach der Erstellung und Einführung müssen sie aktualisiert und kontrolliert werden. In der vorliegenden Arbeit wird ein Produktentstehungsprozess analysiert. Um eine strukturierte Vorgehensweise für die Planungstätigkeiten von neuen Produkten und Fertigungsprozessen festzulegen, sollen Prozessmodelle entwickelt und veröffentlicht werden. Diese geben den Mitarbeitern einen Leitfaden an die Hand und koordinieren die abteilungsübergreifende Zusammenarbeit. Die Analyse zeigt, dass die Akzeptanz von Geschäftsprozessen während ihrer gesamten Lebensdauer beeinflusst wird. Es können einige mögliche Ursachen angegeben werden, warum ein Geschäftsprozess von seinen Anwendern akzeptiert wird oder nicht. Diese könnten in ein allgemeines Modell der Prozessakzeptanz integriert werden.



Blumenstein, Marco;
Analyse von Kundenerwartungen an virtualisierte Beratungsdienstleistungen der Expertenberatung. - 64 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2014

Die vorliegende Arbeit befasst sich mit der Analyse von Kundenerwartungen an virtualisierte Beratungsdienstleistungen am Beispiel der Expertenberatung. Ziel dieser Analyse ist das Aufstellen von Qualitätskriterien virtualisierter Beratungsdienstleistungen. Hierzu wurde eine Literaturanalyse nach Webster/Watson (2002) durchgeführt, um bereits etablierte Qualitätskriterien im Bereich der traditionellen Beratungsleistungen und elektronischen Dienstleistungen zu ermitteln und diese in einem nächsten Schritt in den Kontext der Virtualisierung zu übertragen. Unter Einbezug der 'Process Virtualization Theory' nach Overby (2008) wurde das Thema der Virtualisierbarkeit von Beratungsleistungen behandelt. Aus dieser Analyse konnte ein vorläufiger Kriterienkatalog für Qualitätskriterien der virtuellen Beratungsleistungen erstellt werden. Dieser wurde nachfolgend im Rahmen einer Delphi-Studie, mit insgesamt 15 Experten in einer ersten und 11 Experten in der zweiten Befragungswelle, online evaluiert und weitere Erwartungshaltungen der Kunden erfragt. Ergebnis der Untersuchung ist ein evaluierter Kriterienkatalog mit insgesamt 15 Kriterien zur Beurteilung der Qualität virtualisierter Beratungsdienstleistungen. Der Grad der Virtualisierung einer Dienstleistung gibt dabei das Spektrum und die Relevanz dieser einzelnen Kriterien an. Aus dieser Erkenntnis und den Erwartungshaltungen der Kundenseite wurde schließlich eine Erfolgskette, in Anlehnung an Bruhn (2002), für virtualisierte Beratungsdienstleistung erstellt. Aus dieser wurden Handlungsempfehlungen und weitere Forschungszwecke im Bereich der Virtualisierung abgeleitet und diskutiert. Die Kundenerwartungen sind sehr kritisch zu betrachten und erfordern erste Praxisbeispiele um aussagefähige Prognosen treffen zu können. Die Unternehmensberatung wird aus diesem Grund weiterhin "People Business" bleiben und vorerst nicht ohne einen persönlichen Kontakt zwischen Berater und Klient auskommen.



Skouti, Marcel;
Simulation sozialer Phänomene durch agentenbasierte Simulation. - 38 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2014

Es wird dargestellt, wie soziale Phänome am besten simuliert werden können. Dabei werden Multiagentensysteme beschrieben und speziell auf die Multiagentensimulation eingegangen. Für weitere Untersuchungen wurden SeSAm, MASON und NetLogo miteinander verglichen. Aus diesen Erfahrungen wird abgeleitet, welche Informationen erhoben werden müssen, um die Grundlage für eine Simulation zu schaffen und wie diese Informationen abgebildet werden.



Rau, Rebecca;
Untersuchung zu Aktualisierungsmöglichkeiten von Prozessbeschreibungen in mittelständischen Dienstleistungsunternehmen. - 57 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2014

Diese Bachelorarbeit beschäftigt sich damit, die Wichtigkeit aktueller Prozessmodelle hervorzuheben und ein mögliches Vorgehen zu entwickeln Änderungen in Prozessabläufen im Unternehmen in die vorhandenen Prozessbeschreibungen einzupflegen. Dazu gehören die Untersuchung der Änderungs-/Anpassungsfreundlichkeit verschiedener Modellierungssprachen, die Motivation von Mitarbeitern, bei Feststellung von Arbeitsablaufänderungen, diese in das bestehende Prozessmodell einzupflegen oder zu melden, z.B. in Form bestimmter Anreizssysteme, sowie eine gute softwaretechnische Unterstützung, welche den Aktualisierungsvorgang weitestgehend unterstützt. Die Anwendbarkeit des entwickelten Vorgehens wird zum Schluss der Arbeit an einem gedachten Beispielprozess verdeutlicht.



Breitenstein, Emanuel;
Die sichere Einbindung mobiler Endgeräte in eine ressortweite Groupwareinfrastruktrur. - 42 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2014

Im Rahmen dieser Bachelorarbeit wird eine Lösung zur sicheren Einbindung mobiler Endgeräte in eine Unternehmensinfrastruktur am Beispiel der Bundesanstalt für IT-Dienstleistungen in Ilmenau konzipiert. Die Einbindung mobiler Endgeräte in eine zentrale Groupware bietet erhebliches Potential zur Steigerung der Effektivität und Effizienz in einer modernen Flächenverwaltung. Allerdings darf dabei die IT-Sicherheit und die geforderte Vertraulichkeit der Informationen nicht beeinträchtigt werden. Dafür wird nach einer Analyse der bestehenden Betriebssysteme, Sicherheitsanforderungen der Verwaltung und der Sicherheitsprobleme mobiler Endgeräte eine geeignete Lösungsarchitektur entwickelt und eine Managementlösung vorgestellt. Darüber hinaus erfolgt die Darstellung und Beschreibung der Prozesse des Lebenszyklus eines mobilen Endgeräts.



Krähmer, Johannes;
Testmanagement systemübergreifender Geschäftsprozesse - Integration in ein Produktivsystem. - 40 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2014

Die Zusammenführung betriebswirtschaftlicher Geschäftsprozessmodelle und deren technische Abbildung in einem System stellt Unternehmen immer wieder vor Herausforderungen. Die vorliegende Arbeit versucht die Frage nach einem allgemeinen Vorgehen für dieses Problem zu beantworten. In der Praxis angewendete Vorgehensmodelle geben hierfür Auskunft über eine geeignete Struktur und Aufbau. Aus diesen wurde das Vorgehensmodell abgeleitet. Das Vorgehensmodell wurde an Hand eines praktischen Anwendungsfalls getestet. Dieser zeigt, dass das Vorgehensmodell praktisch anwendbar ist. Um eine Allgemeingültigkeit nachzuweisen, bedarf es weiterer Praxistests. Weiterhin wurde in der Arbeit festgestellt, dass ARIS Business Architect for SAP in Verbindung mit dem SAP Solution Manager eine Möglichkeit bietet, die betriebswirtschaftlichen und technischen Prozesse zu verbinden. Die beiden Softwaresysteme sind über eine Schnittstelle miteinander zu verbinden und können anschließend synchronisiert werden. Die Funktionalität des Solution Managers bietet dabei vielfältige Möglichkeiten für die weitere Nutzung der abgebildeten Prozesse, welche in der Arbeit jedoch nicht herausgestellt wurden.



Truthän, Sebastian;
Diffusion von IT-Innovationen. - 50 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2014

"Getting a new idea adopted, even when it has obvious advantages, is often very difficult". Rogers (1995, S. 1) verdeutlicht mit diesem Zitat die Komplexität von Information Technology (IT) Innovationen im Kontext von Diffusion. Denn Innovation bedeutet nicht zwangsläufig, dass sie auch ein Entwicklungspotenzial nach sich sieht. Innovationen wurden in den vergangenen Dekaden weltweit zu einem immer wichtiger werdenden Faktor in der Unternehmenskultur. Das Thema der Verbreitung unterschiedlicher Ideen am Markt gilt als wichtig, da sich Unternehmen so von Mitbewerbern abheben, sowie eigene Arbeitsprozesse besser ausnutzen können. Damit ein adäquater Reifegrad entstehen kann, bedarf es jedoch einer Vielzahl unterschiedlichster Voraussetzungen. Vor diesem Hintergrund beschäftigt sich die vorliegende Bachelorarbeit mit den Ausführungen Rogers zur Diffusionstheorie und stellt ein Anwendungsbeispiel anhand zweier Innovationen der hhpberlin Ingenieure für Brandschutz GmbH dar. Ziel der Arbeit ist die Anwendung theoretischer Erkenntnisse auf die Praxis zur Entwicklung realistischer Handlungsempfehlungen, sodass eine Implementierung der beiden Technologien möglichst schnell erfolgen kann.



Ortlepp, Diana;
Erarbeitung eines Leitfadens zur Erfassung und Modellierung von Geschäftsprozessen durch Studierende der eigenen Institution. - 74 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2014

Das Geschäftsprozessmanagement kann die Organisation und die Verwaltung des Studiums im Hochschulbereich vereinfachen. Für diese Aufgabe werden komplexe Anwendungssysteme in der Verwaltung benötigt, bei deren Einführung bisher nur erfahrene Mitarbeiter des jeweiligen Softwareherstellers eingesetzt werden. Die vorliegende Arbeit beschäftigt sich mit dem Ansatz, Studierende der eigenen Institution die Phase der Erfassung und Modellierung der bestehenden Prozesse (Ist-Zustand) durchführen zu lassen. Bei den in der Literatur vorhandenen Modellen zum Geschäftsprozessmanagement steht jedoch die Sollprozessgestaltung im Vordergrund und daher wird die Isterfassung nicht tiefgründig genug betrachtet. Da die Isterfassung bei der vorliegenden Arbeit im Vordergrund steht, können die vorhandenen Vorgehensmodelle zur Planung und Realisierung eines solchen Projektes nicht unverändert übernommen werden. Die aus diesen Rahmenbedingungen abgeleitete Forschungsfrage lautet: Wie muss ein Vorgehensmodell aussehen, wenn die Studierenden der eigenen Institution die Ist-Prozesse erfassen und modellieren sollen? Ziele dieser Arbeit sind ein verallgemeinerter Leitfaden zur Einbindung der Studierenden bei der Erfassung und Modellierung von Prozessen in der Hochschullandschaft, sowie daraus abgeleitete Vorschläge zur Durchführung an der Technischen Universität Ilmenau.



Röhrig, Lucas;
Vergleich und Bewertung von Konzepten des Service Engineering zur Entwicklung IT-basierter Dienstleistungen in kleinen und mittleren Unternehmen. - 50 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2014

Die Arbeit schafft einen Überblick über die bestehenden Konzepte des Service Engineering. Dieser Überblick wird dazu verwendet ein sinnvolles Service Engineering Konzept zur Entwicklung IT-basierter Dienstleistungen in KMU anhand eines Kriterienkataloges auszuwählen.



Ritter, Stefan;
Variation und Akzeptanz betrieblicher Abläufe - eine qualitative Untersuchung. - 72 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2014

Die zunehmende Prozessorientierung hat sich in den letzten 20 Jahren zu einer Herausforderung in Unternehmen entwickelt. Aufgestellte Prozesse werden von Mitarbeiter jedoch häufig abgelehnt. Die Mitarbeiter weichen von Prozessvorgaben ab und entwickeln den für sich subjektiv und optimalen Prozessablauf. Diese Arbeit untersucht empirisch die Variation und Akzeptanz betrieblicher Abläufe. Mit aktuellen Wissenschaftsstand und einer verhaltenswissenschaftlichen Theorie (Theorie des geplanten Verhaltens) legt der Theorieteil der Arbeit eine Basis für die empirisch, qualitative Untersuchung. Die Ergebnisse der Arbeit zeigen zum einen Gründe auf, warum Prozesse abweichend durchgeführt werden. Zum anderen werden auch Gründe identifiziert, die aktiv dazu beitragen, dass Prozesse durchgeführt werden. Darüber hinaus werden Faktoren aufgedeckt, die zur Akzeptanz bzw. Ablehnung von Prozessen führen.



Pascoletti, Karl-Ludwig;
Der Akzeptanzbegriff in der Wirtschaftsinformatik. - 44 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2014

Diese Bachelorarbeit befasst sich mit dem Akzeptanzbegriff in der Wirtschaftsinformatik. Sie leitet den Begriff Akzeptanz her und verwendet ihn für die Wirtschaftsinformatik, um später diese Grundlagen auf verschiedene Akzeptanztheorien wie beispielsweise TRA, TPB und TAM anzuwenden.



Bartz, Clemens;
Datenmodellierung für ein biomedizinisches Proteomics Data-Warehouse am Beispiel des HighOmics-Projektes. - 41 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2013

Im HighOmics-Projekt soll zur Entscheidungsunterstützung beim Finden von Biomarkern ein Data-Warehouse-System eingesetzt werden. Diese Arbeit thematisiert die Auswahl eines im Kontext des Forschungsprojektes geeigneten Datenmodells. An Hand einer Beispielimplementierung wird ein Vorschlag erarbeitet, der durch projektrelevante Kennzahlen gestützt wird.



Meiner, Dominic;
Untersuchung von Agilitäts-Prinzipien am Beispiel der Veränderung einer Data-Warehouse-Architektur in einem mittelständischen Unternehmen. - 65 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2013

In der heutigen Zeit ist der Anpruch an IT-Anwendungslandschaften agil auf vorhersehbare und nicht vorhersehbare Änderungen reagieren zu können sehr hoch. Der Einfluss auf die IT Agilität kommt von der IT-Architektur, deren Organisationen, sowie dem IT-Management und Prozesse. Es besteht mittlerweile ein nahezu untrennbarer Zusammenhang von IT und Unternehmensagilität, der aus der IT-Unterstützung nahezu jeder Geschäftsprozesse resultiert. Für die analysegerechte Darstellung von Informationen haben sich im Bereich Business Intelligence Data-Warehouse-Systeme etabliert, welche Daten automatisiert aus verschiedenen Quellen extrahieren, transformieren und effizient bereitstellen. Die vorliegende Arbeit misst nun die Anwendbarkeit der auf einem Modell basierenden Agilitätsprinzipien auf ein abgegrenztes IT-Projekt zur Veränderung einer Data-Warehouse-Architektur.



Raßmann, Philipp;
Analyse der Möglichkeiten und Grenzen des Einsatzes von In-Memory-Datenmanagement zur Datenanalyse. - 50 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2013

Diese Bachelorarbeit soll die Möglichkeiten, aber auch die Grenzen des Einsatzes von In-Memory-Datenmanagement zur Datenanalyse in Unternehmen aufzeigen. Im ersten Teil dieser Arbeit werden die theoretischen Grundlagen zu den verschiedenen Datenbereitstellungsmöglichkeiten für Datenanalysen, vor allem Methoden und Techniken des In-Memory-Datenmanagement, beschrieben. - Der zweite Teil umfasst die prototypische Implementierung eines Datensatzes in eine SAP High Performance Analytic Appliance (HANA) Datenbank zum Zweck der Datenanalyse. Zum Vergleich erfolgt dasselbe Vorgehen in Verbindung mit einem Datawarehouse. Die Durchführung eines Business Case, welcher eine modellhafte Berechnung zur Investitionsentscheidung hinsichtlich des Erwerbs einer In-Memory-Appliance zur Datenanalyse umfasst, soll Informationen zur Machbarkeit des Einsatzes dieser neuen Technologie für Unternehmen verschiedener Größe liefern. - Hierbei wird deutlich, dass der sich der Einsatz einer In-Memory Appliance zur Daten-analyse für kleine Unternehmen derzeitig noch nicht lohnt, da die hierfür notwendigen Kosten den zu erzielenden Nutzen übersteigen. Unternehmen mittlerer Größe können beim richtigen Umgang mit der Hauptspeichertechnologie durch die gewonnene Zeit-einsparung während der Arbeit mit einer Datenanalyse einen monetär messbaren Vorteil erzielen. Großen Unternehmen bietet sich durch den Kauf eines solchen In-Memory-Technologie-Systems zum Zweck der Datenanalyse ein großes Potenzial für Wettbewerbsvorteile.



Jung, Dominik;
Analyse von IT-Service-Katalog-Strukturen zur Ableitung von Empfehlungen für eine generelle IT-Service-Katalog-Struktur. - 68 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2013

Durch die zunehmende Service-Orientierung, Modularisierung und Verteilung, sowohl auf Seite der IT-Leistungen, als auch der Fachbereiche (insbesondere bei Geschäftsprozessen), besteht sowohl für Unternehmen, als auch Service Provider, die Notwendigkeit, entsprechende Managementprozesse und Instrumente für die Verwaltung dieser modularen Einheiten vorzuhalten (Böhmann und Krcmar 2005, S. 45-83; Grawe und Fähnrich 2008, S. 281-283). Ein wichtiges und notwendiges Instrument dafür bilden "Service-Kataloge". In diesen werden die Services nach unterschiedlichen Kriterien beschrieben, geordnet und inventarisiert. Aufgabe der vorliegenden Arbeit ist es eine Gestaltungsempfehlung für die Strukturierung von IT-Service-Katalogen abzugeben. Hierzu wurden existierende Strukturen von IT-Service-Katalogen in Literatur und Praxis analysiert und beschrieben. Aus dieser Untersuchung konnten in einem zweiten Schritt Empfehlungen für die formale Beschreibung von IT-Service-Katalogen abgeleitet werden, dem im letzten Schritt die Darstellung eines entwickelten Modells folgte.



Creutzburg, Daniel;
Fachmodellierungsstandard (FaMoS) zur Beschreibung und Analyse kommunaler Geschäftsprozesse. - 38 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2013

Ziel dieser Bachelorarbeit ist es, die Notation und die Architektur des Fachmodellierungsstandards zu beschreiben und ihn anschließend mit anderen, ausgewählten Modellierungssprachen zu vergleichen. Es wird versucht, der Frage nach zu gehen, inwieweit dieser zusätzliche Ansatz (FaMoS) neue Erkenntnisse bringt oder lediglich zu weiteren Sprachverwirrungen bei der Modellierung kommunaler Prozesse führt, da bereits sehr viele Notationen auf dem Markt zur Verfügung stehen. Gibt es überhaupt einen Adressatenkreis für den FaMoS, der nicht bereits von anderen Modellierungsnotationen abgedeckt ist?



Reich, Ronny;
Maßnahmen, Methoden und Prozesse im Vorfeld der Implementierung ausführbarer Modelle (Generische Betrachtung von Abläufen in Simulationsvorgehensmodellen). - 61 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2013

Vergleichbar zur Domäne der Softwareentwicklung existieren Vorgehensmodelle, die den Anspruch haben, Komplexität und Vielschichtigkeit einer Simulationsstudie beherrschbarer machen zu wollen. Die Enzyklopädie der Wirtschaftsinformatik definiert Vorgehensmodelle in der Systementwicklung und im Softwareengineering als Beschreibung von "[...] Folgen bzw. Bündel von Aktivitäten, die zur Durchführung eines (IT)-Projekts erforderlich sind. Üblich ist eine Gliederung in Phasen, Arbeitsabschnitte und Aktivitätenblöcke, durch die der Entwicklungsprozess in planbare und kontrollierbare Einheiten zerlegt wird (Komplexitätsreduktion und Projektcontrolling)" (Breitner 2012). Unterschiedliche Autoren propagieren diverse Vorgehensmodelle. Diese lassen sich zum einen an der Anzahl und Bedeutung der einzelnen Phasen charakterisieren, andererseits bezüglich des Anwendungsbereiches. Idealtypisch werden dabei alle Phasen durchlaufen, wobei in der Praxis oft iterativ vorgegangen wird und auch Rücksprünge notwendig sein können. Meilensteine nach Abschluss einzelner Phasen sollen mögliche Risiken minimieren. Allen Vorgehensmodellen ist ihr schrittweise erfolgender Weg von der Problemstellung zum Ergebnis gemeinsam. Keinesfalls despektierlich gemeint, existieren für nahezu jedweden Anwendungszweck Vorgehensmodelle. Mein Beitrag soll es sein, anerkannte Vertreter für den Anwendungsbereich der Simulation zu identifizieren, sowie Gemeinsamkeiten und Unterschiede festzustellen. Dabei sollen möglichst losgelöst vom Vorgehensmodellgedanken Arbeitsabläufe erörtert werden, welche innerhalb eines Maßnahmenkatalogs generisch bei möglichst vielen Simulationsmodellen Anwendung finden sollten, um ein Höchstmaß an Effizienz und Qualität in den ersten Phasen der Vorbereitung von Simulationsstudien zu erlangen. In dieser Arbeit wurde die Simulation als Vorgehensweise zur Untersuchung von Systemen näher betrachtet. Insbesondere war der Anspruch, einen Maßnahmenkatalog mit generischen Tätigkeiten im Vorfeld jeglicher Simulationsstudien zu erstellen. Nach der Schaffung eines gemeinsamen Theoriegerüstes, wurde ein Artefakt - das Konzeptmodell - näher charakterisiert, da diesem in Vorgehensmodellen eine herausgehobene Stellung zusteht. Nachlässigkeiten in diesem Schritt, wirken sich nachhaltig auf das fortschreitende Simulationsprojekt aus. In Kapitel 3 wurden drei anerkannte Simulationsvorgehensmodelle vorgestellt und charakterisiert. Die Erläuterungen der "sieben Todsünden der Simulation" nach Liebl in Kapitel 4, legten allgemeine Schwachpunkte aus der Praxis dar. In der Nachbetrachtung konnte dem Ziel eines generischen Maßnahmenkataloges für jegliche Simulationsstudien nicht entsprochen werden. Wie in Kapitel 4.2 mit der zugrunde liegenden Expertendiskussion dargelegt wurde, lassen sich keine generischen Maßnahmen definieren, welche bei jedem Simulationsprojekt angewendet werden könnten. Lediglich die grundlegenden Phasen, wie in Kapitel 3.4 geschildert, ließen eine sehr grobgranulare Beschreibung einer Vorgehensweise zu. Aus praxisrelevanter Sicht, ist ein Vorgehen zu empfehlen, welches sich an einem einfach strukturierten Lebenszyklusmodell orientiert und unternehmensspezifische Methoden und Maßnahmen integriert. Einen Ansatz dazu liefert Wenzel in (Wenzel 2008). Als Ausgangspunkt dient ihr das erweiterte Vorgehensmodell nach Rabe (Kapitel 3.3), für dessen einzelne Phasen und Artefakte sie dreizehn Checklisten vorschlägt, die stark operativ unterstützen sollen (Wenzel 2008, S. 187-213). Beginnend mit "Projektvorbereitung auf Auftraggeberseite" über "Kick-off-Meeting" bis zur "Nachnutzung", stellt Wenzel übersichtliche Anleitungen zur Verfügung. Grundlage ihrer Handlungsweise ist die Erhöhung von Qualität in Simulationsprojekten. Eine neben der Konzeptmodellentwicklung gleichfalls nicht zu unterschätzende Herausforderung, konnte in dieser Arbeit nicht hinreichend untersucht werden. Die Datenbeschaffung bzw. Datenaufbereitung. Der Sonderforschungsbereich 559, der Universität Dortmund, entwickelte ein Vorgehensmodell zur Informationsgewinnung. Diese in Zusammenarbeit mit Wenzel und Rabe entwickelte Vorgehensweise, stellt die Informationsgewinnung und nicht die Datengewinnung in den Vordergrund. Dabei setzen sie an der getrennten Behandlung von Modell und Daten im Vorgehensmodell nach Rabe an und propagieren ein prozessorientiertes Vorgehen. Die Beschreibung der Prozesse kann in (Bernhard et al. 2007, S. 1-23) bzw. als Webpräsens (SFB 559 Teilprojekt M9 2007) näher erörtert werden. Die künftigen Betätigungsfelder, der methodischen Unterstützung von Simulationsstudien, könnten sich in Richtung Assistenzsysteme entwickeln. Erste Ansätze liefert das Projekt AssistSim. Ausgehend von bestehenden Arbeiten zur checklistenbasierten Unterstützung der Datenbeschaffung und der Modellbildung, soll eine webbasierter Prototyp entwickelt werden, welcher Expertenwissen aus bereits abgeschlossenen Simulationsstudien integriert (Bockel et al. 2010). Das Programm, der im Dezember erstmalig in Deutschland stattfindenden Winter Simulation Conference, weist einige Schwerpunkte im Bereich der methodischen Unterstützung von Simulationsstudien aus und biete weitere Ausblicke künftiger Entwicklungen. (Winter Simulation Conference 2012 Berlin)



Schröck, Anja;
Entwicklung eines Kennzahlenkatalogs für Beschaffungs- und Vertriebsprozesse im Automobil-Bereich und prototypische Evaluierung mit Hilfe eines Analysetools. - 76 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2013

Im Rahmen der Bachelorarbeit wurden aus der Literatur typische Kennzahlen für den Vertriebs- und Einkaufsbereich eines Unternehmens ermittelt. Um die Kennzahlen im Unternehmen nutzbringend anwenden zu können, müssen diese bestimmte allgemeine Anforderungen erfüllen. Aus den allgemeinen Anforderungen wurden die für den Automotive-Bereich besonders wichtigen ausgewählt und gewichtet. Kennzahlen, die speziell in dieser Branche zur Anwendung kommen sollen, müssen diese Anforderungen erfüllen. Die Eignung der Kennzahlen wurde im Rahmen der Arbeit überprüft und ein Vorschlag für einen Kennzahlenkatalog speziell für den Automotive-Bereich entwickelt. Anschließend wurde die Umsetzbarkeit dieses Kennzahlenkatalogs durch eine Konzeption und eine prototypische Implementierung im SAP ERP® bewiesen. Durch eine folgende Auswertung fiktiver Unternehmensdaten konnte der Aussagegehalt der Kennzahlen überprüft und Interpretationsmöglichkeiten in Bezug auf die Automotive-Branche gegeben werden. Während der gesamten Ausführungen wurde der Bezug zu automotive-spezifischen Prozessen wiederholt verdeutlicht. Der entstandene Kennzahlenkatalog kann aber auch ohne SAP ERP® Anbindung verwendet werden. Die Umsetzung der Kennzahlen in anderen Data Warehouse und ERP Systemen muss dabei geprüft werden.



Kausch, Andreas;
IT-Systeme und Software-Anwendungen zur Umsetzung von IT Service Management. - 55 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

ITIL (Information Technology Infrastructure Library) soll dazu beitragen, dass die komplexen IT-Prozesse für ein Unternehmen durch Standards einfacher umsetzbar sind und soll dem IT-Personal auf dem Weg zum besseren Verständnis, der durch den technischen Fortschritt neueren Datenverarbeitungs- bzw. IT-Systeme begleiten. Das Hauptziel dieser Bachelorarbeit ist es, einen objektiven Vergleich zwischen Anwendungen und Systemen nach festgelegten Kriterien zu ermöglichen. Zudem soll ein Marktüberblick über bestehende Anwendungssysteme gegeben und erarbeitet werden, welche die Anforderungen nach ITIL umsetzen bzw. unterstützen.



Herold, Christian;
Prozessanalyse. - 60 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

IIm ersten Kapitel erhält der Leser eine Einführung in das Thema "Entflechtung der Energiewirtschaft" und wird hierfür sensibilisiert. Es werden gesetzliche Vorschriften, wie auch die Notwendigkeit des EDV-Einsatzes herausgestellt. Im zweiten Kapitel erhält der Leser einen grundlegenden Einblick in das Geschäftsprozessmanagement und die neuen Marktrollen im liberalisierten Strommarkt. Weiterhin wird in diesem Kapitel auf die Anforderungen an eine qualitative Datenerhebung eingegangen. Einen tieferen Einblick in die neuen gesetzlichen Vorschriften und die notwendigen Prozesse, die aus der Entflechtung hervorgehen, enthält das dritte Kapitel. Die Prozesse werden hierbei grafisch anhand von Ereignisgesteuerten Prozessketten (EPK) erläutert. Außerdem gibt dieses Kapitel einen Einblick in die Herausforderungen, die sich aus dem Datenaustausch zwischen Netzbetreiber und Vertriebsgesellschaften, den Lieferanten, ergeben. Weiterhin werden in diesem Kapitel die unternehmensübergreifenden Prozesse der Rechnungseingangsprüfung, die sich für die Lieferanten aus der Entflechtung des Energiemarktes ergeben behandelt. Es werden allgemeine Teilprozesse identifiziert und näher betrachtet. Zum Abschluss des Kapitels wird ein Einblick in den bisherigen Stand der aktuellen IT-Umsetzung gegeben. Hierbei wird auf die versorgungsspartenübergreifende Standardlösung der SAP AG, Industry Solutions for Utilities (IS-U), eingegangen. Im vierten Kapitel wird versucht mittels einer stichprobenartigen Befragung von Lieferanten herauszufinden inwiefern die zuvor ermittelten Sollprozesse tatsächlich in der Rechnungseingangsprüfung zum Einsatz kommen. Hierbei werden die Antworten aus dem Fragebogen der Stichprobenbefragung gezielt ausgewertet und interpretiert. Das fünfte Kapitel untersucht die herausgestellten Lösungen auf ihr Optimierung- & Realisierungspotential hin. Das sechste Kapitel schließt die Arbeit ab und gibt einen Ausblick auf weitere Entwicklungspotentiale und den politischen Einfluss, der bei einem sensiblen Thema wie der Versorgung einer Volkswirtschaft mit Energie ständig gegeben ist.



Gollhardt, Torsten;
Anforderungen verschiedener Normen an integrierte Managementsysteme - Gemeinsamkeiten und Unterschiede ausgewählter Normen als Grundlage eines ganzheitlich integrierten Managementsystems. - 47 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

In dieser Bachelorarbeit werden die Anforderungen verschiedener Normen an deren beschriebene Managementsysteme auf Analogien und Abweichungen untereinander untersucht, um so eine Grundlage für eine mögliche Integration dieser zu ermöglichen. Das thematische Spektrum beinhaltet Risikomanagement, Qualitätsmanagement, Umweltschutz, Arbeitsschutz und Anlagensicherheit sowie Informationssicherheit. Nach einer kurzen Einleitung, in der die Thematik, die sich daraus ergebenen Problemstellungen und die konkrete Auswahl der Normen erläutert werden, soll im zweiten Kapitel der Begriff des integrierten Managementsystems definiert werden. Auf Basis dessen werden im dritten Kapitel die ausgewählten Normen auf Anforderungen an die jeweiligen Managementsysteme überprüft. Zuvor werden zu jedem Themengebiet die wesentlichen Aspekte erklärt, um eine einheitliche Begriffsgrundlage zu schaffen. Das vierte Kapitel beinhaltet einen Vergleich der Normen aus dem vorhergehenden Kapitel. Dazu werden Gemeinsamkeiten und Unterschiede sowie die Folgen für die ganzheitliche Integration erläutert. Diese systematische Analyse war Grundlage für eine Umsetzung in DHC VISION 5.0 der DHC Business Solutions GmbH & Co. KG, in dessen Umfeld diese Bachelorarbeit entstand. Im fünften Kapitel wird zunächst die Fachspezifikation erläutert und danach beschrieben, wie dieses System in der DHC VISION 5.0 realisiert wurde. Abschluss der Arbeit bilden sowohl das Fazit mit einer kritischen Würdigung der Ergebnisse und einem Ausblick, inwiefern die Ergebnisse weiterhin genutzt werden können, als auch verschiedene Resultate der technischen Umsetzung in DHC VISION 5.0, welche der Bachelorarbeit angehangen sind. Als Ergebnis lässt sich feststellen, dass sich die Normen mit einer Tendenz zur Analogie mittels diverser Revisionen entwickelt haben. Die ausgewählten Normen bieten an einigen Stellen Freiraum und Empfehlungen für die Integration in ein ganzheitliches Managementsystem. Insofern ist es unter gegebenen Umständen möglich, die Managementsysteme in einem ganzheitlichen Managementsystem umzusetzen und dennoch den Anforderungen konform zu bleiben.



Szillat, Kristof;
Geschäftsprozessmanagement und Benchmarking in Akutkrankenhäusern. - 36 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

Diese Arbeit umfasst die Untersuchung der Geschäftsprozesse und des Ansatzes des Geschäftsprozessmanagements im Gesundheitssektor, speziell im Akutkrankenhaus. Dabei wird darauf abgezielt, die vorhandenen Methoden und das bereits erprobte Wissen der Wirtschaftsinformatik im Bereich Krankenhaus einzusetzen. Entsprechend der vorhandenen Methoden in der Wirtschaftsinformatik können die in der Arbeit gesetzten Schwerpunkte Ansatzpunkte für weitere vertiefende Arbeiten und in der Praxis überprüfbare Studien sein. Entsprechend der Daten des statistischen Bundesamts lassen sich die Gesundheitsausgaben in Deutschland im Jahr 2010 auf 287,3 Milliarden Euro beziffern. Im Vergleich zum Jahr 2009 ist dies ein Zuwachs von 8,9 Milliarden Euro bzw. relativ 3,2%. Der Zuwachs entspricht damit in etwa dem durchschnittlichen jährlichen Zuwachs seit dem Jahr 2000 von 3% pro Jahr. Damit ergibt sich ein Anteil der Gesundheitsausgaben an dem Bruttoinlandsprodukts von 11,6%. Diese Informationen sind der Anlass für das Thema der vorliegenden Bachelorarbeit: "Geschäftsprozessmanagement und Benchmarking in Akutkrankenhäusern". Seit mehreren Jahren wird versucht die ansteigenden Ausgaben im Gesundheitssektor zu stabilisieren. Dazu gab es eine Vielzahl von Veränderungen der Gesetze und die Einführung des DRG-Systems. Nach der Einleitung werden die Grundlagen für die folgenden Kapitel gelegt. Ziel ist es dabei, Klarheit über die Begriffe Geschäftsprozessmanagement (GPM), Benchmarking und Akutkrankenhaus zu schaffen. In Kapitel drei werden GPM-Konzepte im Bezug zum Krankenhaus betrachtet und es wird dargestellt wie ein Durchlauf der einzelnen Phasen aussieht. Dies wird in den drei Phasen Vorbereitung, Definition und Betrieb abgehandelt. Abschließend wird das Ergebnis des Durchlaufs im gleichen Kapitel abgebildet. Im darauf folgenden Kapitel geht es um verschiedene Aspekte (Finanzen, Kunden, Prozesse, Ressourcen, Kompetenzen), die im Zusammenhang zum Benchmarking eine Rolle spielen, und deren Verknüpfungen untereinander. Dabei wird das Konzept der Finanz-, Leistungs- und Qualitätskennzahlen vorgestellt. Im letzten Kapitel werden die gewonnenen Resultate übersichtlich dargestellt und ausgewertet, sowie ein Ausblick und Ansatzpunkte für weitere Arbeiten gegeben.



Paulik, Heiko;
Die Ökonomie des Cloud Computing - eine Untersuchung aus betriebswirtschaftlicher Sicht. - 72 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2012

Cloud Computing eine neue Form des Outsourcings, die 2006 erstmalig erwähnt wird. Die historische Herleitung in dieser Arbeit zeigt, dass Cloud Computing keine Neuentwicklung ist, sondern ein Ergebnis aus bestehenden Technologien und Services. Die Forschungsfrage "Was ist Cloud Computing?" kann mit einer NIST Definition über Cloud Computing erläutert werden. Es werden Service- und Liefermodelle vorgestellt, die diese Definition beinhaltet. Der Begriff Ökonomie wird näher erläutert und es findet eine Differenzierung des Begriffes in die Volkswirtschaft und in die Betriebswirtschaft statt. Darauf folgend wird der Begriff Erfolgsfaktor erläutert. Des Weiteren wird ein Kriterienkatalog für die Nachfrager- und Anbieter-Seite vorgestellt. Die dort gelisteten Erfolgsfaktoren haben als Auswahlkriterium eine mögliche positive Einwirkung durch Cloud Computing. Ein dazu benötigter Vergleich wird zwischen einer On Premise Lösung und dem Cloud Computing durchgeführt. Nach den Erläuterungen der Einwirkungen des Cloud Computing auf die Erfolgsfaktoren, werden die Ergebnisse anhand einer Fallstudie an einem Softwareunternehmen evaluiert. Dabei wird festgestellt, dass die gewählten Erfolgsfaktoren bei der Nutzung von Cloud Computing zum Großteil in dem Unternehmen wiederzufinden sind. Auch die Ergebnisse zu den beschrieben Einflüssen werden mit der Fallstudie bestätigt und teilweise erweitert, wie beispielsweise der Einfluss auf den Erfolgsfaktor Sicherheit durch Zertifizierungen des Cloud Computing Anbieters. Bei der Evaluierung wird jedoch nicht direkt auf die Erfolgsfaktoren aus finanzieller Sicht eingegangen, da hierfür ein in der Arbeit vorgestellter Total Costs of Ownership Vergleich nötig ist.



Koch, Stefanie;
Individueninteraktion in Organisationen - vergleichende Literaturstudie und Modellsuche. - 59 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2012

Wie können Interaktionen von Individuen in Organisationen erfasst werden? Gibt es Modelle, die dies vereinfacht darstellen? Existieren gegebenenfalls allgemeingültige Modelle für Organisationen? Damit beschäftigt sich die vorliegende Bachelorarbeit. Es sollen Modelle dargelegt werden, die die Simulation von Organisationen auf Individuenebene zulassen. Dabei handelt es sich um Modelle, die bereits aufgestellt wurden. Problem hierbei ist, dass diese Modelle in unterschiedlichen Literaturen zu finden sind und die Bachelorarbeit dazu dienen soll, eine Übersicht der Modelle zu geben. Da das Thema der Individueninteraktion ein sehr komplexes und weitgreifendes Thema ist, wurden in dieser Arbeit nur für den Verfasser relevante Modelle aufgegriffen. Mit dem Thema der Simulation einer Organisation wird sich in der Literatur noch nicht so lange beschäftigt. Auch das Thema der Emotionen in Organisationen, das mit Individueninteraktion einhergeht, ist ein Kapitel, das viele Jahre in den vorherrschenden Literaturen ausgeklammert wurde, da das Geschehen in Organisationen eher als rational eingeordnet wurde. Als wesentliche Interaktionsformen werden Emotionen sowie Kommunikation und deren beider Auswirkungen auf die Individuen untersucht.



Franke, Christoph;
Wirtschaftlichkeitsanalyse bei der Einführung einer Service-orientierten Architektur in der öffentlichen Verwaltung. - Online-Ressource (PDF: XXV, 52 S., 4,38 MB) Ilmenau : Techn. Univ., Bachelorarbeit, 2012

Wirtschaftlichkeitsanalysen spielen im Rahmen des Entscheidungsfindungsprozesses in der öffentlichen Verwaltung eine entscheidende Rolle. Das Bundesministerium des Inneren stellt mit der WiBe 4.1 eine Richtlinie zur Durchführung einer Wirtschaftlichkeitsbetrachtung für geplante IT-Projekte im öffentlichen Sektor bereit. Zentraler Bestandteil ist dabei der allgemeine Kriterienkatalog der WiBe 4.1, der alle wesentlichen Bewertungskriterien beinhaltet. An Hand der Einführung einer Service-orientierten Architektur wird der generelle Kriterienkatalog der WiBe 4.1 in dieser Arbeit konkretisiert und an die speziellen Anforderungen einer Service-orientierten Architektur angepasst. Die Arbeit erläutert außerdem beispielhaft alle relevanten Berechnungsverfahren für die Durchführung einer Wirtschaftlichkeitsbetrachtung unter Berücksichtigung der WiBe 4.1.


http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2012200156

Blechschmidt, Christian;
Messung des IT-Wertbeitrags zum Unternehmenserfolg - State-of-the-Art mit Darstellungen an N3 Engine Overhaul Services GmbH & Co. KG. - 67 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

Die meisten Unternehmen wären ohne Informationstechnologie (IT) nicht wettbewerbsfähig. Dessen ungeachtet wird die IT nicht als Wertreiber, sondern als Kostenfaktor angesehen. Um das Budget der IT gegenüber der Geschäftsleitung zu rechtfertigen und das Verständnis der Geschäftsleitung und der Fachbereiche für den Einsatz von IT zu erhöhen, ergibt sich die Notwendigkeit den Wertbeitrag der IT zum Unternehmenserfolg transparent darzustellen und zu kommunizieren. Die Schwierigkeit dies zu tun liegt u. a. am "Produktivitätsparadoxon der IT". Dieses besagt, dass durch das Tätigen von IT-Investitionen nicht mit festen monetären Rückflüssen gerechnet werden kann. Ferner ist die ganzheitliche Ermittlung des Beitrags zur Steigerung von qualitativen Faktoren, bspw. Kundenzufriedenheit, Umweltbewusstsein oder Qualität der Geschäftsprozesse, bei IT-Investitionen als noch schwieriger anzusehen, da der Einfluss der IT auf diese Faktoren oftmals nicht exakt oder nur subjektiv erfassbar ist. Das Ziel dieser Arbeit ist es, einen aktuellen Stand von Methoden zur Messung des IT-Wertbeitrags zum Unternehmenserfolg darzustellen. Dies erfolgt durch eine Auflistung von recherchierten Ansätzen zur Messung des IT-Wertbeitrags zum Unternehmenserfolg mit weiterführenden Literaturquellen. Um sich aber intensiv mit einzelnen Methoden zu beschäftigen, beschränkt sich diese Arbeit bei der näheren Beschreibung auf eine geringe Methodenauswahl. Zu den ausgewählten Methoden gehört die Vorstellung der Kennzahl Total Cost of Ownership, der Einsatz der Balanced Scorecard in der IT und die Anwendung der Methode des Business Case auf IT-Projekte. Darüber hinaus erfolgt eine kritische Würdigung, auf Grundlage eines Kriterienkatalogs, dieser beschriebenen Verfahren. Mithilfe der entwickelten Fallstudie zu N3 Engine Overhaul Services GmbH & Co KG sollen Handlungsempfehlungen zum Einsatz von Methoden zur Messung des IT-Wertbeitrags aufgezeigt werden.



Schmidt, Johannes;
Entwurf und Konzeption einer servicebasierten Automationsapplikation. - 45 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2012

Die vorliegende Arbeit hatte die Aufgabenstellung, eine Automationsapplikation zur Bereitstellung verschiedener Services zu entwerfen. Ziel war es, ein möglichst vielseitig einsetzbares Modell zu erstellen. Ausgehend von einem bereits bestehendem System, wurde zunächst eine Ist-Analyse durchgeführt um spätere Vergleiche zu ermöglichen. Darauf folgend wurden mögliche einsetzbare Technologien vorgestellt, sowie deren Stärken und Schwächen analysiert. Unter der Maßgabe des zu erfüllenden Zwecks wurde anschließend eine umfassende Anforderungsanalyse durchgeführt, welche sowohl funktionale als auch nicht-funktionale Anforderungen berücksichtigt. Anhand der Ergebnisse konnte im letzten Kapitel dann der Entwurf gestaltet werden, auch eine Betrachtung verschiedener Plattformen wurde durchgeführt.



Fritsch, Andreas;
Erweiterung eines Simulationsmodells für künstliche Gesellschaften im Simulationstool "Repast Simphony". - 56 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2012

Es wird ein bekanntes agentenbasiertes Modell einer künstlichen Gesellschaft (Sugarscape von Epstein und Axtell) vorgestellt und inhaltlich weiterentwickelt. Innerhalb des erweiterten Modells wird untersucht, welche Auswirkungen unterschiedliche Formen von Kooperation auf den Wohlstand der künstlichen Gesellschaft haben. Das Modell lässt sich damit genauer den "Agent-Based Computational Economics" zuordnen. Auch kann eine Verwandtschaft zu anderen spieltheoretischen und agentenbasierten Modellen festgestellt werden. Die Indikatoren anhand derer der Wohlstand gemessen wird sind (1) Gesamtwohlstand je Zeitschritt und (2) Wohlstandsverteilung je Zeitschritt, wobei der Gini-Koeffizient zum Einsatz kommt. Die Behandlung der Forschungsfragen wird zeigen, dass auch ein weiterer Indikator Aussagen über den Wohlstand einer künstlichen Forschungsfrage erlaubt: (3) die Anzahl der ersetzten ("sterbenden") Agenten insgesamt und je Zeitschritt. Zu diesem Zweck werden zunächst unterschiedliche Arten von Kooperation und darauf aufbauend der kooperative, sowie der unkooperative Agent definiert. Das vorgestellte Modell wurde in Repast Simphony mit dem Ziel entwickelt, eine gute Erweiterbarkeit bzw. Modifizierbarkeit im Sinne wirtschaftswissenschaftlicher Fragestellungen zu gewährleisten. Dies wird im Zuge der Definition von Wohlstand und Kooperation im Modell demonstriert. Weiterhin werden Stärken und Schwächen der agentenbasierten Modellierung als wirtschaftswissenschaftliches Werkzeug beleuchtet.



Kuntzsch, Manja;
Psychologie in der Wirtschaftsinformatik - Analyse von Einflussfaktoren auf die Akzeptanz und das Nutzungsverhalten von Standardsoftware am Beispiel von ERP-Systemen. - 70 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

Forschungsergebnisse, die psychologische Aspekte der Nutzerakzeptanz im Zusammenhang mit Informationssystemen berücksichtigen, sind selten zu finden, obwohl dies in Hinblick auf erfolgreiche Softwareeinführungen notwendig wäre. Gibt es also Möglichkeiten, Systeme so zu gestalten, dass sie nicht nur intuitiv bedienbar sind, sondern auch für den Menschen effizient erscheinen? Welche Aspekte müssen betrachtet werden, um das Zusammenspiel zwischen Mensch, der zu lösenden Aufgaben im Unternehmen und dem System in Hinblick auf die Einführung von ERP-Systemen sinnvoll zu gestalten? Dieser Frage soll diese Arbeit nachgehen und sich mit den Entwicklungen und dem aktuellen Stand der Forschung im Bereich Psychologie und Wirtschaftsinformatik in Bezug auf die Nutzung von Anwendungssystemen beschäftigen. Dafür werden Kenntnisse und Modelle aus der Psychologie und der Wirtschaftsinformatik analysiert und gemeinsam betrachtet. Es wurden einige Theorien ausgewählt, die die Faktoren analysieren, welche sich maßgeblich auf das Verhalten des Menschen auswirken und dieses auch beeinflussen können. Es werden dabei die wesentlichen theoretischen Grundlagen erläutert und Bezug auf wichtige Theorien genommen, die sich in Forschung und Praxis hinreichend bewährt haben und theoretisch sowie praktisch validiert wurden. Diese Theorien werden danach auf ihren Einfluss bei der Einführung und Verwendung von ERP-Systemen untersucht. Aktuelle Forschungsansätze in Bezug auf die Entwicklung neuer Modelle und Theorien werden in die Arbeit einbezogen und damit auch der aktuelle Stand der Forschung wiedergegeben. Über diese Arbeit sollen Lücken in der Forschung aufgezeigt und Ansätze zu neuen Lösungsmöglichkeiten gefunden werden. Diese Arbeit liefert auf Grund der Limitation im Umfang keine ausführliche Neuentwicklung eines Modells und dessen Verifikation, sondern soll umfangreiche Hinweise auf die richtige Einordnung der Problematik in Hinblick auf die Neuentwicklung eines ERP-basierten Modells geben.



Fischer, Miriam;
Gestaltung von Geschäftsprozessen auf Grundlage der Zielsetzungstheorie. - 52 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

Insbesondere in Zeiten einer "Wirtschaftskrise" sehen sich Unternehmen mit ständig ändernden Bedingungen und Anforderungen konfrontiert. Neben den evtl. durch die sogenannte Wirtschaftskrise auftretenden Problemen sollen insbesondere betriebsinterne vermieden werden. Hinsichtlich der Arbeitsmotivation kann möglicherweise die Zielsetzungstheorie zum Einsatz kommen. Daher soll in der nachfolgenden Arbeit die These "Die Zielsetzungstheorie ist eine geeignete theoretische Grundlage für die Gestaltung von Geschäftsprozessen" untersucht werden. Seit langer Zeit beschäftigen sich Menschen mit der Frage, ob sich durch die Setzung von Zielen das menschliche Handeln beeinflussen lässt. Beispiele hierfür finden sich schon in der Antike, zu Beginn dieses Jahrhunderts in Arbeiten zur Willenspsychologie sowie in Publikationen von Lewin hinsichtlich des Anspruchsniveaus und Verpflichtungen. (Bungard 2002, S. 18) Der Ansatz des "Management by Objectives", präsentiert durch Peter Drucker im Jahr 1954, stellt für die heutige Forschung einen wesentlichen Meilenstein dar. Nach diesem Ansatz sind die von Führungskräften vorgegebenen Ziele von "zentraler Bedeutung für erfolgreiches Wirtschaften" (Bungard 2002, S. 18). Später beschäftigten sich Edwin A. Locke und Gary P. Latham mit diesem Thema und veröffentlichten ein Buch namens "A Theory of Goal Setting and Task Performance", das den Grundstein der heutigen Zielsetzungstheorie bildet. Auf die darin dargestellten Theorien wird sich unter anderem in dieser Arbeit bezogen. Bis in die heutige Zeit wird dieses Thema immer wieder aufgegriffen. Nach wie vor gilt es, die Mitarbeiter durch Ziele so zu beeinflussen, dass ein möglichst gutes (wirtschaftliches) Ergebnis am Ende steht. Daher ist es interessant zu betrachten, ob sich anhand der Theorie eine Empfehlung für die Gestaltung der Geschäftsprozesse ableiten lässt. Im Rahmen der Arbeit wird auf die Forschungsfrage: "Können anhand der Zielsetzungstheorie nach Latham und Locke Empfehlungen zur Gestaltung von Geschäftsprozessen abgeleitet werden?" eingegangen und ein möglicher Zusammenhang untersucht. Der Einstieg in die Theorie erfolgt anhand der Erklärung einiger Grundbegriffe. Darauf folgend wird die Zielsetzungstheorie mit Hilfe des High Performance Cycle näher erläutert. Im Anschluss daran folgt der Versuch der Übertragung der Erkenntnisse auf das Geschäftsprozessmanagement.



Hildebrandt, Marian;
Cloud Computing - Integration von On-Demand Services am Beispiel von SAP Business by Design und Salesforce.com. - 40 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2012

Die wohl wichtigsten Ressourcen eines Unternehmens sind Informationen. Obwohl die Softwarelandschaft größtenteils durch umfangreiche ERP-Lösungen geprägt ist, existieren Software-Produkte für spezialisierte Bereiche wie Personalmanagement oder Customer Relationship Management. Somit kann es für die Unternehmen problematisch sein, die geeigneten Informationen zum richtigen Zeitpunkt an der richtigen Stelle bereitzustellen. Datenintegration bietet eine Möglichkeit, alle in einem Geschäftsprozess benötigten Daten einheitlich an einer zentralen Stelle zusammenzuführen. Um die Datenintegration zu ermöglichen, stehen vielfältige Integrationstechnologien in der Praxis zur Verfügung. Die service-orientierte Architektur und das Cloud Computing und deren wichtigstes Element - die Services - sind neue Technologien, die immer mehr an Bedeutung gewonnen haben. Gegenstand der vorliegenden Arbeit ist die Integration von On Demand Services am Beispiel der Integration von SAP Business By Design, einer On Demand ERP-Lösung der SAP AG, und der CRM-Lösung von Salesforce.com. Bei beiden Anwendungen handelt es sich um einen On Demand Service, also um Software die auf den Servern eines externen Anbieters gehostet und vom Kunden über einen Internet Browser genutzt wird. Es soll die Frage geklärt werden, welche Möglichkeiten bestehen und ob eine Integration speziell dieser beiden Anwendungen, möglich ist.



Gießler, Matthias;
Die Effizienz von Google Remarketing im Vergleich zur bezahlten Suchmaschinenwerbung von Google im B2B-Bereich. - 57, 40 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

Der Markt für Online-Werbung befindet sich in einem stetigen Wachstum. Beim Online Marketing sollen potentielle Kunden bei der Informationssuche auf das eigene Angebot präsent aufmerksam gemacht werden. Aber auch Kunden die nicht gezielt nach Informationen suchen, können durch Online-Marketing beworben werden - ähnlich der Print- und Fernsehwerbung. Die vorliegende Arbeit beschäftigt sich insbesondere mit Google Remarketing. Dabei ist das Ziel, besonders qualitativ interessierte und kaufbereite Besucher für die eigenen Internetseiten zu gewinnen. Dies wird realisiert, indem Werbung nur bei Nutzern geschaltet wird, die bereits den Internetauftritt des Werbetreibenden besucht haben - und somit zu dem potentiellen Kundenkreis gehören. Um die Attraktivität und Effektivität dieser Werbeform zu testen, wurde in der Bachelorarbeit ein Vergleich der wichtigsten Kennzahlen einer Remarketing-Kampagne mit einer Google Suchmaschinenwerbung-Kampagne vorgenommen.



Noßke, Sebastian;
Marktüberblick über Funktionalitäten von Product Information Management Systemen mit Schwerpunkt auf den Multichannel Commerce. - 57 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

Mit der zunehmenden Sättigung der herkömmlichen Märkte versuchen viele Unternehmen neue Potentiale über neue Technologien, wie beispielsweise das Internet, Print-Medien, Kiosksysteme o.ä. zu erschließen. Der Nachteil an diesem Ansatz ist jedoch, dass die Daten, welche zur Beschreibung eines Produktes benötigt werden, in jedem dieser Kommunikationskanäle gepflegt werden müssen. Dabei gilt, je genauer ein Produkt beschrieben wird, desto höher ist die Wahrscheinlichkeit, dass ein Kunde dieses Produkt kauft. Daraus resultiert ein hoher Pflegeaufwand. Dieser steigt noch stärker an, wenn ein Unternehmen eine große Anzahl an Produkten über verschiedene Kommunikationskanäle in unterschiedlichen Sprachen pflegt. Bei der Lösung dieses Problems spielt die Vernetzung der verschiedenen Kanäle eine zentrale Rolle. Um die dargelegten Aufwandsprobleme zu minimieren, kann ein Product Information Management (PIM) System oder ein Master Data Management (MDM) System eingesetzt werden. Ziel dieser Arbeit ist es ein Verständnis über Product Information Management Systeme und deren Markt zu schaffen. Um dieses Ziel zu erreichen, werden die theoretischen Grundlagen des PIM und MDM erläutert, um anschließend die Frage zu klären, welche Funktionen ein PIM System aufweist, um den Anforderungen des Multichannel- bzw. Agile Commerce gerecht zu werden. Nach der Identifizierung der Funktionen auf Grundlage von Literatur und Interviews mit einigen Vertreten der Hersteller von PIM-Systemen, werden verschiedene Softwarelösungen auf Grundlage des erarbeiteten Funktionsklassifikationskatalogs an Hand von Demonstrationsversionen verglichen.



Neudert, Kati;
Praktische Anwendungen multikriterieller, populationsbasietrer Optimierungsverfahren. - 43 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

In vielen praxisorientierten Anwendungen geht es heutzutage nicht mehr nur darum genau ein Ziel, sondern mehrere Zielstellungen parallel zu verwirklichen. Angestrebt wird hierbei eine Konstellation, die die bestmögliche Realisierung aller Ziele verspricht. Zu beachten ist, dass Zielvorstellungen sich auch widersprechen können. Die für diese Arbeit relevanten Problemstellungen sind reale Probleme aus der Praxis. D.h., es handelt sich um Aufgaben, wie sie beispielsweise in Unternehmungen oder Betrieben auftreten. Es wird untersucht, welche Fragestellungen erfolgreich bzw. erfolglos durch Metaheuristiken bearbeitet werden können. Zielsetzung der Arbeit ist es einen Überblick zu vermitteln, bei welchen multikriteriellen Problemstellungen Metaheuristiken zur Lösungsoptimierung in der Wirtschaft oder der Industrie eingesetzt werden können.



Siebenkäs, Anette;
Die elektronische Akte - rechtliche und technische Anforderungen und Einsatzgebiete. - 51 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

In dieser Arbeit wird versucht, die rechtlichen und technischen Anforderungen darzulegen, die sich als Konsequenz aus einer digitalen Aktenhaltung in der öffentlichen Verwaltung ergeben. Dabei wird unter anderem zu folgenden Fragen Stellung genommen: Wie wirken sich die rechtlichen Bedingungen aus? Welche technischen Anforderungen sind dadurch wesentlich? Wie werden die Anforderungen derzeit durch Softwaresysteme am Markt erfüllt? Wo ist Handlungs- und Verbesserungsbedarf? Als Richtlinie dienen dabei die Konzepte, die im Rahmen der Einführung des E-Government erarbeitet wurden. Überwiegend wird dabei auf das DOMEA®-Konzept 2.1 der Koordinierungs- und Beratungsstelle der Bundesregierung für Informationstechnik in der Bundesverwaltung Bezug genommen. Kurz wird auf die Bedeutung der E-Akte in nicht-öffentlichen Verwaltungen anhand von Einsatzbeispiele eingegangen. Ansprüche unterschiedlicher Nutzergruppen werden kurz am Beispiel dargestellt. Ein Ausblick auf die weitere Entwicklung der E- Akte in der öffentlichen Verwaltung im Hinblick auf die von der Bundesregierung in Erarbeitung befindlichen Konzepte wird gegeben.



Gremmler, Johannes;
Wertbeitrag eines Geschäftsprozesses. - 50 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

Die Problemstellung dieser Arbeit war die Ermittlung und Vorstellung von Wertformen, die ein Geschäftsprozess neben dem des rein monetären Wertes erzeugen kann. Hierbei wurden die ergänzenden Wertformen vorgestellt und deren Vor-und Nachteile anhand von Beispielen verdeutlicht. Als Ziel stand die Erstellung eines Kriterienkatalogs, welcher die ermittelten Vor-und Nachteile nochmals zusammenfasst und somit Aufschluss darüber geben sollte, wann die Verwendung einer dieser Wertbegriffe sinnvoll sein kann. Unter Zuhilfenahme der gewonnen Erkenntnisse wurden zum Abschluss Stellungnahmen hinsichtlich einiger Thesen getroffen, die im Zusammenhang mit der Problemstellung der Arbeit stehen und deren Betrachtung ein besseres Verständnis für das Thema der Werterstellung eines Geschäftsprozesses geben sollte.



Deditius, Victor;
Altersaspekte in der Unternehmensberatung. - VII, 74 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

Bereits 1997 prägte der McKinsey-Berater Steven Hanking den militärischen Begriff "War for Talent", welcher aussagt, dass Unternehmen es in Zukunft schwieriger haben werden, talentierte Mitarbeiter für sich zu gewinnen und an sich zu binden. In diesem Zusammenhang spielt die Wettbewerbsfähigkeit einer Unternehmensberatung eine bedeutende Rolle. Der wichtigste Vermögenswert und Faktor dabei ist das sogenannte Humankapital. Dieses zeichnet sich durch qualifizierte und motivierte Mitarbeiter aus. Um qualifizierte Studenten so früh wie möglich für sich zu gewinnen, werben Unternehmen, vor allem Unternehmensberatungen, an den Hochschulen mit Recruiting-Veranstaltungen . Die Frage, die sich stellt und mit welcher sich diese Forschungsarbeit beschäftigt ist, welche Chancen die Berater im fortgeschrittenen Alter haben. Findet man diese im Jahr 2011 überhaupt noch in den Unternehmensberatungen, die zurzeit scheinbar hauptsächlich junge Absolventen suchen und beschäftigen? - Im Rahmen dieser Bachelorarbeit werden durch eine empirische Untersuchung die Altersverteilung der Unternehmensberatungen in Deutschland und ein möglicher Mangel an älteren, erfahrenen Beratern untersucht sowie eventuelle Gegenmaßnahmen vorgeschlagen. Das Thema Work-Life-Balance ist hierbei von großer Bedeutung. - Die zentrale Forschungsfrage der Bachelorarbeit "Altersaspekte in der Unternehmensberatung" lautet: "Wie ist das Alter der Unternehmensberater in Deutschland im Jahr 2011 verteilt?". - Der erste Abschnitt behandelt die Rahmenbedingungen und notwendige Definitionen, der anschließende Abschnitt setzt sich mit dem Forschungsstand dieses Themas auseinander. Im Anschluss wird die methodische Vorgehensweise der Studie erläutert und danach die unbewerteten Ergebnisse der quantitativen und qualitativen Untersuchung analysiert. Nach der Bewertung der Ergebnisse im Abschnitt "Analyse und Interpretation der Ergebnisse" folgt das Fazit.



Marburg, Jens;
Creating a maturity model for customer relationship. - 89 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

In this thesis a maturity model for customer relations is created. The view is very focused on an Australian jewellery producer and seller. The model helps identifying the level the relationship between the customer and the company is in and shows criteria about the different levels that should help to deal with the customer adequately. The model gives very limited information on what to do. The mentioned ways are only suggestions. Further is the model not intended to give an answer what level you should keep a customer in to make most profit. The model actually is built in a way that a relationship is going to increase in level, when criteria are met for some time. The thesis is mainly data from surveys and its analysis.



Friedrich, David;
Modellierung künstlicher Gesellschaften - State of the art. - 44 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2011

Die Modellierung künstlicher Gesellschaften stellt einen wachsenden Forschungsbereich dar und ermöglicht die Entwicklung computerbasierter, sozialer Strukturen. Epstein und Axtell sahen in diesem Forschungsbereich die Entstehung eines neuen Segmentes der Sozialwissenschaften. Ihr Werk kann als Basisliteratur gesehen werden und ihr bekanntes Sugarscape Modell dient seitdem vielen weiteren Veröffentlichungen als Grundlage. Neben den Erweiterungen des besagten Modells, wurden sehr unterschiedliche Forschungen veröffentlicht. Diese Arbeit soll über das Spektrum der künstlichen Gesellschaften einen Überblick vermitteln. Dabei liegt der Fokus auf Modellierungen, die sich an einer Art Wirtschaftskreislauf orientieren. Des Weiteren gilt es die Themenbereiche "Handel treibende Agentensysteme" oder aber "Modellierungen von Umweltgütern" abzudecken. Einleitend werden grundlegende Begriffe definiert.



Kahl, Patrick;
Aufbau des First-Level-Support Callcenter bei einem IT-Dienstleister : Vergleich alternativer Frameworks zur Umsetzung. - 101 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

Mit den letzten Jahren etablierte sich ein Trend, in welchen Unternehmen zum einen ihren bereits bestehenden oder zukünftigen Service und Support an Dritte auslagern. Zum anderen entstehen Organisationen, welche diese Dienste übernehmen, ihren IT - Service ausbauen und es zu einer Kernkompetenz des eigenen Geschäftes manifestieren. Vor allem bei IT - Organisationen mit starkem und strategisch notwendigem Kundensupport ist dieser Wandel, in beider Hinsicht, zu erkennen. Die Chancen und Risiken die sich hierbei ergeben, sind vielseitig und beinhalten eine Fülle an Analysemöglichkeiten, um das Für und Wider einer Ausrichtung zu begründen. Eine Reihe an Modellen, wie ITIL oder COBIT, liefern hierbei Theorien, vor allem wie Implementierung und Verbesserung von IT - Service umgesetzt werden kann. In dieser Arbeit wird in Zusammenarbeit mit einem IT - Dienstleister grundlegend erklärt, wie der Begriff des Callcenters zu erklären und im Kontext der Arbeit einzuordnen ist. Weiter soll dargelegt werden warum und wie Zusammenarbeit zwischen Unternehmen, auch kompetenzfremden Unternehmen entstehen kann und welche Voraussetzungen dafür notwendig sind. Die Hauptaufgabe dieser Arbeit liegt darin, einen ganzheitlichen Kriterienkatalog zu entwickeln, damit der Aufbau des First - Level - Supports Callcenter und damit die Umsetzung mittels Frameworks bewertet werden kann. Eine Vielzahl an Standards, Referenzmodellen und Zertifizierungen wie ITIL, MOF oder ISO 20000 sind bewährt und zeigen Möglichkeiten der Umsetzung von theoretisch am besten ausgerichteten IT - Service auf. Hierbei wählen sie aber unterschiedliche Ansatzpunkte im Unternehmen und interagieren nur gering oder gar nicht miteinander. Wie diese mit Hinblick auf den Aufbau eines kundenorientierten Services zusammengeführt werden können, soll diese Arbeit durch die Vorstellung eines Kriterienkataloges und entsprechenden Bewertungssystem aufzeigen.



Kohl, Elisabeth;
Geschäftsprozessmanagement als Managementmethode - die Evolution der Managementmethoden : Ausblick und Weiterentwicklung. - 56 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

Ziel der Bachelorarbeit ist die Verifikation bzw. Falsifikation der Hypothese, ob das Geschäftsprozessmanagement eine neue Managementmethode darstellt. Es handelt sich dabei um eine Literaturrecherche. Dazu werden zuerst die Managementmethoden Management by Exception und Management by Objectives historisch rekonstruiert und mit der Evolutionstheorie abgebildet. Anschließend folgen die historische Entwicklung des Geschäftsprozessmanagements und eine vergleichende organisatorische Einordnung von Geschäftsprozessmanagement und Managementmethoden. Durch externe Umwelteinflüsse aus Wissenschaft und Gesellschaft konnten sich die einzelnen Elemente der Managementmethoden aus dem Scientific Management über die Human-Relation-Bewegung und das Human Resources Management grundlegend verändern. Auch die Organisationsstruktur erlebte mit dem Wandel von der Aufbau- zur Ablauforganisation eine tiefgreifende Veränderung. Das Ergebnis der Untersuchung war eine Falsifikation der eingangs genannten Hypothese. Das Geschäftsprozessmanagement ist keine neue Managementmethode, vielmehr sind die Managementmethoden ein unterstützendes Instrument zur Realisierung von Geschäftsprozessen durch intrinsisch motivierte Mitarbeiter.



Ehrhardt, Robert;
Ontologien im Wissensmanagement. - 58 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

Die folgende Bachelorarbeit beschäftigt sich mit dem Einsatz von Ontologien im Wissensmanagement. Zu Beginn soll es dem Leser ermöglicht werden, ein Begriffsverständnis zu Wissensmanagement und Ontologien aufzubauen. Danach folgt die Darstellung von Wissensmanagementmodellen und schließlich werden weitere Punkte im Zusammenhang mit dem Einsatz von Ontologien im Wissensmanagement näher gebracht. Hierbei liegt der Fokus zunächst bei Potenzialen durch die Anwendung von Ontologien im Wissensmanagement und bei praktischen Anwendungsfeldern. Abschließend wird ein Prozess eines Wissensmanagementmodells näher betrachtet, zu dem Einsatzmöglichkeiten einer Ontologie erläutert werden.



Liebold, Chris;
Informationsaufbereitung und Integration in Managementberichte mittels Business Objects am Beispiel eines Information-Lifecycle-Management-Cockpits. - 120 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2011

Es wird immer wichtiger, die richtigen Informationen zur richtigen Zeit, am richtigen Ort, in der richtigen Form zu haben. Im betrieblichen Kontext gibt es eine Reih von Informationssystemen, die sowohl auf operativer als auch auf dispositiver Ebene diesen Prozess unterstützen. Informationssysteme auf dispositiver Ebene werden auch Planungs- und Kontrollsysteme genannt und haben zum Ziel, das Management, aber auch andere Unternehmensbereiche, mit Informationen zu versorgen und damit den Entscheidungsprozess zu unterstützen. Hierzu gehören auch Berichtssysteme. Damit ein Informationssystem als Berichtssystem kategorisiert werden kann, muss es verschiedene Eigenschaften erfüllen. In ihrer Funktionalität unterstützen Berichtssysteme das Berichtswesen, welches zur Aufgabe hat, dem Management und anderen Fachkräften relevante Daten in Form von Berichten zu übermitteln. Auch das Berichtswesen folgt einigen Regeln, die eingehalten werden sollten, um ein effektives Berichtswesen aufzubauen. Diese allgemeinen und speziellen regeln in Bezug auf Berichtssysteme und Berichtswesen werden in der Arbeit erläutert. Der Schwerpunkt dieser Arbeit liegt darin, die Informationssysteme von SAP Business Objects mit Hinblick auf ihren Funktionsumfang zu prüfen und zu evaluieren, ob sie zur Berichtserstellung und den Einsatz in einem Berichtswesen geeignet sind. Anhand von Beispielen aus dem Information Lifecycle Management (ILM) soll die Eignung der Informationssysteme getestet werden. Ein häufiges Problem in Data Warehouse Systemen ist, wie auch in anderen Datenbank basierten Systemen, die steigende Speichergröße und damit einhergehend unter anderem Performanceprobleme bei Abfragen und dem Reporting. Das ILM versucht diesem Problem zu begegnen, indem es Daten anhand verschiedenster Merkmale bewertet, in einen Lebenszyklus einordnet und anhand diverser Regeln entscheidet, ob Daten auf teuren Onlinemedien gehalten werden oder beispielsweise auf billigere Nearline Storage-Systeme ausgelagert werden. Als Datengrundlage für dieses beispielhafte Berichtswesen standen Daten aus einer ILM-Implementierung auf dem Uni-BW der TU Ilmenau und Daten der Einführung eines Nearline Storage (NLS) bei einem Energiedienstleister zur Verfügung. Die Daten der ILM-Implementierung stellen die Einschätzung der Datenträgerobjekte dar und geben Auskunft, welches Datenträgerobjekt wie gespeichert werden sollte. Die Daten der NLS-Einführung zeigen, wie sich von Seiten der Speicher- und Kostenentwicklung das Auslagern auf ein derartiges System bemerkbar macht. Mittels dieser Beispielsdaten und den aufgestellten Kriterien für Berichtssysteme und das Berichtswesen wird anhand von Beispielberichten die Eignung von SAP Business Objects dargestellt.



Werner, Markus;
Modellierung von mehrschichtigen Data-Warehouse-Architekturen am Beispiel der deutschen Pfandbriefbank. - 71 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2011

1.1. Problem- und Zielstellung. - Problemstellung: Im Zeitalter des Informationsmanagements ist es wichtig, zur richtigen Zeit am richtigen Ort die richtigen Informationen bereitzustellen. Dieses Informationspotential ermöglicht einer Unternehmung für strategische und dispositive Prozesse ganz neue Perspektiven (Hahne 2005, S.13) und ist somit Voraussetzung dafür einen Wettbewerbsvorteil zu generieren. Das Data-Warehouse-Konzept beschäftigt sich mit der effizienten Bereitstellung und Verarbeitung großer Datenmengen, um entscheidungsrelevante Prozesse zu analysieren bzw. auszuwerten. Dies setzt eine Speicherung und Sammlung der Daten im Data Warehouse voraus (Behme & Mucksch 2000, S. 8), die themenorientiert, integriert, zeitorientiert und persistent sind (Inmon 2005, S.31). Das heißt die Daten werden aus verschiedenen Quellsystemen extrahiert und separat im Data Warehouse abgespeichert und dienen in diesem Umfeld zur Informationsverarbeitung. Doch mit der steigenden Flut von Informationen und dem langjährigen Einsatz solcher Systeme entstehen immer größere Datenmengen, die verwaltet werden müssen (Hahne & Gluchowski 2006, S.33). Demnach sind Harmonisierungen, Integrationen, Filterungen und Aggregationen der Daten zwingende Funktionen eines Data Warehouse (Behme & Mucksch 2000, S. 37) um die Datensätze auf granularer Ebene entsprechend zusammenfassen und analysegerecht den Endnutzern bereitstellen zu können. Mit dem Konzept des Data Warehouses entdecken viele Unternehmen ein enormes Potential darin - doch der Nutzen für die einzelnen Unternehmungen entsteht nicht nur durch das Vorliegen eines rein technisch geprägten Konzeptes. Enorme Investitionen sind nötig, um solche Systeme nutzen zu können. Daher ist auch eine intensive Auseinandersetzung damit notwendig, um das Nutzenpotential voll ausschöpfen zu können. Ein klares Ziel des Data Warehouses ist es auch, dem Management "geeignete"und "benötigte" Informationen an die Hand zu geben. Darunter fallen aber auch Unterschlagungen von zwar technisch vorhandenen, aber unbrauchbaren Informationen. Daher ist es eine entscheidende Aufgabe, eine Architektur zu entwickeln, die die technisch vorhandenen Daten in geeigneter Weise extrahiert, harmonisiert, filtert und aggregiert, damit der Endnutzern bestmöglich auf diese Informationen seine Entscheidungen treffen kann (Holten et al. 2000, S. 13). Die Data-Warehouse-Architektur nimmt also entscheidenden Einfluss auf den Umfang, Qualität und die zeitliche Verfügbarkeit der Daten. Daher ist es notwendig in der Konzeptionsphase eines Datenmodells sich intensiv mit Data-Warehouse-Architekturen zu beschäftigen, da nachträgliche Änderungen enorme Zeit und Kostenaufwände bedeuten würden. Die Reportinganforderungen bzw. -wünsche der einzelnen Fachabteilungen und des Managements müssen demnach eindeutig identifiziert werden und stellen damit die Basis für die Entwicklung einer geeigneten Data-Warehouse-Architektur dar (Mehrwald 2008, 308-310). Vor einem Architekturproblem steht auch die deutsche Pfandbriefbank. Deren Data-Warehouse-System bezieht neben einem ERP-System (Enterprise Resource Planning) auch aus anderen belegerzeugenden Fremd-Systemen Informationen. Diese werden im BW integriert, harmonisiert und gefiltert für den Endnutzer bereitgestellt. Die verschiedenen Quellsysteme bieten ihre Informationen zu unterschiedlichen Zeitpunkten für eine Extraktion in das SAP BW (SAP Business Warehouse) an. Auf der anderen Seite gibt es hinsichtlich der Informationsbereitstellung für den Reporting-Endnutzer ebenfalls zeitliche Restriktionen, die unter Umständen eine Bereitstellung der Reporte noch vor der letzten Datenlieferung erfordern. Demnach soll untersucht werden, welche Möglichkeiten bestehen, die inhaltlich heterogenen Daten, die zeitlich versetzt angeliefert werden, in einer harmonisierten und konsistenten Datenschicht bereitzustellen. Auf der Datenschicht wiederum sollen dann wieder Reporting-Szenarien aufgebaut werden, die ihrerseits wiederum flexibel sind, um den heterogenen Reportinganforderungen der Endnutzer und den zeitlichen Bereitstellungsrestriktionen gerecht zu werden. Die Motivation dieser Arbeit liegt darin, theoretische und wissenschaftliche Erkenntnisse und spezifische praktische Modellierungsvorschriften aus der Praxis gemeinsam zu abstrahieren und daraus ein Vorgehensmodell zu entwickeln, dass dem Anwender eine Struktur vorgibt, wie aus den Anforderungen eine geeignete Architektur entstehen kann. - Zielstellung: Ziel der Bachelorarbeit ist es, ein allgemeingültiges Vorgehen zur Modellierung von mehrschichtigen Data-Warehouse-Architekturen zu entwickeln. Dabei gilt es Faktoren aus der Literatur und der Praxis zu identifizieren, die Einfluss auf eine Architektur haben und aus denen Entscheidungsregeln abgeleitet, in einen Kontext gebracht und zu einem Vorgehensmodell abstrahiert werden. Das Vorgehen wird an einem praktischen Fallbeispiel im Unternehmen der deutschen Pfandbriefbank angewendet und kritisch begutachtet. Als Ergebnis soll eine Darstellung des Datenmodells entstehen, das auch die einzelnen Schichten (Layers) im Data-Warehouse-System beinhaltet. 1.2. Methodik der Arbeit: Mit einer Literaturrecherche zu dem Themengebiet Data-Warehouse-Systeme wird ein Einstieg in die Thematik ermöglicht. Dabei werden Begriffe, Aufgaben und Anforderungen im Umfeld eines Data-Warehouse-Systems definiert und erläutert, bevor die existierenden Datenmodelle in einem Data Warehouses vorgestellt und den Abschluss des zweiten Kapitels bilden werden. Anschließend an die Literaturrecherche wird ein Vergleich verschiedener Ansätze allgemeiner IT Systemarchitekturen aus der Literatur im Umfeld von Data-Warehouse-Systemen durchgeführt. Ausgehend von diesen allgemeinen IT Systemarchitekturen wird eine Analyse der zentralen Komponente Data Warehouse vorgestellt. Im Vordergrund steht hierbei die Modellierung der Schichten im Data Warehouse, um bestmöglich die Informationslogistik organisieren zu können. Die bestmögliche Durchführung der klassischen Data Warehouse Funktionen wie Harmonisierung, Integration, Filterung und Aggregation stellen hierbei den Hauptteil dar. Eine Identifizierung der Faktoren aus Literatur und Praxis, die Einfluss auf eine Architektur nehmen, und das Zusammenbringen in einen Kontext und die Entwicklung eines Vorgehensmodells stellen dabei die nächsten Schritte dar. Anschließend wird das Vorgehensmodell bei der deutschen Pfandbriefbank angewendet. Das Unternehmen verwendet als Data-Warehouse-Lösung die Software SAP BW. Im Fazit dieser Arbeit werden die gewonnen Erkenntnisse zusammenfassend dargestellt. Des Weiteren wird ein Ausblick gegeben, in welchen Bereichen weitere wissenschaftliche Untersuchungen und Forschungen sinnvoll wären. 2. Fazit und Ausblick: Die Entwicklung eines allgemeingültigen Vorgehens zur Modellierung von mehrschichtigen Data-Warehouse-Architekturen stellte das Ziel der Bachelorarbeit dar. Zum einen war hier die Identifizierung der Elemente im Systemumfeld und deren Beziehungen nach außen notwendig. Das Ergebnis dieser Analyse zeigte, dass im heutigen Informationszeitalter die Unternehmungen kaum auf eine zentralen Komponente verzichten können, da fast für jede Darstellung von Informationen Integrationen aus verschiedenen Quellsystemen, Harmonisierungen und Anreicherungen in den Systemen notwendig sind. Im weiteren Teil der Arbeit wurde der innere Aufbau einer zentralen Komponente strukturiert. Dabei wurde festgestellt, dass die Entwicklung eines Datenmodells ein kreativer und individueller Prozess ist. Eine allgemeingültige Architektur existiert nicht, da nicht jedes Unternehmen die gleichen Voraussetzungen vorweisen kann. Eine Ausrichtung der Architektur auf die Unternehmensausgangssituation und auf die Organisationsstruktur eines Unternehmens ist zwingend notwendig und somit entstehen immer individuelle Lösungen. Im Anschluss daran wurde ein Vorgehensmodell entwickelt, das dem Anwender eine Struktur und einen Plan vorgibt, wie aus den Anforderungen der Endnutzer und der Unternehmensausgangssituation ein Datenmodell entsteht. Hierzu wurde ein Architekturmodell entwickelt, das 6 Schichten enthält. Im Vorgehensmodell werden diese Schichten Schritt für Schritt auf ihre Notwendigkeit, aufgrund der Anforderungen und der Unternehmensausgangssituation, überprüft. Ist diese Überprüfung vollendet, kann an einer Tabelle das Architekturmodell für das Unternehmen abgelesen werden. Das Vorgehensmodell wurde praktisch bei der deutschen Pfandbriefbank angewendet und ein Architekturvorschlag entwickelt. Eine Teilimplementierung des Architekturvoschlags wurde bereits implementiert. Eine Kritik des Vorgehensmodells ist es, das die einzelnen Überprüfungsschritte in dem Vorgehensmodell eine gewisse Allgemeingültigkeit aufweisen. Dies führt zwar dazu dass man einen sehr guten Überblick über die einzelnen Komponenten behält und sich nicht in technischen Feinheiten verstrickt. Trotzdem ist klar zu bemängeln, dass bei einer späteren Entwicklung des Schichtenmodells Probleme auftreten können, da aufgrund der Allgemeingültigkeit des Softwaremodells keine softwarespezifischen Besonderheiten mit aufgenommen wurden. Solche Faktoren können unter Umständen dazu führen, dass eine Änderung des Datenmodells im Nachhinein vorgenommen werden muss. Daher kann der Architekturvorschlag als Basismodell verwendet werden, das aber in nachfolgenden Schritten weiter softwarespezifisch angepasst und modifiziert werden muss. Weitere Schritte bestehen vor allem darin, die einzelnen Phasen des Vorgehensmodells zu intensivieren und auf die jeweilige Software zu spezifizieren.



Just, Maximilian;
Simulation von Geschäftsprozessen mit einer Simulationsumgebung für Produktionssysteme. - 57 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2010

Prozesse im Rahmen unternehmerischer Tätigkeit werden als Geschäftsprozesse bezeichnet. Eine von zahlreichen Definitionen für diesen Begriff haben Schmelzer und Sesselmann verfasst. Für sie sind Geschäftsprozesse eine Verknüpfung von funktions- und organisationsüberschreitender wertschöpfender Aktivitäten, welche die von Kunden erwartete Leistungen erzeugt und die aus der Strategie abgeleiteten Ziele umsetzen. Zur Erfassung und Darstellung von Geschäftsprozessen gibt es einige Werkzeuge, welche oft auch bei der Prozessverbesserung zum Einsatz kommen. In diesem Zusammenhang ist es manchmal von Vorteil die Abläufe auch zu simulieren, um sie besser optimieren zu können. Unter einer Simulation wird Nachbildung der Realität in einem Modell verstanden, mit der experimentiert werden kann. Auf Grundlage der mit dem Modell erzielten Ergebnisse wird anschließend auf das Verhalten in der Realität geschlossen. In erster Linie dient sie als Hilfsmittel um die Komplexität zu vereinfachen und den Fokus auf die wesentlichen Probleme zu lenken. Damit diese Vorteile bzw. Möglichkeiten auf ein Prozessmodell anwendbar sind, ist es notwendig dieses zu transformieren. Dies ist notwendig, da es aus verschiedenen Gründen, wie z.B. die fehlende Möglichkeit notwendige Informationen im Prozessmodell aufzunehmen oder der Mangel an einer entsprechenden Simulationsumgebung, nicht immer möglich ist ein Prozessmodell direkt zu simulieren. Deshalb wird der Geschäftsprozess in einem Transformationsmodell überführt, was die Umwandlung in ein Simulationsmodell erleichtert. Als Transformationsmodell wird im Rahmen dieser Arbeit das ProSiT-Modell verwendet. Das Transformationsmodell dient als Middleware zur Vorbereitung des Prozessmodells zur Simulation, es soll entsprechende Transformationsregeln zur Überführung in die Simulationsumgebung anbieten. An dieser Stelle stellt sich nun folgende Kernfrage: Ist es überhaupt möglich ist ein Geschäftsprozess in einer Simulationsumgebung für Produktionssysteme zu simulieren? Hieraus leiten sich folgende Zielstellungen für diese Arbeit ab: - 1. Prüfung der Simulierbarkeit von Geschäftsprozessen in einer Simulationsumgebung für Produktionssystem am Beispiel Plant Simulation. 2. Aufstellung von Transformationsregeln vom ProSiT Ablaufdiagramm zu Plant Simulation. 3. Verifizierung der Transformationsregeln anhand zweier Beispielmodelle. - Im Rahmen dieser Arbeit sollen beispielhaft Geschäftsprozesse, welche bereits in Transformationsmodellen vorliegen in eine Simulationsumgebung übertragen werden. Als Beispiele wurden zum einen der Prozess der Schadensabwicklung einer Versicherung und zum anderen der Prozess der Notfallaufnahme in einem Krankenhaus gewählt. - Im zweiten Abschnitt der Arbeit werden die betrachteten Modelle erklärt, was einerseits das Transformationsmodell ProSiT und andererseits das Simulationsmodell in Plant Simulation umfasst. Dabei wird auch auf die jeweilige Struktur, die dazugehörigen Elemente und Zusammenhänge eingegangen. - Der dritte Abschnitt ist der Kern der Arbeit, hier werden deduktiv Regeln zur Überführung vom Transformationsmodell zum Simulationsmodell aufgestellt. D.h. als erstes werden beide Modelle logisch geprüft. Im Anschluss werden Regeln zur Überführung vom Transformationsmodell zum Simulationsmodell aufgestellt. Diese Regeln finden Anwendung anhand der Beispiele. Die Beispielprozessmodelle werden in einzelnen Schritten zu Simulationsmodellen, unter Benutzung der entsprechenden Regel, umgewandelt. Im letzten Schritt des Vorgehens werden die Regeln auf Korrektheit überprüft. - Anschließend werden noch einmal die aufgestellten Regeln zusammengefasst und auf Einschränkungen eingegangen. Im letzten Abschnitt werden die gewonnen Erkenntnisse zusammengefasst und den Zielstellungen gegenübergestellt. Hier wird auf Probleme bei der Umsetzung und nicht behandelte Bereiche eingegangen. Außerdem wird ein Ausblick auf weiteren Forschungsbedarf und mögliche Weiterbearbeitung zu diesem Thema gegeben.



Kneise, Sebastian;
Multiagentenbasierte Simulation von Emergenzphänomenen in Repast. - 39 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2010

Gegenstand dieser Arbeit ist die Untersuchung eines organisationalen Wandels unter dem Aspekt von emergenten Phänomenen. Hierbei wurden multiagentenbasierte Simulationen mit Repast Simphony 1.1.2 durchgeführt. Zunächst wird das Simulationstoolkit Repast ausführlich vorgestellt und gezeigt wie damit Simulationen erstellt werden können. Insbesondere wird dabei auf die verschiedenen Modellierungsvarianten und das Potenzial von Repast eingegangen. Danach wird in fünf auf einander aufbauenden Simulationen ein organisationaler Wandel in abstrakter Art und Weise simuliert. Die erste Simulation wurde gestaltet entsprechend dem Paper von Nissen (2010). In der zweiten Simulation wird ein Schwachpunkt dieses Modells gelöst, die Verwendung von korrelierten Initialwerten. In den folgenden drei Simulationen wird mit der Verwendung von Netzwerken zum Informationsaustausch experimentiert.



Oestreich, Nathalie;
Chancen und Risiken des Einsatzes von Ontologien und semantischen Netzen im Wissensmanagement. - 66 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2010

Die Bedeutung des Wissensmanagements für den Erfolg von Unternehmen wird heute nicht mehr in Zweifel gezogen. Hierzu muss die Ressource Wissen optimal genutzt werden. Wissen soll oftmals repräsentiert oder kommuniziert werden. Hier stoßen Ontologien in der wissenschaftlichen Diskussion zunehmend auf Interesse. In der vorliegenden Arbeit sollen Möglichkeiten und Vorteile, aber auch Probleme beim Einsatz von Ontologien und semantischen Netzen im Wissensmanagement untersucht werden. Hierzu sollen die Anforderungen des Wissensmanagements ebenso aufgezeigt werden wie die Einsatzgebiete von Ontologien und semantischen Netzen. Es soll die Frage beantwortet werden, inwiefern die Anforderungen des Wissensmanagements durch Ontologien bzw. semantische Netze befriedigt werden können. Des weiteren soll eine Bewertung von Ontologien bzw. semantischen Netzen stattfinden, die positive Eigenschaften sowie grundsätzliche Kritik offen legt und dabei stets die Relevanz für das Thema Wissensmanagement im Blickfeld behält.



Granzdorf, Katharina;
Vorgehensmodelle für IT-Outsourcing. - 153 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2010

Da die Thematik des IT-Outsourcings mit der voranschreitenden Technologieentwicklung immer mehr Zuspruch erlangt, setzt sich diese Bachelorarbeit mit vorhandenen Vorgehensmodellen bzw. Vorgehenspraktiken für das IT-Outsourcing auseinander. Ziel der Arbeit ist die Identifizierung von möglichen Vorgehensvarianten für ein Outsourcing-Vorhaben und dessen Einschätzung hinsichtlich seiner Benutzbarkeit. Zunächst wurden die Begrifflichkeiten sowie verschiedene Formen des IT-Outsourcings näher beleuchtet, um die individuellen Vorgehensvarianten bei einem IT-Outsourcing-Vorhaben nachvollziehen zu können. Die theoretische Beleuchtung der Thematik verhalf zur Entwicklung eines Bewertungsmusters für die betrachteten Vorgehensmodelle. Die Vorgehenspraktiken wurden entsprechend ihrer Tauglichkeit eingeschätzt. Da IT-Outsourcing-Projekte in der Praxis unterschiedlich gehandhabt werden, galt es in dieser Arbeit herauszufinden, nach welchem Vorgehen Outsourcing-Dienstleister vorgehen und welche dieser Praktiken sich möglicherweise etabliert haben. - Hierbei zeigte sich, ein oftmals ähnliches Vorgehen, jedoch kein Vorgehensmodell wies eine allumfassende Betrachtung auf. Im Ergebnis bietet diese Arbeit eine Sammlung von verschiedenen Vorgehensmöglichkeiten für ein IT-Outsourcing-Projekt, mit deren Hilfe durch die Kombination und Beachtung einiger gewonnener Erkenntnisse aus den verschiedenen Vorgehensvarianten, ein umfassendes Vorgehensmodell kreiert werden könnte.



Geppert, Jens;
Supply Chain Management im Krankenhaus. - 32 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2010

Die vorliegende Arbeit "Supply Chain Management im Krankenhaus" beschäftigt sich im Kern mit zwei Themengebieten. Zum einen mit dem Supply Chain Management, einem Konzept aus der unternehmerischen Praxis, bei dem die unternehmensübergreifende Zusammenarbeit entlang einer Wertschöpfungskette im Vordergrund steht. Zum anderen mit dem Krankenhaus, einem Unternehmen aus dem Gesundheitssystem, welches die Versorgung der Bevölkerung mit Gesundheitsgütern sicherstellt. - Ziel der Arbeit ist es, verschiedene Supply Chain Management Konzepte auf das Dienstleistungsangebot von Krankenhäusern zu übertragen bzw. zu untersuchen, an welchen Stellen eine Übertragung nicht gelingt. Bisher gab es in den Krankenhäusern kaum Bestrebungen, sich mit dem Supply Chain Management (SCM) auseinander zu setzen. Die Gründe für dieses Phänomen werden aufgezeigt. Diese Arbeit baut auf einer Diplomarbeit mit dem Thema "Supply Chain Management im Dienstleistungsunternehmen" auf, die zu dem Schluss kommt, dass das SCM auf Unternehmen der Dienstleistungsbranche prinzipiell übertragbar ist.



Klose, Stephan;
Möglichkeiten der Online - Unternehmensberatung. - VII, 73 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2010

Die Branche der Unternehmensberatung mit ihren umfangreichen Angeboten und Leistungen gehört heutzutage zweifellos zu den essentiellen Bestandteilen der globalen Wirtschaftswelt. Aus der kontinuierlich zunehmenden Bedeutung des Internets für die weltweite Wirtschaft resultiert die Fragestellung, in wie weit sich diese Technologien im Sektor der Unternehmensberatung zur Unterstützung bzw. Abwicklung einzelner Prozesse nutzen lassen. Dabei bietet vor allem der Bereich der IV- Beratung eine solide Basis für einen Ansatz, da er sich auf Grund seines technischen und technologischen Hintergrundes besser als andere Beratungsformen für den umfassenden Einsatz des Internets eignet. Ziel der vorliegenden Arbeit ist es zu analysieren, welche Inhalte der Unternehmensberatung und dabei speziell der IV- Beratung sich für den Einsatz in digitalisierter Form eignen. Darüber hinaus werden Grenzen diese Beratungsform erörtert. Dazu wird zunächst aufgezeigt, welchen Stand der Einsatz des Internets in der Beratung heute hat. Im Anschluss daran wird anhand eines allgemeingültigen Beratungsprozesses untersucht, welche Einzelprozesse sich unter Einbeziehung gewisser Einflussfaktoren dazu eigenen, entweder vollständig automatisiert zu werden oder zumindest eine Teilautomatisierung zur Prozessunterstützung zulassen. Anschließend wird analysiert und bewertet, in wie weit sich Schnittmengen zwischen den voll- bzw. teilweise automatisierbaren Prozessen und den technischen Möglichkeiten des Internets ergeben. Den Abschluss bilden eine Zusammenfassung und ein Ausblick.



Köhler, Patricia;
Empirische Untersuchung zur Nutzung von eRecruiting in der Unternehmensberatung. - 75 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2009

Da die Unternehmensberatung in den vergangen Jahren einen regelrechten Boom erlebt hat, wurden verschiedene Personalbeschaffungsformen von den Beratungsunternehmen eingesetzt. Der Personalbeschaffung verläuft in der heutigen Zeit oft webgestützt. Doch wird die webgestützte Form das sogenannte eRecruiting- auch in der Branche der Unternehmensberatung eingesetzt? Auf welche Art und Weise wird auf eRecruiting zurückgegriffen und in welchem Umfang. Ist dies sinnvoll in jeder Stufe des Bewerbungsprozesses? - Am Anfang dieser Bachelorarbeit wird der Begriff eRecruiting und Unternehmensberatung abgegrenzt und definiert. Die Problematik, die sich auf dem Arbeitsmarkt aus Sicht des Bewerbers und des Beratungsunternehmen auftut, wird anschließend geschildert. Darauf folgend wird erläutert, welche Vor- und Nachteile sich aus dem eRecruiting ergeben und welche einzelnen Formen des eRecruitings existieren. Durch eine empirische Untersuchung in Form eines Fragebogens, wurde eine repräsentative Anzahl von Unternehmensberatungen mit verschiedenen Geschäftsfeldern befragt. Darauf aufbauend werden die Ergebnisse ausgewertet und anschließend diskutiert. Auf diesem Weg sollen Hintergründe und Verbesserungspotenziale aufgezeigt werden. - Der verstärkte Einsatz von eRecruiting ist sehr abhängig von der Unternehmensgröße. Allerdings setzen nahezu alle befragten Unternehmensberatungen eRecruiting ein. Eine hohe Intensität findet man nur bei Beratungsunternehmen mit großer Mitarbeiterzahl. Ausschließlich eRecruiting wird noch nicht angewendet, sondern immer eine Mischform zwischen traditioneller und webgestützter Personalbeschaffung. Die Unternehmen haben noch nicht das Vertrauen in eRecruiting und voll ziehen die letzten Stufen des Bewerbungsprozesses lieber persönlich. Wenn sich eRecruiting vollständig in den Bewerbungsprozess integriert hat, werden die Ergebnisse der Umfrage ändern und bilden somit neuen Forschungsbedarf.



Grunert, Matthias;
Beschreibung von Schnittstellen zur Kommunikation mit einer Wissensdatenbank in einem Wissensbewertungssystem. - 57 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2009

Wissen stellt ein grundlegendes Element des Geschäftserfolges dar und kann vor allem in wissensintensiven Branchen zum differenzierenden Faktor im Wettbewerb zwischen Organisationen werden. Bisher unterstützen Informationsverarbeitungssysteme vorrangig den operativen Bereich und vernachlässigen auf diese Weise die strategische Wissensplanung. Diese ist jedoch für ein ganzheitliches System unerlässlich ist, um eine nachvollziehbare Messung und Bewertung von Wissen im Unternehmen zu ermöglichen. - Die Technische Universität Ilmenau entwickelt zu diesem Gedanken einen ganzheitlichen Ansatz zur integrativen strategischen Wissensplanung, der Knowlegde Valuation Management Architektur. Als ein zentrales Element ist hierbei das Modul Wissensbasis in Form einer Wissensdatenbank zu sehen, die den Speicherort für Informationen über das Wissen in der Organisation darstellt. - Die vorliegende Bachelor-Arbeit soll diesen Teil, den Entwurf einer Wissensdatenbank sowie die Beschreibung von Schnittstellen zu deren Kommunikation zum Gegenstand haben und auf diese Weise einen weiteren Baustein auf dem Weg zur Knowlegde Valuation Management Architektur bilden. - Einer Einleitung in das Thema Wissen und Wissensmanagement folgend, werden Formen der Wissensspeicherung betrachtet und erläutert wie Fähigkeiten von Mitarbeitern eines Unternehmens erfassbar und auswertbar gemacht werden können. Es schließt sich daran der Vorschlag zum Entwurf einer Wissensdatenbank an sowie deren Kommunikation mit umgebenden Systemen. Den Abschluss bilden eine Zusammen-fassung, eine Bewertung und Gedanken für eine spätere Weiterentwicklung.



Möhring, Michael;
Service-orientierte Architekturen - von Web Services zu intelligenten Diensten. - 37 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2009

Service-orientierte Architekturen (SOA) rücken seit einigen Jahren immer mehr in den Focus. Viele Unternehmen spezialisieren sich zunehmend auf SOA-Lösungen. Dabei stellt sich die Frage, welche Vorteile bieten Service-orientierte Architekturen und welche Grenzen weist die derzeitige Umsetzung mittels Web Services auf und wie können diese weiterentwickelt werden. Diese Arbeit zeigt den aktuellen Stand dieser Technologie und die Möglichkeiten von intelligenten Software-Agenten in Service-orientierten Architekturen, zur Weiterentwicklung der derzeitigen Web Service Umsetzung, auf. Es werden verschiedene Varianten zur semantischen Beschreibung von Web Services diskutiert und die Möglichkeiten der Verschmelzung von Web Services mit der Agenten-Technologie vorgestellt. Dabei wurde ein Agent als Web Service entwurfsweise implementiert.