completed bachelor theses in the subject area:

Anzahl der Treffer: 100
Erstellt: Wed, 24 Apr 2024 23:11:31 +0200 in 0.0872 sec


Werner, Markus;
Modellierung von mehrschichtigen Data-Warehouse-Architekturen am Beispiel der deutschen Pfandbriefbank. - 71 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2011

1.1. Problem- und Zielstellung. - Problemstellung: Im Zeitalter des Informationsmanagements ist es wichtig, zur richtigen Zeit am richtigen Ort die richtigen Informationen bereitzustellen. Dieses Informationspotential ermöglicht einer Unternehmung für strategische und dispositive Prozesse ganz neue Perspektiven (Hahne 2005, S.13) und ist somit Voraussetzung dafür einen Wettbewerbsvorteil zu generieren. Das Data-Warehouse-Konzept beschäftigt sich mit der effizienten Bereitstellung und Verarbeitung großer Datenmengen, um entscheidungsrelevante Prozesse zu analysieren bzw. auszuwerten. Dies setzt eine Speicherung und Sammlung der Daten im Data Warehouse voraus (Behme & Mucksch 2000, S. 8), die themenorientiert, integriert, zeitorientiert und persistent sind (Inmon 2005, S.31). Das heißt die Daten werden aus verschiedenen Quellsystemen extrahiert und separat im Data Warehouse abgespeichert und dienen in diesem Umfeld zur Informationsverarbeitung. Doch mit der steigenden Flut von Informationen und dem langjährigen Einsatz solcher Systeme entstehen immer größere Datenmengen, die verwaltet werden müssen (Hahne & Gluchowski 2006, S.33). Demnach sind Harmonisierungen, Integrationen, Filterungen und Aggregationen der Daten zwingende Funktionen eines Data Warehouse (Behme & Mucksch 2000, S. 37) um die Datensätze auf granularer Ebene entsprechend zusammenfassen und analysegerecht den Endnutzern bereitstellen zu können. Mit dem Konzept des Data Warehouses entdecken viele Unternehmen ein enormes Potential darin - doch der Nutzen für die einzelnen Unternehmungen entsteht nicht nur durch das Vorliegen eines rein technisch geprägten Konzeptes. Enorme Investitionen sind nötig, um solche Systeme nutzen zu können. Daher ist auch eine intensive Auseinandersetzung damit notwendig, um das Nutzenpotential voll ausschöpfen zu können. Ein klares Ziel des Data Warehouses ist es auch, dem Management "geeignete"und "benötigte" Informationen an die Hand zu geben. Darunter fallen aber auch Unterschlagungen von zwar technisch vorhandenen, aber unbrauchbaren Informationen. Daher ist es eine entscheidende Aufgabe, eine Architektur zu entwickeln, die die technisch vorhandenen Daten in geeigneter Weise extrahiert, harmonisiert, filtert und aggregiert, damit der Endnutzern bestmöglich auf diese Informationen seine Entscheidungen treffen kann (Holten et al. 2000, S. 13). Die Data-Warehouse-Architektur nimmt also entscheidenden Einfluss auf den Umfang, Qualität und die zeitliche Verfügbarkeit der Daten. Daher ist es notwendig in der Konzeptionsphase eines Datenmodells sich intensiv mit Data-Warehouse-Architekturen zu beschäftigen, da nachträgliche Änderungen enorme Zeit und Kostenaufwände bedeuten würden. Die Reportinganforderungen bzw. -wünsche der einzelnen Fachabteilungen und des Managements müssen demnach eindeutig identifiziert werden und stellen damit die Basis für die Entwicklung einer geeigneten Data-Warehouse-Architektur dar (Mehrwald 2008, 308-310). Vor einem Architekturproblem steht auch die deutsche Pfandbriefbank. Deren Data-Warehouse-System bezieht neben einem ERP-System (Enterprise Resource Planning) auch aus anderen belegerzeugenden Fremd-Systemen Informationen. Diese werden im BW integriert, harmonisiert und gefiltert für den Endnutzer bereitgestellt. Die verschiedenen Quellsysteme bieten ihre Informationen zu unterschiedlichen Zeitpunkten für eine Extraktion in das SAP BW (SAP Business Warehouse) an. Auf der anderen Seite gibt es hinsichtlich der Informationsbereitstellung für den Reporting-Endnutzer ebenfalls zeitliche Restriktionen, die unter Umständen eine Bereitstellung der Reporte noch vor der letzten Datenlieferung erfordern. Demnach soll untersucht werden, welche Möglichkeiten bestehen, die inhaltlich heterogenen Daten, die zeitlich versetzt angeliefert werden, in einer harmonisierten und konsistenten Datenschicht bereitzustellen. Auf der Datenschicht wiederum sollen dann wieder Reporting-Szenarien aufgebaut werden, die ihrerseits wiederum flexibel sind, um den heterogenen Reportinganforderungen der Endnutzer und den zeitlichen Bereitstellungsrestriktionen gerecht zu werden. Die Motivation dieser Arbeit liegt darin, theoretische und wissenschaftliche Erkenntnisse und spezifische praktische Modellierungsvorschriften aus der Praxis gemeinsam zu abstrahieren und daraus ein Vorgehensmodell zu entwickeln, dass dem Anwender eine Struktur vorgibt, wie aus den Anforderungen eine geeignete Architektur entstehen kann. - Zielstellung: Ziel der Bachelorarbeit ist es, ein allgemeingültiges Vorgehen zur Modellierung von mehrschichtigen Data-Warehouse-Architekturen zu entwickeln. Dabei gilt es Faktoren aus der Literatur und der Praxis zu identifizieren, die Einfluss auf eine Architektur haben und aus denen Entscheidungsregeln abgeleitet, in einen Kontext gebracht und zu einem Vorgehensmodell abstrahiert werden. Das Vorgehen wird an einem praktischen Fallbeispiel im Unternehmen der deutschen Pfandbriefbank angewendet und kritisch begutachtet. Als Ergebnis soll eine Darstellung des Datenmodells entstehen, das auch die einzelnen Schichten (Layers) im Data-Warehouse-System beinhaltet. 1.2. Methodik der Arbeit: Mit einer Literaturrecherche zu dem Themengebiet Data-Warehouse-Systeme wird ein Einstieg in die Thematik ermöglicht. Dabei werden Begriffe, Aufgaben und Anforderungen im Umfeld eines Data-Warehouse-Systems definiert und erläutert, bevor die existierenden Datenmodelle in einem Data Warehouses vorgestellt und den Abschluss des zweiten Kapitels bilden werden. Anschließend an die Literaturrecherche wird ein Vergleich verschiedener Ansätze allgemeiner IT Systemarchitekturen aus der Literatur im Umfeld von Data-Warehouse-Systemen durchgeführt. Ausgehend von diesen allgemeinen IT Systemarchitekturen wird eine Analyse der zentralen Komponente Data Warehouse vorgestellt. Im Vordergrund steht hierbei die Modellierung der Schichten im Data Warehouse, um bestmöglich die Informationslogistik organisieren zu können. Die bestmögliche Durchführung der klassischen Data Warehouse Funktionen wie Harmonisierung, Integration, Filterung und Aggregation stellen hierbei den Hauptteil dar. Eine Identifizierung der Faktoren aus Literatur und Praxis, die Einfluss auf eine Architektur nehmen, und das Zusammenbringen in einen Kontext und die Entwicklung eines Vorgehensmodells stellen dabei die nächsten Schritte dar. Anschließend wird das Vorgehensmodell bei der deutschen Pfandbriefbank angewendet. Das Unternehmen verwendet als Data-Warehouse-Lösung die Software SAP BW. Im Fazit dieser Arbeit werden die gewonnen Erkenntnisse zusammenfassend dargestellt. Des Weiteren wird ein Ausblick gegeben, in welchen Bereichen weitere wissenschaftliche Untersuchungen und Forschungen sinnvoll wären. 2. Fazit und Ausblick: Die Entwicklung eines allgemeingültigen Vorgehens zur Modellierung von mehrschichtigen Data-Warehouse-Architekturen stellte das Ziel der Bachelorarbeit dar. Zum einen war hier die Identifizierung der Elemente im Systemumfeld und deren Beziehungen nach außen notwendig. Das Ergebnis dieser Analyse zeigte, dass im heutigen Informationszeitalter die Unternehmungen kaum auf eine zentralen Komponente verzichten können, da fast für jede Darstellung von Informationen Integrationen aus verschiedenen Quellsystemen, Harmonisierungen und Anreicherungen in den Systemen notwendig sind. Im weiteren Teil der Arbeit wurde der innere Aufbau einer zentralen Komponente strukturiert. Dabei wurde festgestellt, dass die Entwicklung eines Datenmodells ein kreativer und individueller Prozess ist. Eine allgemeingültige Architektur existiert nicht, da nicht jedes Unternehmen die gleichen Voraussetzungen vorweisen kann. Eine Ausrichtung der Architektur auf die Unternehmensausgangssituation und auf die Organisationsstruktur eines Unternehmens ist zwingend notwendig und somit entstehen immer individuelle Lösungen. Im Anschluss daran wurde ein Vorgehensmodell entwickelt, das dem Anwender eine Struktur und einen Plan vorgibt, wie aus den Anforderungen der Endnutzer und der Unternehmensausgangssituation ein Datenmodell entsteht. Hierzu wurde ein Architekturmodell entwickelt, das 6 Schichten enthält. Im Vorgehensmodell werden diese Schichten Schritt für Schritt auf ihre Notwendigkeit, aufgrund der Anforderungen und der Unternehmensausgangssituation, überprüft. Ist diese Überprüfung vollendet, kann an einer Tabelle das Architekturmodell für das Unternehmen abgelesen werden. Das Vorgehensmodell wurde praktisch bei der deutschen Pfandbriefbank angewendet und ein Architekturvorschlag entwickelt. Eine Teilimplementierung des Architekturvoschlags wurde bereits implementiert. Eine Kritik des Vorgehensmodells ist es, das die einzelnen Überprüfungsschritte in dem Vorgehensmodell eine gewisse Allgemeingültigkeit aufweisen. Dies führt zwar dazu dass man einen sehr guten Überblick über die einzelnen Komponenten behält und sich nicht in technischen Feinheiten verstrickt. Trotzdem ist klar zu bemängeln, dass bei einer späteren Entwicklung des Schichtenmodells Probleme auftreten können, da aufgrund der Allgemeingültigkeit des Softwaremodells keine softwarespezifischen Besonderheiten mit aufgenommen wurden. Solche Faktoren können unter Umständen dazu führen, dass eine Änderung des Datenmodells im Nachhinein vorgenommen werden muss. Daher kann der Architekturvorschlag als Basismodell verwendet werden, das aber in nachfolgenden Schritten weiter softwarespezifisch angepasst und modifiziert werden muss. Weitere Schritte bestehen vor allem darin, die einzelnen Phasen des Vorgehensmodells zu intensivieren und auf die jeweilige Software zu spezifizieren.



Just, Maximilian;
Simulation von Geschäftsprozessen mit einer Simulationsumgebung für Produktionssysteme. - 57 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2010

Prozesse im Rahmen unternehmerischer Tätigkeit werden als Geschäftsprozesse bezeichnet. Eine von zahlreichen Definitionen für diesen Begriff haben Schmelzer und Sesselmann verfasst. Für sie sind Geschäftsprozesse eine Verknüpfung von funktions- und organisationsüberschreitender wertschöpfender Aktivitäten, welche die von Kunden erwartete Leistungen erzeugt und die aus der Strategie abgeleiteten Ziele umsetzen. Zur Erfassung und Darstellung von Geschäftsprozessen gibt es einige Werkzeuge, welche oft auch bei der Prozessverbesserung zum Einsatz kommen. In diesem Zusammenhang ist es manchmal von Vorteil die Abläufe auch zu simulieren, um sie besser optimieren zu können. Unter einer Simulation wird Nachbildung der Realität in einem Modell verstanden, mit der experimentiert werden kann. Auf Grundlage der mit dem Modell erzielten Ergebnisse wird anschließend auf das Verhalten in der Realität geschlossen. In erster Linie dient sie als Hilfsmittel um die Komplexität zu vereinfachen und den Fokus auf die wesentlichen Probleme zu lenken. Damit diese Vorteile bzw. Möglichkeiten auf ein Prozessmodell anwendbar sind, ist es notwendig dieses zu transformieren. Dies ist notwendig, da es aus verschiedenen Gründen, wie z.B. die fehlende Möglichkeit notwendige Informationen im Prozessmodell aufzunehmen oder der Mangel an einer entsprechenden Simulationsumgebung, nicht immer möglich ist ein Prozessmodell direkt zu simulieren. Deshalb wird der Geschäftsprozess in einem Transformationsmodell überführt, was die Umwandlung in ein Simulationsmodell erleichtert. Als Transformationsmodell wird im Rahmen dieser Arbeit das ProSiT-Modell verwendet. Das Transformationsmodell dient als Middleware zur Vorbereitung des Prozessmodells zur Simulation, es soll entsprechende Transformationsregeln zur Überführung in die Simulationsumgebung anbieten. An dieser Stelle stellt sich nun folgende Kernfrage: Ist es überhaupt möglich ist ein Geschäftsprozess in einer Simulationsumgebung für Produktionssysteme zu simulieren? Hieraus leiten sich folgende Zielstellungen für diese Arbeit ab: - 1. Prüfung der Simulierbarkeit von Geschäftsprozessen in einer Simulationsumgebung für Produktionssystem am Beispiel Plant Simulation. 2. Aufstellung von Transformationsregeln vom ProSiT Ablaufdiagramm zu Plant Simulation. 3. Verifizierung der Transformationsregeln anhand zweier Beispielmodelle. - Im Rahmen dieser Arbeit sollen beispielhaft Geschäftsprozesse, welche bereits in Transformationsmodellen vorliegen in eine Simulationsumgebung übertragen werden. Als Beispiele wurden zum einen der Prozess der Schadensabwicklung einer Versicherung und zum anderen der Prozess der Notfallaufnahme in einem Krankenhaus gewählt. - Im zweiten Abschnitt der Arbeit werden die betrachteten Modelle erklärt, was einerseits das Transformationsmodell ProSiT und andererseits das Simulationsmodell in Plant Simulation umfasst. Dabei wird auch auf die jeweilige Struktur, die dazugehörigen Elemente und Zusammenhänge eingegangen. - Der dritte Abschnitt ist der Kern der Arbeit, hier werden deduktiv Regeln zur Überführung vom Transformationsmodell zum Simulationsmodell aufgestellt. D.h. als erstes werden beide Modelle logisch geprüft. Im Anschluss werden Regeln zur Überführung vom Transformationsmodell zum Simulationsmodell aufgestellt. Diese Regeln finden Anwendung anhand der Beispiele. Die Beispielprozessmodelle werden in einzelnen Schritten zu Simulationsmodellen, unter Benutzung der entsprechenden Regel, umgewandelt. Im letzten Schritt des Vorgehens werden die Regeln auf Korrektheit überprüft. - Anschließend werden noch einmal die aufgestellten Regeln zusammengefasst und auf Einschränkungen eingegangen. Im letzten Abschnitt werden die gewonnen Erkenntnisse zusammengefasst und den Zielstellungen gegenübergestellt. Hier wird auf Probleme bei der Umsetzung und nicht behandelte Bereiche eingegangen. Außerdem wird ein Ausblick auf weiteren Forschungsbedarf und mögliche Weiterbearbeitung zu diesem Thema gegeben.



Kneise, Sebastian;
Multiagentenbasierte Simulation von Emergenzphänomenen in Repast. - 39 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2010

Gegenstand dieser Arbeit ist die Untersuchung eines organisationalen Wandels unter dem Aspekt von emergenten Phänomenen. Hierbei wurden multiagentenbasierte Simulationen mit Repast Simphony 1.1.2 durchgeführt. Zunächst wird das Simulationstoolkit Repast ausführlich vorgestellt und gezeigt wie damit Simulationen erstellt werden können. Insbesondere wird dabei auf die verschiedenen Modellierungsvarianten und das Potenzial von Repast eingegangen. Danach wird in fünf auf einander aufbauenden Simulationen ein organisationaler Wandel in abstrakter Art und Weise simuliert. Die erste Simulation wurde gestaltet entsprechend dem Paper von Nissen (2010). In der zweiten Simulation wird ein Schwachpunkt dieses Modells gelöst, die Verwendung von korrelierten Initialwerten. In den folgenden drei Simulationen wird mit der Verwendung von Netzwerken zum Informationsaustausch experimentiert.



Oestreich, Nathalie;
Chancen und Risiken des Einsatzes von Ontologien und semantischen Netzen im Wissensmanagement. - 66 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2010

Die Bedeutung des Wissensmanagements für den Erfolg von Unternehmen wird heute nicht mehr in Zweifel gezogen. Hierzu muss die Ressource Wissen optimal genutzt werden. Wissen soll oftmals repräsentiert oder kommuniziert werden. Hier stoßen Ontologien in der wissenschaftlichen Diskussion zunehmend auf Interesse. In der vorliegenden Arbeit sollen Möglichkeiten und Vorteile, aber auch Probleme beim Einsatz von Ontologien und semantischen Netzen im Wissensmanagement untersucht werden. Hierzu sollen die Anforderungen des Wissensmanagements ebenso aufgezeigt werden wie die Einsatzgebiete von Ontologien und semantischen Netzen. Es soll die Frage beantwortet werden, inwiefern die Anforderungen des Wissensmanagements durch Ontologien bzw. semantische Netze befriedigt werden können. Des weiteren soll eine Bewertung von Ontologien bzw. semantischen Netzen stattfinden, die positive Eigenschaften sowie grundsätzliche Kritik offen legt und dabei stets die Relevanz für das Thema Wissensmanagement im Blickfeld behält.



Granzdorf, Katharina;
Vorgehensmodelle für IT-Outsourcing. - 153 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2010

Da die Thematik des IT-Outsourcings mit der voranschreitenden Technologieentwicklung immer mehr Zuspruch erlangt, setzt sich diese Bachelorarbeit mit vorhandenen Vorgehensmodellen bzw. Vorgehenspraktiken für das IT-Outsourcing auseinander. Ziel der Arbeit ist die Identifizierung von möglichen Vorgehensvarianten für ein Outsourcing-Vorhaben und dessen Einschätzung hinsichtlich seiner Benutzbarkeit. Zunächst wurden die Begrifflichkeiten sowie verschiedene Formen des IT-Outsourcings näher beleuchtet, um die individuellen Vorgehensvarianten bei einem IT-Outsourcing-Vorhaben nachvollziehen zu können. Die theoretische Beleuchtung der Thematik verhalf zur Entwicklung eines Bewertungsmusters für die betrachteten Vorgehensmodelle. Die Vorgehenspraktiken wurden entsprechend ihrer Tauglichkeit eingeschätzt. Da IT-Outsourcing-Projekte in der Praxis unterschiedlich gehandhabt werden, galt es in dieser Arbeit herauszufinden, nach welchem Vorgehen Outsourcing-Dienstleister vorgehen und welche dieser Praktiken sich möglicherweise etabliert haben. - Hierbei zeigte sich, ein oftmals ähnliches Vorgehen, jedoch kein Vorgehensmodell wies eine allumfassende Betrachtung auf. Im Ergebnis bietet diese Arbeit eine Sammlung von verschiedenen Vorgehensmöglichkeiten für ein IT-Outsourcing-Projekt, mit deren Hilfe durch die Kombination und Beachtung einiger gewonnener Erkenntnisse aus den verschiedenen Vorgehensvarianten, ein umfassendes Vorgehensmodell kreiert werden könnte.



Geppert, Jens;
Supply Chain Management im Krankenhaus. - 32 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2010

Die vorliegende Arbeit "Supply Chain Management im Krankenhaus" beschäftigt sich im Kern mit zwei Themengebieten. Zum einen mit dem Supply Chain Management, einem Konzept aus der unternehmerischen Praxis, bei dem die unternehmensübergreifende Zusammenarbeit entlang einer Wertschöpfungskette im Vordergrund steht. Zum anderen mit dem Krankenhaus, einem Unternehmen aus dem Gesundheitssystem, welches die Versorgung der Bevölkerung mit Gesundheitsgütern sicherstellt. - Ziel der Arbeit ist es, verschiedene Supply Chain Management Konzepte auf das Dienstleistungsangebot von Krankenhäusern zu übertragen bzw. zu untersuchen, an welchen Stellen eine Übertragung nicht gelingt. Bisher gab es in den Krankenhäusern kaum Bestrebungen, sich mit dem Supply Chain Management (SCM) auseinander zu setzen. Die Gründe für dieses Phänomen werden aufgezeigt. Diese Arbeit baut auf einer Diplomarbeit mit dem Thema "Supply Chain Management im Dienstleistungsunternehmen" auf, die zu dem Schluss kommt, dass das SCM auf Unternehmen der Dienstleistungsbranche prinzipiell übertragbar ist.



Klose, Stephan;
Möglichkeiten der Online - Unternehmensberatung. - VII, 73 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2010

Die Branche der Unternehmensberatung mit ihren umfangreichen Angeboten und Leistungen gehört heutzutage zweifellos zu den essentiellen Bestandteilen der globalen Wirtschaftswelt. Aus der kontinuierlich zunehmenden Bedeutung des Internets für die weltweite Wirtschaft resultiert die Fragestellung, in wie weit sich diese Technologien im Sektor der Unternehmensberatung zur Unterstützung bzw. Abwicklung einzelner Prozesse nutzen lassen. Dabei bietet vor allem der Bereich der IV- Beratung eine solide Basis für einen Ansatz, da er sich auf Grund seines technischen und technologischen Hintergrundes besser als andere Beratungsformen für den umfassenden Einsatz des Internets eignet. Ziel der vorliegenden Arbeit ist es zu analysieren, welche Inhalte der Unternehmensberatung und dabei speziell der IV- Beratung sich für den Einsatz in digitalisierter Form eignen. Darüber hinaus werden Grenzen diese Beratungsform erörtert. Dazu wird zunächst aufgezeigt, welchen Stand der Einsatz des Internets in der Beratung heute hat. Im Anschluss daran wird anhand eines allgemeingültigen Beratungsprozesses untersucht, welche Einzelprozesse sich unter Einbeziehung gewisser Einflussfaktoren dazu eigenen, entweder vollständig automatisiert zu werden oder zumindest eine Teilautomatisierung zur Prozessunterstützung zulassen. Anschließend wird analysiert und bewertet, in wie weit sich Schnittmengen zwischen den voll- bzw. teilweise automatisierbaren Prozessen und den technischen Möglichkeiten des Internets ergeben. Den Abschluss bilden eine Zusammenfassung und ein Ausblick.



Köhler, Patricia;
Empirische Untersuchung zur Nutzung von eRecruiting in der Unternehmensberatung. - 75 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2009

Da die Unternehmensberatung in den vergangen Jahren einen regelrechten Boom erlebt hat, wurden verschiedene Personalbeschaffungsformen von den Beratungsunternehmen eingesetzt. Der Personalbeschaffung verläuft in der heutigen Zeit oft webgestützt. Doch wird die webgestützte Form das sogenannte eRecruiting- auch in der Branche der Unternehmensberatung eingesetzt? Auf welche Art und Weise wird auf eRecruiting zurückgegriffen und in welchem Umfang. Ist dies sinnvoll in jeder Stufe des Bewerbungsprozesses? - Am Anfang dieser Bachelorarbeit wird der Begriff eRecruiting und Unternehmensberatung abgegrenzt und definiert. Die Problematik, die sich auf dem Arbeitsmarkt aus Sicht des Bewerbers und des Beratungsunternehmen auftut, wird anschließend geschildert. Darauf folgend wird erläutert, welche Vor- und Nachteile sich aus dem eRecruiting ergeben und welche einzelnen Formen des eRecruitings existieren. Durch eine empirische Untersuchung in Form eines Fragebogens, wurde eine repräsentative Anzahl von Unternehmensberatungen mit verschiedenen Geschäftsfeldern befragt. Darauf aufbauend werden die Ergebnisse ausgewertet und anschließend diskutiert. Auf diesem Weg sollen Hintergründe und Verbesserungspotenziale aufgezeigt werden. - Der verstärkte Einsatz von eRecruiting ist sehr abhängig von der Unternehmensgröße. Allerdings setzen nahezu alle befragten Unternehmensberatungen eRecruiting ein. Eine hohe Intensität findet man nur bei Beratungsunternehmen mit großer Mitarbeiterzahl. Ausschließlich eRecruiting wird noch nicht angewendet, sondern immer eine Mischform zwischen traditioneller und webgestützter Personalbeschaffung. Die Unternehmen haben noch nicht das Vertrauen in eRecruiting und voll ziehen die letzten Stufen des Bewerbungsprozesses lieber persönlich. Wenn sich eRecruiting vollständig in den Bewerbungsprozess integriert hat, werden die Ergebnisse der Umfrage ändern und bilden somit neuen Forschungsbedarf.



Grunert, Matthias;
Beschreibung von Schnittstellen zur Kommunikation mit einer Wissensdatenbank in einem Wissensbewertungssystem. - 57 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2009

Wissen stellt ein grundlegendes Element des Geschäftserfolges dar und kann vor allem in wissensintensiven Branchen zum differenzierenden Faktor im Wettbewerb zwischen Organisationen werden. Bisher unterstützen Informationsverarbeitungssysteme vorrangig den operativen Bereich und vernachlässigen auf diese Weise die strategische Wissensplanung. Diese ist jedoch für ein ganzheitliches System unerlässlich ist, um eine nachvollziehbare Messung und Bewertung von Wissen im Unternehmen zu ermöglichen. - Die Technische Universität Ilmenau entwickelt zu diesem Gedanken einen ganzheitlichen Ansatz zur integrativen strategischen Wissensplanung, der Knowlegde Valuation Management Architektur. Als ein zentrales Element ist hierbei das Modul Wissensbasis in Form einer Wissensdatenbank zu sehen, die den Speicherort für Informationen über das Wissen in der Organisation darstellt. - Die vorliegende Bachelor-Arbeit soll diesen Teil, den Entwurf einer Wissensdatenbank sowie die Beschreibung von Schnittstellen zu deren Kommunikation zum Gegenstand haben und auf diese Weise einen weiteren Baustein auf dem Weg zur Knowlegde Valuation Management Architektur bilden. - Einer Einleitung in das Thema Wissen und Wissensmanagement folgend, werden Formen der Wissensspeicherung betrachtet und erläutert wie Fähigkeiten von Mitarbeitern eines Unternehmens erfassbar und auswertbar gemacht werden können. Es schließt sich daran der Vorschlag zum Entwurf einer Wissensdatenbank an sowie deren Kommunikation mit umgebenden Systemen. Den Abschluss bilden eine Zusammen-fassung, eine Bewertung und Gedanken für eine spätere Weiterentwicklung.



Möhring, Michael;
Service-orientierte Architekturen - von Web Services zu intelligenten Diensten. - 37 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2009

Service-orientierte Architekturen (SOA) rücken seit einigen Jahren immer mehr in den Focus. Viele Unternehmen spezialisieren sich zunehmend auf SOA-Lösungen. Dabei stellt sich die Frage, welche Vorteile bieten Service-orientierte Architekturen und welche Grenzen weist die derzeitige Umsetzung mittels Web Services auf und wie können diese weiterentwickelt werden. Diese Arbeit zeigt den aktuellen Stand dieser Technologie und die Möglichkeiten von intelligenten Software-Agenten in Service-orientierten Architekturen, zur Weiterentwicklung der derzeitigen Web Service Umsetzung, auf. Es werden verschiedene Varianten zur semantischen Beschreibung von Web Services diskutiert und die Möglichkeiten der Verschmelzung von Web Services mit der Agenten-Technologie vorgestellt. Dabei wurde ein Agent als Web Service entwurfsweise implementiert.