Publikationen aus dem Universitätsverlag Ilmenau

Anzahl der Treffer: 377
Erstellt: Wed, 08 May 2024 23:21:49 +0200 in 0.0591 sec


Fischer, Martin S.; Gorb, Stanislav N.; Karguth, Andreas; Mämpel, Jörg; Witte, Hartmut
InspiRat : biologisch inspirierter Kletterroboter für die externe Inspektion linearer Strukturen. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - 165 S.. - (Berichte aus der Biomechatronik ; Bd. 8) ISBN 978-3-86360-052-5
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=23583

TETRA GmbH Ilmenau und drei universitäre Lehrstühle zeigen im Projekt InspiRat, dass bei wissenschaftlicher Unterstützung auch die deutsche Industrie in der Lage ist, in der Robotik internationale Standards zu setzen. InspiRat und RatNics als Akronyme sollen Assoziationen wecken: Analyse des Kletterns insbesondere von Ratten trieb den Bau einer neuen Klasse von Robotern. Waren zu Beginn des Projektes integrierte Kletterroboter mit Massen > 35 kg verfügbar, so gibt es nun Maschinen mit 1 kg bis 2 kg Masse, experimentell modulare Systeme mit 250 g Masse. Nebenergebnis ist die weltweite Definition des Standes der Technik der Röntgenvideographie zusammen mit der Siemens® AG: biplanar 2.000 Röntgenbilder/Sekunde in HD. Ergebnisse universitärer Studien werden in Journalen publiziert, doch belegt die Nachfrage nach dem Abschlussbericht des Projektes für das BMBF das Interesse an einer übergreifenden, transdisziplinären Darstellung des bionischen Entwicklungsprozesses. Wir publizieren deswegen diesen Abschlussbericht nur geringfügig redaktionell überarbeitet. Er beschreibt somit den wissenschaftlichen Stand 2011 in einer auf den Fördermittelgeber zugeschnittenen Darstellungsweise. Die Wissenschaft ist nicht stehen geblieben, wir erleichtern die Nachverfolgung durch Angabe einiger Publikationen aus der Zeit nach Projektende. Doch ist unser Anspruch nicht prospektiv wie bei Zeitschriftenartikeln, wir wollen retrospektiv die Analyse eines erfolgreich abgeschlossenen Prozesses ermöglichen.



Troitzsch, Constanze;
Netzfehler in vermaschten HGÜ-Netzen : ein Verfahren zur Berechnung, Detektion, Fehlerklärung. - Ilmenau : Univ.-Verl. Ilmenau. - IX, 121 S.. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik ; 9) : Teilw. zugl.: Ilmenau, Techn. Univ., Masterarbeit, 2013
ISBN 978-3-86360-076-1

Weltweit wird der Aufbau von Energieübertragungsnetzen basierend auf Hochspannungsgleichstromübertragung (HGÜ) diskutiert. Eine mögliche Anwendung ist der Transport verbraucherfern regenerativ erzeugter Energie in die Lastzentren, wodurch bestehende Drehstromübertragungssysteme entlastet werden. In diesem Zusammenhang sind die Verfügbarkeit von HGÜ-Netzen und damit der Umgang mit DC-Fehlern von enormer Bedeutung. Durch die fehlenden natürlichen Nulldurchgänge und großen Anstiege der Fehlerströme ist eine Anwendung bestehender AC-Schutztechniken nicht möglich. Dies erfordert den Entwurf neuartiger HGÜ-Netzschutzkonzepte, die die in Drehstromsystemen etablierten Anforderungen hinsichtlich Schnelligkeit, Zuverlässigkeit, Empfindlichkeit, Selektivität und Wirtschaftlichkeit erfüllen. Damit Fehlerklärungsprozesse diesen Anforderungen gerecht werden, ist die Implementierung eines zuverlässigen Fehlerdetektionskonzepts essentiell, das die Charakteristik und Größenordnung auftretender Fehlerströme zu Grunde legt. Der Gegenstand dieser Arbeit ist die Ermittlung von Netzfehlercharakteristiken in ausgedehnten vermaschten HGÜ-Netzen und daraus abgeleitet die Konzeption und Analyse von Fehlerdetektions- und Fehlerklärungsverfahren. Dabei wird der Fokus in dieser Arbeit auf DC-Leitungsfehler gelegt. Unter anderem wird gezeigt, dass die Fehlerströme in HGÜ-Netzen eine Wanderwellencharakteristik besitzen. Daran anknüpfend wird ein telekommunikationsloses Fehlerdetektionskonzept vorgestellt, das sich vor allem durch seine Schnelligkeit und hohe Selektivität auszeichnet. Dessen Funktionalität wird in verschiedenen numerischen Fallstudien nachgewiesen. Abschließend werden ansatzweise die Auswirkungen der DC-Fehlerklärung auf ein unterlagertes AC-Netz untersucht.



Pölck, Anja;
Small TCBs of policy-controlled operating systems. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - XIII, 249 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2013

IT Systeme mit qualitativ hohen Sicherheitsanforderungen verwenden zur Beschreibung, Analyse und Implementierung ihrer Sicherheitseigenschaften zunehmend problemspezifische Sicherheitspolitiken, welche ein wesentlicher Bestandteil der Trusted Computing Base (TCB) eines IT Systems sind. Aus diesem Grund sind die Korrektheit und Unumgehbarkeit der Implementierung einer TCB entscheidend, um die geforderten Sicherheitseigenschaften eines Systems herzustellen, zu wahren und zu garantieren. Viele der heutigen Betriebssysteme zeigen, welche Herausforderung die Realisierung von Sicherheitspolitiken darstellt; seit mehr als 40 Jahren unterstützen sie wahlfreie identitätsbasierte Zugriffssteuerungspolitiken nur rudimentär. Dies führt dazu, dass große Teile der Sicherheitspolitiken von Anwendersoftware durch die Anwendungen selbst implementiert werden. Infolge dessen sind die TCBs heutiger Betriebssysteme groß, heterogen und verteilt, so dass die exakte Bestimmung ihres Funktionsumfangs sehr aufwendig ist. Im Ergebnis sind die wesentlichen Eigenschaften von TCBs - Korrektheit, Robustheit und Unumgehbarkeit - nur schwer erreichbar. Dies hat zur Entwicklung von Politik gesteuerten Betriebssystemen geführt, die alle Sicherheitspolitiken eines Betriebssystems und seiner Anwendungen zentral zusammenfassen, indem sie Kernabstraktionen für Sicherheitspolitiken und Politiklaufzeitumgebungen anbieten. Aktuelle Politik gesteuerte Betriebssysteme basieren auf monolithischen Architekturen, was dazu führt, dass ihre Komponenten zur Durchsetzung ihrer Politiken im Betriebssystemkern verteilt sind. Weiterhin verfolgen sie das Ziel, ein möglichst breites Spektrum an Sicherheitspolitiken zu unterstützen. Dies hat zur Folge, dass ihre Laufzeitkomponenten für Politikentscheidung und -durchsetzung universal sind. Im Ergebnis sind ihre TCB-Implementierungen groß und komplex, so dass der TCB- Funktionsumfang nur schwer identifiziert werden kann und wesentliche Eigenschaften von TCBs nur mit erhöhtem Aufwand erreichbar sind. Diese Dissertation verfolgt einen Ansatz, der die TCBs Politik gesteuerter Betriebssysteme systematisch entwickelt. Die Idee ist, das Laufzeitsystem für Sicherheitspolitiken so maßzuschneidern, dass nur die Politiken unterstützt werden, die tatsächlich in einer TCB vorhanden sind. Dabei wird der Funktionsumfang einer TCB durch kausale Abhängigkeiten zwischen Sicherheitspolitiken und TCB-Funktionen bestimmt. Das Ergebnis sind kausale TCBs, die nur diejenigen Funktionen enthalten, die zum Durchsetzen und zum Schutz der vorhandenen Sicherheitspolitiken notwendig sind. Die präzise Identifikation von TCB-Funktionen erlaubt, die Implementierung der TCB-Funktionen von nicht-vertrauenswürdigen Systemkomponenten zu isolieren. Dadurch legen kausale TCBs die Grundlage für TCB-Implementierungen, deren Größe und Komplexität eine Analyse und Verifikation bezüglich ihrer Korrektheit und Unumgehbarkeit ermöglichen. Kausale TCBs haben ein breites Anwendungsspektrum - von eingebetteten Systemen über Politik gesteuerte Betriebssysteme bis hin zu Datenbankmanagementsystemen in großen Informationssystemen.



Karl, Andreas;
Laserauftragschweißen hochlegierter Duplexstähle. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - 230 S.. - (Werkstofftechnik aktuell ; 10) : Zugl.: Ilmenau, Techn. Univ., Diss., 2013
ISBN 978-3-86360-089-1
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=23455

In der vorliegenden Arbeit ist die Entwicklung korrosionsbeständiger Beschichtungen auf dem niedrig legierten Druckbehälterstahl P265GH beschrieben. Die Funktionsschichten aus Duplexstahl werden über den Prozess des Laserauftragschweißens aufmischungsarm erzeugt. Abhängig von den Prozessparametern entstehen 1 bis 2 mm dicke, nahezu defektfreie, Schichten mit einer Porosität von unter 1 %. Über eine hohe Energiedichte und dem daraus resultierenden lokal eng begrenzten Schmelzbad auf der Substratoberfläche ist es möglich, einen Aufschmelzgrad von unter 3 % ohne Anbindungsfehler zu erzielen. Die Parameter des laserbasierten Beschichtungsprozesses wurden aus numerischen Berechnungen abgeschätzt und auf die vorhandene Anlage übertragen. Haupteinflüsse sind neben der Laserleistung und dem Vorschub der zugeführte Pulvermassenstrom. Für den Spur- bzw. Schichtaufbau besitzt außerdem die geometrische Ausrichtung der Komponenten zueinander einen großen Einfluss. Für den Schweißprozess kommen pulvermetallurgisch erzeugte Eisen-Basiswerkstoffe mit einem Cr/Ni-Äquivalent zwischen 1,5 und 3,4 zum Einsatz. Daraus resultieren im rasch erstarrten Gefüge Austenitanteile zwischen 100 und 20 %. Hierbei ist zu beachten dass das Gefüge in mehrere Zonen unterteilt ist, welche abhängig von der jeweiligen lokalen Wärmezufuhr innerhalb der aufgebrachten Schicht unterschiedliche Phasenverhältnisse und Morphologien aufweisen. Speziell Stickstoff besitzt dabei einen wichtigen Einfluss auf die Phasenbildung der Duplexstähle. Eine ortsaufgelöste Analyse der Stickstoffverteilung im Schweißgefüge zeigt, dass sich Stickstoff im Gegensatz zu den substituierenden Legierungselementen Chrom, Nickel und Molybdän trotz der raschen Abkühlung fast vollständig im Austenit anreichert. Jedoch bilden sich innerhalb großer Ferritkörner bei Abkühlung aus der Schmelze Chromnitride. Gründe hierfür sind eine geringe Löslichkeit von Stickstoff im kubisch raumzentrierten Gitter sowie kurze Diffusionslängen. Abschließend wird mit der Entwicklung eines cannerbasierten Schweißprozesses aufgezeigt, wie die Auftragsrate deutlich gesteigert werden kann. Hieraus ergeben sich Potentiale eines laserbasierten Beschichtungsprozesses im Hinblick auf Kostenersparnis und Ressourcenschonung.



Exner, Nadine;
Entwicklung und Überprüfung eines Modells zur langfristigen Nutzung von Smart Metern : eine Panelstudie mit drei Wellen. - Ilmenau : Universitätsverlag Ilmenau, 2014. - 262 Seiten. - (Ilmenauer Beiträge zur elektrischen Energiesystem-, Geräte- und Anlagentechnik ; 8)
Technische Universität Ilmenau, Dissertation 2013

ISBN 978-3-86360-088-4

Das Ziel dieser Dissertation ist die Erforschung von Determinanten der kurzfristigen und langfristigen Nutzung von Smart Metern und damit im Zusammenhang stehenden Produkten. Dabei wird auf das Rubikon-Modell, wie auch Ergebnisse aus der Technikakzeptanzforschung und der umweltpsychologischen Forschung zur Energienutzung und Lebensstilen zurückgegriffen. Auf dieser Grundlage wird das eigene Forschungsmodell LIMA (Longterm Intelligent Metering Adoption) entwickelt. Im Rahmen des RESIDENS-Projekts werden die benötigten Daten mit Hilfe eines Paneldesigns mit drei Wellen erfasst. Bei der Datenerhebung wird ein Methodenmix zur Erfassung von objektiven und subjektiven Daten eingesetzt. Die Überprüfung der Messmodelle und des LIMA-Modells erfolgt mit Hilfe von Strukturgleichungsmodellen und Pfadanalysen. Mit kleinen Anpassungen beschreiben die Modelle die empirischen Daten relativ gut. Insgesamt zeigen die Studienergebnisse, dass Smart Metering und damit im Zusammenhang stehende Produkte von einem Teil der Bevölkerung sowohl zum gegenwärtigen Stand der Technik, als auch in einem Zukunftsszenario mit automatisierter Steuerung der Haushaltsgeräte akzeptiert werden. Dieser Teil der Bevölkerung sind die Innovatoren, die neue Technologien als Erste nutzen.



Kloos, Oliver;
Generierung von Simulationsmodellen auf der Grundlage von Prozessmodellen. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - XIV, 508 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2013

Um dynamische Analysen auf Prozessmodelle anzuwenden, müssen diese als dynamische Modelle vorliegen. Bei Prozessmodellen eigenen sich für diesen Anwendungszweck diskrete Simulationsmodelle. Aufgrund des unterschiedlichen Einsatzzweckes von Prozess- und Simulationsmodellen können Prozessmodelle nicht direkt für eine Simulation verwendet werden. Als Ansatz, das statische Prozessmodell in ein dynamisches Simulationsmodell umzuwandeln, wurde das ProSiT Konzept entwickelt und auf die Geschäftsprozessnotationen eEPK, BPMN und das UML Aktivitätsdiagramm angewendet. Das ProSiT Konzept stellt eine zentrale Instanz zwischen verschiedenen Geschäftsprozessnotationen und Simulationsumgebungen dar. Das Konzept umfasst Transformationsregeln, ein Transformationsmodell - das ProSiT Modell - und Normalisierungsregeln zur Vorbereitung des Modells auf eine Simulation. Prozessmodelle werden zunächst mit Vorbereitungsregeln für eine Transformation in das ProSiT Modell vorbereitet. Das vorbereitete Modell wird anschließend mit Transformationsregeln überführt. Normalisierungsregeln im Kontext des ProSiT Modells vereinfachen den Prozessablauf und fügen fehlende Informationen hinzu, die für eine Simulation notwendig sind, aber nicht im ursprünglichen Prozessmodell vorhanden sind. Diese Regeln liegen als automatische, semi-automatische und manuelle Normalisierungsregeln vor. Ist ein Modell normalisiert, kann mittels Anwendbarkeitsregeln geprüft werden, ob eine Simulationsumgebung das Modell simulieren kann. Trifft dies zu, wird mittels Transformationsregeln das Simulationsmodell aus dem normalisierten Transformationsmodell erzeugt.



Berger, Thomas;
On differential-algebraic control systems. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - 329 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2013
Literaturverz. S.301 - 318

In der vorliegenden Dissertation werden differential-algebraische Gleichungen (differential-algebraic equations, DAEs) der Form d dt Ex = Ax + f betrachtet, wobei E und A beliebige Matrizen sind. Falls E nichtverschwindende Einträge haben, dann kommen in der Gleichung Ableitungen der entsprechenden Komponenten von x vor. Falls E eine Nullzeile hat, dann kommen in der entsprechenden Gleichung keine Ableitungen vor und sie ist rein algebraisch. Daher werden Gleichungen vom Typ d dt Ex = Ax + f differential-algebraische Gleichungen genannt. Ein Ziel dieser Dissertation ist es, eine strukturelle Zerlegung einer DAE in vier Teile herzuleiten: einen ODE-Anteil, einen nilpotenten Anteil, einen unterbestimmten Anteil und einen überbestimmten Anteil. Jeder Anteil beschreibt ein anderes Lösungsverhalten in Hinblick auf Existenz und Eindeutigkeit von Lösungen für eine vorgegebene Inhomogenität f und Konsistenzbedingungen an f. Die Zerlegung, namentlich die quasi-Kronecker Form (QKF), verallgemeinert die wohlbekannte Kronecker-Normalform und behebt einige ihrer Nachteile. Die QKF wird ausgenutzt, um verschiedene Konzepte der Kontrollierbarkeit und Stabilisierbarkeit für DAEs mit f = Bu zu studieren. Hier bezeichnet u den Eingang des differential-algebraischen Systems. Es werden Zerlegungen unter System- und Feedback-Äquivalenz, sowie die Folgen einer Behavioral-Steuerung K_x x + K_u u = 0 für die Stabilisierung des Systems untersucht. Falls für das DAE-System zusätzlich eine Ausgangs-Gleichung y =Cx gegeben ist, dann lässt sich das Konzept der Nulldynamik wie folgt definieren: die Nulldynamik ist, grob gesagt, die Dynamik, die am Ausgang nicht sichtbar ist, d.h. die Menge aller Lösungs-Trajektorien (x,u,y) mit y = 0. Für rechts-invertierbare Systeme mit autonomer Nulldynamik wird eine Zerlegung hergeleitet, welche die Nulldynamik entkoppelt. Diese versetzt uns in die Lage, eine Behavior-Steuerung zu entwickeln, die das System stabilisiert, vorausgesetzt die Nulldynamik selbst ist stabil. Wir betrachten auch zwei Regelungs-Strategien, die von den Eigenschaften der oben genannten System-Klasse profitieren: Hochverstärkungs- und Funnel-Regelung. Ein System d dt Ex = Ax + Bu, y =Cx, hat die Hochverstärkungseigenschaft, wenn es durch die Anwendung der proportionalen Ausgangsrückführung u = -ky, mit k > 0 hinreichend groß, stabilisiert werden kann. Wir beweisen, dass rechts-invertierbare Systeme mit asymptotisch stabiler Nulldynamik, die eine bestimmte Relativgrad-Annahme erfüllen, die Hochverstärkungseigenschaft haben. Während der Hochverstärkungs-Regler recht einfach ist, ist es jedoch a priori nicht bekannt, wie groß die Verstärkungskonstante k gewählt werden muss. Dieses Problem wird durch den Funnel-Regler gelöst: durch die adaptive Justierung der Verstärkung über eine zeitabhängige Funktion k(.) und die Ausnutzung der Hochverstärkungseigenschaft wird erreicht, dass große Werte k(t) nur dann angenommen werden, wenn sie nötig sind. Eine weitere wesentliche Eigenschaft ist, dass der Funnel-Regler das transiente Verhalten des Fehlers e = y - y ref der Bahnverfolgung, wobei y ref die Referenztrajektorie ist, beachtet. Für einen vordefinierten Performanz-Trichter (funnel) [Psi] wird erreicht, dass e(t) < [Psi](t). Schließlich wird der Funnel-Regler auf die Klasse von MNA-Modellen von passiven elektrischen Schaltkreisen mit asymptotisch stabilen invarianten Nullstellen angewendet. Dies erfordert die Einschränkung der Menge der zulässigen Referenztrajektorien auf solche die, in gewisser Weise, die Kirchhoffschen Gesetze punktweise erfüllen.



Bergmann, Sören;
Automatische Generierung adaptiver Modelle zur Simulation von Produktionssystemen. - Ilmenau : Univ.-Verl. Ilmenau, 2014. - XXXVII, 221 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2013

Die Simulation von Produktionsprozessen wird heute in einer Vielzahl von Branchen eingesetzt. Simulation dient hierbei zur Analyse, dem Design und der Optimierung der Produktions- und Logistikprozesse und dem dabei anfallenden Ressourceneinsatz und kann hierbei sowohl in der Planung, Inbetriebnahme als auch während des operativen Betriebs genutzt werden. Den unbestritten großen Potentialen der Materialflusssimulation in Unternehmen stehen entsprechend hohe Aufwände entgegen. Diese entstehen sowohl bei der Implementierung der Modelle als auch deren Nutzung. Durch schlechte Integration und Standardisierung der Simulation, steigende Anforderungen der Unternehmen bzgl. Genauigkeit, Flexibilität, Anpassbarkeit, Geschwindigkeit, Kosten, Wiederverwendbarkeit, Zyklen und phasenübergreifender Nutzbarkeit usw. werden die Aufwände teils unnötig gesteigert. Ein Ansatz, der seit einigen Jahren immer wieder als ein Lösungsbeitrag für eine bessere Nutzung der Simulation auch gerade in KMU's betrachtet wird, ist die automatische Generierung von Simulationsmodellen. Unter automatischer Modellgenerierung werden verschiedene Ansätze subsumiert, die erlauben Simulationsmodelle oder zumindest Teile von Modellen mittels Algorithmen zu erzeugen. Bisher wurde kein Ansatz veröffentlicht, der für einen breiteren Nutzerkreis und über einen speziellen Teilbereich hinaus gute Ergebnisse liefert.In dieser Arbeit wurde ein umfassendes Rahmenwerk zur Integration bzw. Automatisierung der Simulation entworfen und validiert. Es wurden sowohl organisatorische, methodische als auch prototypisch technische Komponenten betrachtet. In diesem Zusammenhang wird die These vertreten, dass eine breit anwendbare automatische Modellgenerierung allein durch die Nutzung von Standards zum Datenaustausch bzw. zur Konzeptmodellerstellung sinnvoll zu implementieren ist. Konkret wurde der Core Manufacturing Simulation Data (CMSD) Standard genutzt bzw. bildet die Referenzanwendung des Standards die Basis der gesamten Arbeit. Die Unterstützung aller Simulationsphasen, d.h. nicht allein der Modellerstellung sondern auch der Alternativenbildung, Initialisierung, Ergebnisauswertung usw. in allen Komponenten wird durchgehend gewährleistet. Weiterhin wurden konkret Modellgenerierungsmethoden und Verfahren zur Abbildung des dynamischen Verhaltens in Modellen klassifiziert und einzelne Lösungsansätze vorgestellt.



Zentner, Lena
10. Kolloquium Getriebetechnik : Technische Universität Ilmenau, 11.-13. September 2013. - Ilmenau : Universitätsverlag Ilmenau, 2013. - 454 Seiten. - (Berichte der Ilmenauer Mechanismentechnik ; Band 2) ISBN 978-3-86360-065-5
Beitr. teilw. dt., teilw. engl. - Literaturangaben. - Zusätzliches Online-Angebot unter urn:nbn:de:gbv:ilm1-2013100033

In diesem Band sind die Beiträge des 10. Kolloquiums Getriebetechnik 2013 in Ilmenau zusammengestellt. Getriebe für Web- und Flechtmaschinen, für Schränke und Sessel, ein Schlagmechanismus für eine bevorstehende Marsmission, Robotersysteme für Mensch-Maschine-Schnittstellen, ein Mechanismus in einem Großteleskop oder Präzisionsmessgerät, ein einfacher Federbügel sowie nachgiebige Aktuatoren und Mechanismen - das sind nur einige von den hoch interessanten Systemen, die in diesem Band vorzufinden sind.



Be&hacek;no, Rastislav;
Ergonomics in business logistics. - Ilmenau : Univ.- Verl. Ilmenau. - 146 S.. - (Scientific monographs in automation and computer science, 12) : Teilw. zugl.: Trnava, Univ., Diss.
ISBN 978-3-86360-079-2
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=23075

This monograph deals with the possibilities of ergonomics implementation in business logistics with the aim to provide sustainable competitiveness of enterprises via effective human work in ergonomically acceptable and flexible conditions. For the purposes of the current monograph, business logistics is studied on the level of logistic operations involving all employees who perform work activities directly initiating disorders and damages to the musculoskeletal system. The monograph analyses the methodology of ergonomics implementation in business logistics through the improvement of work activities and reducing employees stress. In the above-mentioned methodology, an employee represents both, an object and a subject of all efforts building the work environment. This includes supporting the sustainable quality of employees work life while simultaneously considering both environmental and economic conditions.