Publications from the Ilmenau University Press

Results: 377
Created on: Mon, 29 Apr 2024 23:15:05 +0200 in 0.1064 sec


Saleh, Kutaiba;
Erweiterung eines Gefäßmodells zur Validierung von Gefäßmessalgorithmen in der Retina sowie theoretische und experimentelle Untersuchungen zu Messfehlerquellen der Gefäßanalyse. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - XI, 113 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2009

Das retinale Gefäßsystem ermöglicht als diagnostisches Fenster in den menschlichen Körper nicht nur diagnostische Aussagen über vaskuläre Augenerkrankungen, sondern ggf. auch Schlussfolgerungen auf systemische Gefäßerkrankungen. Dabei analysiert die retinale Gefäßanalyse vaskuläre Veränderungen insbesondere über die Messung retinaler Gefäßdurchmesser und ihres dynamischen Verhaltens unter unterschiedlichen Mess- und Stimulationsbedingungen. Für retinale Gefäßdurchmessermessungen werden unterschiedliche Messverfahren eingesetzt. Bei Anwendung dieser Messverfahren bestimmen eine Vielzahl von messtechnischen Parametern (optische Eigenschaften der Messkette, Beleuchtungsparameter) sowie von biologischen Einflußgrößen (zeitliche und örtliche biologische Variabilität, Kopf- und Augenbewegungen) die Aufnahmebedingungen und sind damit Quellen von Messfehlern. Objektive Kriterien zur Überprüfung der Messergebnisse bzw. zum Vergleich von Messmethoden können mit Gefäßabbildungsmodellen erarbeitet werden. Da körperliche Abbildungsmodelle bezüglich ihrer Komplexität und Variabilität nicht sinnvoll mit ausreichender Genauigkeit und hinreichender Praktikabilität realisierbar sind, wird dafür in dieser Arbeit ein numerisches Modell entwickelt. Mit diesem Modell können die Auswirkungen einer Vielzahl von technischen sowie biologischen Einflußgrößen auf die Messergebnisse mit hoher Flexibilität simuliert werden. Ein vorhandenes numerisches Basismodell wird im Rahmen dieser Arbeit umfassend neu strukturiert, aktualisiert, wesentlich erweitert und implementiert. Dabei wird der Abbildungsvorgang der retinalen Gefäße bis auf das aufgenommene Pixelbild realitätsnah simuliert. Die Modellerweiterung ermöglicht die Betrachtung zusätzlicher Einflussgrößen. Störungen bei der Gefäßdarstellung sowie die optischen Eigenschaften des Blutes (Vene-Arterie) werden dabei berücksichtigt. Außerdem sind weitere Parameter zur Beschreibung der Eigenschaften von Bildsensoren implementiert. Anschließend wurde eine Ausgabemöglichkeit der modellierten Gefäßbilder als Bilddatei geschaffen. Dadurch besteht die Möglichkeit, beliebige Messverfahren auf diese Bilder anzuwenden und die Ergebnisse der Gefäßdurchmessermessungen zu vergleichen. Mit diesem Modell ist nun eine Evaluierung von Messalgorithmen zur Gefäßdurchmesserbestimmung möglich. Dadurch besteht auch die Möglichkeit, den Einfluss verschiedener Modellparameter auf die Linearität der Messbeziehung isoliert zu erfassen. Dafür werden verschiedene Modellparameter in realen Fundusbildern zur experimentellen Bestimmung ihrer Wertebereiche untersucht. Andere Parameterbereiche werden aus der Literatur entnommen. Innerhalb dieser Wertbereiche werden die Abweichungen der gemessenen Werte von den Sollwerten erfasst und damit der systematische Fehler bzw. eine Korrekturkurve der im Modell integrierten automatischen Messmethode ermittelt. Zusätzlich wird der Einfluss von Änderungen ausgewählter Modellparameter (z. B. Kontrast, Helligkeit, optische Auflösung) auf den Gefäßdurchmesser gezeigt. Der Einfluss der zufälligen Änderungen der Modellparameter wird durch das Modell quantifiziert und systematisch simuliert. Außerdem ermöglicht das Modell durch frei einstellbare Parameter die Bestimmung eines Arbeitsbereiches, in dem das Messverfahren zuverlässig arbeitet. Dadurch können Qualitätsanforderungen an die Fundusabbildung abgeleitet werden, die für ein zu testendes Messverfahren unbedingt erfüllt werden müssen, um die Genauigkeit und Zuverlässigkeit der Messwerte zu gewährleisten.



Carl, Kathrin;
Technische Biologie des Tasthaar-Sinnessystems als Gestaltungsgrundlage für taktile stiftführende Mechanosensoren. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - XIX, 203 S.. - (Berichte aus der Biomechatronik ; 3) : Zugl.: Ilmenau, Techn. Univ., Diss., 2008
ISBN 978-3-939473-45-9
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=12023

Die Natur bietet ein unerschöpfliches Potential an Phänomenen mit technischer Relevanz. Oft scheitert die breite Anwendung von Ideen aus der Biologie am Fehlen einer effektiven Transfermethode zwischen Forschung und industrieller Anwendung. In der vorliegenden Arbeit wird basierend auf einer vergleichenden Betrachtung biologischer Sinnesorgane und technischer Sensorsysteme ein Konzept zur systematischen Analyse der funktionell entscheidenden Grundprinzipien biologischer Sinnesorgane dargestellt. Dieses Konzept des Reizleitungsapparates ermöglicht die Aufbereitung und Systematisierung biologischen Wissens und eignet sich für eine Anwendung auf technische Sensoren zur Identifikation des Optimierungspotentials und Entwicklung von Lösungsansätzen. Am Beispiel taktiler stiftführender Sensoren wird das Konzept zum Reizleitungsapparat als methodische Leitlinie angewandt. Als Untersuchungsobjekt wird aufgrund seiner technisch relevanten Charakteristika das Tasthaar-Sinnessystem von Säugetieren mit den peripheren Strukturen Haarschaft, Follikel-Sinus-Komplex und Mechanorezeptoren ausgewählt. Ziel der Untersuchungen dieses Sinnesorgans ist nicht die detaillierte Aufklärung aller funktionellen Zusammenhänge von der Peripherie bis zu der neuronalen Verarbeitungskette, sondern eine Abstraktion entscheidender Grundprinzipien, die den Ausgangspunkt für Lösungsansätze sensortechnischer Problemstellungen darstellen. Daher erfolgt die Aufarbeitung der biologischen Kenntnisse unter Zuhilfenahme ingenieur-wissenschaftlicher Methoden und Modelle. Die Peripherie des Tasthaar-Sinnesorgans wird als Biegebalken mit nachgiebiger Lagerung interpretiert, deren Steifigkeit aktiv einstellbar ist. Während der Haarschaft bezüglich seiner Struktur und der mechanischen Eigenschaften mit verschiedenen experimentellen Methoden untersucht werden kann, muss bei der Analyse des Follikel-Sinus-Komplexes auf deduktive Methoden der Modellbildung zurückgegriffen werden. Es wird ein auf Grundprinzipien reduziertes mechanisches Modell vorgestellt und dessen Reaktion einerseits als statisches und andererseits als dynamisches System auf verschiedene Erregerkräfte analysiert. Abschließend werden Ansatzpunkte zur Optimierung taktiler stiftführender Sensoren entwickelt. Schwerpunkte liegen neben Gestaltungsvorschlägen für die reizaufnehmende Struktur auf der Umsetzung einer nachgiebigen und in ihrer Steifigkeit einstellbaren Lagerung.



Grzesik, Axel;
Physiologiebasierte Simulation des Bremsverhaltens von Fahrzeugführern. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - 193 S.. - (Kraftfahrzeugtechnische Berichte ; 2) : Zugl.: Ilmenau, Techn. Univ., Diss., 2009
ISBN 978-3-939473-48-0
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=12343

Die Schnittstelle zwischen Fahrzeug und Fahrzeugführer ist nach wie vor ein Feld, das im Automobilbereich große Aufmerksamkeit erfährt. Ein Verständnis der Fahrer-Fahrzeug-Interaktion wird Entwicklungsingenieuren früh im Entwicklungsprozess die Berücksichtigung der Fahrerreaktionen in unterschiedlichen Fahrsituationen ermöglichen und somit Sicherheit und Komfort der Fahrzeuge erhöhen und gleichzeitig zu einer Reduktion der Entwicklungskosten beitragen. Trotz reichhaltiger Literatur zum Thema Fahrermodellierung wird in dieser Arbeit argumentiert, dass konventionelle Ansätze den Anforderungen beim Einsatz von Fahrermodellen in einem industriellen Kontext nicht genügen. Insbesondere mangelt es ihnen entweder an Wirklichkeitstreue oder an Weite des Validitätsbereich. In dieser Arbeit wird ein neuartiger Ansatz vorgeschlagen, der wohlbekannte neurophysiologische Konzepte aufgreift, um sie erfolgreich auf die Nachbildung menschlichen Bremsverhaltens zu übertragen. Der so entwickelte Regler formalisiert die menschimmanente Fähigkeit, ständig Vorhersagen über die Zukunft zu treffen. Er beinhaltet zwanglos Verzögerungszeiten, die dem menschlichen Regelkreis unweigerlich innewohnen und umgeht die kontroverse explizite Modellierung von Reaktionszeiten. Zur Bewältigung der Bremsaufgabe nutzt der Regler ebenso kinematisches Größen wie propriozeptives Feedback am Bremspedal. Zur Parametrierung und Validierung des Reglerentwurfs wurde menschliches Bremsverhalten in Realfahrzeugexperimenten mit insgesamt 73 Probanden durchgeführt.Die Experimente wurde in einer kontrollierten Umgebung auf Teststrecken der Robert Bosch GmbH mit einem Fahrzeug mit programmierbarem Bremssystem durchgeführt. Insbesondere zeigen die Versuchsdaten, dass sich die menschliche Strategie zur Kontrolle der Bremsaufgabe aus dem Wechselspiel zweier Wahrnehmungsvariablen ergibt. Dies ist eine Verallgemeinerung bekannter Ergebnisse über menschliche Bremsstrategien beim Bremsen in den Stand in künstlichen Umgebungen Diese Ergebnisse werden hier auch erstmals in Realfahrzeugversuchen bestätigt. Das Fußen dieses neuartigen Reglers auf neurophysiologischen Fakten trägt zu seiner Validität bei. Die Ideen, die in dieser Arbeit vorgestellt werden, lassen sich nach der in dieser Arbeit erarbeiteten Simulation von Bremsverhalten insbesondere zwanglos auf das Lenkverhalten übertragen, und sollten daher wegweisend für zukünftige Anstrengungen sein, menschliches Fahrverhalten realistisch nachzubilden.



Rau, Thomas S.;
Optimierungspotentiale für das Einwachsverhalten lasttragender Implantate in Knochengewebe : eine strukturierte, biomechanische Analyse regenerativer und adaptiver Fähigkeiten des Knochens. - Ilmenau : Univ.-Verl. Ilmenau. - XVI, 200 S.. - (Berichte aus der Biomechatronik ; 2) : Teilw. zugl.: Ilmenau, Techn. Univ., Diplomarbeit, 2005
ISBN 978-3-939473-36-7
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=12009

Umbauvorgänge im Knochen werden in der Endoprothetik häufig als Störgröße und Hauptursache beschrieben, die zu aseptischen Lockerungen und somit Implantatversagen führen. Dem entgegen ist es Ziel des vorliegenden Buches, die adaptiven und regenerativen Fähigkeiten des Knochens als Potential für die Optimierung lasttragender Implantate darzulegen. Durch die strukturierte Aufbereitung der knocheninternen Gesetzmäßigkeiten - wie reparative Prozesse, adaptive Fähigkeiten, biomechanische und hydrodynamische Gestaltungsmerkmale einschließlich der Mechanismen der Mechanosensorik - werden diese für den konstruktiven Entwicklungsprozess zukünftiger Prothesensysteme zugänglich. Dadurch kann verbesserte knöcherne Integration und dauerhafte Verankerung durch die konsequente Ausnutzung der Dynamik des Knochens realisiert werden. Der darauf aufbauende Optimierungsprozess des Implantatdesigns folgt diesem biologisch-orientierten Ansatz und mündet im beispielhaften Konzept einer hydrodynamischen Hüftendoprothese. Deren Integration in die flüssigkeitsvermittelte Knochenphysiologie stellt eine grundlegende Neuerung in der bionisch inspirierten Endoprothetik dar und soll fehlgeleitete Umbauvorgänge im Knochen vermeiden.



Kloock, Joachim P.;
Herstellung und Charakterisierung von Sensormembranen aus Chalkogenidglasschichten für den Einsatz als Schwermetallsensoren in Flüssigkeiten. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - XVI, 171 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2008
Enth. außerdem: Thesen

Die Detektion und Überwachung von Umweltparametern wie z.B. Schwermetallen gewinnt in der heutigen Zeit zunehmend an Bedeutung. Eine Möglichkeit zur Messung von Schwermetallen bieten ionenselektive Elektroden auf der Basis von Chalkogenidgläsern. Allerdings ist die Herstellung dieser Materialien zeit- und kostenintensiv. Weiterhin fehlt die Möglichkeit der Miniaturisierung für die Herstellung von Sensorsystemen für ''Vor-Ort''-Messungen. Um dieses Problem zu lösen, werden im Rahmen dieser Arbeit Chalkogenidglasschichten für den Nachweis von Cadmium, Blei, Kupfer, Thallium und Silber in Flüssigkeiten mittels gepulster Laserabscheidung (PLD: Pulsed Laser Deposition) hergestellt und charakterisiert. Die Abscheidung der Schichten erfolgt auf Silizium-Substrate. Die physikalische Charakterisierung der Schichten erfolgt mittels Video-Mikroskopie, Rutherfordrückstreuung (RBS) und Rasterelektronenmikroskopie (REM). Elektrochemisch werden die hergestellten Schichten mittels ionenselektiver Potentiometrie sowie Impedanzspektroskopie untersucht. Weiterhin werden die charakterisierten Schichten in ein siliziumbasiertes Sensorarray integriert und untersucht. Für eine zusätzliche Materialcharakterisierung werden feldeffektbasierte Sensorstrukturen, wie die Elektrolyt/ Isolator/ Halbleiter (EIS)-Struktur, der lichtadressierbare potentiometrische Sensor (LAPS) und der ionenselektive Feldeffekttransistor (ISFET) verwendet. Für ein besseres Verständnis der Vorgänge zum Potentialbildungsmechanismus an der Phasengrenze ''Fest/ Flüssig'' der Chalkogenidglasschichten wird exemplarisch ein Cadmium-selektives Chalkogenidglasmaterial mittels Impedanzspektroskopie charakterisiert. Für das untersuchte System wird ein theoretisches Modell in Form eines elektrischen Ersatzschaltbildes erstellt und mit den gemessenen Daten verglichen. Der Einsatz des entwickelten Sensorsystems für die Untersuchung von komplexen Flüssigkeitsmischungen auf der Basis einer ''elektronischen Zunge'' wird diskutiert.



Schultheiss, Daniel;
Im Reich der interstellaren Händler: Internetgames als innovative Spielform : eine Längsschnittstudie zu Spielmotivationen, Spielerleben und Spielverhalten am Beispiel eines Langzeit-Browsergames. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - 198 S.. - (Menschen, Märkte, Medien, Management ; Bd. 1) ISBN 978-3-939473-44-2
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=11732

Debes, Maik;
Konzeption und Realisierung eines kontextsensitiven Routingverfahrens. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - XV, 215 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2008

Das Angebot von Kommunikations- und Informationsdiensten richtet sich einerseits nach den individuellen Bedürfnissen der Nutzer andererseits aber auch nach den Möglichkeiten der verwendeten Netztechniken. Um einen optimal auf den Nutzer angepassten Dienst bereitstellen zu können, muss dessen Kontext berücksichtigt werden. Ein Dienstzugriff soll dabei möglichst flexibel und unabhängig vom Netz erfolgen. Den mobilen Zugriff auf solche Dienste können Infrastrukturnetze, durch ihre Topologie bedingt, nicht überall bedienen. Mobile Ad-hoc-Netze sind dagegen an keine Infrastruktur gebunden und deshalb sehr flexibel einsetzbar. Durch deren dynamische Topologie ergeben sich jedoch gegenüber den herkömmlichen Netzen auch spezielle Anforderungen an die Routen- und Dienstsuche. Konventionelle Verfahren sind hierbei in der Regel weder nutzbar, noch für einen Einsatz in heterogenen Umgebungen geeignet. Gerade mit der fortschreitenden Konvergenz der Netze ist aber eine netzübergreifende Lösung unumgänglich.Die vorliegende Arbeit befasst sich deshalb mit den Themen Ad-hoc-Netze sowie den hierbei eingesetzten Routingprotokollen und -verfahren. Es werden Möglichkeiten zur Dienstsuche erläutert und gegenübergestellt. Mit den Erkenntnissen daraus wird ein Architekturkonzept entwickelt, das die Dienstsuche sowohl in Ad-hoc- als auch in herkömmlichen Infrastrukturnetzen erlaubt. Die Dienstsuche erfolgt dabei in Verbindung mit einem für diesen Zweck erweiterten Routingverfahren. Warum diese Art einer Dienstsuche auf Netzwerkebene vorteilhaft ist, wird erläutert und begründet. Kernstück der entwickelten Architektur bilden die so genannten Kontextrouter, die eine Dienstsuche unabhängig von der Adresse eines Dienstanbieters unterstützen. Auch der Nutzer benötigt keine Kenntnis über eine solche Adresse. Eine Suche erfolgt lediglich über den Dienst und den zur Verfügung stehenden Informationen über den Kontext des Nutzers. Damit wird ein auf den Nutzer optimal angepasster Dienst ausgewählt. Das Konzept unterstützt die Weiterleitung von Daten zu einem alternativen Server, sofern der ursprüngliche Server ausfällt, und bietet Providern die Möglichkeit, steuernd auf die Dienstsuche und -kommunikation einzuwirken. Das Verifizieren des vorgestellten Konzeptes erfolgt auf Basis praktischer Realisierungen. Das dazu aufgebaute Demonstratornetzwerk dient für eine Reihe von Tests zum Nachweis der Funktionen und der Leistungsfähigkeit der Architektur. Die daraus resultierenden Ergebnisse beweisen, dass das Konzept den gestellten Anforderungen genügen kann.



Dörmann Osuna, Hans W.;
Ansatz für ein prozessintegriertes Qualitätsregelungssystem für nicht stabile Prozesse. - Ilmenau : Univ.-Verl. Ilmenau, 2009. - XIII, 110 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2008

Für die umfassende qualitätsorientierte Serienfertigung sind bei den immer komplexer werdenden Fertigungsprozessen die Kenntnis über die Kausalzusammenhänge zwischen Eingangs- und Zielgrößen sowie die rechtzeitige gezielte Fehlerbeseitigung notwendig. Aus diesem Grund wird ein prozessintegriertes Qualitätsregelungssystem benötigt, innerhalb dessen die Kausalzusammenhänge transparent aufgezeigt, die einzelnen Prozessparameter überwacht und bei Verlassen der vorgegebenen Grenzen auch Maßnahmen abgeleitet werden. Zusätzlich dazu soll das Qualitätsregelungssystem aber auch in der Lage sein, die Prozessschritte dynamisch gestalten zu können, um präventiv in den Prozess einzugreifen. Für die Regelung statistisch beherrschter Prozesse sind Verfahren wie zum Beispiel die SPC (Statistical Process Control) Standard, setzten aber immer einen fähigen und beherrschten Prozess voraus. Trotzdem werden auch für nicht fähige und nicht beherrschte Prozesse, die so genannten nicht stabilen Prozesse, Verfahren zur Prozessregelung benötigt. Die vorliegende Arbeit beschreibt einen Ansatz für ein Qualitätsregelungssystem am Beispiel eines nicht stabilen Fertigungsprozesses in einer Leichtmetallgießerei. Für den Aufbau des Qualitätsregelungssystems wird eine Verkettung zweier unterschiedlich gerichteter Qualitätsregelkreise eingesetzt. Ein reaktiver Qualitätsregelkreis dient der Bestimmung der Kausalzusammenhänge innerhalb des Produktionsvorganges und der Ableitung von Maßnahmen zur Produktionsoptimierung. Zusätzlich dazu wird ein präventiver Qualitätsregelkreis implementiert, in dem Anpassungsmaßnahmen für die weitere Steuerung des Prozesses inklusive der zur Auslieferungsfreigabe notwendigen Bauteilprüfungen initiiert werden.Kernbestandteil beider Qualitätsregelkreise sind analytische Verfahren zur Modellbildung aus dem Bereich des Data Minings. Für den Einsatz sind unterschiedliche Verfahren diskutiert und ausgewählt worden. Am Beispiel mehrerer Untersuchungen in der Leichtmetallgießerei von BMW ist der methodische datengetriebene Ansatz bestätigt und mittlerweile fest in den Problemlösungsprozess integriert worden. Es gilt folgender Ansatz: Von der Vergangenheit lernen, die Gegenwart zu gestalten, um die Zukunft zu verbessern. Für die umfassende qualitätsorientierte Serienfertigung sind bei den immer komplexer werdenden Fertigungsprozessen die Kenntnis über die Kausalzusammenhänge zwischen Eingangs- und Zielgrößen sowie die rechtzeitige gezielte Fehlerbeseitigung notwendig. Aus diesem Grund wird ein prozessintegriertes Qualitätsregelungssystem benötigt, innerhalb dessen die Kausalzusammenhänge transparent aufgezeigt, die einzelnen Prozessparameter überwacht und bei Verlassen der vorgegebenen Grenzen auch Maßnahmen abgeleitet werden. Zusätzlich dazu soll das Qualitätsregelungssystem aber auch in der Lage sein, die Prozessschritte dynamisch gestalten zu können, um präventiv in den Prozess einzugreifen. Für die Regelung statistisch beherrschter Prozesse sind Verfahren wie zum Beispiel die SPC (Statistical Process Control) Standard, setzten aber immer einen fähigen und beherrschten Prozess voraus. Trotzdem werden auch für nicht fähige und nicht beherrschte Prozesse, die so genannten nicht stabilen Prozesse, Verfahren zur Prozessregelung benötigt. Die vorliegende Arbeit beschreibt einen Ansatz für ein Qualitätsregelungssystem am Beispiel eines nicht stabilen Fertigungsprozesses in einer Leichtmetallgießerei. Für den Aufbau des Qualitätsregelungssystems wird eine Verkettung zweier unterschiedlich gerichteter Qualitätsregelkreise eingesetzt. Ein reaktiver Qualitätsregelkreis dient der Bestimmung der Kausalzusammenhänge innerhalb des Produktionsvorganges und der Ableitung von Maßnahmen zur Produktionsoptimierung. Zusätzlich dazu wird ein präventiver Qualitätsregelkreis implementiert, in dem Anpassungsmaßnahmen für die weitere Steuerung des Prozesses inklusive der zur Auslieferungsfreigabe notwendigen Bauteilprüfungen initiiert werden.Kernbestandteil beider Qualitätsregelkreise sind analytische Verfahren zur Modellbildung aus dem Bereich des Data Minings. Für den Einsatz sind unterschiedliche Verfahren diskutiert und ausgewählt worden. Am Beispiel mehrerer Untersuchungen in der Leichtmetallgießerei von BMW ist der methodische datengetriebene Ansatz bestätigt und mittlerweile fest in den Problemlösungsprozess integriert worden. Es gilt folgender Ansatz: Von der Vergangenheit lernen, die Gegenwart zu gestalten, um die Zukunft zu verbessern.



Gernroth, Jana;
Die Internet Corporation for Assigned Names and Numbers (ICANN) und die Verwaltung des Internets. - Ilmenau : Univ.-Verl. Ilmenau. - LXXXVI, 102 S.. - (Medienrechtliche Schriften ; 4) : Zugl.: Ilmenau, Technis. Univ., Diplom-Arb., 2006
ISBN 978-3-939473-28-2
Parallel als Online-Ausg. erschienen unter der Adresse http://www.db-thueringen.de/servlets/DocumentServlet?id=10122

Das in den USA der 60er Jahre geborene Internet entwickelte sich in kürzester Zeit zu einem Massenmedienphänomen der Informationsgesellschaft und erlangte wirtschaftliche, politische, rechtliche und soziale Bedeutung. Die Konnektivität des Netzes ermöglicht grenzenlosen Datentransfer. Sie wirft neue juristische Sachverhalte auf und führt zu zahlreichen Grundsatzdiskussionen. Durch seine umfangreichen Wirkungen und die voranschreitende Globalisierung verwischen einst geordnete Strukturen, die Welt muss sich mit moralischen, gesellschaftlichen, ökonomischen, politischen oder technischen Aspekten auseinandersetzen. Die anfangs rein wissenschaftliche Internet-Nutzung bedurfte keiner staatlichen Regelungen, seine Gemeinschaft verwaltete sich allein mittels impliziter Verhaltensregeln. Jedoch entstanden mit der wachsenden Bedeutung zusehends Probleme und die Selbstverwaltung funktionierte kaum noch. Mit der Gründung der privatrechtlichen US-Institution Internet Corporation for Assigned Names and Numbers (ICANN), hoffte man, eine geeignete Lösung gefunden zu haben. Ziel der Arbeit ist es, sich mit dem Phänomen ICANN auseinanderzusetzen. Der Fokus richtet sich auf die durch die Organisation verursachten Problembereiche und Konflikte. Aus der kritischen Betrachtung heraus werden alternative Formen der Internet-Regulierung dargestellt. Anschließend wird untersucht, ob ICANN weiterhin die zu erfüllenden Aufgaben wahrnehmen kann und soll bzw. ob und welche anderen Mechanismen geeigneter sein könnten. Der letzte Teil widmet sich dem Machteinfluss der USA über das Internet und ICANNs Zukunft. Den Einstieg bilden allgemeine geschichtliche und technische Internet-Grundlagen gefolgt von der Beschreibung der Institution ICANN anhand ihrer Organisations- und Vertragsstrukturen und Aufgaben. Es folgt eine kritische Auseinandersetzung mit ICANN, indem auf hervorzuhebende Basisprobleme und spezielle aktuelle Konfliktbereiche eingegangen wird. - Der Fokus der Arbeit beinhaltet die Struktur und Organisation des Internets und ICANNs. Es werden verschiedene Lösungsansätze dargelegt und auf geschichtlich begründete und aktuelle rechtliche und formaljuristische Hintergründe eingegangen. Daran schließen Theorien zur Internet-Governance an. Es werden Vor- und Nachteile von Selbstregulierung und staatlicher Regulierung dargestellt und ICANN darin eingeordnet. Anschließend werden alternative Internet-Regulierungsansätze dargestellt. Das folgende Kapitel widmet sich der besonderen Stellung der USA im Internet und der Zukunft ICANNs. Mit dem globalen Überblick wird die Internationalität ICANNs als US-Institution beleuchtet und die damit verbundenen Probleme aufgezeigt. Ein kurzes Fazit bildet den Abschluss.



Arlt, Dorothee;
Nicht-Erreichbarkeit in der Mobilkommunikation : eine medienpsychologische Experimentalstudie zur SMS-Kommunikation. - Ilmenau : Universitätsverlag Ilmenau. - XIII, 143 Seiten. - (Kommunikationswissenschaft interdisziplinär ; Band 1)
Technische Universität Ilmenau, Diplomarbeit 2007

ISBN 978-3-939473-20-6
Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

Die vorliegende Untersuchung befasst sich mit dem Problem der Nicht-Erreichbarkeit in der SMS-Kommunikation. In bisherigen Studien galt das Forschungsinteresse eher dem "Erreichbarkeits-Dilemma". Deshalb will die Forschungsarbeit die Aufmerksamkeit auf das Dilemma der Nicht-Erreichbarkeit lenken, wobei der Untersuchungsgegenstand auf psychologische und kommunikationswissenschaftliche Theorien bezogen wird. Es wurde untersucht, ob Zusammenhänge zwischen der Nicht-Erreichbarkeit in der SMS-Kommunikation und den Emotionen der Mobilfunkteilnehmer sowie ihren Reaktionen und Verhaltensweisen auf die Nicht-Erreichbarkeit nachweisbar sind. Ferner fanden persönliche, soziale und motivationale Aspekte menschlichen Verhaltens als mögliche Einflussfaktoren Berücksichtigung. Es wurde ein Experiment mit N=675 Studenten durchgeführt, die einen Onlinefragebogen mit einer Fallvignette zur Nicht-Erreichbarkeit ausfüllen sollten. Die Ergebnisse zeigen, dass sich mobile Nicht-Erreichbarkeit und das Geschlecht der Mobilfunkteilnehmer unterschiedlich auf menschliches Verhalten auswirken. Es traten insbesondere signifikante geschlechtsspezifische Unterschiede auf. Aus methodischer Sicht erwies sich die interdisziplinäre Integration verschiedener Theorieansätze als zweckmäßig. Eine wissenschaftliche Auseinandersetzung mit Nicht-Erreichbarkeit in der SMS-Kommunikation, insbesondere aus psychologischer Perspektive, befindet sich noch in den Anfängen. Allerdings legen die vorliegenden Befunde nahe, dass weiterführende Untersuchungen einzelner Aspekte der Nicht-Erreichbarkeit zu einem besseren Verständnis der Problematik beitragen könnten.