Anzahl der Treffer: 326
Erstellt: Fri, 03 May 2024 23:15:20 +0200 in 0.0454 sec


Umbrich, Jürgen; Karnstedt, Marcel; Polleres, Axel; Sattler, Kai-Uwe
Index-based source selection and optimization. - In: Linked data management, ISBN 978-1-4665-8240-8, (2014), S. 311-337

Ribe-Baumann, Elizabeth;
Resource and location aware robust decentralized data management, 2014. - Online-Ressource (PDF-Datei: XVII, 179 S., 4,17 MB) Ilmenau : Techn. Univ., Diss., 2014

Große Datenmengen werden zunehmend auf weite Netze, die oft aus heterogenen Knoten bestehen, verteilt. Dabei kann Heterogenität beispielsweise variable Batteriekapazität oder Lebenszeiten bedeuten. Beispiele solcher Netzwerke sind Smartphone-Netzwerke, Sensornetzwerke und Clouds. Für diese verteilen heterogenen Netzwerken besteht die Notwendigkeit, den variierenden Zugang der Knoten zu Ressourcen zu berücksichtigen und die Gesamtlast durch kurze Wege zwischen den Speicher- und Anfrageorten der Daten zu minimieren. Die hier vorgestellte Arbeit konzentriert sich auf die Integration von Ressourcen- und Lokationsinformationen für eine robuste Datenverwaltung in verteilten, vielleicht sogar Peer-to-Peer, Netzwerken. Ein strukturierter Netzwerkansatz wurde gewählt, um Verfügbarkeitsgarantien für die gespeicherten Daten zu bieten. Zwei neuen verteilten Hashtabellen wurden auf Basis der existierenden Chord mit einer Routingkomplexität O(logN) entwickelt: Resource Based Finger Management (RBFM) und Hierarchical Resource Management (HRM). Diese DHTs nutzen unterschiedliche Ansätze für den Aufbau deren Overlays und bilden somit eine Grundlage, mit der die Eignung von flachen und hierarchischen Overlaystrukturen bzw. verschiedenen Anzahlen von Hierarchieebenen für Ressourcen- als auch Lokationsbewusstsein verglichen werden kann. Eine mathematische Analyse und simulationsbasierte Evaluation der neuen DHTs zeigen wie Ressourcenbewusstsein sowohl die Lebensdauer der Knoten als auch die Erfolgsrate der Anfragen um das Zweifache erhöht, wobei eine hohe Anzahl von Hierarchieebenen die Lebensdauer der Knoten reduziert. Eine entwickelte Replikationsstrategie, welche die Struktur der vorgestellten DHTs ausnutzt, erhöht das Ressourcen- und Lokationsbewusstsein während die Gesamtlast der Replikation verringert wird. Eine mathematische Analyse zeigt wie die Anzahl der benötigten Replikate, um eine vorgegebene Verfügbarkeitswahrscheinlichkeit zu erreichen, signifikant gesenkt wird, während die übrige Ressourcenlast von den schwachen auf den starken Knoten verschoben wird.



http://www.db-thueringen.de/servlets/DocumentServlet?id=25506
Beier, Felix; Alaqraa, Nedal; Lai, Yuting; Sattler, Kai-Uwe
Learning event patterns for gesture detection. - In: Advances in database technology - EDBT 2014, ISBN 978-3-89318-065-3, (2014), S. 668-671

https://doi.org/10.5441/002/edbt.2014.70
Ribe-Baumann, Liz; Sattler, Kai-Uwe
A hierarchical approach to resource awareness in DHTs for mobile data management. - In: Pervasive and mobile computing, Bd. 15 (2014), S. 113-127

http://dx.doi.org/10.1016/j.pmcj.2013.07.017
Saleh, Omran; Sattler, Kai-Uwe;
On efficient processing of linked stream data. - In: On the Move to Meaningful Internet Systems: OTM 2014 Conferences, (2014), S. 700-717

http://dx.doi.org/10.1007/978-3-662-45563-0_43
Rauhe, Hannes;
Finding the right processor for the job : Co-processors in a DBMS, 2014. - Online-Ressource (PDF-Datei: IX 115 S., 1,78 MB) : Ilmenau, Techn. Univ., Diss., 2014
Parallel als Druckausg. erschienen

Mehr und mehr Datenbankmanagementsysteme (DBMS) verarbeiten die Daten nur noch im Hauptspeicher oder speichern gar die ganze Datenbank dort, um schnell darauf zugreifen zu können. In diesen Systemen ist die Verarbeitungsgeschwindigkeit nur durch den Prozessor beschränkt, da die Daten nicht erst von der Festplatte geladen werden müssen. Grafikkarten (GPUs) haben vor kurzem CPUs überholt, wenn man reine Verarbeitungsgeschwindigkeit betrachtet. Die Forschung hat zudem gezeigt, dass sie neben der Bildverarbeitung auch zur Lösung von Problemen anderer Bereiche genutzt werden können. Allerdings können nicht alle Algorithmen die Vorteile der GPU-Architektur nutzen. Zunächst müssen sie angepasst werden, um Daten parallel im SIMD-Stil zu verarbeiten. Außerdem muss beachtet werden, dass die Daten erst über den PCI-Express-Bus transferiert werden müssen, über den Grafikkarten mit dem Speicher verbunden sind. In dieser Arbeit werden Aufgaben in DBMSen untersucht, die auf die Grafikkarte ausgelagert werden können. Es wird gezeigt, dass Anfrageoptimierung, Anfrageverarbeitung und Applikationslogik unter Umständen schneller auf der Grafikkarte ausgeführt werden können als auf der CPU, aber auch, dass sich nicht jede Aufgabe dafür eignet .Durch detaillierte Beschreibung, Implementierung und Evaluierung vier unterschiedlicher Beispiele wird erklärt, wie passende Aufgaben identifiziert und portiert werden können. In jedem Fall ist es nicht vorteilhaft, die Grafikkarte zu benutzen, wenn die Datenmenge zu gering ist, um die Verarbeitung auf alle verfügbaren Kerne zu verteilen. Zudem ist es wahrscheinlich, dass die CPU schneller zu einem Ergebnis kommt als die GPU, wenn nicht der ganze Datensatz in den Grafikspeicher passt. Demzufolge muss die Entscheidung, wo die Verarbeitung stattfindet, zur Laufzeit gefällt werden. Sie hängt ab von den verfügbaren Implementierungen, der Hardware, den Eingabe-Parametern und den Eingabe-Daten. Es wird ein lernbasiertes System vorgestellt, das an Hand vergangener Ausführungen entscheidet, welche Art der Verarbeitung die beste ist.



http://www.db-thueringen.de/servlets/DocumentServlet?id=24888
Tran, Dang-Hoan; Gaber, Mohamed Medhat; Sattler, Kai-Uwe
Change detection in streaming data in the era of big data: models and issues. - In: ACM SIGKDD explorations newsletter, ISSN 1931-0145, Bd. 16 (2014), 1, S. 30-38

http://dx.doi.org/10.1145/2674026.2674031
Gropengießer, Frances; Sattler, Kai-Uwe
Database backend as a service: automatic generation, deployment, and management of database backends for mobile applications. - In: Datenbank-Spektrum, ISSN 1610-1995, Bd. 14 (2014), 2, S. 85-95

http://dx.doi.org/10.1007/s13222-014-0157-y
Gropengiesser, Francis;
Transaktionale Unterstützung kollaborativer Applikationen
1. Aufl.. - Göttingen : Cuvillier, 2014. - 295 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2014

In einer Vielzahl von Anwendungsdomänen, beispielsweise im Design oder in der Medienproduktion, sind kollaborative Arbeitsprozesse kaum mehr wegzudenken. In u.U. weltweit verteilten Szenarien arbeiten mehrere gleichberechtigte Nutzer an einem gemeinsamen Projekt. Diese Arbeit stellt den vollständigen Entwurf einer Middleware vor, die es ermöglicht, eine Vielzahl von Anwendungen zum Einsatz in kollaborativen Arbeitsprozessen auf einem gemeinsamen monohierarchisch strukturierten Datenbestand zu befähigen. Hierbei kann wiederum aus einer Vielzahl unterschiedlicher Speicherlösungen zur persistenten Sicherung der Daten gewählt werden. Die dafür erforderlichen Konzepte und Techniken beruhen auf transaktionalen Semantiken. Kollaborative Arbeitsprozesse sind durch spezifische Anforderungen gekennzeichnet. Daher stellt diese Arbeit ein maßgeschneidertes Transaktionsmodell vor, welches gezielt Eigenschaften der geschachtelten Transaktionen sowie der Multi-Level-Transaktionen, der Sagas, der Split&Join-Transaktionen und der dynamischen Aktionen kombiniert, um diese Anforderungen zu erfüllen. Es unterstützt die Spezifikation feingranularer atomarer Einheiten zur Zerlegung der lang andauernden Arbeitsprozesse und die Aufweichung der Isolation, um Ergebnisse eines Nutzers frühzeitig freizugeben und einen Informationsaustausch in beliebiger Richtung zwischen den Nutzern zu ermöglichen. Dabei wird stets die strikte Konsistenz des Datenbestands und die Dauerhaftigkeit der erfolgreich durchgeführten Änderungen gewahrt. Die weiterhin eingeführte neuartige AUTOCOMPLETE-Metrik unterstützt die dynamische Bildung von Transaktionen zur Laufzeit und ermöglicht eine kontrollierte und automatische Freigabe von Transaktionsergebnissen unter Einbeziehung der Kollaborationsbereitschaft der Nutzer. Die Architektur der Middleware basiert auf dem Shared-Nothing-Ansatz und gestattet so auch den skalierbaren Umgang mit verteilten Szenarien. Unter Einsatz des aspektorientierten Paradigmas ist eine leichte Integration der entwickelten Transaktionssemantiken in die Applikation möglich, ohne deren Quellcode anpassen zu müssen. Zur Durchsetzung der spezifizierten Isolations- und Sichtbarkeitseigenschaften des Transaktionsmodells beherbergt die Middleware geeignete Synchronisationsprotokolle. Hierbei liegt der Fokus dieser Arbeit auf der Ausnutzung der Semantiken des zugrunde liegenden Daten- und Operationsmodells. Dies erlaubt eine feingranulare Konfliktspezifikation, die sich positiv auf den erreichbaren Grad der Parallelität in den Arbeitsprozessen der Nutzer auswirkt. Die genaue Aufschlüsselung semantischer Abhängigkeiten zwischen den Operationen führt zu einem erweiterten Validierungskriterium, welches die Anzahl der Konflikte zwischen Transaktionen zusätzlich reduziert. Die positiven Auswirkungen semantischer Synchronisation auf eine Vielzahl transaktionaler Kennzahlen, z.B. die Transaktionsabbruchrate, werden in praktischen Experimenten nachgewiesen. Zur Gewährleistung der spezifizierten Atomaritäts- und Dauerhaftigkeitseigenschaften des entwickelten Transaktionsmodells in Fehlersituationen diskutiert diese Arbeit Commit- und Recovery-Protokolle, adaptiert geeignete Vertreter auf das entwickelte Transaktionsmodell und gibt Hinweise zum Wiederanlauf einer möglichen Systemumsetzung der Middleware.



Galpin, Ixent; Stokes, Alan B.; Valkanas, George; Gray, Alasdair J. G.; Paton, Norman W.; Fernandes, Alvaro A. A.; Sattler, Kai-Uwe; Gunopulos, Dimitrios
SensorBench: benchmarking approaches to processing wireless sensor network data. - In: Proceedings of the 26th International Conference on Scientific and Statistical Database Management, ISBN 978-1-4503-2722-0, (2014), 21, insges. 12 S.

http://dx.doi.org/10.1145/2618243.2618252