Anzahl der Treffer: 325
Erstellt: Wed, 27 Mar 2024 23:32:22 +0100 in 1.0625 sec


Jibril, Muhammad Attahir; Al-Sayeh, Hani; Baumstark, Alexander; Sattler, Kai-Uwe
Fast and efficient update handling for graph H2TAP. - Konstanz : University of Konstanz. - 1 Online-Ressource (Seite 723-736)Online-Ausgabe: Advances in Database Technology - Volume 26 : proceedings of the 26th International Conference on Extending Database Technology (EDBT), 28th March-31st March, 2023, ISBN 978-3-89318-093-6

http://dx.doi.org/10.48786/edbt.2023.60
Kläbe, Steffen; Sattler, Kai-Uwe
Patched multi-key partitioning for robust query performance. - Konstanz : University of Konstanz. - 1 Online-Ressource (Seite 324-336)Online-Ausgabe: Advances in Database Technology - Volume 26 : proceedings of the 26th International Conference on Extending Database Technology (EDBT), 28th March-31st March, 2023, ISBN 978-3-89318-093-6

http://dx.doi.org/10.48786/edbt.2023.26
Kläbe, Steffen; Hagedorn, Stefan; Sattler, Kai-Uwe
Exploration of approaches for in-database ML. - Konstanz : University of Konstanz. - 1 Online-Ressource (Seite 311-322)Online-Ausgabe: Advances in Database Technology - Volume 26 : proceedings of the 26th International Conference on Extending Database Technology (EDBT), 28th March-31st March, 2023, ISBN 978-3-89318-093-6

http://dx.doi.org/10.48786/edbt.2023.25
Baumstark, Alexander; Jibril, Muhammad Attahir; Sattler, Kai-Uwe
Temporal graph processing in modern memory hierarchies. - In: Advances in databases and information systems, (2023), S. 103-106

Updates in graph DBMS lead to structural changes in the graph over time with different intermediate states. These intermediate states in a DBMS and the time when the actions to the actual data take place can be processed using temporal DBMSs. Most DBMSs built their temporal features based on their non-temporal processing and storage without considering the memory hierarchy of the underlying system. This leads to slower temporal processing and poor storage utilization. In this paper, we propose a storage and processing strategy for (bi-) temporal graphs using temporal materialized views (TMV) while exploiting the memory hierarchy of a modern system. Further, we show a solution to the query containment problem for certain types of temporal graph queries. Finally, we evaluate the overhead and performance of the presented approach. The results show that using TMV reduces the runtime of temporal graph queries while using less memory.



https://doi.org/10.1007/978-3-031-42914-9_8
Schlegel, Marius; Sattler, Kai-Uwe
Extracting provenance of machine learning experiment pipeline artifacts. - In: Advances in databases and information systems, (2023), S. 238-251

Experiment management systems (EMSs), such as MLflow, are increasingly used to streamline the collection and management of machine learning (ML) artifacts in iterative and exploratory ML experiment workflows. However, EMSs typically suffer from limited provenance capabilities rendering it hard to analyze the provenance of ML artifacts and gain knowledge for improving experiment pipelines. In this paper, we propose a comprehensive provenance model compliant with the W3C PROV standard, which captures the provenance of ML experiment pipelines and their artifacts related to Git and MLflow activities. Moreover, we present the tool MLflow2PROV that extracts provenance graphs according to our model from existing projects enabling collected pipeline provenance information to be queried, analyzed, and further processed.



https://doi.org/10.1007/978-3-031-42914-9_17
Räth, Timo; Onah, Ngozichukwuka; Sattler, Kai-Uwe
Interactive data cleaning for real-time streaming applications. - In: HILDA '23, (2023), 13, insges. 3 S.

The importance of data cleaning systems has continuously grown in recent years. Especially for real-time streaming applications, it is crucial, to identify and possibly remove anomalies in the data on the fly before further processing. The main challenge however lies in the construction of an appropriate data cleaning pipeline, which is complicated by the dynamic nature of streaming applications. To simplify this process and help data scientists to explore and understand the incoming data, we propose an interactive data cleaning system for streaming applications. In this paper, we list requirements for such a system and present our implementation to overcome the stated issues. Our demonstration shows, how a data cleaning pipeline can be interactively created, executed, and monitored at runtime. We also present several different tools, such as the automated advisor and the adaptive visualizer, that engage the user in the data cleaning process and help them understand the behavior of the pipeline.



https://doi.org/10.1145/3597465.3605229
Räth, Timo; Sattler, Kai-Uwe
Traveling back in time: a visual debugger for stream processing applications. - In: 2023 IEEE 39th International Conference on Data Engineering, (2023), S. 3647-3650

Stream processing takes on an important role as a hot topic of our time. More and more applications generate large amounts of heterogeneous data that need to be processed in real-time. However, the dynamic and high frequent nature of stream processing applications complicates the debugging process since the constant flow of data can not be slowed down, paused, or reverted to previous states to analyze the execution step-by-step. In this demonstration, we present StreamVizzard’s visual and interactive pipeline debugger that allows reverting the pipeline state to any arbitrary point in the past to review or repeat critical parts of the pipeline step by step. During this process, our extensive visualizer allows to explore the processed data and statistics of each operator to retrace and understand the data flow and behavior of the pipeline.



https://doi.org/10.1109/ICDE55515.2023.00289
Schlegel, Marius;
Trusted implementation and enforcement of application security policies. - In: E-Business and Telecommunications, (2023), S. 362-388

Although system-level security policies are enforced directly in many modern operating systems, they do not provide adequate support for application-level security policies. Application software uses objects of higher abstraction requiring individual security policies with application-specific semantics. While frameworks assist in application policy implementation, developers are still responsible for their application’s security architecture which often leads to large and heterogeneous application trusted computing bases rendering protection from unauthorized manipulation hard to achieve. This work contributes to improving this situation. We present AppSPEAR - an application-level security policy enforcement architecture tailorable to application requirements. To foster streamlined and tool-supported security engineering workflows, we moreover present a policy specification language (DynaMo), a corresponding Rust source code generation approach, and a developer framework leveraging Rust and Intel SGX for trusted and memory-safe AppSPEAR implementation and policy integration.



https://doi.org/10.1007/978-3-031-36840-0_16
Schlegel, Marius; Amthor, Peter
Putting the pieces together: model-based engineering workflows for attribute-based access control policies. - In: E-Business and Telecommunications, (2023), S. 249-280

Although being well-adopted and in widespread use, attribute-based access control (ABAC) remains a hard-to-master security paradigm in application software development. Despite considerable research towards ABAC policy engineering and ABAC policy correctness, this mainly is because there is still no unified workflow to encompass both the versatility of application domains and the strong guarantees promised by formal modeling methods. This work contributes to improving this situation. By presenting a flexible, yet highly formalized modeling scheme for designing and analyzing ABAC policies (DABAC), a reference implementation in Rust (dabac-rs), and a reference architecture for its integration into applications (AppSPEAR) including developer support (appspear-rs), we put together loose pieces of a tool-supported model-based security engineering workflow. The effectiveness of our approach is demonstrated based on a real-world engineering scenario.



https://doi.org/10.1007/978-3-031-36840-0_12
Räth, Timo; Bedini, Francesco; Sattler, Kai-Uwe; Zimmermann, Armin
Demo: Interactive performance exploration of stream processing applications using colored Petri nets. - In: DEBS 2023, (2023), S. 191-194

Stream processing is becoming increasingly important as the amount of data being produced, transmitted, processed, and stored continues to grow. One of the greatest difficulties in designing stream processing applications is estimating the final runtime performance in production. This is often complicated by differences between the development and final execution environments, unexpected outliers in the incoming data, or subtle long-term problems such as congestion due to bottlenecks in the pipeline. In this demonstration, we present an automated tool workflow for interactively simulating and exploring the performance characteristics of a stream processing pipeline in real-time. Changes to input data, pipeline structure, or operator configurations during the simulation are immediately reflected in the simulation results, allowing to interactively explore the robustness of the pipeline to outliers, changes in input data, or long-term effects.



https://doi.org/10.1145/3583678.3603280
Lasch, Robert; Legler, Thomas; May, Norman; Scheirle, Bernhard; Sattler, Kai-Uwe
Cooperative memory management for table and temporary data. - In: 1st Workshop on Simplicity in Management of Data, (2023), 2, insges. 5 S.

The traditional paradigm for managing memory in database management systems (DBMS) treats memory used for caching table data and memory for temporary data as separate entities. This leads to inefficient utilization of the available memory capacity for mixed workloads. With memory being a significant factor in the costs of operating a DBMS, utilizing memory as efficiently as possible is highly desirable. As an alternative to the traditional paradigm, we propose managing the entire available memory in a cooperative manner to achieve better memory utilization and consequently higher cost-effectiveness for DBMSs. Initial experimental evaluation of cooperative memory management using a prototype implementation shows promising results and leads to several interesting further research directions.



https://doi.org/10.1145/3596225.3596230
Schlegel, Marius; Sattler, Kai-Uwe
MLflow2PROV: extracting provenance from machine learning experiments. - In: Proceedings of the Seventh Workshop on Data Management for End-to-End Machine Learning (DEEM), (2023), 9, insges. 4 S.

Supporting iterative and explorative workflows for developing machine learning (ML) models, ML experiment management systems (ML EMSs), such as MLflow, are increasingly used to simplify the structured collection and management of ML artifacts, such as ML models, metadata, and code. However, EMSs typically suffer from limited provenance capabilities. As a consequence, it is hard to analyze provenance information and gain knowledge that can be used to improve both ML models and their development workflows. We propose a W3C-PROV-compliant provenance model capturing ML experiment activities that originate from Git and MLflow usage. Moreover, we present the tool MLflow2PROV that extracts provenance graphs according to our model, enabling querying, analyzing, and further processing of collected provenance information.



https://doi.org/10.1145/3595360.3595859
Baumstark, Alexander; Jibril, Muhammad Attahir; Sattler, Kai-Uwe
Processing-in-Memory for databases: query processing and data transfer. - In: 19th International Workshop on Data Management on New Hardware, (DaMoN 2023), June 19th 2023, (2023), S. 107-111

The Processing-in-Memory (PIM) paradigm promises to accelerate data processing by pushing down computation to memory, reducing the amount of data transfer between memory and CPU, and - in this way - relieving the CPU from processing. Particularly, in in-memory databases memory access becomes a performance bottleneck. Thus, PIM seems to offer an interesting solution for database processing. In this work, we investigate how commercially available PIM technology can be leveraged to accelerate query processing by offloading (parts of) query operators to memory. Furthermore, we show how to address the problem of limited PIM storage capacity by interleaving transfer and computation and present a cost model for the data placement problem.



https://doi.org/10.1145/3592980.3595323
Baumstark, Alexander; Jibril, Muhammad Attahir; Sattler, Kai-Uwe
Adaptive query compilation with Processing-in-Memory. - In: 2023 IEEE 39th International Conference on Data Engineering workshops, (2023), S. 191-197

The challenge of today’s DBMS is to integrate modern hardware properly in order to provide efficiency and performance. While emerging technologies like Processing-in-Memory (PIM) reduce the bottleneck when accessing memory by offloading computation, DBMSs must adapt to the new characteristics and the provided processing models in order to make use of it efficiently. The Single Program Multiple Data (SPMD) models require a special precompiled program for PIM-enabled chips in the UPMEM architecture. Integrating this model into the query processing of a DBMS can improve the overall performance by efficiently exploiting the underlying characteristic of high parallel execution directly on memory. To address this, we propose an approach to integrate this programming model directly into the query processing by leveraging adaptive query compilation. The experiment results show an improvement in the execution times compared to the execution on non-PIM hardware.



https://doi.org/10.1109/ICDEW58674.2023.00035
Kläbe, Steffen;
Modern data analytics in the cloud era. - Ilmenau : Universitätsbibliothek, 2023. - 1 Online-Ressource (171 Seiten)
Technische Universität Ilmenau, Dissertation 2023

Cloud Computing ist die dominante Technologie des letzten Jahrzehnts. Die Benutzerfreundlichkeit der verwalteten Umgebung in Kombination mit einer nahezu unbegrenzten Menge an Ressourcen und einem nutzungsabhängigen Preismodell ermöglicht eine schnelle und kosteneffiziente Projektrealisierung für ein breites Nutzerspektrum. Cloud Computing verändert auch die Art und Weise wie Software entwickelt, bereitgestellt und genutzt wird. Diese Arbeit konzentriert sich auf Datenbanksysteme, die in der Cloud-Umgebung eingesetzt werden. Wir identifizieren drei Hauptinteraktionspunkte der Datenbank-Engine mit der Umgebung, die veränderte Anforderungen im Vergleich zu traditionellen On-Premise-Data-Warehouse-Lösungen aufweisen. Der erste Interaktionspunkt ist die Interaktion mit elastischen Ressourcen. Systeme in der Cloud sollten Elastizität unterstützen, um den Lastanforderungen zu entsprechen und dabei kosteneffizient zu sein. Wir stellen einen elastischen Skalierungsmechanismus für verteilte Datenbank-Engines vor, kombiniert mit einem Partitionsmanager, der einen Lastausgleich bietet und gleichzeitig die Neuzuweisung von Partitionen im Falle einer elastischen Skalierung minimiert. Darüber hinaus führen wir eine Strategie zum initialen Befüllen von Puffern ein, die es ermöglicht, skalierte Ressourcen unmittelbar nach der Skalierung auszunutzen. Cloudbasierte Systeme sind von fast überall aus zugänglich und verfügbar. Daten werden häufig von zahlreichen Endpunkten aus eingespeist, was sich von ETL-Pipelines in einer herkömmlichen Data-Warehouse-Lösung unterscheidet. Viele Benutzer verzichten auf die Definition von strikten Schemaanforderungen, um Transaktionsabbrüche aufgrund von Konflikten zu vermeiden oder um den Ladeprozess von Daten zu beschleunigen. Wir führen das Konzept der PatchIndexe ein, die die Definition von unscharfen Constraints ermöglichen. PatchIndexe verwalten Ausnahmen zu diesen Constraints, machen sie für die Optimierung und Ausführung von Anfragen nutzbar und bieten effiziente Unterstützung bei Datenaktualisierungen. Das Konzept kann auf beliebige Constraints angewendet werden und wir geben Beispiele für unscharfe Eindeutigkeits- und Sortierconstraints. Darüber hinaus zeigen wir, wie PatchIndexe genutzt werden können, um fortgeschrittene Constraints wie eine unscharfe Multi-Key-Partitionierung zu definieren, die eine robuste Anfrageperformance bei Workloads mit unterschiedlichen Partitionsanforderungen bietet. Der dritte Interaktionspunkt ist die Nutzerinteraktion. Datengetriebene Anwendungen haben sich in den letzten Jahren verändert. Neben den traditionellen SQL-Anfragen für Business Intelligence sind heute auch datenwissenschaftliche Anwendungen von großer Bedeutung. In diesen Fällen fungiert das Datenbanksystem oft nur als Datenlieferant, während der Rechenaufwand in dedizierten Data-Science- oder Machine-Learning-Umgebungen stattfindet. Wir verfolgen das Ziel, fortgeschrittene Analysen in Richtung der Datenbank-Engine zu verlagern und stellen das Grizzly-Framework als DataFrame-zu-SQL-Transpiler vor. Auf dieser Grundlage identifizieren wir benutzerdefinierte Funktionen (UDFs) und maschinelles Lernen (ML) als wichtige Aufgaben, die von einer tieferen Integration in die Datenbank-Engine profitieren würden. Daher untersuchen und bewerten wir Ansätze für die datenbankinterne Ausführung von Python-UDFs und datenbankinterne ML-Inferenz.



https://doi.org/10.22032/dbt.57434
Baumstark, Alexander; Jibril, Muhammad Attahir; Sattler, Kai-Uwe
Adaptive query compilation in graph databases. - In: Distributed and parallel databases, ISSN 1573-7578, Bd. 41 (2023), 3, S. 359-386

Compiling database queries into compact and efficient machine code has proven to be a great technique to improve query performance and exploit characteristics of modern hardware. Particularly for graph database queries, which often execute the exact instructions for processing, this technique can lead to an improvement. Furthermore, compilation frameworks like LLVM provide powerful optimization techniques and support different backends. However, the time for generating and optimizing machine code becomes an issue for short-running queries or queries which could produce early results quickly. In this work, we present an adaptive approach integrating graph query interpretation and compilation. While query compilation and code generation are running in the background, the query execution starts using the interpreter. When the code generation is finished, the execution switches to the compiled code. Our evaluation of the approach using short-running and complex queries show that autonomously switching execution modes helps to improve the runtime of all types of queries and additionally to hide compilation times and the additional latencies of the underlying storage.



https://doi.org/10.1007/s10619-023-07430-4
Tröbs, Eric; Hagedorn, Stefan; Sattler, Kai-Uwe
JPTest - grading data science exercises in Jupyter made short, fast and scalable. - In: Datenbanksysteme für Business, Technologie und Web (BTW 2023), (2023), S. 673-679

Jupyter Notebook is not only a popular tool for publishing data science results, but canalso be used for the interactive explanation of teaching content as well as the supervised work onexercises. In order to give students feedback on their solutions, it is necessary to check and evaluatethe submitted work. To exploit the possibilities of remote learning as well as to reduce the workneeded to evaluate submissions, we present a flexible and efficient framework. It enables automatedchecking of notebooks for completeness and syntactic correctness as well as fine-grained evaluationof submitted tasks. The framework comes with a high level of parallelization, isolation and a shortand efficient API.



Jibril, Muhammad Attahir; Baumstark, Alexander; Sattler, Kai-Uwe
Adaptive update handling for graph HTAP. - In: Distributed and parallel databases, ISSN 1573-7578, Bd. 41 (2023), 3, S. 331-357

Hybrid transactional/analytical processing (HTAP) workloads on graph data can significantly benefit from GPU accelerators. However, to exploit the full potential of GPU processing, dedicated graph representations are necessary, which mostly make in-place updates difficult. In this paper, we discuss an adaptive update handling approach in a graph database system for HTAP workloads. We discuss and evaluate strategies for propagating transactional updates from an update-friendly table storage to a GPU-optimized sparse matrix format for analytics.



https://doi.org/10.1007/s10619-023-07428-y
Jibril, Muhammad Attahir; Baumstark, Alexander; Sattler, Kai-Uwe
GTPC: towards a hybrid OLTP-OLAP graph benchmark. - In: Datenbanksysteme für Business, Technologie und Web (BTW 2023), (2023), S. 105-117

Graph databases are gaining increasing relevance not only for pure analytics but alsofor full transactional support. Business requirements are evolving to demand analytical insights onfresh transactional data, thereby triggering the emergence of graph systems for hybrid transactional-analytical graph processing (HTAP). In this paper, we present our ongoing work on GTPC, a hybridgraph benchmark targeting such systems, based on the TPC-C and TPC-H benchmarks.



Baumstark, Alexander; Jibril, Muhammad Attahir; Sattler, Kai-Uwe
Accelerating large table scan using Processing-In-Memory technology. - In: Datenbanksysteme für Business, Technologie und Web (BTW 2023), (2023), S. 797-814

Today’s systems are capable of storing large amounts of data in main memory. In-memoryDBMSs can benefit particularly from this development. However, the processing of the data fromthe main memory necessarily has to run via the CPU. This creates a bottleneck, which affects thepossible performance of the DBMS. The Processing-In-Memory (PIM) technology is a paradigm toovercome this problem, which was not available in commercial systems for a long time. However, withthe availability of UPMEM, a commercial system is finally available that provides PIM technologyin hardware. In this work, the main focus was on the optimization of the table scan, a fundamental,and memory-bound operation. Here a possible approach is shown, which can be used to optimizethis operation by using PIM. This method was then tested for parallelism and execution time inbenchmarks with different table sizes and compared to the usual table scan. The result is a table scanthat outperforms the scan on the usual CPU significantly.



Schlegel, Marius; Sattler, Kai-Uwe
Management of machine learning lifecycle artifacts: a survey. - In: ACM SIGMOD record, Bd. 51 (2023), 4, S. 18-35

The explorative and iterative nature of developing and operating ML applications leads to a variety of artifacts, such as datasets, features, models, hyperparameters, metrics, software, configurations, and logs. In order to enable comparability, reproducibility, and traceability of these artifacts across the ML lifecycle steps and iterations, systems and tools have been developed to support their collection, storage, and management. It is often not obvious what precise functional scope such systems offer so that the comparison and the estimation of synergy effects between candidates are quite challenging. In this paper, we aim to give an overview of systems and platforms which support the management of ML lifecycle artifacts. Based on a systematic literature review, we derive assessment criteria and apply them to a representative selection of more than 60 systems and platforms.



https://doi.org/10.1145/3582302.3582306
Kläbe, Steffen; DeSantis, Bobby; Hagedorn, Stefan; Sattler, Kai-Uwe
Accelerating Python UDFs in vectorized query execution. - [USA?] : CIDR Conference. - 1 Online-Ressource (7 Seiten)Publikation entstand im Rahmen der Veranstaltung: CIDR 2022 : 12th Annual Conference on Innovative Data Systems Research (CIDR ’22), January 9-12, 2022, Chaminade, USA

https://doi.org/10.22032/dbt.59388
Lasch, Robert; Moghaddamfar, Mehdi; May, Norman; Demirsoy, Suleyman S.; Färber, Christian; Sattler, Kai-Uwe
Bandwidth-optimal relational joins on FPGAs. - Konstanz : University of Konstanz. - 1 Online-Ressource (Seite 1:27-1:39)Online-Ausgabe: Proceedings of the 25th International Conference on Extending Database Technology, EDBT 2022, Edinburgh, UK, March 29 - April 1, 2022. - OpenProceedings.org 2022, ISBN 978-3-89318-086-8

https://doi.org/10.5441/002/edbt.2022.03
Schlegel, Marius; Sattler, Kai-Uwe
Cornucopia: tool support for selecting machine learning lifecycle artifact management systems. - Setúbal : Scitepress. - 1 Online-Ressource (Seite 444-450)Online-Ausgabe: Proceedings of the 18th International Conference on Web Information Systems and Technologies, WEBIST, October 25-27, 2022, in Valletta, Malta / editors: Stefan Decker ... - Setúbal : Scitepress, 2022, ISBN 978-989-758-613-2

The explorative and iterative nature of developing and operating machine learning (ML) applications leads to a variety of ML artifacts, such as datasets, models, hyperparameters, metrics, software, and configurations. To enable comparability, traceability, and reproducibility of ML artifacts across the ML lifecycle steps and iterations, platforms, frameworks, and tools have been developed to support their collection, storage, and management. Selecting the best-suited ML artifact management systems (AMSs) for a particular use case is often challenging and time-consuming due to the plethora of AMSs, their different focus, and imprecise specifications of features and properties. Based on assessment criteria and their application to a representative selection of more than 60 AMSs, this paper introduces an interactive web tool that enables the convenient and time-efficient exploration and comparison of ML AMSs.



https://doi.org/10.5220/0011591700003318
Al-Sayeh, Hani; Jibril, Muhammad Attahir; Bin Saeed, Muhammad Waleed; Sattler, Kai-Uwe
SparkCAD: caching anomalies detector for spark applications. - In: Proceedings of the VLDB Endowment, ISSN 2150-8097, Bd. 15 (2022), 12, S. 3694-3697

Developers of Apache Spark applications can accelerate their workloads by caching suitable intermediate results in memory and reusing them rather than recomputing them all over again every time they are needed. However, as scientific workflows are becoming more complex, application developers are becoming more prone to making wrong caching decisions, which we refer to as caching anomalies, that lead to poor performance. We present and give a demonstration of Spark Caching Anomalies Detector (SparkCAD), a developer decision support tool that visualizes the logical plan of Spark applications and detects caching anomalies.



https://doi.org/10.14778/3554821.3554877
Sattler, Kai-Uwe; Härder, Theo
Editorial. - In: Datenbank-Spektrum, ISSN 1610-1995, Bd. 22 (2022), 1, S. 1-4

https://doi.org/10.1007/s13222-022-00405-2
Al-Sayeh, Hani; Jibril, Muhammad Attahir; Memishi, Bunjamin; Sattler, Kai-Uwe
Blink: lightweight sample runs for cost optimization of big data applications. - In: New Trends in Database and Information Systems, (2022), S. 144-154

Distributed in-memory data processing engines accelerate iterative applications by caching datasets in memory rather than recomputing them in each iteration. Selecting a suitable cluster size for caching these datasets plays an essential role in achieving optimal performance. We present Blink, an autonomous sampling-based framework, which predicts sizes of cached datasets and selects optimal cluster size without relying on historical runs. We evaluate Blink on iterative, real-world, machine learning applications. With an average sample runs cost of 4.6% compared to the cost of optimal runs, Blink selects the optimal cluster size, saving up to 47.4% of execution cost compared to average cost.



https://doi.org/10.1007/978-3-031-15743-1_14
Lasch, Robert; Legler, Thomas; May, Norman; Scheirle, Bernhard; Sattler, Kai-Uwe
Cost modelling for optimal data placement in heterogeneous main memory. - In: Proceedings of the VLDB Endowment, ISSN 2150-8097, Bd. 15 (2022), 11, S. 2867-2880

The cost of DRAM contributes significantly to the operating costs of in-memory database management systems (IMDBMS). Persistent memory (PMEM) is an alternative type of byte-addressable memory that offers - in addition to persistence - higher capacities than DRAM at a lower price with the disadvantage of increased latencies and reduced bandwidth. This paper evaluates PMEM as a cheaper alternative to DRAM for storing table base data, which can make up a significant fraction of an IMDBMS' total memory footprint. Using a prototype implementation in the SAP HANA IMDBMS, we find that placing all table data in PMEM can reduce query performance in analytical benchmarks by more than a factor of two, while transactional workloads are less affected. To quantify the performance impact of placing individual data structures in PMEM, we propose a cost model based on a lightweight workload characterization. Using this model, we show how to place data pareto-optimally in the heterogeneous memory. Our evaluation demonstrates the accuracy of the model and shows that it is possible to place more than 75% of table data in PMEM while keeping performance within 10% of the DRAM baseline for two analytical benchmarks.



https://doi.org/10.14778/3551793.3551837
Räth, Timo;
Interactive and explorative stream processing. - In: DEBS 2022, (2022), S. 194-197

Formulating a suitable stream processing pipeline for a particular use case is a complicated process that highly depends on the processed data and usually requires many cycles of refinement. By combining the advantages of visual data exploration with the concept of real-time modifiability of a stream processing pipeline we want to contribute an interactive approach that simplifies and enhances the process of pipeline engineering. As a proof of concept, a prototype has been developed that delivers promising results in various test use cases and allows to modify the parameters and structure of stream processing pipelines at a development stage in a matter of milliseconds. By utilizing collected data and statistics from this explorative intermediate stage we will automatically generate optimized runtime code for a standalone execution of the constructed pipeline.



https://doi.org/10.1145/3524860.3543287
Räth, Timo; Sattler, Kai-Uwe
StreamVizzard - an interactive and explorative stream processing editor. - In: DEBS 2022, (2022), S. 186-189

Processing continuous data streams is one of the hot topics of our time. A major challenge is the formulation of a suitable and efficient stream processing pipeline. This process is complicated by long restart times after pipeline modifications and tight dependencies on the actual data to process. To approach these issues, we have developed StreamVizzard - an interactive and explorative stream processing editor to simplify the pipeline engineering process. Our system allows to visually configure, execute, and completely modify a pipeline during runtime without any delay. Furthermore, an adaptive visualizer automatically displays the operator's processed data and statistics in a comprehensible way and allows the user to explore the data and support his design decisions. After the pipeline has been finalized our system automatically optimizes the pipeline based on collected statistics and generates standalone runtime code for productive use at a targeted stream processing engine.



https://doi.org/10.1145/3524860.3543283
Jibril, Muhammad Attahir; Baumstark, Alexander; Sattler, Kai-Uwe
Adaptive update handling for graph HTAP. - In: 2022 IEEE 38th International Conference on Data Engineering Workshops, (2022), S. 16-23

Processing hybrid transactional/analytical workloads on graph data can significantly benefit from GPU accelerators. However, to exploit the full potential of GPU processing, dedicated graph representations are necessary, which make inplace updates difficult. In this paper, we discuss an approach for adaptive handling of updates in a graph database system for HTAP workloads. We discuss and evaluate strategies for propagating updates from an update-friendly table storage to a GPU-optimized sparse matrix format.



https://doi.org/10.1109/ICDEW55742.2022.00007
Al-Sayeh, Hani; Memishi, Bunjamin; Jibril, Muhammad Attahir; Paradies, Marcus; Sattler, Kai-Uwe
JUGGLER: autonomous cost optimization and performance prediction of big data applications. - In: SIGMOD '22, (2022), S. 1840-1854

Distributed in-memory processing frameworks accelerate iterative workloads by caching suitable datasets in memory rather than recomputing them in each iteration. Selecting appropriate datasets to cache as well as allocating a suitable cluster configuration for caching these datasets play a crucial role in achieving optimal performance. In practice, both are tedious, time-consuming tasks and are often neglected by end users, who are typically not aware of workload semantics, sizes of intermediate data, and cluster specification. To address these problems, we present Juggler, an end-to-end framework, which autonomously selects appropriate datasets for caching and recommends a correspondingly suitable cluster configuration to end users, with the aim of achieving optimal execution time and cost. We evaluate Juggler on various iterative, real-world, machine learning applications. Compared with our baseline, Juggler reduces execution time to 25.1% and cost to 58.1%, on average, as a result of selecting suitable datasets for caching. It recommends optimal cluster configuration in 50% of cases and near-to-optimal configuration in the remaining cases. Moreover, Juggler achieves an average performance prediction accuracy of 90%.



https://doi.org/10.1145/3514221.3517892
Götze, Philipp;
Transactional and analytical data management on persistent memory. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (XII, 144 Seiten, Seite XIII-XXXIV)
Technische Universität Ilmenau, Dissertation 2022

Die zunehmende Anzahl von Smart-Geräten und Sensoren, aber auch die sozialen Medien lassen das Datenvolumen und damit die geforderte Verarbeitungsgeschwindigkeit stetig wachsen. Gleichzeitig müssen viele Anwendungen Daten persistent speichern oder sogar strenge Transaktionsgarantien einhalten. Die neuartige Speichertechnologie Persistent Memory (PMem) mit ihren einzigartigen Eigenschaften scheint ein natürlicher Anwärter zu sein, um diesen Anforderungen effizient nachzukommen. Sie ist im Vergleich zu DRAM skalierbarer, günstiger und dauerhaft. Im Gegensatz zu Disks ist sie deutlich schneller und direkt adressierbar. Daher wird in dieser Dissertation der gezielte Einsatz von PMem untersucht, um den Anforderungen moderner Anwendung gerecht zu werden. Nach der Darlegung der grundlegenden Arbeitsweise von und mit PMem, konzentrieren wir uns primär auf drei Aspekte der Datenverwaltung. Zunächst zerlegen wir mehrere persistente Daten- und Indexstrukturen in ihre zugrundeliegenden Entwurfsprimitive, um Abwägungen für verschiedene Zugriffsmuster aufzuzeigen. So können wir ihre besten Anwendungsfälle und Schwachstellen, aber auch allgemeine Erkenntnisse über das Entwerfen von PMem-basierten Datenstrukturen ermitteln. Zweitens schlagen wir zwei Speicherlayouts vor, die auf analytische Arbeitslasten abzielen und eine effiziente Abfrageausführung auf beliebigen Attributen ermöglichen. Während der erste Ansatz eine verknüpfte Liste von mehrdimensionalen gruppierten Blöcken verwendet, handelt es sich beim zweiten Ansatz um einen mehrdimensionalen Index, der Knoten im DRAM zwischenspeichert. Drittens zeigen wir unter Verwendung der bisherigen Datenstrukturen und Erkenntnisse, wie Datenstrom- und Ereignisverarbeitungssysteme mit transaktionaler Zustandsverwaltung verbessert werden können. Dabei schlagen wir ein neuartiges Transactional Stream Processing (TSP) Modell mit geeigneten Konsistenz- und Nebenläufigkeitsprotokollen vor, die an PMem angepasst sind. Zusammen sollen die diskutierten Aspekte eine Grundlage für die Entwicklung noch ausgereifterer PMem-fähiger Systeme bilden. Gleichzeitig zeigen sie, wie Datenverwaltungsaufgaben PMem ausnutzen können, indem sie neue Anwendungsgebiete erschließen, die Leistung, Skalierbarkeit und Wiederherstellungsgarantien verbessern, die Codekomplexität vereinfachen sowie die ökonomischen und ökologischen Kosten reduzieren.



https://doi.org/10.22032/dbt.51870
Lehner, Wolfgang; Sattler, Kai-Uwe; Freytag, Johann-Christoph
BTW2021 erstmals als digitale Vortragsreihe. - In: Datenbank-Spektrum, ISSN 1610-1995, Bd. 22 (2022), 1, S. 67-71

19. Fachtagung des GI-Fachbereichs DBIS - Datenbanksysteme für Business, Technologie und Web - 2021 online organisiert von der TU Dresden



https://doi.org/10.1007/s13222-021-00402-x
Nguyen, Duy Cuong; Vu, Ngoc Pi; Long, Banh Tien; Puta, Horst; Sattler, Kai-Uwe
Advances in Engineering Research and Application : Proceedings of the International Conference on Engineering Research and Applications, ICERA 2021. - Cham : Springer, 2022. - XXVI, 944 Seiten. - (Lecture Notes in Networks and Systems ; volume 366) ISBN 978-3-030-92573-4

This book covers the International Conference on Engineering Research and Applications (ICERA 2021), which took place at Thai Nguyen University of Technology, Thai Nguyen, Vietnam on December 1–2, 2021, and provided an international forum to disseminate information on latest theories and practices in engineering research and applications. The conference focused on original research work in areas including mechanical engineering, materials and mechanics of materials, mechatronics and micromechatronics, automotive engineering, electrical and electronics engineering, information and communication technology. By disseminating the latest advances in the field, the Proceedings of ICERA 2021, Advances in Engineering Research and Application, helps academics and professionals alike to reshape their thinking on sustainable development. .



Jibril, Muhammad Attahir; Götze, Philipp; Broneske, David; Sattler, Kai-Uwe
Selective caching : a persistent memory approach for multi-dimensional index structures. - In: Distributed and parallel databases, ISSN 1573-7578, Bd. 40 (2022), 1, S. 47-66
Special Issue on Self-Managing and Hardware-Optimized Database Systems 2020

https://doi.org/10.1007/s10619-021-07327-0
Steinmetz, Nadine; Senthil-Kumar, Bhavya; Sattler, Kai-Uwe
Conversational question answering using a shift of context. - [Aachen, Germany] : [RWTH Aachen]. - 1 Online-Ressource (8 Seiten)Online-Ausgabe: EDBT/ICDT-WS 2021: EDBT/ICDT 2021 workshops : proceedings of the workshops of the EDBT/ICDT 2021 Joint Conference : Nicosia, Cyprus, March 23, 2021 / edited by EDBT/ICDT 2021 workshops proceedings chair Constantinos Costa, University of Pittsburgh, Pittsburgh, USA; EDBT/ICDT 2021 workshops chair Evaggelia Pitoura, University of Ioannina, Greece. - [Aachen, Germany] : [RWTH Aachen], 2021. - CEUR workshop proceedings ; vol-2841

https://doi.org/10.22032/dbt.51535
Hagedorn, Stefan; Kläbe, Steffen; Sattler, Kai-Uwe
Putting Pandas in a box. - [USA?] : CIDR Conference. - 1 Online-Ressource (6 Seiten)Publikation entstand im Rahmen der Veranstaltung: 11th Conference on Innovative Data Systems Research, CIDR 2021, Virtual Event, January 11-15, 2021, Online Proceedings, Session 3: Data Analytics

https://doi.org/10.22032/dbt.51534
Steinmetz, Nadine; Sattler, Kai-Uwe
What is in the KGQA benchmark datasets? Survey on challenges in datasets for question answering on knowledge graphs. - In: Journal on data semantics, ISSN 1861-2040, Bd. 10 (2021), 3/4, S. 241-265

Question Answering based on Knowledge Graphs (KGQA) still faces difficult challenges when transforming natural language (NL) to SPARQL queries. Simple questions only referring to one triple are answerable by most QA systems, but more complex questions requiring complex queries containing subqueries or several functions are still a tough challenge within this field of research. Evaluation results of QA systems therefore also might depend on the benchmark dataset the system has been tested on. For the purpose to give an overview and reveal specific characteristics, we examined currently available KGQA datasets regarding several challenging aspects. This paper presents a detailed look into the datasets and compares them in terms of challenges a KGQA system is facing.



https://doi.org/10.1007/s13740-021-00128-9
Hagedorn, Stefan; Kläbe, Steffen; Sattler, Kai-Uwe
Conquering a Panda's weaker self - fighting laziness with laziness : demo paper. - In: Advances in Database Technology - EDBT 2021, (2021), S. 670-673

https://doi.org/10.5441/002/edbt.2021.80
Jibril, Muhammad Attahir; Baumstark, Alexander; Götze, Philipp; Sattler, Kai-Uwe
JIT happens: transactional graph processing in persistent memory meets just-in-time compilation. - In: Advances in Database Technology - EDBT 2021, (2021), S. 37-48

http://dx.doi.org/10.5441/002/edbt.2021.05
Schlegel, Marius;
Trusted enforcement of application-specific security policies. - In: SECRYPT 2021, (2021), S. 343-355

While there have been approaches for integrating security policies into operating systems (OSs) for more than two decades, applications often use objects of higher abstraction requiring individual security policies with application-specific semantics. Due to insufficient OS support, current approaches for enforcing application-level policies typically lead to large and complex trusted computing bases rendering tamperproofness and correctness difficult to achieve. To mitigate this problem, we propose the application-level policy enforcement architecture APPSPEAR and a C++ framework for its implementation. The configurable framework enables developers to balance enforcement rigor and costs imposed by different implementation alternatives and to easily tailor an APPSPEAR implementation to individual application requirements. We argue that hardware-based trusted execution environments offer an optimal balance between effectiveness and efficiency of policy protection and enforcement. This claim is substantiated by a practical evaluation based on a medical record system.



Schlegel, Marius; Amthor, Peter
The missing piece of the ABAC puzzle: a modeling scheme for dynamic analysis. - In: SECRYPT 2021, (2021), S. 234-246

Attribute-based access control (ABAC) has made its way into the mainstream of engineering secure IT systems. At the same time, ABAC models are still lagging behind well-understood, yet more basic access control models in terms of dynamic analyzability. This has led to a plethora of methods, languages, and tools for designing and integrating ABAC policies, but only few to formally reason about them in the process. We present DABAC, a modeling scheme to pick up that missing piece and put it right into its place in the security engineering workflow. Based on an automaton calculus, we demonstrate how DABAC can be leveraged as a holistic formal basis for engineering ABAC models, analyzing their dynamic properties, and providing a functional specification for their implementation. This sets the stage for comprehensive tool support in building future ABAC systems.



Kläbe, Steffen; Sattler, Kai-Uwe; Baumann, Stephan
PatchIndex: exploiting approximate constraints in distributed databases. - In: Distributed and parallel databases, ISSN 1573-7578, Bd. 39 (2021), 3, S. 833-853

Cloud data warehouse systems lower the barrier to access data analytics. These applications often lack a database administrator and integrate data from various sources, potentially leading to data not satisfying strict constraints. Automatic schema optimization in self-managing databases is difficult in these environments without prior data cleaning steps. In this paper, we focus on constraint discovery as a subtask of schema optimization. Perfect constraints might not exist in these unclean datasets due to a small set of values violating the constraints. Therefore, we introduce the concept of a generic PatchIndex structure, which handles exceptions to given constraints and enables database systems to define these approximate constraints. We apply the concept to the environment of distributed databases, providing parallel index creation approaches and optimization techniques for parallel queries using PatchIndexes. Furthermore, we describe heuristics for automatic discovery of PatchIndex candidate columns and prove the performance benefit of using PatchIndexes in our evaluation.



https://doi.org/10.1007/s10619-021-07326-1
Schlegel, Marius;
Poster: Shielding AppSPEAR - enhancing memory safety for trusted application-level security policy enforcement. - In: SACMAT '21, (2021), S. 99-101

This paper tackles the problem of memory-safe implementation of the AppSPEAR framework for application-level security policy enforcement. We contribute with a feasibility study that demonstrates the performance overhead of applying Rust's memory safety features on top of SGX trusted execution technology.



https://doi.org/10.1145/3450569.3464396
Lasch, Robert; Schulze, Robert; Legler, Thomas; Sattler, Kai-Uwe
Workload-driven placement of column-store data structures on DRAM and NVM. - In: DAMON '21: proceedings of the 17th International Workshop on Data Management on New Hardware (DaMoN 2021), (2021), 5, insges. 8 S.

Non-volatile memory (NVM) offers lower costs per capacity and higher total capacities than DRAM. However, NVM cannot simply be used as a drop-in replacement for DRAM in database management systems due to its different performance characteristics. We thus investigate the placement of column-store data structures in a hybrid hierarchy of DRAM and NVM, with the goal of placing as much data as possible in NVM without compromising performance. After analyzing how different memory access patterns affect query runtimes when columns are placed in NVM, we propose a heuristic that leverages lightweight access counters to suggest which structures should be placed in DRAM and which in NVM. Our evaluation using TPC-H shows that more than 80% of the data touched by queries can be placed in NVM with almost no slowdown, while naively placing all data in NVM would increase runtime by 53%.



https://doi.org/10.1145/3465998.3466008
Baumstark, Alexander; Jibril, Muhammad Attahir; Götze, Philipp; Sattler, Kai-Uwe
Instant graph query recovery on persistent memory. - In: DAMON '21: proceedings of the 17th International Workshop on Data Management on New Hardware (DaMoN 2021), (2021), 10, insges. 4 S.

Persistent memory (PMem) - also known as non-volatile memory (NVM) - offers new opportunities not only for the design of data structures and system architectures but also for failure recovery in databases. However, instant recovery can mean not only to bring the system up as fast as possible but also to continue long-running queries which have been interrupted by a system failure. In this work, we discuss how PMem can be utilized to implement query recovery for analytical graph queries. Furthermore, we investigate the trade-off between the overhead of managing the query state in PMem at query runtime as well as the recovery and restart costs.



https://doi.org/10.1145/3465998.3466011
Kläbe, Steffen; Hagedorn, Stefan
When bears get machine support: applying machine learning models to scalable DataFrames with Grizzly. - In: Datenbanksysteme für Business, Technologie und Web (BTW 2021), (2021), S. 195-214

The popular Python Pandas framework provides an easy-to-use DataFrame API that enables a broad range of users to analyze their data. However, Pandas faces severe scalability issues in terms of runtime and memory consumption, limiting the usability of the framework. In this paper we present Grizzly, a replacement for Python Pandas. Instead of bringing data to the operators like Pandas, Grizzly ships program complexity to database systems by transpiling the DataFrame API to SQL code. Additionally, Grizzly offers user-friendly support for combining different data sources, user-defined functions, and applying Machine Learning models directly inside the database system. Our evaluation shows that Grizzly significantly outperforms Pandas as well as state-of-the-art frameworks for distributed Python processing in several use cases.



Kläbe, Steffen; Sattler, Kai-Uwe; Baumann, Stephan
Updatable materialization of approximate constraints. - In: 2021 IEEE 37th International Conference on Data Engineering, (2021), S. 1991-1996

Modern big data applications integrate data from various sources. As a result, these datasets may not satisfy perfect constraints, leading to sparse schema information and non-optimal query performance. The existing approach of PatchIndexes enable the definition of approximate constraints and improve query performance by exploiting the materialized constraint information. As real world data warehouse workloads are often not limited to read-only queries, we enhance the PatchIndex structure towards an update-conscious design in this paper. Therefore, we present a sharded bitmap as the underlying data structure which offers efficient update operations, and describe approaches to maintain approximate constraints under updates, avoiding index recomputations and full table scans. In our evaluation, we prove that PatchIndexes provide more lightweight update support than traditional materialization approaches.



https://doi.org/10.1109/ICDE51399.2021.00189
Keim, Daniel; Sattler, Kai-Uwe
Von Daten zu Künstlicher Intelligenz - Datenmanagement als Basis für erfolgreiche KI-Anwendungen. - In: Digitale Welt, ISSN 2569-1996, Bd. 5 (2021), 3, S. 75-79

https://doi.org/10.1007/s42354-021-0383-z
Baumstark, Alexander; Jibril, Muhammad Attahir; Sattler, Kai-Uwe
Adaptive query compilation in graph databases. - In: 2021 IEEE 37th International Conference on Data Engineering workshops, (2021), S. 112-119

Compiling database queries into compact and efficient machine code has proven to be a great technique to improve query performance and to exploit characteristics of modern hardware. Furthermore, compilation frameworks like LLVM provide powerful optimization techniques and support different backends. However, the time for generating machine code becomes an issue for short-running queries or queries which could produce early results quickly. In this work, we present an adaptive approach integrating graph query interpretation and compilation. While query compilation and code generation are running in the background, the query execution starts using the interpreter. As soon as the code generation is finished, the execution switches to the compiled code. Our evaluation shows that autonomously switching execution modes helps to hide compilation times.



https://doi.org/10.1109/ICDEW53142.2021.00027
Sattler, Kai-Uwe; Herschel, Melanie; Lehner, Wolfgang
Datenbanksysteme für Business, Technologie und Web (BTW 2021) : 13.-17. September 2021 in Dresden, Deutschland. - Bonn : Gesellschaft für Informatik, 2021. - 1 CD-ROM. - (Lecture notes in Informatics (LNI)) ISBN 978-3-88579-705-0
Literaturangaben

Sattler, Kai-Uwe;
Hardware acceleration of modern data management. - In: Advances in engineering research and application, (2021), S. 3

Over the past thirty years, database management systems have been established as one of the most successful software concepts. In todays business environment they constitute the centerpiece of almost all critical IT systems. The reasons for this success are manyfold. On the one hand, such systems provide abstractions hiding the details of underlying hardware or operating systems layers. On the other hand, database management systems are ACID compliant, which enables them to represent an accurate picture of a real world scenario, and ensures correctness of the managed data.However, the currently used database concepts and systems are not well prepared to support emerging application domains such as eSciences, Industry 4.0, Internet of Things or Digital Humanities. Furthermore, volume, variety, veracity as well as velocity of data caused by ubiquitous sensors have to be mastered by massive scalability and online processing by providing traditional qualities of database systems like consistency, isolation and descriptive query languages. At the same time, current and future hardware trends provide new opportunities such as many-core CPUs, co-processors like GPU and FPGA, novel storage technologies like NVRAM and SSD as well as high-speed networks provide new opportunities.In this talk we present our research results for the use of modern hardware architectures for data management. We discuss the design of data structures for persistent memory and the use of accelerators like GPU and FPGA for database operations.



https://doi.org/10.1007/978-3-030-64719-3_1
Sattler, Kai-Uwe; Nguyen, Duy Cuong; Vu, Ngoc Pi; Long, Banh Tien; Puta, Horst
Advances in engineering research and application : proceedings of the International Conference on Engineering Research and Applications, ICERA 2020. - Cham : Springer International Publishing, 2021. - 1 Online-Ressource (xiv, 886 p.). - (Lecture notes in networks and systems ; Volume 178) ISBN 978-3-030-64719-3

This proceedings book features volumes gathered selected contributions from the International Conference on Engineering Research and Applications (ICERA 2020) organized at Thai Nguyen University of Technology on December 1-2, 2020. The conference focused on the original researches in a broad range of areas, such as Mechanical Engineering, Materials and Mechanics of Materials, Mechatronics and Micromechatronics, Automotive Engineering, Electrical and Electronics Engineering, and Information and Communication Technology. Therefore, the book provides the research community with authoritative reports on developments in the most exciting areas in these fields.



https://doi.org/10.1007/978-3-030-64719-3
Saake, Gunter; Sattler, Kai-Uwe
Algorithmen und Datenstrukturen : eine Einführung mit Java
6., überarbeitete und erweiterte Auflage. - Heidelberg : dpunkt.verlag, 2021. - 1 Online-Ressource (xix, 588 Seiten) ISBN 3-96910-066-6

Intro -- I Grundlegende Konzepte -- Vorbemerkungen und Überblick -- Informatik, Algorithmen und Datenstrukturen -- Historischer Überblick: Algorithmen -- Historie von Programmiersprachen und Java -- Grundkonzepte der Programmierung in Java -- Algorithmische Grundkonzepte -- Intuitiver Algorithmusbegriff -- Beispiele für Algorithmen -- Bausteine für Algorithmen -- Pseudocode-Notation für Algorithmen -- Struktogramme -- Rekursion -- Sprachen und Grammatiken -- Begriffsbildung -- Reguläre Ausdrücke -- Backus-Naur-Form (BNF) -- Elementare Datentypen -- Datentypen als Algebren -- Signaturen von Datentypen -- Der Datentyp bool -- Der Datentyp integer -- Felder und Zeichenketten -- Terme -- Bildung von Termen -- Algorithmus zur Termauswertung -- Datentypen in Java -- Primitive Datentypen -- Referenzdatentypen -- Operatoren -- Algorithmenparadigmen -- Überblick über Algorithmenparadigmen -- Applikative Algorithmen -- Terme mit Unbestimmten -- Funktionsdefinitionen -- Auswertung von Funktionen -- Erweiterung der Funktionsdefinition -- Applikative Algorithmen -- Beispiele für applikative Algorithmen -- Imperative Algorithmen -- Grundlagen imperativer Algorithmen -- Komplexe Anweisungen -- Beispiele für imperative Algorithmen -- Das logische Paradigma -- Logik der Fakten und Regeln -- Deduktive Algorithmen -- Weitere Paradigmen -- Genetische Algorithmen -- Neuronale Netze -- Umsetzung in Java -- Ausdrücke und Anweisungen -- Methoden -- Applikative Algorithmen und Rekursion -- Literaturhinweise zum Teil I -- II Algorithmen -- Ausgewählte Algorithmen -- Suchen in sortierten Folgen -- Sequenzielle Suche -- Binäre Suche -- Sortieren -- Sortieren: Grundbegriffe -- Sortieren durch Einfügen -- Sortieren durch Selektion -- Sortieren durch Vertauschen: BubbleSort -- Sortieren durch Mischen: MergeSort -- QuickSort -- Sortieren durch Verteilen: RadixSort.



https://ebookcentral.proquest.com/lib/kxp/detail.action?docID=6379309
Keim, Daniel; Sattler, Kai-Uwe; Hösl, Maximilian; Ohliger, Ursula Alexandra
Von Daten zu KI : intelligentes Datenmanagement als Basis für Data Science und den Einsatz Lernender Systeme : Whitepaper
Stand: Oktober 2020. - München : Lernende Systeme - die Plattform für Künstliche Intelligenz, Geschäftsstelle c/o acatech, 2020. - 1 Online-Ressource (29 Seiten, 516,53 KB). - (Whitepaper)Literaturverzeichnis: Seite 22-23

https://edocs.tib.eu/files/e01fn20/1744208131.pdf
Pohl, Constantin;
Hardware-conscious query processing for the many-core era. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (119 Seiten)
Technische Universität Ilmenau, Dissertation 2020

Die optimale Nutzung von moderner Hardware zur Beschleunigung von Datenbank-Anfragen ist keine triviale Aufgabe. Viele DBMS als auch DSMS der letzten Jahrzehnte basieren auf Sachverhalten, die heute kaum noch Gültigkeit besitzen. Ein Beispiel hierfür sind heutige Server-Systeme, deren Hauptspeichergröße im Bereich mehrerer Terabytes liegen kann und somit den Weg für Hauptspeicherdatenbanken geebnet haben. Einer der größeren letzten Hardware Trends geht hin zu Prozessoren mit einer hohen Anzahl von Kernen, den sogenannten Manycore CPUs. Diese erlauben hohe Parallelitätsgrade für Programme durch Multithreading sowie Vektorisierung (SIMD), was die Anforderungen an die Speicher-Bandbreite allerdings deutlich erhöht. Der sogenannte High-Bandwidth Memory (HBM) versucht diese Lücke zu schließen, kann aber ebenso wie Many-core CPUs jeglichen Performance-Vorteil negieren, wenn dieser leichtfertig eingesetzt wird. Diese Arbeit stellt die Many-core CPU-Architektur zusammen mit HBM vor, um Datenbank sowie Datenstrom-Anfragen zu beschleunigen. Es wird gezeigt, dass ein hardwarenahes Kostenmodell zusammen mit einem Kalibrierungsansatz die Performance verschiedener Anfrageoperatoren verlässlich vorhersagen kann. Dies ermöglicht sowohl eine adaptive Partitionierungs und Merge-Strategie für die Parallelisierung von Datenstrom-Anfragen als auch eine ideale Konfiguration von Join-Operationen auf einem DBMS. Nichtsdestotrotz ist nicht jede Operation und Anwendung für die Nutzung einer Many-core CPU und HBM geeignet. Datenstrom-Anfragen sind oft auch an niedrige Latenz und schnelle Antwortzeiten gebunden, welche von höherer Speicher-Bandbreite kaum profitieren können. Hinzu kommen üblicherweise niedrigere Taktraten durch die hohe Kernzahl der CPUs, sowie Nachteile für geteilte Datenstrukturen, wie das Herstellen von Cache-Kohärenz und das Synchronisieren von parallelen Thread-Zugriffen. Basierend auf den Ergebnissen dieser Arbeit lässt sich ableiten, welche parallelen Datenstrukturen sich für die Verwendung von HBM besonders eignen. Des Weiteren werden verschiedene Techniken zur Parallelisierung und Synchronisierung von Datenstrukturen vorgestellt, deren Effizienz anhand eines Mehrwege-Datenstrom-Joins demonstriert wird.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000443
Glombiewski, Nikolaus; Götze, Philipp; Körber, Michael; Morgen, Andreas; Seeger, Bernhard
Designing an event store for a modern three-layer storage hierarchy. - In: Datenbank-Spektrum, ISSN 1610-1995, Bd. 20 (2020), 3, S. 211-222

Event stores face the difficult challenge of continuously ingesting massive temporal data streams while satisfying demanding query and recovery requirements. Many of today’s systems deal with multiple hardware-based trade-offs. For instance, long-term storage solutions balance keeping data in cheap secondary media (SSDs, HDDs) and performance-oriented main-memory caches. As an alternative, in-memory systems focus on performance, while sacrificing monetary costs, and, to some degree, recovery guarantees. The advent of persistent memory (PMem) led to a multitude of novel research proposals aiming to alleviate those trade-offs in various fields. So far, however, there is no proposal for a PMem-powered specialized event store.



https://doi.org/10.1007/s13222-020-00356-6
Heuer, Andreas; Saake, Gunter; Sattler, Kai-Uwe; Meyer, Holger; Grunert, Hannes
Datenbanken : Kompaktkurs
1. Auflage. - Frechen : mitp, 2020. - 1 Online-Ressource (352 Seiten). - (mitp Professional) ISBN 978-3-95845-783-6

Cover -- Inhaltsverzeichnis -- Vorwort -- Was sind Datenbanken? -- Warum Datenbanken? -- Datenbanksysteme -- Anforderungen: Die Codd'schen Regeln -- DBMS-Architektur -- Datenunabhängigkeit -- Transaktionen -- Konkrete Datenbankmanagementsysteme -- Einsatzgebiete und Grenzen -- Beispielanwendungen -- Übersicht über die Kapitel des Buches -- Übungsaufgaben -- Relationale Datenbanken - Daten als Tabellen -- Relationen für tabellarische Daten -- Integritätsbedingungen: Schlüssel und Fremdschlüssel -- Tabellendefinition in SQL -- Anfrageoperationen auf Tabellen -- Selektion -- Projektion -- Natürlicher Verbund -3mu -- Umbenennung -- Mengenoperationen , , - -- Anfragen in SQL -- Änderungsoperationen in SQL -- Zusammenfassung -- Übungsaufgaben -- Das Entity-Relationship- Modell -- Eigenschaften von Datenbankmodellen -- Einführung in das Entity-Relationship-Modell -- Grundkonzepte -- Ein einfaches Beispiel für ein ER-Schema -- ER-Modellierungskonzepte -- Wert und Attribut -- Entity und Entity-Typ -- Beziehung und Beziehungstyp -- Identifizierung durch Schlüssel -- Kardinalitäten -- n:m-Beziehung -- 1:n-Beziehung -- 1:1-Beziehung -- Optionale und zwingende Beziehungen -- Abhängige Entity-Typen -- Die Ist-Beziehung -- Alternative Notationen für Kardinalitäten -- Zusammenfassung -- Übungsaufgaben -- Datenbankentwurf -- Der Datenbankentwurfsprozess -- Ziele des Datenbankentwurfs -- Das Phasenmodell -- Formalisierung des Relationenmodells -- Logischer Datenbankentwurf: Abbildung auf Relationen -- Übersicht über die Abbildungsregeln -- Abbildung von Entity-Typen -- Abbildung von Beziehungstypen -- Abbildung eines abhängigen Entity-Typs -- Abbildung der Ist-Beziehung -- Komplexere Beispiele -- Zusammenfassung -- Übungsaufgaben -- Normalisierung für eine redundanzfreie Datenbank -- Funktionale Abhängigkeiten -- Schema-Eigenschaften -- Update-Anomalien.



https://ebookcentral.proquest.com/lib/kxp/detail.action?docID=6363308
Lasch, Robert; Oukid, Ismail; Dementiev, Roman; May, Norman; Demirsoy, Suleyman S.; Sattler, Kai-Uwe
Faster & strong: string dictionary compression using sampling and fast vectorized decompression. - In: The VLDB journal, ISSN 0949-877X, Bd. 29 (2020), 6, S. 1263-1285

String dictionaries constitute a large portion of the memory footprint of database applications. While strong string dictionary compression algorithms exist, these come with impractical access and compression times. Therefore, lightweight algorithms such as front coding (PFC) are favored in practice. This paper endeavors to make strong string dictionary compression practical. We focus on Re-Pair Front Coding (RPFC), a grammar-based compression algorithm, since it consistently offers better compression ratios than other algorithms in the literature. To accelerate compression times, we propose block-based RPFC (BRPFC) which consists in independently compressing small blocks of the dictionary. For further accelerated compression times especially on large string dictionaries, we also propose an alternative version of BRPFC that uses sampling to speed up compression. Moreover, to accelerate access times, we devise a vectorized access method, using Intel® Advanced Vector Extensions 512 (Intel® AVX-512). Our experimental evaluation shows that sampled BRPFC offers compression times up to 190 × faster than RPFC, and random string lookups 2.3 × faster than RPFC on average. These results move our modified RPFC into a practical range for use in database systems because the overhead of Re-Pair-based compression for access times can be reduced by 2 ×.



https://doi.org/10.1007/s00778-020-00620-x
Al-Sayeh, Hani; Hagedorn, Stefan; Sattler, Kai-Uwe
A gray-box modeling methodology for runtime prediction of Apache Spark jobs. - In: Distributed and parallel databases, ISSN 1573-7578, Bd. 38 (2020), 4, S. 819-839

Apache Spark jobs are often characterized by processing huge data sets and, therefore, require runtimes in the range of minutes to hours. Thus, being able to predict the runtime of such jobs would be useful not only to know when the job will finish, but also for scheduling purposes, to estimate monetary costs for cloud deployment, or to determine an appropriate cluster configuration, such as the number of nodes. However, predicting Spark job runtimes is much more challenging than for standard database queries: cluster configuration and parameters have a significant performance impact and jobs usually contain a lot of user-defined code making it difficult to estimate cardinalities and execution costs. In this paper, we present a gray-box modeling methodology for runtime prediction of Apache Spark jobs. Our approach comprises two steps: first, a white-box model for predicting the cardinalities of the input RDDs of each operator is built based on prior knowledge about the behavior and application parameters such as applied filters data, number of iterations, etc. In the second step, a black-box model for each task constructed by monitoring runtime metrics while varying allocated resources and input RDD cardinalities is used. We further show how to use this gray-box approach not only for predicting the runtime of a given job, but also as part of a decision model for reusing intermediate cached results of Spark jobs. Our methodology is validated with experimental evaluation showing a highly accurate prediction of the actual job runtime and a performance improvement if intermediate results can be reused.



https://doi.org/10.1007/s10619-020-07286-y
Sattler, Kai-Uwe;
Data-driven discovery from a data management perspective: challenges, solutions, and applications. - In: Advances in engineering research and application, (2020), S. vii

Pohl, Constantin; Sattler, Kai-Uwe
Parallelization of massive multiway stream joins on manycore CPUs. - In: Euro-Par 2019: parallel processing workshops, (2020), S. 5-16

Hagedorn, Stefan;
Efficient processing of large-scale spatio-temporal data. - Ilmenau : Universitätsbibliothek, 2020. - 1 Online-Ressource (148 Seiten)
Technische Universität Ilmenau, Dissertation 2020

Millionen Geräte, wie z.B. Mobiltelefone, Autos und Umweltsensoren senden ihre Positionen zusammen mit einem Zeitstempel und weiteren Nutzdaten an einen Server zu verschiedenen Analysezwecken. Die Positionsinformationen und übertragenen Ereignisinformationen werden als Punkte oder Polygone dargestellt. Eine weitere Art räumlicher Daten sind Rasterdaten, die zum Beispiel von Kameras und Sensoren produziert werden. Diese großen räumlich-zeitlichen Datenmengen können nur auf skalierbaren Plattformen wie Hadoop und Apache Spark verarbeitet werden, die jedoch z.B. die Nachbarschaftsinformation nicht ausnutzen können - was die Ausführung bestimmter Anfragen praktisch unmöglich macht. Die wiederholten Ausführungen der Analyseprogramme während ihrer Entwicklung und durch verschiedene Nutzer resultieren in langen Ausführungszeiten und hohen Kosten für gemietete Ressourcen, die durch die Wiederverwendung von Zwischenergebnissen reduziert werden können. Diese Arbeit beschäftigt sich mit den beiden oben beschriebenen Herausforderungen. Wir präsentieren zunächst das STARK Framework für die Verarbeitung räumlich-zeitlicher Vektor- und Rasterdaten in Apache Spark. Wir identifizieren verschiedene Algorithmen für Operatoren und analysieren, wie diese von den Eigenschaften der zugrundeliegenden Plattform profitieren können. Weiterhin wird untersucht, wie Indexe in der verteilten und parallelen Umgebung realisiert werden können. Außerdem vergleichen wir Partitionierungsmethoden, die unterschiedlich gut mit ungleichmäßiger Datenverteilung und der Größe der Datenmenge umgehen können und präsentieren einen Ansatz um die auf Operatorebene zu verarbeitende Datenmenge frühzeitig zu reduzieren. Um die Ausführungszeit von Programmen zu verkürzen, stellen wir einen Ansatz zur transparenten Materialisierung von Zwischenergebnissen vor. Dieser Ansatz benutzt ein Entscheidungsmodell, welches auf den tatsächlichen Operatorkosten basiert. In der Evaluierung vergleichen wir die verschiedenen Implementierungs- sowie Konfigurationsmöglichkeiten in STARK und identifizieren Szenarien wann Partitionierung und Indexierung eingesetzt werden sollten. Außerdem vergleichen wir STARK mit verwandten Systemen. Im zweiten Teil der Evaluierung zeigen wir, dass die transparente Wiederverwendung der materialisierten Zwischenergebnisse die Ausführungszeit der Programme signifikant verringern kann.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2020000132
Lasch, Robert; Demirsoy, Suleyman S.; May, Norman; Ramamurthy, Veeraraghavan; Färber, Christian; Sattler, Kai-Uwe
Accelerating re-pair compression using FPGAs. - In: DaMoN '20, (2020), insges. 8 S.
Article no. 8

https://doi.org/10.1145/3399666.3399931
Götze, Philipp; Tharanatha, Arun Kumar; Sattler, Kai-Uwe
Data structure primitives on persistent memory: an evaluation. - In: DaMoN '20, (2020), insges. 3 S.
Article no. 15

https://doi.org/10.1145/3399666.3399900
Kläbe, Steffen; Sattler, Kai-Uwe; Baumann, Stephan; Rink, Michael
Elastic scaling in VectorH. - In: Advances in Database Technology - EDBT 2020, (2020), S. 498-509
Industrial paper

http://dx.doi.org/10.5441/002/edbt.2020.61
Kläbe, Steffen; Sattler, Kai-Uwe; Baumann, Stephan
PatchIndex - exploiting approximate constraints in self-managing databases. - In: 2020 IEEE 36th International Conference on Data Engineering workshops, (2020), S. 139-146

https://doi.org/10.1109/ICDEW49219.2020.00014
Jibril, Muhammad Attahir; Götze, Philipp; Broneske, David; Sattler, Kai-Uwe
Selective caching: a persistent memory approach for multi-dimensional index structures. - In: 2020 IEEE 36th International Conference on Data Engineering workshops, (2020), S. 115-120

https://doi.org/10.1109/ICDEW49219.2020.00010
Pohl, Constantin; Sattler, Kai-Uwe; Graefe, Goetz
Joins on high-bandwidth memory: a new level in the memory hierarchy. - In: The VLDB journal, ISSN 0949-877X, Bd. 29 (2020), 2/3, S. 797-817

https://doi.org/10.1007/s00778-019-00546-z
Sattler, Kai-Uwe; Nguyen, Duy Cuong; Vu, Ngoc Pi; Tien Long, Banh; Puta, Horst
Advances in engineering research and application : proceedings of the International Conference on Engineering Research and Applications, ICERA 2019. - Cham : Springer, 2020. - 1 Online-Ressource (XXI, 735 Seiten). - (Lecture notes in networks and systems ; Volume 104) ISBN 978-3-030-37497-6

This proceedings volume gathers the outcomes of the International Conference on Engineering Research and Applications (ICERA 2019), which was held at Thai Nguyen University of Technology, Vietnam, on December 1-2, 2019 and provided an international forum for disseminating the latest theories and practices in engineering research and applications. The conference focused on original research work in a broad range of areas, including Mechanical Engineering, Materials and Mechanics of Materials, Mechatronics and Micromechatronics, Automotive Engineering, Electrical and Electronics Engineering, and Information and Communication Technology. By sharing the latest advances in these fields, the book will help academics and professionals alike to revisit their thinking on sustainable development.



https://doi.org/10.1007/978-3-030-37497-6
Baumstark, Alexander; Pohl, Constantin
Lock-free data structures for data stream processing : a closer look. - In: Datenbank-Spektrum, ISSN 1610-1995, Bd. 19 (2019), 3, S. 209-218

https://doi.org/10.1007/s13222-019-00329-4
Pohl, Constantin; Sattler, Kai-Uwe
Adaptive partitioning and order-preserved merging of data streams. - In: Advances in databases and information systems, (2019), S. 267-282

Heuer, Andreas; Saake, Gunter; Sattler, Kai-Uwe
Datenbanken : Implementierungstechniken
4. Auflage. - Frechen : mitp, 2019. - 1 Online-Ressource (xx, 704 Seiten). - (mitp Professional) ISBN 978-3-95845-781-2
Description based on publisher supplied metadata and other sources.

Architekturprinzipien und Datenstrukturen moderner Datenbanksysteme Algorithmen und optimierte Anfragen für Datenbankoperationen Transaktionsmodelle sowie Transaktionsverwaltung im Mehrbenutzerbetrieb Datenbankmanagementsysteme (DBMS) bilden häufig die Kernkomponente von Informationssystemen und ermöglichen die integrierte Speicherung von großen Datenbeständen, auf die mehrere Anwendungen gleichzeitig zugreifen können. Bei der Implementierung dieser Systeme müssen einige Anforderungen berücksichtigt werden: Effiziente Speicherung und schnelles Wiederauffinden der Daten Datenunabhängigkeit Zuverlässiger Mehrbenutzerbetrieb Wiederherstellung der Daten nach Systemausfällen Kompatibilität zu verschiedenen Rechnerarchitekturen Die Autoren behandeln die wichtigsten Konzepte und Techniken der Implementierung von DBMS, wobei der Schwerpunkt auf den Konzepten und Basistechnologien kommerzieller, meist relationaler Datenbanksysteme liegt: Architektur, Datenorganisation, Anfragebearbeitung, Synchronisation im Mehrbenutzerbetrieb und Recovery. Darüber hinaus gehen die Autoren auch auf aktuelle Entwicklungen bei Speichermedien, alternativen Speichermodellen, der Bearbeitung von Data-Warehouse-Anfragen, Anfrageoptimierern und Transaktionsmodellen ein. Angaben zu vertiefender Literatur sowie Übungen am Ende der Kapitel helfen beim Vertiefen des Gelernten sowie bei Selbststudium und Prüfungsvorbereitung. Zum Verständnis des Buches sind Grundkenntnisse der theoretischen Grundlagen von DBMS wie Relationenalgebra sowie Basiskenntnisse in SQL notwendig. Aus dem Inhalt: Externspeicher- und Pufferverwaltung Speicherhierarchie und -medien Seiten, Datensätze und ihre Adressierung Row Stores und Column Stores Seitenersetzungsstrategien Dateiorganisation und Indexstrukturen B-Bäume Partitionierung Dynamisches Hashing Mehrdimensionale und geometrische Indexstrukturen Bitmap-Indexe Anfrageverarbeitung und -optimierung Anfrageoperatoren Logische und physische Optimierung Kostenmodelle und Statistiken in DBMS Transaktionsverwaltung und Recovery Serialisierbarkeit Sperrprotokolle und nichtsperrende Verfahren Commit-Protokolle Logging und Recovery-Strategien



https://ebookcentral.proquest.com/lib/kxp/detail.action?docID=5800047
Wirthmüller, Florian; Hipp, Jochen; Sattler, Kai-Uwe; Reichert, Manfred
CPD: crowd-based pothole detection. - In: VEHITS 2019, (2019), S. 33-42

Hagedorn, Stefan; Sattler, Kai-Uwe
Peaks and the influence of weather, traffic, and events on particulate pollution. - In: Datenbanksysteme für Business, Technologie und Web (BTW 2019), (2019), S. 301-302

Steinmetz, Nadine; Arning, Ann-Katrin; Sattler, Kai-Uwe
From natural language questions to SPARQL queries: a pattern-based approach. - In: Datenbanksysteme für Business, Technologie und Web, (2019), S. 289-308

https://doi.org/10.18420/btw2019-18
Hagedorn, Stefan; Räth, Timo; Birli, Oliver; Sattler, Kai-Uwe
Processing large raster and vector data in apache spark. - In: Datenbanksysteme für Business, Technologie und Web, (2019), S. 551-554

https://doi.org/10.18420/btw2019-43
Steinmetz, Nadine; Arning, Ann-Katrin; Sattler, Kai-Uwe
When is Harry Potters birthday? - question answering on linked data. - In: Datenbanksysteme für Business, Technologie und Web, (2019), S. 565-568

https://doi.org/10.18420/btw2019-46
Sattler, Kai-Uwe; Kemper, Alfons; Neumann, Thomas; Teubner, Jens Thilo
DFG priority program SPP 2037: Scalable Data Management for Future Hardware. - In: Datenbanksysteme für Business, Technologie und Web (BTW 2019), (2019), S. 273-276

Götze, Philipp; Pohl, Constantin; Sattler, Kai-Uwe
Query planning for transactional stream processing on heterogeneous hardware: opportunities and limitations - novel ideas & experience reports. - In: Datenbanksysteme für Business, Technologie und Web (BTW 2019), (2019), S. 71-80

Lasch, Robert; Oukid, Ismail; Dementiev, Roman; May, Norman; Demirsoy, Suleyman S.; Sattler, Kai-Uwe
Fast & strong: the case of compressed string dictionaries on modern CPUs. - In: 15th International Workshop on Data Management on New Hardware (DaMoN 2019), (2019), article no. 4, 10 Seiten

https://doi.org/10.1145/3329785.3329924
Al-Sayeh, Hani; Sattler, Kai-Uwe
Gray box modeling methodology for runtime prediction of Apache Spark jobs. - In: 2019 IEEE 35th International Conference on Data Engineering workshops, (2019), S. 117-124

https://doi.org/10.1109/ICDEW.2019.00-23
Sattler, Kai-Uwe;
Big data in engineering: opportunities, challenges, and applications. - In: Advances in engineering research and application, (2019), S. 4

Götze, Philipp; Sattler, Kai-Uwe
Snapshot isolation for transactional stream processing. - In: Advances in Database Technology - EDBT 2019, (2019), S. 650-653

https://doi.org/10.5441/002/edbt.2019.78
Beier, Felix;
Generalized database index structures on massively parallel processor architectures. - Ilmenau : Universitätsbibliothek, 2019. - 1 Online-Ressource (202 Seiten)
Technische Universität Ilmenau, Dissertation 2019

Suchbäume sind allgegenwärtig in Datenbanksystemen und anderen Anwendungen, die eine effiziente Möglichkeit benötigen um in großen Datensätzen nach Einträgen zu suchen, die bestimmte Suchkriterien erfüllen. Sie können mit verschiedenen Strategien konfiguriert werden um den Suchraum zu strukturieren und die für ein Suchergebnis irrelevante Bereiche von der Bearbeitung auszuschließen. Die Entwicklung von anwendungsspezifischen Indexen wird durch Frameworks wie GiST unterstützt. Jedoch unterstützt keines der heute bereits existierenden Frameworks die Verwendung von hochgradig parallelen Prozessorarchitekturen wie GPUs. Solche Prozessoren für generische Index Frameworks nutzbar zu machen, ist Ziel dieser Arbeit. Dazu werden Techniken aus verschiedensten CPU- und GPU-optimierten Indexen analysiert und für die Entwicklung einer GiST-Erweiterung verwendet, welche die für eine Suche in Suchbäumen nötigen Berechnungen abstrahiert. Traversierungsoperationen werden dabei auf vektorisierte Primitive abgebildet, die auf parallelen Prozessoren implementiert werden können. Die Verwendung dieser Erweiterung wird beispielhaft an einem CPU Algorithmus demonstriert. Weiterhin wird ein neuer GPU-basierter Algorithmus vorgestellt, der im Vergleich zu bisherigen Verfahren, ein dynamisches Nachladen der Index Daten in den Hauptspeicher der GPU unterstützt. Die Praktikabilität des erweiterten Frameworks wird am Beispiel von Anwendungen aus der Computergrafik untersucht und die Performanz der verwendeten Algorithmen mit Hilfe eines Benchmarks auf verschiedenen CPU- und GPU-Modellen analysiert. Dabei wird gezeigt, unter welchen Bedingungen die parallele GPU-basierte Ausführung schneller ist als die CPU-basierte Variante - und umgekehrt. Um die Stärken beider Prozessortypen in einem hybriden System ausnutzen zu können, wird ein Scheduler entwickelt, der nach einer Kalibrierungsphase für eine gegebene Operation den geeignetsten Prozessor wählen kann. Mit Hilfe eines Simulators für Baumtraversierungen werden verschiedenste Scheduling Strategien verglichen. Dabei wird gezeigt, dass die Entscheidungen des Schedulers kaum vom Optimum abweichen und, abhängig von der simulierten Last, die erzielbaren Durchsätze für die parallele Ausführung mehrerer Suchoperationen durch hybrides Scheduling um eine Größenordnung und mehr erhöht werden können.



https://nbn-resolving.org/urn:nbn:de:gbv:ilm1-2019000101
Alonso, Gustavo; Andrzejewski, Witold; He, Bingsheng; Fröning, Holger; Sattler, Kai-Uwe; Seeger, Bernhard; Sitaridi, Evangelia; Teich, Jürgen; Zukowski, Marcin
Database accelerators. - In: Dagstuhl Reports, ISSN 2192-5283, Bd. 8 (2018), 6, S. 67-68

https://doi.org/10.22032/dbt.42361
Boncz, Peter A.; Gräfe, Götz; He, Bingsheng; Sattler, Kai-Uwe
Database architectures for modern hardware : report from Dagstuhl Seminar 18251. - In: , ISSN 2192-5283, Bd. 8 (2018), 6, S. 63-76

http://dx.doi.org/10.4230/DagRep.8.6.63
Wolf, Florian; May, Norman; Willems, Paul R.; Sattler, Kai-Uwe
On the calculation of optimality ranges for relational query execution plans. - In: SIGMOD'18, (2018), S. 663-675

https://doi.org/10.1145/3183713.3183742
Sattler, Kai-Uwe;
Wie intelligent sind Computer wirklich?. - In: Kinderuni Ilmenau 2018, (2018)

Saake, Gunter; Sattler, Kai-Uwe; Heuer, Andreas
Datenbanken : Konzepte und Sprachen
Sechste Auflage. - Frechen : mitp, 2018. - xxiv, 777 Seiten ISBN 3-95845-776-2
Literaturverzeichnis: Seiten 743-761

Sattler, Kai-Uwe;
Distributed join. - In: Encyclopedia of Database Systems, (2018), insges. 1 S.

https://doi.org/10.1007/978-1-4614-8265-9_705
Sattler, Kai-Uwe;
Semijoin. - In: Encyclopedia of Database Systems, (2018), insges. 1 S.

https://doi.org/10.1007/978-1-4614-8265-9_706
Sattler, Kai-Uwe;
Structured data in peer-to-peer systems. - In: Encyclopedia of Database Systems, (2018), insges. 1 S.

https://doi.org/10.1007/978-1-4614-8265-9_1219
Sattler, Kai-Uwe;
Distributed query processing. - In: Encyclopedia of Database Systems, (2018), insges. 1 S.

https://doi.org/10.1007/978-1-4614-8265-9_704
Sattler, Kai-Uwe;
Data quality dimensions. - In: Encyclopedia of Database Systems, (2018), insges. 1 S.

https://doi.org/10.1007/978-1-4614-8265-9_108
Wolf, Florian;
Robust and adaptive query processing in hybrid transactional/analytical database systems. - Ilmenau : Universitätsbibliothek, 2018. - 1 Online-Ressource (xiii, 173 Seiten)
Technische Universität Ilmenau, Dissertation 2018

Die Qualität von Anfrageausführungsplänen in Datenbank Systemen bestimmt, wie schnell eine Anfrage verarbeitet werden kann. Aufgrund von Fehlern in der Kardinalitätsschätzung können konventionelle Anfrageoptimierer immer noch sub-optimale oder sogar schlechte Anfrageausführungsplänen auswählen. In dieser Arbeit behandeln wir Einschränkungen und ungelöste Probleme robuster und adaptiver Anfrageverarbeitung, um die Erkennung und den Ausgleich sub-optimaler Anfrageausführungspläne zu verbessern. Wir zeigen, dass bestehende Heuristiken nicht entscheiden können, für welche Kardinalitäten ein Anfrageausführungsplan optimal ist, und stellen einen Algorithmus vor, der präzise Optimalitätsbereiche berechnen kann. Der Ausgleich von sub-optimalen Anfrageausführungsplänen ist ein ergänzendes Problem. Wir beschreiben Metriken, welche die Robustheit von Anfrageausführungsplänen gegenüber Fehlern in der Kardinalitätsschätzung quantifizieren können. Unsere robuste Planauswahlstrategie, die auf Robustheitsmetriken aufbaut, kann Pläne finden, die bei Fehlern in der Kardinalitätsschätzung bis zu 3.49x schneller sind als die geschätzt günstigsten Pläne. Des Weiteren stellen wir einen adaptiven Anfrageverarbeiter vor, der sub-optimale Anfrageausführungspläne ausgleichen kann. Er erfasst die wahren Kardinalitäten von Zwischenergebnissen während der Anfrageausführung, um damit die aktuell laufende Anfrage zu re-optimieren. Wir zeigen, dass der gesamte Aufwand für Re-Optimierungen und Planänderungen einer initialen Optimierung entspricht. Unser adaptiver Anfrageverarbeiter kann Anfragen bis zu 5.19x schneller ausführen als ein konventioneller Anfrageverarbeiter.



https://www.db-thueringen.de/receive/dbt_mods_00038096
Götze, Philipp; Renen, Alexander; Lersch, Lucas; Leis, Viktor; Oukid, Ismail
Data management on non-volatile memory: a perspective. - In: Datenbank-Spektrum, ISSN 1610-1995, Bd. 18 (2018), 3, S. 171-182

https://doi.org/10.1007/s13222-018-0301-1
Hagedorn, Stefan; Sattler, Kai-Uwe
Cost-based sharing and recycling of (intermediate) results in dataflow programs. - In: Advances in databases and information systems, (2018), S. 185-199

https://doi.org/10.1007/978-3-319-98398-1_13
Wolf, Florian; Brendle, Michael; May, Norman; Willems, Paul R.; Sattler, Kai-Uwe; Grossniklaus, Michael
Robustness metrics for relational query execution plans. - In: Proceedings of the VLDB Endowment, ISSN 2150-8097, Bd. 11 (2018), 11, S. 1360-1372

https://doi.org/10.14778/3236187.3236191
Götze, Philipp; Baumann, Stephan; Sattler, Kai-Uwe
An NVM-aware storage layout for analytical workloads. - In: IEEE 34th International Conference on Data Engineering workshops, ISBN 978-1-5386-6306-6, (2018), S. 110-115

https://doi.org/10.1109/ICDEW.2018.00025
Böhm, Alexander; Lehner, Wolfgang; Sattler, Kai-Uwe
Bericht zum Fachgruppentreffen 1./2. März 2018. - In: Datenbank-Spektrum, ISSN 1610-1995, Bd. 18 (2018), 2, S. 129-131

https://doi.org/10.1007/s13222-018-0284-y
Ceravolo, Paolo; Azzini, Antonia; Angelini, Marco; Catarci, Tiziana; Cudré-Mauroux, Philippe; Damiani, Ernesto; Mazak, Alexandra; Van Keulen, Maurice; Jarrar, Mustafa; Santucci, Giuseppe; Sattler, Kai-Uwe; Scannapieco, Monica; Wimmer, Manuel; Wrembel, Robert; Zaraket, Fadi
Big Data semantics. - In: Journal on data semantics, ISSN 1861-2040, Bd. 7 (2018), 2, S. 65-85

https://doi.org/10.1007/s13740-018-0086-2
Pohl, Constantin; Sattler, Kai-Uwe
Joins in a heterogeneous memory hierarchy: exploiting high-bandwidth memory. - In: Proceedings of the 14th International Workshop on Data Management on New Hardware, (2018), article no. 8, 10 Seiten

https://doi.org/10.1145/3211922.3211929
Sattler, Kai-Uwe;
Computer verstehen unsere Sprache - wie funktionieren Siri, Alexa und Co?. - In: Kinderuni Ilmenau 2017, (2017)

Beier, Felix; Sattler, Kai-Uwe
GPU-GIST - a case of generalized database indexing on modern hardware. - In: Information technology, ISSN 2196-7032, Bd. 59 (2017), 3, S. 141-149

https://doi.org/10.1515/itit-2016-0047
Garaeva, Antonia; Makhmutova, Farida; Anikin, Igor; Sattler, Kai-Uwe
A framework for co-location patterns mining in big spatial data. - In: Proceedings of 2017 XX IEEE International Conference on Soft Computing and Measurements (SCM), ISBN 978-1-5386-1810-3, (2017), S. 477-480

https://doi.org/10.1109/SCM.2017.7970622
Hagedorn, Stefan; Götze, Philipp; Sattler, Kai-Uwe
The STARK framework for spatio-temporal data analytics on spark. - In: BTW 2017, (2017), S. 123-142

Hagedorn, Stefan; Räth, Timo
Efficient spatio-temporal event processing with STARK. - In: Advances in Database Technology - EDBT 2017, (2017), S. 570-573

https://doi.org/10.5441/002/edbt.2017.72
Hagedorn, Stefan; Götze, Philipp; Sattler, Kai-Uwe
Big spatial data processing frameworks: feature and performance evaluation : experiments & analyses. - In: Advances in Database Technology - EDBT 2017, (2017), S. 490-493

https://doi.org/10.5441/002/edbt.2017.52
Markl, Volker; Orlando, Salvatore; Mitschang, Bernhard; Andritsos, Periklis; Sattler, Kai-Uwe; Breß, Sebastian
Advances in Database Technology - EDBT 2017 : 20th International Conference on Extending Database Technology, Venice, Italy, March 2124, 2017 : proceedings. - Konstanz : University of Konstanz, University Library, 2017. - 1 Online-Ressource. - (Advances in database technology) ISBN 978-3-89318-073-8
Literaturangaben

https://openproceedings.org/html/pages/2017_edbt.html
Zimmermann, Frank;
Ereignisdetektion und Stimmungsdetektion im Echtzeitdatenstrom von sozialen Netzwerken. - Ilmenau : Universitätsbibliothek, 2017. - 1 Online-Ressource (135 Blätter, 8.47 MB)
Technische Universität Ilmenau, Dissertation 2017

In der vorliegenden Arbeit wurde gezeigt, dass mit Hilfe der neu entwickelten Algorithmen aus einem Echtzeitdatenstrom von georeferenzierten Kurzmitteilungen, eines sozialen Netzwerkes, neue Ereignisse und deren Ort detektiert werden können. So kann die Frage: "Was geschieht gerade?" durch die Analyse von Daten der sozialen Netzwerke, mit Hilfe der in dieser Arbeit entwickelten Algorithmen, beantwortet werden. Diese Algorithmen sind so entworfen, dass sie verschiedene Arten von Ereignissen detektieren können. Dabei reicht die Spanne der erkannten Ereignisse von Sportereignissen, Kongressen, kulturellen Events und signifikanten Wetterereignissen bis hin zu Katastrophen. Dass der Ansatz der Ereignisdetektionsalgorithmen sich auch auf andere Problemfelder anwenden lässt, wurde mit einer zusätzlichen Stimmungsdetektion gezeigt. Dazu wurde eine sprachunabhängige Stimmungsdetektion konzipiert, die die Bewertung der Terme auf Grundlage von Emoticons vornimmt. Somit konnte eine sprachunabhängige Ereignis- und Stimmungsdetektion implementiert werden, die ohne aufwendige Vorverarbeitung der Daten auskommt.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2017000047
Beier, Felix; Stolze, Knut; Martin, Daniel
Extending database accelerators for data transformations and predictive analytics. - In: Advances in Database Technology - EDBT 2016, (2016), S. 706-707

http://dx.doi.org/10.5441/002/edbt.2016.97
Spitz, Andreas; Geiß, Johanna; Gertz, Michael; Hagedorn, Stefan; Sattler, Kai-Uwe
Refining imprecise spatio-temporal events: a network-based approach. - In: Proceedings of the 10th Workshop on Geographic Information Retrieval, ISBN 978-1-4503-4588-0, (2016), Article No. 5, insges. 10 S.

https://doi.org/10.1145/3003464.3003469
Krause, Christian; Johannsen, Daniel; Deeb, Radwan; Sattler, Kai-Uwe; Knacker, David; Niadzelka, Anton
An SQL-based query language and engine for graph pattern matching. - In: Graph Transformation, (2016), S. 153-169

http://dx.doi.org/10.1007/978-3-319-40530-8_10
Sattler, Kai-Uwe;
DFG-Schwerpunktprogramm "Skalierbares Datenmanagement für zukünftige Hardware". - In: Datenbank-Spektrum, ISSN 1610-1995, Bd. 16 (2016), 2, S. 183-185

http://dx.doi.org/10.1007/s13222-016-0225-6
Sattler, Kai-Uwe;
Das Fachgebiet Datenbanken & Informationssysteme an der TU Ilmenau. - In: Datenbank-Spektrum, ISSN 1610-1995, Bd. 16 (2016), 2, S. 167-172

http://dx.doi.org/10.1007/s13222-016-0226-5
Hagedorn, Stefan; Götze, Philipp; Saleh, Omran; Sattler, Kai-Uwe
Stream processing platforms for analyzing big dynamic data. - In: Information technology, ISSN 2196-7032, Bd. 58 (2016), 4, S. 195-205

http://dx.doi.org/10.1515/itit-2016-0001
Hagedorn, Stefan; Sattler, Kai-Uwe
Piglet - interactive and platform transparent analytics for RDF & dynamic data. - In: WWW'16 companion, ISBN 978-1-4503-4144-8, (2016), S. 187-190

http://dx.doi.org/10.1145/2872518.2890530
Baumann, Stephan; Boncz, Peter; Sattler, Kai-Uwe
Bitwise dimensional co-clustering for analytical workloads. - In: The VLDB journal, ISSN 0949-877X, Bd. 25 (2016), 3, S. 291-316

http://dx.doi.org/10.1007/s00778-015-0417-y
Rahm, Erhard; Saake, Gunter; Sattler, Kai-Uwe
Verteiltes und Paralleles Datenmanagement : Von verteilten Datenbanken zu Big Data und Cloud. - Berlin, Heidelberg : Springer Vieweg, 2015. - Online-Ressource (XIII, 379 S. 149 Abb, online resource). - (eXamen.press) ISBN 978-3-642-45242-0

Teil I Einführung: -- Einleitung.- Architekturen für verteiltes und paralleles Datenmanagement -- Teil II Katalogverwaltung und Datenverteilung: -- Schemaarchitektur und Katalogverwaltung -- Grundlagen der Datenverteilung -- Datenverteilung in Parallelen DBS -- Teil III Anfrageverarbeitung: -- Grundlagen der Anfrageverarbeitung -- Verteilte Anfrageverbreitung- Parallele Anfrageverarbeitung -- Parallele Analyse großer Datenmengen mit MapReduce -- Teil IV Konsistenzsicherung: -- Verteilte Transaktionsausführungen -- Synchronisationsverfahren -- Replikation -- Transaktionsverarbeitung für Shared Disk -- Konsistenz in Cloud-Datenbanken -- Literatur -- Index.



https://doi.org/10.1007/978-3-642-45242-0
Saleh, Omran; Betz, Heiko; Sattler, Kai-Uwe
Partitioning for scalable complex event processing on data streams. - In: New trends in database and information systems II, (2015), S. 185-197

http://dx.doi.org/10.1007/978-3-319-10518-5_15
Sattler, Kai-Uwe;
Komponenten eines Datenbankmanagementsystems. - In: Taschenbuch Datenbanken, (2015), S. 227-268

Hagedorn, Stefan; Sattler, Kai-Uwe; Sattler, Kai-Uwe *1968-*;
A framework for scalable correlation of spatio-temporal event data. - In: Data Science, (2015), S. 9-15

http://dx.doi.org/10.1007/978-3-319-20424-6_2
Saleh, Omran; Sattler, Kai-Uwe
DEBS Grand Challenge: the PipeFlow approach. - In: DEBS'15, ISBN 978-1-4503-3286-6, (2015), S. 326-327

http://dx.doi.org/10.1145/2675743.2776763
Saleh, Omran; Sattler, Kai-Uwe
Demo: the PipeFlow approach: write once, run in different stream-processing engines. - In: DEBS'15, ISBN 978-1-4503-3286-6, (2015), S. 368-371

http://dx.doi.org/10.1145/2675743.2776774
Wolf, Florian; Psaroudakis, Iraklis; May, Norman; Ailamaki, Anastasia; Sattler, Kai-Uwe
Extending database task schedulers for multi-threaded application code. - In: Proceedings of the 27th International Conference on Scientific and Statistical Database Management, ISBN 978-1-4503-3709-0, (2015), Article no. 25, insges. 12 S.

https://doi.org/10.1145/2791347.2791379
Saleh, Omran; Hagedorn, Stefan; Hagedorn, Stefan *1985-*; Sattler, Kai-Uwe;
Complex event processing on linked stream data. - In: Datenbank-Spektrum, ISSN 1610-1995, Bd. 15 (2015), 2, S. 119-129

http://dx.doi.org/10.1007/s13222-015-0190-5
Rane, Nikhil-Kishor; Saleh, Omran
AutoStudio: a generic web application for transforming dataflow programs into action. - In: Datenbanksysteme für Business, Technologie und Web, (2015), S. 655-658

Hagedorn, Stefan; Hose, Katja; Sattler, Kai-Uwe;
SPARQling Pig - processing linked data with Pig Latin. - In: Datenbanksysteme für Business, Technologie und Web, (2015), S. 279-298

Sattler, Kai-Uwe; Teubner, Jens; Beier, Felix; Breß, Sebastian
Many-Core-Architekturen zur Datenbankbeschleunigung - Tutorial. - In: Datenbanksysteme für Business, Technologie und Web (BTW 2015), (2015), S. 269-270

Beier, Felix; Sattler, Kai-Uwe; Dinh, Christoph; Baumgarten, Daniel
Dataflow programming for big engineering data - extended abstract. - In: Datenbanksysteme für Business, Technologie und Web (BTW 2015), (2015), S. 101-102

Psaroudakis, Iraklis; Wolf, Florian; May, Norman; Neumann, Thomas; Böhm, Alexander; Ailamaki, Anastasia; Sattler, Kai-Uwe
Scaling up mixed workloads: a battle of data freshness, flexibility, and scheduling. - In: Performance Characterization and Benchmarking. Traditional to Big Data, (2015), S. 97-112

http://dx.doi.org/10.1007/978-3-319-15350-6_7
Seidl, Thomas; Ritter, Norbert; Schöning, Harald; Sattler, Kai-Uwe; Härder, Theo; Friedrich, Steffen; Wingerath, Wolfram
Datenbanksysteme für Business, Technologie und Web : (BTW 2015) ; 16. Fachtagung des GI-Fachbereichs "Datenbanken und Informationssysteme" (DBIS), 04. - 06.03.2015 in Hamburg, Germany. - Bonn : Ges. für Informatik, 2015. - 1 CD-ROM (12 cm). - (GI-Edition Lecture Notes in Informatics) ISBN 978-3-88579-635-0

Saake, Gunter; Sattler, Kai-Uwe;
Algorithmen und Datenstrukturen : eine Einführung mit Java. - Heidelberg : dpunkt.verlag ISBN 978-3-86490-136-2

http://swb.eblib.com/patron/FullRecord.aspx?p=1595748
Köppen, Veit; Saake, Gunter; Saake, Gunter *1960-*; Sattler, Kai-Uwe;
Data Warehouse Technologien
2. Aufl.. - Heidelberg : mitp, 2014. - XIII, 337 S. ISBN 978-3-8266-9485-1
Literaturverzeichnis: Seite 319-337

Yang, Jin;
Decentralized data fusion and data harvesting framework for heterogeneous, dynamic network systems, 2014. - Online-Ressource (PDF-Datei: IX, 129 S., 4,08 MB) Ilmenau : Techn. Univ., Diss., 2014

Diese Dissertation behandelt das Thema der dezentralisieren Sammlung und Fusion von Daten in heterogenen, ressourcenbeschränkten und dynamischen Netzwerkszenarien. Dazu wird ein generisches Framework vorgestellt, dass es erlaubt die Datensammlung, den Datenaustausch und auch die Datenfusion dynamisch zu konfigurieren. Im Zuge dessen wird auch eine Methode zur gerichteten Fusion von Daten auf graphentheoretischer Basis eingeführt, die es erlaubt eine logische Struktur für die Fusion von Informationen zu modellieren. Eine Markup-Sprache, die sowohl menschen- als auch maschinenlesbar ist, erlaubt es diese Struktur leicht zu editieren. Im Bereich der Protokolle zum Datenaustausch liegt der Fokus dieser Arbeit auf Energieeffizienz, um auch ressourcenbeschränkte Geräte einzubinden. Ein weiterer Schwerpunkt liegt auf Robustheit für die betrachteten dynamischen Szenarien. Diese Dissertation schlägt zudem Design-Richtlinien vor, um verschiedene Ziele für unterschiedliche Applikationen umzusetzen. Diese lassen sich leicht in das vorgestellte Framework integrieren und darüber konfigurieren. Dadurch ergibt sich im Ganzen eine flexible Architektur, die sich leicht an dynamische Umgebungen anpassen lässt.



http://www.db-thueringen.de/servlets/DocumentServlet?id=26575
Umbrich, Jürgen; Karnstedt, Marcel; Polleres, Axel; Sattler, Kai-Uwe
Index-based source selection and optimization. - In: Linked data management, ISBN 978-1-4665-8240-8, (2014), S. 311-337

Ribe-Baumann, Elizabeth;
Resource and location aware robust decentralized data management, 2014. - Online-Ressource (PDF-Datei: XVII, 179 S., 4,17 MB) Ilmenau : Techn. Univ., Diss., 2014

Große Datenmengen werden zunehmend auf weite Netze, die oft aus heterogenen Knoten bestehen, verteilt. Dabei kann Heterogenität beispielsweise variable Batteriekapazität oder Lebenszeiten bedeuten. Beispiele solcher Netzwerke sind Smartphone-Netzwerke, Sensornetzwerke und Clouds. Für diese verteilen heterogenen Netzwerken besteht die Notwendigkeit, den variierenden Zugang der Knoten zu Ressourcen zu berücksichtigen und die Gesamtlast durch kurze Wege zwischen den Speicher- und Anfrageorten der Daten zu minimieren. Die hier vorgestellte Arbeit konzentriert sich auf die Integration von Ressourcen- und Lokationsinformationen für eine robuste Datenverwaltung in verteilten, vielleicht sogar Peer-to-Peer, Netzwerken. Ein strukturierter Netzwerkansatz wurde gewählt, um Verfügbarkeitsgarantien für die gespeicherten Daten zu bieten. Zwei neuen verteilten Hashtabellen wurden auf Basis der existierenden Chord mit einer Routingkomplexität O(logN) entwickelt: Resource Based Finger Management (RBFM) und Hierarchical Resource Management (HRM). Diese DHTs nutzen unterschiedliche Ansätze für den Aufbau deren Overlays und bilden somit eine Grundlage, mit der die Eignung von flachen und hierarchischen Overlaystrukturen bzw. verschiedenen Anzahlen von Hierarchieebenen für Ressourcen- als auch Lokationsbewusstsein verglichen werden kann. Eine mathematische Analyse und simulationsbasierte Evaluation der neuen DHTs zeigen wie Ressourcenbewusstsein sowohl die Lebensdauer der Knoten als auch die Erfolgsrate der Anfragen um das Zweifache erhöht, wobei eine hohe Anzahl von Hierarchieebenen die Lebensdauer der Knoten reduziert. Eine entwickelte Replikationsstrategie, welche die Struktur der vorgestellten DHTs ausnutzt, erhöht das Ressourcen- und Lokationsbewusstsein während die Gesamtlast der Replikation verringert wird. Eine mathematische Analyse zeigt wie die Anzahl der benötigten Replikate, um eine vorgegebene Verfügbarkeitswahrscheinlichkeit zu erreichen, signifikant gesenkt wird, während die übrige Ressourcenlast von den schwachen auf den starken Knoten verschoben wird.



http://www.db-thueringen.de/servlets/DocumentServlet?id=25506
Beier, Felix; Alaqraa, Nedal; Lai, Yuting; Sattler, Kai-Uwe
Learning event patterns for gesture detection. - In: Advances in database technology - EDBT 2014, ISBN 978-3-89318-065-3, (2014), S. 668-671

https://doi.org/10.5441/002/edbt.2014.70
Ribe-Baumann, Liz; Sattler, Kai-Uwe
A hierarchical approach to resource awareness in DHTs for mobile data management. - In: Pervasive and mobile computing, Bd. 15 (2014), S. 113-127

http://dx.doi.org/10.1016/j.pmcj.2013.07.017
Saleh, Omran; Sattler, Kai-Uwe;
On efficient processing of linked stream data. - In: On the Move to Meaningful Internet Systems: OTM 2014 Conferences, (2014), S. 700-717

http://dx.doi.org/10.1007/978-3-662-45563-0_43
Rauhe, Hannes;
Finding the right processor for the job : Co-processors in a DBMS, 2014. - Online-Ressource (PDF-Datei: IX 115 S., 1,78 MB) : Ilmenau, Techn. Univ., Diss., 2014
Parallel als Druckausg. erschienen

Mehr und mehr Datenbankmanagementsysteme (DBMS) verarbeiten die Daten nur noch im Hauptspeicher oder speichern gar die ganze Datenbank dort, um schnell darauf zugreifen zu können. In diesen Systemen ist die Verarbeitungsgeschwindigkeit nur durch den Prozessor beschränkt, da die Daten nicht erst von der Festplatte geladen werden müssen. Grafikkarten (GPUs) haben vor kurzem CPUs überholt, wenn man reine Verarbeitungsgeschwindigkeit betrachtet. Die Forschung hat zudem gezeigt, dass sie neben der Bildverarbeitung auch zur Lösung von Problemen anderer Bereiche genutzt werden können. Allerdings können nicht alle Algorithmen die Vorteile der GPU-Architektur nutzen. Zunächst müssen sie angepasst werden, um Daten parallel im SIMD-Stil zu verarbeiten. Außerdem muss beachtet werden, dass die Daten erst über den PCI-Express-Bus transferiert werden müssen, über den Grafikkarten mit dem Speicher verbunden sind. In dieser Arbeit werden Aufgaben in DBMSen untersucht, die auf die Grafikkarte ausgelagert werden können. Es wird gezeigt, dass Anfrageoptimierung, Anfrageverarbeitung und Applikationslogik unter Umständen schneller auf der Grafikkarte ausgeführt werden können als auf der CPU, aber auch, dass sich nicht jede Aufgabe dafür eignet .Durch detaillierte Beschreibung, Implementierung und Evaluierung vier unterschiedlicher Beispiele wird erklärt, wie passende Aufgaben identifiziert und portiert werden können. In jedem Fall ist es nicht vorteilhaft, die Grafikkarte zu benutzen, wenn die Datenmenge zu gering ist, um die Verarbeitung auf alle verfügbaren Kerne zu verteilen. Zudem ist es wahrscheinlich, dass die CPU schneller zu einem Ergebnis kommt als die GPU, wenn nicht der ganze Datensatz in den Grafikspeicher passt. Demzufolge muss die Entscheidung, wo die Verarbeitung stattfindet, zur Laufzeit gefällt werden. Sie hängt ab von den verfügbaren Implementierungen, der Hardware, den Eingabe-Parametern und den Eingabe-Daten. Es wird ein lernbasiertes System vorgestellt, das an Hand vergangener Ausführungen entscheidet, welche Art der Verarbeitung die beste ist.



http://www.db-thueringen.de/servlets/DocumentServlet?id=24888
Tran, Dang-Hoan; Gaber, Mohamed Medhat; Sattler, Kai-Uwe
Change detection in streaming data in the era of big data: models and issues. - In: ACM SIGKDD explorations newsletter, ISSN 1931-0145, Bd. 16 (2014), 1, S. 30-38

http://dx.doi.org/10.1145/2674026.2674031
Gropengießer, Frances; Sattler, Kai-Uwe
Database backend as a service: automatic generation, deployment, and management of database backends for mobile applications. - In: Datenbank-Spektrum, ISSN 1610-1995, Bd. 14 (2014), 2, S. 85-95

http://dx.doi.org/10.1007/s13222-014-0157-y
Gropengiesser, Francis;
Transaktionale Unterstützung kollaborativer Applikationen
1. Aufl.. - Göttingen : Cuvillier, 2014. - 295 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2014

In einer Vielzahl von Anwendungsdomänen, beispielsweise im Design oder in der Medienproduktion, sind kollaborative Arbeitsprozesse kaum mehr wegzudenken. In u.U. weltweit verteilten Szenarien arbeiten mehrere gleichberechtigte Nutzer an einem gemeinsamen Projekt. Diese Arbeit stellt den vollständigen Entwurf einer Middleware vor, die es ermöglicht, eine Vielzahl von Anwendungen zum Einsatz in kollaborativen Arbeitsprozessen auf einem gemeinsamen monohierarchisch strukturierten Datenbestand zu befähigen. Hierbei kann wiederum aus einer Vielzahl unterschiedlicher Speicherlösungen zur persistenten Sicherung der Daten gewählt werden. Die dafür erforderlichen Konzepte und Techniken beruhen auf transaktionalen Semantiken. Kollaborative Arbeitsprozesse sind durch spezifische Anforderungen gekennzeichnet. Daher stellt diese Arbeit ein maßgeschneidertes Transaktionsmodell vor, welches gezielt Eigenschaften der geschachtelten Transaktionen sowie der Multi-Level-Transaktionen, der Sagas, der Split&Join-Transaktionen und der dynamischen Aktionen kombiniert, um diese Anforderungen zu erfüllen. Es unterstützt die Spezifikation feingranularer atomarer Einheiten zur Zerlegung der lang andauernden Arbeitsprozesse und die Aufweichung der Isolation, um Ergebnisse eines Nutzers frühzeitig freizugeben und einen Informationsaustausch in beliebiger Richtung zwischen den Nutzern zu ermöglichen. Dabei wird stets die strikte Konsistenz des Datenbestands und die Dauerhaftigkeit der erfolgreich durchgeführten Änderungen gewahrt. Die weiterhin eingeführte neuartige AUTOCOMPLETE-Metrik unterstützt die dynamische Bildung von Transaktionen zur Laufzeit und ermöglicht eine kontrollierte und automatische Freigabe von Transaktionsergebnissen unter Einbeziehung der Kollaborationsbereitschaft der Nutzer. Die Architektur der Middleware basiert auf dem Shared-Nothing-Ansatz und gestattet so auch den skalierbaren Umgang mit verteilten Szenarien. Unter Einsatz des aspektorientierten Paradigmas ist eine leichte Integration der entwickelten Transaktionssemantiken in die Applikation möglich, ohne deren Quellcode anpassen zu müssen. Zur Durchsetzung der spezifizierten Isolations- und Sichtbarkeitseigenschaften des Transaktionsmodells beherbergt die Middleware geeignete Synchronisationsprotokolle. Hierbei liegt der Fokus dieser Arbeit auf der Ausnutzung der Semantiken des zugrunde liegenden Daten- und Operationsmodells. Dies erlaubt eine feingranulare Konfliktspezifikation, die sich positiv auf den erreichbaren Grad der Parallelität in den Arbeitsprozessen der Nutzer auswirkt. Die genaue Aufschlüsselung semantischer Abhängigkeiten zwischen den Operationen führt zu einem erweiterten Validierungskriterium, welches die Anzahl der Konflikte zwischen Transaktionen zusätzlich reduziert. Die positiven Auswirkungen semantischer Synchronisation auf eine Vielzahl transaktionaler Kennzahlen, z.B. die Transaktionsabbruchrate, werden in praktischen Experimenten nachgewiesen. Zur Gewährleistung der spezifizierten Atomaritäts- und Dauerhaftigkeitseigenschaften des entwickelten Transaktionsmodells in Fehlersituationen diskutiert diese Arbeit Commit- und Recovery-Protokolle, adaptiert geeignete Vertreter auf das entwickelte Transaktionsmodell und gibt Hinweise zum Wiederanlauf einer möglichen Systemumsetzung der Middleware.



Galpin, Ixent; Stokes, Alan B.; Valkanas, George; Gray, Alasdair J. G.; Paton, Norman W.; Fernandes, Alvaro A. A.; Sattler, Kai-Uwe; Gunopulos, Dimitrios
SensorBench: benchmarking approaches to processing wireless sensor network data. - In: Proceedings of the 26th International Conference on Scientific and Statistical Database Management, ISBN 978-1-4503-2722-0, (2014), 21, insges. 12 S.

http://dx.doi.org/10.1145/2618243.2618252
Hagedorn, Stefan; Sattler, Kai-Uwe;
LODHub - a platform for sharing and integrated processing of linked open data. - In: 2014 IEEE 30th International Conference on Data Engineering workshops (ICDEW), ISBN 978-1-4799-3481-2, (2014), S. 260-262

http://dx.doi.org/10.1109/ICDEW.2014.6818336
Baumann, Stephan; Sattler, Kai-Uwe;
Autonomic physical database design - from indexing to multidimensional clustering. - In: Information technology, ISSN 2196-7032, Bd. 55 (2014), 1, S. 13-21

https://doi.org/10.1515/itit-2014-1017
Saleh, Omran; Gropengießer, Francis; Betz, Heiko; Mandarawi, Waseem; Sattler, Kai-Uwe
Monitoring and autoscaling IaaS clouds: a case for complex event processing on data streams. - In: 2013 IEEE/ACM 6th International Conference on Utility and Cloud Computing (UCC), ISBN 978-1-4799-2574-2, (2013), S. 387-392

http://dx.doi.org/10.1109/UCC.2013.78
Tran, Dang Hoan;
Change detection in streaming data, 2013. - Online-Ressource (PDF-Datei: XIV, 167 S., 1,68 MB) : Ilmenau, Techn. Univ., Diss., 2013
Parallel als Druckausg. erschienen

Unter Änderungserkennung wird der Prozess der Erkennung von Unterschieden im Zustand eines Objekts oder Phänomens verstanden, wenn dieses zu verschiedenen Zeitpunkten oder an verschiedenen Orten beobachtet wird. Im Kontext der Datenstromverarbeitung stellt dieser Prozess die Segmentierung eines Datenstroms anhand der identifizierten Punkte, an denen sich die Stromdynamiken ändern, dar. Die Fähigkeit, Änderungen in den Stromdaten zu erkennen, darauf zu reagieren und sich daran anzupassen, spielt in vielen Anwendungsbereichen, wie z.B. dem Aktivitätsüberwachung, dem Datenstrom-Mining und Maschinenlernen sowie dem Datenmanagement hinsichtlich Datenmenge und Datenqualität, eine wichtige Rolle. Dezentralisierte Änderungserkennung kann in vielen interessanten und wichtigen Anwendungsbereichen, wie z.B. in Umgebungsüberwachungssystemen oder medizinischen Überwachungssystemen, eingesetzt werden. Obgleich es eine Vielzahl von Arbeiten im Bereich der verteilten Änderungserkennung und Datenfusion gibt, liegt der Fokus dieser Arbeiten meist lediglich auf der Erkennung von einmaligen Änderungen. Die einmalige Änderungserkennungsmethode erfordert die einmalige Verarbeitung der Daten als Antwort auf die auftretende Änderung. Der Kompromiss einer kontinuierlichen, verteilten Erkennung von Änderungen umfasst die Erkennungsgenauigkeit, die Speichereffizienz sowie die Berechnungseffizienz. Um dieses Ziel zu erreichen, wird das Flächenbrandwarnsystem als motivierendes Szenario genutzt. Basierend auf den Herausforderungen und Anforderungen dieses Warnsystems wird ein Algorithmus zur Erkennung von Änderungen in Stromdaten als Teil einer Gesamtlösung für das Flächenbrandwarnsystem vorgestellt. Durch die Auswahl verschiedener Modelle zur lokalen und verteilten Änderungserkennung sowie verschiedener Datenaustauschprotokolle können verschiedene Systemdesigns entwickelt werden. Basierend auf diesem Ansatz leistet diese Dissertation nachfolgend aufgeführte Beiträge. Es wird ein allgemeines 2-Fenster Framework zur Erkennung von Änderungen in einem einzelnen Datenstrom vorgestellt. Weiterhin wird ein allgemeines synopsenbasiertes Framework zur Änderungserkennung beschrieben. Mittels theoretischer und empirischer Analysen wird gezeigt, dass die Erkennungs-Performance des synopsenbasierten Änderungsdetektors ähnlich der eines nicht-synopsenbasierten ist, solange eine Distanzfunktion, welche die Änderungen quantifiziert, während der Erstellung der Synopse eingehalten wird. Es wird Cluster-basierte Änderungserkennung und Cluster-Pflege über gleitenden Fenstern vorgestellt. Weiterhin wird ein Framework zur verteilten Änderungserkennung in drahtlosen Sensornetzwerken beschrieben. Basierend auf dem 2-Phasen Stromdaten-Cluster-Ansatz, welcher weitestgehend zur Clusterung eines einzelnen Datenstroms eingesetzt wird, wird ein verteiltes Framework zur Clusterung von Stromdaten vorgestellt.



http://www.db-thueringen.de/servlets/DocumentServlet?id=23078
Rauhe, Hannes; Dees, Jonathan; Sattler, Kai-Uwe; Färber, Franz
Multi-level parallel query execution framework for CPU and GPU. - In: Advances in Databases and Information Systems, (2013), S. 330-343

http://dx.doi.org/10.1007/978-3-642-40683-6_25
Guerrini, Giovanna;
Proceedings of the Joint EDBTICDT 2013 Workshops. - New York, NY : ACM, 2013. - Online-Ressource (1 online resource (423 pages)). - (ACM Digital Library) ISBN 978-1-4503-1599-9
Title from The ACM Digital Library

http://dl.acm.org/citation.cfm?id=2457317
Hagedorn, Stefan; Sattler, Kai-Uwe;
Efficient parallel processing of analytical queries on linked data. - In: On the Move to Meaningful Internet Systems: OTM 2013 Conferences, (2013), S. 452-469

http://dx.doi.org/10.1007/978-3-642-41030-7_33
Baumann, Stephan; Boncz, Peter; Sattler, Kai-Uwe
Query processing of pre-partitioned data using sandwich operators. - In: Enabling real-time business intelligence, (2013), S. 76-92

Zafar, Bilal; Alieiev, Roman; Ribe-Baumann, Liz; Haardt, Martin
DHTs for cluster-based ad-hoc networks employing multi-hop relaying. - In: 22nd International Conference on Computer Communications and Networks (ICCCN), 2013, (2013), insges. 6 S.

http://dx.doi.org/10.1109/ICCCN.2013.6614123
Yang, Jin; Mo, Tianli; Lim, Lipyeow; Sattler, Kai-Uwe; Misra, Archan
Energy-efficient collaborative query processing framework for mobile sensing services. - In: IEEE 14th International Conference on Mobile Data Management (MDM), 2013, ISBN 978-1-4673-6068-5, (2013), S. 147-156

http://dx.doi.org/10.1109/MDM.2013.25
Baumann, Stephan; Boncz, Peter; Sattler, Kai-Uwe
Automatic schema design for co-clustered tables. - In: 2013 IEEE 29th International Conference on Data Engineering workshops (ICDEW), ISBN 978-1-4673-5304-5, (2013), S. 56-61

http://dx.doi.org/10.1109/ICDEW.2013.6547427
Saleh, Omran; Sattler, Kai-Uwe
Distributed complex event processing in sensor networks. - In: IEEE 14th International Conference on Mobile Data Management (MDM), 2013, ISBN 978-1-4673-6068-5, (2013), S. 23-26

http://dx.doi.org/10.1109/MDM.2013.60
Tran, Dang Hoan; Sattler, Kai-Uwe;
Communication-efficient exact clustering of distributed streaming data. - In: Computational Science and Its Applications – ICCSA 2013, (2013), S. 421-436

http://dx.doi.org/10.1007/978-3-642-39640-3_31
Breß, Sebastian; Beier, Felix; Rauhe, Hannes; Sattler, Kai-Uwe; Schallehn, Eike; Saake, Gunter
Efficient co-processor utilization in database query processing. - In: Information systems, ISSN 0306-4379, Bd. 38 (2013), 8, S. 1084-1096

http://dx.doi.org/10.1016/j.is.2013.05.004
Beier, Felix; Baumann, Stephan; Betz, Heiko; Hagedorn, Stefan
Gesture-based navigation in graph databases - the Kevin Bacon game. - In: BTW 2013, (2013), S. 511-514

Stolze, Knut; Köth, Oliver; Beier, Felix; Caballero, Carlos; Li, Ruiping
Seamless integration of archiving functionality in OLTP/OLAP database systems using accelerator technologies. - In: BTW 2013, (2013), S. 383-402

Wolf, Florian; Betz, Heiko; Gropengießer, Francis; Sattler, Kai-Uwe
Hibernating in the cloud - implementation and evaluation of object-NoSQL-mapping. - In: BTW 2013, (2013), S. 327-341

Hagedorn, Stefan; Sattler, Kai-Uwe;
Discovery querying in linked open data. - In: Proceedings of the Joint EDBTICDT 2013 Workshops, (2013), S. 38-44

http://dx.doi.org/10.1145/2457317.2457324
Lehner, Wolfgang; Sattler, Kai-Uwe
Web-scale data management for the cloud. - New York, NY [u.a.] : Springer, 2013. - XV, 193 S.Literaturangaben

Markl, Volker; Saake, Gunter; Sattler, Kai-Uwe; Hackenbroich, Gregor; Mitschang, Bernhard; Härder, Theo; Köppen, Veit
BTW 2013 : Datenbanksysteme für Business, Technologie und Web (BTW) 2013 : Tagung vom 11. - 15. März 2013 in Magdeburg ;. - Bonn : Ges. für Informatik, 2013. - 1 CD-ROM. - (GI-Edition) ISBN 978-3-88579-608-4
Beitr. teils in dt., teils in engl. Sprache

Saake, Gunter; Sattler, Kai-Uwe; Sattler, Kai-Uwe *1968-*; Heuer, Andreas;
Datenbanken : Konzepte und Sprachen
5. Aufl.. - Heidelberg : mitp, 2013. - XIX, 777 S. ISBN 978-3-8266-9453-0
Literaturverz. S. 723 - 745

Gegenüber der zuletzt angezeigten 3. Auflage (ID-G 10/08) überarbeitete und durchgehend aktualisierte Neuauflage eines bewährten Lehrbuchs zu allgemeinen Grundlagen der Datenbanktechnologie, das seine praxisnähere Fortführung in dem inhaltlich ergänzenden "Datenbanken - Implementierungstechniken" (zuletzt ID-G 5/12) desselben Autorengespanns erfährt und sinnvollerweise mit diesem zusammen angeboten werden sollte. Der inhaltlich stark angewachsene Themenkomplex Data Warehouse wurde - um den Buchumfang nicht zu sehr anwachsen zu lassen - extrahiert und bereits getrennt veröffentlicht (V. Köppen: "Data Warehouse", mitp, 2012; hier nicht angezeigt). Die Aktualisierungen betreffen u.a. Datenbankzugriffe in der Cloud oder RDF-Daten, die SQL-Standards werden bis zur aktuellen Version 2011 berücksichtigt. Sollte bei guter Nutzung der Vorauflagen zusätzlich angeschafft werden, ältere als die 3. Auflage sind auszutauschen. Aktualisiert in Bibliotheken mit studentischer Nutzerschaft die Vergleichstitel von A. Kemper (ID-G 4/09), R. Elmasri (ID-G 19/09) und H. Faeskorn-Woyke (ID-G 33/07). (3)



Köppen, Veit; Saake, Gunter; Sattler, Kai-Uwe
Data Warehouse Technologien
1. Aufl.. - Heidelberg : mitp, Verl.-Gruppe Hüthig, Jehle, Rehm, 2012. - XI, 320 S. ISBN 978-3-8266-9161-4
Literaturverzeichnis S. 303 - 320

Ribe-Baumann, Liz; Sattler, Kai-Uwe
Robust, decentralized information management. - In: Proceedings of the Joint Workshop of the German Research Training Groups in Computer Science, (2012), S. 258

Breß, Sebastian; Beier, Felix; Rauhe, Hannes; Schallehn, Eike; Sattler, Kai-Uwe; Saake, Gunter
Automatic selection of processing units for coprocessing in databases. - In: Advances in Databases and Information Systems, (2012), S. 57-70

http://dx.doi.org/10.1007/978-3-642-33074-2_5
Lemke, Christian;
Physische Datenbankoptimierung in hauptspeicherbasierten Column-Store-Systemen
1. Aufl.. - München : Dr. Hut, 2012. - 143 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2012

Im heutigen Informationszeitalter ist es für Unternehmen entscheidend, möglichst schnell auf sehr große Datenmengen zuzugreifen und komplexe Berechnungen effizient darauf ausführen zu können. Weil Anfragen zur Entscheidungsunterstützung in den meisten Fällen nur einen Bruchteil aller Spalten benötigen, hat sich in diesem Bereich das Konzept der spaltenweisen Datenorganisation als vorteilhaft erwiesen. Bedingt durch die anfänglich geringen Einsatzmöglichkeiten und den nur begrenzt verfügbaren Hauptspeicher wurde das physische Design von hauptspeicherbasierten Column-Store-Systemen jedoch lange Zeit nicht tiefergehend untersucht. Das Ziel dieser Dissertation besteht nun darin, den Einsatz von leichtgewichtigen Kompressionstechniken in Column Stores zur effizienten Speicherung von Massendaten und zur Beschleunigung von Anfragen zu untersuchen und Empfehlungen für den optimalen Einsatz zu geben. Als leichtgewichtige Kompressionstechniken werden in dieser Arbeit Verfahren bezeichnet, bei denen für die Dekompression wenige Prozessorzyklen und kaum zusätzlicher Hauptspeicher erforderlich ist. Um trotzdem eine hohe Kompressionsrate zu erzielen, werden mehrere Heuristiken vorgestellt, die mit Hilfe von Informationen über die Datenverteilung und Abhängigkeiten zwischen Spalten die Daten geeignet umsortieren. Für die effiziente Bestimmung der funktionalen Abhängigkeiten wird ein auf Sampling basierendes Verfahren vorgestellt, das statt der Häufigkeit von Werten und Wertepaaren die Entropie als Maß verwendet und damit auch bei einer kleinen Stichprobe zuverlässig funktioniert. Die ermittelten Informationen werden weiterhin dazu genutzt, abhängige Spalten zu kombinieren und dadurch den Speicherplatzbedarf weiter zu reduzieren. Neben einer effektiven Kompression ist für eine schnelle Anfrageausführung auch die Anpassung von häufig verwendeten Anfrageoperatoren, wie dem Scan oder die Aggregation, notwendig.Die vorgestellten Algorithmen operieren direkt auf den komprimierten Datenstrukturen und vermeiden damit eine teure Dekompression von Werten. Zusätzlich zu den beschriebenen Software-Optimierungen wird auch ein Überblick über Verfahren gegeben, die moderne Hardware zur Beschleunigung von Anfragen ausnutzen.Abschließend werden alle entwickelten Heuristiken und Algorithmen in ein bestehendes Produkt (\ice) integriert und detailliert ausgewertet. Dabei wird deutlich, dass Anfragen mit bestimmten Zugriffsmustern auf komprimierten Daten langsamer sind und nur durch neue, angepasste Algorithmen schnell ausgeführt werden können.



Paradies, Marcus; Malaika, Susan; Siméon, Jérôme; Khatchadourian, Shahan; Sattler, Kai-Uwe
Entity matching for semistructured data in the cloud. - In: Proceedings of the 27th Annual ACM Symposium on Applied Computing, (2012), S. 453-458

http://dx.doi.org/10.1145/2245276.2245363
Hirte, Steffen; Seifert, Andreas; Baumann, Stephan; Klan, Daniel; Sattler, Kai-Uwe
Data 3 - a kinect interface for OLAP using complex event processing. - In: IEEE 28th International Conference on Data Engineering (ICDE), 2012, ISBN 978-1-4673-0042-1, (2012), S. 1297-1300

http://dx.doi.org/10.1109/ICDE.2012.131
Cuzzocrea, Alfredo; Hauswirth, Manfred; Sattler, Kai-Uwe; Schmidt, Roman
Estimating the completeness of range queries over structured P2P databases: fundamentals, theory, and effective applications to distributed information systems. - In: Next generation content delivery infrastructures, ISBN 978-1-4666-1794-0, (2012), S. 251-281

Beier, Felix; Kilias, Torsten; Sattler, Kai-Uwe;
GiST scan acceleration using coprocessors. - In: Eighth International Workshop on Data Management on New Hardware (DaMoN 2012), (2012), S. 63-69

http://dx.doi.org/10.1145/2236584.2236593
Karnstedt, Marcel; Sattler, Kai-Uwe; Hauswirth, Manfred
Scalable distributed indexing and query processing over Linked Data. - In: Web semantics, Bd. 10.2012 (Jan.), S. 3-32

http://dx.doi.org/10.1016/j.websem.2011.11.010
Höpfner, Hagen;
Datenbanktechnologien für die Realisierung mobiler Informationssysteme. - IV, 292 S. Ilmenau : Techn. Univ., Habil.-Schr., 2012

Ribe-Baumann, Liz;
Robust, decentralized information management. - In: Joint Workshop of the German Research Training Groups in Computer Science, ISBN 978-3-942183-36-9, (2011), S. 223

Tran, Dang Hoan; Sattler, Kai-Uwe
On detection of changes in sensor data streams. - In: MoMM 2011, ISBN 978-1-450-30785-7, (2011), S. 50-57

http://dx.doi.org/10.1145/2095697.2095709
Maurino, Andrea; Cappiello, Cinzia; Vassiliadis, Panos; Sattler, Kai-Uwe
Report on the 8th international workshop on Quality in Databases (QDB10). - In: ACM SIGMOD record, Bd. 40 (2011), 4, S. 52-55

https://doi.org/10.1145/2094114.2094128
Tran, Dang Hoan; Yang, Jin; Sattler, Kai-Uwe
Decentralized change detection in wireless sensor network using DFT-based synopsis. - In: 12th IEEE International Conference on Mobile Data Management (MDM), 2011, ISBN 978-1-4577-0581-6, (2011), S. 226-235

http://dx.doi.org/10.1109/MDM.2011.65
Cole, Richard; Funke, Florian; Giakoumakis, Leo; Guy, Wey; Kemper, Alfons; Krompaß, Stefan; Kuno, Harumi; Nambiar, Raghunath; Neumann, Thomas; Poess, Meikel
The mixed workload CH-benCHmark. - In: Proceedings of the Fourth International Workshop on Testing Database Systems, (2011), insges. 6 S.

http://dx.doi.org/10.1145/1988842.1988850
Kersten, Martin L.; Kemper, Alfons; Markl, Volker; Nica, Anisoara; Poess, Meikel; Sattler, Kai-Uwe
Tractor pulling on data warehouses. - In: Proceedings of the Fourth International Workshop on Testing Database Systems, (2011), insges. 6 S.

http://dx.doi.org/10.1145/1988842.1988849
Beier, Felix; Stolze, Knut; Stolze, Knut *1975-*; Sattler, Kai-Uwe;
Online reorganization in read optimized MMDBS. - In: Compilation proceedings of SIGMOD 2011 & PODS 2011, (2011), S. 1125-1136

Ribe-Baumann, Liz;
Combining resource and location awareness in DHTs. - In: On the move to meaningful internet systems: OTM 2011, (2011), S. 385-402

http://dx.doi.org/10.1007/978-3-642-25109-2_25
Klan, Daniel; Rohe, Thomas; Sattler, Kai-Uwe
Quantitatives Frequent Pattern Mining in drahtlosen Sensornetzen. - In: Proceedings BTW 2011, (2011), S. 3-12

Klan, Daniel; Sattler, Kai-Uwe
AnduIN: Anwendungsentwicklung für drahtlose Sensornetzwerke. - In: Datenbank-Spektrum, ISSN 1610-1995, Bd. 11 (2011), 1, S. 15-26

http://dx.doi.org/10.1007/s13222-011-0040-z
Stolze, Knut; Beier, Felix; Koeth, Oliver; Sattler, Kai-Uwe
Integrating cluster-based main-memory accelerators in relational data warehouse systems. - In: Datenbank-Spektrum, ISSN 1610-1995, Bd. 11 (2011), 2, S. 101-110

http://dx.doi.org/10.1007/s13222-011-0056-4
Ceravolo, Paolo; Liu, Chengfei; Jarrar, Mustafa; Sattler, Kai-Uwe
Special issue on querying the data web : novel techniques for querying structured data on the web. - In: World wide web, ISSN 1573-1413, Bd. 14 (2011), 5/6, S. 461-463

http://dx.doi.org/10.1007/s11280-011-0139-z
Gropengießer, Francis; Sattler, Kai-Uwe
Transactions a la carte - implementation and performance evaluation of transactional support on top of Amazon S3. - In: IEEE International Symposium on Parallel and Distributed Processing workshops and Phd forum (IPDPSW), 2011, ISBN 978-1-61284-425-1, (2011), S. 1082-1091

http://dx.doi.org/10.1109/IPDPS.2011.252
Saake, Gunter; Sattler, Kai-Uwe; Sattler, Kai-Uwe *1968-*; Heuer, Andreas;
Datenbanken : Implementierungstechniken
3. Aufl.. - Heidelberg : mitp, 2011. - XVI, 630 S. ISBN 3-8266-9156-3
Literaturverz. S. 609 - 630

Beier, Felix; Stolze, Knut; Stolze, Knut *1975-*; Sattler, Kai-Uwe;
Autonomous workload-driven reorganization of column groupings in MMDBS. - In: IEEE 27th International Conference on Data Engineering workshops (ICDEW), 2011, ISBN 978-1-4244-9195-7, (2011), S. 22-27

http://dx.doi.org/10.1109/ICDEW.2011.5767654
Stolze, Knut; Beier, Felix; Sattler, Kai-Uwe; Sprenger, Sebastian; Grolimund, Carlos Caballero; Czech, Marco
Architecture of a highly scalable data warehouse appliance integrated to mainframe database systems. - In: BTW 2011, (2011), S. 628-639

Gropengießer, Francis; Baumann, Stephan; Sattler, Kai-Uwe
Cloudy transactions: cooperative XML authoring on Amazon S3. - In: BTW 2011, (2011), S. 307-326

Yang, Jin; Simon, Tobias; Müller, Christopher; Klan, Daniel; Sattler, Kai-Uwe
Comparing and refining gossip protocols for fault tolerance in wireless P2P systems. - In: 19th Euromicro International Conference on Parallel, Distributed and Network-Based Processing (PDP), 2011, ISBN 978-1-4244-9682-2, (2011), S. 595-599

http://dx.doi.org/10.1109/PDP.2011.73
Klan, Daniel;
Deklarative Verarbeitung von Datenströmen in Sensornetzwerken, 2011. - Online-Ressource (PDF-Datei: 234 S., 3859 KB) Ilmenau : Techn. Univ., Diss., 2011

Sensoren finden sich heutzutage in vielen Teilen des täglichen Lebens. Sie dienen dabei der Erfassung und Überführung von physikalischen oder chemischen Eigenschaften in digital auswertbare Größen. Drahtlose Sensornetzwerke als Mittel zur großflächigen, weitestgehend autarken Überwachung von Regionen oder Gebäuden sind Teil dieser Brücke und halten immer stärker Einzug in den industriellen Einsatz. die Entwicklung von geeigneten Systemen ist mit einer Vielzahl von Herausforderungen verbunden. Aktuelle Lösungen werden oftmals gezielt für eine spezielle Aufgabe entworfen, welche sich nur bedingt für den Einsatz in anderen Umgebungen eignen. Die sich wiederholende Neuentwicklung entsprechender verteilter Systeme sowohl auf Hardwareebene als auch auf Softwareebene, zählt zu den wesentlichen Gründen, weshalb entsprechende Lösungen sich zumeist im hochpreisigen Segment einordnen. In beiden Entwicklungsbereichen ist daher die Wiederverwendung existierender Module im Interesse des Anwenders. Stehen entsprechende vorgefertigte Lösungen bereit, besteht weiterhin die Aufgabe, diese in geeigneter Form zu kombinieren, so dass den vom Anwender geforderten Zielen in allen Bereichen genügt wird. Insbesondere im Kontext drahtloser Sensornetzwerke, bei welchen mit stark beschränkten Ressourcen umgegangen werden muss, ist für das Erzeugen passender Lösungen oftmals Expertenwissen von Nöten. Im Mittelpunkt der vorliegenden Arbeit steht die energie-effiziente Datenanalyse in drahtlosen Sensornetzwerken. Hierzu wird mit \AnduIN ein System präsentiert, welches den Entwurf auf Softwareebene dahingehend vereinfachen soll, dass der Anwender lediglich die Aufgabenstellung unter Verwendung einer deklarativen Anfragesprache beschreibt. Wie das vom Anwender definierte Ziel erreicht wird, soll vollautomatisch vom System bestimmt werden. Der Nutzer wird lediglich über die Definition gewünschter Eigenschaften in den Entwicklungsprozess integriert. Die dauerhafte Überwachung von Objekten mittels drahtloser Sensornetzwerke hängt von einer Vielzahl von Parametern ab. Es hat sich gezeigt, dass insbesondere der Energieverbrauch bei der drahtlosen Datenübertragung eine der wesentlichen Schwachstellen ist. Ein möglicher Ansatz zur Reduktion des Energiekonsums ist die Verringerung des Kommunikationsaufwands aufgrund einer frühzeitigen Auswertung von Messergebnissen bereits auf den Sensorknoten. Oftmals ist eine vollständige Verarbeitung von komplexen Algorithmen im Sensornetzwerk aber nicht möglich bzw. nicht sinnvoll. Teile der Verarbeitungslogik müssen daher auf einer zentralen Instanz ausgeführt werden. Das in der Arbeit entwickelte System integriert hierzu sowohl einfache als auch komplexe, nur teilweise im Sensornetzwerk verarbeitbare Verfahren. Die Entscheidung, welche Teile einer Applikation auf welcher Komponente ausgeführt werden, wird vom System selbstständig auf Basis eines mehrdimensionalen Kostenmodells gefällt. Im Rahmen der Arbeit werden weiterhin verschiedene Verfahren entwickelt, welche insbesondere im Zusammenhang mit der Analyse von Sensordaten von Interesse sind. Die erweiterten Algorithmen umfassen Methoden zur Auswertung von Daten mit räumlichem Bezug, das Data Cleaning mittels adaptiver Burst-Erkennung und die Identifikation von häufigen Mustern über quantitativen Itemsets.



http://www.db-thueringen.de/servlets/DocumentServlet?id=17916
Klan, Daniel; Karnstedt, Marcel; Hose, Katja; Ribe-Baumann, Liz; Sattler, Kai-Uwe
Stream engines meet wireless sensor networks: cost-based planning and processing of complex queries in AnduIN. - In: Distributed and parallel databases, ISSN 1573-7578, Bd. 29 (2011), 1/2, S. 151-183

https://doi.org/10.1007/s10619-010-7071-6
Brückner, Markus; Ribe-Baumann, Liz;
Decentralized, resource-aware information management and delay tolerant networks in command-and-control. - In: [Vorträge zum Tag der Informatik; Workshops], (2010), S. 175-180

Sattler, Kai-Uwe;
Von Mediatoren über Ontologien zu Linked Open Data-Zum Stand der Informationsintegration und -fusion aus Sicht der Life Sciences. - In: [Beiträge zum Tagungsmotto "Service Science"], (2010), S. 790

Babu, Shivnath; Sattler, Kai-Uwe
Report: 5th IntlWorkshop on Self-Managing Database Systems (SMDB 2010). - In: Bulletin of the Technical Committee on Data Engineering, Bd. 33 (2010), 3, S. 4-7

Lehner, Wolfgang; Sattler, Kai-Uwe
Database as a service (DBaaS). - In: IEEE 26th International Conference on Data Engineering (ICDE), 2010, ISBN 978-1-4244-5446-4, (2010), S. 1216-1217

http://dx.doi.org/10.1109/ICDE.2010.5447723
Gropengießer, Francis; Sattler, Kai-Uwe
Optimistic synchronization of cooperative XML authoring using tunable transaction boundaries. - In: 2010 Second International Conference on Advances in Databases, Knowledge and Data Applications, ISBN 978-0-7695-3981-2, (2010), S. 35-40

http://dx.doi.org/10.1109/DBKDA.2010.10
Yang, Jin;
Gossip-based data fusion framework for radio resource map. - In: Eleventh International Conference on Mobile Data Management (MDM), 2010, ISBN 978-1-4244-7075-4, (2010), S. 293-294

http://dx.doi.org/10.1109/MDM.2010.35
Baumann, Stephan; Nijs, Giel; Strobel, Michael; Sattler, Kai-Uwe
Flashing databases: expectations and limitations. - In: Proceedings of the Sixth International Workshop on Data Management on New Hardware, (2010), S. 9-18, insges. 10 S.

http://dx.doi.org/10.1145/1869389.1869391
Ribe-Baumann, Liz;
A small-world DHT built on generalized network coordinates. - In: Proceedings of the 2010 EDBTICDT Workshops, (2010), insges. 6 S.

http://dx.doi.org/10.1145/1754239.1754286
Harth, Andreas; Hose, Katja; Karnstedt, Marcel; Polleres, Axel; Sattler, Kai-Uwe; Umbrich, Jürgen
Data summaries for on-demand queries over linked data. - In: Proceedings of the 19th international conference on World wide web, (2010), S. 411-420, insges. 10 S.

http://dx.doi.org/10.1145/1772690.1772733
Paradies, Marcus; Lemke, Christian; Plattner, Hasso; Lehner, Wolfgang; Sattler, Kai-Uwe; Zeier, Alexander; Krueger, Jens
How to juggle colums: an entropy-based approach for table compression. - In: Proceedings of the Fourteenth International Database Engineering & Applications Symposium, (2010), S. 205-215, insges. 11 S.

http://dx.doi.org/10.1145/1866480.1866510
Lemke, Christian; Sattler, Kai-Uwe; Faerber, Franz; Zeier, Alexander
Speeding up queries in column stores: a case for compression. - In: Data warehousing and knowledge discovery, (2010), S. 117-129

http://dx.doi.org/10.1007/978-3-642-15105-7_10
Sattler, Kai-Uwe; Klan, Daniel
Customer Bautronic System, TP Facility Intelligence - Informationsintegration und -analyse für das Gebäudemanagement : Abschlussbericht ; Berichtszeitraum: 01.04.2007 - 31.03.2010. - Ilmenau : Techn. Univ., Inst. für Praktische Informatik und Medieninformatik, Fak. für Informatik und Automatisierung, Fachgebiet Datenbanken und Informationssysteme. - Online-Ressource (31 S., 0,98 MB)Förderkennzeichen BMBF 03WKBD2B. - Verbund-Nr. 01054852

https://edocs.tib.eu/files/e01fb10/640813941.pdf
Saake, Gunter; Sattler, Kai-Uwe; Sattler, Kai-Uwe *1968-*; Heuer, Andreas;
Datenbanken : Konzepte und Sprachen
4. Aufl.. - Heidelberg : mitp, 2010. - XVII, 783 S.. - (Biber-Buch) ISBN 978-3-8266-9057-0
Literaturverz. S. 729 - 750

Klan, Daniel; Hose, Katja; Karnstedt, Marcel; Sattler, Kai-Uwe
Power-aware data analysis in sensor networks. - In: IEEE 26th International Conference on Data Engineering (ICDE), 2010, ISBN 978-1-4244-5446-4, (2010), S. 1125-1128

http://dx.doi.org/10.1109/ICDE.2010.5447760
Saake, Gunter; Sattler, Kai-Uwe;
Algorithmen und Datenstrukturen : eine Einführung mit Java
4., überarb. Aufl.. - Heidelberg : dpunkt-Verl., 2010. - XVII, 534 S. ISBN 978-3-89864-663-5
Literaturverz. S. 523 - 526

Chervakova, Elena; Klan, Daniel; Rossbach, Tobias
Energy-optimized sensor data processing. - In: Smart sensing and context, (2009), S. 35-38

Fischer, Jens-Oliver; Gropengießer, Francis; Brix, Sandra
Cooperative spatial audio authoring: systems approach and analysis of use cases. - In: 126th Audio Engineering Society convention 2009, (2009), S. 929-936

Karnstedt, Marcel;
Query processing in a DHT-based universal storage : the world as a Peer-to-Peer database. - München : Meidenbauer, 2009. - XXIV, 237 S. Zugl.: Ilmenau : Techn. Univ., Diss., 2009

Mit dem Aufschwung des Internets wachsen Anwendungen immer weiter, sowohl bezüglich des Datenvolumens als auch der Anzahl von Teilnehmern. Gleichzeitig wächst die Größe und räumliche Ausdehnung der unterliegenden Netzwerkstrukturen. Viele dieser Anwendungen bieten Zugriff auf riesige Datenmengen für eine ebenso riesige Anzahl von Teilnehmern. Wenn es sich um Daten von öffentlichem Interesse handelt die der Öffentlichkeit zur Verfügung stehen, werden solche Anwendungen als Public Data Management klassifiziert. Oftmals sind die Daten auch offen für Erweiterung und Veränderung. Folglich entstehen die Nutzdaten durch Kollaboration und werden von der Gemeinschaft gepflegt. Strukturierte Daten und entsprechende Zugriffsmethoden sind dabei oft eine zwingende Voraussetzung dieser Systeme. Dabei ist ein hoher Grad an Heterogeneität zu erwarten. Funktionalität aus traditionellen Datenbank- und Integrationssystemen ist oft gefragt, erwartet, oder sogar benötigt um solche Datenmengen sinnvoll zu handhaben. Zentralisierte Ansätze sind beschränkt in ihrer Skalierbarkeit und können mit den stetig wachsenden Anforderungen nicht Schritt halten. Die Verteilung von Daten und Last ist eine logische und notwendige Konsequenz. Verteilung in kleinem Maßstab, so wie in Clusters und lokal abgeschotteten Systemen, stößt ebenso an seine Grenzen. Stetige Investitionen sind nicht möglich, denn oft findet sich kein einzelner Nutzer und keine Instanz, die bereit und befähigt sind, die enormen Kosten solcher Systeme zu tragen. Im Gegenzug resultieren Public Data Management Anwendungen aber auch in verringerten Anforderungen, wie zum Beispiel gelockerten Garantien bezüglich Konsistenz und Verfügbarkeit. Das macht aus der Idee der totalen Verteilung von Daten und Last einen vielversprechenden und praktikablen Ansatz. Auch wenn existierende Systeme bereits entsprechende Funktionalität bieten, so ist diese in der Regel stark vereinfacht und extrem eingeschränkt. Ein Großteil der Anforderungen von datenbank-ähnlichen verteilten Systemen wird weder unterstützt noch ermöglicht. Diese Arbeit konzentriert sich auf die Anforderungen und ungelösten Herausforderungen die speziell im Kontext der Anfrageverarbeitung auftreten. Neben der reinen Effizienz der Anfrageverarbeitung umfasst dies Punkte wie die Ausdruckskraft von Anfragen und die Anwendbarkeit bestimmter Konzepte. Wir erfassen zunächst diese und weitere Herausforderungen und motivieren den Beitrag dieser Arbeit. Im Anschluss schlagen wir entsprechende Techniken und Ansätze für effiziente Anfrageverarbeitung in weit-verteilten Systemen vor. Wir empfehlen eine Schichtenarchitektur, welche die Vorteile dezentralisierter Peer-to-Peer-Ansätze nutzt. Basierend auf dieser Architektur, einem vertikalen Tripelmodell und einer zugehörigen Anfragealgebra, stellen wir eine physische Algebra vor. Die Operatoren dieser Algebra nutzen Parallelität und andere Paradigmen der verteilten Anfrageverarbeitung. Des weiteren präsentieren wir Techniken um komplexe Anfragepläne die Nutzeranfragen repräsentieren zu verarbeiten. Das Anfragesystem ist erweitert um ein Kostenmodell, welches eine sinnvolle Planung von Anfragen ermöglicht. Wir diskutieren ebenfalls Garantien und Vorhersagbarkeit. In diesem Zusammenhang stellen wir einen leichtgewichtigen und flexiblen Ansatz zur Schätzung der Vollständigkeit von Teilantworten vor. Eine umfassende Evaluierung auf der Basis einer Referenzimplementierung stellt die Anwendbarkeit und Korrektheit der vorgestellten Konzepte unter Beweis. Dies unterstreicht den wertvollen Beitrag zur Entwicklung riesiger verteilter Datensysteme.



Gropengießer, Francis;
Kooperatives XML-Authoring : Integration von Workgroups in Workspace-Szenarien. - In: 21. Workshop Grundlagen von Datenbanken, (2009), S. 87-91
. - Rostock : Universität Rostock. - 1 Online-Ressource (Seiten 87-91)

Kooperatives XML-Authoring, wie es u.a. in Sounddesign-Prozessen erfolgt, findet in unterschiedlichen Systemumgebungen statt. Workgroups stellen dabei eng gekoppelte, Workspace-Szenarien hingegen lose gekoppelte Systemumgebungen dar. Für das Workgroup-Szenario haben wir in vergangenen Arbeiten bereits eine Lösung vorgeschlagen und implementiert, die einen hohen Grad an Kooperation ermöglicht. In dieser Arbeit stellen wir einen ersten Ansatz vor, wie bestehende Workgroups in Workspace-Szenarien integriert werden können. Hauptbestandteil dieses Integrationskonzepts ist ein maßgeschneidertes Versionierungssystem, welches die Synchronisierung konkurrierender Updates ermöglicht. Dieses arbeitet nicht, wie z.B. Subversion, auf der textuellen Repräsentation der XML-Daten, sondern betrachtet die Daten als Baum. Deltas zwischen verschiedenen Versionen werden aus den innerhalb einzelner Workgroups gespeicherten Transaktions-Recovery-Informationen gewonnen. Es ist daher kein aufwendiger Diff-Algorithmus notwendig. Weiterhin ermöglicht uns die Wiederverwendung der Recovery-Informationen, auch Verschiebeoperationen zu unterstützen. Für die serverseitige Versionsverwaltung untersuchen wir einige ausgewählte Verfahren auf ihre Einsatztauglichkeit im Workspace-Szenario. Dabei handelt es sich um die Versionsverwaltung mit "Completed Deltas", ein referenzbasiertes Versionsmodell sowie ein Versionsstempel-Verfahren.<ger>



http://purl.uni-rostock.de/rosdok/id00002195
Hose, Katja; Lemke, Christian; Sattler, Kai-Uwe
Maintenance strategies for routing indexes. - In: Distributed and parallel databases, ISSN 1573-7578, Bd. 26 (2009), 2/3, S. 231-259

https://doi.org/10.1007/s10619-009-7048-5
Klan, Daniel; Hose, Katja; Sattler, Kai-Uwe
Developing and deploying sensor network applications with AnduIN. - In: 6th International Workshop on Data Management for Sensor Networks 2009 (DMSN 09), ISBN 978-1-615-67543-2, (2009), S. 35-40

Gropengießer, Francis; Hose, Katja; Sattler, Kai-Uwe
An extended transaction model for cooperative authoring of XML data. - In: Computer science, research + development, ISSN 1865-2042, Bd. 24 (2009), 1/2, S. 85-100

http://dx.doi.org/10.1007/s00450-009-0097-1
Sattler, Kai-Uwe;
Structured data in peer-to-peer systems. - In: Encyclopedia of Database Systems, (2009), S. 2863-2867

http://dx.doi.org/10.1007/978-0-387-39940-9_1219
Sattler, Kai-Uwe;
Semijoin. - In: Encyclopedia of Database Systems, (2009), S. 2592-2595

http://dx.doi.org/10.1007/978-0-387-39940-9_706
Sattler, Kai-Uwe;
Distributed query processing. - In: Encyclopedia of Database Systems, (2009), S. 912-917

http://dx.doi.org/10.1007/978-0-387-39940-9_704
Sattler, Kai-Uwe;
Distributed join. - In: Encyclopedia of Database Systems, (2009), S. 904-908

http://dx.doi.org/10.1007/978-0-387-39940-9_705
Sattler, Kai-Uwe;
Data quality dimensions. - In: Encyclopedia of Database Systems, (2009), S. 612-615

http://dx.doi.org/10.1007/978-0-387-39940-9_108
Hose, Katja;
Processing rank-aware queries in schema-based P2P systems, 2009. - Online-Ressource (PDF-Datei: 262 S., 4175 KB) : Ilmenau, Techn. Univ., Diss., 2009
Parallel als Druckausg. erschienen

Effiziente Anfragebearbeitung in Datenintegrationssystemen sowie in P2P-Systemen ist bereits seit einigen Jahren ein Aspekt aktueller Forschung. Konventionelle Datenintegrationssysteme bestehen aus mehreren Datenquellen mit ggf. unterschiedlichen Schemata, sind hierarchisch aufgebaut und besitzen eine zentrale Komponente: den Mediator, der ein globales Schema verwaltet. Anfragen an das System werden auf diesem globalen Schema formuliert und vom Mediator bearbeitet, indem relevante Daten von den Datenquellen transparent für den Benutzer angefragt werden. Aufbauend auf diesen Systemen entstanden schließlich Peer-Daten-Management-Systeme (PDMSs) bzw. schemabasierte P2P-Systeme. An einem PDMS teilnehmende Knoten (Peers) können einerseits als Mediatoren agieren andererseits jedoch ebenso als Datenquellen. Darüber hinaus sind diese Peers autonom und können das Netzwerk jederzeit verlassen bzw.betreten. Die potentiell riesige Datenmenge, die in einem derartigen Netzwerk verfügbar ist, führt zudem in der Regel zu sehr großen Anfrageergebnissen, die nur schwer zu bewältigen sind. Daher ist das Bestimmen einer vollständigen Ergebnismenge in vielen Fällen äußerst aufwändig oder sogar unmöglich. In diesen Fällen bietet sich die Anwendung von Top-N- und Skyline-Operatoren, ggf. in Verbindung mit Approximationstechniken, an, da diese Operatoren lediglich diejenigen Datensätze als Ergebnis ausgeben, die aufgrund nutzerdefinierter Ranking-Funktionen am relevantesten für den Benutzer sind. Da durch die Anwendung dieser Operatoren zumeist nur ein kleiner Teil des Ergebnisses tatsächlich dem Benutzer ausgegeben wird, muss nicht zwangsläufig die vollständige Ergebnismenge berechnet werden sondern nur der Teil, der tatsächlich relevant für das Endergebnis ist. Die Frage ist nun, wie man derartige Anfragen durch die Ausnutzung dieser Erkenntnis effizient in PDMSs bearbeiten kann. Die Beantwortung dieser Frage ist das Hauptanliegen dieser Dissertation. Zur Lösung dieser Problemstellung stellen wir effiziente Anfragebearbeitungsstrategien in PDMSs vor, die die charakteristischen Eigenschaften ranking-basierter Operatoren sowie Approximationstechniken ausnutzen. Peers werden dabei sowohl auf Schema- als auch auf Datenebene hinsichtlich der Relevanz ihrer Daten geprüft und dementsprechend in die Anfragebearbeitung einbezogen oder ausgeschlossen. Durch die Heterogenität der Peers werden Techniken zum Umschreiben einer Anfrage von einem Schema in ein anderes nötig. Da existierende Techniken zum Umschreiben von Anfragen zumeist nur konjunktive Anfragen betrachten, stellen wir eine Erweiterung dieser Techniken vor, die Anfragen mit ranking-basierten Anfrageoperatoren berücksichtigt. Da PDMSs dynamische Systeme sind und teilnehmende Peers jederzeit ihre Daten ändern können, betrachten wir in dieser Dissertation nicht nur wie Routing-Indexe verwendet werden, um die Relevanz eines Peers auf Datenebene zu bestimmen,sondern auch wie sie gepflegt werden können. Schließlich stellen wir SmurfPDMS (SiMUlating enviRonment For Peer Data Management Systems) vor, ein System, welches im Rahmen dieser Dissertation entwickelt wurde und alle vorgestellten Techniken implementiert.



http://www.db-thueringen.de/servlets/DocumentServlet?id=13613
Thiem, Alexander; Sattler, Kai-Uwe
An integrated approach to performance monitoring for autonomous tuning. - In: IEEE 25th International Conference on Data Engineering, 2009, ISBN 978-1-4244-3422-0, (2009), S. 1671-1678
Publ. entstand im Rahmen der Veranst.: SMDB 2009, fourth International Workshop on Self-Managing Database Systems

http://dx.doi.org/10.1109/ICDE.2009.142
Hose, Katja; Klan, Daniel; Sattler, Kai-Uwe
Online tuning of aggregation tables for OLAP. - In: IEEE 25th International Conference on Data Engineering, 2009, ISBN 978-1-4244-3422-0, (2009), S. 1679-1686
Publ. entstand im Rahmen der Veranst.: SMDB 2009, fourth International Workshop on Self-Managing Database Systems

http://dx.doi.org/10.1109/ICDE.2009.155
Franke, Conny; Karnstedt, Marcel; Klan, Daniel; Gertz, Michael; Sattler, Kai-Uwe; Chervakova, Elena
In-network detection of anomaly regions in sensor networks with obstacles. - In: Computer science, research + development, ISSN 1865-2042, Bd. 24 (2009), 3, S. 153-170

http://dx.doi.org/10.1007/s00450-009-0063-y
Gropengießer, Francis; Hose, Katja; Sattler, Kai-Uwe
Ein kooperativer XML-Editor für Workgroups. - In: Datenbanksysteme in Business, Technologie und Web, (2009), S. 600-603

Lemke, Ch.; Sattler, Kai-Uwe; Färber, F.
Kompressionstechniken für spaltenorientierte BI-Accelerator-Lösungen. - In: Datenbanksysteme in Business, Technologie und Web, (2009), S. 486-497

Franke, Conny; Karnstedt, Marcel; Klan, Daniel; Gertz, Michael; Sattler, Kai-Uwe; Kattanek, Wolfram
In-network detection of anomaly regions in sensor networks with obstacles. - In: Datenbanksysteme in Business, Technologie und Web, (2009), S. 367-386

Karnstedt, Marcel; Klan, Daniel; Pölitz, Christian; Sattler, Kai-Uwe; Franke, Conny
Adaptive burst detection in a stream engine. - In: Proceedings of the 24th Annual ACM Symposium on Applied Computing 2009, ISBN 978-1-605-58166-8, (2009), S. 1511-1515

Ailamaki, Anastassia; Babu, Shivnath; Furtado, Pedro; Lightstone, Sam; Lohman, Guy; Martin, Pat; Narasayya, Vivek; Pauley, Glenn; Salem, Ken; Sattler, Kai-Uwe
Report: 3rd Int'l Workshop on Self-Managing Database Systems (SMDB 2008). - In: Bulletin of the Technical Committee on Data Engineering, Bd. 31 (2008), 4, S. 2-5

Hose, Katja; Roth, Armin; Zeitz, André; Sattler, Kai-Uwe; Naumann, Felix
A research agenda for query processing in large-scale peer data management systems. - In: Information systems, ISSN 0306-4379, Bd. 33 (2008), 7/8, S. 597-610

http://dx.doi.org/10.1016/j.is.2008.01.012
Sattler, Kai-Uwe; Lehner, Wolfgang
Quality of service and predictability in DBMS. - In: Advances in Database Technology - EDBT 2008, (2008), S. 748

http://doi.acm.org/10.1145/1353343.1353444
Klan, Daniel; Sattler, Kai-Uwe; Hose, Katja; Karnstedt, Marcel
Decentralized managing of replication objects in massively distributed systems. - In: DaMaP 2008, (2008), S. 19-26

http://doi.acm.org/10.1145/1379350.1379354
Hose, Katja; Klan, Daniel; Marx, Matthias; Sattler, Kai-Uwe
When is it time to rethink the aggregate configuration of your OLAP server?. - In: Proceedings of the VLDB Endowment, ISSN 2150-8097, Bd. 1 (2008), 2, S. 1492-1495

https://doi.org/10.14778/1454159.1454210
Karnstedt, Marcel; Sattler, Kai-Uwe; Haß, Michael; Hauswirth, Manfred; Sapkota, Brahmananda; Schmidt, Roman
Estimating the number of answers with guarantees for structured queries in P2P databases. - In: Database, information retrieval, knowledge management, (2008), S. 1407-1408

Gropengießer, Francis; Sattler, Kai-Uwe
An extended cooperative transaction model for XML. - In: Database, information retrieval, knowledge management, ISBN 978-1-605-58387-7, (2008), S. 41-48

Karnstedt, Marcel; Sattler, Kai-Uwe; Haß, Michael; Hauswirth, Manfred; Sapkota, Brahmananda; Schmidt, Roman
Approximating query completeness by predicting the number of answers in DHT-based web applications. - In: Database, information retrieval, knowledge management, ISBN 978-1-605-58387-7, (2008), S. 71-78

Karnstedt, Marcel; Sattler, Kai-Uwe; Hauswirth, Manfred; Schmidt, Roman
A DHT-based infrastructure for ad-hoc integration and querying of semantic data. - In: Proceedings of IDEAS '08 ; September 10 - 12, 2008, Coimbra, Portugal, (2008), S. 19-28

http://doi.acm.org/10.1145/1451940.1451945
Karnstedt, Marcel; Stolze, Knut
Datenbankimplementierungstechniken zum Anfassen - ein Erfahrungsbericht. - In: Datenbank-Spektrum, ISSN 1618-2162, Bd. 8 (2008), 27, S. 37-41

Gropengießer, Francis; Fischer, Jens-Oliver
Ein Aktionsmodell für die kooperative Bearbeitung von XML-Daten. - In: Proceedings of the 20. GI-Workshop on Foundations of Databases (Grundlagen von Datenbanken), (2008), S. 41-45

Sattler, Kai-Uwe;
Autonomie und Vorhersagbarkeit in DBMS. - In: Proceedings of the 20. GI-Workshop on Foundations of Databases (Grundlagen von Datenbanken), (2008), S. 5

Hose, Katja; Quasebarth, Jana
Umschreiben und Bearbeiten von Anfragen in Peer-Daten-Management-Systeme (PDMS). - In: Datenbank-Spektrum, ISSN 1618-2162, Bd. 8 (2008), 26, S. 34-44

Bonifati, Angela; Chrysanthis, Panos K.; Ouksel, Aris M.; Sattler, Kai-Uwe
Distributed databases and peer-to-peer databases: past and present. - In: ACM SIGMOD record, Bd. 37 (2008), 1, S. 5-11

https://doi.org/10.1145/1374780.1374781
Saake, Gunter; Sattler, Kai-Uwe; Heuer, Andreas
Datenbanken : Konzepte und Sprachen
3., aktualisierte und erw. Aufl.. - Heidelberg : mitp, 2008. - XVII, 783 S. ISBN 3826616642 = 978-3-8266-1664-8
Literaturverz. S. 729 - 750
http://deposit.d-nb.de/cgi-bin/dokserv?id=2983313&prov=M&dok_var=1&dok_ext=htm

Karnstedt, Marcel; Sattler, Kai-Uwe; Habich, Dirk; Lehner, Wolfgang
Quality of service-driven stream mining. - In: ICDM workshops 2007, (2007), S. 545-550
Publ. entstand im Rahmen der Veranst.: ICDM workshops 2007 - Workshop on Data Streaming Mining and Management (DSMM 2007), Omaha, Nebraska, USA

Hose, Katja; Lemke, Christian; Sattler, Kai-Uwe; Zinn, Daniel
A relaxed but not necessarily constrained way from the top to the sky. - In: On the move to meaningful Internet systems 2007: CoopIS, DOA, ODBASE, GADA, and IS, ISBN 978-3-540-76848-7, (2007), S. 399-407

http://dx.doi.org/10.1007/978-3-540-76848-7_27
Hose, Katja; Karnstedt, Marcel; Koch, Anke; Sattler, Kai-Uwe; Zinn, Daniel
Processing rank-aware queries in P2P systems. - In: Databases, information systems, and peer-to-peer computing, (2007), S. 171-178

http://dx.doi.org/10.1007/978-3-540-71661-7_16
Lühring, Martin; Sattler, Kai-Uwe; Schmidt, Karsten; Schallehn, Eike
Autonomous management of soft indexes. - In: IEEE 23rd International Conference on Data Engineering workshop, 2007, ISBN 978-1-4244-0832-0, (2007), S. 450-458

http://dx.doi.org/10.1109/ICDEW.2007.4401028
Klein, Anja; Do, Hong-Hai; Karnstedt, Marcel; Lehner, Wolfgang; Hackenbroich, Gregor
Representing data quality for streaming and static data. - In: IEEE 23rd International Conference on Data Engineering workshop, 2007, ISBN 978-1-4244-0832-0, (2007), S. 3-10

http://dx.doi.org/10.1109/ICDEW.2007.4400967
Karnstedt, Marcel; Müller, Jessica; Sattler, Kai-Uwe
Cost-aware skyline queries in structured overlays. - In: IEEE 23rd International Conference on Data Engineering workshop, 2007, ISBN 978-1-4244-0832-0, (2007), S. 285-288

http://dx.doi.org/10.1109/ICDEW.2007.4401006
Karnstedt, Marcel; Sattler, Kai-Uwe; Schmidt, Roman
Completeness estimation of range queries in structured overlays. - In: Proceedings, (2007), S. 71-78

Sattler, Kai-Uwe;
Komponenten eines Datenbankmanagementsystems. - In: Taschenbuch Datenbanken, (2007), S. 239-280

Hose, Katja; Sattler, Kai-Uwe
Cooperative data management for XML data. - In: Database and expert systems applications, (2007), S. 308-318

http://dx.doi.org/10.1007/978-3-540-74469-6_31
Karnstedt, Marcel; Sattler, Kai-Uwe; Richtarsky, Martin; Müller, Jessica; Hauswirth, Manfred; Schmidt, Roman; John, Renault
UniStore: querying a DHT-based universal storage. - In: IEEE 23rd International Conference on Data Engineering, 2007, ISBN 978-1-4244-0802-3, (2007), S. 1503-1504

http://dx.doi.org/10.1109/ICDE.2007.369054
Hose, Katja; Karnstedt, Marcel; Klan, Daniel; Sattler, Kai-Uwe; Quasebarth, Jana
Incremental mining for facility management. - In: LWA 2007, (2007), S. 183-190

Hose, Katja; Lemke, Christian; Quasebarth, Jana; Sattler, Kai-Uwe
SmurfPDMS: a platform for query processing in large-scale PDMS. - In: Datenbanksysteme in Business, Technologie und Web (BTW), (2007), S. 621-624

Lühring, Martin; Sattler, Kai-Uwe; Schallehn, Eike; Schmidt, Karsten
Autonomes Index Tuning - DBMS-integrierte Verwaltung von Soft Indexen. - In: Datenbanksysteme in Business, Technologie und Web (BTW), (2007), S. 152-171
. - (GI-Edition)Fachtagung des GI-Fachbereichs "Datenbanken und Informationssysteme" (DBIS) ; 12 (Aachen) : 2007.03.07-09

Cudré-Mauroux, Philippe; Aberer, Karl; Abdelmoty, Alia I.; Catarci, Tiziana; Damiani, Ernesto; Illaramendi, Arantxa; Jarrar, Mustafa; Meersman, Robert; Neuhold, Erich J.; Parent, Christine; Sattler, Kai-Uwe; Scannapieco, Monica; Spaccapietra, Stefano; Spyns, Peter; Tré, Guy De
Viewpoints on emergent semantics. - In: Special issue on emergent semantics, (2006), S. 1-27

http://dx.doi.org/10.1007/11803034_1
Hose, Katja; Klan, Daniel; Sattler, Kai-Uwe
Distributed data summaries for approximate query processing in PDMS. - In: 10th International Database Engineering and Applications Symposium, 2006, ISBN 978-0-7695-2577-8, (2006), S. 37-44

http://dx.doi.org/10.1109/IDEAS.2006.17
Krause, Christine;
Die Analogrechentechnik unter besonderer Berücksichtigung der Entwicklung von Analogrechnern in Thüringen und Sachsen. - In: 12. Internationales Treffen der Rechenschiebersammler und 3. Symposium zur Entwicklung der Rechentechnik, (2006), S. 121-133

Hinneburg, Alexander; Habich, Dirk; Karnstedt, Marcel
Analyzing data streams by Online DFT. - In: Proceedings of the 4th International Workshop on Knowledge Discovery from Data Streams, (2006), S. 67-76

Hose, Katja; Lemke, Christian; Sattler, Kai-Uwe
Processing relaxed skylines in PDMS using distributed data summaries. - In: Proceedings of the 15th ACM international conference on Information and knowledge management, (2006), S. 425-434

http://doi.acm.org/10.1145/1183614.1183676
Franke, Conny; Karnstedt, Marcel; Karnstedt, Marcel *1977-*; Sattler, Kai-Uwe;
Mining data streams under dynamicly changing resource constraints. - In: LWA 2006, (2006), S. 262-269, insges. 8 S.
. - Hildesheim. - 8 p. = 449 KB : Universität Hildesheim, Institut für Informatik, Rezension: 2006

Due to the inherent characteristics of data streams, appropriate mining techniques heavily rely on window-based processing and/or (approximating) data summaries. Because resources such as memory and CPU time for maintaining such summaries are usually limited, the quality of the mining results is affected in different ways. Based on Frequent Itemset Mining and an according Change Detection as selected mining techniques, we discuss in this paper extensions of stream mining algorithms allowing to determine the output quality for changes in the available resources (mainly memory space). Furthermore, we give directions how to estimate resource consumptions based on user-specified quality requirements.



http://opus.bsz-bw.de/ubhi/volltexte/2011/28/
Hose, Katja; Job, Andreas; Karnstedt, Marcel; Sattler, Kai-Uwe
An extensible, distributed simulation environment for peer data management systems. - In: Advances in Database Technology -- EDBT 2006, (2006), S. 1198-1202

http://dx.doi.org/10.1007/11687238_91
Karnstedt, Marcel; Sattler, Kai-Uwe; Hauswirth, Manfred; Schmidt, Roman
Similarity queries on structured data in structured overlays. - In: 22nd International Conference on Data Engineering workshops, 2006, ISBN 978-0-7695-2571-6, (2006), 32, insges. 6 S.
Publ. entstand im Rahmen der Veranst.: Second IEEE International Workshop on Networking Meets Databases (NetDB2006), held in cooperation with ICDE 2006

http://dx.doi.org/10.1109/ICDEW.2006.137
Karnstedt, Marcel; Sattler, Kai-Uwe; Hauswirth, Manfred; Schmidt, Roman
Cost-aware processing of similarity queries in structured overlays. - In: Sixth IEEE International Conference on Peer-to-Peer Computing, 2006, P2P 2006, (2006), S. 81-89

http://dx.doi.org/10.1109/P2P.2006.12
Grust, Torsten; Höpfner, Hagen; Illarramendi, Arantza; Jablonski, Stefan; Mesiti, Marco; Müller, Sascha; P&bovko;atrânjan, Paula-Lavinia; Sattler, Kai-Uwe; Spiliopoulou, Myra; Wijsen, Jef
Current trends in database technology - EDBT 2006 : EDBT 2006 Workshops PhD, DataX, IIDB, IIHA, ICSNW, QLQP, PIM, PaRMa, and Reactivity on the Web, Munich, Germany, March 26-31, 2006 ; revised selected papers. - Berlin : Springer, 2006. - XXXI, 932 S.. - (Lecture notes in computer science ; 4254) ISBN 3-540-46788-2
Literaturangaben

Heimrich, Thomas;
Output constraints in multimedia database systems, 2006. - Online-Ressource (PDF-Datei: 163 S., 1357 KB) : Ilmenau, Techn. Univ., Diss., 2006
Parallel als Druckausg. erschienen

Semantische Fehler treten bei jeder Art von Datenverwaltung auf. Herkömmliche Datenbanksysteme verwenden eine Integritätskontrolle, um semantische Fehler zu vermeiden. Um die Integrität der Daten zu gewährleisten werden Integritätsregeln benutzt. Diese Regeln können allerdings nur die Konsistenz einfach strukturierter Daten überprüfen. Multimedia Datenbanksystem verwalten neben einfachen alphanumerischen Daten auch komplexe Mediendaten wie Videos. Um die Konsistenz dieser Daten zu sichern, bedarf es einer erheblichen Erweiterung des bestehenden Integritätskonzeptes. Dabei muss besonders auf die konsistente Datenausgabe geachtet werden. Im Gegensatz zu alphanumerischen Daten können Mediendaten während der Ausgabe verfälscht werden. Dieser Fall kann eintreten, wenn eine geforderte Datenqualität bei der Ausgabe nicht erreicht werden kann oder wenn Synchronisationsbedingungen zwischen Medienobjekten nicht eingehalten werden können. Es besteht daher die Notwendigkeit, Ouptut Constraints einzuführen. Mit ihrer Hilfe kann definiert werden, wann die Ausgabe von Mediendaten semantisch korrekt ist. Das Datenbanksystem kann diese Bedingungen überprüfen und so gewährleisten, dass der Nutzer semantisch einwandfreie Daten erhält. In dieser Arbeit werden alle Aspekte betrachtet, die notwendig sind, um Ausgabebedingungen in ein Multimedia Datenbanksystem zu integrieren. Im einzelnen werden die Modellierung der Bedingungen, deren datenbankinterne Repräsentation sowie die Bedingungsüberprüfung betrachtet. Für die Bedingungsmodellierung wird eine Constraint Language auf Basis der Prädikatenlogik eingeführt. Um die Definition von zeitlichen und räumlichen Synchronisationen zu ermöglichen, verwenden wir Allen-Relationen. Für die effiziente Überprüfung der Ausgabebedingungen müssen diese aus der Spezifikationssprache in eine datenbankinterne Darstellung überführt werden. Für die datenbankinterne Darstellung werden Difference Constraints verwendet. Diese erlauben eine sehr effiziente Bedingungsüberprüfung. Wir haben Algorithmen entwickelt, die eine effiziente Überprüfung von Ausgabebedingungen erlauben und dies anhand von Experimenten nachgewiesen. Neben der Überprüfung der Bedingungen müssen Mediendaten so synchronisiert werden, dass dies den Ausgabebedingungen entspricht. Wir haben dazu das Konzept des Output Schedules entwickelt. Dieser wird aufgrund der definierten Ausgabebedingungen generiert. Durch die Ausgabebedingungen, die in dieser Arbeit eingeführt werden, werden semantische Fehler bei der Verwaltung von Mediendaten erheblich reduziert. Die Arbeit stellt daher einen Beitrag zur qualitativen Verbesserung der Verwaltung von Mediendaten dar.



http://www.db-thueringen.de/servlets/DocumentServlet?id=5310
Saake, Gunter; Sattler, Kai-Uwe;
Algorithmen und Datenstrukturen : eine Einführung mit Java
3., überarb. Aufl.. - Heidelberg : dpunkt.Verl., 2006. - XVII, 512 S.. - (dpunkt.Lehrbuch) ISBN 978-3-89864-385-6
Literaturverz. S. 501 - 504

Krause, Christine;
Das Positive von Differenzen. - In: , (2005), S. 11-18

Franke, Conny; Hartung, Michael; Karnstedt, Marcel; Sattler, Kai-Uwe
Quality-aware mining of data streams. - In: Proceedings of the 2005 International Conference on Information Quality (MIT IQ Conference), (2005), insges. 16 S.

Heimrich, Thomas; Reichelt, Katrin; Rusch, Hendrik; Sattler, Kai-Uwe; Schröder, Thomas
Modelling and streaming spatiotemporal audio data. - In: On the move to meaningful internet systems 2005: OTM 2005 workshops, (2005), S. 7-8

http://dx.doi.org/10.1007/11575863_4
Sattler, Kai-Uwe; Schallehn, Eike; Geist, Ingolf
Towards indexing schemes for self-tuning DBMS. - In: 21nd International Conference on Data Engineering Workshops, ISBN 978-0-7695-2657-7, (2005), S. 1216, insges. 8 S.
Publ. entstand im Rahmen der Veranst.: SMDB 2005, in conjunction with IEEE ICDE 2005

http://dx.doi.org/10.1109/ICDE.2005.296
Rösch, Philipp; Sattler, Kai-Uwe; Weth, Christian; Buchmann, Erik
Best effort query processing in DHT-based P2P systems. - In: 21nd International Conference on Data Engineering Workshops, ISBN 978-0-7695-2657-7, (2005), S. 1186, insges. 8 S.
Publ. entstand im Rahmen der Veranst.: NetDB 2005, in conjunction with IEEE ICDE 2005

http://dx.doi.org/10.1109/ICDE.2005.200
Shang, Xuequn; Sattler, Kai-Uwe
Depth-first frequent itemset mining in relational databases. - In: Proceedings of the 2005 ACM symposium on Applied computing, (2005), S. 1112-1117

http://doi.acm.org/10.1145/1066677.1066928
Hose, Katja;
Processing skyline queries in P2P systems. - In: Proceedings of VLDB 2005 PhD Workshop, (2005), S. 36-40

Hose, Katja; Karnstedt, Marcel; Koch, Anke; Sattler, Kai-Uwe; Zinn, Daniel
Processing rank-aware queries in P2P systems. - In: Third International Workshop on Databases, Information Systems and Peer-to-Peer Computing, (2005), S. 238-249

Hose, Katja; Karnstedt, Marcel; Sattler, Kai Uwe; Stehr, Ernst-August
Adaptive routing filters for robust query processing in schema-based P2P systems. - In: Proceedings, (2005), S. 223-228

Hose, Katja;
Eine inkrementelle Anfragestrategie zur dynamischen und robusten Anfrageverarbeitung in schemabasierten P2P-Systemen. - In: Beitragsband zum Studierenden-Programm bei der 11. Fachtagung "Datenbanksysteme für Business, Technologie und Web" [...] Karlsruhe, 01. März 2005, (2005), S. 37-39

Shang, Xuequn; Sattler, Kai-Uwe
Processing sequential patterns in relational databases. - In: Data warehousing and knowledge discovery, (2005), S. 438-447

http://dx.doi.org/10.1007/11546849_43
Heimrich, Thomas; Sattler, Kai-Uwe; Reichelt, Katrin; Gatzsche, Gabriel
Verwaltung spatio-temporaler Audiodaten für die Wellenfeldsynthese. - In: Datenbanksysteme in Business, Technologie und Web (BTW), (2005), S. 444-453

Rösch, Philipp; Weth, Christian; Sattler, Kai-Uwe; Buchmann, Erik
Verteilte Anfrageverarbeitung in DHT-basierten P2P-Systemen. - In: Datenbanksysteme in Business, Technologie und Web (BTW), (2005), S. 165-174

Heimrich, Thomas;
Modeling of output constraints in multimedia database systems. - In: Proceedings of the 11th International Multimedia Modelling Conference, 2004 [i.e. 2005], MMM 2005, (2005), S. 399-404

http://dx.doi.org/10.1109/MMMC.2005.54
Shang, Xuequn; Sattler, Kai-Uwe; Geist, Ingolf
SQL based frequent pattern mining with FP-Growth. - In: Applications of declarative programming and knowledge management, (2005), S. 32-46

http://dx.doi.org/10.1007/11415763_3
Blaar, Holger; Lange, Thomas; Winter, Renate; Karnstedt, Marcel
Possibilities to solve the clique problem by thread parallelism using task pools. - In: Proceedings, (2005), S. 185

Shang, Xuequn; Sattler , Kai-Uwe
Frequent itemset mining with parallel RDBMS. - In: Advances in knowledge discovery and data mining, (2005), S. 539-544

http://dx.doi.org/10.1007/11430919_63
Saake, Gunter; Sattler, Kai-Uwe; Conrad, Stefan
Rule-based schema matching for ontology-based mediators. - In: Journal of applied logic, Bd. 3 (2005), 2, S. 253-270

http://dx.doi.org/10.1016/j.jal.2004.07.021
Sattler, Kai-Uwe; Geist, Ingolf; Schallehn, Eike
Concept-based querying in mediator systems. - In: The VLDB journal, ISSN 0949-877X, Bd. 14 (2005), 1, S. 97-111

https://doi.org/10.1007/s00778-003-0118-9
Saake, Gunter; Heuer, Andreas; Heuer, Andreas *1958-*; Sattler, Kai-Uwe;
Datenbanken : Implementierungstechniken ; [Architekturprinzipien, Dateiorganisation & Zugriffsstrukturen, massiv verteilte Datenverwaltung in P2P-Systemen, Illustration der Konzepte am Beispiel aktueller DBMS-Produkte]
2., aktualisierte und erw. Aufl.. - Bonn : mitp-Verlag, 2005. - XXI, 869 S.. - (Datenbanken) ISBN 3-8266-1438-0
Literaturverz. S. 799 - 837

Karnstedt, Marcel;
Anfragebearbeitung und Routing in Schema-basierten P2P-Systemen. - In: Tagungsband zum 16. GI-Workshop über "Grundlagen von Datenbanken", (2004), insges. 5 S.

http://www.dbs.cs.uni-duesseldorf.de/gvd2004/papers/KarnstedtMarcel.pdf
Shang, Xuequn; Sattler, Kai-Uwe; Geist, Ingolf
SQL based frequent pattern mining without candidate generation. - In: Applied computing 2004, (2004), S. 618-619

Karnstedt, Marcel; Hose, Katja; Sattler, Kai-Uwe
Distributed query processing in P2P systems with incomplete schema information. - In: Data integration over the Web, (2004), S. 34-45

Karnstedt, Marcel; Sattler, Kai-Uwe; Schallehn, Eike; Endig, Martin
Ad-hoc-Integration in schemabasierten P2P-Systemen. - In: Informatik 2004, (2004), S. 373-377

Gertz, Michael; Özsu, M. Tamer; Saake, Gunter; Sattler, Kai-Uwe
Report on the Dagstuhl Seminar "Data Quality on the Web". - In: ACM SIGMOD record, Bd. 33 (2004), 1, S. 127-132

https://doi.org/10.1145/974121.974144
Höpfner, Hagen; Schosser, Stephan; Sattler, Kai-Uwe;
An indexing scheme for update notification in large mobile information systems. - In: Current Trends in Database Technology - EDBT 2004 Workshops, (2004), S. 345-354

http://dx.doi.org/10.1007/978-3-540-30192-9_34
Karnstedt, Marcel; Hose, Katja; Sattler, Kai-Uwe
Query routing and processing in schema-based P2P systems. - In: Proceedings, (2004), S. 544-548

http://dx.doi.org/10.1109/DEXA.2004.1333531
Schallehn, Eike; Sattler, Kai-Uwe; Saake, Gunter
Efficient similarity-based operations for data integration. - In: Data & knowledge engineering, Bd. 48 (2004), 3, S. 361-387

https://doi.org/10.1016/j.datak.2003.08.004
Sattler, Kai-Uwe; Schallehn, Eike; Geist, Ingolf
Autonomous query-driven index tuning. - In: Proceedings, (2004), S. 439-448

Kirlangic, Mehmet Eylem; Holetschek, Jörg; Krause, Christine; Ivanova, Galina
A database for therapy evaluation in neurological disorders: application in epilepsy. - In: IEEE transactions on information technology in biomedicine, ISSN 1558-0032, Bd. 8 (2004), 3, S. 321-332

http://dx.doi.org/10.1109/TITB.2004.832546
Saake, Gunter; Sattler, Kai-Uwe;
Algorithmen und Datenstrukturen : eine Einführung mit Java
2., überarb. und erw. Aufl.. - Heidelberg : dpunkt.Verl., 2004. - XVII, 508 S.. - (dpunkt-Lehrbuch) ISBN 3-89864-255-0
Literaturverz. S. 497 - 500. - Literaturangaben

Kenntnisse von Algorithmen und Datenstrukturen sind ein Grundbaustein jedes Informatik- oder informatiknahen Studiums. Dieses Buch behandelt die Thematik in Verbindung mit der Programmiersprache Java und schlägt so eine Brücke zwischen den klassischen Lehrbüchern zur Theorie von Algorithmen und Datenstrukturen und den praktischen Einführungen in eine konkrete Programmiersprache. Gegenstand des Buches sind zum einen die konkreten Algorithmen und deren Realisierung in Java. Zum anderen werden die theoretischen Grundlagen vermittelt, die in Programmiersprachen-Kursen oft zu kurz kommen, etwa abstrakte Maschinenmodelle, Berechenbarkeit und Algorithmenparadigmen sowie parallele und verteilte Abläufe. Einen weiteren Schwerpunkt bilden die Datenstrukturen wie Listen, Bäume, Graphen und Hashtabellen sowie deren objektorientierte Implementierung mit modernen Methoden der Software-Entwicklung. Die Leser erhalten dadurch die Voraussetzungen für die theoretischen und praktischen Vertiefungen des Hauptstudiums und erlernen gleichzeitig, diese Grundkenntnisse direkt in den "praktischen Alltag" der Software-Entwicklung umzusetzen. Das Buch richtet sich an Studierende im Grundstudium an Universitäten und Fachhochschulen sowie an alle, die die Grundlagen der praktischen Informatik strukturiert erlernen wollen



Höpfner, Hagen; Schosser, Stephan; Sattler, Kai-Uwe
Towards trie-based indexing of mobile clients in large mobile information systems. - Magdeburg : Univ., Fak. für Informatik, 2004. - 15 S. - (Preprint ; 2004,2)
Heimrich, Thomas; Specht, Günther
Enhancing ECA rules for distributed active database systems. - In: Web, Web-Services, and Database Systems, (2003), S. 199-205

http://dx.doi.org/10.1007/3-540-36560-5_15
Heimrich, Thomas; Specht, Günther
Struktur-, Verhaltens- und Ausgabeschemata für Multimedia-Daten in objektrelationalen Datenbanksystemen. - In: Tagungsband, (2003), S. 314-321

Höpfner, Hagen; Sattler, Kai-Uwe
Semantic replication in mobile federated information systems. - In: Engineering federated information systems, (2003), S. 36-41

Heuer, Andreas; Saake, Gunter; Saake, Gunter *1960-*; Sattler, Kai-Uwe;
Datenbanken kompakt
2. Aufl.. - Bonn : mitp-Verl., 2003. - XIII, 301 S.. - (Datenbanken) ISBN 3-8266-0987-5

Entsprechend der hohen Bedeutung, die Datenbanksysteme in Wirtschaft und Verwaltung aufweisen, gehört das Thema zu den klassischen Ausbildungsgebieten in den Informatikstudiengängen. Um den aktuellen Entwicklungen Rechnung zu tragen, legen die Autoren eine überarbeitete Auflage vor, wobei sich die Änderungen gegenüber der Vorauflage (BA 10/01) auf die Themen SQL-Standardisierung und XML-Entwicklungen beschränken. Ansonsten blieben Aufbau und Inhalt unverändert, sodass ein Austausch der Vorauflage noch nicht notwendig ist. Aufgrund der "didaktisch gut strukturierten Darstellung" und der kompakten Aufbereitung eines recht komplexen Themas findet das Buch in Bremen großen Zuspruch. Zielgruppen sind in 1. Linie Haupt- und Nebenfachstudenten im Studiengang Informatik, aber das Buch empfiehlt sich auch für anderweitig Interessierte zum Selbststudium. Neben A. G. Taylor (BA 10/01) und F. D. Rolland (BA 8/03). (2)



Heimrich, Thomas; Specht, Günther
Erweiterte ECA-Regeln für verteilte aktive Datenbanksysteme. - In: Net.ObjectDays 2002, (2002), S. 610-617

Bauer, Michael G.; Specht, Günther
Enhancing digital library document by a posteriori cross linking using XSLT. - In: Research and advanced technology for digital libraries, (2001), S. 95-102

http://dx.doi.org/10.1007/3-540-44796-2_9
Bauer, Michael G.; Specht, Günther
The object oriented document model of a meta system for existing digital libraries. - In: Proceedings, (2001), S. 933-936
Publ. entstand im Rahmen der Veranst.: First International Workshop on Digital Libraries

Bauer, Michael G.; Specht, Günther
The anchor and linking concept of a meta system for existing digital libraries. - In: Tagungsband, (2001), S. 260-265

Schindler, Rita; Specht, Günther; Schmatloch, Andre
Performanz von XML-Datenbanksystemen. - In: Tagungsband, (2001), S. 254-259

Schindler, Rita;
Multimedia-Datenbanken und ein "entferntes" Beispiel. - In: Workshop Multimediale Informations- und Kommunikationssysteme, (1995), S. 73-80

Weik, Thomas;
Foundations of an interactive design tool for active OODBMS. - In: Vortragsreihen Softwaretechnik/Prozeßinformatik, Kommunikation in verteilten Systemen, Computergrafik, Datenbanken, Parallele Systeme, Anwendungen von Petri-Netzen, OMSI-Workshop, (1994), S. 327-331