Literature list from the university bibliography

Results: 146
Created on: Mon, 15 Apr 2024 23:02:27 +0200 in 0.0942 sec


Dietzfelbinger, Martin; Walzer, Stefan
Constant-time retrieval with O(log m) extra bits. - In: 36th International Symposium on Theoretical Aspects of Computer Science, (2019), S. 24:1-24:16

https://doi.org/10.4230/LIPIcs.STACS.2019.24
Aumüller, Martin; Dietzfelbinger, Martin; Heuberger, Clemens; Krenn, Daniel; Prodinger, Helmut
Dual-Pivot quicksort: optimality, analysis and zeros of associated lattice paths. - In: Combinatorics, probability & computing, ISSN 1469-2163, Bd. 28 (2019), 4, S. 485-518

https://doi.org/10.1017/S096354831800041X
Maier, Tobias; Sanders, Peter; Walzer, Stefan
Dynamic space efficient hashing. - In: Algorithmica, ISSN 1432-0541, Bd. 81 (2019), 8, S. 3162-3185

https://doi.org/10.1007/s00453-019-00572-x
Schwetschenau, René;
Sortieren und Suchbäume für Strings im Word-RAM-Modell. - Ilmenau. - 40 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2019

Möchte man eine Menge S von Strings effzient abspeichern und Operationen auf S wie das Einfügen, Suchen oder Entfernen von Strings definieren, werden üblicherweise Suchbäume verwendet. J. Bentley und R. Sedgewick haben sich in den 1990er Jahren mit diesem Problem beschäftigt und den ternären Suchbaum vorgestellt. M. Dietzfelbinger, P. Schlag und S. Walzer haben 2018 für ein anderes Problem eine neue spezielle Suchbaumstruktur für Bitstrings fester Länge entwickelt. In dieser Arbeit werden die beiden Suchbaumstrukturen verglichen und die Suchbaumstruktur für Bitstrings fester Länge verallgemeinern, so dass sie mit beliebigen Strings umgehen kann.



Mitzenmacher, Michael; Panagiotou, Konstantinos; Walzer, Stefan
Load thresholds for cuckoo hashing with double hashing. - In: 16th Scandinavian Symposium and Workshops on Algorithm Theory, (2018), Seite 29:1-29:9

http://dx.doi.org/10.4230/LIPIcs.SWAT.2018.29
Walzer, Stefan;
Load thresholds for cuckoo hashing with overlapping blocks. - In: 45th International Colloquium on Automata, Languages, and Programming, (2018), Seite 102:1-102:10

http://dx.doi.org/10.4230/LIPIcs.ICALP.2018.102
Dietzfelbinger, Martin; Schlag, Philipp; Walzer, Stefan
A subquadratic algorithm for 3XOR. - In: 43rd International Symposium on Mathematical Foundations of Computer Science, (2018), Seite 59:1-59:15

https://doi.org/10.4230/LIPIcs.MFCS.2018.59
Dietzfelbinger, Martin;
Universal hashing via integer arithmetic without primes, revisited. - In: Adventures Between Lower Bounds and Higher Altitudes, (2018), S. 257-279

https://doi.org/10.1007/978-3-319-98355-4_15
Le Van, Khanh;
Vergleich zweier Algorithmen für perfektes Hashing. - Ilmenau. - 61 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

In dieser Arbeit werden wir uns mit HDC- und FHCD-Algorithmen beschäftigen, welche für eine gegebene Schlüsselmenge eine Datenstruktur konstruiert, die für diese Schlüsselmenge eine perfekte Hashfunktion darstellt. Dabei interessieren wir uns für drei Parameter, die entscheidend für die Performanz sind: die Konstruktionszeit, die Darstellungsgröße und die Auswertungszeit. Beide Algorithmen weisen starke Ähnlichkeiten auf und sollen laut Autoren höchstens lineare Zeit für die Konstruktion benötigen. Jedoch konnten wir dies nur bei HDC nachweisen. Die lineare Platzkomplexität konnte bei beiden festgestellt werden.



Xia, Qi;
Schnelle Konstruktion von Wörterbüchern und Retrieval-Datenstrukturen. - Ilmenau. - 63 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Diese Arbeit besteht grundsätzlich aus zwei Teilen. Der erste Teil ist beschäftigt mit der Datenstruktur Wörterbuch und ihren Konstruktionsverfahren. Um ein Wörterbuch mit sowohl einer konstanten Zugriffszeit als auch einer hohen Speicherauslastung zu konstruieren, wird Cuckoo-Hashing als eine effiziente Technik zur Erstellung von Hashtabellen verwendet. In der Arbeit werden zwei Verallgemeinerungsschemata des Cuckoo-Hashings betrachtet. Dabei werden verschiedene Zuordnungsalgorithmen systematisch beschrieben und analysiert. Im zweiten Teil der Arbeit werden Retrieval-Datenstrukturen behandelt. Zur effizienteren Konstruktion von Retrieval-Datenstrukturen in Bezug auf den verwendeten Speicherplatz werden Lazy-Gauss-Elimination (LGE) und Broadword-Programmierung eingesetzt. Damit kann ein großes lineares Gleichungssystem schneller gelöst werden. Zum Ende des zweiten Teils werden zusätzlich konkrete Implementierungen sowie experimentelle Ergebnisse des LGE und der Broadword-Programmierung präsentiert.