Literaturliste aus der Hochschulbibliographie

Anzahl der Treffer: 146
Erstellt: Thu, 18 Apr 2024 23:03:23 +0200 in 0.0747 sec


Berkholz, Christoph; Kuske, Dietrich; Schwarz, Christian
Modal logic is more succinct iff bi-implication is available in some form. - In: 41st International Symposium on Theoretical Aspects of Computer Science, (2024), S. 12:1-12:17

Is it possible to write significantly smaller formulae, when using more Boolean operators in addition to the De Morgan basis (and, or, not)? For propositional logic a negative answer was given by Pratt: every formula with additional operators can be translated to the De Morgan basis with only polynomial increase in size. Surprisingly, for modal logic the picture is different: we show that adding bi-implication allows to write exponentially smaller formulae. Moreover, we provide a complete classification of finite sets of Boolean operators showing they are either of no help (allow polynomial translations to the De Morgan basis) or can express properties as succinct as modal logic with additional bi-implication. More precisely, these results are shown for the modal logic T (and therefore for K). We complement this result showing that the modal logic S5 behaves as propositional logic: no additional Boolean operators make it possible to write significantly smaller formulae.



https://doi.org/10.4230/LIPIcs.STACS.2024.12
Berkholz, Christoph; Mengel, Stefan; Wilhelm, Hermann
A characterization of efficiently compilable constraint languages. - In: 41st International Symposium on Theoretical Aspects of Computer Science, (2024), S. 11:1-11:19

A central task in knowledge compilation is to compile a CNF-SAT instance into a succinct representation format that allows efficient operations such as testing satisfiability, counting, or enumerating all solutions. Useful representation formats studied in this area range from ordered binary decision diagrams (OBDDs) to circuits in decomposable negation normal form (DNNFs). While it is known that there exist CNF formulas that require exponential size representations, the situation is less well studied for other types of constraints than Boolean disjunctive clauses. The constraint satisfaction problem (CSP) is a powerful framework that generalizes CNF-SAT by allowing arbitrary sets of constraints over any finite domain. The main goal of our work is to understand for which type of constraints (also called the constraint language) it is possible to efficiently compute representations of polynomial size. We answer this question completely and prove two tight characterizations of efficiently compilable constraint languages, depending on whether target format is structured. We first identify the combinatorial property of "strong blockwise decomposability" and show that if a constraint language has this property, we can compute DNNF representations of linear size. For all other constraint languages we construct families of CSP-instances that provably require DNNFs of exponential size. For a subclass of "strong uniformly blockwise decomposable" constraint languages we obtain a similar dichotomy for structured DNNFs. In fact, strong (uniform) blockwise decomposability even allows efficient compilation into multi-valued analogs of OBDDs and FBDDs, respectively. Thus, we get complete characterizations for all knowledge compilation classes between O(B)DDs and DNNFs.



https://doi.org/10.4230/LIPIcs.STACS.2024.11
Counting paths in graphs. - Ilmenau. - 35 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2023

Lovász erkannte als einer der ersten den engen Zusammenhang zwischen der Anzahl der Subgraphen #Sub(H, G) und der Anzahl der Homomorphismen #Hom(H, G). Radu Curticapean, Holger Dell und Dániel Marx formalisierten diese Erkenntnisse unter dem Namen der ‚Graph Motif Parameter‘. Des Weit- eren zeigten sie, dass #Sub(H, G) = ∑ ρ (−1)|V (H)|−|V (Hρ )| &hahog; ∏ B∈ρ(|B| − 1)! #Aut(H) &hahog; #Hom(Hρ, G) (1) gilt [?]. In dieser Arbeit analysieren wir das Zählen von Pfaden mittels graphHom2. Wir zeigen, dass es unter gewissen Annahmen keinen Algorithmus der Laufzeit f (k)&hahog;no(&worte;k/ log(&worte;k)) für das Zählen von k-Pfaden in einem Zielgraph auf n-Ecken gibt, sofern wir graphHom2 nutzen, wobei f eine berechenbare Funktion ist die nur von k abhängt. Außerdem beweisen wir, dass Pfade, unter allen zusammenhängenden Graphen, die Anzahl der zu betrachtenden Quotientengraphen Qρ maximieren. Zudem befassen wir uns mit dem Entscheidungsproblem, Pfade in Graphen aufzufinden, und zeigen eine hinreichende Existenzbedingung für Pk ⊆ G.



Berkholz, Christoph; Nordström, Jakob
Near-optimal lower bounds on quantifier depth and Weisfeiler-Leman refinement steps. - In: Journal of the ACM, ISSN 1557-735X, Bd. 70 (2023), 5, 32, S. 32:1-32:32

We prove near-optimal tradeoffs for quantifier depth (also called quantifier rank) versus number of variables in first-order logic by exhibiting pairs of n-element structures that can be distinguished by a k-variable first-order sentence but where every such sentence requires quantifier depth at least nΩ (k/log k). Our tradeoffs also apply to first-order counting logic and, by the known connection to the k-dimensional Weisfeiler-Leman algorithm, imply near-optimal lower bounds on the number of refinement iterations. A key component in our proof is the hardness condensation technique introduced by Razborov in the context of proof complexity. We apply this method to reduce the domain size of relational structures while maintaining the minimal quantifier depth needed to distinguish them in finite variable logics.



https://doi.org/10.1145/3195257
Berkholz, Christoph; Vinall-Smeeth, Harry
A dichotomy for succinct representations of homomorphisms. - In: 50th International Colloquium on Automata, Languages, and Programming, (2023), S. 113:1-113:19

The task of computing homomorphisms between two finite relational structures A and B is a well-studied question with numerous applications. Since the set Hom(A, B) of all homomorphisms may be very large having a method of representing it in a succinct way, especially one which enables us to perform efficient enumeration and counting, could be extremely useful. One simple yet powerful way of doing so is to decompose Hom(A, B) using union and Cartesian product. Such data structures, called d-representations, have been introduced by Olteanu and Závodný [Olteanu and Závodný, 2015] in the context of database theory. Their results also imply that if the treewidth of the left-hand side structure A is bounded, then a d-representation of polynomial size can be found in polynomial time. We show that for structures of bounded arity this is optimal: if the treewidth is unbounded then there are instances where the size of any d-representation is superpolynomial. Along the way we develop tools for proving lower bounds on the size of d-representations, in particular we define a notion of reduction suitable for this context and prove an almost tight lower bound on the size of d-representations of all k-cliques in a graph.



https://doi.org/10.4230/LIPIcs.ICALP.2023.113
Carmeli, Nofar; Zeevi, Shai; Berkholz, Christoph; Conte, Alessio; Kimelfeld, Benny; Schweikardt, Nicole
Answering (unions of) conjunctive queries using random access and random-order enumeration. - In: ACM transactions on database systems, ISSN 0362-5915, Bd. 47 (2022), 3, S. 9:1-9:49

As data analytics becomes more crucial to digital systems, so grows the importance of characterizing the database queries that admit a more efficient evaluation. We consider the tractability yardstick of answer enumeration with a polylogarithmic delay after a linear-time preprocessing phase. Such an evaluation is obtained by constructing, in the preprocessing phase, a data structure that supports polylogarithmic-delay enumeration. In this article, we seek a structure that supports the more demanding task of a “random permutation”: polylogarithmic-delay enumeration in truly random order. Enumeration of this kind is required if downstream applications assume that the intermediate results are representative of the whole result set in a statistically meaningful manner. An even more demanding task is that of “random access”: polylogarithmic-time retrieval of an answer whose position is given. We establish that the free-connex acyclic CQs are tractable in all three senses: enumeration, random-order enumeration, and random access; and in the absence of self-joins, it follows from past results that every other CQ is intractable by each of the three (under some fine-grained complexity assumptions). However, the three yardsticks are separated in the case of a union of CQs (UCQ): while a union of free-connex acyclic CQs has a tractable enumeration, it may (provably) admit no random access. We identify a fragment of such UCQs where we can guarantee random access with polylogarithmic access time (and linear-time preprocessing) and a more general fragment where we can guarantee tractable random permutation. For general unions of free-connex acyclic CQs, we devise two algorithms with relaxed guarantees: one has logarithmic delay in expectation, and the other provides a permutation that is almost uniformly distributed. Finally, we present an implementation and an empirical study that show a considerable practical superiority of our random-order enumeration approach over state-of-the-art alternatives.



https://doi.org/10.1145/3531055
Schneider, Ludwig;
Über praktisch schnelle Verfahren zur Konstruktion von Suffixarrays. - Ilmenau. - 145 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

Suffixarrays sind eine der zentralen Datenstrukturen für String-Algorithmen und finden weitreichende praktische Anwendungen. Die effiziente Konstruktion dieser ist seit der ersten Veröffentlichung in 1990 ein sehr reges Forschungsgebiet geblieben. Im Jahr 2006 wurde der Algorithmus DivSufSort veröffentlicht und obwohl seitdem eine Vielzahl weiterer Suffixarray-Konstruktions-Algorithmen entwickelt wurden, konnte dieser in seiner praktischen Performanz 15 Jahre lang nicht unterboten werden. Doch im Jahr 2021 wurde ein neuer Algorithmus GSACA-DS vorgestellt, welcher unter Verwendung von speziellen Eigenschaften von Lyndon-Wörtern DivSufSort endlich in der Praxis schlagen kann. Obwohl DivSufSort solch hohe praktische Relevanz hat, entzog sich dieser bisher einer rein formellen Darstellung. GSACA-DS besitzt einen formal komplexen Ansatz, weshalb die originale Arbeit keine vollständige Grundlage für dessen Funktionsweise darstellt. Im Rahmen dieser Arbeit sollen diese Lücken in der Literatur gefüllt werden, indem beide Verfahren inklusive ihrer theoretischen Grundlagen vorgestellt, analysiert und zum ersten Mal deren Korrektheit bewiesen werden.



Walzer, Stefan;
Peeling close to the orientability threshold - spatial coupling in hashing-based data structures. - In: Proceedings of the Thirty-Second Annual ACM-SIAM Symposium on Discrete Algorithms, (2021), S. 2194-2211

https://dl.acm.org/doi/10.5555/3458064.3458195
Gupta, Rachit;
Fairness in personnel scheduling. - Ilmenau. - 88 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Die Personaleinsatzplanung ist ein komplexes Optimierungsproblem, bei dem es um die Zuteilung von Mitarbeitern zum Arbeitsplan in einer Vielzahl von Branchen geht. In dieser Arbeit betrachten wir eine spezielle Variante, die "faire" Einsatzpläne erstellen soll. Der Arbeitgeber hat, ähnlich wie bei der traditionellen Personaleinsatzplanung, die Kontrolle über die Zuweisung von Einsatzorten und Arbeitszeiten an die Arbeitnehmer. Andererseits steht es den Arbeitnehmern frei, Präferenzen für die von ihnen gewünschte Arbeit zu äußern. Durch diese Präferenzen werden die Mitarbeiter in das Planungssystem einbezogen, was sich positiv auf die Arbeitsmoral und die Produktivität auswirken soll. Ziel ist es, ein faires Planungssystem zu schaffen, das den Anforderungen des Unternehmens gerecht wird und die Arbeitswünsche der Mitarbeiter berücksichtigt. In dem in dieser Arbeit vorgeschlagenen Modell geben die Unternehmen ihren Bedarf für jeden Tag an, und die Arbeitnehmer geben ihre Präferenzen an. Unser Algorithmus versucht, einen Plan zu erstellen, der sowohl für Arbeitgeber als auch für Arbeitnehmer eine Win-Win-Situation darstellt. Um dies zu erreichen, versuchen wir, einen Zeitplan zu erstellen, der den Anforderungen des Unternehmens und den Präferenzen der Arbeitnehmer so weit wie möglich gerecht wird. Wir haben den Algorithmus mit drei verschiedenen Ansätzen implementiert. Mit allen drei Ansätzen wurden verschiedene Computerexperimente durchgeführt, und ihre Ergebnisse werden diskutiert. Unser Ansatz erstellt erfolgreich einen kurz-, mittel- und langfristigen Zeitplan, der zu einem guten Prozentsatz die Präferenzen der Mitarbeiter erfüllt.



Hasenbein, René;
Analyse und experimentelle Evaluation moderner Heap-Strukturen. - Ilmenau. - 98 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

Diese Arbeit befasst sich mit einer seit 2015 existierenden Idee für die Implementierung von Prioritätswarteschlangen. Es handelt sich dabei um die von Thomas Dueholm Hansen, Haim Kaplan, Robert E. Tarjan und Uri Zwick vorgeschlagenen "Hollow Heaps". Von den klassischen Fibonacci-Heaps unterscheiden sie sich dadurch, dass sie auf die Cascading-Cut-Prozedur verzichten und stattdessen ein Konzept "leerer Knoten" einführen und teils sogar auf die für Heaps übliche Baumstruktur verzichten. Diese Arbeit stellt Fibonacci-Heaps und Hollow Heaps einheitlich und ausführlich dar und führt experimentelle Vergleiche. In dieser Arbeit wird gezeigt, dass die Wahl zwischen Fibonacci-Heaps und Hollow Heaps bis auf in wenigen Ausnahmen zugunsten der Hollow Heaps ausfallen sollte. Weiterhin sind in unseren Experimenten Binärheaps - als wahrscheinlich grundlegendste Heapstruktur - sogar schneller als ihre Konkurrenten.