03.11.2025

Neue Veröffentlichung in Communication Methods and Measures

Eine Gruppe von Forscher:innen des Fachgebiets CCS, Anke Stoll (jetzt Universität Amsterdam), Jingyuan Yu, Aliya Andrich und Emese Domahidi, haben in der Fachzeitschrift Communication Methods and Measures einen neuen Open-Access-Artikel mit dem Titel „Classification bias of LLMs in detecting incivility towards female and male politicians in German social media discourse” veröffentlicht.

Das CCS-Team untersuchte, wie die Modelle BERT, GPT-4 und Llama 3 von Meta verschiedene Arten von unhöflicher Sprache gegenüber Politiker:innen auf YouTube und X (ehemals Twitter) identifizieren. Bei der Analyse von über 24.000 Nutzerkommentaren stellten die Forscher:innen fest, dass die Modelle offene Beleidigungen und Vulgaritäten zwar effektiv erkennen, aber oft subtilere Formen der Feindseligkeit wie Stereotypisierung und Diskriminierung übersehen, insbesondere gegenüber Politikerinnen. Dieser Mangel gibt Anlass zur Sorge, dass die derzeitigen KI-Moderationssysteme bestimmte Zielgruppen möglicherweise ungleich schützen und schädliche, aber implizite Unhöflichkeiten übersehen. Die Studie fordert daher transparentere, fairere und demokratischere KI-Tools, die das gesamte Spektrum des Online-Missbrauchs besser erkennen können.

Dieser Artikel gehört zur von Dr. Valerie Hase, Prof. Dr. Marko Bachl und Prof. Dr. Nathan TeBlunthuis herausgegebenen Sonderausgabe „Understanding and Addressing Bias in Computational Social Science”. Das CCS-Team bedankt sich herzlich bei den Herausgebern für ihre wertvolle Unterstützung und Begleitung während des gesamten Forschungs- und Publikationsprozesses.

Weitere Informationen zur Studie: https://doi.org/10.1080/19312458.2025.2551693