Nicht-konsensuelle Deepfake-Pornografie

Fachgebiet Medienpsychologie veröffentlicht in Sexuality & Culture
Springer Nature

Mit der Verbreitung generativer KI ist ein neues Phänomen entstanden: nicht-konsensuelle KI-Pornografie (Non-consensual Deepfake Pornography, NDP). Dabei handelt es sich um pornografische Bild- und Videoinhalte, in die mittels KI-Technologie das Abbild unbeteiligter Personen ohne deren Zustimmung eingefügt wird – eine Form bildbasierter sexueller Gewalt (Image-Based Sexual Abuse, IBSA).

Eine aktuelle Studie des Fachgebiets Medienpsychologie und Medienkonzeption der TU Ilmenau analysierte 134 Reddit-Diskussionen zum Thema. Dabei wurden Beiträge aus den Perspektiven von Täter:innen, Opfern und Beobachter:innen betrachtet. Die Ergebnisse zeigen: Den größten Anteil der Diskussionen initiierten Beobachter:innen (45,5%), gefolgt von Opfern (32,1%) und Täter:innen (22,4%). Opfer waren überwiegend Frauen (85,8%), Täter überwiegend Männer (81,3%), die häufig Personen aus ihrem näheren sozialen Umfeld viktimisierten.

Online-Communitys wie Reddit-Foren bieten einerseits Unterstützung und moralische Orientierung, tragen andererseits aber auch zur Verharmlosung des Phänomens bei. Wichtig sind daher mehrstufige Interventionen: von psychosozialer Unterstützung und rechtlichen Ressourcen über digitale Medienkompetenz bis hin zu öffentlicher Aufklärung über Konsens und technologiebezogene Gewalt.

 

  • Le, T. D. & Döring, N. (2026). Perspectives on Non-Consensual Deepfake Pornography: A Content Analysis of Reddit Discussions Initiated by Perpetrators, Victims, and Bystanders. Sexuality & Culturehttps://doi.org/10.1007/s12119-026-10566-x