Immer mehr Frauen und Mädchen werden Opfer von Deepfake-Pornos, die mit KI erstellt werden. Betroffene erleben massive psychische Belastungen, besonders da 90 % der Fälle Frauen betreffen. Täter nutzen leicht zugängliche Apps, um Gesichter auf pornografische Inhalte zu montieren. In Deutschland ist die Rechtslage lückenhaft: Zwar können Beleidigung oder Verletzung des Bildrechts gelten, doch spezifische Straftatbestände fehlen. Betroffene können Inhalte melden oder Anzeige erstatten, doch oft bleiben Täter anonym. Die Politik plant bisher keine neuen Gesetze, während Länder wie Großbritannien und Tschechien schärfere Regeln einführen. Experten fordern bessere Plattform-Kontrolle, Aufklärung und Hilfsangebote. Öffentlicher Druck soll rechtliche Änderungen beschleun