Nachfrage nach Deepfake-Pornos explodiert: Betroffene sind machtlos

Meinung Immer mehr kostengünstige KI-Apps machen es möglich, das Gesicht von Frauen in Pornofilmen beliebig zu ersetzen. Die fehlende Einwilligung der Opfer ist gewollt und nicht hinnehmbar
Exklusiv für Abonnent:innen
Jede Frau kann durch sexuelle Gewalt erniedrigt, entwürdigt und gedemütigt werden
Jede Frau kann durch sexuelle Gewalt erniedrigt, entwürdigt und gedemütigt werden

Foto: Imago/Panthermedia

In der Werbeanzeige sieht eine Frau in einem weißen Spitzenkleid mit anzüglicher Mimik in die Kamera und kniet dann nieder. Sie hat irgendwie etwas Seltsames an sich: ein Zittern an ihrer Schläfe, merkwürdig unbewegliche Lippen. Aber fände man das Video im Internet, würde man vielleicht nicht merken, dass es gefälscht ist. Man hätte einfach den Eindruck, die Anfangsbilder eines billigen Internetpornos vor sich zu haben.

Doch in der rechten oberen Ecke ist während der Videoschleife ein Standbild der Schauspielerin Emma Watson zu sehen, das sie als Teenager bei Werbeaufnahmen für die Harry-Potter-Filme zeigt. Ihr Gesicht ist es, das auf das der Pornodarstellerin montiert wurde. Plötzlich ist eine Frau in einem Porno zu sehen, die noch nie