“Deepfakes”: Firmen gehen gegen gefälschte Promi-Pornos vor


"Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht!", schreibt der "Berliner Kurier". "Algorithmus macht Katy Perry zum Pornostar wider Willen

", heißt es in der "Welt". Und die "FAZ" konstatiert: "Jetzt also 'Fake Porn'."

Schlagzeilen wie diese zeigen: Über mangelnde öffentliche Erregung kann sich der Reddit-Nutzer mit dem Pseudonym "deepfakes" nicht beschweren. Er hatte vergangenen Herbst mehrere Videos veröffentlicht, in denen er Pornodarstellerinnen digital die Gesichter von Hollywood-Stars wie Emma Watson, Gal Gadot und Scarlett Johansson aufsetzte. Er nutzte dazu eine als Face-Swap bezeichnete Technik, einen digitalen Gesichtstausch mithilfe künstlicher Intelligenz.

"Ich habe einfach einen cleveren Weg gefunden, einen Face-Swap einzusetzen", ließ sich "deepfakes" Anfang Dezember vom Tech-Magazin "Motherboard" zitieren, das als erstes prominent und kritisch über das Netzphänomen berichtet hatte.

Dann kam die App für Laien

Der Artikel hatte Folgen: Diverse Medien weltweit sprangen auf das Thema an und hievten damit auch das den Videos gewidmete Reddit-Unterforum r/deepfakes ein Stück weit aus der Nische.

Zum Jahresanfang 2018 präsentierte dort ein weiterer Reddit-Nutzer ein Programm namens "FakeApp". Mit dieser Software lassen sich die Gesichter in Pornoclips auch ohne viel technisches Vorwissen austauschen – eine gewisse Rechenleistung und genug passendes Bildmaterial vorausgesetzt. Das, was "deepfakes" machte, konnten plötzlich auch viele andere Nutzer.

Auch darüber berichtete "Motherboard", diesmal mit einem noch größeren Medienecho. Nach den Fake News wurde so auf einmal "Fake Porn" zum Aufreger. Was, wenn bald jeder das Gesichter von Promis oder Bekannten in Pornos einfügen kann? Lässt sich diese Entwicklung noch stoppen?

Reddit-Nutzer "deepfakes" hatte nach Erscheinen des ersten "Motherboard"-Textes selbst geschrieben, die Bedenken, die im Text geäußert werden, seien "real". Zu seinem Kommentar gehörte aber auch die Bemerkung, man ahne nicht, wie viele Kommentare und Nachrichten er in seinem Posteingang habe: "Zum Teil ist das reines Glück", schrieb "deepfakes". "Wuschige Männer sind simple Kreaturen."

Twitter und Pornhub wollen Fake-Pornos löschen

Tatsächlich dürfte die Berichterstattung rund um die Porno-Fakes deren Popularität nur befeuert haben – und so sind dieser Tage die Plattformen, auf denen die Videos geteilt werden, in den Fokus der Debatte geraten. Facebook und Instagram spielen hierbei allerdings keine Rolle, da sie ohnehin keine pornografischen Inhalte dulden.

Twitter jedoch kündigte diesen Dienstag auf eine "Motherboard"-Anfrage hin an, Accounts zu sperren, die Videos im Stil der "deepfakes"-Werke ins Netz stellen oder die sich der Verbreitung solches Clips verschreiben. Eine ähnliche Position vertritt seit kurzem auch Gfycat: Die Betreiber der Gif-Austauschplattform erklärten Ende Januar, "solche Inhalt" zu löschen. Zuvor hatte bereits die Chatplattform Discord einen Chatkanal rund um gefälschte Promi-Pornovideos vom Netz genommen.

Laut einer Stellungnahme will neuerdings auch die Porno-Plattform Pornhub Videos im "deepfakes"-Stil verschwinden lassen – was zunächst jedoch vor allem ein Lippenbekenntnis zu sein scheint: Mittwochmittag jedenfalls ließen sich auf der Plattform noch immer "deepfakes"-Videos abrufen.

Reddit schweigt

Die Haltung von Reddit bleibt dagegen bis heute unklar. Im Unterforum r/deepfakes werden fleißig immer neue Fake-Clips geteilt. Nutzer geben sich dort Tipps, wie sich die Videos optimieren lassen.

Auf Anfragen zum Thema, etwa von "Motherboard" und "Mashable", hat Reddit bislang nicht reagiert, obwohl es in seinen Richtlinien heißt: "Reddit verbietet die Veröffentlichung von Fotos, Videos oder digitalen Bildern von Personen, die sich in einem Zustand der Nacktheit befinden oder an sexuellen Handlungen beteiligt sind, die ohne deren Erlaubnis aufgenommen oder veröffentlicht wurden."

Dass sich Reddit bislang nicht öffentlich von den Promi-Pornos distanziert oder das entsprechende Forum gelöscht hat, überrascht auch, weil vermeintliche Sex-Aufnahmen von Stars schon einigen Digitalfirmen Ärger einbrachten. Anfang der 2000er-Jahre etwa setze sich Steffi Graf vor Gericht gegen Microsoft durch, nachdem auf "MSN" gefälschte Fotos der Tennis-Spielerin aufgetaucht waren.

Ein großes Thema

Wann und wie auch immer sich Reddit letztlich positioniert, absehbar ist, dass sich die "deepfakes"-Debatte nicht allein durch angepasste Löschregeln einzelner Plattformen lösen lässt. Schon die moralische Frage, ob es verwerflich ist, echte Personen virtuell zum Sexobjekt zu machen, beschäftigt angesichts etwa von Sex-Apps für Virtual-Reality-Brillen, längst nicht mehr nur Philosophen, sondern auch Software-Entwickler und Computernutzer.

Auch die Technik hinter den Fake-Videos wird nicht wieder verschwinden, dafür ist das Interesse daran zu groß, auch jenseits der Pornoszene: Die Chance, ohne Vorkenntnisse Videos manipulieren zu können, dürfte zum Beispiel auch die Verbreiter politischer Falschnachrichten ansprechen. In Zeiten, in denen immer mehr Bilder und Videos von Personen im Netz landen, lässt sich das dafür notwendige Ausgangsmaterial leichter finden als früher.

Es kommt auf den Kontext an

Für viele Menschen gehört Software, wie sie in der "FakeApp" zum Einsatz kommt, sogar bereits zum Alltag. Face-Swapping, das Tauschen von Gesichtern, gehört schließlich zu den beliebtesten Funktionen von Video-Chat-Apps wie Snapchat.

Bei der Frage, ob Menschen eine Technologie praktisch, lustig oder schlimm finden, kommt es eben auch immer auf den Kontext an. Auf der "Stern"-Website etwa ist angesichts der "deepfakes"-Videos von einer "erschreckenden Technik" die Rede. Vor gut einem Jahr hieß es dort aber zur Handy-App "Face Swap Live": "Die kreativen Möglichkeiten sind schier unendlich – und die Ergebnisse wirklich komisch."

Und selbst für ein Programm wie "FakeApp" gibt es weniger kontroverse Anwendungen als Porno-Fälschungen: So veröffentlichte der belgische Computerexperte Sven Charleer vor einigen Tagen einen Blogpost, der seine Frau als Gast in Jimmy Fallons "Tonight Show" zeigte. Charleer hatte dafür das Gesicht der Schauspielerin Anne Hathaway durch das seiner Frau ersetzt. Überschrieben hatte er seinen Artikel mit "Familien-Spaß mit Deepfakes".