Leben
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.

Stell dir vor, dein Sexvideo taucht im Internet auf – dabei hast du gar nie eines gedreht

Kennst du «Face Swap»? Diese App, die dein Gesicht auf den Kopf einer anderen Person pflanzt? Mit ähnlichen Technologien können nun Bilder aus Social Media in Pornos montiert werden. Was natürlich auch getan wird.



Stell dir vor, du bist ein Star. Ein Pornostar. Gewollt hast du das natürlich nicht. Aber dank modernster Computerprogramme könnte das schon bald Realität werden. Denn was mit Heimanwendungen für Fotos schon lange kein Problem mehr ist – nämlich Köpfe auf fremde Körper zu montieren – hält nun auch in der Videobearbeitung Einzug.

Dabei ist viel weniger erschreckend, dass dies immer perfekter gelingt, sondern viel mehr, wie verhältnismässig einfach es mittlerweile selbst für den Computerlaien ist. Auf Community-Plattformen wie «Reddit» oder «Discord» tauschen sich bereits zehntausende User über die Möglichkeit aus, Gesichter in Videos zu montieren. Und immer geht es dabei um Pornografie.

Daisy Ridley Fake App
https://motherboard.vice.com/en_us/article/bjye8a/reddit-fake-porn-app-daisy-ridley

Prominentes Opfer: Schauspielerin Daisy Ridleys Gesicht auf dem Körper einer Pornodarstellerin. Bild: motherboard

Der Antrieb ist dabei oft der gleiche: Eine Person nackt zu sehen, die der betreffende Nutzer sonst wohl nie unverhüllt zu Gesicht bekäme. Als wäre es das Normalste der Welt wird ganz unverhohlen darüber diskutiert, wie man Gesichter von Ex-Geliebten, Schulfreundinnen oder Nachbarinnen möglichst perfekt in einen Pornoclip integrieren kann.

«Bis jetzt funktioniert es nur mit einfachen Videos ohne grosse Kopfbewegungen wirklich gut. Ich habe ein ziemlich gutes Video hingekriegt, von einem Mädchen, mit welchem ich zur High School ging. Ich habe dazu nur etwa 380 Fotos benötigt, die ich alle von ihrem Insta- und Facebook-Account heruntergeladen habe.»

Ein User teilt auf «Discord» seine Erfahrungen.

Ein User wird zum Synonym für Fake-Pornos

Versuche, gefälschte Filmpornografie herzustellen, gibt es schon lange, doch erst seit kurzem nimmt das Dimensionen an, die schon bald ausser Kontrolle geraten werden. Angestossen hat dies ein User namens «deepfakes». Auf «Reddit» stellte er ein Video online, mit welchem er demonstrierte, wozu man mit geeigneten Computerprogrammen und genügend Bildmaterial fähig ist. 

Beim Video handelt es sich natürlich um einen Porno. Darin zu sehen ist Model und Schauspielerin Gal Gadot. Auch wenn solch ein Video durchaus echt sein könnte, hat Gadot nie darin mitgewirkt. Dies musste sie nicht einmal abstreiten, denn «deepfakes» erklärte stolz, dass dieses Video eine Fälschung sei, die er nur aus Bild- und Videomaterial der Schauspielerin zusammengebastelt hat.

Gal Gadot wurde das erste prominente Opfer von User «deepfakes».

Animiertes GIF GIF abspielen

Bild: motherboard via giphy

Wobei von Basteln hier eigentlich nicht mehr die Rede sein kann. Denn bei der Vorgehensweise kommt modernste Computer-Intelligenz zum Einsatz. «Deepfakes» gibt an, dass er sich für seine Fake-Videos die künstliche Intelligenz zunutze macht. Intelligente Computerprogramme, die ansonsten Namen wie Siri oder Alexia tragen und uns unseren Alltag erleichtern sollen, werden nun dazu missbraucht, einen digitalen Albtraum wahr werden zu lassen.

Bereits kurz nach seinem Outing gab es einen Subreddit namens «deepfakes», der nach zwei Monaten schon über 15'000 Abonnenten zählt. Das Interesse, selbst über die Hauptdarstellerin eines Pornos entscheiden zu können, ist gross. Inzwischen ist das Wort «deepfakes» zum Synonym für Pornovideos geworden, deren Darsteller mit anderen Personen ersetzt wurden.

Der Geltungsdrang unserer modernen Gesellschaft macht alles einfacher

Ein Computer-Genie braucht man dafür nicht zu sein. Um auch Laien die Möglichkeit zu geben, «deepfakes» von Menschen ihrer Wahl machen zu können, hat ein anonymer User extra ein Tool programmiert. «Fake App» nennt sich das Programm schlicht. Damit soll sich jeder seinen ganz persönlichen Pornofilm zusammenklicken können – theoretisch.

Im Moment scheitern viele Versuche noch an der simplen Tatsache, dass die künstliche Intelligenz noch zu wenig schlau ist, um Gesichter selbst zu verändern und beispielsweise Gesichtsausdrücke glaubhaft zu simulieren. Es braucht also eine Pornodarstellerin, welche dem Fälschungsopfer möglichst ähnlich sieht, sowie sehr viele Fotos, welche das Gesicht des Opfers aus den unterschiedlichsten Blickwinkeln zeigen. Im Idealfall hochauflösende Videos, mit einer Rundumansicht des Kopfes.

Das Programm sucht dann für jedes Einzelbild des Pornoclips nach einem passenden Bild des Opfers, das vom Ausdruck und Blickwinkel her passt, und kopiert es auf den Kopf der Pornodarstellerin. 

Fake App
https://imgur.com/GBhKB91

Interface der «Fake App». Bild: Imgur

Lange wird dies nicht ein Problem bleiben, denn dank modernster Smartphones landet immer mehr geeignetes Material auf Instagram und Co. 

«480 Pixel+ sollte gehen, aber ich hab bisher alles in HD gemacht. Glücklicherweise haben meine Instagram-Freunde sehr gute Kameras. LMAO.»

Ein User berät einen anderen über das benötigte Ausgangsmaterial

Gleichzeitig werden die Tools, die es ermöglichen, unsere Identität zu missbrauchen, immer vielfältiger. Eine einfache Erweiterung für Chrome erlaubt es beispielsweise mit nur einem Klick sämtliche Fotos eines öffentlichen Instagram-Profils herunterzuladen. Das Gleiche bei Facebook. Und Screenshots von Snapchat-Nachrichten zu machen, ohne dass die App den Sender darüber informiert, ist schon lange kein Problem mehr.

Wohin geht die Reise?

Wie es mit der Technologie weitergehen könnte, erklärt Peter Eckersley, Chief Computer Scientist bei der Electronic Frontier Foundation, gegenüber dem Onlinemagazin Motherboard:

«Ich denke, wir stehen an der Schwelle zu einer Zeit, in welcher diese Technologie sehr einfach zu bedienen und weit verbreitet sein wird. Du kannst schon heute «deepfake»-Videos machen, aber Leute werden erkennen, dass es eine Fälschung ist, wenn sie genau genug hinschauen. Einige der involvierten Technologien sind noch immer ziemlich kompliziert. In ein, zwei Jahren wird das wohl aber nicht mehr der Fall sein.»

Vermutlich wird es eher ein, denn zwei Jahre dauern, bis gefälschte Videos kaum mehr von echten zu unterscheiden sind. Bereits jetzt kursieren im Internet unzählige Videos und GIFs, welche teilweise verblüffende Resultate von «deepfake» zeigen.

Animiertes GIF GIF abspielen

Reddit-User «Unobtrusive Bot» benutzte Fake App, um das Gesicht von Jessica Alba auf den Körper von Pornodarstellerin Melanie Rios zu pflanzen. gif: motherboard via Giphy

Wie bei vielen neuen Technologien ist die Pornografie dabei nur der Nährboden, der ihr zum Durchbruch verhilft. Was sonst noch alles möglich ist, lässt sich bereits nach kurzem Nachdenken erahnen. Auf YouTube zeigt ein User in einem Video ein kurze Sequenz, in welcher er das Gesicht von Schauspieler Bruno Ganz, der in «Der Untergang» Adolf Hitler spielt, auf Argentiniens Präsident Mauricio Macri montiert hat.

Zwar ist deutlich erkennbar, dass es sich um eine Fälschung handelt, doch man stelle sich vor, wohin das führt, wenn in zwei Jahren jeder Laie mit einer einfachen App solche Reden faken könnte. Denn auch das Fälschen von Stimmen wird immer einfacher.

Dies dürfte sozialen Medien, Datenschützern und vor allem Gerichten bald sehr viel Kopfzerbrechen bereiten. Vor allem auch, da das Ganze auch in die andere Richtung funktioniert. Sprich: Leute stellen echte Videos online, vornehmlich von Politikern, und behaupten, es sei ein Fake.

Die Plattform Discord hat inzwischen Gruppen, welche sich mit «deepfake» beschäftigen gesperrt. Ein Tropfen auf den heissen Stein. Im besten Fall wird die Technologie in Zukunft nur von 14-jährigen Teenagern verwendet, um sich in ein Video ihres Idols zu montieren.

Wozu bewusste Fehlinformationen dienen – wir erklären es dir

Video: watson

Auch ein bisschen Fake: So heissen Promis in Wirklichkeit

Mehr zum Thema Leben gibt's hier:

Sag nicht, wir hätten dich nicht gewarnt: 7 Dokus zum 🐝-Sterben

präsentiert vonMarkenlogo
Link zum Artikel

Ich + Ich + Tattoo-Dirk à Paris

Link zum Artikel

«Avengers: Endgame» pulverisiert Kinorekord – und sorgt für Schlägerei

Link zum Artikel

«Ich liebe meine Freundin, aber ich liebe auch schöne Frauen…»

Link zum Artikel

RTS zeigt GoT zeitgleich am TV. Und wir fragen: Wann wollt ihr dazu was von uns lesen?

Link zum Artikel

Nach «Avengers: Endgame» – diese 7 kommenden Filme könnten auch die Milliarde knacken

Link zum Artikel

US-Komiker Noah spricht über seine (Schweizer-)Deutsch-Erfahrungen – und es ist grossartig

Link zum Artikel

«Game of Thrones»: Das war sie also, die grösste Schlacht der TV-Geschichte?!?!

Link zum Artikel

Die Boeing 737 ist derzeit nicht sehr beliebt – wie dieser Litauer jetzt auch weiss

Link zum Artikel

So heiss, stolz und glücklich feierten die «Game of Thrones»-Stars Premiere

Link zum Artikel

14 Comics, die das Leben als Mann perfekt auf den Punkt bringen

Link zum Artikel

Disney wird immer mächtiger – warum darunter vor allem Kinos und Zuschauer leiden

Link zum Artikel

Tantra-Tina, ihre Latexhandschuhe und mein Orgasmus

Link zum Artikel

Der neue Schweizer Streaming-Dienst «Filmingo» will das Anti-Netflix sein

Link zum Artikel

Die vegane Armee

Link zum Artikel

«Krebs macht einsam» – wie Ronja mit 27 Brustkrebs überlebte

Link zum Artikel

Regie-Legende Francis Ford Coppola: Neues Alter, neuer Film, neues «Apocalypse Now»

Link zum Artikel

Nacktbild von Sohn löst Shitstorm aus – Sängerin Pink rastet aus

Link zum Artikel

«Meine Ehefrau hat mich jahrelang mit ihrer Jugendliebe betrogen»

Link zum Artikel

Böööses Büsi! Stephen Kings «Pet Sematary» ist wieder da

Link zum Artikel

Mick Jagger braucht eine neue Herzklappe – und will bald wieder auf der Bühne stehen

Link zum Artikel

Schwangerschafts-Abbruch wegen Trisomie: «Die Entscheidung war furchtbar, aber klar»

Link zum Artikel

«Mimimi» – Wie schnell bist du empört?

Link zum Artikel

Coca Cola Life und 17 weitere Getränke, die (beinahe) aus der Schweiz verschwunden sind

Link zum Artikel

Dieses Model trägt als Erste einen Burkini auf der Titelseite der «Sports Illustrated»

Link zum Artikel

Ja, in der Schweiz gibt es Obdachlose – und so leben sie

Link zum Artikel

Ich machte bei GNTM mit – und so war's (empörend!)

Link zum Artikel

Sterben am Schluss alle? Das verraten uns die 3 neuen Teaser zu «Game of Thrones»

Link zum Artikel

Ihre Produkte haben die Welt erobert – trotzdem wurden diese 5 Erfinder nicht reich

Link zum Artikel

Die Jackson-Doku «Leaving Neverland» erhitzt die Gemüter – 6 Gründe, warum das so ist

Link zum Artikel

«Leaving Neverland»: Brisante Jackson-Doku kommt am Samstag im SRF

Link zum Artikel

10 lustige Antworten auf die dumme Frage: «Wann hast du entschieden, homosexuell zu sein?»

Link zum Artikel

Auf den Spuren meiner Urgrossmutter

Link zum Artikel

15 Styles, die Ende 90er und Anfang 2000er der Shit waren

präsentiert vonMarkenlogo
Link zum Artikel
Alle Artikel anzeigen
DANKE FÜR DIE ♥

Da du bis hierhin gescrollt hast, gehen wir davon aus, dass dir unser journalistisches Angebot gefällt. Wie du vielleicht weisst, haben wir uns kürzlich entschieden, bei watson keine Login-Pflicht einzuführen. Auch Bezahlschranken wird es bei uns keine geben. Wir möchten möglichst keine Hürden für den Zugang zu watson schaffen, weil wir glauben, es sollten sich in einer Demokratie alle jederzeit und einfach mit Informationen versorgen können. Falls du uns dennoch mit einem kleinen Betrag unterstützen willst, dann tu das doch hier.

Würdest du gerne watson und Journalismus unterstützen?

(Du wirst zu stripe.com (umgeleitet um die Zahlung abzuschliessen)

Oder unterstütze uns mit deinem Wunschbetrag per Banküberweisung.

Nicht mehr anzeigen

Das könnte dich auch noch interessieren:

Abonniere unseren Newsletter

Anonymous schlägt zu und stiftet Chaos in Chat-Gruppe von Corona-Verschwörungstheoretikern

Letzte Woche hat das Hacker-Kollektiv Anonymous einen Webserver von Corona-Verschwörungstheoretiker Attila Hildmann gehackt und weitere Aktionen angedeutet. Nun ist es bereits passiert.In der Nacht auf Mittwoch flogen plötzlich knapp 2200 Aluhüte aus dem sogenannten «Demokratenchat», einer von Verschwörungstheoretikern genutzten Chat-Gruppe bei Telegram. Die Netzaktivisten erbeuteten zudem Text- und Sprachnachrichten aus dem internen Admin-Chat von Hildmann und seinen Unterstützern. Diese …

Artikel lesen
Link zum Artikel