Digital
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Bild

screenshot: motherboard

Die DeepNude-App zieht Frauen aus – ohne Einwilligung der Betroffenen



«Diese schreckliche App zieht das Foto einer beliebigen Frau mit einem einzigen Klick aus.»

Titel des Online-Mediums Motherboard

Was ist DeepNude?

Ein Programmierer hat eine App entwickelt, mit der sich Fotos von Frauen in Nacktbilder umwandeln lassen.

Dabei handelt es sich selbstverständlich um Fälschungen. Aber um gut gemachte, die je nach Vorlage täuschend realistisch aussehen können.

Möglich ist dies dank raffinierter Algorithmen, die bei der automatischen Bildbearbeitung zum Einsatz kommen. Ein sogenanntes neuronales Netzwerk wurde darauf trainiert, Aufnahmen von bekleideten weiblichen Körpern so zu manipulieren, dass realistisch wirkende Nacktbilder entstehen.

Wer steckt dahinter?

Ein Programmierer aus Estland.

Das Online-Medium Motherboard berichtete am 26. Juni über DeepNude, nachdem der Programmierer begonnen hatte, die Software für 50 Dollar zu verkaufen.

Bild

screenshot: motherboard.com

Am darauffolgenden Tag nahm der Programmierer, der unter dem Pseudonym Alberto auftritt, die Website offline. Angeblich wegen des unerwartet grossen Ansturms und wegen potenzieller Gefahren.

Via E-Mail liess der DeepNude-Programmierer verlauten, er habe moralische und ethische Bedenken. Da er nicht für eine solche Technologie verantwortlich sein wolle, habe er entschieden, die Arbeit daran einzustellen.

Die Website www.deepnude.com verweist lediglich auf ein gleichnamiges Twitter-Profil. Dort schreibt der mutmassliche Entwickler, trotz der Sicherheitsmassnahmen (digitales Wasserzeichen etc.) sei das Missbrauchspotenzial zu gross. Er habe darum das Projekt gestoppt. Und:

«Die Welt ist noch nicht bereit für DeepNude.»

Unbekannter Entwickler

Was ist das Problem?

Die Software ist bereits im Umlauf und wird im Internet weiterverbreitet.

Am Montagmorgen sperrte die Chat-Plattform Discord einen ersten Kanal, der eine Version von DeepNude verkaufte. Seither wurden zahlreiche Kanäle gesperrt, deren Adressen bei Reddit publiziert wurden und die zum Teil damit lockten, aus Privataufnahmen von Usern Nacktbilder zu erstellen.

Laut Discord verstösst DeepNude gegen die Community-Richtlinien der Plattform. Diese verbieten das Teilen oder Verlinken von Inhalten «mit der Absicht, eine andere Person zu beschämen oder zu erniedrigen», wie auch die Förderung sexuell eindeutiger Inhalte ohne Zustimmung der betroffenen Person.

Wie viele Kopien von der DeepNude-Software bereits in Umlauf sind, ist nicht bekannt. Ab dem 23. Juni konnte eine für Windows 10 und für Linux verfügbare Gratis-Version von der DeepNude-Website heruntergeladen werden.

Motherboard konnte das Programm laut eigenen Angaben auf einem Windows-Rechner testen. Es erforderte keine technischen Kenntnisse. In der kostenlosen Version der App seien die erstellten Nacktbilder teilweise mit einem grossen (digitalen) Wasserzeichen versehen gewesen.

Es wird bereits davor gewarnt, die DeepNude-Software von unbekannten Quellen herunterzuladen. Tatsächlich stösst man bei der Web-Suche auf zahlreiche Links, die angeblich eine entsprechende Android-App (APK) bieten. Dabei handle es sich um betrügerische Angebote, um Usern Geld aus der Tasche zu ziehen oder Malware zu verbreiten.

Was hat DeepNude mit DeepFake zu tun?

Als DeepFake werden täuschend echt wirkende Videos bezeichnet, bei denen das Gesicht einer Person durch das einer anderen Person ersetzt wird («Face Swap»). Die technische Vorgehensweise ist die gleiche. Das heisst, es wird künstliche Intelligenz missbräuchlich verwendet, um Fake-Videos ohne Einwilligung der Betroffenen zu erstellen.

Motherboard hatte Ende 2017 über das Phänomen berichtet und die Bezeichnung DeepFake bekannt gemacht.

Auch wenn sich der DeepNude-Erschaffer nur als «ein Programmierer mit einem Interesse am maschinellen Lernen» darstellt: Seine Arbeit könne das Leben unschuldiger Opfer zur Hölle machen, hält Motherboard fest. Dies habe die Verbreitung gefälschter Rachepornos gezeigt, die mit der DeepFake-Technologie erstellt wurden. Das Herumbasteln an Frauenkörpern sei ein schädliches, manchmal lebenzerstörendes Unterfangen für die Opfer solcher «Enthusiasten».

Macht man sich mit DeepNude strafbar?

Das Herunterladen, Installieren und Ausprobieren der App an sich ist nicht verboten. Der Programmierer hat seine Software auch nicht urheberrechtlich schützen lassen.

Die Verbreitung gefälschter Nacktaufnahmen ohne Zustimmung der betroffenen Person ist illegal, kann strafrechtlich verfolgt werden und zu einer Verurteilung führen.

Wer DeepNude-Aufnahmen weiterverbreitet, die von Dritten erstellt wurden, macht sich ebenfalls strafbar. Dies gilt auch für Bilder, die via WhatsApp verschickt werden.

Wie gut funktioniert das?

Motherboard hat die DeepNude-App (für Windows) getestet. Mit mehr als einem Dutzend Bilder von Frauen und Männern, in unterschiedlich bekleidetem Zustand – von vollständig angezogen bis zum «Schnurbikini» – und mit einer Vielzahl von Hauttönen. Die Ergebnisse variierten dramatisch.

Wenn man ein gut beleuchtetes, hochauflösendes Bild einer Frau im Bikini mit direktem Blick auf die Kamera verwende, seien die gefälschten Nacktbilder durchaus realistisch, hält Motherboard fest. Der Algorithmus fülle Details genau aus, wo vorher Kleidung war, oder die Position der Brüste unter der Kleidung, Brustwarzen und Schatten.

Die DeepNude-Software funktioniere alles andere als fehlerfrei. Bei den meisten Bildern, und insbesondere bei Bildern mit niedriger Auflösung, gebe es visuelle Artefakte. Und im Test scheiterte die Software komplett an Aufnahmen mit ungewöhnlicher Beleuchtung oder Kleidung. Dies scheine das verwendete neuronale Netzwerk massiv zu stören.

Folgt eine Version für Männer-Körper?

Durchaus möglich.

Der Algorithmus funktioniere nur mit Frauen, weil Bilder von nackten Frauen einfacher online zu finden seien, liess der anonyme Programmierer von DeepNude gegenüber Motherboard verlauten. Aber er hoffe, auch eine männliche Version zu erstellen, sagte er, bevor das Projekt grosse Wellen schlug. Ob er an diesem Plan festhält, ist nicht bekannt.

Laut seinen Angaben basiert die Software auf pix2pix, einem Open-Source-Algorithmus, der 2017 von Forschern der University of California in Berkeley entwickelt wurde.

DANKE FÜR DIE ♥

Da du bis hierhin gescrollt hast, gehen wir davon aus, dass dir unser journalistisches Angebot gefällt. Wie du vielleicht weisst, haben wir uns kürzlich entschieden, bei watson keine Login-Pflicht einzuführen. Auch Bezahlschranken wird es bei uns keine geben. Wir möchten möglichst keine Hürden für den Zugang zu watson schaffen, weil wir glauben, es sollten sich in einer Demokratie alle jederzeit und einfach mit Informationen versorgen können. Falls du uns dennoch mit einem kleinen Betrag unterstützen willst, dann tu das doch hier.

Würdest du gerne watson und Journalismus unterstützen?

(Du wirst zu stripe.com (umgeleitet um die Zahlung abzuschliessen)

Oder unterstütze uns mit deinem Wunschbetrag per Banküberweisung.

Nicht mehr anzeigen

Wurden diese Fotos manipuliert?

Diese Deepfakes musst du gesehen haben

Das könnte dich auch noch interessieren:

Abonniere unseren Newsletter

Anonymous schlägt zu und stiftet Chaos in Chat-Gruppe von Corona-Verschwörungstheoretikern

Letzte Woche hat das Hacker-Kollektiv Anonymous einen Webserver von Corona-Verschwörungstheoretiker Attila Hildmann gehackt und weitere Aktionen angedeutet. Nun ist es bereits passiert.In der Nacht auf Mittwoch flogen plötzlich knapp 2200 Aluhüte aus dem sogenannten «Demokratenchat», einer von Verschwörungstheoretikern genutzten Chat-Gruppe bei Telegram. Die Netzaktivisten erbeuteten zudem Text- und Sprachnachrichten aus dem internen Admin-Chat von Hildmann und seinen Unterstützern. Diese …

Artikel lesen
Link zum Artikel