DE | FR
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.

Der gefälschte Tom Cruise: Darum sollten uns Deepfakes beunruhigen

Immer leichter zu fälschen, immer öfters anzutreffen: Deepfakes verbreiten sich im Internet. Weshalb das für uns gefährlich ist, in drei Punkten erklärt.



Er sieht aus wie Tom Cruise, doch ist er es nicht: Ein Video auf Twitter zeigt einen Mann mit dem Gesicht des US-Schauspielers, der hinfällt und über Gorbatschow spricht. Das Video ist ein sogenannter Deepfake, ein mit künstlicher Intelligenz (KI) hergestelltes Video und geht gerade viral.

Was geschieht, wenn wir unseren eigenen Augen und Ohren nicht länger vertrauen können?

Bislang galten Videos und Audioaufnahmen als Beweise für die Realität: Das, was wir mit eigenen Augen sehen, muss aber nicht länger der Wahrheit entsprechen. Deepfakes sehen aus wie realistische Aufnahmen: Mit einfachster Software können auch Laien Gesichter vertauschen und Personen täuschend echt sprechen und handeln lassen.

Welch schwerwiegende Auswirkungen Deepfakes in Zeiten von Wahlmanipulation und Hetze im Internet haben können, ist bisher nur zu erahnen.

Gefälschte Pornografie

Es ist so verstörend, wie wenig überraschend: Gemäss dem niederländischen Unternehmen Deeptrace handelt es sich bei 96 Prozent aller Deepfake-Videos um pornografische Inhalte. Dabei werden in den allermeisten Fällen bekannte Frauen aus dem Film- und Musikgeschäft in bereits vorhandene Sexvideos eingesetzt.

Doch nicht nur Personen des öffentlichen Lebens sind von solchen Übergriffen betroffen, es kann auch Privatpersonen treffen, wie das Beispiel von Noelle Martin verdeutlicht: Die damals 17-jährige Australierin wurde Opfer eines Deepfakes, als ihr Gesicht in pornographische Bildern montiert wurde.

Die heutige Aktivistin kämpfte in ihrem Land für eine Verschärfung der Gesetzeslage – und gewann. Seit dem Jahr 2018 können Deepfakes in Australien mit einer mehrjährigen Haftstrafe geahndet werden.

Politischer Hexenkessel

Das Missbrauchspotential ist riesig, der Name (Fake) Programm. Die Sozialen Medien sind bekannt für die rasend schnelle Verbreitung von Nachrichten, die nur in seltenen Fällen auf die Wahrheit ihres Inhaltes hin geprüft werden.

Gerade im Bereich der Politik können solche Deepfake-Videos zur Meinungsmache missbraucht werden, in dem Politiker oder Politikerinnen instrumentalisiert werden: Eine Angela Merkel oder ein Joe Biden beispielsweise, die in Videos von Dingen sprechen, die sie so nie gesagt haben. Die Imitationen bergen enormes Spaltungs- und Konfliktpotential. Der Fantasie sind keine Grenzen gesetzt; auch der hasserfüllten nicht.

Die grossen Plattformen wie Twitter, Facebook oder Youtube kennen das Problem und haben den Deepfakes mit Löschaktionen den Kampf angesagt. Besonders die Rolle der genannten Online-Dienste in Zeiten der Pandemie (Coronavirus) oder Wahlen (Sturm auf das Kapitol) hebt hervor, welch fatale Wirkung gezielt verstreute Falschmeldungen haben können.

Ein Beispiel:

abspielen

Video von Channel 4. Video: YouTube/Channel 4

Der falsche Umkehrschluss

Nun stehen wir aber vor dem Problem, dass Deepfakes auch andersrum gut funktionieren: Ein Schuldiger, der beispielsweise seine Tat auf Video gesteht oder eine Straftat vor laufender Kamera begeht (Straches Ibiza-Skandal lässt grüssen), kann diesen Beweis nun als Fälschung abtun.

So geschehen ist dies beispielsweise auch bei Ex-Präsident Donald Trump. Dieser hat nach der Publizierung einer Tonaufnahme, in der er sich abfällig gegenüber Frauen geäussert hatte («grab 'em by the pussy») zuerst entschuldigt, um kurz darauf zu behaupten, die Aufnahme sei nicht echt.

KI versus KI:

Forschende entwickeln Deepfake-Erkennungssysteme, indem sie KI mit KI bekämpfen: Diese Systeme erkennen, was für das menschliche Auge unsichtbar ist. Beispielsweise werden vermehrt Programme eingesetzt, die gefälschte Videos anhand eines unnatürlichen Blinzelrythmus' erkennen sollen. Das Problem: Die Deepfake-Sofwares lernen ebenfalls und können teilweise bereits einen realistischen Blinzel-Effekt erzielen. Ein technischer Wettlauf hat begonnen.

Alles in allem sind Deepfakes nur wenig positive Seiten abzugewinnen – von ein paar wenigen, satirischen Ausnahmen vielleicht einmal abgesehen.

Was denkst du über das Thema Deepfake? Schreib es in die Kommentare!

DANKE FÜR DIE ♥
Würdest du gerne watson und Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet um die Zahlung abzuschliessen)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.

Digitale Animationstechnik macht riesen Fortschritte

Das könnte dich auch noch interessieren:

Abonniere unseren Newsletter

Interview

«Über Social Media tragen Rechtsextreme ihre Ideologien in die Mitte der Gesellschaft»

Andre Wolf ist Faktenchecker bei der österreichischen Rechercheplattform Mimikama. In seinem Buch «Angriff auf die Demokratie» schreibt er über die Gefahren rechtsextremer Netzwerke, die das Internet unterwandern.

Herr Wolf, in Ihrem Buch schreiben Sie, dass seit Beginn der Pandemie intensiver Fake News verbreitet werden und der Hass im Netz zugenommen haben. Warum?Andre Wolf: Dieses Phänomen kann man immer dann beobachten, wenn etwas passiert, das viele Menschen betrifft und das Thema stark medial aufgegriffen wird. Im Fahrwasser der Berichterstattung tauchen dann viele Falschmeldungen auf. Das passierte schon 2015 bei der Flüchtlingskrise. Oder immer, wenn es islamistisch-motivierte Terroranschläge …

Artikel lesen
Link zum Artikel