Eine Bildbearbeitungsstation mit Video-Timeline (Foto: picture alliance / Zoonar | Patrick Daxenbichler)

Warum Deepfakes erkannt werden müssen

Roswitha Böhm   22.04.2021 | 08:49 Uhr

Täuschend echte Videos, die aber gefälscht sind - so genannte Deepfakes - sind eine echte Bedrohung, glaubt Prof. Mario Fritz vom CISPA. Er forscht zu den manipulierten Videos und weiß, wie man sie erkennt und wie wir uns davor schützen könnten.

Dass Fotos bearbeitet oder verfälscht sein können, ist spätestens seit dem Siegeszug des Bildbearbeitungsprogrammes Photoshop bekannt. Videos dagegen gelten in der Regel als authentisch. Auch, weil sie deutlich schwieriger zu manipulieren sind. Doch in den vergangenen Jahren tauchen im Netz auch immer mehr täuschend echte, aber gefälschte Videos auf, sogenannte Deepfakes.

Was sind Deepfakes?

Deepfakes sind realistisch wirkende Medieninhalte, meist Videos, die mit Hilfe von künstlicher Intelligenz manipuliert wurden. Die Menschen auf den Videoaufnahmen befinden sich an Orten, an denen sie nie gewesen sind, tun Dinge, die sie nie gemacht haben, sagen Sachen, die sie nie gesagt haben. Die häufigste Variante ist dabei ein sogenannter „Face Swap“, es wird also das Gesicht einer Person im Video mit dem einer anderen Person ersetzt.

SAARTHEMA extra: Cybermobbing – Rufmord auf Bestellung
Video [SR Fernsehen, (c) SR, 22.04.2021, Länge: 43:51 Min.]
SAARTHEMA extra: Cybermobbing – Rufmord auf Bestellung

„Deepfakes haben einen sehr hohen Grad an Realität erreicht“, sagt Prof. Mario Fritz vom Helmholtz-Zentrum für Informationssicherheit Saarbrücken. Er ist Experte in Sachen Deepfake und geht davon aus, dass das Thema wohl noch weiter an Brisanz gewinnen wird. Denn die Manipulation basiere auf aktuellen Techniken der künstlichen Intelligenz, einer Technologie, die sich rasant weiterentwickle.

Warum Deepfakes problematisch sind

Cybermobbing: Über ein Geschäftsmodell und die Opfer
Audio [SR 3, Roswitha Böhm, 22.04.2021, Länge: 02:33 Min.]
Cybermobbing: Über ein Geschäftsmodell und die Opfer

Programme, mit denen man Deepfakes erstellen kann, sind im Internet frei verfügbar. Um das Gesicht einer Person in ein Video hinein zu retuschieren, braucht man von ihr nur ca. eine Minute Videomaterial oder 100 bis 200 Fotos. Das fanden Journalisten vom „Y-Kollektiv“ heraus. Die Fotos sind in Zeiten von Social Media leicht zu bekommen, betont Fritz: „Wer von uns hat eben keine 100 bis 1000 Bilder, die vielleicht öffentlich erreichbar sind? Die man dann auch verwenden könnte mit krimineller Energie?“

„Eine Problematik ist sicherlich, dass das Ganze einen hohen Grad der Automatisierung hat und deswegen auch von einem größeren Personenkreis ausgeführt werden kann,“ sagt Fritz. Man muss also kein KI-Experte sein, um ein Deepfake zu erstellen. Das Berechnen und Einfügen übernimmt das Programm ganz automatisch. Die Technologie wird häufig dazu genutzt, andere zu verleumden oder zu diskreditieren. Und das kann für die Betroffenen verheerende Folgen haben.

KI mit KI bekämpfen

Ein erster Schritt, um Deepfakes zu bekämpfen, ist es, sie als das zu entlarven, was sie sind: Fälschungen. „Hier werden typischerweise auch künstliche Intelligenzen eingesetzt“, erklärt Fritz. Also Algorithmen, die die Fakes automatisch erkennen können. Weil sich die Technologie hinter den Deepfakes aber immer weiterentwickele, müssten diese Algorithmen immer neu trainiert werden. „Es ist immer eine Art Katz und Maus Spiel, weil immer wieder eine neue Generation herauskommt.“

Auf lange Sicht muss laut Fritz das Ziel sein, nicht nur auf die Deepfake-KI zu reagieren, sondern sie aktiv mithilfe von Technologie zu bekämpfen. Zum Beispiel durch Wasserzeichen, sagt Fritz. Das sei aber noch im Werden begriffen.

Technologie nur ein Teil der Lösung

Fritz versteht Deepfakes als „reelle Bedrohung“, der wir uns stellen müssen. Technologie, die Fakes enttarnen kann, könne nur ein Teil der Lösung sein. Es müsse auch ein Bewusstsein dafür geschaffen werden, dass solch Fälschungen heute möglich seien. Als Tipp, wie man selbst feststellen kann, dass ein Video manipuliert wurde, rät er zu einer gewissen Skepsis:  „Man kann sicherlich gucken, in welchem Kontext sowas auftaucht oder was die Absicht dahinter ist. Das kann gewisse Hinweise geben.“

Über dieses Thema berichtet auch das "SAARTHEMA extra" im SR Fernsehen am 22.04.2021.

Artikel mit anderen teilen


Push-Nachrichten von SR.de
Benachrichtungen können jederzeit in den Browser Einstellungen deaktiviert werden.

Datenschutz Nein Ja