© shutterstock

Was sind eigentlich Deep Fakes?

An die Manipulation von Fotografien haben wir uns längst gewöhnt. Neu werden mit Hilfe von künstlicher Intelligenz und Bildmaterial Video-Fälschungen hergestellt, sogenannte Deep Fakes.

Mitte März, wenige Wochen nach dem Angriff Russlands auf die Ukraine, erklärte der ukrainische Präsident Wolodimir Selenski in einem Video, das über soziale Netzwerke und die Website des Nachrichtensenders Ukraine 24 verbreitet wurde, dass es kein Morgen mehr geben werde. Er bat die Bevölkerung, die Waffen niederzulegen und nach Hause zu den Familien zu gehen.

Was auf den ersten Blick täuschend echt aussah, entpuppte sich bei genauerer Betrachtung als sogenannter Deep Fake, eine Fälschung, die auf der «deep learning»-Technologie basiert, einer be- sonderen Form von künstlicher Intelligenz oder des Maschinenlernens.

Dass Fotografien verändert und manipuliert werden, das ist seit Jahrzehnten gang und gäbe. An diese Form der Verfälschung haben wir uns über die Zeit gewöhnt und begegnen manchen Bildern mit entsprechender Skepsis. Es gibt auch diverse historische Beispiele dafür, wie politische Gegner oder andere in Ungnade gefallene Personen aus Fotografien retouchiert werden, um den Verlauf der Geschichte zu klittern.

Ganz anders sieht die Situation bei Film- und Videobeiträgen aus. Zwar haben wir uns an die eindrücklichen Produkte aus den Illusionsfabriken der Filmwelt gewöhnt und können mit den ausserirdischen Invasoren und von den Toten erweckten Schauspielerinnen gut umgehen. Was aber, wenn diese Spezialeffekte im Alltag erscheinen? Wenn sie nicht Menschen fliegen lassen, sondern ihnen ganz einfach Worte in den Mund legen, die sie nie gesagt haben, oder sie in peinlichen Situationen zeigen wie z. B. in Pornofilmen?

Beim Film war der Aufwand bis vor kurzem unverhältnismässig. Doch dank Fortschritten in der Digitalisierung und im Bereich der künstlichen Intelligenz können nun mit teils online zur Verfügung stehenden Mitteln Videosequenzen mit fremden Personen erstellt werden. Dazu wird ein Porträtbild des «Opfers» oder noch besser ein Video benötigt sowie eine Videosequenz einer beliebigen Person, die eine Bewegungsvorlage liefert. Mit Hilfe von «deep learning»-Software, einer Form von künstlicher Intelligenz, wird dann das «fremde» Gesicht in die ausgewählte Videoszene transplantiert. Früher brauchte es noch einen Imitator oder eine Imitatorin, um die gewünschte Stimme zu generieren, heute hilft ein Computerprogramm.

Einfach ist es zum Glück nach wie vor nicht. Denn unsauber erstellte Deep Fakes lassen die Sprechenden roboterartig erscheinen wie beim Selenski-Video. Wir haben über Jahrtausende gelernt, kleinste Veränderungen in der Mimik und der Körperhaltung des Gegenübers zu erkennen und zu interpretieren. Diese Fähigkeiten erlauben uns, festzustellen, ob sich unsere Gesprächspartnerin oder unser Gesprächspartner langweilt oder gespannt zuhört.

Die ukrainische Bevölkerung reagierte zum Glück erstaunlich gelassen über den Deep Fake ihres Präsidenten. Sie krochen der perfiden Propaganda, die mutmasslich russischen Ursprungs war, nicht auf den Leim, sondern behielten einen kühlen Kopf und stellten sich wohl die richtigen Fragen: Warum erscheint dieses Video auf sozialen Netzwerken und nicht im öffentlichen Fernsehen oder auf den Websites internationaler Medien? Gibt es einen Zusammenhang zwischen dem Beitrag und dem Umstand, dass die Website des Nachrichtensenders Ukraine 24 zuvor nicht aufrufbar war? Bewegt sich Wolodimir Selenski natürlich oder scheinen Kopf und Körper wie voneinander abgekoppelt?

Wer das Gefühl hat, ein Deep-Fake-Video auf Youtube, Facebook oder Twitter entdeckt zu haben, kann dieses auf der Website deepware.ai überprüfen lassen. Dieses Angebot wird von der Cybersecurity-Firma Zemana betrieben, die Phishing-Angriffe und mit Hilfe von künstlicher Intelligenz manipulierte Telefonanrufe im Geschäftsumfeld bekämpft.

Beitrag vom 12.09.2022
Marc Bodmer

ist Jurist und Game-Consultant. Er beschäftigt sich seit über 25 Jahren mit digitalen Medien.
© Jessica Prinz

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht.