Was sind Deepfakes?  So erkennen Sie gefälschte KI-Audios und -Videos

Nachricht

HeimHeim / Nachricht / Was sind Deepfakes? So erkennen Sie gefälschte KI-Audios und -Videos

Aug 31, 2023

Was sind Deepfakes? So erkennen Sie gefälschte KI-Audios und -Videos

Computer werden immer besser darin, die Realität zu simulieren. Durch künstliche Intelligenz (KI) generierte Medien sorgen für große Schlagzeilen – insbesondere Videos, die dazu dienen, jemanden nachzuahmen,

Computer werden immer besser darin, die Realität zu simulieren. Durch künstliche Intelligenz (KI) generierte Medien sorgen für große Schlagzeilen – insbesondere Videos, die eine Person nachahmen sollen, sodass der Eindruck entsteht, als würde sie etwas sagen oder tun, was sie nicht tut.

Ein Twitch-Streamer wurde auf einer Website erwischt, die dafür bekannt ist, dass sie von seinen Mitmenschen KI-generierte Pornografie erstellt. Eine Gruppe New Yorker Studenten hat ein Video gemacht, in dem ihr Schulleiter rassistische Bemerkungen macht und Schüler bedroht. In Venezuela werden generierte Videos zur Verbreitung politischer Propaganda genutzt.

In allen drei Fällen wurden KI-generierte Videos mit dem Ziel erstellt, Sie davon zu überzeugen, dass jemand etwas getan hat, was er eigentlich nie getan hat. Es gibt ein Wort für diese Art von Inhalten: Deepfakes.

Deepfakes nutzen KI, um völlig neues Video oder Audio zu generieren, mit dem Endziel, etwas darzustellen, das in der Realität nicht wirklich passiert ist.

Der Begriff „Deepfake“ leitet sich von der zugrunde liegenden Technologie ab – Deep-Learning-Algorithmen – die sich selbst beibringen, Probleme mit großen Datenmengen zu lösen, und mit denen gefälschte Inhalte von echten Menschen erstellt werden können.

„Ein Deepfake wäre Filmmaterial, das von einem Computer generiert wird, der anhand unzähliger vorhandener Bilder trainiert wurde“, sagte Cristina López, leitende Analystin bei Graphika, einem Unternehmen, das den Informationsfluss über digitale Netzwerke erforscht.

Deepfakes sind nicht einfach irgendwelche gefälschten oder irreführenden Bilder. Der von der KI generierte Papst in einer Daunenjacke oder die gefälschten Szenen der Verhaftung von Donald Trump, die kurz vor seiner Anklage kursierten, sind zwar von der KI generiert, aber es handelt sich nicht um Deepfakes. (Bilder wie diese werden in Kombination mit irreführenden Informationen allgemein als „Shallowfakes“ bezeichnet.) Was einen Deepfake auszeichnet, ist das Element des menschlichen Inputs.

Bei Deepfakes kann der Nutzer erst ganz am Ende des Generierungsprozesses entscheiden, ob das, was erstellt wurde, seinen Wünschen entspricht oder nicht; Abgesehen davon, dass sie Trainingsdaten anpassen und nachträglich „Ja“ oder „Nein“ zu dem sagen, was der Computer generiert, haben sie keinen Einfluss darauf, wie der Computer sie erstellt.

Notiz: Computergestützte Technologien wie Photoshop und CGI werden häufig zum Erstellen von Medien verwendet. Der Unterschied besteht jedoch darin, dass Menschen an jedem Schritt des Prozesses beteiligt sind, mit Ausnahme neuerer Entwicklungen wie dem generativen Firefly-Tool von Adobe. „Bei CGI gibt es viel KI-Unterstützung, aber am Ende des Tages gibt es einen Menschen mit einer menschlichen Sichtweise, der kontrolliert, wie das Ergebnis aussehen wird“, sagte López.

Es gibt verschiedene Methoden zum Erstellen von Deepfakes, die gebräuchlichste basiert jedoch auf der Verwendung tiefer neuronaler Netze, die eine Face-Swapping-Technik nutzen. Sie benötigen zunächst ein Zielvideo, das als Grundlage für den Deepfake dient, und dann eine Sammlung von Videoclips der Person, die Sie in das Ziel einfügen möchten.

Die Videos können völlig unabhängig sein; Das Ziel könnte beispielsweise ein Clip aus einem Hollywood-Film sein, und die Videos der Person, die Sie in den Film einfügen möchten, könnten zufällige Clips sein, die Sie von YouTube heruntergeladen haben.

Das Programm errät aus verschiedenen Blickwinkeln und unter verschiedenen Bedingungen, wie eine Person aussieht, und ordnet diese Person dann der anderen Person im Zielvideo zu, indem es gemeinsame Merkmale ermittelt.

Dem Mix kommt eine weitere Art des maschinellen Lernens hinzu, die sogenannten Generative Adversarial Networks (GANs), die alle Fehler im Deepfake innerhalb mehrerer Runden erkennt und verbessert, wodurch es für Deepfake-Detektoren schwieriger wird, sie zu entschlüsseln.

Obwohl der Prozess komplex ist, ist die Software recht zugänglich. Mehrere Apps erleichtern selbst Anfängern das Generieren von Deepfakes – etwa die chinesische App Zao, DeepFace Lab, FakeApp und Face Swap – und eine große Menge Deepfake-Software ist auf GitHub, einer Open-Source-Entwickler-Community, zu finden.

Deepfake-Technologie wurde in der Vergangenheit für illegale Zwecke eingesetzt, unter anderem zur Erzeugung nicht einvernehmlicher Pornografie. Das FBI veröffentlichte im Juni 2023 eine öffentliche Bekanntmachung, in der es die Öffentlichkeit vor den Gefahren generativer KI warnte und wie sie für die „explizite Erstellung von Inhalten“, „Sextortion“ und „Belästigung“ eingesetzt wird.

Im Jahr 2017 erstellte ein Reddit-Benutzer namens „deepfakes“ ein Forum für Pornos, in dem Schauspieler mit vertauschten Gesichtern vorgestellt wurden. Seitdem sind Pornos (insbesondere Rachepornos) immer wieder in die Schlagzeilen geraten und haben dem Ruf von Prominenten und prominenten Persönlichkeiten schweren Schaden zugefügt Laut einem Deeptrace-Bericht machte Pornografie 2019 96 % der im Internet gefundenen Deepfake-Videos aus.

Deepfakes wurden auch für nicht-sexuelle kriminelle Aktivitäten eingesetzt, darunter ein Fall im Jahr 2023, bei dem Deepfake-Technologie eingesetzt wurde, um die Stimme des Kindes einer Frau nachzuahmen, um sie zu bedrohen und zu erpressen.

Deepfake-Videos wurden auch in der Politik eingesetzt. Im Jahr 2018 veröffentlichte beispielsweise eine belgische politische Partei ein Video, in dem Donald Trump eine Rede hielt, in der er Belgien aufforderte, aus dem Pariser Klimaabkommen auszutreten. Diese Rede hielt Trump allerdings nie – es handelte sich um einen Deepfake. Das war nicht der erste Einsatz eines Deepfakes zur Erstellung irreführender Videos, und technisch versierte Politikexperten bereiten sich auf eine zukünftige Welle gefälschter Nachrichten vor, die überzeugend realistische Deepfakes enthalten.

Aber auch Journalisten, Menschenrechtsgruppen und Medientechnologen haben positive Einsatzmöglichkeiten für die Technologie gefunden. Beispielsweise nutzte die HBO-Dokumentation „Welcome to Chechnya“ aus dem Jahr 2020 Deepfake-Technologie, um die Identität russischer LGBTQ-Flüchtlinge, deren Leben in Gefahr waren, zu verbergen und gleichzeitig ihre Geschichten zu erzählen.

WITNESS, eine Organisation, die sich auf den Einsatz von Medien zur Verteidigung der Menschenrechte konzentriert, äußerte sich optimistisch hinsichtlich der Technologie, wenn sie auf diese Weise eingesetzt wird, erkennt aber auch digitale Bedrohungen an.

„Ein Teil unserer Arbeit besteht darin, den positiven Nutzen dieser Technologie zu erforschen, vom Schutz von Menschen wie Aktivisten auf Video über die Umsetzung von Interessenvertretungsansätzen bis hin zur Produktion politischer Satire“, sagte Shirin Anlen, Medientechnologin bei WITNESS.

Für Anlen und WITNESS ist die Technologie kein Grund zur Angst. Stattdessen sollte es als Werkzeug betrachtet werden. „Es baut auf einer langjährigen Beziehung auf, die wir mit audiovisuellen Medien hatten. Wir haben Audio bereits manipuliert. Wir haben visuelle Bilder bereits auf unterschiedliche Weise manipuliert“, sagte Anlen.

Experten wie Anlen und López glauben, dass die beste Herangehensweise der Öffentlichkeit an Deepfakes nicht darin besteht, in Panik zu geraten, sondern sich über die Technologie und ihre Möglichkeiten zu informieren.

Es gibt eine Handvoll Indikatoren, die auf Deepfakes schließen lassen:

Da sich die Technologie verbessert, werden die Diskrepanzen zwischen echten und gefälschten Inhalten wahrscheinlich immer schwieriger zu erkennen sein. Aus diesem Grund glauben Experten wie Anlen, dass die Last nicht auf Einzelpersonen liegen sollte, Deepfakes in freier Wildbahn zu entdecken.

„Die Verantwortung sollte bei den Entwicklern, den Werkzeugherstellern und den Technologieunternehmen liegen, unsichtbare Wasserzeichen zu entwickeln und die Quelle dieses Bildes anzugeben“, sagte Anlen. Und eine Reihe von Startup-Unternehmen entwickeln Methoden zur Erkennung von Deepfakes.

Sensity hat beispielsweise eine Erkennungsplattform entwickelt, die einem Antivirenprogramm für Deepfakes ähnelt und Benutzer per E-Mail benachrichtigt, wenn sie sich etwas ansehen, das verräterische Fingerabdrücke von KI-generierten Medien aufweist. Sensity verwendet dieselben Deep-Learning-Prozesse, die auch zur Erstellung gefälschter Videos verwendet werden.

Operation Minerva verfolgt einen einfacheren Ansatz zur Erkennung von Deepfakes. Der Algorithmus dieses Unternehmens vergleicht potenzielle Deepfakes mit bekannten Videos, die bereits mit einem „digitalen Fingerabdruck“ versehen wurden. Es kann beispielsweise Beispiele für Rachepornos erkennen, indem es erkennt, dass es sich bei dem Deepfake-Video lediglich um eine modifizierte Version eines vorhandenen Videos handelt, das Operation Minerva bereits katalogisiert hat.

Trotz dieser Fortschritte sagte Nasir Memon, Professor für Informatik und Ingenieurwesen an der NYU, dass es keine Bemühungen gegeben habe, Deepfakes in großem Maßstab zu bekämpfen, und dass keine Lösung, die es gibt, ein Allheilmittel sein werde, um schädliche Deepfakes zu stoppen Verbreitung.

„Ich denke, die Lösung basiert insgesamt nicht auf Technologie, sondern auf Bildung, Bewusstsein, den richtigen Geschäftsmodellen, Anreizen, Richtlinien und Gesetzen“, sagte Memon.

Notiz:Mehrere Staaten haben Gesetze verabschiedet oder versucht, diese zu verabschieden, die den Einsatz von Deepfakes in bestimmten Fällen, etwa für Pornografie oder Politik, verbieten, darunter Kalifornien, New York und Virginia.

Ein wachsendes Problem ist der Einsatz von Deepfakes in einer Live-Umgebung, um die eigene Identität in einem bestimmten Moment zu verschleiern, etwa bei einem Telefonanruf oder einem Zoom-Meeting. Laut Memon kann die Gefahr, dass jemand eine gefälschte Identität verwendet, in einer Vielzahl von Situationen entstehen, von Vorstellungsgesprächen über Fernprüfungen an Hochschulen bis hin zu Visumanträgen. Sogar Insider-Reporter mussten sich mit KI-generierten Betrügereien auseinandersetzen, die als Quellen missbraucht wurden.

„Das Problem bei der Erkennung besteht darin, dass die Last beim Verteidiger liegt“, sagte Memon. „Ich muss jedes einzelne Bild auf jede erdenkliche Weise analysieren. Aber im Sicherheitsbereich möchte man es umgekehrt machen.“ Im Idealfall würde eine Technologie entwickelt, um auch diese Art von Live-Deepfakes zu erkennen.

Dennoch geht Memon nicht davon aus, dass ein solcher Ansatz das Ende der Deepfake-Frage bedeuten wird.

„Nichts wird das Problem vollständig lösen. Authentizität muss immer in der Gesellschaft getestet werden“, sagte er. „Machen Sie keine voreiligen Schlüsse, wenn Sie jetzt ein Bild sehen. Schauen Sie sich die Quelle an. Warten Sie, bis Sie bestätigende Beweise aus zuverlässigen Quellen haben.“

Wir erhalten möglicherweise eine Provision, wenn Sie über unsere Links kaufen, unsere Berichterstattung und Empfehlungen sind jedoch stets unabhängig und objektiv.

Was ist ein Deepfake?Notiz:Wie werden Deepfakes verwendet?So erkennen Sie einen DeepfakeErscheinen Details verschwommen oder unklar?Wirkt die Beleuchtung unnatürlich?Stimmen die Worte oder Töne nicht mit den Bildern überein?Scheint die Quelle zuverlässig zu sein?Deepfakes mit Technologie bekämpfenNotiz: