- Einige Fortune-500-Unternehmen testen Software, die erkennt, ob eine Person in einem Live-Videoanruf real ist oder nicht. Die Erkennungstechnologie stammt von GetReal Labs, gegründet von einem renommierten Professor der UC-Berkeley. GetReal Labs hat Werkzeuge entwickelt, die Bilder, Audio und Video analysieren, um Manipulationen zu erkennen. Das FBI warnte 2022 vor Deepfake-Bewerbern, die Identitäten während Videoanrufen annehmen. Manipulierte Medien sind sowohl in der Wirtschaft als auch in der Politik ein wachsendes Problem.
- Große KI-Unternehmen versuchen, AI-generierte Bilder mit digitalen Signaturen zu kennzeichnen. GetReal Labs verwendet AI-Modelle und traditionelle Forensik, um echte von gefälschten Bildern zu unterscheiden. Das Nachahmen einer Person in einem Live-Video ist ein neues Terrain, das Gesichtserkennung und Gesichtsverfolgung erfordert. Farid demonstrierte die Technologie von GetReal Labs und betont, dass manuelle forensische Analyse wichtig bleibt. Deepfakes und manipulierte Medien sind auch ein großes Problem in der Politik.
- Es wird zunehmende Nachfrage nach Werkzeugen geben, um KI-Fälschungen zu bekämpfen. GetReal Labs erwartet, dass jeder bald mit Deepfake-Täuschungen konfrontiert wird. Manipulierte Medien sind ein Top-Thema für viele Sicherheitschefs. Desinformation wird als existenzielles Problem für die Demokratie betrachtet. Experten wie Farid und Conitzer betonen die Herausforderung, immer komplexer werdende Deepfakes zu erkennen.
Einige Fortune-500-Unternehmen haben damit begonnen, Software zu testen, die erkennt, ob eine Person in einem Live-Videoanruf real ist oder nicht. Dies geschieht im Zuge zahlreicher Betrügereien, bei denen falsche Bewerber eine Einstellungsprämie kassieren und dann verschwinden. Die Erkennungstechnologie stammt von GetReal Labs, einer neuen Firma, die von einem renommierten Professor der UC-Berkeley gegründet wurde. GetReal Labs hat eine Reihe von Werkzeugen entwickelt, die Bilder, Audio und Video analysieren können, um zu erkennen, ob sie durch künstliche Intelligenz oder manuelle Methoden manipuliert wurden.
Die Software kann das Gesicht in einem Videoanruf analysieren und Hinweise erkennen, die darauf hinweisen, dass es künstlich erzeugt und auf den Körper einer realen Person gesetzt wurde. „Diese Angriffe sind keine theoretischen Szenarien, wir hören immer mehr davon“, sagt Farid. In manchen Fällen scheint es darum zu gehen, sich geistiges Eigentum zu verschaffen oder das Unternehmen zu infiltrieren. In anderen Fällen geht es nur um finanzielle Gewinne, bei denen die Einstellungsprämie kassiert wird.
Zunehmende Bedrohung durch Betrug
Das FBI hat 2022 eine Warnung vor Deepfake-Bewerbern herausgegeben, die während Videoanrufen die Identität realer Personen annehmen. Ein Design- und Ingenieurunternehmen aus Großbritannien verlor 25 Millionen Dollar an einen Deepfake-Betrüger, der vorgab, der CFO des Unternehmens zu sein. Das Manipulieren einer realen Person in einem Live-Video-Feed ist nur ein Beispiel für die Arten von Tricksereien, die durch KI jetzt möglich sind. Große Sprachmodelle können eine reale Person im Online-Chat überzeugend nachahmen, während kurze Videos mit Hilfe von Tools generiert werden können.
Tiefgreifende Fortschritte in der KI in den letzten Jahren haben Deepfakes überzeugender und zugänglicher gemacht. Kostenfreie Software ermöglicht es, Deepfake-Fähigkeiten zu verfeinern, und leicht zugängliche Tools können Textvorgaben in realistisch aussehende Fotos und Videos umwandeln. Aber das Nachahmen einer Person in einem Live-Video ist ein relativ neues Terrain. Dies erfordert typischerweise eine Mischung aus Gesichtserkennung und Algorithmus zur Gesichtsverfolgung, um ein gefälschtes Gesicht nahtlos auf ein echtes aufzusetzen.
Technologien zur Erkennung von Deepfakes
Farid gab WIRED eine Demonstration der Technologie von GetReal Labs. Wenn dem Software-System ein Foto eines Vorstandszimmers gezeigt wird, analysiert es die zugehörigen Metadaten auf Anzeichen von Veränderungen. Mehrere große KI-Unternehmen wie OpenAI, Google und Meta fügen AI-generierten Bildern digitale Signaturen hinzu und bieten so eine Möglichkeit, deren Echtheit zu überprüfen. Allerdings bieten nicht alle Tools solche Stempel, und Open-Source-Bildgeneratoren können so konfiguriert werden, dass sie dies nicht tun. Auch Metadaten können leicht manipuliert werden.
GetReal Labs verwendet auch mehrere AI-Modelle, die darauf trainiert sind, zwischen echten und gefälschten Bildern und Videos zu unterscheiden, um mögliche Fälschungen zu kennzeichnen. Andere Werkzeuge, eine Mischung aus KI und traditioneller Forensik, helfen dem Benutzer, das Bild auf visuelle und physische Unstimmigkeiten zu prüfen, zum Beispiel indem sie Schatten hervorheben, die trotz derselben Lichtquelle in verschiedene Richtungen zeigen, oder solche, die nicht zu den Objekten passen, die sie werfen. Linien, die auf verschiedene Objekte in Perspektive gezeichnet werden, werden ebenfalls verraten, ob sie sich an einem gemeinsamen Fluchtpunkt treffen wie es bei echten Bildern der Fall wäre.
Manuelle Kontrolle bleibt entscheidend
Andere Start-ups, die versprechen, Deepfakes zu flaggen, verlassen sich stark auf KI, doch Farid betont, dass auch manuelle forensische Analyse wichtig bleibt, um Medienmanipulation aufzudecken. „Jeder, der Ihnen sagt, dass die Lösung für dieses Problem einfach darin besteht, ein KI-Modell zu trainieren, ist entweder ein Narr oder ein Lügner“, sagt er. Die Notwendigkeit eines Realitätschecks geht über Fortune-500-Unternehmen hinaus. Deepfakes und manipulierte Medien sind schon jetzt ein großes Problem in der Politik, ein Bereich, in dem Farid hofft, dass die Technologie seines Unternehmens wirklich gut helfen könnte.
In den USA wurde im letzten Januar eine Fake-Kampagne eingesetzt, um Menschen davon abzuhalten, bei den Präsidentschaftsvorwahlen in New Hampshire zu wählen. Wahlspezifische „Billig-Fake“-Videos, die in irreführender Weise bearbeitet wurden, sind in letzter Zeit viral gegangen, während eine russische Desinformations-Einheit Joe Biden verunglimpft hat. Ein Computerwissenschaftler von der Carnegie Mellon University in Pittsburgh erwartet, dass die Verwendung von KI-Fälschungen verbreiteter und bösartiger wird. Das heißt, es wird zunehmende Nachfrage nach Werkzeugen geben, die darauf ausgelegt sind, diese zu bekämpfen. „Es ist ein Wettrüsten“, sagt Conitzer. „Selbst wenn Sie etwas haben, das jetzt sehr effektiv darin ist, Deepfakes zu erkennen, gibt es keine Garantie, dass es bei der nächsten Generation wirksam ist.“
GetReal Labs stimmt zu, dass es ein dauerhafter Kampf sein wird, mit der Deepfake-Technologie Schritt zu halten. Ted Schlein, Mitbegründer von GetReal Labs und Veteran der Computersicherheitsbranche, betont, dass es möglicherweise nicht lange dauert, bis jeder mit irgendeiner Form von Deepfake-Täuschung konfrontiert wird, da Cyberkriminelle immer vertrauter mit der Technologie werden und geniale neue Betrugsmaschen erfinden. Manipulierte Medien sind ein Top-Thema für viele Sicherheitschefs. „Desinformation ist das neue Malware“, sagt Schlein. Angesichts des potenziellen Schadens für die politische Debatte merkt Farid an, dass Medienmanipulation ein herausfordernderes Problem darstellen könnte. „Ich kann meinen Computer zurücksetzen oder einen neuen kaufen“, sagt er. „Aber die Vergiftung des menschlichen Geistes ist eine existenzielle Bedrohung für unsere Demokratie.“