- Angesichts der Verbreitung fotorealistischer Inhalte auf sozialen Netzwerken erleben wir ein Zeitalter der Medien-Skepsis, genannt „tiefer Zweifel“. Tiefer Zweifel ist die Skepsis gegenüber echten Medien, die durch die Existenz generativer KI entsteht und die Möglichkeit bietet, dass reale Ereignisse als gefälscht dargestellt werden. Die Entwicklung und Verbreitung von Deepfakes erschwert die Unterscheidung zwischen echten und gefälschten Medieninhalten und nutzt Skepsis als politisches Werkzeug. Die Diskussionen unter amerikanischen Richtern zeigen, wie Deepfakes echte Beweise in Gerichtsverfahren gefährden könnten. Historisch betont, bleibt das Vertrauen in zuverlässige Informationsquellen entscheidend zur Bewertung der Authentizität von Medien.
Angesichts der Flut fotorealistischer Inhalte, die derzeit über soziale Netzwerke strömen, betreten wir scheinbar ein neues Zeitalter der Medien-Skepsis: das Zeitalter des „tiefen Zweifels“. Während die Authentizität digitaler Inhalte seit Jahrzehnten hinterfragt wird – und ebenso die analogen Medien zuvor – hat der einfache Zugang zu Werkzeugen, die überzeugende gefälschte Inhalte erzeugen, eine neue Welle von Lügnern hervorgebracht, die AI-generierte Szenen nutzen, um echte dokumentarische Beweise zu leugnen. Diese Entwicklung hat dazu geführt, dass die ohnehin vorhandene Skepsis der Menschen gegenüber Online-Inhalten von Fremden neue Höhen erreicht.
Tiefer Zweifel und seine Auswirkungen
“Tiefer Zweifel” ist die Skepsis gegenüber echten Medien, die durch die Existenz generativer KI entsteht. Dies manifestiert sich als breite öffentliche Skepsis gegenüber der Wahrhaftigkeit von Medienartefakten, was wiederum zu einer bemerkenswerten Konsequenz führt: Menschen können nun glaubhafter behaupten, dass reale Ereignisse nicht stattgefunden haben und vorschlagen, dass dokumentarische Beweise mithilfe von AI-Tools gefälscht wurden. Das Konzept des „tiefen Zweifels“ ist nicht neu, aber seine Auswirkungen in der realen Welt werden immer deutlicher. Seit dem Auftauchen des Begriffs Deepfake im Jahr 2017 haben wir eine rasante Entwicklung der AI-generierten Medienfähigkeiten erlebt.
Beispiele für tiefen Zweifel in Aktion gibt es viele, wie etwa Verschwörungstheoretiker, die behaupten, Präsident Joe Biden sei gefälscht, und die Beteuerung des ehemaligen Präsidenten Donald Trump im August, dass Vizepräsidentin Kamala Harris AI benutzt habe, um die Menschenmengen bei ihren Kundgebungen zu fälschen. Und am Freitag, als Trump auf ein Foto von ihm mit E. Jean Carroll reagierte, die ihn erfolgreich wegen sexuellen Missbrauchs verklagte, widersprach er ihrer Behauptung, ihn jemals getroffen zu haben.
Die Entstehung von Deepfakes und die anhaltende Unsicherheit
Rechtsgelehrte wie Danielle K. Citron und Robert Chesney prägten Jahre zuvor den Begriff „Lügnerdividende“ im Jahr 2019, um die Folge des tiefen Zweifels zu beschreiben: Deepfakes, die von Lügnern verwendet werden, um authentische Beweise zu diskreditieren. Aber während tiefer Zweifel einst ein hypothetisches akademisches Konzept war, ist es nun unsere Realität. Zweifel waren seit jeher ein politisches Werkzeug. Diese moderne, durch AI genährte Manifestation ist nur die neueste Evolution einer Taktik, bei der Unsicherheit gesät wird, um die öffentliche Meinung zu manipulieren, Gegner zu untergraben und die Wahrheit zu verbergen.
Im Laufe des letzten Jahrzehnts hat die Entwicklung von Technologie es immer einfacher gemacht, falsche oder veränderte Bilder, Texte oder Videos zu erstellen, die wie nicht synthetisierte organische Medien erscheinen. Deepfakes wurden nach einem Reddit-Benutzer benannt, der den Namen „deepfakes“ trug und Gesichter in Videos ersetzte. Im 20. Jahrhundert könnte man argumentieren, dass ein Teil unseres Vertrauens in von anderen produzierte Medien darauf zurückzuführen war, wie teuer, zeitaufwendig und kunstfertig deren Erstellung war. Doch das Phänomen des tiefen Zweifels wird diese mediale Sensibilität des 20. Jahrhunderts untergraben.
Aktuelle Herausforderungen und zukünftige Perspektiven
Im April hob ein Bericht die potenziellen Risiken von AI-generierten Deepfakes hervor, nicht nur gefälschte Beweise einzuführen, sondern auch echten Beweisen in Gerichtsverfahren zu schaden. Das Thema kam während eines Treffens des Beratungsausschusses der US Judicial Conference zur Sprache, bei dem Richter die Herausforderungen der Authentifizierung digitaler Beweise in einer zunehmend sophistizierten Ära der AI-Technologie diskutierten. Schlussendlich beschlossen die Richter, vorerst keine AI-bezogenen Regeländerungen vorzunehmen, aber ihr Treffen zeigt, dass das Thema bereits von amerikanischen Richtern diskutiert wird.
Tiefe Zweifel betreffen mehr als nur aktuelle Ereignisse und rechtliche Fragen. In 2020 wurde das Konzept eines „Lärm“-Schwellenwerts diskutiert, bei dem Wahrheit und Fiktion in Medien ununterscheidbar werden. Ein Schlüsselpunkt dieses Schwellenwerts ist der Grad des „Lärms“ oder der Unsicherheit, den AI-generierte Medien in unser Informationsökosystem auf breiter Ebene einführen können. Deepfakes könnten zu Szenarien führen, in denen die Verbreitung von AI-generierten Inhalten weit verbreitete Zweifel an der Authentizität realer Ereignisse, die in der Geschichte passiert sind, schaffen – vielleicht eine weitere Manifestation des tiefen Zweifels.
Deep Doubt as “The Liar’s Dividend”
“Tiefer Zweifel” ist ein neuer Begriff, aber keine neue Idee. Der Erosion des Vertrauens in Informationen aus synthetischen Medien reicht bis zu den Anfängen der Deepfakes zurück. In einem 2018 erschienenen Artikel hinterfragte ein Autor eine bevorstehende „Informationsapokalypse“ aufgrund von Deepfakes. Im Jahr 2019 prägten Danielle K. Citron und Robert Chesney den Begriff „Lügnerdividende“ in einer wissenschaftlichen Abhandlung, um dieses Phänomen zu beschreiben. Sie argumentieren, dass Deepfakes es Lügnern erleichtern, Verantwortlichkeit für wahre Tatsachen zu vermeiden. Paradoxerweise steigt die Wirksamkeit der Lügnerdividende, je mehr die Gesellschaft über die Gefahren von Deepfakes informiert wird. Dieses Papier warnt, dass dieses Phänomen das Vertrauen in traditionelle Nachrichtenquellen weiter untergraben könnte, was potenziell die Grundlagen des demokratischen Diskurses erodiert.
Moreover, this phenomenon might provide fertile ground for authoritarianism, as objective truths lose their power and opinions become more influential than facts. The concept of deep doubt also intersects with existing issues of misinformation and disinformation. It provides a new tool for those seeking to spread false narratives or attempting to discredit factual reporting. This could accelerate the already present scenario, driven in part by social media, where our shared cultural perception of truth becomes even more subjective.
Wie man tiefen Zweifel bekämpft: Kontext ist entscheidend
Alle Bedeutungen sind kontextabhängig. Im Grunde genommen, erschaffen wir unsere eigene, vernetzte Welt, um die Realität zu verstehen. Eine Idee isoliert zu betrachten, ohne zu wissen, wie sie sich konzeptionell mit der bestehenden Welt verknüpft, ist sinnlos. In dieser Hinsicht macht es wenig Sinn, ein potenziell gefälschtes Medienartefakt isoliert zu authentifizieren. Seit jeher mussten Historiker und Journalisten Informationen basierend auf ihrer Herkunft, dem Kontext und den Motiven des Boten bewerten. Beispielsweise würde man ein Pergament des 17. Jahrhunderts, das anscheinend wichtige Beweise über einen königlichen Prozess liefert, anhand der Kette des Aufbewahrungsorts und anderer Quellen, die dieselben Informationen berichten, bewerten.
Im Angesicht wachsender Bedenken über AI-generierte Inhalte können verschiedene bewährte Strategien zur Medienkompetenz helfen, die Authentizität digitaler Medien zu überprüfen. Beispielsweise ist es wichtig, sich auf mehrere übereinstimmende Quellen zu verlassen, insbesondere solche, die dasselbe Ereignis aus verschiedenen Blickwinkeln darstellen. Zusätzlich ist es ratsam, ursprüngliche Berichterstattung und Bildmaterial von verifizierten Konten oder offiziellen Websites ausfindig zu machen.
Glaubwürdige Quellen als beste Erkennungswerkzeuge
Unsere vorgeschlagenen Gegenmaßnahmen zum tiefen Zweifel beinhalten nicht Wasserzeichen, Metadaten oder AI-Detektoren als ideale Lösungen. Vertrauen kommt nicht allein von der Autorität eines Software-Tools. Während AI und Deepfakes das Problem erheblich beschleunigt haben und uns in dieses neue Zeitalter des tiefen Zweifels geführt haben, ist die Notwendigkeit, zuverlässige Informationsquellen über Ereignisse zu finden, die man nicht aus erster Hand miterlebt hat, so alt wie die Geschichte selbst. Es ist wahrscheinlich, dass gut gestaltete synthetisierte digitale Medienartefakte künftig vollständig von menschlich erstellten nicht zu unterscheiden sein werden. Das bedeutet, dass es möglicherweise keinen zuverlässigen automatisierten Weg gibt, um zu bestimmen, ob ein überzeugend erstelltes Medienartefakt vom Menschen oder von Maschinen erzeugt wurde.
Throughout history, any recorded media, including ancient texts, has always borne the potential for manipulation. Since the advent of photography, we have never been able to fully trust a camera’s output. The trust in what we see or read ultimately depends on how much we trust the source. In many ways, the age of deep doubt stretches far back into history. Credible and reliable sourcing is our most critical tool in evaluating information, and it’s as true today as it was when humans began to create written records.