- Mark Wahlberg wird in einem fiktiven Video in einer Talkshow-Situation dargestellt, die nie stattgefunden hat. Die Episode wurde von fanfictionartigem KI-generierten Material inspiriert und täuscht etwa 460.000 Zuschauer. Experten warnen vor “cheapfakes”, die durch geschickte Rhetorik und emotionale Reize täuschen können. Plattformen wie YouTube versuchen, die Monetarisierung solcher Inhalte durch neue Richtlinien einzuschränken. Trotz Maßnahmen bleibt die Verbreitung irreführender Inhalte auf Plattformen eine Herausforderung.
Mark Wahlberg sitzt auf der Couch des Talkshows “The View” und wartet auf sein Interview, während er nervös seine Krawatte richtet. Etwas an der Gastgeberin, Joy Behar, irritiert ihn. Ihre Mimik ist flüchtig, ihre Augen wirken misstrauisch, ja geradezu unheimlich. Es entsteht ein unheimliches Gefühl, als ob ihre Präsenz irgendwie unmenschlich sei. Und tatsächlich, es dauert nicht lange, bis er sich gegen eine Welle von beleidigenden Bemerkungen verteidigen muss, die auf seine tiefsten Unsicherheiten abzielen. Dennoch bleibt Wahlberg ruhig und gefasst, als Behar ihn auffordert, die Bühne zu verlassen. “Ich gehe nicht, weil Sie es sagen”, verkündet er. “Ich gehe, weil ich zu viel Selbstachtung habe, um mich von jemandem herabsetzen zu lassen, der vergessen hat, was Anstand bedeutet!”
Ungeahntes Drama
Die Zuschauer sind erstaunt, genau wie die Menschen, die das Geschehen auf YouTube verfolgen. “Gut gemacht, Mark. Wir lieben dich”, jubelt ein Kommentator. “The View sollte aus dem Programm genommen werden”, fügt ein anderer hinzu. “Hoffentlich verklagen sie die Sendung auf Millionen, bis sie die Produktion nicht mehr bezahlen können.” Doch all das ist nie passiert; es ist das Ergebnis eines 25-minütigen Videos im Stil von Fanfiction. Mit künstlicher Intelligenz erstellt, um 460.000 neugierige Zuschauer zu täuschen, bleibt das Video erstaunlich statisch. Animiert lediglich von einem körnigen Filter und einem KI-generierten Sprachkommentar, ist es ein mühevolles Werk voller Klischees wie “fäusteballend” und “zitternde Kiefer” – nichts als eine oberflächliche Produktion.
Psychologie der Täuschung
Experten wie Simon Clark, ein kognitiver Psychologe, warnen vor der Verbreitung solcher “cheapfakes”, die durch geschickte Rhetorik und emotionale Reize potenziell täuschend wirken können. Obwohl sie technisch nicht ausgeklügelt sind, spielt Menschen häufig ihre Neigung zum Glauben solcher Inhalte einen Streich. Tatsächlich untersuchte WIRED ähnliche Taktiken auf 120 YouTube-Kanälen. Mit trügerischen Namen wie “Starfame” oder “Celebrity Scoop” tarnen sie sich mit realen Clips echter Talkshows und gewinnen so scheinbare Glaubwürdigkeit.
Grenzen der Plattformen
YouTube reagiert auf den Wandel und setzt auf neue Richtlinien, um die Monetarisierung von KI-generierten Inhalten einzuschränken. Doch die Plattform sieht sich weiterhin mit dem stetigen Wandel und der wachsenden Anzahl von Kanälen konfrontiert, die Kontroversen ausnutzen, um Engagement und Einnahmen zu generieren. Trotz der Versuche der Plattform, die Verbreitung irreführender Inhalte zu unterbinden, bleibt vieles noch unerforscht und schwer kontrollierbar. Die Dynamik, mit minimalem Aufwand maximale Aufmerksamkeit zu generieren, bleibt bestehen – angetrieben von den alten, aber effektiven Taktiken moralischer Empörung und rhetorischer Tricks.