- AI-generierte Videos mit rassistischen Stereotypen werden millionenfach auf TikTok und Instagram angesehen. Die Technologie hinter diesen Videos, wie Google’s Veo 3, sorgt für Empörung, da sie alte rassistische Klischees in neuer Form verbreitet. Experten kritisieren die Verantwortungslosigkeit von Plattformen, die solche Inhalte verbreiten und deren große Reichweite ermöglichen. Die Popularität dieser Clips verdeutlicht die gesellschaftlichen Herausforderungen im Umgang mit digitalen Verzerrungen und AI-generierten Inhalten. Social Media Algorithmen begünstigen die Verbreitung problematischer Inhalte, was eine kritische Diskussion über die Rolle von Technologieunternehmen fordert.
Ein kürzlich auf TikTok und Instagram populär gewordenes AI-generiertes Video zeigt eine ungewöhnliche Kombination: Ein Bigfoot-Wesen mit Acrylfingernägeln und einer auffälligen rosa Perücke spricht direkt in die Kamera eines iPhones. Mit einer ironischen Ernsthaftigkeit erzählt sie dem imaginären Publikum, dass sie möglicherweise auf der Flucht sei, da man sie wegen einer falschen Anzeige gegen den Vater ihres Kindes suche. Die millionenfach angesehenen Videos sind mit Google’s Veo 3-Technologie erstellt worden und sind Teil einer kontroversen Entwicklung, bei der Black Women in Form von Primaten dargestellt werden. Dies ruft Erinnerungen an längst vergangene rassistische Stereotypen wach.
Digitale Verzerrungen in der Popkultur
Google nutzte die surrealen Bigfoot-Videos als beeindruckendes Beispiel für die Fähigkeiten der Software während der Entwicklerkonferenz im Mai. Doch der beunruhigende Trend, klassische rassistische Klischees mit Hilfe von Künstlicher Intelligenz in virale Phänomene zu verwandeln, alarmiert Experten. Der Ursprung dieser Darstellungen liegt in der Vergangenheit, als Schwarze Menschen in überzogenen Illustrationen als primitiver dargestellt wurden. Dies empfindet Turner Lee, Leiter des Center for Technology Innovation, als skandalös. Die virale Verbreitung der Clips demonstriert die Macht und Reichweite sozialer Plattformen, auf denen solche Inhalte schnell und weitflächig geteilt werden können.
Vom harmlosen Trend zur digitalen Gewalt
Ein beliebter Instagram-Account, der solche Inhalte veröffentlicht, hat innerhalb kürzester Zeit Millionen von Views angesammelt. In diesen Clips sprechen die hybriden Figuren oft übertriebenes African American Vernacular English, tragen dabei Bänder um die Haare und bedrohen andere mit körperlicher Gewalt. Die Kontroverse wird weiter angeheizt durch Videos, in denen AI-generierte Figuren provokante Aussagen treffen oder auf stereotype Weise dargestellt werden. Google’s Veo 3 erstellt dabei alles durch einen einzigen Prompt – von der Geräuschkulisse bis hin zu den detailliert gestalteten Charakteren.
Eine Untersuchung fand heraus, dass auf Plattformen wie Instagram und TikTok ähnliche Videos nach wie vor sehr beliebt sind, häufig rekreiert und erneut geteilt werden. Der Mechanismus, mit dem diese Inhalte erstellt und verbreitet werden, steht auch im kritischen Visier von Experten wie Meredith Broussard von der New York University. Sie warnt vor der Herausforderung, ausreichend Schutzmechanismen gegen die ungewollte Verwendung von generativen AI-Tools einzusetzen, da die Missbrauchsformen zahlreich und oft unvorhersehbar sind.
Der Algorithmus als Mittäter
Ein weiterer Aspekt der Debatte ist der Algorithmus selbst, der solchen Inhalten Vorschub leistet, indem er die Sichtbarkeit stetig steigert. Die Leichtigkeit, mit der solche Videos erstellt und aufgerufen werden können, begünstigt deren massenhaften Konsum und Normalisierung. Diese Entwicklung fordert eine kritische Auseinandersetzung mit der Rolle und Verantwortung großer Technologieunternehmen und Plattformen im digitalen Zeitalter. Die Verfügbarkeit und Automatisierung solcher Technologien stellt die Gesellschaft vor neue Herausforderungen und fragt letztlich, wie digital diskriminierendes Verhalten gestoppt werden kann.