- Ein ungewöhnlicher Internet-Trend fordert Nutzer auf humorvolle Weise heraus, indem sie von KI erfundene Bedeutungen für fiktive Redewendungen generieren lassen. Greg Jenner initiierte das mit der fiktiven Phrase „You can’t lick a badger twice“, die Google AI als Täuschungsmetapher interpretierte. Seitdem testen Nutzer die KI, um kuriose Bedeutungen für ähnliche Phrasen zu finden, wie z.B. „Ein Tintenfisch in einer Vase wird kein Unheil stiften“. Der Trend zeigt auch die Gefahren der Abhängigkeit von KI-generierten Inhalten auf, da diese oft inkonsistent oder ungenau sein können. Google sammelt weiterhin Feedback zur Verbesserung seines AI-Produkts, um sicherzustellen, dass Informationen überprüft und verifiziert werden.
Aktuell kursiert im Internet ein ungewöhnlicher Trend, der die Kreativität der Nutzer auf humorvolle Weise herausfordert. Anstoß dazu gab der Historiker Greg Jenner, als er Google aufforderte, eine Bedeutung für die fiktive Redewendung „You can’t lick a badger twice“ zu erfinden. Google’s AI-Übersicht erklärte daraufhin, dass der Ausdruck bedeute, man könne jemanden nicht zweimal täuschen. Was zunächst plausibel klingt, ignoriert allerdings die Tatsache, dass diese Redewendung vor der Anfrage gar nicht existierte.
Experimentelle Bedeutungen durch KI
Seitdem testen immer mehr Nutzer die KI, um ähnliche kuriose Bedeutungen zu generieren. So erklärte die AI-Übersicht beispielsweise die erfundene Phrase „Ein Tintenfisch in einer Vase wird kein Unheil stiften“ dahingehend, dass ein Lebewesen außerhalb seines natürlichen Umfelds keinen Schaden anrichten könne. Eine andere Phrase, „You can take your dog to the beach but you can’t sail it to Switzerland“, wurde als ein vermeintlich einfaches Sprichwort über die Herausforderungen internationaler Tiertransporte interpretiert. Nicht jeder Versuch führt jedoch zu einem Ergebnis. Manche Phrasen bleiben ohne Interpretation durch die KI. Der Kognitionswissenschaftler Gary Marcus bezeichnete die Ergebnisse als „wild inkonsistent“, was für die derzeitigen Generationen von KI typisch sei.
Die Risiken von KI-generierten Antworten
Obwohl der Trend amüsant ist, weist Jenner darauf hin, dass er auch die Gefahren aufzeigt, die mit der Abhängigkeit von KI-generierten Inhalten verbunden sind. Es sei ein Warnsignal dafür, dass die eigentlich vertraute Funktion von Suchmaschinen – das Überprüfen und Verifizieren von Zitaten oder das Auffinden von Informationen – erschwert wird, wenn KI statistische Wahrscheinlichkeiten über Fakten stellt. Diese Bedenken sind nicht neu. Schon bei der Einführung von AI Overview sorgten seltsame Empfehlungen, wie der Verzehr kleinerer Steine oder der Einsatz von Klebstoff auf Pizza, für negative Aufmerksamkeit. Google versichert zwar, dass der Großteil der AI-Überblicke nützliche Informationen bietet und sammelt weiterhin Feedback zu Verbesserungen seines Produkts.
Es bleibt zu beachten, dass die Informationen in der AI-Übersicht stets auf ihre Richtigkeit hin überprüft werden sollten. Vertrauen Sie nicht blind auf die technologischen Auswertungen, denn diese könnten fehlerhaft oder ungenau sein.