- AI-Suchfunktionen erfreuen sich wachsender Beliebtheit, aber KI-Chatbots liefern oft unzuverlässige Informationen. Studien zeigen, dass Chatbots Schwierigkeiten haben, Nachrichteninhalte korrekt abzurufen und zu zitieren. Premium-Modelle von Chatbots verbreiten mit großer Zuversicht eher falsche Informationen als kostenfreie Versionen. Generative Suchwerkzeuge fabrizieren oft Verknüpfungen und zitieren ungenau. Eine Kombination aus traditionellen Suchmethoden und mehreren KI-Chatbots wird empfohlen, um Fehlinformationen zu vermeiden.
AI-Suchfunktionen erfreuen sich wachsender Beliebtheit, wobei inzwischen jeder vierte Amerikaner KI anstelle traditioneller Suchmaschinen nutzt. Eine wichtige Anmerkung dabei: Diese KI-Chatbots liefern nicht immer verlässliche Informationen. Eine aktuelle Studie des Tow Center for Digital Journalism zeigt, dass Chatbots Schwierigkeiten haben, Nachrichteninhalte exakt abzurufen und korrekt zu zitieren. Noch beunruhigender ist ihr Hang, Informationen zu erfinden, wenn ihnen die richtige Antwort fehlt.
Herausforderungen der Chatbots
Untersucht wurden eine Vielzahl von bekanntesten Chatbots, einschließlich Perplexity, Perplexity Pro, Microsofts Copilot, Grok-2, Grok-3 und Google Gemini. In den Tests erhielten diese Chatbots direkte Auszüge aus zehn Online-Artikeln, die von verschiedenen Medien veröffentlicht wurden. Insgesamt wurden 1.600 Anfragen an die Chatbots gestellt. Dabei ging es darum, die Überschrift jedes Artikels, den ursprünglichen Herausgeber, das Veröffentlichungsdatum und die URL zu identifizieren. Traditionelle Suchmaschinen konnten diese Informationen korrekt liefern, wohingegen die KI-Chatbots stark abfielen.
Die Ergebnisse zeigten, dass Chatbots oft nicht in der Lage sind, Anfragen abzulehnen, bei denen sie keine präzise Antwort bieten können. Stattdessen geben sie häufig falsche oder spekulative Antworten. Interessanterweise neigen die Premium-Modelle dazu, mit übertriebener Sicherheit falsche Antworten zu liefern, häufiger als die kostenfreien Versionen. Auch ignorierten viele Chatbots die Präferenzen des Robot Exclusion Protocols, ein Mechanismus, der Webseiten ermöglicht, mit Web-Robotern zu kommunizieren.
Die Bedeutung von akkuratem Informationszugang
Auffällig ist, dass generative Suchwerkzeuge dazu neigen, Verknüpfungen zu fabrizieren und synchronisierte oder kopierte Versionen von Artikeln zu zitieren. Zudem gewährleisten Content-Lizenzvereinbarungen mit Nachrichtenquellen keine genauen Zitationen in den Chatbot-Antworten.
Was besonders ins Auge fällt, ist die Zuversicht, mit der KI-Chatbots falsche Informationen verbreiten, anstatt Unwissenheit zuzugeben. Sie verwenden oft Phrasen wie “es scheint”, “es ist möglich” oder “könnte”, um Unsicherheiten zu kaschieren. Ein Beispiel: ChatGPT identifizierte 134 Artikel falsch, signalisierte jedoch nur in mageren 15 Fällen Unsicherheit und verzichtete nie gänzlich auf eine Antwort.
Ein Blick in die Zukunft
Dies legt nahe, dass man nicht ausschließlich auf KI-Chatbots vertrauen sollte. Eine Kombination aus traditionellen Suchmethoden und KI-Werkzeugen erweist sich aktuell als ratsamer. Mindestens die Nutzung mehrerer KI-Chatbots könnte von Vorteil sein, um Fehlinformationen zu vermeiden. In Zukunft könnte eine Konsolidierung der KI-Chatbots erfolgen, wobei leistungsstärkere Modelle die weniger guten verdrängen. Wann dies geschehen wird, bleibt abzuwarten.