- Mögliche Provisionen aus Käufen über Artikel-Links unterstützen den Journalismus.
- Arvind Narayanan und Sayash Kapoor veröffentlichen kritisch betrachtetes Buch über KI-Mängel.
- Hauptkritikpunkte richten sich gegen irreführende Behauptungen von Unternehmen, Forschern und Journalisten.
- Betreuung existenzieller Risiken bei Firmen wird hinterfragt, ohne die AGI-Idee abzulehnen.
- Kapoor und Narayanan betonen die Notwendigkeit besserer KI-Bildung und differenzierten Diskussionen.
Wenn Sie etwas über Links in unseren Geschichten kaufen, verdienen wir möglicherweise eine Provision. Dies unterstützt unseren Journalismus. Betrachten Sie auch Arvind Narayanan, einen Informatikprofessor an der Princeton University. Am bekanntesten ist er für seine kritischen Ansichten zur künstlichen Intelligenz auf Substack, gemeinsam mit dem Doktoranden Sayash Kapoor verfasst. Die beiden Autoren haben kürzlich ein Buch veröffentlicht, das auf ihrem beliebten Newsletter über die Mängel von KI basiert. Doch lassen Sie sich nicht täuschen – sie sind nicht gegen neue Technologien. „Es ist leicht, unsere Botschaft so misszuverstehen, dass alle KI schädlich oder zweifelhaft ist“, sagt Narayanan.
Die wahren Übeltäter
Während eines Gesprächs mit Wired stellt er klar, dass seine Kritik sich nicht per se gegen die Technologie richtet, sondern gegen diejenigen, die weiterhin irreführende Behauptungen darüber verbreiten. Die Verbreiter dieses Hype-Zyklus unterteilen sich in drei Hauptgruppen: die Unternehmen, die KI verkaufen, die Forscher, die sie studieren, und die Journalisten, die darüber berichten. Unternehmen, die behaupten, die Zukunft mit Algorithmen vorhersagen zu können, gelten als betrügerisch. „Wenn prädiktive KI-Systeme eingesetzt werden, schaden sie zuerst Minderheiten und Menschen in Armut“, schreiben Narayanan und Kapoor in ihrem Buch. Ein Beispiel dafür ist ein Algorithmus, der in den Niederlanden fälschlicherweise Frauen und Einwanderer ins Visier nahm, die kein Niederländisch sprachen.
Die Autoren richten ihren kritischen Blick auch auf Firmen, die sich auf existenzielle Risiken konzentrieren, wie die Idee eines allmächtigen Algorithmus, der den Menschen in seiner Arbeitsleistung übertrifft. Sie verwerfen jedoch nicht die Vorstellung von AGI. „Als ich mich entschied, Informatiker zu werden, war die Möglichkeit, zu AGI beizutragen, ein großer Teil meiner eigenen Identität und Motivation“, sagt Narayanan.
Fragwürdige Forschung und Journalismus
Ein Großteil des Hypes und der Missverständnisse könne auch auf mangelhafte, nicht reproduzierbare Forschung zurückgeführt werden, behaupten die Autoren. „Wir haben festgestellt, dass in vielen Bereichen das Problem des Datenlecks zu übermäßig optimistischen Behauptungen darüber führt, wie gut KI funktioniert“, sagt Kapoor. Dies sei vergleichbar mit dem Verteilen der Antworten an Schüler vor einer Prüfung. Akademiker werden als diejenigen dargestellt, die „Lehrbuchfehler“ machen, während Journalisten böswillig und wissentlich im Unrecht seien. „Viele Artikel sind einfach umgeschriebene Pressemitteilungen, die als Nachrichten getarnt werden.“
Journalisten, die ehrliche Berichterstattung zugunsten der Pflege ihrer Beziehungen zu großen Technologieunternehmen umgehen und ihren Zugang zu Führungskräften der Firmen schützen wollen, seien besonders toxisch. Die Kritiken am sogenannten Zugangsjournalismus sind berechtigt. Vielleicht hätte ich in einigen Interviews mit den Beteiligten der wichtigsten KI-Unternehmen schärfere oder geschicktere Fragen stellen können. Dennoch unterschätzen die Autoren möglicherweise die Komplexität des Themas.
Fehleinschätzungen im Journalismus
Narayanan und Kapoor heben eine Kolumne von Kevin Roose in der New York Times als Beispiel hervor, wie Journalisten öffentliche Verwirrung über empfindsame Algorithmen säen. Kapoor erwähnt die ELIZA aus den 1960er Jahren, deren Nutzer schnell einem rudimentären KI-Tool menschliche Eigenschaften zuschrieben, als ein prägnantes Beispiel für den dauerhaften Drang, menschliche Eigenschaften auf einfache Algorithmen zu projizieren.
Bildmaterial, das Nachrichtenartikel begleitet, wird ebenfalls in „AI Snake Oil“ kritisiert. Publikationen verwenden oft klischeehafte visuelle Metaphern. Eine häufige Darstellung von KI ist ein veränderter menschlicher Kopf, gefüllt mit Computerschaltkreisen. Autoren wie Narayanan und Kapoor stören sich an solchen Symbolen. „Wir sind keine großen Fans des Schaltkreis-Gehirns“, sagt Narayanan. Stattdessen sollten Bilder von Servern oder Grafikkarten verwendet werden, um Berichte über künstliche Intelligenz visuell darzustellen.
Kritischer Blick auf die KI-Bildung
Das vehemente Anprangern des KI-Hype-Zyklus basiert auf der Überzeugung der Autoren, dass KI weiterhin einen erheblichen Einfluss auf die Gesellschaft haben wird und genauer diskutiert werden sollte. „Es ist schwer, den Einfluss von LLMs in den nächsten Jahrzehnten zu überschätzen“, sagt Kapoor. Auch wenn der Hype irgendwann nachlassen sollte, werden Aspekte generativer Werkzeuge wahrscheinlich bestehen bleiben. Die fortlaufend von Entwicklern veröffentlichten generativen KI-Werkzeuge erhöhen die Notwendigkeit einer besseren Bildung über die Grenzen und Möglichkeiten der KI.
Der erste Schritt zum besseren Verständnis von KI ist die Konfrontation mit der Vielfalt der Technologien und Einsatzgebiete, die unter dem Begriff „KI“ zusammengefasst werden. „AI Snake Oil“ unterteilt die künstliche Intelligenz in zwei Unterkategorien: prädiktive KI, die Daten verwendet, um zukünftige Ergebnisse abzuschätzen, und generative KI, die auf Basis vergangener Daten wahrscheinliche Antworten auf Hinweise erstellt.
Jeder, der mit KI-Werkzeugen in Berührung kommt, ob bewusst oder unbewusst, sollte sich zumindest mit grundlegenden Konzepten vertraut machen, um die Technologie besser zu verstehen und sich vor dem negativen Einfluss des KI-Hypes zu schützen. Ein tieferes Verständnis der Datenquellen und der Limitierungen der KI-output kann dazu beitragen, das Vertrauen in die Software zu hinterfragen.
Narayanan glaubt so fest an die Bedeutung guter Bildung, dass er bereits seinen eigenen Kindern in jungen Jahren die Vorteile und Schattenseiten von KI beibringt. „Ich denke, es sollte schon in der Grundschule anfangen“, sagt er. Gut informierte Menschen, nicht die Technologie selbst, haben die Macht, das Narrativ der KI in die richtige Richtung zu lenken.