- Verantwortungsvolle KI war ein zentrales Thema der Veranstaltung und birgt sowohl Chancen als auch Risiken bei der Anpassung von Modellen. Es gibt Bedenken, dass autoritäre Regime KI-Modelle zur Zensur nutzen könnten, während in den USA die Verfassung eine solche Praxis verhindert. Der AI-Plan der Trump-Regierung betont Meinungsfreiheit, jedoch wirft er Fragen zur Wahrheitsdefinition und möglichen Zensur auf. Technologieunternehmen stehen vor der Herausforderung, neutrale und verfassungsmäßige KI-Modelle zu entwickeln. Der Plan wird als Wachstumschance angesehen, dennoch bleibt die Umsetzung und mögliche Staatskonformität von KI-Modellen unsicher.
Am 2. November 2022 besuchte ich eine Google-AI-Veranstaltung in New York City. Eines der zentralen Themen war verantwortungsvolle KI. Während hochrangige Führungskräfte darüber sprachen, wie sie ihre Technologien mit menschlichen Werten in Einklang brachten, wurde mir bewusst, dass die Anpassungsfähigkeit von KI-Modellen ein zweischneidiges Schwert darstellt. Einerseits lassen sich Modelle so modifizieren, dass Verzerrungen minimiert werden, andererseits können sie dazu genutzt werden, eine bestimmte Sichtweise durchzusetzen. Regierungen könnten verlangen, dass Modelle manipuliert werden, um unerwünschte Fakten zu zensieren und propagandistische Inhalte zu fördern. Ein solches Szenario könnte ich mir in einem autoritären Regime wie China vorstellen.
Der amerikanische Ansatz
In den Vereinigten Staaten hingegen würde die Verfassung solch ein Vorgehen verhindern. Dennoch veröffentlichte die Trump-Regierung just an jenem Mittwoch ihr eigenes KI-Manifest – ein umfassender Plan für eine der drängendsten Herausforderungen der Menschheit. Der Plan konzentriert sich stark darauf, China in der KI-Vorherrschaft zu übertrumpfen. Doch ein Aspekt scheint stärker mit dem Plan Chinas in Einklang zu stehen, als man vielleicht erwarten würde: Im Namen der Wahrheit möchte die US-Regierung nun, dass KI-Modelle Donald Trumps Version der Wahrheit respektieren. Diese Absicht lässt sich nicht direkt aus dem 28-seitigen Dokument ablesen, doch es wird betont, wie wichtig es sei, dass KI-Systeme von Grund auf mit dem Ziel der Meinungs- und Redefreiheit entwickelt werden.
Herausforderungen an die Neutralität
Die Frage bleibt jedoch: Wessen Wahrheit wird hier eigentlich propagiert? Und was genau verbirgt sich hinter sozialen Steuerungsagenda? Antworten darauf bekommt man in einem auffallenden Abschnitt, der das Handelsministerium auffordert, in den Biden-KI-Regeln Begriffe wie Fehlinformation, Diversität, Gleichberechtigung und Klimawandel zu entfernen. Klimawandel anzuerkennen gilt hier als soziale Steuerung? Zudem sollen LLMs der Wahrheit verpflichtet sein, historische Genauigkeit, wissenschaftliche Forschung und Objektivität priorisieren – alles Worte, die in ihrer Umsetzung kontrovers diskutiert werden können.
Während Donald Trump in Washington die Vorteile dieses Plans lobend erwähnte und versprach, woke marxistischen Wahn in KI-Modellen zu verhindern, bleibt die Frage, wie dies mit der Redefreiheit vereinbar ist. Die großen Technologiekonzerne, die um Regierungsaufträge buhlen, könnten sich gezwungen sehen, ihre Modelle der vom Weißen Haus vorgegebenen Interpretation historischer und sozialer Themen anzupassen. Hierbei ist davon auszugehen, dass die im Plan geforderte Wahrheitsverpflichtung schwer zu definieren sein wird, da eine gleiche Verpflichtung auch Zensur begünstigen könnte.
Die Rolle der Technologieunternehmen
Es liegt an den Unternehmen, diese Anforderungen zu bewältigen. Ein Ingenieur bei OpenAI beschrieb diese Woche, dass das Unternehmen bereits versucht, Neutralität in seinen Modellen zu erreichen. Doch die Herausforderung ist nicht nur technischer Natur – sie birgt auch verfassungsrechtliche Fragen.
Bislang hat sich kein großes Technologieunternehmen offen gegen den Plan der Trump-Administration geäußert, was durchaus nachvollziehbar ist, da der AI Action Plan generell als Wachstumschance angesehen wird. Indem Trump den Finger auf China richtet und dessen Umgang mit „Wahrheit“ kritisiert, wird auch bei amerikanischen KI-Modellen ein Fokus auf Anpassung und Compliance mit US-Richtlinien gelegt. Doch ob diese Modelle zukünftig eine objektive oder staatskonforme Sprechweise haben, wird sich erst noch zeigen.