- Elon Musk kritisiert die politische Korrektheit und “woke”-Natur aktueller KI-Modelle. Musk könnte von Regulierungen profitieren, die seinen Konkurrenten auferlegt werden. Studien zeigen politische Verzerrungen in Sprachmodellen, die subtile Auswirkungen haben können. Es besteht die Gefahr, dass politisch beeinflusste Algorithmen durch KI-Generationen weiter verstärkt werden. Musks Entwicklung eines neuen AI-Chatbots könnte ebenfalls von seinen persönlichen Ansichten beeinflusst sein.
In den letzten Tagen hat Elon Musk die Diskussion um die politische Ausrichtung von Künstlicher Intelligenz (KI) befeuert. Musk kritisierte, dass viele der derzeit entwickelten KI-Modelle zu “woke” und “politisch korrekt” seien. Er argumentierte, dass diese Modelle häufig die Philosophie ihrer Umgebung, insbesondere die der San Francisco Bay Area, annehmen würden. Ein aus seiner Sicht nihilistisches Weltbild würde sich dadurch in die KI-Systeme einnisten. Vor allem bezog er sich dabei auf AI-Unternehmen wie OpenAI, Google und Meta, die seiner Ansicht nach bereits von solch einer politischen Verzerrung betroffen sind.
Politische Verzerrungen in KI-Systemen
Die Entwicklung von KI ist nicht nur eine technische, sondern auch eine gesellschaftliche Herausforderung. Musk selbst, der mit seiner Firma xAI im Wettbewerb mit den großen Unternehmen steht, könnte von einer stärkeren Regulierung seiner Konkurrenten profitieren. Wie ein Forscher des George Mason University betonte, könnte Musk durch seine Nähe zur Trump-Kampagne und seine einflussreichen Äußerungen im Falle einer Trump-Regierung durchaus politischen Einfluss erlangen. Dies könnte sogar in Gesetzesänderungen münden, die Musks Ansichten widerspiegeln.
Ein Blick auf die jüngsten Entwicklungen zeigt, dass Musks Bedenken nicht unbegründet sind. Studien der Universitäten von Washington und Hong Kong haben politische Voreingenommenheiten in verschiedenen Sprachmodellen aufgedeckt. Solche Verzerrungen können die Erkennungsfähigkeiten von Hassreden oder Fehlinformationen beeinflussen. Diese Tendenzen können subtil, aber tiefgreifend sein, da die KI-Modelle auf großen Mengen von Internetdaten trainiert werden, die ein breites Spektrum von Perspektiven beinhalten. Entwickler könnten dazu beitragen, dass KI-Modelle ausgewogenere Antworten liefern, indem sie sie mit unterschiedlichen Sichtweisen konfrontieren.
Künftige Herausforderungen und mögliche Lösungen
Das Problem der politisch beeinflussten Algorithmen droht sich zu verschärfen, wenn KI-Systeme allgegenwärtig werden. Ein Forscher vom Rochester Institute of Technology wies darauf hin, dass neue Generationen von großen Sprachmodellen (LLMs) zunehmend auf von AI-generierten Inhalten basierenden Daten trainiert werden. Diese Entwicklung könnte die Verzerrungsproblematik weiter verstärken. Politiker und politische Gruppen könnten versuchen, die Modelle in eine bestimmte Richtung zu manipulieren, indem sie gezielt Trainingsdaten beeinflussen.
Inzwischen haben bereits einige Marktteilnehmer begonnen, dem entgegenzuwirken. Letztes Jahr unternahm eine Person den Versuch, die subtilen Verzerrungen in Tools wie ChatGPT aufzuzeigen. Musk selbst hat angekündigt, mit der Entwicklung von “Grok”, einem AI-Chatbot von xAI, ein weniger verzerrtes und wahrheitsgetreueres Modell zu schaffen. Ob dies jedoch zu einer objektiveren Perspektive führt, bleibt fraglich, da Musks eigene politische Ansichten ebenso Einfluss auf die Entwicklung nehmen könnten.