- Chinesische Behörden testen große Sprachmodelle, um sicherzustellen, dass sie den Werten der Kommunistischen Partei entsprechen. Die Internetregulierungsbehörde Cyberspace Administration of China (CAC) hat alle relevanten Firmen verpflichtet, ihre KI-Modelle systematisch zu prüfen. Chinesische Firmen haben verschiedene Sprachmodelle entwickelt, die in direkter Konkurrenz zu US-amerikanischen Modellen wie denen von OpenAI stehen. Die Prüfung dieser Modelle umfasst eine Vielzahl sensibler Themen, die oft zwischen verschiedenen Kulturen und Wertvorstellungen unterscheiden müssen. KI-Anbieter sind voll verantwortlich für die Daten, die ihre Systeme ausgeben, und müssen sicherstellen, dass die Modelle politisch korrekt antworten.
Chinesische Behörden haben sich nun einer neuen Herausforderung angenommen: Die großen Sprachmodelle (Large Language Models, LLM) des Landes werden getestet und analysiert, um sicherzustellen, dass diese im Einklang mit den Grundwerten der Kommunistischen Partei stehen. Dies berichtet die renommierte Zeitung „Financial Times“. Dabei handelt es sich nicht nur um eine gelegentliche Überprüfung, sondern um ein systematisches Testverfahren, das sowohl etablierte Tech-Riesen als auch innovative Start-ups betrifft. Die Internetregulierungsbehörde, Cyberspace Administration of China (CAC), hat alle relevanten Firmen verpflichtet, ihre KI-Modelle auf Herz und Nieren zu prüfen.
Die Rolle der chinesischen Tech-Giganten
Chinas Antwort auf internationale KI-Entwicklungen ist bemerkenswert. So haben chinesische Firmen verschiedene Sprachmodelle entwickelt, die in direkter Konkurrenz zu den Modellen des US-amerikanischen Unternehmens OpenAI stehen. Beispiele dafür sind Doubao vom Tiktok-Erfinder Bytedance, Tongyi Qianwen von einem namenhaften Rivalen und Ernie vom Internetriesen. Diese Modelle werden nun auf politische Fragen und kontroverse Themen getestet, besonders solche, die Chinas Staats- und Parteichef betreffen. Die Testfragen umfassen eine große Bandbreite an sensiblen Themen, von aktuellen politischen Ereignissen bis hin zu historischen Vorfällen.
Tausende heikle Stichworte
Die Prüfung dieser Sprachmodelle ist kein leichtes Unterfangen. Die Anforderungen an die Programme sind teilweise schwer nachvollziehbar und stellen die Entwickler vor erhebliche Herausforderungen. Damit die Moderatoren bestehen können, müssen sie sorgsam lernen, wie am besten zu zensieren ist. Diese Modelle sind oft auch auf englische Sprachinhalte trainiert und müssen daher sauber zwischen verschiedenen Kulturen und Wertvorstellungen unterscheiden können. Sensible Stichworte und Fragen, die den „sozialistischen Kernwerten“ widersprechen, müssen permanent aktualisiert werden, um sicherzustellen, dass die Programme keine verbotenen Inhalte ausgeben.
Die Verantwortung der KI-Anbieter
Die CAC hat klare Vorstellungen: KI-Anbieter sind voll verantwortlich für die Daten, die durch ihre Systeme veröffentlicht werden. Sollten diese die vorgegebenen Regeln nicht einhalten, drohen empfindliche Geldstrafen oder sogar strafrechtliche Ermittlungen. Das bedeutet, dass die Sprachmodelle nicht einfach alle politischen Inhalte blockieren dürfen, sondern sie müssen lernen, gezielt und „politisch korrekt“ zu antworten. Diese Feinabstimmung zwischen Zensur und funktionierender Kommunikation erfordert kontinuierliche Anpassungen und ein tiefes Verständnis der politischen Landschaft Chinas.