- KI-gestützte Suchmaschinen fördern rassistische und diskreditierte Forschungsergebnisse. Hermansson untersuchte die Human Diversity Foundation, die von Andrew Conru finanziert wird. Google-Overviews liefert problematische Ergebnisse von umstrittenen Studien. Lynns Forschung wird von extrem rechten Gruppierungen für rassistische Ideologien genutzt. Es besteht die Gefahr der unkritischen Verbreitung irreführender Informationen durch KI.
Suchmaschinen, die durch künstliche Intelligenz (KI) unterstützt werden, bieten zunehmend besorgniserregende Ergebnisse, indem sie tief verwurzelte rassistische und längst widerlegte Forschungsarbeiten zur sogenannten „Rassenwissenschaft“ hervorheben. Ein bemerkenswerter Fall verdeutlicht dies: Patrik Hermansson, Forscher bei der britischen Anti-Rassismus-Organisation Hope Not Hate, führte eine monatelange Untersuchung durch. Während seiner Recherche stieß er auf eine diskreditierte Datenbasis, die angeblich beweisen soll, dass weiße Menschen intellektuell überlegen seien.
Hermansson untersuchte die Human Diversity Foundation, deren Ziel es ist, solche umstrittenen Ideologien zu fördern, und die finanziell von Andrew Conru unterstützt wird. Conru, der das Online-Dating-Netzwerk Adult Friend Finder ins Leben rief, finanzierte diese Stiftung, um sie als Nachfolgerin des Pioneer Fund zu etablieren. Der Pioneer Fund, gegründet 1937 von amerikanischen Nazi-Sympathisanten, verfolgte ähnliche Absichten. Als Hermansson bei Google eingeloggt war und nach den IQs verschiedener Nationen suchte, führte ihn das von AI betriebene Tool „Overviews“ zu genau den Ergebnissen, die er zu widerlegen suchte.
Gefährliche Ergebnisse
Dieses KI-gestützte Tool lieferte Werte, die direkt aus umstrittenen Studien entnommen waren. Besonders problematisch ist, dass diese Zahlen aus der Forschungsarbeit von Richard Lynn stammen, einem Universitätsprofessor, der zeitlebens die Thesen des Pioneer Fund unterstützte. Trotz der Anerkennung durch einige Akademiker wird Lynns Arbeit von Experten stark kritisiert. Sie wird als wenig fundiert bewertet, weil die Herkunft und Genauigkeit der Daten nicht ausreichend begründet ist. Dies birgt die Gefahr, rassistische Rhetorik unkritisch zu verbreiten.
Lynns Forschung fand auch Anklang bei extrem rechten Gruppierungen. Diese nutzen sie, um ihre Theorien von der Überlegenheit der weißen Rasse zu stützen. Gleichwohl haben verschiedene andere Suchmaschinen, darunter auch Microsofts Copilot und Perplexity, Lynns Arbeiten konsultiert, als ähnliche Suchanfragen gestellt wurden. Ungeachtet intensiver Kritik an der Qualität dieser Forschungsergebnisse besteht die Gefahr, dass solche Daten durch den Einsatz von KI weiter verbreitet werden.
Problemmatische Verbreitung in der Wissenschaft
KI-Overviews von Google, welche ursprünglich zur Vereinfachung von Online-Suchen dienen sollten, haben mehrere Probleme aufgeworfen. Die Tatsache, dass diese Werke leicht zugänglich sind und unkonkret referenziert werden, führt zu Bedenken um die Unverfälschtheit der dargebotenen Informationen. Laut Google ist eine Überarbeitung ihrer Algorithmen notwendig, um sicherzustellen, dass Informationen von höherer Qualität und Klarheit offeriert werden. Trotz dieser Herausforderungen bleiben die potenziell irreführenden Informationen im Umlauf und werden weiterhin unkritisch zitiert.
Einwanderung und ihre Tiefe beeinflussen die intellektuelle Disposition einer Nation – so der irreführende Konsens in einigen Kreisen. Dass AI-gestützte Systeme solche verzerrten Ansichten nach wie vor verbreiten, stärkt irreführende Ideologien. Ein missbräuchlicher Umgang mit Wissenschaft legitimiert rassistische Weltbilder. Die Verantwortung dafür liegt nicht allein bei der Technologie, sondern auch bei einem wissenschaftlichen Umfeld, das solche verzerrten Daten lange Zeit unkontrolliert übernommen hat.