- Michal Kosinski untersucht, ob große Sprachmodelle wie GPT-3.5 und GPT-4 ähnliche Denkprozesse wie Menschen zeigen. Kosinski warnt vor der Gefahr, dass KI-Modelle, die menschliches Denken verstehen, manipulieren könnten. Kosinskis Ansichten stoßen auf Kritik; einige Forscher sehen einen „Clever-Hans“-Effekt. Neue Studien deuten darauf hin, dass KI-Modelle bei einigen Aufgaben Menschen übertreffen könnten. Die Entwicklung kognitiv überlegener KI-Systeme wirft ethische und gesellschaftliche Fragen auf.
Michal Kosinski, ein renommierter Forschungspsychologe von Stanford, ist bekannt für seine Fähigkeit, relevante Themen zu identifizieren und die Welt auf potenzielle Gefahren der Computersysteme hinzuweisen. Seine bekanntesten Projekte beschäftigen sich mit der tiefgehenden Analyse, wie Facebook seine Benutzer versteht, basierend auf jedem Klick auf „Gefällt mir“. Heutzutage widmet er sich der Untersuchung künstlicher Intelligenz. In einem kürzlich in den „Proceedings of the National Academy of Sciences“ veröffentlichten Artikel postuliert er, dass große Sprachmodelle wie die von OpenAI entworfenen, Techniken anwenden, die dem menschlichen Denken ähneln. Diese Fähigkeit, bekannt als „Theory of Mind“, ermöglicht es einem, die Gedankenprozesse anderer Menschen zu verstehen.
Künstliche Intelligenz auf dem Prüfstand
Die Experimente, die Kosinski mit GPT-3.5 und GPT-4 durchgeführt hat, prüfen, ob diese Modelle die Fähigkeit erlangt haben, ähnliche Denkprozesse wie Menschen zu durchlaufen. Besonders GPT-4 zeigt Anzeichen dieser Fähigkeit, doch bleibt Kosinski zurückhaltend. Ein Viertel der Zeit versagt selbst das fortgeschrittenste Modell noch. Der Fortschritt dieser KI-Modelle könnte jedoch auf Fähigkeiten hinweisen, die über die Denkgeschwindigkeit von Sechsjährigen hinausgehen. Diese Entwicklungen werfen wesentliche Fragen auf, ob KI-Systeme künftig eine „Theory of Mind“ oder Bewusstsein erlangen können. Kosinski hebt die Gefahr hervor, dass KI-Modelle, die menschliches Denken verstehen, manipulieren und beeinflussen könnten. KI-Systeme, die die menschliche Denkweise ohne jegliche menschliche Einschränkungen nachahmen, könnten sich einen soziopathischen Charakter annehmen.
Kritik und Kontroversen
Kosinskis Ansichten stoßen auf Widerstand in der Forschungswelt. Einige Psychologen argumentieren, dass er möglicherweise einem „Clever-Hans“-Effekt aufgesessen ist—eine Analogie zu einem Pferd, dem mathematische Fähigkeiten zugeschrieben wurden. Kritiker bemängeln, dass die Sprachmodelle, basierend auf ihrem riesigen Datenbestand, einfach wissenschaftliche Arbeiten für ihre Antworten verwenden könnten. Dennoch behauptet Kosinski, seine jüngsten Arbeiten adressieren diese Kritikpunkte. Neue Studien verstärken seine Behauptungen und zeigen, dass Modelle wie GPT-3.5 und GPT-4 bei einigen „Theory of Mind“-Aufgaben Menschen übertreffen. Die Fähigkeiten dieser Modelle könnten sich über die bloße Reproduzierung von Daten hinaus erstrecken, indem sie mentale Zustände rekonstruieren.
Zukunftsvisionen und ihre Bedrohungen
Die Frage bleibt, ob KIs jemals die vollständige „Theory of Mind“ erlangen werden. Entscheidend ist, dass aktuelle Sprachmodelle trotz unvollkommener Fähigkeiten auf einem Weg sind, der zu einem menschlichen Verständnis führen könnte. Dies ist der Kern von Kosinskis Prognosen, die er – trotz scharfer Kritiken – für wesentlich hält: Theorien über die zukünftigen Fähigkeiten neuronaler Netzwerke sind weitreichend und könnten uns mit kognitiv überlegenen KI-Systemen umgeben, die über das hinausgehen, was der Mensch je erreichen kann. Solche Entwicklungen würden uns vor immense soziale Herausforderungen stellen und erfordern eine kritische Auseinandersetzung mit den ethischen und gesellschaftlichen Implikationen.