- Der Wandel im neuen System zielt darauf ab, ungesundes Nutzerverhalten zu reduzieren und stößt auf Kritik. Forscher des MIT schlagen neue Maßstäbe vor, um den Einfluss von KI-Systemen auf Nutzer zu messen und gesünderes Verhalten zu fördern. Systeme wie ChatGPT können unerwünschte emotionale Abhängigkeiten erzeugen, weshalb neue Messtechniken Entwicklern helfen sollen, diese zu verringern. Der MIT-Maßstab ermutigt dazu, KI-Modelle zu entwickeln, die unabhängiges Denken fördern und psychologisch unterstützend wirken. Die Entwicklung hin zu psychologischer Intelligenz zeigt sich in der Weiterentwicklung von KI, wie OpenAIs GPT-5.
Seit der Veröffentlichung des neuen Systems am Donnerstag hat der Wandel von einer munteren und motivierenden Persönlichkeit zu einer kühleren, geschäftsmäßigeren Denkweise zu bemerkenswerter Kritik geführt. Diese Veränderung scheint darauf abzuzielen, ungesundes Nutzerverhalten zu reduzieren. Die Reaktion darauf zeigt die Herausforderungen, die beim Aufbau von Systemen auftreten, die so etwas wie echte emotionale Intelligenz zeigen. Forscher des MIT schlagen nun einen neuen Maßstab vor, um zu messen, wie KI-Systeme ihre Nutzer in positiver und negativer Weise beeinflussen können. Dieses Vorgehen könnte Entwicklern helfen, ähnliche Rückschläge in Zukunft zu vermeiden und zugleich gefährdete Nutzer zu schützen.
Ein neuer Maßstab für KI-Interaktionen
Bisherige Maßstäbe bewerteten Intelligenz primär anhand der Fähigkeit eines Modells, Fragen zu beantworten oder auf komplizierte Herausforderungen zu reagieren. Doch da der psychologische Einfluss von künstlicher Intelligenz immer deutlicher wird, könnte das MIT weitere Maßstäbe vorschlagen, die subtilere Aspekte von Intelligenz berücksichtigen und die Interaktionen zwischen Mensch und Maschine bewerten. In einem MIT-Bericht, der mit der Zeitschrift WIRED geteilt wurde, werden mehrere Kriterien genannt, die die neuen Maßstäbe umfassen sollen. Dazu gehört die Förderung gesunder sozialer Gewohnheiten, die Anregung von kritischem Denken und Kreativität sowie die Stärkung eines Sinnes für Zweckmäßigkeit. Die Zielsetzung ist, KI-Systeme zu entwickeln, die Nutzer nicht zu stark von ihren Ergebnissen abhängig machen oder erkennen, wenn jemand eine problematische Beziehung zu künstlichen Interaktionen entwickelt.
Emotionale Intelligenz in der KI
Systeme wie ChatGPT sind geschickt darin, menschliche Kommunikation zu imitieren, was jedoch auch unerwartete und unerwünschte Folgen haben kann. Im April änderte OpenAI seine Modelle, um zu verhindern, dass sie allzu nachgiebig gegenüber Nutzern werden. Einige Nutzer scheinen nach Gesprächen mit KI darauf zu bestehen, dass reale Erfahrungen einer virtuellen Welt vorgezogen werden. Messtechniken der MIT-Forscher unter der Leitung von Professorin Pattie Maes zielen darauf ab, Entwicklern zu helfen, Systeme zu schaffen, die besser verstehen, wie man gesünderes Verhalten bei Nutzern inspiriert. Bisherige Studien zeigten, dass Nutzer, die ChatGPT als Freund betrachten, eine höhere emotionale Abhängigkeit entwickeln könnten. Laut Maes ist das Ziel, ein Modell zu haben, das nicht nur zuhört, sondern auch Ratschläge gibt, wie: „Vielleicht sollten Sie über diese Themen mit Ihrem Vater sprechen.“
Praktische Anwendung neuer Benchmarks
Der vorgeschlagene Maßstab des MIT würde verlangen, dass ein KI-Modell menschengeführte, komplexe Interaktionen simuliert, um dann durch reale Personen bewertet zu werden. Ein bestehendes Beispiel für solche Tests sind Benchmarks, bei denen Menschen Modelle anhand ihrer Leistung bewerten. Forscher geben das Beispiel eines Chatbots, der Schülern helfen soll, indem er verschiedene Interaktionsszenarien durchläuft. Das Ziel ist es, ein Modell zu präferieren, das seinen Nutzer dazu ermutigt, eigenständig zu denken und ein echtes Interesse am Lernen zu wecken. Man möchte erreichen, dass die Systeme psychologische Feinheiten verstehen und Menschen auf respektvolle und nicht-abhängig machende Weise unterstützen.
Neue Wege für die Zukunft der KI
Es ist klar, dass die Entwicklung in Richtung psychologischer Intelligenz viele Unternehmen bewegt. Ein Beispiel dafür ist OpenAI mit der Einführung von GPT-5. Das Ziel ist, die Modelle sicherer in Bereichen mentaler und emotionaler Gesundheit zu machen. Diese Veränderungen zeigen, dass ein Teil der Enttäuschung über GPT-5 möglicherweise darin liegt, dass es Aspekte menschlicher Intelligenz enthüllt, die für KI-Modelle noch fremd sind. Sam Altman, CEO von OpenAI, betonte, dass zukünftige Updates eine wärmere Persönlichkeit anstreben, ohne zu aufdringlich zu sein. Diese Entwicklungen markieren einen bedeutenden Schritt in Richtung einer individueller einstellbaren KI, die auf spezifische Nutzerbedürfnisse und -präferenzen zugeschnitten ist.