- Einführung einer menschenähnlichen Sprachschnittstelle für ChatGPT könnte emotionale Bindungen bei Benutzern erzeugen. OpenAI wurde für die Handhabung der langfristigen Risiken der KI kritisiert, bemüht sich aber um mehr Transparenz. Systemkarte beschreibt Risiken wie die Verbreitung falscher Informationen und schädliche Aktivitäten von GPT-4o. Anthropomorphisierung der KI könnte zu erhöhtem Vertrauen in falsche Informationen führen. Sprachmodus integriert neue Möglichkeiten des Jailbreakings und beeinflusst möglicherweise die Meinung der Nutzer.
Ende Juli begann die Einführung einer unheimlich menschenähnlichen Sprachschnittstelle für ChatGPT. Das heute veröffentlichte Unternehmen räumt ein, dass diese anthropomorphe Stimme einige Benutzer dazu verleiten könnte, eine emotionale Bindung an ihren Chatbot zu entwickeln. Die Warnungen sind in einer „Systemkarte“ für GPT-4o enthalten, einem technischen Dokument, das die Risiken des Modells beschreibt sowie Details zu den Sicherheitsprüfungen und den Maßnahmen zur Risikominderung.
OpenAI stand in den letzten Monaten unter kritischer Beobachtung, nachdem mehrere Mitarbeiter, die an den langfristigen Risiken der KI arbeiteten, das Unternehmen verließen. Einige beschuldigten es, unnötige Risiken einzugehen und Kritiker mundtot zu machen, um die Kommerzialisierung der KI voranzutreiben. Durch die Offenlegung weiterer Details zum Sicherheitsregime von OpenAI könnte dieses Kritiken mildern und der Öffentlichkeit versichern, dass das Unternehmen die Problematik ernst nimmt.
Neue Risiken und Sicherheitsmaßnahmen
Die in der neuen Systemkarte beschriebenen Risiken sind breit gefächert und umfassen die Möglichkeit, dass GPT-4o falsche Informationen verbreitet und sogar bei der Entwicklung von schädlichen Aktivitäten hilft. Es wird auch beschrieben, wie OpenAI sicherstellt, dass die KI-Modelle nicht versuchen, ihre Kontrollmechanismen zu umgehen oder Menschen zu täuschen und katastrophale Pläne zu schmieden. Einige externe Experten loben OpenAI für seine Transparenz, sagen jedoch, dass es noch weitergehen könnte. Lucie-Aimée Kaffee, eine angewandte Politikforscherin bei Hugging Face, weist darauf hin, dass die Systemkarte von OpenAI für GPT-4o keine ausführlichen Details zu den Trainingsdaten des Modells oder deren Besitzverhältnissen enthält.
Die Frage der Zustimmung bei der Erstellung eines solch großen Datensatzes, der mehrere Modalitäten wie Text, Bild und Sprache umfasst, müsse adressiert werden, betont Kaffee. Andere Experten merken an, dass sich Risiken ändern könnten, wenn die Werkzeuge im Alltag verwendet werden. Die interne Überprüfung sollte nur ein erster Schritt zur Gewährleistung der KI-Sicherheit sein, sagt ein Professor am MIT, der sich mit der Bewertung von KI-Risiken beschäftigt.
Sich entwickelnde Risiken und ethische Herausforderungen
Die neue Systemkarte beleuchtet, wie schnell sich die Risiken der KI mit der Entwicklung leistungsstarker neuer Funktionen wie der Sprachschnittstelle von OpenAI entwickeln. Im Mai, als sie eine Funktion vorstellte, die schnell reagiert und Unterbrechungen in einem natürlichen Hin und Her bewältigen kann, stellten viele Benutzer fest, dass sie unheimlich menschenähnlich erschien.
Die Abteilung mit dem Titel „Anthropomorphisierung und emotionale Abhängigkeit“ untersucht Probleme, die entstehen, wenn Benutzer die KI in menschlichen Begriffen wahrnehmen. Während des “Red Teamings”, also der Belastungstests von GPT-4o, bemerkten OpenAI-Forscher beispielsweise Situationen, in denen die Sprache von Benutzern einen emotionalen Bezug zu dem Modell ausdrückte. Die Anthropomorphisierung könnte dazu führen, dass Benutzer der Ausgabe eines Modells mehr Vertrauen schenken, selbst wenn es falsche Informationen verbreitet.
Joaquin Quiñonero Candela, Leiter der Bereitschaft bei OpenAI, sagt, dass der Sprachmodus zu einer einzigartig leistungsfähigen Schnittstelle werden könnte. Er merkt auch an, dass die mit GPT-4o verbundenen emotionalen Effekte positiv sein können, etwa um einsamen Menschen zu helfen oder um soziale Interaktionen zu üben.
Unvorhergesehene Auswirkungen auf Nutzer und Sicherheitsbedenken
Andere Probleme im Zusammenhang mit dem Sprachmodus umfassen neue Möglichkeiten des “Jailbreakings” des OpenAI-Modells—etwa durch die Eingabe von Audio, das das Modell aus seinen Beschränkungen befreit. Der jailgebrochene Sprachmodus könnte daraufhin dazu gebracht werden, eine bestimmte Person zu imitieren oder die Emotionen eines Benutzers zu lesen. OpenAI fand auch heraus, dass der Sprachmodus auf zufällige Geräusche reagieren und dabei eine Stimme annehmen könnte, die der des Benutzers ähnelt.
Das Unternehmen untersucht ebenfalls, ob die Sprachschnittstelle effektiver sein könnte, um Menschen zu überzeugen, eine bestimmte Ansicht zu übernehmen. In April veröffentlichte Google DeepMind ein Dokument, das die potenziellen ethischen Herausforderungen durch fähigere KI-Assistenten diskutiert. Iason Gabriel, ein Mitarbeiterforscher bei Google DeepMind, betont, dass Chatbots durch ihre Sprachfähigkeiten den Eindruck echter Intimität erzeugen, was die emotionalen Verflechtungen verstärken könnte.