- OpenAI hat eine Weiterentwicklung seines Chatbots angekündigt, um die Interaktion weniger frustrierend zu gestalten. Der Fokus liegt auf ausführlicheren Erklärungen bei abgelehnten Anfragen und alternativen Fragestellungen. Sexuelle Inhalte mit Minderjährigen sind verboten, während bestimmte sensible Inhalte in speziellen Kontexten erlaubt sind. Der neue GPT-5-Algorithmus wird als Standard implementiert, ältere Versionen bleiben zahlenden Abonnenten vorbehalten. Benutzerdefinierte Anleitungen ermöglichen Personalisierung, ohne die Sicherheitsrichtlinien zu überschreiten.
OpenAI hat kürzlich eine Weiterentwicklung seines Chatbots angekündigt, die darauf abzielt, die Interaktion mit dem Chatbot weniger frustrierend zu gestalten. Ein zentrales Element dieser Verbesserung ist die Bereitstellung ausführlicherer Erklärungen, wenn der Bot eine Anfrage ablehnen muss. Zuvor endeten derartige Interaktionen häufig mit einem simplen, unpersönlichen Entschuldigungstext, falls die Anfrage im Widerspruch zu den Inhalten von OpenAIs Richtlinien stand. Diese Richtlinien legen fest, welche Inhalte generiert werden dürfen und welche nicht.
Veränderte Interaktionen
Sexuelle Inhalte, die Minderjährige darstellen, sind vollständig untersagt, während erotische Inhalte für Erwachsene und extreme Gewalt als „sensibel“ eingestuft werden. Solche Inhalte sind nur in bestimmten Fällen, wie beispielsweise im Bildungsbereich, zulässig. Während der neue GPT-5-Algorithmus als Standard für alle Nutzer implementiert wird, bleiben ältere Versionen ausschließlich zahlenden Abonnenten vorbehalten. Diese Aktualisierung zielt darauf ab, sicherere Interaktionen zu fördern und den Schwerpunkt auf die potenziellen Auswirkungen der Antworten des Bots zu legen.
Die Art und Weise, wie der Algorithmus Entscheidungen trifft, hat sich grundlegend verändert. Während in der früheren Version die Entscheidung noch stärker auf den gestellten Fragen basierte, liegt der Fokus nun mehr auf dem, was die KI möglicherweise antworten könnte. Wenn eine mögliche Antwort des Bots als unsicher eingestuft wird, wird erläutert, welcher Aspekt der Frage gegen die Richtlinien von OpenAI verstößt, und es werden alternative Fragestellungen vorgeschlagen.
Das neue Modell im Praxistest
Dabei werden nicht alle Verstöße gleichbehandelt, wie der Sicherheitsspezialist Saachi Jain erklärt. Einige Verstöße wiegen schwerer als andere, und es ist entscheidend, dass der Bot bei kritischen Themen vorsichtiger agiert. Das neue System soll dazu ermutigen, eine konservativere Haltung zu zeigen. Auch bei richtig beantworteten Fragen bleibt der Bot angehalten, die Inhalte seiner Antworten sorgsam abzuwägen.
Seit der Veröffentlichung von GPT-5 haben einige Benutzer eine gewisse Unveränderlichkeit im Verhalten von ChatGPT während alltäglicher Anfragen bemerkt. Die neuen Veränderungen zielen jedoch darauf ab, die Nutzer auf eine transparentere Art und Weise zu informieren, warum bestimmte Anfragen abgelehnt werden, ohne die Funktionalität in alltäglichen Anwendungen zu beeinträchtigen.
Persönliche Anpassungen und Herausforderungen
Besonderes Augenmerk liegt auch auf der Personalisierung des Chatbots durch benutzerdefinierte Anleitungen. Diese ermöglichen es Nutzern, Einfluss auf die Ausprägung von GPT-5 zu nehmen und spezifische Eigenschaften des Bots zu konfigurieren. Dabei wird jedoch strikt darauf geachtet, dass die Sicherheitsrichtlinien nicht überschritten werden. Benutzer können laut OpenAI Sicherheits- und Gefährdungspotenziale durch eine angemessene Hierarchisierung ihrer individuellen Anweisungen verhindern.
In der Folgezeit plant OpenAI, die Rückmeldungen der Nutzer zu berücksichtigen, um das Nutzererlebnis weiter zu verfeinern und sicherzustellen, dass die Interaktionen zwischen Mensch und Maschine so gut wie möglich optimiert werden. Während einige Nutzer weiterhin Herausforderungen bei der neuen Systemlogik sehen, verspricht OpenAI kontinuierliche Anpassungen, um die Handhabung einfacher und intuitiver zu gestalten.