- Das Unternehmen wurde für seine schnelle Entwicklung mächtigerer KI-Systeme kritisiert. Es präsentierte eine neue Methode, um KI-Modelle transparenter zu machen, durch Dialoge zwischen zwei KI-Modellen. Diese Methode ist Teil eines umfassenderen Plans zur Verbesserung der KI-Sicherheit. Transparenz und Erklärbarkeit sind entscheidend für die Entwicklung leistungsfähigerer KI-Systeme. OpenAI wurde trotz Fortschritten in der Transparenz- und Sicherheitsforschung für die Priorisierung von Marktanteilen gegenüber Sicherheit kritisiert.
In den letzten Monaten hat das Unternehmen zahlreichen Vorwürfen entgegensehen müssen, die behaupten, es dränge zu schnell und unüberlegt darauf, mächtigere Systeme zu entwickeln. Die Firma scheint darauf bedacht zu sein, ihre Ernsthaftigkeit bezüglich der Sicherheit von Künstlicher Intelligenz zu demonstrieren. Heute präsentierte sie eine Forschung, die dabei helfen soll, KI-Modelle zu durchleuchten, selbst wenn diese immer leistungsfähiger und nützlicher werden. Diese neue Methode ist eine von mehreren, die das Unternehmen in den letzten Wochen vorgestellt hat.
Die innovative Technik besteht darin, zwei KI-Modelle in einen Dialog zu verwickeln. Dabei wird das mächtigere Modell dazu gezwungen, seine Gedankengänge transparenter zu machen, damit Menschen nachvollziehen können, was es vorhat. „Dies ist zentral für unsere Mission, eine Künstliche Allgemeine Intelligenz zu entwickeln, die sowohl sicher als auch nützlich ist,“ sagt Yining Chen, eine Forscherin bei OpenAI, die an diesem Projekt arbeitet. Bisher wurde die Methode an einem KI-Modell getestet, das einfache mathematische Probleme lösen soll. Die Forscher baten das Modell, während der Problemlösung seine Gedankengänge zu erklären.
Innovative Ansätze zur KI-Sicherheit
Ein zweites Modell wurde darauf trainiert, zu erkennen, ob die Antworten korrekt sind oder nicht. Sie stellten fest, dass der Dialog zwischen den beiden Modellen das mathematisch arbeitende Modell dazu ermutigte, offener und transparenter zu sein. OpenAI veröffentlicht ein Papier, das die Herangehensweise im Detail beschreibt. „Es ist Teil unseres langfristigen Forschungsplans zur Sicherheit“, erläutert Jan Hendrik Kirchner, ein weiterer Forscher bei OpenAI. „Wir hoffen, dass andere Forscher darauf aufbauen und vielleicht auch andere Algorithmen ausprobieren.“
Transparenz und Erklärbarkeit sind wesentliche Anliegen für KI-Forscher, die leistungsfähigere Systeme entwickeln wollen. Große Sprachmodelle bieten manchmal plausible Erklärungen dafür, wie sie zu einem Schluss gekommen sind. Ein zentrales Problem ist jedoch, dass zukünftige Modelle in ihren Erklärungen undurchsichtiger oder sogar täuschend werden könnten und dabei möglicherweise unerwünschte Ziele verfolgen, während sie darüber lügen.
Ein tieferer Blick auf die Funktionsweise von KI-Modellen
Die heute vorgestellte Forschung ist Teil einer breiteren Anstrengung, zu verstehen, wie die großen Sprachmodelle funktionieren, die im Kern von Programmen wie ChatGPT stehen. Es ist eine von mehreren Techniken, die dazu beitragen könnten, mächtigere KI-Modelle transparenter und somit sicherer zu machen. OpenAI und andere Unternehmen untersuchen ebenfalls verschiedene Aspekte der großen Sprachmodelle.
OpenAI hat in den letzten Wochen mehr über seine Arbeiten zur KI-Sicherheit veröffentlicht, nachdem es für seine Herangehensweise kritisiert wurde. Im Mai wurde bekannt, dass ein Forscherteam, das sich der Untersuchung langfristiger KI-Risiken widmete, aufgelöst wurde. Dies geschah kurz nach dem Weggang von Mitbegründer und technischem Schlüsselspieler Ilya Sutskever, der einer der Vorstandsmitglieder war.
Die Zukunft der KI-Entwicklung
OpenAI wurde mit dem Versprechen gegründet, KI sowohl transparenter als auch sicherer zu machen. Nach dem durchschlagenden Erfolg von ChatGPT und intensiverem Wettbewerb durch gut finanzierte Rivalen werfen einige Kritiker dem Unternehmen nun vor, spektakuläre Fortschritte und Marktanteile über die Sicherheit zu stellen. Daniel Kokotajlo, ein Forscher, der OpenAI verlassen hat und die Herangehensweise des Unternehmens kritisch sieht, meint, die neuen Arbeiten seien wichtig, aber nur ein erster Schritt. „Die Situation bleibt unverändert“, sagt er. „Undurchsichtige, unregulierte Unternehmen wetteifern darum, künstliche Superintelligenz zu entwickeln, ohne einen klaren Plan, wie man sie kontrollieren kann.“ Ein anderer Insider, der anonym bleiben möchte, hebt hervor, dass externe Aufsicht über KI-Unternehmen ebenfalls notwendig sei. „Die Frage ist, ob sie es ernst meinen mit den Prozessen und Governance-Mechanismen, die den gesellschaftlichen Nutzen vor Gewinn stellen,“ sagt die Quelle. „Nicht, ob sie ihren Forschern erlauben, etwas zur Sicherheit zu tun.“