OpenAI wurde mit dem Versprechen gegründet, künstliche Intelligenz zu entwickeln, die allen Menschen zugute kommt – auch wenn diese KI erheblich intelligenter wird als ihre Schöpfer. Seit ihrer Einführung im letzten Jahr und während ihrer kommerziellen Ambitionen hat das Unternehmen eine neue Forschungsgruppe gegründet, die an superintelligenten KIs der Zukunft arbeitet. Seit Juli ist die Superalignment-Forschungsgruppe aktiv, und Leopold Aschenbrenner, ein Mitarbeiter von OpenAI, ist der Ansicht: “AGI nähert sich in einer rasanten Geschwindigkeit. Wir werden superschnelle Modelle sehen, die über umfangreiche Fähigkeiten verfügen und sehr gefährlich sein können. Wir haben noch keine Methoden, um sie zu kontrollieren.” OpenAI plant, ein Fünftel seiner verfügbaren Rechenleistung dem Superalignment-Projekt zu widmen.
Eine von OpenAI veröffentlichte Forschungsarbeit preist die Ergebnisse von Experimenten, die darauf abzielen, einen weniger intelligenten KI-Modell dazu zu verwenden, das Verhalten eines viel intelligenteren Modells zu leiten, ohne es dabei zu beeinträchtigen. Obwohl die Technologie noch lange nicht die Flexibilität des Menschen übertrifft, sind Forscher dabei, Methoden zu erkunden, um diesen Prozess zu automatisieren und Zeit zu sparen. Es wird auch diskutiert, dass es möglicherweise für Menschen unmöglich wird, nützliche Rückmeldungen zu geben, wenn KI mächtiger wird.
Die Forscher von OpenAI haben die Überwachungsmethode untersucht, um Systeme wie GPT-4, das große Sprachmodell hinter ChatGPT, zu optimieren, um hilfreicher und weniger schädlich zu sein. In einem Kontrollexperiment wurde das GPT-2-Textgenerator von OpenAI verwendet, um GPT-4 zu unterrichten, aber das neuere System wurde weniger leistungsfähig und ähnlicher zum überlegenen System. Die Forscher testeten zwei Ideen zur Behebung dieses Problems. Eine davon beinhaltete das Training von zunehmend größeren Modellen, um den Leistungsverlust bei jedem Schritt zu reduzieren. Bei der anderen Idee fügte das Team einen algorithmischen Trick zu GPT-4 hinzu, der es dem stärkeren Modell ermöglichte, den Anweisungen des schwächeren Modells zu folgen, ohne seine Leistung so sehr zu beeinträchtigen, wie es normalerweise der Fall wäre.
Die Forscher betonen jedoch, dass diese Methoden nicht garantieren, dass das stärkere Modell perfekt funktioniert, es stellt jedoch einen Ausgangspunkt für weitere Forschung dar. Die Superalignment-Gruppe besteht aus Forschern, die sehr ermutigt sind, diese wichtigen ersten Schritte bei der Bändigung potenziell übermenschlicher KIs zu sehen.
Obwohl OpenAI einen ersten Schritt zur Kontrolle fortgeschrittenerer KI betont, ist das Unternehmen auch daran interessiert, externe Hilfe in Anspruch zu nehmen. Das Unternehmen gab bekannt, dass es in Partnerschaft mit anderen in den kommenden Jahren 10 Millionen US-Dollar an Zuschüssen vergeben wird. Außerdem wird nächsten Jahr eine Konferenz zum Thema Superalignment stattfinden.
OpenAI ist berühmt für seine Technologieentwicklungen und hat in der Vergangenheit für Schlagzeilen gesorgt. Stuart Russell, ein Professor an der UC Berkeley, bemerkt, dass die Idee, ein weniger mächtiges KI-Modell zur Steuerung eines mächtigeren Modells zu verwenden, schon lange existiert. Es ist jedoch unklar, ob die derzeit existierenden Methoden dafür geeignet sind, da sie bisher nicht verlässlich dafür gesorgt haben, dass aktuelle Modelle sich zuverlässig verhalten.