- Ilya Sutskever verkündet Gründung des KI-Start-ups Safe Superintelligence.
- Erstes Produkt des Unternehmens wird eine sichere Superintelligenz sein.
- Daniel Gross und Daniel Levy sind Mitgründer, beide mit einschlägiger Erfahrung.
- Diskussion um Gefährlichkeit von KI-Systemen bleibt aktuell.
- Finanzierung des neuen Unternehmens bleibt unklar.
Eine signifikante Neuigkeit aus der Technologiewelt: Einer der prominenten Mitbegründer von OpenAI, Ilya Sutskever, hat die Gründung eines eigenen KI-Start-ups verkündet. Unter dem Namen Safe Superintelligence soll das Unternehmen eine ungefährliche, hochentwickelte Künstliche Intelligenz entwickeln. Diese ambitionierte Ankündigung machte Sutskever erst kürzlich am Mittwoch.
Ein markantes Merkmal dieses Unternehmens ist, dass das erste Produkt eine sichere Superintelligenz sein wird und keine weiteren Angebote vorher auf den Markt kommen. Dadurch soll kommerzieller Druck und ein Wettlauf zwischen verschiedenen KI-Laboren vermieden werden, erläuterte Sutskever in einem Gespräch mit dem Finanzdienst Bloomberg.
Zwei Mitgründer
Neben Sutskever gehören Daniel Gross und Daniel Levy zum Gründerteam. Gross bringt seine Erfahrung aus der Arbeit mit Künstlicher Intelligenz bei Apple ein, während Levy zuvor mit Sutskever bei OpenAI tätig war. Sutskever, der lange als einer der führenden Köpfe der Künstlichen Intelligenz gilt, möchte mit Safe Superintelligence ein neues Kapitel in der KI-Forschung aufschlagen.
Die Diskussion über die potenzielle Gefährlichkeit von KI-Systemen ist kein neues Phänomen. Schon seit Jahren sorgen sich Experten, dass leistungsstarke und eigenständige KI-Systeme eine Bedrohung für die Menschheit darstellen könnten. Die Branche ist daher ständig bemüht, durch strenge Richtlinien und Meldepflichten Risiken zu minimieren.
Wirbel um Personalie
Einige mögen sich noch an die personellen Wechsels bei OpenAI erinnern, als Sutskever als Forschungschef maßgeblich am überraschenden Rauswurf von CEO Sam Altman beteiligt war. Dieser wurde jedoch wenige Tage später, unter dem Druck von Mitarbeitern und Großinvestor Microsoft, wieder rückgängig gemacht. Sutskever entschloss sich im Mai, OpenAI zu verlassen.
Die Vision von Safe Superintelligence erinnert stark an die ursprüngliche Mission von OpenAI, das als nicht-profitorientiertes Forschungslabor etabliert wurde. OpenAI erkannte jedoch bald, dass finanzielle Mittel unabdingbar sind, um langfristig bestehen zu können. Dies führte zur Kooperation mit Microsoft und zur Veröffentlichung von ChatGPT. Bisher bleibt jedoch unklar, wie sich das neue Unternehmen von Sutskever finanzieren wird.
Es wird spannend sein zu beobachten, wie Safe Superintelligence die Entwicklung von sicherer Superintelligenz vorantreiben wird und welche Herausforderungen auf dem Weg dorthin gemeistert werden müssen.