- Microsoft untersucht mögliche Verstöße gegen Nutzungsbedingungen durch DeepSeek. DeepSeek könnte geistiges Eigentum gestohlen haben, indem es OpenAI’s API zur Modellschulung verwendet hat. Ein Lehrer-Schüler-Konzept zur Wissensübertragung zwischen Modellen könnte genutzt worden sein. Branchenexperten vermuten den Einsatz von Reverse Engineering zur Modellentwicklung. Sicherheitsspezialisten haben herausgefunden, dass DeepSeek möglicherweise Programmcode von OpenAI extrahiert hat.
Microsoft, ein bedeutender Investor in OpenAI, prüft derzeit, ob fragwürdige Methoden für das Training seiner fortschrittlichen Denkmodule eingesetzt wurden. Das Unternehmen glaubt nun, DeepSeek habe möglicherweise gegen seine Nutzungsbedingungen verstoßen, indem es die Anwendungsprogrammierschnittstelle (API) zur Schulung seines kürzlich vorgestellten R1-Modells verwendet hat. Diese Neuigkeit folgt, nachdem der US-amerikanische KI- und Krypto-Beauftragte David Sacks in einem Interview erklärte, es sei „möglich“, dass DeepSeek geistiges Eigentum der USA gestohlen habe.
Ein ausgeklügeltes Vorgehen?
Es gibt Hinweise darauf, dass DeepSeek das Wissen von OpenAI’s Modellen destilliert hat. Sacks bemerkt, dass das Unternehmen potenziell einen unrechtmäßigen Vorteil bei der Erzeugung seiner Modelle erzielt habe. Industry-Insider sind fasziniert von der Geschwindigkeit und Kosteneffizienz, mit der DeepSeek seine KI-Modelle entwickelt – und das mit einem Budget von nur 5,6 Millionen US-Dollar in einem Jahr. Das wirft die Frage auf, ob DeepSeek andere Firmenmodelle als Grundlage verwendet hat. Eine verbreitete Theorie ist, dass DeepSeek die Technik der Destillation anwandte, die im Wesentlichen ein Lehrer-Schüler-Konzept zwischen zwei Modellen beinhaltet und so Wissen von einem Modell zum anderen überträgt. Der kostengünstige Betrieb und die Verwendung weniger leistungsstarker Nvidia H800-Chips wären dadurch erklärbar.
Licht und Schatten der Technik
DeepSeek könnte gezwungen sein, sich zu rechtfertigen, ob alle Vorgänge bei der Modellentwicklung legal waren. Vor diesem Hintergrund spekulierten Branchenexperten, dass DeepSeek möglicherweise auf Reverse Engineering zurückgreift, um chinesische Modelle zu verfeinern. Reverse Engineering, das häufig in der Open-Source-Entwicklung genutzt wird, ist rechtlich akzeptiert, zeigt jedoch bestehende Modelle und deren Muster auf. Sicherheitsspezialisten von Microsoft kamen zu dem Schluss, dass DeepSeek erheblichen Programmcode aus OpenAI’s API im Herbst 2024 extrahiert haben könnte. Diese Erkenntnis wurde OpenAI angeblich mitgeteilt, als das R1-Modell die Aufmerksamkeit auf den chinesischen KI-Entwickler und dessen Partner lenkte.
DeepSeek wird als eine Open-Source-Anwendung gefeiert, die Entwicklern abwechslungsreiche Möglichkeiten bietet. Diese Offenheit ist ein wesentlicher Punkt des Hypes um die Plattform, hinzu kommen Vergleiche mit führenden Technologien. OpenAI ist nicht als Open-Source-Dienst bekannt, allerdings kann jeder seine API nutzen, unter der Bedingung, dass die Ausgaben nicht zum Trainieren anderer Modelle verwendet werden dürfen. Ein OpenAI-Sprecher wies darauf hin, dass Kopierversuche internationaler Unternehmen inzwischen keine Seltenheit mehr sind. Unternehmen ergreifen diverse Gegenmaßnahmen, um ihr geistiges Eigentum zu schützen und arbeiten eng mit der US-Regierung zusammen, um ihre hochentwickelten Modelle zu sichern.