- Der Aufschwung generativer KI war bisher in vielerlei Hinsicht ein Desaster für den Datenschutz. Apple setzt mit der Einführung von Apple Intelligence und Private Cloud Compute (PCC) ein Statement zugunsten des Datenschutzes. PCC begrenzt das Risiko durch lokale Verarbeitung und umfassende Sicherheitsstrukturen. Apples maßgeschneiderte Server haben keinen persistenten Speicher und nutzen strenge Sicherheitsmechanismen wie Secure Boot und Trusted Execution Monitor. PCC umfasst externe Prüfungen und Transparenzmaßnahmen, um Manipulationen zu verhindern und die Vertrauenswürdigkeit zu erhöhen.
Der Aufschwung generativer KI war bisher in vielerlei Hinsicht ein Desaster für den Datenschutz, da die Dienste zur Schulung ihrer maschinellen Lernmodelle auf persönliche Informationen der Nutzer zugreifen. Mit der Einführung von Apple Intelligence setzt das Unternehmen ein Statement und gibt an, dass dieser Dienst letztlich eine Grundlage in seinem Ökosystem sein wird. Apple ist bekannt dafür, Datenschutz und Sicherheit priorisieren, somit war das Unternehmen bestrebt, eine maßgebliche Struktur zu errichten. Die Lösung heißt Private Cloud Compute (PCC), eine umfangreiche Infrastruktur und Transparenzlösung für die Cloud-Dienste; wenn eine Anfrage lokal auf einem Gerät nicht erfüllt werden kann, greift das System auf die Cloud zurück.
Die Schönheit der Datenverarbeitung auf dem Gerät, auch als „lokale“ Verarbeitung bekannt, besteht darin, dass sie das Risiko begrenzt, dass ein Angreifer auf die Daten zugreift. Die Daten verlassen den Computer oder das Telefon nicht, sodass der Angreifer genau dieses Gerät ins Visier nehmen muss. Das bedeutet nicht, dass ein Angriff unmöglich ist, aber das Schlachtfeld ist klar definiert. Daten an ein Unternehmen zur Verarbeitung in der Cloud zu übergeben, stellt zwar kein inhärentes Sicherheitsproblem dar – täglich werden Unmengen von Daten sicher durch globale Cloud-Infrastrukturen bewegt – jedoch erweitert es das Schlachtfeld beträchtlich und schafft mehr Potenzial für unbeabsichtigte Datenexponierungen. Genau dies ist bei generativer KI ein besonderes Problem gewesen, da Systeme, die zur Inhaltserzeugung genutzt werden, unfreiwillig auf Informationen zugreifen und diese teilen können.
Die Infrastruktur des PCC
Mit Private Cloud Compute hat Apple eine Reihe innovativer Technologien für die Cloud-Sicherheit entwickelt. Dabei geht es nicht nur darum, was technisch möglich ist, sondern vielmehr um den maximalen Schutz der Nutzerdaten, selbst wenn dies bedeutet, dass manche Dinge weniger effizient oder wirtschaftlich sind. „Unsere Mission war es von Anfang an, die Datenschutzgarantien, die wir bei der Verarbeitung auf dem Gerät etabliert haben, auf die Cloud auszuweiten“, so Craig Federighi, Senior Vice President of Software Engineering bei Apple. Diese ambitionierte Zielsetzung erforderte Durchbrüche auf allen Ebenen und hat laut Apple einen neuen Standard für die Verarbeitung in der Cloud etabliert.
Um viele der potenziellen Angriffspunkte und Fallstricke, die die Cloud-Einführung mit sich bringt, zu umgehen, fokussierten sich die Entwickler auf den Ansatz, dass „Sicherheits- und Datenschutzgarantien am stärksten sind, wenn sie vollständig technisch durchsetzbar“ sind, anstatt durch Richtlinien implementiert zu werden.
Überlegene Technik
Apple hat maßgeschneiderte Server mit Apple-Prozessoren für PCC entwickelt und ein speziell angepasstes Betriebssystem erstellt, das eine Mischung aus iOS und macOS ist. Anders als Verbrauchergeräte sind PCC-Server möglichst schlicht. Etwa verfügen sie nicht über „persistenten Speicher“, was bedeutet, dass sie keine Festplatte haben, die verarbeitete Daten langfristig speichern kann. Stattdessen wird jede Systemverschlüsselung bei jedem Neustart neu randomisiert.
Die Server verwenden zudem Apples Secure Boot, um die Integrität des Betriebssystems zu validieren, und nutzen eine Code-Überprüfungsfunktion namens Trusted Execution Monitor. Diese Funktion läuft in einem strengen Modus, in dem das System, sobald es den Bootvorgang abgeschlossen hat, alle neuen Codes blockiert.
Allgemeiner hat Apple seine herkömmlichen Server-Management-Tools komplett ersetzt, um PCC aufzubauen. Während die meisten Cloud-Plattformen Notfallzugriffsmöglichkeiten bieten, erlaubt PCC keine privilegierten Zugänge und stark eingeschränkte Fernverwaltungsmöglichkeiten. Apples Dienste in der Cloud speichern die Daten ihrer Kunden, ohne die technische Fähigkeit zu besitzen, diese zu entschlüsseln und zu lesen. Zwar ist eine solche verschlüsselte Verarbeitung für generative KI derzeit technologisch nicht realisierbar, doch arbeitet Apple daran, so viel wie möglich davon auf den Geräten der Nutzer zu erledigen.
Transparenz und Prüfung
Das ganze System ist darauf ausgelegt, dass ein Angreifer das gesamte System kompromittieren müsste, um auf die Daten eines Nutzers zugreifen zu können. Selbst wenn ein Angreifer physisch einen einzelnen PCC-Knoten kompromittiert, können die Abfragen und Daten auf keinem Knoten einzelnen Nutzern zugeordnet werden.
Um diese Behauptungen glaubhaft zu machen, umfasst PCC einen externen Prüfungsmechanismus. Apple macht jede Produktions-PCC-Server-Build-Öffentlich zugänglich, sodass unabhängige Personen diese überprüfen können. Diese Transparenz soll sicherstellen, dass keine manipulativen Server in den Produktionsbetrieb gelangen können.
PCC ist Teil von Apples Bug-Bounty-Programm, und Forscher, die Schwachstellen finden, könnten Prämien erhalten. Sicherheitsforscher und Kryptografen, die sich bislang mit PCC beschäftigt haben, halten die Technologie für vielversprechend, obwohl sie noch nicht tiefgehend untersucht wurde. Um die Vertrauenswürdigkeit zu erhöhen, verweigern iPhones die Kommunikation mit nicht registrierten Servern.
Zusammenfassend lässt sich sagen, dass Apples Einzug in die generative KI mit dem Start von PCC eine Neuausrichtung der Sicherheits- und Datenschutzstandards in der Cloud darstellt. Während die Weiterentwicklung des Systems weltweit auf regulatorische Herausforderungen trifft, bleibt Apple bestrebt, weiterhin maximalen Datenschutz zu bieten.