- OpenAI hat am 13. Mai ein neues KI-Modell vorgestellt, das leistungsstärker und menschenähnlicher ist. Das Modell kann Gleichungen lösen, Gutenachtgeschichten erzählen und Emotionen erkennen. Experten äußern Bedenken hinsichtlich der erweiterten Datenerfassungsfähigkeiten und Privatsphäre. OpenAI’s Datenschutzrichtlinie erlaubt die Sammlung und Nutzung einer Vielzahl von Daten, es sei denn, Nutzer deaktivieren dies. OpenAI bietet Nutzern Kontrollen, um ihre Daten zu sichern und die Verwendung zur Modellverbesserung zu verhindern.
Am 13. Mai hat OpenAI ein neues KI-Modell vorgestellt, um seinen Chatbot ChatGPT zu betreiben. Die neueste Version ist überaus leistungsstark und viel menschenähnlicher, mit der Fähigkeit, Gleichungen zu lösen, Gutenachtgeschichten zu erzählen und Emotionen anhand von Gesichtsausdrücken zu erkennen. OpenAI hat großen Wert darauf gelegt, seine Werkzeuge allen zugänglich zu machen. Experten sagen jedoch, dass die gesteigerten Fähigkeiten von GPT-4o die Menge an Informationen, die von OpenAI potenziell erfasst werden können, erweitern und damit Bedenken hinsichtlich der Privatsphäre verstärken.
Erhöhte Bedenken bezüglich der Privatsphäre
Die Firma hat in diesem Bereich eine durchwachsene Bilanz. Nach der Veröffentlichung enthüllte eine Analyse, wie Millionen von Seiten aus Reddit-Posts, Büchern und dem breiteren Web verwendet wurden, um das generative KI-Textsystem zu erstellen, einschließlich persönlicher Daten, die Sie online über sich selbst teilen. Dies führte dazu, dass ChatGPT in Italien gegen die Datenschutzregelungen verstieß, was zu einem Verbot im vergangenen Jahr führte.
Nicht lange nach der Einführung zeigte eine erste Demo der macOS-Version von ChatGPT, dass der Chatbot auf den Bildschirm des Nutzers zugreifen konnte. Im Juli geriet die gleiche App erneut in die Kritik, als bekannt wurde, dass eine Sicherheitslücke es einfach machte, auf Ihrem Computer gespeicherte Chats zu finden und im Klartext zu lesen. OpenAI veröffentlichte schnell ein Update, das die Chats verschlüsselt, aber angesichts dieses Maßes an Überprüfung des Unternehmens und GPT-4o ist leicht zu verstehen, warum die Leute beunruhigt sind.
OpenAI’s Datenschutzrichtlinie
Auf den ersten Blick zeigt OpenAI’s Datenschutzrichtlinie eine beträchtliche Menge an Datenerhebung, einschließlich persönlicher Informationen, Nutzungsdaten und Inhalte, die Sie beim Gebrauch bereitstellen. ChatGPT nutzt die Daten, die Sie teilen, um seine Modelle zu trainieren, es sei denn, Sie deaktivieren dies in den Einstellungen oder verwenden die Enterprise-Version. OpenAI behauptet in seiner Datenschutzrichtlinie schnell, dass individuelle Daten „anonymisiert“ werden, doch der Grundansatz scheint „alles jetzt nehmen und später sortieren“ zu sein, sagt Angus Allan, Senior Product Manager bei der digitalen Beratungsfirma CreateFuture, die Unternehmen bei der Nutzung von KI und Datenanalyse berät.
„Ihre Datenschutzrichtlinie besagt ausdrücklich, dass sie alle Benutzereingaben sammeln und sich das Recht vorbehalten, ihre Modelle damit zu trainieren.“ Die allumfassende „Benutzerinhalts“-Klausel deckt wahrscheinlich auch Bilder und Sprachdaten ab, sagt Allan. „Es ist ein Datenstaubsauger auf Steroiden, und das alles ist schwarz auf weiß festgehalten.“ Die Richtlinie hat sich mit GPT-4o nicht wesentlich geändert, aber angesichts seiner erweiterten Fähigkeiten hat sich der Umfang dessen, was als ‚Benutzerinhalt‘ gilt, dramatisch erweitert.
OpenAI’s Datenschutzrichtlinien machen deutlich, dass ChatGPT keinen Zugriff auf Daten auf Ihrem Gerät hat, die Sie nicht ausdrücklich im Chat eingeben. Standardmäßig sammelt ChatGPT jedoch viele andere Daten über Sie, sagt Jules Love, Gründer von Spark, einer Beratung, die Unternehmen dabei hilft, KI-Tools wie ChatGPT in ihre Arbeitsabläufe zu integrieren und dabei die Datensicherheit zu gewährleisten. „Es verwendet alles von Eingabeaufforderungen und Antworten bis hin zu E-Mail-Adressen, Telefonnummern, Geolokalisierungsdaten, Netzwerkaktivität und den Geräten, die Sie verwenden.“
Kontrollmechanismen für Privatsphäre
Seit seiner Einführung im Jahr 2020 und angesichts von Kritik und Datenschutzskandalen hat OpenAI Werkzeuge und Kontrollen eingeführt, mit denen Sie Ihre Daten sichern können. OpenAI sagt, dass es „verpflichtet ist, die Privatsphäre der Menschen zu schützen.“ Speziell für ChatGPT sagt OpenAI, dass es versteht, dass Nutzer nicht wollen, dass ihre Informationen zur Verbesserung der Modelle verwendet werden und daher Möglichkeiten bereitstellt, dies zu verhindern.
„ChatGPT Free- und Plus-Nutzer können leicht steuern, ob sie zu zukünftigen Modellverbesserungen beitragen,“ schreibt das Unternehmen auf seiner Webseite und fügt hinzu, dass Trainingsdaten standardmäßig nicht in der API, ChatGPT Enterprise und ChatGPT Team verwendet werden. „Wir bieten ChatGPT-Nutzern eine Reihe von Datenschutzkontrollen, einschließlich einer einfachen Möglichkeit, das Training unserer KI-Modelle abzulehnen und einen temporären Chat-Modus, der Chats regelmäßig automatisch löscht“, sagt OpenAI-Sprecherin Taya Christianson.
Das Unternehmen sagt, es suche keine persönlichen Informationen zur Schulung seiner Modelle und verwende keine öffentlichen Informationen im Internet, um Profile über Menschen zu erstellen, für Werbung oder zur Veräußerung von Nutzerdaten.
OpenAI trainiert Ihre Modelle nicht an Audio-Clips, es sei denn, Sie entscheiden sich dafür, Ihre Audio-Daten zu teilen, „um Sprach-Chats für alle zu verbessern“, wie in den FAQ zu Voice Chats auf OpenAI‘s Webseite vermerkt.
Zuletzt hat OpenAI die Transparenz der Datenerhebung und -nutzung „zu einem gewissen Grad“ verbessert und den Nutzern klare Optionen zur Verwaltung ihrer Datenschutzeinstellungen gegeben, sagt Rob Cobley, kommerzieller Partner bei der Anwaltskanzlei Harper James, die rechtliche Beratung zu Datenschutzfragen anbietet. „Die Benutzer können auf ihre persönlichen Daten zugreifen, sie aktualisieren und löschen, um sicherzustellen, dass sie die Kontrolle über ihre Daten haben.“
Der einfachste Weg, Ihre Daten privat zu halten, besteht darin, in Ihre persönlichen Einstellungen zu gehen und die Datenerfassung zu deaktivieren, sagt Love.