- OpenAI sperrt Entwicklerkonto
- Verbot des Einsatzes der Technologie in politischen Kampagnen
- Verhinderung von Wahlbeeinflussung durch KI
Zum ersten Mal schreitet der ChatGPT-Betreiber OpenAI ein, um Wahlbeeinflussung zu verhindern, berichtet die „Washington Post“. Silicon-Valley-Unternehmer hatten mit einem Bot den Demokraten Dean Phillips imitiert. Der ChatGPT-Betreiber OpenAI hat der „“ zufolge den Entwickler eines Bots, der den demokratischen Präsidentschaftskandidaten Dean Phillips imitiert, gesperrt. Dies sei die erste Maßnahme, die der -Partner als Reaktion auf den Missbrauch seiner Tools für künstliche Intelligenz (KI) in einer politischen Kampagne ergriffen hat, berichtete die Zeitung am Samstag.
OpenAI sperrt Entwicklerkonto
„Wir haben kürzlich ein Entwicklerkonto entfernt, das wissentlich gegen unsere Nutzungsrichtlinien verstoßen hat, die politische Kampagnen oder das Imitieren einer Person ohne Zustimmung untersagen“, so OpenAI in einer Erklärung. Hinter dem Dean.Bot, angetrieben von OpenAIs ChatGPT, stecken dem Artikel der „Washington Post“ zufolge die beiden Silicon-Valley-Unternehmer Matt Krisiloff und Jed Somers. Sie hätten das politische Aktionskomitee „We deserve Better“ (zu deutsch: „Wir haben etwas Besseres verdient“) gegründet, das wiederum einen Vertrag mit dem KI-Start-up Delphi geschlossen hatte.
Verbot des Einsatzes der Technologie in politischen Kampagnen
OpenAI sperrte demnach am späten Freitag (Ortszeit) das Konto des KI-Start-ups mit dem Hinweis, dass die Regeln von OpenAI den Einsatz ihrer Technologie in politischen Kampagnen verbieten. Das Start-up habe den Bot nach der Sperrung des Kontos entfernt. Weder das politische Aktionskomitee „We deserve Better“ noch Delphi äußerten sich bisher zu dem Vorgang.
Verhinderung von Wahlbeeinflussung durch KI
Erst in der vergangenen Woche war OpenAI Befürchtungen über Wahlbeeinflussung mit Hilfe Künstlicher Intelligenz (KI) entgegengetreten. Open AI betont, dass seine Richtlinien es verbieten, seine Technologie auf eine Art und Weise zu verwenden, die als potenziell missbräuchlich eingestuft wird. Dazu gehört das Erstellen von Chatbots, die vorgeben können, echte Menschen zu sein, Stimmung machen und so Menschen in ihrem Wahlverhalten beeinflussen. (APA/Reuters)