- Sam Altman von OpenAI und Arianna Huffington von Thrive Global haben eine Partnerschaft zur Förderung eines persönlichen KI-Coaches angekündigt. Thrive AI soll Echtzeit-Empfehlungen geben, um das tägliche Verhalten der Nutzer zu verbessern. Aleksander Madry untersucht bei OpenAI die Fähigkeit von Sprachmodellen zur Überzeugung. Forschungsarbeiten zeigen, dass größere und ausgefeiltere Sprachmodelle Menschen besser überzeugen können. Der Artikel betont die Notwendigkeit starker rechtlicher Schutzmaßnahmen wegen der potenziellen Risiken und Herausforderungen der überzeugenden KI.
In dieser Woche haben Sam Altman, CEO von OpenAI, und Arianna Huffington, Gründerin und CEO des Gesundheitsunternehmens Thrive Global, eine Mitteilung veröffentlicht. Dabei preisen sie eine von Thrive und dem Startup-Fonds von OpenAI unterstützte Neugründung an. Das Stück deutet darauf hin, dass Künstliche Intelligenz (KI) durch die Beeinflussung von Menschen zu gesünderem Verhalten einen großen positiven Einfluss auf die öffentliche Gesundheit haben könnte. Altman und Huffington schreiben, dass Thrive AI auf einen „vollständig integrierten persönlichen KI-Coach hinarbeitet, der in Echtzeit individuell zugeschnittene Anstöße und Empfehlungen gibt, die es ermöglichen, das tägliche Verhalten zu verbessern“.
Die Macht der Überredung
Ihre Vision gibt der potenziell zweischneidigen Natur der KI einen positiven Dreh. Schon heute sind KI-Modelle geschickt darin, Menschen zu überzeugen, und es ist unklar, wie viel mächtiger sie werden könnten, wenn sie auf mehr persönliche Daten zugreifen. Aleksander Madry, ein Professor, der derzeit im Sabbatical am Massachusetts Institute of Technology ist, leitet ein Team bei OpenAI namens Preparedness, das sich genau mit diesem Thema beschäftigt. „Eine der Arbeitsströme in Preparedness ist Überzeugung“, sagte Madry in einem Interview im Mai. „Im Wesentlichen geht es darum, inwieweit man diese Modelle einsetzen kann, um Menschen zu beeinflussen.“
Madry erklärte, dass er sich OpenAI wegen des bemerkenswerten Potenzials von Sprachmodellen und der kaum erforschten Risiken angeschlossen habe. „Es gibt buchstäblich fast keine Wissenschaft dazu“, sagt er. „Das war der Anstoß für die Preparedness-Bemühungen.“ Überzeugungskraft ist ein Schlüsselelement in Programmen wie ChatGPT und eine der Zutaten, die solche Chatbots so fesselnd machen. Sprachmodelle werden in menschlichem Schreiben und Dialog geschult, der unzählige rhetorische Tricks und Techniken enthält.
Das Potenzial der Sprache
Eine Forschung im April von Anthropic, einem von OpenAI-Abtrünnigen gegründeten Konkurrenten, deutet darauf hin, dass Sprachmodelle besser darin geworden sind, Menschen zu überzeugen, je größer und ausgefeilter sie werden. Diese Forschung bestand darin, Freiwilligen eine Aussage zu geben und dann zu sehen, wie ein von KI generiertes Argument ihre Meinung dazu ändert. OpenAIs Arbeit erstreckt sich auch auf die Analyse von KI im Gespräch mit Nutzern—etwas, das möglicherweise eine größere Überzeugungskraft freisetzen könnte.
Madry sagt, dass die Arbeit mit zustimmenden Freiwilligen durchgeführt wird und lehnt es ab, die bisherigen Ergebnisse zu offenbaren. Aber er sagt, dass die Überzeugungskraft von Sprachmodellen tief verwurzelt ist. „Als Menschen haben wir diese ‚Schwäche‘, dass wenn etwas in natürlicher Sprache mit uns kommuniziert, [wir es als menschlich betrachten],“ sagt er, und verweist dabei auf eine Anthropomorphisierung, die Chatbots lebensechter und überzeugender erscheinen lassen kann.
Regulatorische Herausforderungen und Potenziale
Der Artikel in der Time argumentiert, dass die potenziellen gesundheitlichen Vorteile der überzeugenden KI starke rechtliche Schutzmaßnahmen erfordern, weil die Modelle auf so viele persönliche Informationen zugreifen könnten. „Politiker müssen ein regulatorisches Umfeld schaffen, das KI-Innovation fördert und gleichzeitig die Privatsphäre schützt“, schreiben Altman und Huffington. Doch dies ist nicht das Einzige, was die Gesetzgeber berücksichtigen müssen. Es kann auch entscheidend sein, zu bewerten, wie zunehmend überzeugendere Algorithmen missbraucht werden könnten. KI-Algorithmen könnten die Resonanz von Fehlinformationen verstärken oder besonders überzeugende Phishing-Betrügereien erzeugen. Sie könnten auch zur Bewerbung von Produkten eingesetzt werden.
Madry sagt, eine Schlüsselfrage, die von OpenAI oder anderen noch untersucht werden muss, ist, wie viel überzeugender oder zwingender KI-Programme werden könnten, die über längere Zeiträume mit Nutzern interagieren. Bereits jetzt bieten eine Reihe von Unternehmen Chatbots an, die als romantische Partner oder andere Charaktere in Rollenspielen fungieren. KI-Freundinnen werden immer beliebter—einige sind sogar dafür ausgelegt—aber wie süchtig machend und überzeugend diese Bots sind, ist weitgehend unbekannt.
Die subtilen Gefahren der KI
Die Aufregung und der Hype, die durch die Veröffentlichung von ChatGPT im November 2022 ausgelöst wurden, führten dazu, dass sich OpenAI, externe Forscher und viele Politiker auf die hypothetischere Frage konzentrierten, ob KI eines Tages gegen ihre Schöpfer vorgehen könnte. Madry sagt, dies birge die Gefahr, die subtileren Gefahren zu ignorieren, die durch silberzüngige Algorithmen entstehen. „Ich befürchte, dass sie sich auf die falschen Fragen konzentrieren“, sagt Madry über die Arbeit der Politiker bisher. „Dass in gewisser Weise alle sagen: ‚Oh ja, wir kümmern uns darum, weil wir darüber sprechen‘, wenn wir tatsächlich nicht über das Richtige sprechen.“