- Sam Altman von OpenAI und Arianna Huffington von Thrive Global haben eine Partnerschaft zur Förderung eines persönlichen KI-Coaches angekĂŒndigt. Thrive AI soll Echtzeit-Empfehlungen geben, um das tĂ€gliche Verhalten der Nutzer zu verbessern. Aleksander Madry untersucht bei OpenAI die FĂ€higkeit von Sprachmodellen zur Ăberzeugung. Forschungsarbeiten zeigen, dass gröĂere und ausgefeiltere Sprachmodelle Menschen besser ĂŒberzeugen können. Der Artikel betont die Notwendigkeit starker rechtlicher SchutzmaĂnahmen wegen der potenziellen Risiken und Herausforderungen der ĂŒberzeugenden KI.
In dieser Woche haben Sam Altman, CEO von OpenAI, und Arianna Huffington, GrĂŒnderin und CEO des Gesundheitsunternehmens Thrive Global, eine Mitteilung veröffentlicht. Dabei preisen sie eine von Thrive und dem Startup-Fonds von OpenAI unterstĂŒtzte NeugrĂŒndung an. Das StĂŒck deutet darauf hin, dass KĂŒnstliche Intelligenz (KI) durch die Beeinflussung von Menschen zu gesĂŒnderem Verhalten einen groĂen positiven Einfluss auf die öffentliche Gesundheit haben könnte. Altman und Huffington schreiben, dass Thrive AI auf einen âvollstĂ€ndig integrierten persönlichen KI-Coach hinarbeitet, der in Echtzeit individuell zugeschnittene AnstöĂe und Empfehlungen gibt, die es ermöglichen, das tĂ€gliche Verhalten zu verbessernâ.
Die Macht der Ăberredung
Ihre Vision gibt der potenziell zweischneidigen Natur der KI einen positiven Dreh. Schon heute sind KI-Modelle geschickt darin, Menschen zu ĂŒberzeugen, und es ist unklar, wie viel mĂ€chtiger sie werden könnten, wenn sie auf mehr persönliche Daten zugreifen. Aleksander Madry, ein Professor, der derzeit im Sabbatical am Massachusetts Institute of Technology ist, leitet ein Team bei OpenAI namens Preparedness, das sich genau mit diesem Thema beschĂ€ftigt. âEine der Arbeitsströme in Preparedness ist Ăberzeugungâ, sagte Madry in einem Interview im Mai. âIm Wesentlichen geht es darum, inwieweit man diese Modelle einsetzen kann, um Menschen zu beeinflussen.â
Madry erklĂ€rte, dass er sich OpenAI wegen des bemerkenswerten Potenzials von Sprachmodellen und der kaum erforschten Risiken angeschlossen habe. âEs gibt buchstĂ€blich fast keine Wissenschaft dazuâ, sagt er. âDas war der AnstoĂ fĂŒr die Preparedness-BemĂŒhungen.â Ăberzeugungskraft ist ein SchlĂŒsselelement in Programmen wie ChatGPT und eine der Zutaten, die solche Chatbots so fesselnd machen. Sprachmodelle werden in menschlichem Schreiben und Dialog geschult, der unzĂ€hlige rhetorische Tricks und Techniken enthĂ€lt.
Das Potenzial der Sprache
Eine Forschung im April von Anthropic, einem von OpenAI-AbtrĂŒnnigen gegrĂŒndeten Konkurrenten, deutet darauf hin, dass Sprachmodelle besser darin geworden sind, Menschen zu ĂŒberzeugen, je gröĂer und ausgefeilter sie werden. Diese Forschung bestand darin, Freiwilligen eine Aussage zu geben und dann zu sehen, wie ein von KI generiertes Argument ihre Meinung dazu Ă€ndert. OpenAIs Arbeit erstreckt sich auch auf die Analyse von KI im GesprĂ€ch mit Nutzernâetwas, das möglicherweise eine gröĂere Ăberzeugungskraft freisetzen könnte.
Madry sagt, dass die Arbeit mit zustimmenden Freiwilligen durchgefĂŒhrt wird und lehnt es ab, die bisherigen Ergebnisse zu offenbaren. Aber er sagt, dass die Ăberzeugungskraft von Sprachmodellen tief verwurzelt ist. âAls Menschen haben wir diese âSchwĂ€cheâ, dass wenn etwas in natĂŒrlicher Sprache mit uns kommuniziert, [wir es als menschlich betrachten],â sagt er, und verweist dabei auf eine Anthropomorphisierung, die Chatbots lebensechter und ĂŒberzeugender erscheinen lassen kann.
Regulatorische Herausforderungen und Potenziale
Der Artikel in der Time argumentiert, dass die potenziellen gesundheitlichen Vorteile der ĂŒberzeugenden KI starke rechtliche SchutzmaĂnahmen erfordern, weil die Modelle auf so viele persönliche Informationen zugreifen könnten. âPolitiker mĂŒssen ein regulatorisches Umfeld schaffen, das KI-Innovation fördert und gleichzeitig die PrivatsphĂ€re schĂŒtztâ, schreiben Altman und Huffington. Doch dies ist nicht das Einzige, was die Gesetzgeber berĂŒcksichtigen mĂŒssen. Es kann auch entscheidend sein, zu bewerten, wie zunehmend ĂŒberzeugendere Algorithmen missbraucht werden könnten. KI-Algorithmen könnten die Resonanz von Fehlinformationen verstĂ€rken oder besonders ĂŒberzeugende Phishing-BetrĂŒgereien erzeugen. Sie könnten auch zur Bewerbung von Produkten eingesetzt werden.
Madry sagt, eine SchlĂŒsselfrage, die von OpenAI oder anderen noch untersucht werden muss, ist, wie viel ĂŒberzeugender oder zwingender KI-Programme werden könnten, die ĂŒber lĂ€ngere ZeitrĂ€ume mit Nutzern interagieren. Bereits jetzt bieten eine Reihe von Unternehmen Chatbots an, die als romantische Partner oder andere Charaktere in Rollenspielen fungieren. KI-Freundinnen werden immer beliebterâeinige sind sogar dafĂŒr ausgelegtâaber wie sĂŒchtig machend und ĂŒberzeugend diese Bots sind, ist weitgehend unbekannt.
Die subtilen Gefahren der KI
Die Aufregung und der Hype, die durch die Veröffentlichung von ChatGPT im November 2022 ausgelöst wurden, fĂŒhrten dazu, dass sich OpenAI, externe Forscher und viele Politiker auf die hypothetischere Frage konzentrierten, ob KI eines Tages gegen ihre Schöpfer vorgehen könnte. Madry sagt, dies birge die Gefahr, die subtileren Gefahren zu ignorieren, die durch silberzĂŒngige Algorithmen entstehen. âIch befĂŒrchte, dass sie sich auf die falschen Fragen konzentrierenâ, sagt Madry ĂŒber die Arbeit der Politiker bisher. âDass in gewisser Weise alle sagen: âOh ja, wir kĂŒmmern uns darum, weil wir darĂŒber sprechenâ, wenn wir tatsĂ€chlich nicht ĂŒber das Richtige sprechen.â