Der größte Kampf der generativen KI-Revolution zieht vor Gericht – und nein, es geht nicht um das neueste Drama im Vorstand von OpenAI. Buchautoren, Künstler und Codierer fordern die Praxis heraus, KI-Modelle zu lehren, ihre Fähigkeiten zu replizieren, indem sie ihre eigenen Arbeiten als Schulungsmanual verwenden. Die Debatte konzentriert sich auf die Milliarden von Werken, die der beeindruckenden Sprachgewandtheit von Tools wie ChatGPT, der Coding-Kunstfertigkeit von Githubs Copilot und dem künstlerischen Flair von Bildgeneratoren wie Midjourney zugrunde liegen. Die meisten der zur Schulung der zugrunde liegenden Algorithmen verwendeten Arbeiten wurden von Menschen geschaffen, und viele von ihnen sind durch das Urheberrecht geschützt. KI-Entwickler haben weitgehend angenommen, dass die Verwendung urheberrechtlich geschützten Materials als Schulungsdaten unter dem Dach des “Fair Use” völlig legal ist – schließlich leihen sie die Arbeit nur aus, um statistische Signale daraus zu extrahieren, und versuchen nicht, sie als ihre eigene auszugeben. Aber da Bildgeneratoren und andere Tools gezeigt haben, dass sie Werke in ihren Schulungsdaten beeindruckend nachahmen können, und das Ausmaß und der Wert der Schulungsdaten klar geworden ist, erheben immer mehr Schöpfer Einwände. Auf dem 30. Jubiläumsevent von WIRED in San Francisco lieferten sich zwei führende Vertreter dieses aufstrebenden Widerstands einen Schlagabtausch mit einem Verteidiger der Rechte von KI-Unternehmen, die die Technologie frei entwickeln wollen. Glaubten sie, dass die KI-Schulung fair sei? “Die Antwort lautet nein, das tue ich nicht”, sagte Mary Rasenberger, CEO der Authors Guild, die Buchautoren vertritt und sowohl OpenAI als auch dessen Hauptunterstützer Microsoft wegen Verletzung des Urheberrechts ihrer Mitglieder verklagt. Existenzrisiko Im Zentrum der Beschwerde der Authors Guild steht, dass OpenAI und andere durch die Verwendung ihres Materials letztendlich konkurrierende Arbeit produzieren, wenn Benutzer einen Chatbot auffordern, ein Gedicht oder Bild auszugeben. “Das ist eine sehr kommerzielle Nutzung, und der Schaden ist sehr klar”, sagte Rasenberger. “Es könnte wirklich den Beruf des Schreibens zerstören. Das ist der Grund, warum wir in diesem Fall sind.” Die Authors Guild, die ein Tool entwickelt, mit dem generative KI-Unternehmen für die Lizenzierung der Werke ihrer Mitglieder zahlen können, glaubt, dass es durchaus ethische Möglichkeiten gibt, KI zu schulen. “Es ist sehr einfach: Erlaubnis einholen”, sagte sie. In den meisten Fällen wird die Erlaubnis gegen Gebühr erteilt. Mike Masnick, CEO des Techdirt-Blogs und auch des Copia Institute, eines Think Tanks für Technologiepolitik, hat eine andere Meinung. “Ich werde das Gegenteil von allem sagen, was Mary gerade gesagt hat”, sagte er. Generative KI ist fair use, argumentierte er und wies auf die Ähnlichkeiten der jüngsten Rechtsstreitigkeiten mit früheren Klagen hin, an denen die Authors Guild beteiligt war, bei denen das Indexieren von kreativen Werken, damit Suchmaschinen sie effizient finden können, Überlebenskämpfen standhielt. Ein Sieg für Künstlergruppen käme nicht unbedingt den einzelnen Autoren zugute, fügte Masnick hinzu und nannte das Konzept des Urheberrechts ein System, das dazu gedacht sei, Verlagen Reichtum zu verschaffen, anstatt Künstler zu schützen. Er verwies auf das, was er ein “korruptes” Musiklizenzsystem nannte, das den Schöpfern wenig Wert bietet. Während zukünftige Gerichtsurteile wahrscheinlich von rechtlichen Argumenten über fair use abhängen werden, sagt Joseph Famiglietti, ein Anwalt, der eine Reihe von Klagen gegen generative KI-Unternehmen eingereicht hat, dass die Debatte sich tatsächlich um Technologieunternehmen dreht, die versuchen, mehr Macht zu erlangen und sie zu behalten. “Sie konkurrieren nicht mehr darum, wer am reichsten sein kann; sie konkurrieren darum, wer am mächtigsten sein kann”, sagte er. “Was sie nicht wollen, ist, dass Personen mit Urheberrechten ein Veto über das haben, was sie tun wollen.” Masnick entgegnete, dass er auch besorgt sei darüber, wer von KI profitiert, und argumentierte, dass die Forderung nach Zahlungen an Künstler von Technologieunternehmen die größten KI-Spieler weiter festigen würde, indem es für Aufsteiger zu teuer würde, ihre Systeme zu schulen. Rasenberger lachte über den Vorschlag eines Machtgleichgewichts zwischen Tech-Unternehmen und den Autoren, die sie repräsentiert und verglich die durchschnittlichen 20.000 Dollar pro Jahr verdienenenden Vollzeit-Autoren mit der kürzlichen 90-Milliarden-Dollar-Bewertung von OpenAI. “Die haben das Geld. Die Künstlergemeinschaft nicht”, sagte sie. Wirtschaft. 😍 Unsere Gear-Redaktion hat einen neuen Leitfaden zu den besten Produkten und eine frische Auswahl an Geräten und Gadgets herausgebracht.Warren ist Redakteur bei WIRED und berichtet über Energie und Umwelt. Er absolvierte die Columbia University mit einem Bachelor-Abschluss in Informatik und englischer Literatur und lebt jetzt in San Francisco. RedakteurThemenDas Superalignment-Team, geleitet von OpenAI-Chefwissenschaftler Ilya Sutskever, hat eine Möglichkeit entwickelt, das Verhalten von KI-Modellen zu steuern, wenn sie immer intelligenter werden. Will KnightLinkedIn- und OpenAI-Mitbegründer Reid Hoffman sagt, er freue sich, dass Sam Altman das KI-Unternehmen wieder leitet. Hoffman und andere KI-Experten diskutierten die Gefahren und Möglichkeiten von KI bei einem WIRED-Event am Dienstag. Paresh DaveAmazon hat einen generativen KI-Assistenten entwickelt, der Codes schreibt, Cloud-Software verwaltet und Unternehmensanwendungen antreibt. Das Unternehmen hat auch neue Chips für KI entwickelt. Will KnightAdversarische Algorithmen können systematisch große Sprachmodelle wie OpenAIs GPT-4 auf Schwächen untersuchen, die dazu führen können, dass sie sich falsch verhalten. Will KnightFünf Tage des Chaos bei OpenAI brachten Schwächen in der Selbstverwaltung des Unternehmens zum Vorschein. Das beunruhigt Menschen, die glauben, dass KI eine existenzielle Gefahr darstellt, und Befürworter von KI-Regulierung. Peter GuestGoogle sagt, Gemini, das heute im Bard-Chatbot startet, ist sein “leistungsfähigstes” KI-Modell aller Zeiten. Es wurde sowohl auf Video, Bilder und Audio als auch auf Text trainiert. Will KnightOpenAI hat seine Governance-Struktur entworfen, um die Menschheit zu schützen – und sie ist implodiert. Das Unternehmen könnte sich von Mozilla und anderen Projekten, die hohe Ziele mit Gewinnprojekten verbinden, etwas abschauen. Paresh DaveDie Europäische Union hat sich auf die Bedingungen des AI Act geeinigt, eines neuen Sets von Regeln, das den Bau und die Verwendung von KI regeln wird und weitreichende Auswirkungen auf Google, OpenAI und andere hat, die darum konkurrieren, KI-Systeme zu entwickeln. Morgan Meaker