- Ein Sieg von Donald Trump könnte Schutzmaßnahmen für KI gefährden. Trumps Pläne zur Aufhebung von Bidens Verordnung stoßen bei Tech-Experten auf Kritik. Die gegenwärtige Berichterstattungspflicht wird als Hemmnis für Start-ups angesehen. Es gibt Bedenken, dass eine Deregulierung die USA im Technologiewettlauf mit China behindern könnte. Bidens KI-Sicherheitsagenda zielt darauf ab, die USA an der Spitze der KI-Entwicklung zu halten.
Sollte Donald Trump die Präsidentschaft gewinnen, könnte das massive Auswirkungen auf die Entwicklung Künstlicher Intelligenz (KI) haben, indem wichtige Schutzmaßnahmen untergraben werden. Während die Gefahren fehlerhafter KI-Modelle zunehmend ernster werden, könnte Trumps Wiedereintritt ins Weiße Haus die Bemühungen zur Sicherung der Amerikaner gegen die Risiken schlecht gestalteter KI drastisch umgestalten oder sogar beeinträchtigen. Diese Risiken umfassen die Verzerrung und Vergiftung von Algorithmen, die in autonomen Technologien verwendet werden. Der derzeitige Kurs der Bundesregierung, unter der Führung von Präsident Joe Biden, sieht die Überwachung und Beratung von KI-Unternehmen vor. Biden hatte im Oktober 2023 eine entsprechende Verordnung erlassen.
Änderungen in der Regulierung
Trump hat jedoch versprochen, diese Verordnung zurückzunehmen und argumentiert, dass sie „KI-Innovation behindert“ und „radikale linke Ideen“ in die KI-Entwicklung einbringt. Eine Vielzahl von Trumps engen Verbündeten, darunter Republikaner im Kongress und namhafte Investoren, haben sich über diese Aussicht begeistert gezeigt. Ohio-Senator JD Vance, Trumps Vizekandidat, unterstützt diese Sichtweise. Die Sorge der Tech-Experten ist jedoch groß: Sie warnen davor, dass die Eliminierung der Sicherheitsvorkehrungen der Verordnung das Vertrauen in KI-Modelle schwächen würde, die zunehmend in allen Lebensbereichen der Amerikaner Einzug halten.
Biden’s Anordnung befasst sich mit verschiedensten Aspekten, von der Verbesserung der Gesundheitsversorgung für Veteranen bis hin zur Digitalisierung von Sicherheitsvorkehrungen. Besondere Kontroversen gibt es um zwei Bestimmungen, die sich mit digitalen Sicherheitsrisiken und realen Sicherheitsauswirkungen befassen. Unternehmen sind verpflichtet, der Regierung über ihre KI-Modelle zu berichten – ein Schritt, der auch Red-Team-Tests umfasst, um Schwachstellen in den Systemen zu identifizieren.
Umstrittene Berichterstattungsanforderungen
Obwohl diese Maßnahmen als notwendig erachtet werden, um die wachsende KI-Industrie zu überwachen, sehen konservative Kritiker darin eine illegale Einmischung der Regierung, die die Innovation behindern könnte. Die Anforderungen könnten insbesondere für Start-ups eine Hürde darstellen, da diese im Wettbewerb mit größeren Unternehmen benachteiligt werden könnten. Tech-Experten befürchten, dass dies zu einem Lizenzregime führen könnte, bei dem Entwickler eine staatliche Genehmigung benötigen, um ihre Modelle zu testen. Kritiker äußern Bedenken, dass dieser Aspekt der Zensur gleichkommt, weil die Regierung auf der Suche nach Verzerrungen und Fehlinformationen sein könnte.
Der Wettlauf mit China
Konservative warnen, dass jede Regulierung, die KI-Innovation hemmt, die USA im Technologiewettlauf mit China teuer zu stehen kommen könnte. Republikanische Stimmen fordern eine Fokussierung auf die physikalischen Sicherheitsrisiken der KI, einschließlich ihrer Fähigkeit, Terroristen bei der Herstellung von Biowaffen zu unterstützen. Sollte Trump 2024 gewinnen, könnte seine Regierung die Forschung zu den sozialen Schäden der KI vernachlässigen. Bereits jetzt bemängeln Republikaner den „erheblichen“ Aufwand zur Untersuchung von KI-Verzerrungen im Vergleich zu dringenderen Bedrohungen.
Verteidigung der Sicherheitsagenda
Experten und Gesetzgeber treten entschieden für Bidens KI-Sicherheitsagenda ein. Sie sehen in den derzeitigen Projekten eine Möglichkeit, die USA an der Spitze der KI-Entwicklung zu halten und die Bürger vor potenziellen Schäden zu schützen. Die Berichtspflichten sind für die Regierung unerlässlich, um auf mögliche neue Gefahren durch zunehmend leistungsfähige KI-Modelle aufmerksam zu werden. Die Vorschläge der Nationalen Behörde für Standards und Technologie (NIST) werden als wichtige Ressource anerkannt, um die Entwicklung sicherer und fairer KI-Modelle voranzutreiben. Ein Rückzug von all diesen Maßnahmen könnte ein alarmierendes Zeichen setzen und die Bemühungen um eine verantwortungsvolle Nutzung der KI gefährden.