Der TRUMP AMERICA AI Act verfolgt die falsche KI-Politik – und lässt Amerika technologisch im Rückstand.

Amerikas Führungsrolle im Bereich der künstlichen Intelligenz war nie selbstverständlich. Sie muss durch gezielte politische Entscheidungen erarbeitet werden, die ein Umfeld schaffen, das Experimente ermöglicht, anstatt sie zu gestatten. Dieses Erbe prägt den KI-Aktionsplan der Trump-Regierung und die umfassendere Vision, die Innovation und die technologische Vorherrschaft der USA betont.

Leider ist in Dezember, Senatorin Marsha Blackburn stellte den TRUMP AMERICA AI Act vor, und obwohl sie dafür Pluspunkte sammeln mag, dass sie ihn nach dem Präsidenten benannt und ihm ein patriotisches Image verliehen hat, stehen die zugrunde liegenden politischen Vorschläge in direktem Widerspruch zu den Zielen seiner Regierung.

In der Praxis würde das Gesetz weitreichende Haftungsansprüche begründen, nicht gewählten Regulierungsbehörden weitreichende Befugnisse einräumen und eine auf Compliance basierende Kultur festigen und bestärken, die von einer innovationshemmenden Angst getrieben wird. Das wahrscheinliche Ergebnis ist nicht etwa sicherere KI, sondern langsamerer Fortschritt, weniger Auswahlmöglichkeiten für Verbraucher und eine schlechtere Position der USA im globalen KI-Wettlauf.

Ein auf Angst und nicht auf Innovation basierendes Regulierungssystem

Der Vorschlag enthält in seinen einzelnen Abschnitten die Annahme, dass KI-Systeme grundsätzlich gefährlich sind und daher präventiv von der Bundesregierung kontrolliert werden müssen. Abschnitt 3 verpflichtet KI-Entwickler umfassend zur Sorgfaltspflicht, vorhersehbare Schäden zu verhindern und zu mindern, schreibt fortlaufende Risikobewertungen vor und ermächtigt die Federal Trade Commission (FTC), angemessene Mindestsicherheitsvorkehrungen festzulegen.“

Diese Formulierung klingt besonnen. In Wirklichkeit ist sie gefährlich vage.

“Vorhersehbarer Schaden” ist kein technischer Standard. Er wird von den Regulierungsbehörden interpretiert., Prozessanwälte, und politische Aktivisten können damit alles meinen, was ihren Prioritäten im jeweiligen Moment entspricht. Sobald dies kodifiziert ist, führt es zu ständiger Rechtsunsicherheit, insbesondere für Startups, Open-Source-Entwickler und kleine Unternehmen, denen es an Rechtsabteilungen und Compliance-Beauftragten mangelt.

Mit dieser Herangehensweise beginnen die Vereinigten Staaten, Europa zu ähneln: Erst regulieren, dann innovieren und zusehen, wie die Führungsrolle schwindet und irrelevant wird.

Eine weitere Stärkung der FTC bedeutet faktische Zensur.

Noch beunruhigender ist, wie diese neuen Befugnisse genutzt werden könnten, um nicht nur Sicherheitsmaßnahmen, sondern auch die Sprache selbst zu beeinflussen.

Der Vorschlag würde der FTC erweiterte Befugnisse einräumen, um KI-“Schutzmaßnahmen” zu definieren und durchzusetzen sowie sogenannte unfaire oder schädliche Praktiken bei der Entwicklung und dem Einsatz von Modellen zu ahnden. Theoretisch geht es dabei um Verbraucherschutz. Praktisch gesehen schafft er einen wirksamen Mechanismus zur Regulierung von Inhalten.

Diese Befürchtung ist nicht spekulativ. 2023, Die FTC-Führung unter Vorsitz von Lina Khan signalisierte offen, dass sie ihre bestehende Befugnis gemäß Abschnitt 5 nutzen könne, um KI-Entwickler hinsichtlich der Art der Trainingsdaten ihrer Modelle und der von ihren Systemen erzeugten Ergebnisse zu überprüfen und gegebenenfalls zu bestrafen. Die Schlussfolgerung war eindeutig: Sollten die Regulierungsbehörden bestimmte Eingaben oder Ergebnisse missbilligen, könnten Durchsetzungsmaßnahmen folgen.

Das ist ein ebenso außergewöhnliches wie gefährliches Unterfangen.

Sobald Regulierungsbehörden beginnen zu definieren, was als “akzeptable” Trainingsdaten oder “verantwortungsvolles” Modellverhalten gilt, prägen sie unweigerlich die Grenzen der zulässigen Meinungsäußerung. KI-Entwickler, die mit vagen Standards und einem enormen rechtlichen Risiko konfrontiert sind, werden rational reagieren: Sie werden übermäßig zensieren. Sie werden aggressiv filtern. Sie werden kontroverse Themen meiden. Sie werden Modelle ihrer Nuancen berauben. All dies aus Angst vor behördlichen Maßnahmen.

So entsteht Zensur in modernen Regulierungssystemen: durch Anreize, die Abweichungen von bürokratischen Normen bestrafen. Wenn die FTC faktisch darüber entscheidet, was KI-Systeme produzieren dürfen, geht es nicht mehr um Sicherheit, sondern um die zentrale Kontrolle über die digitale Kommunikationsinfrastruktur.

Das sollte jeden alarmieren, dem offene Märkte, freie Meinungsäußerung oder demokratische Rechenschaftspflicht am Herzen liegen.

Die politische Versuchung, Paragraph 230 neu zu fassen

Abschnitt 6 des Gesetzentwurfs geht über die Regulierung von KI hinaus und befasst sich mit einem der politisch brisantesten Themen in Washington: der Reform von Abschnitt 230. Diese Ergänzung ist wenig überraschend. Abschnitt 230 ist seit Jahren ein parteiübergreifendes Ärgernis, kritisiert von Konservativen, die Plattformen die Unterdrückung bestimmter Meinungen vorwerfen, und von Progressiven, die der Ansicht sind, dass Plattformen zu viele schädliche Inhalte online belassen.

Der TRUMP AMERICA AI Act versucht, diesen schmalen Grat zu beschreiten, indem er neue Ausnahmen von der Immunität nach Abschnitt 230 schafft, indem er eine sogenannte “Bad Samaritan”-Ausnahme für Plattformen einbezieht, die angeblich rechtswidrige Inhalte ermöglichen, und neue Anforderungen stellt, nach denen Plattformen die Nutzer über Filter- und Kindersicherungstools informieren müssen.

Die politische Motivation ist verständlich. Die politischen Konsequenzen sind jedoch nach wie vor höchst problematisch.

Abschnitt 230 war einer der wichtigste rechtliche Grundlagen für das moderne Internet. Es ermöglicht Plattformen, einschließlich neuartiger KI-gestützter Dienste, nutzergenerierte Inhalte zu hosten, Tools bereitzustellen und offene Systeme anzubieten, ohne als Herausgeber jedes einzelnen Wortes behandelt zu werden, das durch ihre Dienste fließt.

Eine Schwächung dieses Schutzes, insbesondere durch vage Standards, wird unweigerlich zu weniger Meinungsäußerung im Internet führen – etwas, das die Trump-Regierung auf internationaler Ebene vehement abgelehnt hat, obwohl andere Länder eine Politik verfolgen, die zu solchen Ergebnissen führt. 

Angesichts eines erhöhten Haftungsrisikos und der drohenden Gefahr von Klagen agieren Plattformen vorsichtiger. Sie entfernen mehr Inhalte, schränken mehr Konten ein und beschränken mehr Funktionen. Und wieder einmal sind die größten etablierten Anbieter mit der ausgefeiltesten Moderationsinfrastruktur und den leistungsstärksten Rechtsabteilungen die Unternehmen, die in diesem Umfeld am besten bestehen können. Ironischerweise sind es gerade die Unternehmen, die am besten in der Lage sind, die Vorschriften einzuhalten, über die sich Politiker immer wieder beschweren.

Für kleinere Wettbewerber und neue KI-basierte Plattformen stellt eine Welt ohne die Rechtssicherheit von Abschnitt 230 eine weitere Markteintrittsbarriere dar, da sich ein Wettbewerbsvorteil durch den Ausbau des Burggrabens ergibt. In Verbindung mit dem umfassenderen Haftungs- und Compliance-Rahmen des Vorschlags festigt Abschnitt 6 die Dominanz etablierter Akteure zusätzlich und verringert gleichzeitig den Spielraum für Innovationen.

Ein Rechtsstreit-Boom, der den Einsatz einfrieren wird

Abschnitt 10 des Vorschlags würde die Branche einer Klagewelle aussetzen. Das Gesetz sieht Klagen gegen KI-Entwickler wegen fehlerhafter Konstruktion, unterlassener Warnungen und “unangemessen gefährlicher” Systeme vor und weitet die Haftung auch auf die Anwender aus.

Dies ist der Traum eines Klägeranwalts und der Albtraum eines Verbrauchers.

Offene Haftungsregelungen verleiten Unternehmen dazu, Risiken um jeden Preis zu vermeiden. Startups werden zögern und sich fragen, ob sie überhaupt in den Markt eintreten sollen. Open-Source-Communities werden sich zurückziehen, was die Entwicklung innovativer Produkte und Dienstleistungen hemmt.

Innovationen können nicht gedeihen, wenn sie einer permanenten und erheblichen rechtlichen Bedrohung ausgesetzt sind. 

Die Kriminalisierung der Datennutzung und die Untergrabung der Grundlagen der KI

Die wirtschaftlich wohl schädlichste Bestimmung ist Abschnitt 18, der ein neues Bundesrecht schafft, Unternehmen zu verklagen, die geschützte Daten – einschließlich öffentlich zugänglicher und urheberrechtlich geschützter Materialien – für das KI-Training ohne ausdrückliche Zustimmung verwenden, wobei gesetzlicher Schadensersatz und Strafschadenersatz möglich sind.

Dies würde die Art und Weise, wie moderne KI-Systeme aufgebaut sind, grundlegend destabilisieren.

Maschinelle Lernsysteme lernen aus Daten ähnlich wie Menschen: durch Lesen, Beobachten, Synthetisieren und Generalisieren. Dieser Abschnitt stellt den Lernprozess auf den Kopf, bestraft die Wissenssuche und schafft ein System, das nur den größten etablierten Unternehmen mit umfangreichen Compliance-Abteilungen und Lizenzbudgets Vorteile verschafft und alle anderen ausschließt. Die Verbraucher sind die Leidtragenden, da eine Spitzentechnologie, die sich zunehmend zu einem zentralen Wissenszentrum entwickeln wird, aus Angst vor rechtlichen Konsequenzen gehemmt wird.

Ein direkter Widerspruch zur KI-Vision des Präsidenten

Die von Präsident Trump geäußerte Haltung zur KI betont drei Kernprinzipien:

  • Amerika muss weltweit führend im Bereich der KI sein.
  • Innovation sollte nicht durch Bürokratie erstickt werden.
  • Die Bundespolitik sollte Bauherren stärken.

Der TRUMP AMERICA AI Act schlägt in allen drei Bereichen in die entgegengesetzte Richtung ein. Er priorisiert Konformität und bestraft Kreativität und Wagemut. Er ermächtigt Regulierungsbehörden, sich als Werkzeug des Stärkeren zu verstehen und Unternehmer wie Nägel zu behandeln. Er verkennt die Chancen, die sich unserem Land bieten, und bevorzugt ein Modell, das Risiken voraussetzt. Er versucht auf unerklärliche Weise, den Innovationsprozess zu kontrollieren, der sich historisch gesehen organisch und selbstständig entwickelt hat.

Selbst die wenigen Abschnitte, die sich mit dem Wachstum durch Reformen von Rechenzentrumsstandorten befassen, sind in einen Rahmen eingebettet, der die Implementierung von KI-Systemen und die Nutzung ihrer enormen Vorteile unnötig erschwert. Der Vorschlag wird zu Stagnation statt zu einer Führungsrolle im Bereich KI führen.

Die Verbraucher werden den Preis zahlen

Wenn Innovationen nachlassen, leiden die Verbraucher. Das ist ein grundlegendes ökonomisches Prinzip.

Weniger Wettbewerber bedeuten weniger Auswahl. Höhere Compliance-Kosten werden an die Verbraucher weitergegeben, was zu höheren Preisen führt. Das Prozessrisiko bedingt konservativere Produkte. Die KI-Tools, die visionäre Ideen hatten – Tools, die Lehrkräfte hätten unterstützen, kleinen Unternehmen geholfen, die medizinische Diagnostik verbessert und Künstlern neue kreative Möglichkeiten eröffnet hätten –, werden entweder nie auf den Markt kommen oder deren transformatives Potenzial stark eingeschränkt sein.

Erschwerend kommt hinzu, dass der Vorschlag Amerikas talentierteste Entwickler dazu anregen würde, sich im Ausland nach anderen Ländern umzusehen, die ihren Vorhaben möglicherweise aufgeschlossener gegenüberstehen. Man darf nicht vergessen, dass die Vereinigten Staaten in einem globalen Wettlauf um die Führungsrolle im Bereich KI stehen. Unsere Führungsposition ist nicht selbstverständlich, und unsere Werte werden zusammen mit unserer Technologie exportiert.

Die Welt würde mit einer Technologieinfrastruktur, die auf den Werten Großbritanniens, der Vereinigten Arabischen Emirate oder Chinas basiert, völlig anders aussehen. Ich glaube nicht, dass der Präsident, die Kongressabgeordneten oder die Verbraucher solche Ergebnisse wünschen.

Ein besserer Weg nach vorn

Wenn das Ziel darin besteht, die amerikanische KI-Dominanz zu sichern, das Verbraucherwohl zu fördern und langfristigen Wohlstand zu schaffen, liegt der Weg nicht in einer umfassenden Ausweitung der Haftung und in regulatorischer Mikromanagement. Er liegt vielmehr in Folgendem:

  • Ein klarer, präventiver Bundesstandard für die Entwicklung und den Einsatz von Modellen.
  • Klare, präzise Regeln, die auf tatsächliche Schäden abzielen, nicht auf spekulative Befürchtungen.
  • Regulatorische Sandkästen und sichere Häfen, die ein Gleichgewicht zwischen Verbraucherschutz und Innovation schaffen.
  • Eine Neigung zu genehmigungsfreier Innovation statt bürokratischer Zustimmung.

Amerika wurde zur technologischen Supermacht, indem es seinen Innovatoren vertraute. Der „TRUMP AMERICA AI Act“ vergisst dieses Erbe. Sollte das Gesetz auch nur annähernd dem entsprechen, was die einzelnen Abschnitte skizzieren, würde es Amerika nicht im Bereich der KI führen, sondern es langsamer, vorsichtiger, bürokratischer und weniger wettbewerbsfähig machen – in genau dem Wettlauf, den wir uns nicht leisten können zu verlieren.

Aktie

Folgen:

Weitere Beiträge

Abonniere unseren Newsletter