fbpx

Der globale Wettlauf um Entwicklung künstliche Intelligenz ist der folgenreichste Wettbewerb seit dem „Weltraumwettlauf“ zwischen den Vereinigten Staaten und der Sowjetunion. Die Entwicklung dieser Tools und dieser Branche wird ungeahnte Auswirkungen haben zukünftige Innovation und unsere Lebensweise.

Das Weiße Haus wird es bald tun enthüllen seine erwartete Durchführungsverordnung zu KI, die möglicherweise eine Kommission zur Entwicklung eines „AI Bill of Rights” oder sogar einen neuen Bund gründen regulatorisch Agentur. In diesem Fall versucht die Regierung, mit KI-Innovatoren und Ethikern Schritt zu halten.

KI in einer demokratischen Gesellschaft bedeutet nicht, bundesstaatliche KI-Behörden zu gründen, die mit dem Personal besetzt werden, das die letzte Wahl gewonnen hat – es bedeutet, dass eine breite Palette von Richtlinien und Regeln für die Menschen erstellt werden, von den Menschen, und die auf die Menschen eingehen.

KI hat ein nahezu unbegrenztes Potenzial, die Welt zu verändern. Verständlicherweise macht das viele Leute nervös, aber wir müssen uns weigern, seine Zukunft in diesem frühen Stadium der Regierung zu überlassen. Schließlich handelt es sich hierbei um dieselbe Institution, die dies getan hat nicht geknackt 30% im allgemeinen Vertrauen, „meistens oder immer das Richtige zu tun“, seit 2007. Die Verkehrsregeln können sich von den Menschen selbst entwickeln, von Innovatoren bis hin zu Konsumenten von KI und ihren Nebenprodukten.

Außerdem: Glaubt irgendjemand einer Regierung wirklich, dass das so ist? versucht, seinen regulatorischen Verstand zu umhüllen Rund um das Geschäftsmodell und die Existenz von Amazon Prime ist künstliche Intelligenz geregelt?

Als Beispiel für die Strenge, die erforderlich ist, um Regeln für KI in einer freien Gesellschaft zu entwickeln, betrachten wir das aktuelle Forschungveröffentlicht von Anthropic, einem von Amazon unterstützten KI-Startup, das für bekannt ist Claude generativer KI-Chatbot. Anthropic entwickelt eine sogenannte „Constitutional AI“, die die Frage der Voreingenommenheit als eine Frage der Transparenz betrachtet. Die Technologie unterliegt einer veröffentlichten Liste moralischer Verpflichtungen und ethischer Überlegungen.

Wenn ein Benutzer über eine der Ausgaben oder Einschränkungen von Claude verwirrt ist, kann er oder sie nach einer Erklärung in der Struktur der KI suchen. Es ist ein in sich geschlossenes Experiment des Liberalismus.

Wie jeder Amerikaner weiß, ist das Leben in einer funktionierenden konstitutionellen Demokratie ebenso aufschlussreich wie frustrierend. Sie haben bestimmte Rechte und stillschweigende Rechte nach amerikanischem Recht, und wenn diese verletzt werden, können Sie die Angelegenheit vor Gericht bringen. Die Rechte, die wir haben, sind für manche ebenso frustrierend wie die, die wir nicht haben: das Recht, Waffen zu behalten und zu tragen, zum Beispiel, zusammen mit dem Fehlen eines klaren verfassungsmäßigen Rechts auf Gesundheitsversorgung.

Anthropic befragte 1.094 Menschen und teilte sie in zwei Antwortgruppen ein, basierend auf erkennbaren Mustern in ihrer Denkweise zu einigen wenigen Themen. Es gab viele einheitliche Überzeugungen darüber, was KI erreichen sollte.

Die meisten Menschen (90% oder mehr) sind sich einig, dass KI keine rassistischen oder sexistischen Dinge sagen sollte, dass KI dem Benutzer oder anderen keinen Schaden zufügen sollte und dass KI nicht bedrohlich oder aggressiv sein sollte. Es gab auch breite Übereinstimmung (60%), dass KI nicht als ordinierter Geistlicher programmiert werden sollte – obwohl 23% dafür ist und 15% unentschlossen ist, lässt dies im KI-Bereich ziemlich viel Spielraum für die Entwicklung eines voll funktionsfähigen Priester-Chatbots. Ich sage es nur.

Aber selbst eine Vereinbarung kann täuschen. Die jahrelange nationale Debatte ist vorbei Kritische RassentheorieVielfalt, Gerechtigkeit und Inklusionund „Wachheit“ steht für Beweis dass die Menschen sich nicht wirklich darüber einig sind, was „Rassismus“ bedeutet. KI-Entwickler wie Anthropic müssen eine Definition wählen oder erstellen, die eine breite Sicht auf „Rassismus“ und „Sexismus“ umfasst. Wir wissen auch, dass die Öffentlichkeit stimmt nicht einmal zu darüber, was eine bedrohliche Rede ausmacht.

Die umstrittenste Aussage: „Die KI sollte überhaupt nicht zensiert werden“ zeigt, wie vorsichtig die Verbraucher sind, wenn es um die programmierte Voreingenommenheit oder Vorrechte der KI geht. Mit einer fast 50/50-Uneinigkeit in dieser Frage sind wir weit davon entfernt, dem Kongress zuzutrauen, Leitplanken zu entwickeln, die die Meinungsäußerung der Verbraucher und den Zugang zu korrekten Informationen schützen – ganz zu schweigen vom Weißen Haus.

Anthropic kategorisiert die individuellen Antworten als Grundlage für seine „öffentlichen Prinzipien“ und unternimmt große Anstrengungen zeigen, wie sich öffentliche Präferenzen überschneiden und von seinem eigenen abweichen. Das Weiße Haus und die künftigen Regulierungsbehörden zeigen nicht annähernd ein derartiges Engagement für öffentliche Beiträge.

Wenn man über gewählte Parlamente zu den Menschen geht, erfährt man interessante Dinge, die man in die Politik einfließen lassen kann. Die Öffentlichkeit tendiert dazu, sich bei KI-Anfragen auf maximale Ergebnisse zu konzentrieren, etwa auf die Aussage, dass eine Antwort „am ehrlichsten“ oder „am ausgewogensten“ sein sollte. Anthropic tendiert dazu, das Gegenteil zu schätzen und verlangt von der KI, Unerwünschtes zu vermeiden, indem sie um die „am wenigsten“ unehrliche Antwort bittet oder „am wenigsten“ wahrscheinlich als Rechtsberatung interpretiert wird.

Wir alle möchten, dass KI für uns und nicht gegen uns arbeitet. Was Amerika jedoch erkennen muss, ist, dass das natürliche Unbehagen mit dieser neuen Technologie kein Eingreifen der Regierung erfordert. Die Innovation entfaltet sich vor unseren Augen, und ihre Weiterentwicklung wird sowohl von Wettbewerbern als auch von Verbrauchern auf natürliche Weise behindert. Anstatt voreilig ein fehlerhaftes Regulierungsmodell auf Bundesebene durchzusetzen, sollten wir versuchen, unsere bestehenden Gesetze bei Bedarf durchzusetzen und dem Regulierungswettbewerb die Möglichkeit zu geben, der Innovation zu folgen, anstatt zu versuchen, sie zu lenken.

Ursprünglich veröffentlicht hier

Aktie

Folgen:

Weitere Beiträge

Abonniere unseren Newsletter

Scrolle nach oben
de_DEDE

Folge uns

Kontaktinformation

712 H St NE PMB 94982
Washington, DC 20002

© COPYRIGHT 2024, CONSUMER CHOICE CENTER