fbpx

Eine Klage gegen Google zielt darauf ab, Tech-Giganten und Online-Medienplattformen für die Empfehlungen ihrer Algorithmen für Inhalte Dritter im Namen der Terrorismusbekämpfung haftbar zu machen. Ein Sieg gegen Google würde uns nicht sicherer machen, aber er könnte das Funktionieren des Internets selbst drastisch untergraben.

Der Fall des Obersten Gerichtshofs ist Gonzalez gegen Google. Die Familie Gonzalez ist mit Nohemi Gonzalez verwandt, einem Amerikaner, der auf tragische Weise bei einem Terroranschlag von ISIS getötet wurde. Sie verklagen Google, die Muttergesellschaft von YouTube, weil sie nicht genug getan hat, um ISIS daran zu hindern, seine Website zum Hosten von Rekrutierungsvideos zu verwenden, während sie den Benutzern solche Inhalte über automatisierte Algorithmen empfehlen. Sie stützen sich auf Anti-Terror-Gesetze, die es ermöglichen, Schadensersatz von „jeder Person zu fordern, die Beihilfe zu „einem Akt des internationalen Terrorismus“ leistet, indem sie wissentlich erhebliche Hilfe leistet“.

Wenn dies wie eine Strecke erscheint, liegt das daran, dass es so ist. Es ist unklar, ob auf YouTube gehostete Videos direkt zu einem Terroranschlag geführt haben oder ob andere Einflüsse in erster Linie für die Radikalisierung der Täter verantwortlich waren. Google hat bereits Richtlinien gegen terroristische Inhalte und beschäftigt ein Moderationsteam, um sie zu identifizieren und zu entfernen, obwohl der Prozess nicht immer sofort erfolgt. Automatisierte Empfehlungen funktionieren in der Regel, indem sie Inhalte vorschlagen, die denen ähneln, die sich Benutzer angesehen haben, da sie auf einer Website, die Millionen von Videos hostet, höchstwahrscheinlich interessant und relevant für sie sind. 

Plattformen sind auch von der Haftung für das, was ihre Benutzer posten, abgeschirmt und dürfen sich sogar in gutem Glauben an der Moderation, Kuration und Filterung von Inhalten Dritter beteiligen, ohne als Markenherausgeber dieser Inhalte zu gelten. Dies ist Abschnitt 230 zu verdanken, dem Gesetz, das die schnelle Ausbreitung eines freien und offenen Internets ermöglicht hat, in dem sich Millionen von Menschen pro Sekunde in Echtzeit ausdrücken und interagieren können, ohne dass Technologiegiganten alles überwachen und überprüfen müssen, was sie sagen. Ein Prozesssieg gegen Google wird den Geltungsbereich von Abschnitt 230 und die Funktionalität von Algorithmen einschränken und Plattformen dazu zwingen, mehr zu zensieren oder zu überwachen.

Abschnitt 230 stellt sicher, dass Google nicht dafür haftbar gemacht wird, dass von Nutzern übermittelte terroristische Propaganda lediglich gehostet wird, bevor sie identifiziert und entfernt wurde. Die Behauptung, dass sich dieser Schutz auf Algorithmen erstreckt, die terroristische Inhalte empfehlen, bleibt jedoch vor Gericht ungeprüft. Aber es gibt keinen Grund, warum sie es nicht tun sollten. Die schiere Menge an Inhalten, die auf Plattformen wie YouTube gehostet werden, bedeutet, dass automatisierte Algorithmen zum Sortieren, Ranking und Hervorheben von Inhalten auf eine für Benutzer hilfreiche Weise für die Funktionalität der Plattformen unerlässlich sind. Sie sind für die Benutzererfahrung genauso wichtig wie das Hosten der Inhalte selbst. 

Wenn Plattformen für die Empfehlungen ihrer Algorithmen haftbar gemacht werden, haften sie effektiv ständig für Inhalte Dritter und müssen möglicherweise die Verwendung algorithmischer Empfehlungen ganz einstellen, um Rechtsstreitigkeiten zu vermeiden. Dies würde ein schlechteres Verbrauchererlebnis bedeuten, das es uns erschwert, Informationen und Inhalte zu finden, die für uns als Einzelpersonen relevant sind.

Es würde auch mehr „Schattenverbote“ und Zensur kontroverser Inhalte bedeuten, insbesondere wenn es um Menschenrechtsaktivisten in Ländern mit missbräuchlichen Regierungen, friedliche, wenn auch feurige Prediger aller Glaubensrichtungen oder gewalttätige Filmemacher geht, deren Videos nichts mit Terrorismus zu tun haben. Da es selbst mit einem großen Moderationsteam unmöglich ist, jedes eingereichte Video auf terroristische Links zu überprüfen, können Werkzeugalgorithmen zum Blockieren von Inhalten erforderlich werden, die lediglich terroristische Propaganda sein könnten. 

Konservative Befürworter der Meinungsfreiheit, die gegen die Big-Tech-Zensur sind, sollten sich Sorgen machen. Als YouTube 2007 gegen gewalttätige Inhalte vorging, führte dies dazu, dass Aktivisten Menschenrechtsverletzungen durch Regierungen im Nahen Osten aufdeckten Plattformlos. Die Dinge werden noch schlimmer, wenn Plattformen unter Druck gesetzt werden, die Dinge weiter voranzutreiben.

Eine solche Haftung von Plattformen ist unnötig, auch wenn die Entfernung extremistischer Inhalte die Radikalisierung verringern würde. Gesetze wie der Digital Millennium Copyright Act sehen einen Melde- und Entfernungsprozess für bestimmte illegale Inhalte wie Urheberrechtsverletzungen vor. Dieser Ansatz ist auf von Nutzern eingereichte Inhalte beschränkt, die bereits als illegal identifiziert wurden, und würde den Druck auf Plattformen verringern, generell mehr Inhalte zu entfernen.

Die Bekämpfung des Terrorismus und die Rechenschaftspflicht von Big Tech für echtes Fehlverhalten sollten keine Präzedenzfälle oder radikalen Gesetze beinhalten, die das Internet für uns alle weniger frei und nützlich machen.

Ursprünglich veröffentlicht hier

Aktie

Folgen:

Weitere Beiträge

Abonniere unseren Newsletter

Scrolle nach oben
de_DEDE