fbpx

Um processo contra o Google busca responsabilizar gigantes da tecnologia e plataformas de mídia online pelas recomendações de seus algoritmos de conteúdo de terceiros em nome do combate ao terrorismo. Uma vitória contra o Google não nos deixaria mais seguros, mas poderia minar drasticamente o próprio funcionamento da internet.

O caso da Suprema Corte é Gonzalez v. Google. A família Gonzalez é parente de Nohemi Gonzalez, um americano tragicamente morto em um ataque terrorista do ISIS. Eles estão processando o Google, empresa controladora do YouTube, por não fazer o suficiente para impedir que o ISIS use seu site para hospedar vídeos de recrutamento enquanto recomenda esse conteúdo aos usuários por meio de algoritmos automatizados. Eles se baseiam em leis antiterrorismo que permitem que danos sejam reclamados de “qualquer pessoa que ajude e seja cúmplice, conscientemente fornecendo assistência substancial” a “um ato de terrorismo internacional”.

Se isso parece um exagero, é porque é. Não está claro se os vídeos hospedados no YouTube levaram diretamente a algum ataque terrorista ou se outras influências foram as principais responsáveis pela radicalização dos perpetradores. O Google já possui políticas contra conteúdo terrorista e emprega uma equipe de moderação para identificá-lo e removê-lo, embora o processo nem sempre seja imediato. As recomendações automatizadas geralmente funcionam sugerindo conteúdo semelhante ao que os usuários visualizaram, pois é mais provável que seja interessante e relevante para eles em um site que hospeda milhões de vídeos. 

As plataformas também são isentas de responsabilidade pelo que seus usuários postam e podem até se envolver em moderação, curadoria e filtragem de boa fé de conteúdo de terceiros sem serem editores de marca. Isso se deve à Seção 230, a lei que permitiu a rápida expansão de uma internet gratuita e aberta, onde milhões de pessoas por segundo podem se expressar e interagir em tempo real sem que os gigantes da tecnologia tenham que monitorar e vetar tudo o que dizem. Uma vitória judicial contra o Google reduzirá o escopo da Seção 230 e a funcionalidade dos algoritmos, ao mesmo tempo em que forçará as plataformas a censurar ou policiar mais.

A seção 230 garante que o Google não será responsabilizado por simplesmente hospedar propaganda terrorista enviada por usuários antes de ela ser identificada e retirada do ar. No entanto, a proposição de que essas proteções se estendem a algoritmos que recomendam conteúdo terrorista ainda não foi testada no tribunal. Mas não há razão para que não devam. O grande volume de conteúdo hospedado em plataformas como o YouTube significa que algoritmos automatizados para classificação, classificação e destaque de conteúdo de maneiras úteis para os usuários são essenciais para a funcionalidade das plataformas. Eles são tão importantes para a experiência do usuário quanto hospedar o próprio conteúdo. 

Se as plataformas forem responsabilizadas pelas recomendações de seus algoritmos, elas serão efetivamente responsáveis pelo conteúdo de terceiros o tempo todo e podem precisar parar de usar recomendações algorítmicas para evitar litígios. Isso significaria uma experiência de consumo inferior que dificultaria a localização de informações e conteúdos relevantes para nós como indivíduos.

Isso também significaria mais “banimento oculto” e censura de conteúdo controverso, especialmente quando se trata de ativistas de direitos humanos em países com governos abusivos, pregadores pacíficos, embora inflamados, de todas as religiões, ou cineastas violentos cujos vídeos nada têm a ver com terrorismo. Como é impossível examinar cada vídeo enviado para links de terrorismo, mesmo com uma grande equipe de moderação, pode ser necessário criar algoritmos para bloquear conteúdo que poderia ser meramente propaganda terrorista. 

Defensores conservadores da liberdade de expressão que se opõem à censura das grandes tecnologias devem estar preocupados. Quando o YouTube reprimiu o conteúdo violento em 2007, isso levou ativistas que expunham o abuso dos direitos humanos por governos do Oriente Médio a serem sem plataforma. As coisas ficarão ainda piores se as plataformas forem pressionadas a levar as coisas adiante.

Responsabilizar as plataformas dessa forma é desnecessário, mesmo que derrubar mais conteúdo extremista reduza a radicalização. Leis como a Lei de Direitos Autorais do Milênio Digital fornecem um processo de notificação e remoção para conteúdo ilegal específico, como violação de direitos autorais. Essa abordagem é limitada ao conteúdo enviado pelo usuário já identificado como ilegal e reduziria a pressão nas plataformas para remover mais conteúdo em geral.

Combater o terrorismo e responsabilizar as grandes empresas de tecnologia por transgressões genuínas não deveria envolver precedentes ou leis radicais que tornam a internet menos livre e útil para todos nós.

Publicado originalmente aqui

Compartilhar

Seguir:

Mais postagens

Assine a nossa newsletter

Role para cima
pt_BRPT