fbpx

Una demanda contra Google busca responsabilizar a los gigantes tecnológicos y las plataformas de medios en línea por las recomendaciones de contenido de terceros de sus algoritmos en nombre de la lucha contra el terrorismo. Una victoria contra Google no nos haría más seguros, pero podría socavar drásticamente el funcionamiento de Internet.

El caso de la Corte Suprema es González contra Google. La familia González está relacionada con Nohemi González, una estadounidense que murió trágicamente en un ataque terrorista de ISIS. Están demandando a Google, la empresa matriz de YouTube, por no hacer lo suficiente para impedir que ISIS use su sitio web para alojar videos de reclutamiento mientras recomienda dicho contenido a los usuarios a través de algoritmos automatizados. Se basan en las leyes antiterroristas que permiten reclamar daños y perjuicios a “cualquier persona que ayude y sea cómplice, proporcionando a sabiendas una asistencia sustancial” a “un acto de terrorismo internacional”.

Si esto parece una exageración, es porque lo es. No está claro si los videos alojados en YouTube condujeron directamente a un ataque terrorista o si alguna otra influencia fue la principal responsable de radicalizar a los perpetradores. Google ya tiene políticas contra el contenido terrorista y emplea un equipo de moderación para identificarlo y eliminarlo, aunque el proceso no siempre es inmediato. Las recomendaciones automáticas suelen funcionar al sugerir contenido similar al que los usuarios han visto, ya que es más probable que sea interesante y relevante para ellos en un sitio web que aloja millones de videos. 

Las plataformas también están protegidas de la responsabilidad por lo que publican sus usuarios e incluso se les permite participar en la moderación, selección y filtración de contenido de terceros de buena fe sin ser los editores de la marca. Esto es gracias a la Sección 230, la ley que ha permitido la rápida expansión de un Internet libre y abierto donde millones de personas por segundo pueden expresarse e interactuar en tiempo real sin que los gigantes tecnológicos tengan que monitorear y examinar todo lo que dicen. Una victoria en la demanda contra Google reducirá el alcance de la Sección 230 y la funcionalidad de los algoritmos, al tiempo que obligará a las plataformas a censurar o vigilar más.

La sección 230 garantiza que Google no será responsable por simplemente alojar propaganda terrorista enviada por los usuarios antes de que fuera identificada y eliminada. Sin embargo, la proposición de que estas protecciones se extienden a los algoritmos que recomiendan contenido terrorista sigue sin probarse en los tribunales. Pero no hay ninguna razón por la que no deberían hacerlo. El gran volumen de contenido alojado en plataformas como YouTube significa que los algoritmos automatizados para ordenar, clasificar y resaltar el contenido de manera útil para los usuarios son esenciales para la funcionalidad de las plataformas. Son tan importantes para la experiencia del usuario como el alojamiento del contenido en sí. 

Si las plataformas son responsables de las recomendaciones de sus algoritmos, serían efectivamente responsables del contenido de terceros todo el tiempo y es posible que deban dejar de usar recomendaciones algorítmicas por completo para evitar litigios. Esto significaría una experiencia de consumo inferior que nos dificultaría encontrar información y contenido relevante para nosotros como individuos.

También significaría más “prohibición en la sombra” y censura de contenido controvertido, especialmente cuando se trata de activistas de derechos humanos en países con gobiernos abusivos, predicadores pacíficos aunque feroces de todas las religiones, o cineastas violentos cuyos videos no tienen nada que ver con el terrorismo. Dado que es imposible examinar cada video enviado en busca de enlaces terroristas, incluso con un gran personal de moderación, pueden ser necesarios algoritmos de herramientas para bloquear contenido que podría ser simplemente propaganda terrorista. 

Los defensores conservadores de la libertad de expresión que se oponen a la censura de las grandes tecnologías deberían estar preocupados. Cuando YouTube tomó medidas enérgicas contra el contenido violento en 2007, los activistas que expusieron los abusos contra los derechos humanos por parte de los gobiernos de Oriente Medio sin plataforma. Las cosas empeorarán aún más si se presiona a las plataformas para que lleven las cosas más lejos.

Responsabilizar a las plataformas de esta manera es innecesario, incluso si eliminar más contenido extremista reduciría la radicalización. Leyes como la Ley de derechos de autor del milenio digital brindan un proceso de notificación y eliminación para contenido ilegal específico, como la infracción de derechos de autor. Este enfoque se limita al contenido enviado por el usuario ya identificado como ilegal y reduciría la presión sobre las plataformas para eliminar más contenido en general.

Combatir el terrorismo y responsabilizar a las grandes tecnológicas por malas acciones genuinas no debería involucrar precedentes o leyes radicales que hagan que Internet sea menos libre y útil para todos nosotros.

Publicado originalmente aquí

Compartir

Seguir:

Más publicaciones

Suscríbete a nuestro boletín

Vuelve al comienzo
es_ESES