Une action en justice contre Google vise à tenir les géants de la technologie et les plateformes de médias en ligne responsables des recommandations de leurs algorithmes de contenu tiers au nom de la lutte contre le terrorisme. Une victoire contre Google ne nous rendrait pas plus sûrs, mais cela pourrait considérablement saper le fonctionnement même d'Internet.
L'affaire de la Cour suprême est Gonzalez contre Google. La famille Gonzalez est liée à Nohemi Gonzalez, un Américain tragiquement tué dans une attaque terroriste par ISIS. Ils poursuivent Google, la société mère de YouTube, pour ne pas avoir fait assez pour empêcher ISIS d'utiliser son site Web pour héberger des vidéos de recrutement tout en recommandant ce contenu aux utilisateurs via des algorithmes automatisés. Ils s'appuient sur les lois antiterroristes permettant de réclamer des dommages-intérêts à "toute personne qui aide et encourage, en fournissant sciemment une assistance substantielle" à "un acte de terrorisme international".
Si cela semble exagéré, c'est parce que ça l'est. Il n'est pas clair si les vidéos hébergées sur YouTube ont directement conduit à une attaque terroriste ou si d'autres influences étaient principalement responsables de la radicalisation des auteurs. Google a déjà des politiques contre le contenu terroriste et emploie une équipe de modération pour l'identifier et le supprimer, bien que le processus ne soit pas toujours immédiat. Les recommandations automatisées fonctionnent généralement en suggérant un contenu similaire à ce que les utilisateurs ont vu, car il est plus susceptible d'être intéressant et pertinent pour eux sur un site Web qui héberge des millions de vidéos.
Les plateformes sont également dégagées de toute responsabilité pour ce que leurs utilisateurs publient et sont même autorisées à s'engager de bonne foi dans la modération, la conservation et la filtration du contenu de tiers sans en être les éditeurs de marque. C'est grâce à la section 230, la loi qui a permis l'expansion rapide d'un Internet libre et ouvert où des millions de personnes par seconde peuvent s'exprimer et interagir en temps réel sans que les géants de la technologie aient à surveiller et à vérifier tout ce qu'ils disent. Une victoire en justice contre Google réduira la portée de l'article 230 et la fonctionnalité des algorithmes tout en obligeant les plates-formes à censurer ou à contrôler davantage.
L'article 230 garantit que Google ne sera pas tenu responsable du simple fait d'héberger de la propagande terroriste soumise par l'utilisateur avant qu'elle ne soit identifiée et supprimée. Cependant, la proposition selon laquelle ces protections s'étendent aux algorithmes qui recommandent des contenus terroristes n'a pas été testée devant les tribunaux. Mais il n'y a aucune raison pour qu'ils ne le fassent pas. Le volume considérable de contenu hébergé sur des plates-formes telles que YouTube signifie que les algorithmes automatisés pour trier, classer et mettre en évidence le contenu de manière utile aux utilisateurs sont essentiels à la fonctionnalité des plates-formes. Ils sont aussi importants pour l'expérience utilisateur que l'hébergement du contenu lui-même.
Si les plateformes sont tenues responsables des recommandations de leurs algorithmes, elles seraient effectivement responsables du contenu de tiers tout le temps et pourraient devoir cesser complètement d'utiliser les recommandations algorithmiques pour éviter les litiges. Cela signifierait une expérience de consommation inférieure qui nous rendrait plus difficile la recherche d'informations et de contenus pertinents pour nous en tant qu'individus.
Cela signifierait également plus de "bannir l'ombre" et de censure des contenus controversés, en particulier lorsqu'il s'agit de militants des droits de l'homme dans des pays aux gouvernements abusifs, de prédicateurs pacifiques quoique fougueux de toutes confessions, ou de cinéastes violents dont les vidéos n'ont rien à voir avec le terrorisme. Puisqu'il est impossible de contrôler chaque vidéo soumise pour des liens vers le terrorisme, même avec une grande équipe de modération, il peut devenir nécessaire d'utiliser des algorithmes pour bloquer le contenu qui pourrait simplement être de la propagande terroriste.
Les défenseurs conservateurs de la liberté d'expression qui s'opposent à la censure des grandes technologies devraient s'inquiéter. Lorsque YouTube a sévi contre les contenus violents en 2007, des militants ont dénoncé les atteintes aux droits humains commises par les gouvernements du Moyen-Orient. dé-plateforme. Les choses empireront encore si les plates-formes subissent des pressions pour aller plus loin.
Tenir les plateformes pour responsables de cette manière n'est pas nécessaire, même si la suppression de contenus plus extrémistes réduirait la radicalisation. Des lois telles que le Digital Millennium Copyright Act prévoient un processus de notification et de retrait pour un contenu illégal spécifique, tel que la violation du droit d'auteur. Cette approche est limitée au contenu soumis par les utilisateurs déjà identifié comme illégal et réduirait la pression sur les plateformes pour supprimer plus de contenu en général.
Combattre le terrorisme et tenir les grandes technologies responsables d'actes répréhensibles authentiques ne devraient pas impliquer de précédents ou de lois radicales qui rendent Internet moins libre et moins utile pour nous tous.
Publié à l'origine ici