Una causa contro Google cerca di ritenere responsabili i giganti della tecnologia e le piattaforme multimediali online per le raccomandazioni dei loro algoritmi sui contenuti di terze parti in nome della lotta al terrorismo. Una vittoria contro Google non ci renderebbe più sicuri, ma potrebbe minare drasticamente il funzionamento stesso di Internet.
Il caso della Corte Suprema è González contro Google. La famiglia Gonzalez è imparentata con Nohemi Gonzalez, un'americana tragicamente uccisa in un attacco terroristico dell'ISIS. Stanno facendo causa a Google, la società madre di YouTube, per non aver fatto abbastanza per impedire all'ISIS di utilizzare il suo sito Web per ospitare video di reclutamento, raccomandando tali contenuti agli utenti tramite algoritmi automatizzati. Si basano su leggi antiterrorismo che consentono di richiedere il risarcimento dei danni a "qualsiasi persona che aiuti e favorisca, fornendo consapevolmente assistenza sostanziale" a "un atto di terrorismo internazionale".
Se questo sembra un tratto, è perché lo è. Non è chiaro se i video ospitati su YouTube abbiano portato direttamente a un attacco terroristico o se altre influenze siano state le principali responsabili della radicalizzazione degli autori. Google dispone già di norme contro i contenuti terroristici e impiega un team di moderazione per identificarli e rimuoverli, sebbene il processo non sia sempre immediato. I consigli automatici in genere funzionano suggerendo contenuti simili a quelli che gli utenti hanno visualizzato poiché è molto probabile che siano interessanti e pertinenti per loro su un sito web che ospita milioni di video.
Le piattaforme sono inoltre protette dalla responsabilità per ciò che i loro utenti pubblicano e sono persino autorizzate a impegnarsi in buona fede nella moderazione, nella cura e nel filtraggio di contenuti di terze parti senza esserne editori di marca. Questo grazie alla Sezione 230, la legge che ha consentito la rapida espansione di un Internet libero e aperto in cui milioni di persone al secondo possono esprimersi e interagire in tempo reale senza che i giganti della tecnologia debbano monitorare e controllare tutto ciò che dicono. Una vittoria in causa contro Google restringerà l'ambito della Sezione 230 e la funzionalità degli algoritmi costringendo le piattaforme a censurare o sorvegliare di più.
La sezione 230 garantisce che Google non sarà ritenuta responsabile per aver semplicemente ospitato la propaganda terroristica inviata dall'utente prima che fosse identificata e rimossa. Tuttavia, l'idea che queste protezioni si estendano agli algoritmi che raccomandano contenuti terroristici rimane non verificata in tribunale. Ma non c'è motivo per cui non dovrebbero. L'enorme volume di contenuti ospitati su piattaforme come YouTube significa che gli algoritmi automatizzati per ordinare, classificare ed evidenziare i contenuti in modi utili per gli utenti sono essenziali per la funzionalità delle piattaforme. Sono importanti per l'esperienza dell'utente quanto l'hosting del contenuto stesso.
Se le piattaforme sono ritenute responsabili per le raccomandazioni dei loro algoritmi, sarebbero effettivamente responsabili per i contenuti di terze parti in ogni momento e potrebbero dover smettere del tutto di utilizzare le raccomandazioni algoritmiche per evitare controversie. Ciò significherebbe un'esperienza di consumo inferiore che rende più difficile per noi trovare informazioni e contenuti rilevanti per noi come individui.
Significherebbe anche più "divieto ombra" e censura di contenuti controversi, specialmente quando si tratta di attivisti per i diritti umani in paesi con governi abusivi, predicatori pacifici ma focosi di tutte le fedi o registi violenti i cui video non hanno nulla a che fare con il terrorismo. Dal momento che è impossibile esaminare ogni video inviato per i collegamenti al terrorismo anche con un ampio staff di moderazione, potrebbero essere necessari algoritmi per bloccare i contenuti che potrebbero essere semplicemente propaganda terroristica.
I sostenitori conservatori della libertà di parola che si oppongono alla censura della grande tecnologia dovrebbero essere preoccupati. Quando YouTube ha represso i contenuti violenti nel 2007, gli attivisti che denunciavano le violazioni dei diritti umani da parte dei governi del Medio Oriente sono stati de-piattaformato. Le cose andranno ancora peggio se le piattaforme subiranno pressioni per andare oltre.
Non è necessario ritenere le piattaforme responsabili in questo modo, anche se rimuovere contenuti più estremisti ridurrebbe la radicalizzazione. Leggi come il Digital Millennium Copyright Act prevedono un processo di avviso e rimozione per specifici contenuti illegali, come la violazione del copyright. Questo approccio è limitato ai contenuti inviati dagli utenti già identificati come illegali e ridurrebbe la pressione sulle piattaforme per rimuovere più contenuti in generale.
Combattere il terrorismo e ritenere la grande tecnologia responsabile di autentici illeciti non dovrebbe comportare precedenti o leggi radicali che rendano Internet meno gratuito e utile per tutti noi.
Originariamente pubblicato qui