Il CHAT Act: ben intenzionato ma senza successo

Il senatore Jon Husted di recente introdotto il Children Harmed by AI Technology (CHAT) Act del 2025. L'obiettivo dichiarato è chiaro: proteggere i minori dalle interazioni dannose con i chatbot di supporto basati sull'intelligenza artificiale. Il disegno di legge imporrebbe agli operatori di implementare una rigorosa verifica dell'età, bloccare i contenuti sessualmente espliciti per i minori e avvisare i genitori se un minore esprime pensieri suicidi. A prima vista, si tratta di un'iniziativa nobile. Tuttavia, la realtà della proposta rischia di creare un incubo in termini di privacy e conformità. 

COSA FA 'CHAT'? 

Innanzitutto, la proposta contiene una definizione eccessivamente ampia di chatbot AI di accompagnamento, che comprenderebbe qualsiasi software che "simuli l'interazione interpersonale o emotiva, l'amicizia o la comunicazione terapeutica con un utente". Tutti i principali servizi di chatbot disponibili, da Copilot a Gemini e Claude, incorporano interazioni interpersonali. Infatti, OpenAI modificato La personalità di ChatGPT è più calorosa in parte a causa del feedback degli utenti che hanno trovato il servizio troppo formale. L'interazione umana è una caratteristica, non un bug.

Data la definizione eccessivamente ampia, CHAT potrebbe potenzialmente comprendere non solo i popolari chatbot utilizzati oggi dai consumatori, ma estendersi anche a nuovi ambiti, come quello dell'industria dei videogiochi. Molti titoli di videogiochi, come Porta di Baldur e Protocollo segreto, hanno incluso personaggi non giocanti (PNG) che sfruttano l'intelligenza artificiale per informare le loro interazioni con i giocatori in base alle scelte fatte da questi ultimi. Anche l'app per l'apprendimento delle lingue Duolingo utilizza una funzionalità di chatbot basata su GPT nel suo abbonamento premium, consentendo agli utenti di esercitarsi nella conversazione in qualsiasi lingua stiano imparando. 

È necessario un targeting molto più mirato per garantire che le proposte non abbiano effetti di ricaduta su prodotti e servizi non correlati apprezzati dai consumatori. 

La proposta prevede inoltre l'obbligo di verificare l'età di tutti gli utenti di chatbot, disponibile in commercio, con collegamento all'account dei genitori per i minori. Sebbene il disegno di legge preveda che la raccolta dei dati sia limitata a quanto "strettamente necessario" per portare a termine il processo, la realtà è che, con la verifica dell'età, anche i dati limitati contrassegnati come strettamente necessari sono estremamente sensibili e lasciano i consumatori esposti a rischi per la privacy. 

MOLTO CHE POTREBBE ANDARE STORTO

Questo rischio non è ipotetico; è molto reale. Proprio il mese scorso, la popolare app nota come "Tea", che funge da spazio in cui le donne possono comunicare tra loro su potenziali partner sull'app, ha registrato un enorme successo. violazione dei dati, con la fuga di dati sensibili degli utenti, come patenti di guida, messaggi diretti e selfie. 

Inoltre, l'adozione di un simile regime normativo sottopone gli utenti online a una cultura di sorveglianza e rappresenta una minaccia per i diritti alla libertà di parola. 

Gli Stati Uniti non hanno bisogno di guardare oltre il Regno Unito per comprendere i gravi rischi che derivano dall'obbligo di verifica dell'età per i servizi online. Mentre gli Stati Uniti teoricamente non arriverebbero a tanto arrestando qualcuno per il contenuto del suo discorso online, c'è un effetto paralizzante associato all'erosione del discorso anonimo. Non sorprende che gli utenti abbiano ampiamente utilizzato le VPN per aggirare i requisiti di verifica dell'età previsti da tale legge, e sarebbe lecito aspettarsi un risultato simile in questo caso. 


Altro da James Czerniawski sul Regno Unito e la verifica dell'età

Ecco perché il Consumer Choice Center ha firmato un lettera di coalizione guidato dalla Taxpayers Protection Alliance sull'argomento, poiché hanno evidenziato molte delle nostre preoccupazioni che, se non affrontate, porterebbero a risultati negativi per i consumatori.

IL METODO DELLO UTAH

I chatbot e la tecnologia di intelligenza artificiale che li alimenta sono destinati a durare. Sono strumenti incredibilmente potenti e possono aiutare i bambini ad acquisire competenze fondamentali per i lavori di domani che l'intelligenza artificiale fornirà. Come ogni tecnologia, non sono privi di potenziali svantaggi. 

Tuttavia, le leggi esistenti possono affrontare potenziali danni e i legislatori dovrebbero lasciare che la giurisprudenza si sviluppi organicamente. Nel caso in cui dovessimo constatare che le leggi non responsabilizzano i malintenzionati, i legislatori possono adottare misure legislative appropriate per porre rimedio a danni identificati in modo specifico. A livello statale, lo Utah ha scelto un approccio diverso ai chatbot terapeutici basati sull'intelligenza artificiale, sfruttando la sua Laboratorio di apprendimento dell'intelligenza artificiale per elaborare una soluzione legislativa leggera e ragionevole, stabilendo limiti e regole per le aziende che offrono servizi in tale ambito. I legislatori dovrebbero valutare come sfruttare tali laboratori e sandbox normativi per stabilire un processo corretto per comprendere la tecnologia e produrre soluzioni mirate, ove opportuno.

Condividere

Seguire:

Altri post

Iscriviti alla nostra Newsletter