Una moratoria federale sulle normative statali in materia di intelligenza artificiale non è un'esagerazione schiacciante; è un modo prudente per fermare le cattive norme locali e unificare le eventuali regole stradali in materia di intelligenza artificiale..
I consumatori che desiderano i prodotti e gli strumenti tecnologici più recenti e all'avanguardia sanno che Washington, DC, ha un forte potere decisionale sulla possibilità di accedervi.
Ogni giorno dalla capitale del Paese escono progetti di legge e annunci normativi, che creano regole che i produttori e gli innovatori devono seguire per immettere beni e servizi sul mercato.
Meno noto, tuttavia, è quanto le agenzie di regolamentazione statali e le leggi statali tentino di regolamentare gli stessi strumenti e prodotti. Che si tratti dello Stato di New York o del Commonwealth del Massachusetts, politici e autorità di regolamentazione sono impegnati quanto i loro colleghi che ricoprono incarichi federali. A volte questo ha senso, altre volte è più un peso che un aiuto.
Possiamo già osservare questo conflitto emergere quando si tratta di capire le regole del gioco per modelli, app e sistemi di intelligenza artificiale.
Per placare la febbre normativa statale che potrebbe frammentare la nascente esistenza normativa dell'IA, i legislatori federali stanno chiedendo una "moratoria" sulle normative statali per almeno i prossimi dieci anni. Ed è qualcosa di cui c'è urgente bisogno.
Sezione 43201 di HR 1, altrimenti noto come “Big Beautiful Bill”, contiene una disposizione che prevale sulle normative statali sull’intelligenza artificiale:
“Nessuno Stato o sua suddivisione politica può applicare, durante il periodo di 10 anni a partire dalla data di promulgazione della presente legge, alcuna legge o regolamento di tale Stato o di una sua suddivisione politica che limiti, restringa o altrimenti regoli i modelli di intelligenza artificiale, i sistemi di intelligenza artificiale o i sistemi decisionali automatizzati immessi nel commercio interstatale.”
Come ha spiegato Adam Thierer del R Street Institute in parecchi articoli, bloge persino congressuale testimonianza, il motivo per cui le autorità federali dovrebbero mettere un freno alle norme a livello statale è che la legislazione sull'intelligenza artificiale è davvero sfuggita al controllo.
Le proposte di legge più importanti sull'intelligenza artificiale hanno già ottenuto diversi livelli di successo negli stati dell'Unione, da quelle più restrittive in California e Colorado a quelle più accomodanti in Texas e Florida. A un ultimo sguardo, ci sono oltre 1.000 progetti di legge statali relativi alla tecnologia dell'intelligenza artificiale.
E con l'affermarsi di queste regole, è chiaro che qualsiasi sviluppatore o azienda di intelligenza artificiale dovrà impegnarsi a fondo per garantire la conformità a 330 milioni di americani in 50 giurisdizioni. Probabilmente, gli stati più grandi definiranno le regole di base che tutti gli altri dovranno seguire.
Quando stati popolosi come la California adottano norme regolamentari diverse da quelle degli altri stati, le aziende e le società che desiderano promuovere i propri beni e servizi in tutto il Paese dovranno probabilmente attenersi alle norme californiane. Questo è chiaro.
Nei circoli politici, ci riferiamo a questo come "Effetto Spillover della California", che ho spiegato specificamente nell'area di politica energetica, ma lo stesso vale anche per la politica tecnologica.
Sebbene questa piccola moratoria sia valida, un certo numero di politici e gruppi liberali e conservatori hanno finto indignazione. Essi ritengono norme statali sospese come dare un "assegno in bianco" alle aziende tecnologiche che offrono prodotti e servizi di intelligenza artificiale su cui molti di noi stanno iniziando a fare affidamento. Persino Joe Rogan opinato sulla moratoria sul suo show, considerandola una pericolosa concessione che metterà a rischio l'umanità quando l'"intelligenza artificiale killer" mostrerà la sua brutta faccia.
Credere che l'intelligenza artificiale debba avere più limiti è una posizione ragionevole, su cui probabilmente molte persone saranno d'accordo.
Tuttavia, questo articolo analizza il contesto normativo dell'IA da una prospettiva chiara e netta, incentrata sulla sua effettiva esistenza o meno. Non è questa la questione, né l'obiettivo. Né si tratta di violare i diritti degli Stati, come hanno sostenuto alcuni repubblicani.
Si tratta piuttosto di ridurre gli oneri normativi per un settore così nuovo e chiaramente digitale. Imporre la conformità a modelli e aziende di intelligenza artificiale in 50 giurisdizioni diverse significherebbe bloccare geograficamente prodotti pessimi a seconda dello stato degli Stati Uniti in cui ci troviamo.
Se vogliamo che i consumatori traggano vantaggio dall'intelligenza artificiale in tutto il Paese, ciò significherà disporre di un quadro normativo nazionale ampio, ma solo quando sapremo come farlo. La tecnologia è così nuova e il modo migliore per erigere queste barriere è ancora incerto.
Sebbene il nostro obiettivo sia quello di avere una sorta di quadro normativo federale, non possiamo permettere che i consumatori in California, Vermont o Nebraska siano esclusi dall'innovazione perché i legislatori dei loro stati sono più spaventati dall'intelligenza artificiale rispetto agli enti regolatori statali altrove.
Forse questa è una lezione anche per altre questioni tecnologiche. Un approccio alla regolamentazione della tecnologia a livello statale può essere efficace per alcune aree problematiche, ma non per altre.
In definitiva, una moratoria federale sulle leggi statali relative all'intelligenza artificiale è un modo prudente per consentirci di coglierne i benefici prima di esserne privati.
Yaël Ossowski è vicedirettore del Consumer Choice Center

