fbpx

La settimana scorsa, il presidente Joe Biden ha presentato un ordine esecutivo che segna l’inizio di un percorso normativo statunitense per l’intelligenza artificiale. L’ordine è il preludio alla creazione di un Istituto statunitense per la sicurezza dell’intelligenza artificiale, ospitato presso il Dipartimento del Commercio.annunciato dal vicepresidente Kamala Harris nel Regno Unito la settimana scorsa. Questo periodo di “stretta collaborazione” con il Regno Unito e l’UE rappresenta una minaccia considerevole per decenni di leadership americana nel settore tecnologico.

Piuttosto che abbracciare i tradizionali tratti distintivi dell’innovazione americana, l’amministrazione Biden sembra intenzionata a importare alcuni degli aspetti peggiori del gravoso e guidato dalla paura del regime normativo europeo. Se l’approccio attuale continua, l’innovazione dell’intelligenza artificiale sarà soffocata, eccessivamente sorvegliata e trattata come colpevole fino a prova contraria. 

Su ciascuna sponda dell’Atlantico stanno prendendo forma due mondi distinti riguardo al futuro dell’intelligenza artificiale e ai suoi vantaggi.

Il primo è quello caratterizzato da una concorrenza all’avanguardia tra grandi sviluppatori di modelli linguistici, programmatori di software open source e investitori che utilizzano le migliori applicazioni pratiche per l’intelligenza artificiale. Ciò comprende startup ambiziose, aziende Big Tech legacy e tutte le principali aziende globali alla ricerca di un vantaggio. Come chiunque può immaginare, un'alta percentuale di coloro che si sono mossi per primi in questa categoria ha sede negli Stati Uniti, con quasi 5.000 startup AI e $249 miliardi negli investimenti privati. Questo spazio è pieno di speranza, energico e lungimirante.

Il secondo mondo, che languisce dietro il primo, è caratterizzato da burocrazia, intensi processi di approvazione e permessi. La mentalità predominante nei confronti dell’intelligenza artificiale è quella della mitigazione delle minacce e della fissazione sugli scenari peggiori da cui i consumatori devono essere salvati. 

L’Europa è quel secondo mondo, guidato dalla mano nervosa del suo Commissario per il Mercato Interno, Thierry Breton, un nemico chiave delle aziende tecnologiche americane. Breton è il volto di due ampie leggi digitali dell’UEche impongono ulteriori oneri alle aziende tecnologiche che sperano di raggiungere i consumatori europei. 

Per quanto riguarda l’intelligenza artificiale, l’approccio tipicamente europeo di Breton è interamente basato sul rischio e sulla conformità. Richiede prodotti di intelligenza artificiale generativa, come immagini o video, vengono etichettati e applicazioni specifiche devono essere sottoposte a un rigoroso processo di registrazione per determinare se il rischio è inaccettabile, elevato, limitato o minimo.

Questo processo si rivelerà restrittivo per un settore dell’intelligenza artificiale in costante cambiamento e garantirà che gli operatori storici della tecnologia avranno un vantaggio in termini di conformità. Le autorità di regolamentazione dell’UE sono abituate a trattare con aziende del calibro di Meta e Google e hanno creato alcuni precedenti per subordinare queste società americane di alto livello. 

È un sistema contorto che i burocrati dell’UE sono felici di sostenere. Adottano regole gravose prima ancora che le industrie esistessero, con la speranza di mantenere un certo status quo. Di conseguenza, l’Europa è molto indietro rispetto agli investimenti e all’innovazione che hanno luogo negli Stati Uniti e persino in Cina. 

Al momento, gli Stati Uniti ospitano una parte significativa del settore dell’intelligenza artificiale, che si tratti di Meta e del modello di linguaggio open source di Microsoft noto come LAMA, OpenAI Chat-GPT e Prodotti DALL-E, così come Midjourney e Stable Diffusion. Questo non è un colpo di fortuna o un bug nell’ordine internazionale dell’innovazione tecnologica. L’America ha un’etica specifica riguardo all’assunzione di rischi imprenditoriali e il suo approccio normativo è stato storicamente reattivo.

Anche se il presidente Biden avrebbe potuto interpretarlo come un segnale della necessità di un tocco leggero, ha invece intrapreso la via europea del “comando e controllo”, una via che potrebbe rivelarsi ancora più espansiva.

Ad esempio, l'ordine esecutivo di Biden invoca l' Legge sulla produzione della difesa, una legge in tempo di guerra progettata per contribuire a rafforzare il fronte interno americano di fronte a gravi minacce esterne. L’intelligenza artificiale è già classificata come una minaccia?

Utilizzando la DPA, Biden richiede che tutte le aziende che creano modelli di intelligenza artificiale devono “informare il governo federale durante l’addestramento del modello e devono condividere i risultati di tutti i test di sicurezza del team rosso”. Come il sistema di rischio europeo, ciò significa che le aziende dovranno aggiornarsi e conformarsi costantemente alle richieste delle autorità di regolamentazione per garantire la sicurezza.

Più che aumentare i costi di conformità, ciò bloccherebbe di fatto molte startup che non avrebbero le risorse per segnalare come utilizzano i modelli. Aziende più grandi e più cooperative interverrebbero per rilevarle, e questo potrebbe essere il punto.

Andrew Ng, co-fondatore del primo progetto AI di Google, recentemente detto Secondo l’Australian Financial Review molte aziende leader nel settore dell’intelligenza artificiale stanno “creando la paura che l’intelligenza artificiale porti all’estinzione umana” per dominare il mercato indirizzando la regolamentazione per tenere lontani i concorrenti. Biden sembra aver accettato quella linea.

Un altro aspetto che minaccia lo sviluppo esistente è che tutte le aziende che creano modelli devono segnalare i propri “proprietà e possesso.” Considerando LLAMA di Meta, il modello più grande prodotto finora è scritto come software open source, è difficile vedere come ciò potrebbe essere attuato. Ciò mette a repentaglio la natura open source di gran parte dei primi ecosistemi di intelligenza artificiale.

Tutto ciò è davvero necessario? Singapore, che vanta un settore dell’intelligenza artificiale nascente ma in crescita, ha optato per un approccio diretto per garantire che gli innovatori creino innanzitutto valore. Agli albori della Silicon Valley, questo era il mantra che trasformò la Bay Area in un faro globale per l’innovazione tecnologica. 

Questo impulso a regolamentare è comprensibile e segue l’ideologia di Biden. Ma se Washington adotta l’approccio di Bruxelles, come sembra stia facendo ora, metterà a rischio l’innovazione, la concorrenza e le centinaia di miliardi di investimenti esistenti nell’intelligenza artificiale. E potrebbe essere proprio ciò che vogliono i grandi player in carica.

Il Congresso dovrebbe intensificare e respingere l’approccio “telefono e penna” di Biden per regolamentare un settore in crescita. 

Per garantire la leadership americana nell’intelligenza artificiale, dobbiamo abbracciare ciò che rende l’America unica per gli innovatori, gli esploratori e i sognatori del mondo: un ambiente propenso al rischio fondato sulla libertà di parola e sulla creatività che ha offerto ricchezza indicibile e plusvalore ai consumatori. Prendere spunto dai superregolatori e dai pessimisti tecnologici europei è un rischio che non possiamo permetterci.

Originariamente pubblicato qui

Condividere

Seguire:

Altri post

Iscriviti alla nostra Newsletter

Descrizione
it_ITIT