fbpx

La semana pasada, el presidente Joe Biden dio a conocer una orden ejecutiva eso marca el comienzo de un camino regulatorio estadounidense para la inteligencia artificial. La orden es un preludio a la formación de un Instituto de Seguridad de IA de EE. UU., ubicado dentro del Departamento de Comercio.anunciado por la vicepresidenta Kamala Harris en el Reino Unido la semana pasada. Este período de “colaboración cercana“Con el Reino Unido y la UE es una amenaza considerable para décadas de liderazgo estadounidense en tecnología.

En lugar de adoptar las características tradicionales de la innovación estadounidense, la administración Biden parece decidida a importar algunos de los peores aspectos del oneroso régimen regulatorio europeo, impulsado por el miedo. Si continúa el enfoque actual, la innovación en IA será sofocada, excesivamente vigilada y tratada como culpable hasta que se demuestre su inocencia. 

A cada lado del Atlántico se están configurando dos mundos distintos en cuanto al futuro de la inteligencia artificial y sus beneficios.

El primero es uno con competencia de vanguardia entre grandes desarrolladores de modelos de lenguaje, codificadores de software de código abierto e inversores que crean las mejores aplicaciones prácticas para la IA. Esto incluye nuevas empresas ambiciosas, grandes empresas tecnológicas heredadas y todas las grandes corporaciones globales que buscan una ventaja. Como cualquiera puede adivinar, un alto porcentaje de los primeros en esta categoría se encuentran en los Estados Unidos, con cerca de 5.000 startups de IA y $249 mil millones en la inversión privada. Este espacio es esperanzador, enérgico y con visión de futuro.

El segundo mundo, que languidece detrás del primero, se caracteriza por la burocracia, los intensos procesos de aprobación y los permisos. La mentalidad predominante en torno a la IA es la mitigación de amenazas y la fijación en los peores escenarios de los que se debe salvar a los consumidores. 

Europa es ese segundo mundo, guiado por la mano nerviosa de su Comisario de Mercado Interior, thierry bretón, un enemigo clave de las empresas tecnológicas estadounidenses. Bretón es el rostro de dos amplias leyes digitales de la UEque imponen cargas adicionales a las empresas de tecnología que esperan llegar a los consumidores europeos. 

En cuanto a la IA, el enfoque claramente europeo de Breton se basa enteramente en el riesgo y el cumplimiento. Requiere que los productos de IA generativa, como imágenes o vídeos, están plagados de etiquetas y las aplicaciones específicas deben someterse a un riguroso proceso de registro para determinar si el riesgo es inaceptable, alto, limitado o mínimo.

Este proceso resultará restrictivo para una industria de la IA que cambia constantemente y garantizará que los titulares de la tecnología tengan una ventaja de cumplimiento. Los reguladores de la UE están acostumbrados a tratar con empresas como Meta y Google y han sentado algún precedente para subordinar a estas empresas estadounidenses de alto vuelo. 

Es un sistema complicado que los burócratas de la UE están felices de defender. Adoptan reglas onerosas incluso antes de que existan las industrias, con la esperanza de mantener un cierto status quo. Como resultado, Europa va muy por detrás de la inversión y la innovación que tienen lugar en Estados Unidos e incluso China. 

En la actualidad, Estados Unidos alberga una parte importante de la industria de la IA, ya sea Meta y el gran modelo de lenguaje de código abierto de Microsoft conocido como LLAMA, OpenAI Chat-GPT y Productos DALL-E, así como Midjourney y Stable Diffusion. Esto no es una casualidad ni un error en el orden internacional de la innovación tecnológica. Estados Unidos tiene un espíritu específico en torno a la asunción de riesgos empresariales y su enfoque regulatorio ha sido históricamente reactivo.

Si bien el presidente Biden podría haber tomado esto como una señal de que se necesitaba un toque ligero, en cambio ha tomado la ruta europea de “mando y control”, una manera que puede resultar aún más amplia.

Por ejemplo, la orden ejecutiva de Biden invoca la Ley de producción de defensa, una ley en tiempos de guerra diseñada para ayudar a reforzar el frente interno estadounidense frente a graves amenazas externas. ¿La IA ya está clasificada como una amenaza?

Utilizando la DPA, Biden requiere que todas las empresas que crean modelos de IA deben "notificar al gobierno federal cuando entrenen el modelo y deben compartir los resultados de todas las pruebas de seguridad del equipo rojo". Al igual que el sistema de riesgos europeo, esto significa que las empresas tendrán que actualizar y cumplir constantemente con las demandas de los reguladores para garantizar la seguridad.

Más que aumentar los costos de cumplimiento, esto efectivamente bloquearía a muchas empresas emergentes que no tendrían los recursos para informar cómo utilizan los modelos. Empresas más grandes y más cooperativas se lanzarían a comprarlos, lo cual puede ser el punto.

Andrew Ng, cofundador del primer proyecto de inteligencia artificial de Google, dijo recientemente Según el Australian Financial Review, muchas empresas existentes de IA están “creando miedo a que la IA conduzca a la extinción humana” para dominar el mercado al ordenar la regulación para mantener alejados a los competidores. Biden parece haber creído esa línea.

Otro aspecto que amenaza el desarrollo existente es que todas las empresas que crean modelos deben informar sus “propiedad y posesión.” Considerando que LLAMA de Meta, el modelo más grande producido hasta ahora está escrito como software de código abierto, es difícil ver cómo esto podría implementarse. Esto pone en peligro la naturaleza de código abierto de gran parte del ecosistema inicial de IA.

¿Es algo de esto realmente necesario? Singapur, que tiene una industria de IA incipiente pero en crecimiento, ha optado por un enfoque de no intervención para garantizar que los innovadores creen valor primero. En los primeros días de Silicon Valley, este fue el mantra que convirtió el Área de la Bahía en un faro global para la innovación tecnológica. 

Este impulso por regular es comprensible y sigue la ideología de Biden. Pero si Washington adopta el enfoque de Bruselas, como parece estar haciendo ahora, pondrá en riesgo la innovación, la competencia y los cientos de miles de millones en inversiones existentes en IA. Y podría ser precisamente lo que quieren los grandes actores actuales.

El Congreso debería intensificar y rechazar el enfoque de “teléfono y bolígrafo” de Biden para regular una industria en crecimiento. 

Para garantizar el liderazgo estadounidense en materia de IA, debemos abrazar lo que hace que Estados Unidos sea único para los innovadores, exploradores y soñadores del mundo: un entorno de asunción de riesgos basado en la libertad de expresión y la creatividad que ha generado riqueza y plusvalía incalculables para los consumidores. Seguir el ejemplo de los superreguladores y pesimistas tecnológicos europeos es un riesgo que no podemos permitirnos.

Publicado originalmente aquí

Compartir

Seguir:

Más publicaciones

Suscríbete a nuestro boletín

Vuelve al comienzo
es_ESES