El liderazgo de Estados Unidos en inteligencia artificial nunca ha estado garantizado. Debe ganarse mediante la adopción explícita de decisiones políticas que conduzcan a un entorno que permita la experimentación, en lugar de la permisión. Ese legado se encuentra en el Plan de Acción de IA de la administración Trump y en la visión más amplia que enfatiza la innovación y el dominio tecnológico estadounidense.
Desafortunadamente, en Diciembre, La senadora Marsha Blackburn dio a conocer la Ley de Inteligencia Artificial TRUMP AMERICA y, si bien puede obtener puntos extra por nombrarla en honor al presidente y por su marca patriótica, las sugerencias políticas subyacentes van directamente en contra de los objetivos de su administración.
En la práctica, el proyecto de ley impondría una responsabilidad generalizada, otorgaría a reguladores no electos una amplia discreción y consolidaría y alentaría una cultura de priorizar el cumplimiento normativo, impulsada por un miedo que frena la innovación. El resultado probable no es una IA más segura, sino un progreso más lento, menos opciones para los consumidores y deja a Estados Unidos en una peor posición en la carrera global de la IA.
Un régimen regulatorio basado en el miedo, no en la innovación
En cada sección de la propuesta se presume que los sistemas de IA son inherentemente peligrosos y deben ser controlados preventivamente por el gobierno federal. La Sección 3 impone a los desarrolladores de IA un amplio deber de diligencia para prevenir y mitigar los daños previsibles, exige evaluaciones de riesgos continuas y otorga a la Comisión Federal de Comercio la autoridad para establecer salvaguardias mínimas razonables.“
Ese lenguaje suena mesurado. En realidad, es peligrosamente vago.
“El "daño previsible" no es un estándar técnico. Será interpretado por los reguladores., abogados litigantes, y activistas políticos para que signifiquen lo que se ajuste a sus prioridades en un momento dado. Una vez codificado, esto genera una incertidumbre jurídica constante, especialmente para startups, desarrolladores de código abierto y pequeñas empresas que carecen de equipos de abogados y responsables de cumplimiento.
Este enfoque es el que empieza a asemejar a Europa: regular primero, innovar después y ver cómo el liderazgo se desvanece y se vuelve irrelevante.
Fortalecer aún más a la FTC significa fortalecer la censura de facto
Aún más preocupante es cómo estos nuevos poderes podrían usarse para moldear no sólo las prácticas de seguridad, sino también el discurso mismo.
La propuesta otorgaría a la FTC mayor autoridad para definir y aplicar las salvaguardas de la IA y para supervisar las prácticas consideradas injustas o perjudiciales en el desarrollo e implementación de modelos. En teoría, se trata de la protección del consumidor. En la práctica, crea un poderoso mecanismo para la gobernanza del contenido regulatorio.
Esta preocupación no es especulativa. En 2023, La dirección de la FTC, bajo la presidencia de Lina Khan, indicó abiertamente que creía que podría usar la autoridad que le otorga la Sección 5 para examinar y potencialmente sancionar a los desarrolladores de IA por los tipos de datos utilizados para entrenar sus modelos y los resultados que generan sus sistemas. La implicación era clara: si los reguladores desaprueban ciertas entradas o salidas, podrían tomarse medidas coercitivas.
Se trata de una propuesta extraordinaria y peligrosa al mismo tiempo.
Una vez que los reguladores empiezan a definir qué constituye datos de entrenamiento "aceptables" o comportamiento "responsable" de los modelos, inevitablemente empiezan a definir los límites de la libertad de expresión. Los desarrolladores de IA, ante estándares imprecisos y un enorme riesgo legal, responderán racionalmente: censurarán en exceso. Filtrarán agresivamente. Evitarán temas controvertidos. Despojarán a los modelos de matices. Todo por temor a que un regulador pueda emprender acciones legales.
Así es como surge la censura en los sistemas regulatorios modernos: una que aprovecha incentivos que castigan la desviación de las normas burocráticas. Cuando la FTC se convierte en el árbitro efectivo de lo que los sistemas de IA pueden producir, ya no hablamos de seguridad. Hablamos de control centralizado sobre la infraestructura de la comunicación digital.
Esto debería alarmar a cualquiera que se preocupe por los mercados abiertos, la libertad de expresión o la responsabilidad democrática.
La tentación política de reescribir la Sección 230
La Sección 6 del proyecto de ley va más allá de la regulación de la IA y se adentra en una de las batallas más polémicas de Washington: la reforma de la Sección 230. Esta inclusión no sorprende. La Sección 230 ha sido un blanco fácil de críticas bipartidistas durante años, criticada por conservadores que creen que las plataformas suprimen ciertos puntos de vista y por progresistas que creen que permiten que demasiado contenido dañino permanezca en línea.
La Ley de Inteligencia Artificial de TRUMP AMERICA intenta solucionar este problema creando nuevas excepciones a la inmunidad de la Sección 230 al incluir una excepción llamada “mal samaritano” para las plataformas que supuestamente facilitan contenido ilegal y nuevos requisitos para que las plataformas notifiquen a los usuarios sobre herramientas de filtrado y control parental.
La motivación política es comprensible. Sin embargo, las consecuencias políticas siguen siendo profundamente problemáticas.
La sección 230 ha sido una de las fundamentos jurídicos más importantes Para la internet moderna. Permite que las plataformas, incluyendo los servicios emergentes impulsados por IA, alojen contenido generado por los usuarios, proporcionen herramientas y ofrezcan sistemas abiertos sin ser considerados los editores de cada palabra que fluye a través de sus servicios.
Debilitar esa protección, especialmente a través de estándares vagos, conducirá inevitablemente a menos libertad de expresión en línea, algo que la administración Trump ha rechazado rotundamente en el escenario internacional cuando otros países tienen políticas que conducen a tales resultados.
Cuando las plataformas se enfrentan a un mayor riesgo de responsabilidad civil y al oscuro espectro de las demandas, se vuelven más cautelosas. Eliminan más contenido. Restringen más cuentas. Limitan más funciones. Y, una vez más, las empresas mejor posicionadas para sobrevivir a este entorno son las grandes empresas con la infraestructura de moderación y los departamentos legales más sofisticados. Irónicamente, las empresas mejor posicionadas para cumplir con las normas son también las mismas de las que los políticos se quejan repetidamente.
Para los competidores más pequeños y las nuevas plataformas nativas de IA, un mundo sin la certeza de la Sección 230 se convierte en otra barrera de entrada a medida que se construye una ventaja competitiva. En combinación con el marco más amplio de responsabilidad y cumplimiento de la propuesta, la Sección 6 consolida aún más el dominio de los actores existentes y reduce el margen para la innovación.
Una bonanza de litigios que congelará el despliegue
La Sección 10 de la propuesta expondría a la industria a una oleada de litigios. La Ley autoriza demandas contra desarrolladores de IA por diseño defectuoso, falta de advertencias y sistemas "irrazonablemente peligrosos", a la vez que extiende la responsabilidad también a quienes los implementan.
Este es el sueño del abogado demandante y la pesadilla del consumidor.
Los regímenes de responsabilidad abiertos incentivan a las empresas a evitar el riesgo a toda costa. Las startups dudarán, preguntándose si entrar o no en el mercado. Las comunidades de código abierto se replegarán, lo que frenará el desarrollo de productos y servicios de vanguardia.
La innovación no prospera cuando está bajo una amenaza legal permanente y significativa.
Criminalizar el uso de datos y socavar los fundamentos de la IA
Tal vez la disposición económicamente más destructiva sea la Sección 18, que crea un nuevo derecho federal a demandar a las empresas por usar datos cubiertos (incluido material disponible públicamente y protegido por derechos de autor) para entrenamiento de IA sin consentimiento explícito, con daños legales y daños punitivos disponibles.
Esto desestabilizaría fundamentalmente el modo en que se construyen los sistemas de IA modernos.
Los sistemas de aprendizaje automático aprenden de los datos de forma muy similar a como lo hacen los humanos: leyendo, observando, sintetizando y generalizando. Esta sección revoluciona el proceso de aprendizaje, penalizando la búsqueda de conocimiento y creando un sistema que solo beneficia a las grandes empresas con amplios departamentos de cumplimiento normativo y presupuestos para licencias, excluyendo a todos los demás. Los consumidores se ven perjudicados porque una tecnología de vanguardia, que se convertirá cada vez más en un nexo para la adquisición de conocimiento, se verá frenada por temor a responsabilidades legales.
Una contradicción directa con la visión de IA del Presidente
La postura declarada del presidente Trump sobre la IA ha enfatizado tres principios fundamentales:
- Estados Unidos debe liderar el mundo en IA.
- La innovación no debe ser estrangulada por la burocracia.
- La política federal debería empoderar a los constructores.
La Ley de Inteligencia Artificial de Trump para América mueve la aguja en la dirección opuesta en los tres frentes. Prioriza el cumplimiento normativo, castigando la creatividad y la audacia. Empodera a los reguladores a verse a sí mismos como un martillo y a tratar a los emprendedores como clavos. No aprecia la oportunidad que enfrenta nuestro país, favoreciendo un modelo que presupone el riesgo. Inexplicablemente, busca controlar el proceso de innovación, que históricamente se ha dado mediante un orden orgánico emergente.
Incluso las limitadas secciones centradas en el crecimiento en torno a las reformas de los centros de datos se enmarcan en un marco que, en última instancia, dificulta innecesariamente la implementación de sistemas de IA y el aprovechamiento de sus enormes beneficios. La propuesta conducirá al estancamiento, no al liderazgo en IA.
Los consumidores pagarán el precio
Cuando la innovación se ralentiza, los consumidores sufren. Es economía básica.
Menos competidores significan menos opciones. El aumento de los costos de cumplimiento se traslada a los consumidores, lo que se traduce en precios más altos. El riesgo de litigio implica productos más conservadores. Las herramientas de IA que se atreven a soñar, aquellas que podrían haber empoderado a los docentes, ayudado a las pequeñas empresas, mejorado los diagnósticos médicos y ampliado las oportunidades creativas para los artistas, simplemente nunca llegarán al mercado o verán su capacidad de transformación significativamente limitada.
Para empeorar las cosas, la propuesta incentivaría a los constructores más talentosos de Estados Unidos a buscar en el extranjero otras jurisdicciones que puedan ser más receptivas a lo que intentan lograr. Recuerden, Estados Unidos está en una carrera global por el liderazgo en IA. Nuestro liderazgo no está garantizado, y nuestros valores se exportan con nuestra tecnología.
El mundo se verá muy diferente con una infraestructura tecnológica gestionada bajo los valores del Reino Unido, los Emiratos Árabes Unidos o China. No creo que esos sean los resultados que el presidente, los miembros del Congreso o los consumidores desearían ver.
Un mejor camino hacia adelante
Si el objetivo es asegurar el dominio estadounidense de la IA, promover el bienestar del consumidor y generar prosperidad a largo plazo, el camino a seguir no es una expansión radical de la responsabilidad y la microgestión regulatoria. Es:
- Una norma federal preventiva clara sobre el desarrollo y despliegue de modelos.
- Reglas claras y estrechas que apunten a los daños reales, no a los temores especulativos.
- Sandboxes regulatorios y puertos seguros que equilibran la protección de los consumidores y la innovación.
- Un sesgo hacia la innovación sin permiso, no hacia la aprobación burocrática.
Estados Unidos se convirtió en una superpotencia tecnológica al confiar en sus innovadores. La Ley de IA de Trump para América olvida ese legado. Si la legislación se asemejara en algo a lo que describe sección por sección, no haría a Estados Unidos un país grande en IA; lo haría más lento, más cauteloso, más burocrático y menos competitivo en la misma carrera que no podemos permitirnos perder.


