A liderança dos Estados Unidos em inteligência artificial nunca foi garantida. Ela precisa ser conquistada por meio da adoção explícita de decisões políticas que criem um ambiente propício à experimentação, em vez de à mera permissão. Esse legado está presente em todo o Plano de Ação para IA do governo Trump e na visão mais ampla que enfatiza a inovação e a supremacia tecnológica americana.
Infelizmente, em dezembro, A senadora Marsha Blackburn apresentou o TRUMP AMERICA AI Act, e embora ela possa ganhar pontos por nomeá-lo em homenagem ao presidente e por sua abordagem patriótica, as sugestões políticas subjacentes vão diretamente contra esses objetivos de seu governo.
Na prática, o projeto de lei imporia ampla responsabilidade, daria poder a reguladores não eleitos com ampla discricionariedade e consolidaria e fortaleceria uma cultura de priorização da conformidade, impulsionada por um medo que sufoca a inovação. O resultado provável não é uma IA mais segura, mas sim um progresso mais lento, menos opções para os consumidores e deixaria os EUA em uma posição pior na corrida global da IA.
Um regime regulatório construído sobre o medo, não sobre a inovação.
Na proposta, seção por seção, presume-se que os sistemas de IA são inerentemente perigosos e devem ser controlados preventivamente pelo governo federal. A Seção 3 impõe um amplo "dever de cuidado" aos desenvolvedores de IA para prevenir e mitigar "danos previsíveis", exige avaliações de risco contínuas e concede à Comissão Federal de Comércio (FTC) autoridade para estabelecer "salvaguardas mínimas razoáveis".“
Essa linguagem soa ponderada. Na realidade, é perigosamente vaga.
“"Dano previsível" não é uma norma técnica. Sua interpretação dependerá dos órgãos reguladores., advogados de julgamento, e para ativistas políticos, significando o que estiver alinhado com suas prioridades em um dado momento. Uma vez codificado, isso cria uma constante incerteza jurídica, especialmente para startups, desenvolvedores de código aberto e pequenas empresas que não possuem equipes de advogados e responsáveis pela conformidade.
É assim que os Estados Unidos começam a se assemelhar à Europa: primeiro regular, depois inovar, e ver a liderança escapar por entre os dedos, tornando-se irrelevante.
Fortalecer ainda mais a FTC significa fortalecer a censura de fato.
Mais preocupante ainda é como esses novos poderes podem ser usados para moldar não apenas as práticas de segurança, mas a própria liberdade de expressão.
A proposta concederia à FTC (Comissão Federal de Comércio dos EUA) autoridade ampliada para definir e aplicar "salvaguardas" de IA (Inteligência Artificial) e para fiscalizar práticas consideradas desleais ou prejudiciais no desenvolvimento e na implementação de modelos. Em teoria, trata-se de proteção ao consumidor. Na prática, cria um mecanismo poderoso para a governança de conteúdo regulatório.
Essa preocupação não é especulativa. Em 2023, A liderança da FTC, sob a presidência de Lina Khan, sinalizou abertamente que acreditava poder usar sua autoridade existente sob a Seção 5 para examinar e potencialmente penalizar desenvolvedores de IA pelos tipos de dados usados para treinar seus modelos e pelos tipos de resultados produzidos por seus sistemas. A implicação era clara: se os reguladores desaprovassem determinadas entradas ou saídas, medidas coercitivas poderiam ser tomadas.
Essa é uma proposta extraordinária e perigosa.
Assim que os órgãos reguladores começarem a definir o que constitui dados de treinamento “aceitáveis” ou comportamento “responsável” de um modelo, inevitavelmente começarão a moldar os limites da liberdade de expressão. Os desenvolvedores de IA, diante de padrões vagos e enormes riscos legais, responderão racionalmente: irão censurar em excesso. Irão filtrar agressivamente. Irão evitar tópicos controversos. Irão desprovidos de nuances dos modelos. Tudo por medo de que um órgão regulador possa tomar medidas coercitivas.
É assim que a censura surge nos sistemas regulatórios modernos: por meio de incentivos que punem o desvio das normas burocráticas. Quando a FTC (Comissão Federal de Comércio dos EUA) se torna a árbitra efetiva do que os sistemas de IA devem ter permissão para produzir, não estamos mais falando de segurança. Estamos falando de controle centralizado sobre a infraestrutura de comunicação digital.
Isso deveria alarmar qualquer pessoa que se preocupe com mercados abertos, liberdade de expressão ou responsabilidade democrática.
A Tentação Política de Reescrever a Seção 230
A Seção 6 do projeto de lei vai além da regulamentação da IA e adentra uma das batalhas mais politicamente acirradas de Washington: a reforma da Seção 230. Essa inclusão não surpreende. A Seção 230 tem sido alvo de críticas bipartidárias há anos, tanto por parte de conservadores que acreditam que as plataformas suprimem certos pontos de vista, quanto por parte de progressistas que acreditam que as plataformas permitem que muito conteúdo prejudicial permaneça online.
A Lei de IA TRUMP AMERICA tenta encontrar um equilíbrio nesse sentido, criando novas exceções à imunidade da Seção 230, incluindo uma chamada exceção do "Mau Samaritano" para plataformas que supostamente facilitam conteúdo ilegal, e novos requisitos para que as plataformas notifiquem os usuários sobre ferramentas de filtragem e controle parental.
A motivação política é compreensível. No entanto, as consequências políticas continuam sendo profundamente problemáticas.
A Seção 230 tem sido uma das fundamentos jurídicos mais importantes para a internet moderna. Permite que plataformas, incluindo serviços emergentes com inteligência artificial, hospedem conteúdo gerado pelo usuário, forneçam ferramentas e ofereçam sistemas abertos sem serem tratadas como editoras de cada palavra que circula em seus serviços.
O enfraquecimento dessa proteção, especialmente por meio de padrões vagos, levará inevitavelmente a uma menor liberdade de expressão online, algo que o governo Trump rejeitou veementemente no cenário internacional, enquanto outros países adotam políticas que levam a resultados semelhantes.
Quando as plataformas enfrentam riscos de responsabilidade civil elevados e o espectro sombrio de processos judiciais, elas se tornam mais cautelosas. Removem mais conteúdo. Restringem mais contas. Limitam mais recursos. E, mais uma vez, as empresas mais bem posicionadas para sobreviver a esse ambiente são as maiores e mais tradicionais, com a infraestrutura de moderação e os departamentos jurídicos mais sofisticados. Ironicamente, as empresas mais bem preparadas para cumprir as normas são também as mesmas das quais os políticos costumam reclamar repetidamente.
Para concorrentes menores e novas plataformas nativas de IA, um mundo sem a segurança da Seção 230 torna-se mais uma barreira de entrada, à medida que se constrói um fosso competitivo. Combinada com a estrutura mais ampla de responsabilidade e conformidade da proposta, a Seção 6 consolida ainda mais o domínio dos players existentes, ao mesmo tempo que reduz o espaço para a inovação.
Uma mina de ouro em litígios que vai congelar o destacamento.
A Seção 10 da proposta exporia o setor a uma onda de litígios. A lei autoriza ações judiciais contra desenvolvedores de IA por projetos defeituosos, omissão de avisos e sistemas "perigosamente inadequados", estendendo a responsabilidade também aos responsáveis pela implementação.
Isso é o sonho de qualquer advogado de defesa do consumidor e o pesadelo de qualquer pessoa que defenda um cliente.
Regimes de responsabilidade ilimitada incentivam as empresas a evitar riscos a todo custo. As startups hesitarão, questionando se devem ou não entrar no mercado. As comunidades de código aberto se retrairão, prejudicando o desenvolvimento de produtos e serviços de ponta.
A inovação não prospera quando está sob ameaça legal permanente e significativa.
Criminalizar o uso de dados e minar os fundamentos da IA
Talvez a disposição economicamente mais destrutiva seja a Seção 18, que cria um novo direito federal de processar empresas por usar dados protegidos — incluindo material disponível publicamente e protegido por direitos autorais — para treinamento de IA sem consentimento explícito, com indenizações legais e punitivas disponíveis.
Isso desestabilizaria fundamentalmente a forma como os sistemas modernos de IA são construídos.
Os sistemas de aprendizado de máquina aprendem com dados de maneira muito semelhante à dos humanos: lendo, observando, sintetizando e generalizando. Esta seção inverte o processo de aprendizado, penalizando a busca por conhecimento e criando um sistema que beneficia apenas as maiores empresas, com seus vastos departamentos de conformidade e orçamentos para licenciamento, excluindo todos os demais. Os consumidores saem prejudicados porque uma tecnologia de ponta, que se tornará cada vez mais um ponto central para a obtenção de conhecimento, será prejudicada por medo de responsabilidade legal.
Uma contradição direta da visão do presidente sobre IA.
A posição declarada do Presidente Trump sobre a IA enfatizou três princípios fundamentais:
- Os Estados Unidos devem liderar o mundo em IA (Inteligência Artificial).
- A inovação não deve ser sufocada pela burocracia.
- A política federal deve dar mais autonomia às construtoras.
A Lei de Inteligência Artificial dos EUA de Trump move a balança na direção oposta em todas as três frentes. Ela prioriza a conformidade, punindo a criatividade e a ousadia. Ela empodera os reguladores, fazendo-os se enxergarem como martelos e tratarem os empreendedores como pregos. Ela não reconhece a oportunidade que nosso país enfrenta, favorecendo um modelo que pressupõe risco. Ela busca inexplicavelmente controlar o processo de inovação, que historicamente ocorre por meio de uma ordem emergente orgânica.
Mesmo as poucas seções focadas no crescimento em torno das reformas dos data centers estão inseridas em uma estrutura que, em última análise, torna desnecessariamente difícil a implantação de sistemas de IA e o aproveitamento de seus vastos benefícios. A proposta levará à estagnação, não à liderança em IA.
Os consumidores pagarão o preço.
Quando a inovação desacelera, os consumidores sofrem. É economia básica.
Menos concorrentes significam menos opções. O aumento dos custos de conformidade é repassado aos consumidores, o que resulta em preços mais altos. O risco de litígios leva a produtos mais conservadores. As ferramentas de IA que ousam sonhar, aquelas que poderiam ter capacitado professores, ajudado pequenas empresas, aprimorado diagnósticos médicos e expandido as oportunidades criativas para artistas, simplesmente nunca chegarão ao mercado ou terão seu potencial transformador significativamente limitado.
Para piorar a situação, a proposta incentivaria os desenvolvedores mais talentosos dos Estados Unidos a buscar oportunidades no exterior, em outras jurisdições que possam ser mais receptivas aos seus objetivos. Lembre-se: os Estados Unidos estão em uma corrida global pela liderança em IA. Nossa posição de liderança não é garantida, e nossos valores são exportados juntamente com nossa tecnologia.
O mundo será drasticamente diferente com uma infraestrutura tecnológica regida pelos valores do Reino Unido, dos Emirados Árabes Unidos ou da China. Não acredito que esses sejam os resultados que o Presidente, os membros do Congresso ou os consumidores gostariam de ver.
Um caminho melhor a seguir
Se o objetivo é garantir o domínio americano da IA, promover o bem-estar do consumidor e gerar prosperidade a longo prazo, o caminho a seguir não é a expansão desenfreada da responsabilidade e a microgestão regulatória. É:
- Um padrão federal preventivo claro sobre o desenvolvimento e a implementação de modelos.
- Regras claras e específicas que visam danos reais, não receios especulativos.
- Ambientes regulatórios experimentais e zonas de segurança que equilibram a proteção dos consumidores e a inovação.
- Uma inclinação para a inovação sem necessidade de permissão, e não para a aprovação burocrática.
Os Estados Unidos se tornaram uma superpotência tecnológica confiando em seus inovadores. O TRUMP AMERICA AI Act ignora esse legado. Se a legislação se assemelhasse minimamente ao que é descrito em cada seção, ela não tornaria os Estados Unidos uma grande potência em IA; pelo contrário, tornaria o país mais lento, mais cauteloso, mais burocrático e menos competitivo na corrida que não podemos nos dar ao luxo de perder.


