La loi Trump America sur l'IA se trompe de politique en matière d'IA et relègue l'Amérique au dernier rang technologique.

Le leadership américain en intelligence artificielle n'a jamais été acquis. Il doit être conquis par des décisions politiques explicites favorisant l'expérimentation plutôt que par la simple autorisation. Cet héritage se retrouve dans le plan d'action de l'administration Trump pour l'IA et dans la vision plus large qui met l'accent sur l'innovation et la domination technologique américaine.

Malheureusement, dans Décembre, La sénatrice Marsha Blackburn a dévoilé le TRUMP AMERICA AI Act, et bien qu'elle puisse marquer des points en le nommant d'après le président et en misant sur son image patriotique, les propositions politiques sous-jacentes vont directement à l'encontre des objectifs de son administration.

En pratique, ce projet de loi imposerait une responsabilité généralisée, conférerait un pouvoir discrétionnaire étendu à des organismes de réglementation non élus et consoliderait une culture de la conformité aveugle, alimentée par une crainte qui freine l'innovation. Le résultat probable ne serait pas une IA plus sûre, mais un ralentissement des progrès, une réduction des choix pour les consommateurs et un désavantage pour les États-Unis dans la course mondiale à l'IA.

Un régime réglementaire fondé sur la peur, et non sur l'innovation

Chaque section de la proposition part du principe que les systèmes d'IA sont intrinsèquement dangereux et doivent être contrôlés préventivement par le gouvernement fédéral. L'article 3 impose aux développeurs d'IA une obligation de diligence étendue en matière de prévention et d'atténuation des préjudices prévisibles, exige des évaluations de risques continues et confère à la Commission fédérale du commerce le pouvoir d'établir des garanties minimales raisonnables.“

Ce langage paraît mesuré. En réalité, il est dangereusement vague.

“La notion de ” préjudice prévisible » n’est pas une norme technique. Elle sera interprétée par les organismes de réglementation., avocats plaideurs, et les militants politiques peuvent interpréter ce terme selon leurs priorités du moment. Une fois codifiée, cette pratique engendre une incertitude juridique constante, notamment pour les startups, les développeurs open source et les petites entreprises qui ne disposent pas d'équipes d'avocats et de responsables de la conformité.

C’est ainsi que les États-Unis commencent à ressembler à l’Europe : réglementer d’abord, innover ensuite, et voir leur leadership s’estomper et devenir obsolète.

Donner davantage de pouvoir à la FTC revient à renforcer la censure de facto.

Ce qui est encore plus inquiétant, c'est la façon dont ces nouveaux pouvoirs pourraient être utilisés pour façonner non seulement les pratiques de sécurité, mais aussi la liberté d'expression elle-même.

La proposition accorderait à la FTC des pouvoirs élargis pour définir et appliquer des “ garanties ” en matière d'IA et pour lutter contre les pratiques prétendument déloyales ou préjudiciables dans le développement et le déploiement des modèles. En théorie, il s'agit de protection des consommateurs. En pratique, cela crée un mécanisme puissant de gouvernance des contenus réglementaires.

Cette préoccupation n'est pas spéculative. 2023, Sous la direction de sa présidente Lina Khan, la FTC a ouvertement indiqué qu'elle estimait pouvoir utiliser les pouvoirs que lui confère l'article 5 pour examiner et potentiellement sanctionner les développeurs d'IA en fonction des types de données utilisées pour entraîner leurs modèles et des types de résultats produits par leurs systèmes. Le message était clair : si les autorités de régulation désapprouvent certaines données d'entrée ou de sortie, des mesures coercitives pourraient être prises.

C'est une proposition à la fois extraordinaire et dangereuse.

Dès lors que les autorités de régulation définissent ce qui constitue des données d'entraînement “ acceptables ” ou un comportement “ responsable ” des modèles, elles finissent inévitablement par limiter la liberté d'expression. Les développeurs d'IA, confrontés à des normes floues et à un risque juridique considérable, réagiront de manière rationnelle : ils surcensureront, filtreront de façon agressive, éviteront les sujets controversés et dépouilleront les modèles de toute nuance. Tout cela par crainte de poursuites de la part des autorités de régulation.

C’est ainsi que la censure se manifeste dans les systèmes réglementaires modernes : elle exploite des incitations qui punissent toute déviation par rapport aux normes bureaucratiques. Lorsque la FTC devient de facto l’arbitre de ce que les systèmes d’IA sont autorisés à produire, il ne s’agit plus de sécurité, mais de contrôle centralisé de l’infrastructure de la parole numérique.

Voilà qui devrait alarmer tous ceux qui se soucient des marchés ouverts, de la liberté d'expression ou de la responsabilité démocratique.

La tentation politique de réécrire l'article 230

L'article 6 du projet de loi dépasse le cadre de la réglementation de l'IA pour aborder l'un des sujets les plus politiquement sensibles de Washington : la réforme de l'article 230. Son inclusion n'a rien de surprenant. L'article 230 est depuis des années la cible de vives critiques bipartisanes, dénoncé par les conservateurs qui estiment que les plateformes censurent certains points de vue et par les progressistes qui pensent qu'elles laissent passer en ligne une quantité excessive de contenus préjudiciables.

La loi TRUMP AMERICA AI tente de trouver un juste milieu en créant de nouvelles exceptions à l'immunité de la section 230, notamment une exception dite de “ mauvais samaritain ” pour les plateformes qui faciliteraient prétendument la diffusion de contenu illégal, et de nouvelles exigences selon lesquelles les plateformes doivent informer les utilisateurs des outils de filtrage et de contrôle parental.

La motivation politique est compréhensible. Cependant, les conséquences politiques demeurent profondément problématiques.

L'article 230 a été l'un des fondements juridiques les plus importants pour l'internet moderne. Cela permet aux plateformes, y compris les services émergents basés sur l'IA, d'héberger du contenu généré par les utilisateurs, de fournir des outils et d'offrir des systèmes ouverts sans être considérées comme l'éditeur de chaque mot qui transite par leurs services.

L’affaiblissement de cette protection, notamment par le biais de normes vagues, entraînera inévitablement une diminution de la liberté d’expression en ligne, ce que l’administration Trump a catégoriquement rejeté sur la scène internationale alors que d’autres pays appliquent des politiques aboutissant à de tels résultats. 

Face à un risque accru de poursuites judiciaires et à la menace grandissante de ces dernières, les plateformes redoublent de prudence. Elles suppriment davantage de contenus, restreignent plus de comptes et limitent plus de fonctionnalités. Une fois de plus, les entreprises les mieux placées pour survivre dans ce contexte sont les acteurs historiques les plus importants, dotés des infrastructures de modération et des services juridiques les plus sophistiqués. Ironie du sort, les entreprises les mieux à même de se conformer à la réglementation sont aussi celles que les responsables politiques critiquent le plus souvent.

Pour les concurrents de plus petite taille et les nouvelles plateformes natives de l'IA, l'absence de la certitude qu'offre l'article 230 constitue un obstacle supplémentaire à l'entrée sur le marché, tandis qu'un avantage concurrentiel se construit. Conjugué au cadre de responsabilité et de conformité plus étendu proposé, l'article 6 renforce la domination des acteurs existants tout en restreignant les possibilités d'innovation.

Une manne judiciaire qui va geler le déploiement

L’article 10 de la proposition exposerait le secteur à une avalanche de litiges. La loi autorise les poursuites contre les développeurs d’IA pour conception défectueuse, défaut d’avertissement et systèmes “ dangereux de manière déraisonnable ”, tout en étendant la responsabilité aux déployeurs.

C'est le rêve de l'avocat du plaignant et le cauchemar du consommateur.

Les régimes de responsabilité illimitée incitent les entreprises à éviter tout risque. Les jeunes entreprises hésiteront, se demandant s'il est judicieux de se lancer sur le marché. Les communautés open source se replieront, freinant ainsi le développement de produits et services innovants.

L'innovation ne peut prospérer lorsqu'elle est soumise à une menace juridique permanente et importante. 

Criminaliser l'utilisation des données et saper les fondements de l'IA

La disposition la plus destructrice sur le plan économique est peut-être l'article 18, qui crée un nouveau droit fédéral de poursuivre les entreprises pour avoir utilisé des données couvertes — y compris des documents accessibles au public et protégés par le droit d'auteur — pour l'entraînement de l'IA sans consentement explicite, avec des dommages-intérêts légaux et des dommages-intérêts punitifs disponibles.

Cela déstabiliserait fondamentalement la manière dont les systèmes d'IA modernes sont construits.

Les systèmes d'apprentissage automatique apprennent des données de manière très similaire aux humains : en lisant, observant, synthétisant et généralisant. Cette section bouleverse ce processus d'apprentissage, pénalisant la recherche de connaissances et créant un système qui avantage uniquement les grandes entreprises établies, dotées de services de conformité et de budgets de licences considérables, excluant de fait tous les autres. Les consommateurs sont lésés car une technologie de pointe, qui deviendra de plus en plus un carrefour de connaissances, sera freinée par la crainte de poursuites judiciaires.

Une contradiction directe avec la vision de l'IA du président

La position officielle du président Trump sur l'IA a mis l'accent sur trois principes fondamentaux :

  • L'Amérique doit être le leader mondial en matière d'IA.
  • L'innovation ne doit pas être étouffée par la bureaucratie.
  • La politique fédérale devrait donner plus de pouvoir aux constructeurs.

La loi TRUMP AMERICA sur l'IA va à l'encontre de tous les principes. Elle privilégie la conformité, pénalisant la créativité et l'audace. Elle autorise les organismes de réglementation à se comporter comme des instruments de répression et à traiter les entrepreneurs comme des objets. Elle ne saisit pas l'opportunité qui s'offre à notre pays, préférant un modèle qui présuppose la prise de risque. Elle cherche inexplicablement à contrôler le processus d'innovation, qui s'est historiquement déroulé de manière organique et émergente.

Même les sections limitées consacrées à la croissance liée aux réformes des sites de centres de données s'inscrivent dans un cadre qui, en fin de compte, complique inutilement le déploiement des systèmes d'IA et l'exploitation de leurs nombreux avantages. Cette proposition mènera à la stagnation, et non au leadership en IA.

Les consommateurs en paieront le prix.

Lorsque l'innovation ralentit, les consommateurs en pâtissent. C'est un principe économique fondamental.

Moins de concurrents signifie moins de choix. L'augmentation des coûts de mise en conformité se répercute sur les consommateurs, entraînant une hausse des prix. Le risque de litiges favorise le développement de produits plus conventionnels. Les outils d'IA les plus novateurs, capables de donner aux enseignants les moyens d'agir, d'aider les petites entreprises, d'améliorer les diagnostics médicaux et d'élargir les perspectives créatives des artistes, ne verront tout simplement jamais le jour ou verront leur potentiel de transformation considérablement réduit.

Pour ne rien arranger, cette proposition inciterait les ingénieurs américains les plus talentueux à se tourner vers l'étranger, vers des pays potentiellement plus réceptifs à leurs projets. N'oublions pas que les États-Unis sont engagés dans une course mondiale au leadership en intelligence artificielle. Notre position dominante n'est pas acquise, et nos valeurs sont véhiculées par nos technologies.

Le monde serait radicalement différent avec un système technologique régi par les valeurs du Royaume-Uni, des Émirats arabes unis ou de la Chine. Je doute que le président, les membres du Congrès ou les consommateurs souhaitent un tel scénario.

Une meilleure voie à suivre

Si l’objectif est d’assurer la domination américaine en matière d’IA, de promouvoir le bien-être des consommateurs et de générer une prospérité durable, la voie à suivre n’est pas celle d’une expansion massive des responsabilités et d’une microgestion réglementaire. La voici :

  • Une norme fédérale préventive claire concernant le développement et le déploiement des modèles.
  • Des règles claires et précises visant des préjudices réels, et non des craintes spéculatives.
  • Des environnements réglementaires expérimentaux et des zones de sécurité qui concilient protection des consommateurs et innovation.
  • Une préférence pour l'innovation sans autorisation, et non pour l'approbation bureaucratique.

L'Amérique est devenue une superpuissance technologique en faisant confiance à ses innovateurs. La loi sur l'IA de Trump oublie cet héritage. Si cette législation ressemblait ne serait-ce qu'un peu à ce que décrit son résumé article par article, elle ne ferait pas de l'Amérique une grande puissance en IA ; elle la rendrait plus lente, plus prudente, plus bureaucratique et moins compétitive dans cette course que nous ne pouvons nous permettre de perdre.

Partager

Suivre:

Plus de messages

Abonnez-vous à notre newsletter