Un moratoire fédéral sur la réglementation de l'IA au niveau des États n'est pas une mesure excessive et catastrophique ; c'est une manière prudente de mettre fin aux mauvaises réglementations locales et d'unifier les règles de circulation en matière d'IA. Les consommateurs qui….
Les consommateurs qui veulent les produits et outils technologiques les plus récents et les plus performants savent que Washington, DC, a une grande influence sur leur capacité à y accéder.
Des projets de loi et des annonces réglementaires explosent chaque jour dans la capitale nationale, créant des règles que les fabricants de produits et les innovateurs doivent suivre pour mettre des biens et des services sur le marché.
Ce que l'on sait moins, en revanche, c'est à quel point les agences de réglementation et les lois des États tentent de régir les mêmes outils et produits. Que ce soit dans l'État de New York ou dans le Commonwealth du Massachusetts, les responsables politiques et les régulateurs sont tout aussi occupés que leurs collègues fédéraux. Parfois, cela est logique, et parfois, c'est plus un fardeau qu'une aide.
Nous pouvons déjà voir ce conflit surgir lorsqu’il s’agit de déterminer les règles du jeu pour les modèles, les applications et les systèmes d’intelligence artificielle.
Afin d'apaiser la fièvre réglementaire au niveau des États, qui pourrait fragmenter la réglementation naissante de l'IA, les législateurs fédéraux réclament un « moratoire » sur les réglementations étatiques pour au moins les dix prochaines années. Et c'est une mesure urgente.
Article 43201 de HR 1, autrement connu sous le nom de « Big Beautiful Bill », contient une disposition qui préempte les réglementations des États sur l'IA :
« Aucun État ni aucune subdivision politique de celui-ci ne peut appliquer, pendant la période de 10 ans commençant à la date de promulgation de la présente loi, une loi ou un règlement de cet État ou d'une subdivision politique de celui-ci limitant, restreignant ou réglementant de toute autre manière les modèles d'intelligence artificielle, les systèmes d'intelligence artificielle ou les systèmes de décision automatisés faisant l'objet d'un commerce interétatique. »
Comme l'a expliqué Adam Thierer du R Street Institute dans plusieurs des articles, blogs, et même au Congrès témoignage, la raison pour laquelle les autorités fédérales devraient Le fait de freiner les règles au niveau des États est que la législation sur l’IA est devenue véritablement incontrôlable.
Des projets de loi historiques sur l'IA ont déjà connu des succès divers dans les États de l'Union, allant des plus restrictifs en Californie et au Colorado aux plus souples au Texas et en Floride. plus de 1 000 projets de loi d’État liés à la technologie de l’IA.
À mesure que ces règles se généraliseront, il apparaît clairement que tout développeur ou entreprise d'IA devra accomplir un travail de conformité considérable pour 330 millions d'Américains répartis dans 50 juridictions. Il est probable que les plus grands États établiront les règles de base que tous les autres devront suivre.
Lorsque des États peuplés comme la Californie adoptent des réglementations différentes de celles des autres États, les entreprises souhaitant promouvoir leurs produits et services dans tout le pays devront probablement se conformer aux règles californiennes. C'est clair.
Dans les cercles politiques, nous appelons cela « l’effet de débordement californien », que j’ai expliqué spécifiquement dans le domaine de politique énergétique, mais il en va de même pour la politique technologique.
Bien que ce petit moratoire soit judicieux, un certain nombre de politiciens et de groupes libéraux et conservateurs ont feint l'indignation. Ils considèrent l'arrêt des règles de l'État C'est comme donner un « chèque en blanc » aux entreprises technologiques qui proposent des produits et services d'IA sur lesquels beaucoup d'entre nous commencent à compter. Même Joe Rogan a émis l'avis sur le moratoire sur son émission, le considérant comme une concession dangereuse qui mettra en danger l'humanité une fois que « l'IA tueuse » montrera sa vilaine tête.
Croire qu’il devrait y avoir davantage de garde-fous en matière d’IA est une position raisonnable, sur laquelle de nombreuses personnes sont susceptibles d’être d’accord.
Cependant, cette analyse du contexte réglementaire de l'IA repose sur une approche tranchée, visant à déterminer si son existence est justifiée ou non. Là n'est ni la question ni l'objectif. Il ne s'agit pas non plus d'empiéter sur les droits des États, comme l'ont avancé certains républicains.
Il s'agit plutôt de réduire les contraintes réglementaires pour un secteur si récent et manifestement numérique. Imposer la conformité aux modèles d'IA et aux entreprises de 50 juridictions différentes reviendrait à bloquer géographiquement des produits de mauvaise qualité selon l'État américain où nous résidons.
Si nous voulons que les consommateurs bénéficient de l'IA partout au pays, il faudra mettre en place un cadre national large, mais seulement si nous savons comment le faire. La technologie est encore récente, et la meilleure façon d'ériger ces garde-fous reste incertaine.
Bien que notre objectif soit de mettre en place une sorte de cadre fédéral, nous ne pouvons pas permettre que les consommateurs de Californie, du Vermont ou du Nebraska soient exclus de l’innovation parce que leurs législateurs d’État sont plus effrayés par l’IA que les régulateurs d’État d’ailleurs.
C'est peut-être une leçon à tirer pour d'autres problématiques technologiques. Une approche État par État pour réglementer les technologies peut être efficace pour certains domaines, mais pas pour d'autres.
Un moratoire fédéral sur les lois des États liées à l’IA est, en fin de compte, une manière prudente de nous permettre de profiter des avantages avant d’en être privés.
Yaël Ossowski est directrice adjointe du Consumer Choice Center


