La course mondiale au développement intelligence artificielle Il s’agit de la compétition la plus importante depuis la « course à l’espace » entre les États-Unis et l’Union soviétique. Le développement de ces outils et de cette industrie aura des effets incalculables sur innovation future et notre mode de vie.
La Maison Blanche va bientôt dévoiler son décret attendu sur l’IA, qui pourrait inclure une commission chargée d’élaborer un «Déclaration des droits de l'IA» ou même former un nouveau gouvernement fédéral réglementaire agence. Dans ce cas, le gouvernement rattrape les innovateurs et les éthiciens de l’IA.
L’IA dans une société démocratique ne signifie pas créer des agences fédérales d’IA dont le personnel sera celui qui a remporté les élections les plus récentes – cela signifie disposer d’un large éventail de politiques et de règles élaborées pour le peuple, par le peuple, et qui répondent à ses besoins.
L’IA a un potentiel presque illimité pour changer le monde. Naturellement, cela fait beaucoup de gens sont nerveux, mais nous devons éviter de confier son avenir au gouvernement à ce stade précoce. Après tout, c'est la même institution qui a pas fissuré 30% dans une confiance globale pour « faire la bonne chose la plupart du temps ou tout le temps » depuis 2007. Les règles de la route peuvent évoluer des personnes elles-mêmes, des innovateurs aux consommateurs de l’IA et de ses sous-produits.
En outre, est-ce que quelqu'un croit vraiment à un gouvernement qui essayant de comprendre son esprit réglementaire autour du modèle économique et de l'existence d'Amazon Prime est-il prêt à gouverner l'intelligence artificielle ?
Pour un exemple de la rigueur requise pour élaborer des règles pour l’IA dans une société libre, considérons le recherche récentepublié par Anthropic, une startup d'IA soutenue par Amazon connue pour le Claude Chatbot IA génératif. Anthropic développe ce qu'on appelle « l'IA constitutionnelle » qui aborde la question des préjugés sous l'angle de la transparence. La technologie est régie par une liste publiée d’engagements moraux et de considérations éthiques.
Si un utilisateur est intrigué par l'une des sorties ou des limitations de Claude, il peut se tourner vers la constitution de l'IA pour obtenir une explication. C'est une expérience autonome de libéralisme.
Comme tout Américain le sait, vivre dans une démocratie constitutionnelle fonctionnelle est aussi éclairant que frustrant. Vous avez des droits et les droits implicites en vertu de la loi américaine, et lorsqu'ils sont violés, vous pouvez porter l'affaire devant les tribunaux. Les droits dont nous disposons sont aussi frustrants pour certains que ceux que nous n'avons pas : le droit de détenir et de porter des armes, par exemple, ainsi que l'absence d'un droit constitutionnel clair aux soins de santé.
Anthropic a interrogé 1 094 personnes et les a divisées en deux groupes de réponses en fonction de modèles perceptibles dans leur façon de penser sur une poignée de sujets. Il existe de nombreuses convictions unificatrices sur ce que l’IA devrait viser à faire.
La plupart des gens (90% ou plus) conviennent que l'IA ne devrait pas dire de choses racistes ou sexistes, que l'IA ne devrait pas nuire à l'utilisateur ou à quelqu'un d'autre, et qu'elle ne devrait pas être menaçante ou agressive. Il y a également eu un large consensus (60%) sur le fait que l'IA ne devrait pas être programmée en tant que ministre ordonné – bien que avec 23% en faveur et 15% indécis, cela laisse une grande ouverture dans l'espace de l'IA pour que quelqu'un puisse développer un chatbot prêtre entièrement fonctionnel. Je dis juste.
Mais même un accord peut être trompeur. Le débat national qui dure depuis des années sur théorie critique de la race, diversité, équité et inclusion, et « éveil » signifie preuve que les gens ne sont pas vraiment d'accord sur ce que signifie le « racisme ». Les développeurs d’IA tels qu’Anthropic devront choisir ou créer une définition qui englobe une vision large du « racisme » et du « sexisme ». Nous savons également que le public n'est même pas d'accord sur ce qui constitue un discours menaçant.
La déclaration la plus controversée, « l’IA ne devrait pas du tout être censurée », montre à quel point les consommateurs sont prudents quant à l’IA ayant tout type de biais programmé ou d’ensemble de prérogatives. Avec un partage proche de 50/50 sur la question, nous sommes loin de l'époque où l'on pouvait faire confiance au Congrès pour développer des garde-fous qui protègent la parole des consommateurs et l'accès à des informations précises – et encore moins à la Maison Blanche.
Anthropic catégorise les réponses individuelles comme la base de ses « principes publics » et s’efforce de les identifier. montrer comment les préférences du public se chevauchent et s'écarte du sien. La Maison Blanche et les futurs régulateurs ne font pas preuve d’un tel engagement en faveur de la contribution du public.
Lorsque vous vous adressez au peuple par l'intermédiaire des législatures élues, vous découvrez des éléments intéressants qui peuvent éclairer la politique. Le public a tendance à se concentrer sur des résultats maximisés pour les requêtes de l’IA, par exemple en disant qu’une réponse doit être la « plus » honnête ou la « plus » équilibrée. Anthropic a tendance à valoriser le contraire, demandant à l’IA d’éviter les indésirables en demandant la réponse « la moins » malhonnête ou « la moins » susceptible d’être interprétée comme un avis juridique.
Nous voulons tous que l’IA travaille pour nous et non contre nous. Mais ce que l’Amérique doit comprendre, c’est que le malaise naturel suscité par cette technologie émergente ne nécessite pas d’action gouvernementale. L’innovation se déroule sous nos yeux, et son évolution sera naturellement freinée par les concurrents et les consommateurs. Plutôt que de nous précipiter pour imposer un modèle réglementaire défectueux au niveau fédéral, nous devrions chercher à appliquer nos lois existantes lorsque cela est nécessaire et permettre à la concurrence réglementaire de suivre l’innovation plutôt que de tenter de la diriger.
Publié à l'origine ici