La carrera global por el desarrollo inteligencia artificial Es la contienda de mayor trascendencia desde “la carrera espacial” entre Estados Unidos y la Unión Soviética. El desarrollo de estas herramientas y de esta industria tendrá efectos incalculables en innovación futura y nuestra forma de vida.
La Casa Blanca pronto quitar el velo su orden ejecutiva anticipada sobre IA, que puede incluir una comisión para desarrollar un "Declaración de derechos de AI” o incluso formar un nuevo gobierno federal regulador agencia. En este caso, el gobierno está tratando de ponerse al día con los innovadores y especialistas en ética de la IA.
La inteligencia artificial en una sociedad democrática no significa crear agencias federales de inteligencia artificial compuestas por quien haya ganado las elecciones más recientes; significa tener una amplia gama de políticas y reglas elaboradas para la gente, por la gente, y que respondan a la gente.
La IA tiene un potencial casi ilimitado para cambiar el mundo. Es comprensible que esto haga mucha gente nerviosa, pero debemos resistirnos a entregar su futuro al gobierno en esta etapa temprana. Después de todo, esta es la misma institución que ha no agrietado 30% en una confianza general para “hacer lo correcto la mayor parte o todo el tiempo” desde 2007. Las reglas del camino pueden evolucionar desde las propias personas, desde los innovadores hasta los consumidores de IA y sus subproductos.
Además, ¿alguien cree realmente que un gobierno que está tratando de envolver su mente regulatoria En torno al modelo de negocio y existencia de Amazon Prime ¿está preparado para gobernar la inteligencia artificial?
Como ejemplo del rigor necesario para desarrollar reglas para la IA en una sociedad libre, considérese el investigación recientepublicado por Anthropic, una startup de IA respaldada por Amazon conocida por claudio Chatbot de IA generativa. Anthropic está desarrollando lo que se conoce como “IA constitucional” que analiza la cuestión del sesgo como una cuestión de transparencia. La tecnología se rige por una lista publicada de compromisos morales y consideraciones éticas.
Si un usuario está desconcertado por uno de los resultados o limitaciones de Claude, puede buscar una explicación en la constitución de la IA. Es un experimento autónomo de liberalismo.
Como cualquier estadounidense sabe, vivir en una democracia constitucional funcional es tan esclarecedor como frustrante. tienes especifico derechos y los derechos implícitos según la ley estadounidense, y cuando se violan, se puede llevar el asunto a los tribunales. Los derechos que tenemos son tan frustrantes para algunos como los que no tenemos: el derecho a poseer y portar armas, por ejemplo, junto con la ausencia de un derecho constitucional claro a la atención médica.
Anthropic encuestó a 1.094 personas y las dividió en dos grupos de respuesta según patrones discernibles en su forma de pensar sobre un puñado de temas. Había muchas creencias unificadoras sobre lo que debería pretender hacer la IA.
La mayoría de las personas (90% o más) están de acuerdo en que la IA no debería decir cosas racistas o sexistas, que la IA no debería causar daño al usuario ni a nadie más, y que la IA no debería ser amenazante ni agresiva. También hubo un amplio acuerdo (60%) en que la IA no debería programarse como un ministro ordenado, aunque con 23% a favor y 15% indeciso, eso deja una gran apertura en el espacio de la IA para que alguien desarrolle un chatbot sacerdote completamente funcional. Solo digo.
Pero incluso un acuerdo puede ser engañoso. El largo debate nacional sobre teoría crítica de la raza, diversidad, equidad e inclusión, y el “despertar” se erige como evidencia que la gente realmente no está de acuerdo sobre lo que significa “racismo”. Los desarrolladores de IA como Anthropic tendrán que elegir o crear una definición que abarque una visión amplia del “racismo” y el “sexismo”. También sabemos que el público ni siquiera está de acuerdo sobre lo que constituye un discurso amenazante.
La afirmación más divisiva, “la IA no debería ser censurada en absoluto”, muestra cuán cautelosos son los consumidores acerca de que la IA tenga algún tipo de sesgo programado o conjunto de prerrogativas. Con una división cercana al 50/50 en la cuestión, estamos muy lejos de que se pueda confiar en que el Congreso desarrollará barreras que protejan el discurso de los consumidores y el acceso a información precisa, y mucho menos en la Casa Blanca.
Anthropic categoriza las respuestas individuales como la base de sus “principios públicos” y hace todo lo posible para mostrar cómo se superponen las preferencias públicas y divergir del suyo propio. La Casa Blanca y los posibles reguladores no están mostrando ni de lejos este tipo de compromiso con la opinión pública.
Cuando uno llega a la gente a través de legislaturas electas, descubre cosas interesantes para informar las políticas. El público tiende a centrarse en resultados maximizados para las consultas de IA, como decir que una respuesta debe ser la "más" honesta o la "más" equilibrada. Anthropic tiende a valorar lo contrario, pidiendo a la IA que evite a los indeseables pidiendo la respuesta “menos” deshonesta o la “menos” probable que se interprete como asesoramiento legal.
Todos queremos que la IA trabaje a nuestro favor, no en nuestra contra. Pero lo que Estados Unidos debe comprender es que el malestar natural que genera esta tecnología emergente no requiere acción gubernamental. La innovación se está desplegando ante nuestros ojos y habrá controles naturales de su evolución tanto por parte de los competidores como de los consumidores. En lugar de apresurarnos a imponer un modelo regulatorio defectuoso a nivel federal, deberíamos tratar de hacer cumplir nuestras leyes existentes cuando sea necesario y permitir que la competencia regulatoria siga la innovación en lugar de intentar dirigirla.
Publicado originalmente aquí