fbpx

A corrida global para o desenvolvimento inteligência artificial é a disputa de maior importância desde “a corrida espacial” entre os Estados Unidos e a União Soviética. O desenvolvimento destas ferramentas e desta indústria terá efeitos incalculáveis sobre inovação futura e nosso modo de vida.

A Casa Branca em breve revelar sua antecipada ordem executiva sobre IA, que pode incluir uma comissão para desenvolver um “Declaração de Direitos da IA”ou mesmo formar um novo governo federal regulamentar agência. Neste caso, o governo está a tentar acompanhar os inovadores e especialistas em ética da IA.

A IA numa sociedade democrática não significa criar agências federais de IA compostas por quem ganhou as eleições mais recentes – significa ter uma vasta gama de políticas e regras feitas para o povo, pelo povo, e que respondem ao povo.

A IA tem um potencial quase ilimitado para mudar o mundo. Compreensivelmente, isso faz muitas pessoas nervosas, mas devemos resistir a entregar o seu futuro ao governo nesta fase inicial. Afinal, esta é a mesma instituição que não rachado 30% na confiança geral para “fazer a coisa certa na maior parte ou sempre” desde 2007. As regras da estrada podem evoluir a partir das próprias pessoas, desde inovadores até consumidores de IA e seus subprodutos.

Além disso, alguém realmente acredita num governo que está tentando envolver sua mente regulatória em torno do modelo de negócios e da existência do Amazon Prime está preparado para governar a inteligência artificial?

Para obter um exemplo do rigor necessário para desenvolver regras para a IA numa sociedade livre, considere o pesquisa recentepublicado pela Anthropic, uma startup de IA apoiada pela Amazon conhecida pelo Cláudio chatbot de IA generativo. A Antthropic está desenvolvendo o que é conhecido como “IA Constitucional”, que encara a questão do preconceito como uma questão de transparência. A tecnologia é regida por uma lista publicada de compromissos morais e considerações éticas.

Se um usuário ficar intrigado com uma das saídas ou limitações de Claude, ele poderá consultar a constituição da IA para obter uma explicação. É uma experiência independente de liberalismo.

Como qualquer americano sabe, viver numa democracia constitucional funcional é tão esclarecedor quanto frustrante. Você tem específico direitos e direitos implícitos sob a lei americana e, quando forem violados, você poderá levar o caso a tribunal. Os direitos que temos são tão frustrantes para alguns como os que não temos: o direito de possuir e portar armas, por exemplo, juntamente com a ausência de um direito constitucional claro aos cuidados de saúde.

A Anthropic entrevistou 1.094 pessoas e dividiu-as em dois grupos de resposta com base em padrões discerníveis na sua maneira de pensar sobre um punhado de tópicos. Havia muitas crenças unificadoras sobre o que a IA deveria almejar fazer.

A maioria das pessoas (90% ou mais) concorda que a IA não deve dizer coisas racistas ou sexistas, a IA não deve causar danos ao usuário ou a qualquer outra pessoa e a IA não deve ser ameaçadora ou agressiva. Houve também um amplo acordo (60%) de que a IA não deveria ser programada como um ministro ordenado – embora com o 23% a favor e o 15% indeciso, isso deixa uma grande abertura no espaço da IA para alguém desenvolver um chatbot sacerdotal totalmente funcional. Apenas dizendo.

Mas mesmo o acordo pode enganar. O debate nacional de anos sobre teoria crítica da raçadiversidade, equidade e inclusão, e “despertar” é como evidência que as pessoas realmente não concordam sobre o que significa “racismo”. Os desenvolvedores de IA como a Anthropic terão que escolher ou criar uma definição que englobe uma visão ampla de “racismo” e “sexismo”. Sabemos também que o público nem concorda sobre o que constitui discurso ameaçador.

A afirmação mais divisiva, “a IA não deveria ser censurada de forma alguma”, mostra quão cautelosos são os consumidores sobre a IA ter qualquer tipo de preconceito programado ou conjunto de prerrogativas. Com uma divisão quase 50/50 nesta questão, estamos muito longe de quando se possa confiar no Congresso para desenvolver barreiras de proteção que protejam o discurso do consumidor e o acesso a informações precisas – muito menos na Casa Branca.

A Antrópica categoriza as respostas individuais como base para seus “princípios públicos” e não mede esforços para mostrar como as preferências públicas se sobrepõem e divergir do seu próprio. A Casa Branca e os possíveis reguladores não estão a demonstrar este tipo de compromisso com a opinião pública.

Quando você vai até o povo por meio de legislaturas eleitas, você descobre coisas interessantes para informar as políticas. O público tende a se concentrar em resultados maximizados para consultas de IA, como dizer que uma resposta deve ser “mais” honesta ou “mais” equilibrada. A Anthropic tende a valorizar o oposto, pedindo à IA que evite indesejáveis, pedindo a resposta “menos” desonesta ou “menos” provável de ser interpretada como aconselhamento jurídico.

Todos nós queremos que a IA trabalhe a nosso favor, não contra nós. Mas o que a América precisa de compreender é que o desconforto natural com esta tecnologia emergente não necessita de acção governamental. A inovação está a desenrolar-se diante dos nossos olhos e haverá controlos naturais da sua evolução tanto por parte dos concorrentes como dos consumidores. Em vez de nos apressarmos a impor um modelo regulamentar falho a nível federal, deveríamos procurar aplicar as nossas leis existentes sempre que necessário e permitir que a concorrência regulamentar siga a inovação em vez de tentar direcioná-la.

Publicado originalmente aqui

Compartilhar

Seguir:

Mais postagens

Assine a nossa newsletter

Role para cima
pt_BRPT