Não se preocupem, pessoal, aqui vem Chuck Schumer com algumas ideias sobre como regular a IA

Não se preocupem, pessoal, aqui vem Chuck Schumer com algumas ideias sobre como regular a IA

Não se preocupem, pessoal, aí vem Chuck Schumer com algumas ideias sobre como regular a IA PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

O senador americano Chuck Schumer (D-NY) está empenhado em aprovar uma legislação bipartidária que permita auditorias públicas independentes de produtos comerciais de IA antes de serem lançados no mundo.

Após meses de consulta, o líder da maioria no Senado diz que elaborou uma estrutura para regulamentar o desenvolvimento, a implantação e o uso de tecnologia avançada de aprendizado de máquina. O boom da IA ​​generativa, todo o hype em torno dela e as medidas da China para restringir a tecnologia tornaram ainda mais urgente governar esses modelos e softwares nos Estados Unidos, disse ele.

Essa estrutura, se os planos de Schumer derem certo, resultaria em uma legislação “abrangente” nos Estados Unidos que as organizações precisariam seguir ao implantar a inteligência artificial.

“A Era da IA ​​chegou e veio para ficar”, disse Schumer em um comunicado enlatado. “Agora é a hora de desenvolver, aproveitar e avançar seu potencial para beneficiar nosso país por gerações.”

“Dado o impacto consequente e rápido da indústria de IA na sociedade, na segurança nacional e na economia global”, continuou ele, “trabalhei com alguns dos principais profissionais de IA e líderes de pensamento para criar uma estrutura que delineie um novo regime regulatório isso evitaria danos potencialmente catastróficos ao nosso país e, ao mesmo tempo, garantiria que os EUA avançassem e liderassem essa tecnologia transformadora.

“Mas há muito mais trabalho a fazer e devemos agir rapidamente. Estou ansioso para trabalhar em todo o setor, em todo o país e além, para moldar esta proposta e refinar a legislação para garantir que a IA cumpra sua promessa de criar um mundo melhor”.

A estrutura proposta por Schumer, que foi compartilhada no Capitólio e ainda não é pública, gira em torno de quatro guardrails: quem, onde, como e proteger.

Especificamente, sob essas propostas, deve ficar claro quem treinou um modelo e quem deve usá-lo, de onde vieram os dados de treinamento e como o software será usado. Crucialmente, informações suficientes devem ser fornecidas para que especialistas externos possam auditar, testar e revisar produtos e tecnologias de aprendizado de máquina antes de serem colocados no mercado e que essas descobertas sejam tornadas públicas.

Finalmente, para a parte de proteção, os desenvolvedores teriam que demonstrar que seus sistemas de IA estão alinhados com os valores americanos e que “os desenvolvedores de IA cumprem sua promessa de criar um mundo melhor”. 

Schumer planeja compartilhar, se ainda não, sua estrutura com líderes acadêmicos, industriais e governamentais, e pretende trabalhar com grupos de reflexão e instituições de pesquisa para refinar suas propostas antes de apresentar um projeto de lei. O registro pressionou o gabinete do senador para obter mais detalhes, e um representante não poderia oferecer nada mais do que um comunicado de imprensa.

Essa versão deixa claro que a estrutura proposta “exigirá que as empresas permitam que especialistas independentes revisem e testem as tecnologias de IA antes de um lançamento ou atualização pública e dê aos usuários acesso a esses resultados”.

Falando em burocracia… o Conselho Europeu de Proteção de Dados, que ajuda a manter os vigilantes da privacidade nacionais da Europa na mesma página, criado uma força-tarefa para garantir que esses reguladores compartilhem informações e detalhes de qualquer repressão no ChatGPT da OpenAI. Isso foi depois que a Itália tomou uma linha dura contra o bot de bate-papo, sobre os medos de privacidade e proteção infantil, e outras nações estão considerando o mesmo tipo de ação.

Isso basicamente indica que a Europa está convergindo para uma resposta unificada ao sistema de IA de última geração, defendido pela Microsoft e injetado em todos os cantos da tecnologia atual.

Tudo isso ocorre quando o regulador do ciberespaço da China elaborou regras semelhantes que exigiriam que as empresas apresentassem avaliações de segurança examinando os riscos potenciais de segurança de seus produtos de IA. Os desenvolvedores devem garantir que os dados de treinamento usados ​​para moldar seus modelos não levem à discriminação e reflitam os valores socialistas do país, Reuters relatado.

A Administração Nacional de Telecomunicações e Informações do Departamento de Comércio dos EUA está buscando comentários públicos para ajudar a elaborar políticas potenciais destinadas a melhorar a responsabilidade dos produtos e serviços de IA. A agência emitido sua AI formal “Solicitação de responsabilidade para comentário” esta semana. ®

Carimbo de hora:

Mais de O registro