Para regular a IA, comece com o hardware, argumentam os especialistas

Para regular a IA, comece com o hardware, argumentam os especialistas

Para regular a IA, comece com o hardware, argumentam os especialistas da PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

Na nossa tentativa de limitar o potencial destrutivo da inteligência artificial, um novo artigo da Universidade de Cambridge sugeriu incorporar interruptores e bloqueios remotos, como os desenvolvidos para impedir o lançamento não autorizado de armas nucleares, no hardware que as alimenta.

O papel [PDF], que inclui vozes de inúmeras instituições acadêmicas e várias da OpenAI, defende que a regulamentação do hardware em que esses modelos dependem pode ser a melhor maneira de evitar seu uso indevido.

“A computação relevante para a IA é um ponto de intervenção particularmente eficaz: é detectável, excludente e quantificável, e é produzida através de uma cadeia de abastecimento extremamente concentrada”, argumentam os investigadores.

Treinar os modelos mais prolíficos, que se acredita excederem um trilhão de parâmetros, requer uma imensa infraestrutura física: dezenas de milhares de GPUs ou aceleradores e semanas ou até meses de tempo de processamento. Isto, dizem os investigadores, torna difícil esconder a existência e o desempenho relativo destes recursos.

Além disso, os chips mais avançados utilizados para treinar estes modelos são produzidos por um número relativamente pequeno de empresas, como Nvidia, AMD e Intel, permitindo aos decisores políticos restringir a venda destes produtos a pessoas ou países preocupantes.

Esses fatores, juntamente com outros, como as restrições da cadeia de suprimentos na fabricação de semicondutores, oferecem aos legisladores os meios para entender melhor como e onde a infraestrutura de IA é implantada, quem pode ou não ter acesso a ela e aplicar penalidades pelo seu uso indevido, afirma o documento. .

Controlando a infraestrutura

O documento destaca inúmeras maneiras pelas quais os formuladores de políticas podem abordar a regulamentação de hardware de IA. Muitas das sugestões – incluindo aquelas destinadas a melhorar a visibilidade e limitar a venda de aceleradores de IA – já estão a ser implementadas a nível nacional.

No ano passado, o presidente dos EUA, Joe Biden, apresentou uma ordem executiva com o objetivo de identificar empresas que desenvolvem grandes modelos de IA de dupla utilização, bem como fornecedores de infraestrutura capazes de treiná-los. Se você não estiver familiarizado, “uso duplo” refere-se a tecnologias que podem servir duplamente em aplicações civis e militares.

Mais recentemente, o Departamento de Comércio dos EUA proposto regulamentação que exigiria que os fornecedores de nuvem americanos implementassem políticas mais rigorosas de “conheça o seu cliente” para evitar que pessoas ou países preocupantes contornem as restrições à exportação.

Este tipo de visibilidade é valioso, observam os investigadores, pois poderia ajudar a evitar outra corrida armamentista, como a desencadeada pela controvérsia da lacuna dos mísseis, em que relatórios erróneos levaram à acumulação maciça de mísseis balísticos. Embora valiosos, eles alertam que a execução desses requisitos de relatórios corre o risco de invadir a privacidade do cliente e até mesmo levar ao vazamento de dados confidenciais.

Entretanto, na frente comercial, o Departamento do Comércio continuou a Passo acima restrições, limitando o desempenho dos aceleradores vendidos para a China. Mas, como já reportámos anteriormente, embora estes esforços tenham dificultado a obtenção de chips americanos por países como a China, estão longe de ser perfeitos.

Para resolver estas limitações, os investigadores propuseram a implementação de um registo global para vendas de chips de IA que os acompanharia ao longo do seu ciclo de vida, mesmo depois de terem deixado o seu país de origem. Tal registro, sugerem eles, poderia incorporar um identificador único em cada chip, o que poderia ajudar a combater contrabando de componentes.

No extremo mais extremo do espectro, os pesquisadores sugeriram que interruptores de interrupção poderiam ser incorporados ao silício para evitar seu uso em aplicativos maliciosos.

Em teoria, isto poderia permitir que os reguladores respondessem mais rapidamente aos abusos de tecnologias sensíveis, cortando remotamente o acesso aos chips, mas os autores alertam que fazê-lo não é isento de riscos. A implicação é que, se implementado incorretamente, tal kill switch poderá se tornar um alvo para os cibercriminosos.

Outra proposta exigiria que várias partes aprovassem tarefas de treinamento de IA potencialmente arriscadas antes que pudessem ser implantadas em grande escala. “As armas nucleares utilizam mecanismos semelhantes chamados ligações de ação permissiva”, escreveram eles.

Para armas nucleares, essas travas de segurança são projetadas para evitar que uma pessoa se desvie e lance um primeiro ataque. No entanto, para a IA, a ideia é que, se um indivíduo ou empresa quisesse treinar um modelo acima de um determinado limite na nuvem, primeiro precisaria obter autorização para fazê-lo.

Embora seja uma ferramenta potente, os investigadores observam que o tiro pode sair pela culatra, impedindo o desenvolvimento de uma IA desejável. O argumento parece ser que, embora o uso de armas nucleares tenha um resultado bastante claro, a IA nem sempre é tão preto no branco.

Mas se isso parece um pouco distópico para o seu gosto, o artigo dedica uma seção inteira à realocação de recursos de IA para a melhoria da sociedade como um todo. A ideia é que os decisores políticos possam unir-se para tornar a computação da IA ​​mais acessível a grupos que provavelmente não a utilizarão para o mal, um conceito descrito como “atribuição”.

O que há de errado em regulamentar o desenvolvimento da IA?

Por que ter todo esse trabalho? Bem, os autores do artigo afirmam que o hardware físico é inerentemente mais fácil de controlar.

Em comparação com o hardware, “outras entradas e saídas do desenvolvimento de IA – dados, algoritmos e modelos treinados – são bens intangíveis facilmente compartilháveis ​​e não rivais, tornando-os inerentemente difíceis de controlar”, diz o documento.

O argumento é que, uma vez publicado um modelo, seja abertamente ou vazado, não há como colocar o gênio de volta na garrafa e impedir sua propagação pela rede.

Os investigadores também destacaram que os esforços para prevenir a utilização indevida de modelos não se revelaram fiáveis. Num exemplo, os autores destacaram a facilidade com que os investigadores conseguiram desmantelar as salvaguardas no Llama 2 do Meta destinadas a evitar que o modelo gerasse linguagem ofensiva.

Levado ao extremo, teme-se que um modelo de dupla utilização suficientemente avançado possa ser utilizado para acelerar a desenvolvimento de armas químicas ou biológicas.

O documento admite que a regulamentação do hardware de IA não é uma solução mágica e não elimina a necessidade de regulamentação em outros aspectos da indústria.

No entanto, é difícil ignorar a participação de vários pesquisadores da OpenAI, considerando a opinião do CEO Sam Altman. tentativas para controlar a narrativa em torno da regulamentação da IA. ®

Carimbo de hora:

Mais de O registro