O projeto de regulamentação da Lei de IA da UE pode ter um efeito inibidor sobre o software de código aberto PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

Projetos de regulamentos da Lei de IA da UE podem ter um efeito assustador no software de código aberto

Em resumo Novas regras elaboradas pela União Europeia destinadas a regular a IA poderiam impedir os desenvolvedores de lançar modelos de código aberto, de acordo com o think tank americano Brookings.

A proposto A Lei de IA da UE, ainda a ser sancionada, afirma que os desenvolvedores de código aberto devem garantir que seu software de IA seja preciso, seguro e transparente sobre riscos e uso de dados em documentação técnica clara. 

Brookings argumenta que se uma empresa privada implantasse o modelo público ou o usasse em um produto, e de alguma forma tivesse problemas devido a alguns efeitos imprevistos ou incontroláveis ​​do modelo, a empresa provavelmente tentaria culpar os desenvolvedores de código aberto e processá-los . 

Poderia forçar a comunidade de código aberto a pensar duas vezes antes de lançar o seu código e, infelizmente, significaria que o desenvolvimento da IA ​​seria impulsionado por empresas privadas. O código proprietário é difícil de analisar e desenvolver, o que significa que a inovação será prejudicada.

Oren Etzioni, CEO cessante do Allen Institute of AI, considera que os desenvolvedores de código aberto não deveriam estar sujeitos às mesmas regras rigorosas que os engenheiros de software de empresas privadas.

“Os desenvolvedores de código aberto não deveriam estar sujeitos aos mesmos encargos que aqueles que desenvolvem software comercial. Deveria ser sempre possível fornecer software livre “tal como está” – considere o caso de um único aluno desenvolver uma capacidade de IA; eles não podem se dar ao luxo de cumprir os regulamentos da UE e podem ser forçados a não distribuir seu software, tendo assim um efeito inibidor no progresso acadêmico e na reprodutibilidade dos resultados científicos”, ele disse TechCrunch.

Novos resultados do MLPerf para inferência foram lançados

Os resultados do teste anual de inferência MLPerf, que avalia o desempenho de chips de IA de diferentes fornecedores em inúmeras tarefas em várias configurações, foram publicado esta semana.

Quase 5,300 resultados de desempenho e 2,400 medidas de potência foram relatados este ano para inferência no datacenter e em dispositivos de borda. Os testes analisam a rapidez com que um sistema de hardware é capaz de executar um modelo específico de aprendizado de máquina. A taxa de processamento de dados é relatada em planilhas.

Não é nenhuma surpresa que a Nvidia esteja no topo do ranking novamente este ano. “Em sua estreia nos benchmarks de IA padrão da indústria MLPerf, as GPUs Nvidia H100 Tensor Core estabeleceram recordes mundiais em inferência em todas as cargas de trabalho, oferecendo até 4.5x mais desempenho do que as GPUs da geração anterior”, disse a Nvidia em um post de blog. “Os resultados demonstram que o Hopper é a escolha premium para usuários que exigem o máximo desempenho em modelos avançados de IA.”

Embora um número crescente de fornecedores participe do desafio MLPerf, pode ser difícil ter uma boa ideia da concorrência. Não há resultados relatados para os chips TPU do Google na pista do datacenter este ano, por exemplo. O Google, no entanto, parecia ás Competição de treinamento do MLPerf no início deste ano. 

Artistas de IA descobrem um rosto horrível escondido atrás da imagem

Um tópico viral no Twitter postado por um artista digital revela o quão estranhos os modelos de texto para imagem podem ser abaixo da superfície.

Muitos internautas encontraram alegria e desespero ao experimentar esses sistemas para gerar imagens digitando instruções de texto. Existem tipos de hacks para ajustar os resultados dos modelos; um deles, conhecido como “prompt negativo, permite ao usuário encontrar a imagem oposta à descrita no prompt. 

Quando um artista, que atende pelo nome de Supercomposite no Twitter, encontrou a mensagem negativa para o que descrevia uma imagem de aparência inocente de um logotipo falso, eles encontraram algo realmente horrível: o rosto do que parece ser uma mulher assombrada. A Supercomposite chamou essa mulher gerada por IA de “Loab” e quando cruzavam imagens dela com outras, sempre acabavam parecendo uma cena de um filme de terror.

Supercomposto disse El Reg imagens aleatórias de pessoas geradas por IA muitas vezes podem aparecer em avisos negativos. O comportamento estranho ainda é outro exemplo algumas das propriedades estranhas que esses modelos podem ter e que as pessoas estão apenas começando a investigar. 

Não há chatbots sencientes aqui no Google, diz o CEO Sundar Pichai

Sundar Pichai contradisse as afirmações feitas pelo ex-engenheiro Blake Lemoine de que o Google havia construído um chatbot senciente durante sua palestra na conferência Code esta semana.

Lemoine ganhou as manchetes em julho, quando anunciou ele achava que o chatbot LaMDA do Google era consciente e poderia ter alma. Ele foi mais tarde demitido por supostamente violar as políticas de privacidade da empresa depois de contratar um advogado para conversar com o LaMDA e avaliar seus direitos legais, alegando que a máquina lhe disse para fazer isso.

A maioria das pessoas – incluindo o CEO do Google – discorda de Lemoine. “Ainda acho que há um longo caminho a percorrer. Sinto que frequentemente entro em conversas filosóficas ou metafísicas sobre o que é senciência e o que é consciência”, disse Pichai, segundo para a Fortuna. “Estamos longe disso e talvez nunca cheguemos lá”, acrescentou.

Para enfatizar ainda mais seu ponto de vista, ele admitiu que o assistente de voz de IA do Google às vezes não consegue entender e responder adequadamente às solicitações. “A boa notícia é que qualquer pessoa que fala com o Google Assistant – embora eu ache que é o melhor assistente disponível para IA de conversação – você ainda vê como ele está quebrado em certos casos”, disse ele. ®

Carimbo de hora:

Mais de O registro