Meta revela modelo de segmentação de imagem de IA, SAM

Meta revela modelo de segmentação de imagem de IA, SAM

Meta revela modelo de segmentação de imagens de IA, SAM PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

Alphabet Inc's Google compartilhou informações sobre supercomputadores que usa para treinar modelos de IA, alegando que eles são eficientes em termos de energia e mais rápidos do que Nvidia's Chip A100. O Google produziu seu chip personalizado chamado Tensor Processing Unit (TPU), que está em sua quarta geração.

Segundo a gigante da tecnologia, a empresa está usando os chips para mais de 90% do trabalho de treinamento de IA da empresa. O Google adiciona os dados de alimentação do chip por meio de modelos para torná-los práticos em tarefas como textos humanos ou para gerar imagens.

Idealmente, As TPUs são projetadas para acelerar a fase de inferência de redes neurais profundas (DNNs), que são usadas em muitos aplicativos de aprendizado de máquina, como reconhecimento de imagem, reconhecimento de fala, processamento de linguagem natural e muito mais. As TPUs também são usadas para treinar DNNs.

Veja também: Twitter em água quente legal com a Alemanha ameaçando multa

Na terça-feira Google publicou um artigo científico explicando como conseguiu mais de 4 000 fichas. De acordo com a empresa, ela usou interruptores ópticos desenvolvidos sob medida para colocar máquinas individuais em um só lugar.

No artigo científico, o Google disse que, para sistemas de tamanho comparável, seus chips são até 1.7 vezes mais rápidos e 1.9 vezes mais eficientes em termos de energia do que um sistema baseado no chip A100 da Nvidia que estava no mercado ao mesmo tempo que o TPU de quarta geração.

Mais melhorias necessárias

Os analistas acreditam que o mercado de chips de inferência de dados crescerá rapidamente à medida que as empresas Tecnologias AI em seus produtos. Empresas como o Google, no entanto, já estão trabalhando em como limitar os custos extras que isso irá adicionar, e um dos custos é a eletricidade.

Grandes modelos de linguagem que orientam produtos como Google Bard ou OpenAI's ChatGPT cresceram muito em tamanho. Na verdade, eles são grandes demais para serem armazenados em um único chip.

Assim, melhorar essas conexões tornou-se um ponto-chave para a concorrência entre as empresas que constroem supercomputadores de IA.

Além disso, esses modelos são divididos em milhares de chips e trabalham juntos por semanas ou mais para treinar o modelo.

O modelo de linguagem divulgado publicamente mais significativo do Google até hoje, o PaLM, foi treinado dividindo-o em dois dos 4 supercomputadores de chip durante 000 dias.

Segundo a empresa, seus supercomputadores facilitam a configuração instantânea de conexões entre chips.

“A comutação de circuitos facilita o roteamento de componentes com falha”, disse o Google Fellow Norm Jouppi e o Google Distinguished Engineer David Patterson em uma postagem no blog sobre o sistema

“Essa flexibilidade ainda nos permite alterar a topologia da interconexão do supercomputador para acelerar o desempenho de um modelo de ML (aprendizado de máquina).”

Não há comparação de acordo com o Google

A Nvidia domina o mercado de treinamento de modelos de IA com grandes quantidades de dados. No entanto, depois que esses modelos são treinados, eles são amplamente utilizados no que é chamado de “inferência”, realizando tarefas como gerar resposta de texto a prompts e decidir se uma imagem contém um gato.

Software principal estúdios estão usando processadores A100 da Nvidia. Os chips A100 são os chips mais usados ​​pelos estúdios de desenvolvimento para cargas de trabalho de aprendizado de máquina de IA.

A A100 é adequado para modelos de aprendizado de máquina que utilizam ferramentas como ChatGPT, IA do Bing, ou difusão estável. É capaz de realizar muitos cálculos simples simultaneamente, o que é importante para treinar e usar modelos de redes neurais.

Enquanto a Nvidia recusou pedidos de comentários por Reuters, o Google disse que não comparou sua quarta geração com o atual chip principal H100 da Nvidia porque ele chegou ao mercado depois do chip do Google e é feito com tecnologia mais recente.

O Google também disse que a empresa tem “um pipeline saudável de dicas futuras”, sem dar mais detalhes, mas deu a entender que pode estar trabalhando em um novo TPU que competirá com o Nvidia H100.

Embora o Google só esteja divulgando detalhes sobre seu supercomputador agora, ele está online dentro da empresa desde 2020 em um data center no condado de Mayes, Oklahoma.

O Google disse que a startup Midjourney usou o sistema para treinar seu modelo, que gera novas imagens depois de receber algumas palavras de texto.

Carimbo de hora:

Mais de MetaNotícias