O que é uma GPU? Os chips que impulsionam o boom da IA ​​e por que valem trilhões

O que é uma GPU? Os chips que impulsionam o boom da IA ​​e por que valem trilhões

O que é uma GPU? Os chips que impulsionam o boom da IA ​​e por que valem trilhões de inteligência de dados PlatoBlockchain. Pesquisa vertical. Ai.

À medida que o mundo se apressa para utilizar a mais recente onda de tecnologias de IA, uma peça de hardware de alta tecnologia tornou-se uma mercadoria surpreendentemente popular: a unidade de processamento gráfico, ou GPU.

Uma GPU top de linha pode ser vendida por dezenas de milhares de dólares, e a fabricante líder Nvidia viu sua avaliação de mercado ultrapassar US$ 2 trilhões à medida que a demanda por seus produtos aumenta.

As GPUs também não são apenas produtos de IA de última geração. Também existem GPUs menos potentes em telefones, laptops e consoles de jogos.

Agora você provavelmente está se perguntando: o que é realmente uma GPU? E o que os torna tão especiais?

O que é uma GPU?

As GPUs foram originalmente projetadas principalmente para gerar e exibir rapidamente cenas e objetos 3D complexos, como aqueles envolvidos em videogames e design assistido por computador Programas. GPUs modernas também lidam com tarefas como descomprimir fluxos de vídeo.

O “cérebro” da maioria dos computadores é um chip denominado unidade central de processamento (CPU). As CPUs podem ser usadas para gerar cenas gráficas e descompactar vídeos, mas normalmente são muito mais lentas e menos eficientes nessas tarefas em comparação com as GPUs. As CPUs são mais adequadas para tarefas gerais de computação, como processamento de texto e navegação em páginas da web.

Como as GPUs são diferentes das CPUs?

Uma CPU moderna típica é composta por entre 8 e 16 “núcleos”, cada um dos quais pode processar tarefas complexas de maneira sequencial.

As GPUs, por outro lado, têm milhares de núcleos relativamente pequenos, projetados para funcionarem todos ao mesmo tempo (“em paralelo”) para obter um processamento geral rápido. Isso os torna adequados para tarefas que exigem um grande número de operações simples que podem ser realizadas ao mesmo tempo, em vez de uma após a outra.

As GPUs tradicionais vêm em dois sabores principais.

Primeiro, existem chips independentes, que geralmente vêm em placas complementares para grandes computadores desktop. Em segundo lugar estão as GPUs combinadas com uma CPU no mesmo pacote de chips, que são frequentemente encontradas em laptops e consoles de jogos como o PlayStation 5. Em ambos os casos, a CPU controla o que a GPU faz.

Por que as GPUs são tão úteis para IA?

Acontece que as GPUs podem ser reaproveitadas para fazer mais do que gerar cenas gráficas.

Muitas das técnicas de aprendizado de máquina por trás inteligência artificial, como redes neurais profundas, dependem fortemente de várias formas de multiplicação de matrizes.

Esta é uma operação matemática onde conjuntos muito grandes de números são multiplicados e somados. Essas operações são adequadas para processamento paralelo e, portanto, podem ser executadas muito rapidamente por GPUs.

O que vem por aí para GPUs?

A capacidade de processamento de números das GPUs está aumentando constantemente devido ao aumento no número de núcleos e em suas velocidades operacionais. Essas melhorias são impulsionadas principalmente por melhorias na fabricação de chips por empresas como TSMC Em Taiwan.

O tamanho dos transistores individuais – os componentes básicos de qualquer chip de computador – está diminuindo, permitindo que mais transistores sejam colocados na mesma quantidade de espaço físico.

No entanto, essa não é toda a história. Embora as GPUs tradicionais sejam úteis para tarefas de computação relacionadas à IA, elas não são ideais.

Assim como as GPUs foram originalmente projetadas para acelerar computadores, fornecendo processamento gráfico especializado, existem aceleradores projetados para acelerar tarefas de aprendizado de máquina. Esses aceleradores são frequentemente chamados de GPUs de data center.

Alguns dos aceleradores mais populares, fabricados por empresas como AMD e Nvidia, começaram como GPUs tradicionais. Com o tempo, seus projetos evoluíram para lidar melhor com várias tarefas de aprendizado de máquina, por exemplo, apoiando os mais eficientes “flutuação cerebral" formato numérico.

Outros aceleradores, como o do Google unidades de processamento tensorial e Tenstorrent Núcleos Tensix, foram projetados desde o início para acelerar redes neurais profundas.

As GPUs de data center e outros aceleradores de IA normalmente vêm com significativamente mais memória do que as placas complementares de GPU tradicionais, o que é crucial para o treinamento de grandes modelos de IA. Quanto maior o modelo de IA, mais capaz e preciso ele será.

Para acelerar ainda mais o treinamento e lidar com modelos de IA ainda maiores, como ChatGPT, muitas GPUs de data center podem ser agrupadas para formar um supercomputador. Isso requer software mais complexo para aproveitar adequadamente o poder de processamento de números disponível. Outra abordagem é crie um único acelerador muito grande, tais como o "processador em escala de wafer”Produzido pela Cerebras.

Os chips especializados são o futuro?

As CPUs também não ficaram paradas. CPUs recentes da AMD e Intel possuem instruções integradas de baixo nível que aceleram o processamento de números exigido pelas redes neurais profundas. Essa funcionalidade adicional ajuda principalmente em tarefas de “inferência”, ou seja, no uso de modelos de IA que já foram desenvolvidos em outros lugares.

Para treinar os modelos de IA, em primeiro lugar, ainda são necessários grandes aceleradores semelhantes a GPU.

É possível criar aceleradores cada vez mais especializados para algoritmos específicos de aprendizado de máquina. Recentemente, por exemplo, uma empresa chamada Groq produziu um “unidade de processamento de linguagem”(LPU) projetado especificamente para executar grandes modelos de linguagem nos moldes do ChatGPT.

No entanto, a criação desses processadores especializados exige recursos de engenharia consideráveis. A história mostra que o uso e a popularidade de qualquer algoritmo de aprendizado de máquina tendem a atingir o pico e depois diminuir – portanto, hardware especializado caro pode ficar rapidamente desatualizado.

Para o consumidor médio, entretanto, é improvável que isso seja um problema. As GPUs e outros chips dos produtos que você usa provavelmente continuarão cada vez mais rápidos.

Este artigo foi republicado a partir de A Conversação sob uma licença Creative Commons. Leia o artigo original.

Crédito de imagem: Nvidia

Carimbo de hora:

Mais de Singularity Hub