A IA de código aberto torna os PCs modernos relevantes e as assinaturas parecem ruins

A IA de código aberto torna os PCs modernos relevantes e as assinaturas parecem ruins

A IA de código aberto torna os PCs modernos relevantes e as assinaturas parecem surradas PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

Coluna No ano passado, tornou-se impossível ignorar a última tendência da computação: enormes placas de silício com centenas de bilhões de transistores – a consequência inevitável de outro conjunto de soluções alternativas que impediram que a Lei de Moore caísse no esquecimento.

Mas a queda nas vendas de PCs sugere que não precisamos desses computadores monstruosos - e não apenas por causa de uma sombra de vendas lançada pelo COVID.

No primeiro semestre de 2022, a computação corporativa parecia praticamente a mesma da última década: aplicativos básicos de escritório, aplicativos de comunicação em equipe e, para a classe criativa, algumas ferramentas de mídia avançada. Claro, os jogadores sempre encontrariam uma maneira de colocar esses transistores para funcionar, mas a grande maioria do hardware já estava sobrecarregada e mal trabalhada. Por que desperdiçar transistores em problemas resolvidos?

Então o mundo mudou. Há um ano, a OpenAI lançou o DALL-E, a primeira das ferramentas de IA generativas amplamente disponíveis – um “difusor” que converte ruído, um prompt de texto e um enorme banco de dados de ponderações em imagens. Parecia quase mágica. Não muito tempo depois, Midjourney ofereceu quase o mesmo - embora sintonizado com uma estética de capa de álbum decididamente rock progressivo dos anos 70. Parecia que a demanda por computação em nuvem dispararia à medida que essas ferramentas chegassem aos produtos da Microsoft, Canva, Adobe e outros.

Então o mundo mudou novamente. Em agosto, a Stability AI introduziu um banco de dados de código aberto de ponderações de difusores. No início, o Stable Diffusion exigia uma GPU de última geração, mas a comunidade de código aberto logo descobriu que poderia otimizar o difusor para rodar em praticamente qualquer coisa. Não seria necessariamente rápido, mas funcionaria – e escalaria com seu hardware.

Em vez de exigir recursos de nuvem massivos, essas novas ferramentas de IA são executadas localmente. E se você comprasse um computador monstruoso, eles funcionariam pelo menos tão rapidamente quanto qualquer coisa oferecida pela OpenAI ou Midjourney – sem uma assinatura.

A sempre empolgada comunidade de código aberto que impulsiona o Stable Diffusion criou uma série impressionante de novos pesos de difusor, cada um visando uma estética específica. A difusão estável não é apenas tão rápida quanto qualquer coisa oferecida por uma empresa comercial de IA – é mais útil e mais extensível.

E então – sim, você adivinhou – o mundo mudou novamente. No início de dezembro, OpenAI's ChatGPT reescreveu completamente nossas expectativas de inteligência artificial, tornando-se o aplicativo da web mais rápido a atingir 100 milhões de usuários. Um grande modelo de linguagem (LLM) alimentado por um “transformador generativo pré-treinado” – quantos de nós esquecemos que é isso que GPT significa? – que treinou suas ponderações nos vastos tesouros de texto disponíveis na internet.

Estima-se que esse esforço de treinamento tenha custado milhões (possivelmente dezenas de milhões) em recursos de computação em nuvem do Azure. Esperava-se que esse custo de entrada fosse suficiente para manter os concorrentes afastados - exceto, talvez, o Google e o Meta.

Até que, mais uma vez, o mundo mudou. Em março, Meta lançado LLaMA – um modelo de linguagem muito mais compacto e eficiente, com um banco de dados comparativamente pequeno de ponderações, mas com qualidade de resposta próxima ao GPT-4 da OpenAI.

Com um modelo de apenas trinta bilhões de parâmetros, o LLaMA pode ser instalado confortavelmente em um PC com 32 GB de RAM. Algo muito parecido com o ChatGPT – que roda no Azure Cloud por causa de seu enorme banco de dados de ponderações – pode ser rodado praticamente em qualquer lugar.

Os pesquisadores do Meta ofereceram suas ponderações para seus colegas acadêmicos, para download gratuito. Como o LLaMA podia ser executado em seus computadores de laboratório, os pesquisadores de Stanford melhoraram imediatamente o LLaMA por meio de sua nova técnica de treinamento chamada Alpaca-Lora, que reduziu o custo de treinamento de um conjunto existente de ponderações de centenas de milhares de dólares para algumas centenas de dólares. Eles também compartilharam seu código.

Assim como o DALL-E perdeu para o Stable Diffusion em usabilidade e extensibilidade, o ChatGPT parece estar perdendo outra corrida, pois os pesquisadores produzem uma variedade de modelos - como Alpaca, Vicunha, Coala, e uma variedade de outros - que treinam e retreinam de forma rápida e barata.

Eles estão melhorando muito mais rapidamente do que qualquer um esperava. Em parte porque eles estão treinando em muitas “conversas” do ChatGPT que foram compartilhadas em sites como o Reddit, e podem funcionar bem na maioria dos PCs. Se você tem um computador monstro, eles funcionam muito bem.

As máquinas para as quais não podíamos imaginar um uso há apenas um ano encontraram seu propósito: elas estão se tornando os burros de carga de todas as nossas tarefas de IA generativa. Eles nos ajudam a codificar, planejar, escrever, desenhar, modelar e muito mais.

E não seremos obrigados a assinaturas para fazer essas novas ferramentas funcionarem. Parece que o código aberto já ultrapassou o desenvolvimento comercial de difusores e transformadores.

A IA de código aberto também nos lembrou por que o PC proliferou: tornando possível levar para casa ferramentas que antes só estavam disponíveis no escritório.

Isso não vai fechar a porta para o comércio. Na verdade, isso significa que há mais espaço para os empreendedores criarem novos produtos, sem se preocupar se eles infringem os modelos de negócios subjacentes ao Google, Microsoft, Meta ou qualquer outro. Estamos entrando em um momento de disrupção generalizada na tecnologia – e o tamanho não parece conferir muitas vantagens.

Os monstros estão à solta. Eu acho que é uma coisa boa. ®

Carimbo de hora:

Mais de O registro