Investir em Pinha

Investir em Pinha

Investindo em inteligência de dados Pinecone PlatoBlockchain. Pesquisa vertical. Ai.

Com a inflexão de grandes modelos de linguagem (LLMs), estamos testemunhando uma mudança de paradigma no desenvolvimento de software e na indústria de computação como um todo. A IA está acontecendo e uma nova pilha está se formando diante de nossos olhos. É como a Internet novamente, que põe em serviço novos componentes de infraestrutura construídos para a nova maneira de fazer as coisas.

Há um crescente reconhecimento de que os LLMs são realmente uma nova forma de computador, em algum sentido. Eles podem executar “programas” escritos em linguagem natural (ou seja, prompts), executar tarefas de computação arbitrárias (por exemplo, escrever código Python ou pesquisar no Google) e retornar os resultados ao usuário em um formato legível por humanos. Isso é muito importante, por dois motivos: 

  1. Uma nova classe de aplicativos em torno de resumo e conteúdo generativo agora é possível, resultando em uma mudança de comportamento do consumidor em relação ao consumo de software.
  2. Uma nova classe de desenvolvedores agora é capaz de escrever software. A programação de computadores agora requer apenas o domínio do inglês (ou outro idioma humano), não o treinamento em uma linguagem de programação tradicional como Python ou JavaScript. 

Uma de nossas principais prioridades na Andreessen Horowitz é identificar as empresas que constroem os principais componentes dessa nova pilha de IA. Estamos entusiasmados em anunciar que estamos liderando uma rodada da Série B de $ 100 milhões em Pinecone, para apoiar sua visão de se tornar a camada de memória para aplicativos de IA.

O problema: LLMs alucinam e são apátridas

Um grande desafio com os LLMs atuais é a alucinação. Eles dão respostas muito confiantes que são factualmente e às vezes logicamente incorretas. Por exemplo, pedir a um LLM a margem bruta da Apple no último trimestre pode resultar em uma resposta confiável de US$ 63 bilhões. O modelo pode até corroborar sua resposta explicando que, ao subtrair US$ 25 bilhões no custo dos produtos de US$ 95 bilhões em receita, você obtém uma margem bruta de US$ 63 bilhões. Claro, está errado em várias dimensões:

  • Primeiro, o número da receita está errado, pois o LLM não possui dados em tempo real. Ele está trabalhando com dados de treinamento obsoletos com meses ou provavelmente anos.
  • Em segundo lugar, ele pegou esses números de receita e custo de mercadorias aleatoriamente das demonstrações financeiras de outra empresa de frutas.
  • Em terceiro lugar, seu cálculo de margem bruta não é matematicamente correto.

Imagine dar essa resposta ao CEO de uma Fortune 500 empresa. 

Tudo isso acontece porque, no final das contas, os LLMs são máquinas de previsão treinadas em grandes quantidades de dados da Internet de terceiros. Frequentemente, a informação que o usuário precisa simplesmente não está no conjunto de treinamento. Assim, o modelo fornecerá as respostas mais prováveis ​​e linguisticamente bem formatadas com base em seus dados de treinamento obsoletos. Já podemos começar a ver uma solução potencial para o problema acima - fornecer dados empresariais privados contextualmente relevantes em tempo real para os LLMs.

A forma geral desse problema é que, do ponto de vista dos sistemas, os LLMs e a maioria dos outros modelos de IA não têm estado na etapa de inferência. Cada vez que você faz uma chamada para a API GPT-4, a saída depende nos dados e parâmetros que você envia na carga útil. O modelo não possui uma forma integrada de incorporar dados contextuais ou lembrar o que você perguntou antes. O ajuste fino do modelo é possível, mas é caro e relativamente inflexível (ou seja, o modelo não pode responder a novos dados em tempo real). Como os modelos não gerenciam o estado ou a memória por conta própria, cabe aos desenvolvedores preencher a lacuna. 

A solução: bancos de dados vetoriais são a camada de armazenamento para LLMs

É aqui que entra a pinha.

Pinecone é um banco de dados externo onde os desenvolvedores podem armazenar dados contextuais relevantes para aplicativos LLM. Em vez de enviar grandes coleções de documentos para frente e para trás a cada chamada de API, os desenvolvedores podem armazená-los em um banco de dados Pinecone e, em seguida, escolher apenas os poucos mais relevantes para uma determinada consulta - uma abordagem chamada aprendizado no contexto. É um item obrigatório para que os casos de uso corporativo realmente floresçam.

Em particular, a Pinha é um vetor banco de dados, o que significa que os dados são armazenados na forma de incorporações. Embora uma explicação técnica sobre incorporações esteja além do escopo desta postagem, a parte importante a ser entendida é que os LLMs também operam em incorporações vetoriais - portanto, ao armazenar dados no Pinecone neste formato, parte do trabalho de IA foi efetivamente pré-processado e descarregado para o banco de dados.

Ao contrário dos bancos de dados existentes, que são projetados para cargas de trabalho analíticas ou transacionais atômicas exaustivas, o banco de dados de vetores (Pinecone) é projetado para pesquisa de vizinhança aproximada eventualmente consistente, o paradigma de banco de dados correto para vetores de dimensão superior. Eles também fornecem APIs de desenvolvedor que se integram a outros componentes-chave de aplicativos de IA, como OpenAI, Cohere, LangChain etc. Um design tão bem pensado torna a vida dos desenvolvedores muito mais fácil. Tarefas simples de IA, como pesquisa semântica, recomendações de produtos ou classificação de feed, também podem ser modeladas diretamente como problemas de pesquisa vetorial e executadas no banco de dados vetorial sem uma etapa final de inferência do modelo — algo que os bancos de dados existentes não podem fazer.

Pinecone é o padrão emergente para gerenciamento de dados corporativos contextuais e de estado em aplicativos LLM. Achamos que é um importante componente de infraestrutura, fornecendo a camada de armazenamento ou “memória” para uma nova pilha de aplicativos de IA.

Progresso incrível para Pinecone até o momento

Pinecone não é o único banco de dados de vetores, mas acreditamos que seja o principal banco de dados de vetores — pronto agora para adoção no mundo real — por uma margem significativa. A Pinecone teve um crescimento de 8x em clientes pagos (aproximadamente 1,600) em apenas três meses, incluindo empresas de tecnologia voltadas para o futuro, como Shopify, Gong, Zapier e muito mais. Ele é usado em uma ampla gama de setores, incluindo software empresarial, aplicativos de consumo, comércio eletrônico, fintech, seguros, mídia e IA/ML.

Atribuímos esse sucesso não apenas ao profundo conhecimento da equipe sobre o usuário, o mercado e a tecnologia, mas também — fundamentalmente — à sua abordagem de produto nativo da nuvem desde o início. Uma das partes mais difíceis da construção desse serviço é fornecer um back-end de nuvem confiável e altamente disponível que atenda a uma ampla variedade de metas de desempenho e SLAs do cliente. Com várias iterações na arquitetura do produto e gerenciando muitos clientes pagos de alta escala na produção, essa equipe demonstrou a excelência operacional esperada de um banco de dados de produção.

Pinecone foi fundada por Edo Liberty, que há muito tempo defende obstinadamente a importância dos bancos de dados vetoriais no aprendizado de máquina, incluindo como eles podem permitir que todas as empresas criem casos de uso sobre LLMs. Como matemático aplicado, ele passou sua carreira estudando e implementando algoritmos de pesquisa vetorial de ponta. Ao mesmo tempo, ele era um pragmático, criando ferramentas básicas de ML como o Sagemaker na AWS e traduzindo a pesquisa de ML aplicada em produtos práticos que os clientes podem usar. É raro ver uma combinação de pesquisa profunda e pensamento pragmático sobre o produto.

Edo é acompanhado por Bob Wiederhold, um CEO experiente e operador (anteriormente da Couchbase), como parceiro do lado das operações como presidente e COO. A Pinecone também possui uma equipe fantástica de executivos e engenheiros com profunda experiência em sistemas de nuvem de locais como AWS, Google e Databricks. Estamos impressionados com a profunda experiência em engenharia da equipe, foco na experiência do desenvolvedor e execução eficiente do GTM, e temos o privilégio de fazer parceria com eles para criar a camada de memória para aplicativos de IA.

* * *

As opiniões expressas aqui são as do pessoal individual da AH Capital Management, LLC (“a16z”) citadas e não são as opiniões da a16z ou de suas afiliadas. Certas informações aqui contidas foram obtidas de fontes de terceiros, inclusive de empresas do portfólio de fundos administrados pela a16z. Embora retiradas de fontes consideradas confiáveis, a16z não verificou essas informações de forma independente e não faz representações sobre a precisão duradoura das informações ou sua adequação a uma determinada situação. Além disso, esse conteúdo pode incluir anúncios de terceiros; a16z não revisou tais anúncios e não endossa nenhum conteúdo de publicidade neles contido.

Este conteúdo é fornecido apenas para fins informativos e não deve ser considerado como aconselhamento jurídico, comercial, de investimento ou fiscal. Você deve consultar seus próprios conselheiros sobre esses assuntos. As referências a quaisquer valores mobiliários ou ativos digitais são apenas para fins ilustrativos e não constituem uma recomendação de investimento ou oferta para fornecer serviços de consultoria de investimento. Além disso, este conteúdo não é direcionado nem destinado ao uso por quaisquer investidores ou potenciais investidores, e não pode, em nenhuma circunstância, ser invocado ao tomar uma decisão de investir em qualquer fundo administrado pela a16z. (Uma oferta para investir em um fundo a16z será feita apenas pelo memorando de colocação privada, contrato de subscrição e outra documentação relevante de tal fundo e deve ser lida na íntegra.) Quaisquer investimentos ou empresas de portfólio mencionados, referidos ou descritos não são representativos de todos os investimentos em veículos administrados pela a16z, e não pode haver garantia de que os investimentos serão rentáveis ​​ou que outros investimentos realizados no futuro terão características ou resultados semelhantes. Uma lista de investimentos feitos por fundos administrados por Andreessen Horowitz (excluindo investimentos para os quais o emissor não deu permissão para a a16z divulgar publicamente, bem como investimentos não anunciados em ativos digitais negociados publicamente) está disponível em https://a16z.com/investments /.

Os gráficos e gráficos fornecidos são apenas para fins informativos e não devem ser considerados ao tomar qualquer decisão de investimento. O desempenho passado não é indicativo de resultados futuros. O conteúdo fala apenas a partir da data indicada. Quaisquer projeções, estimativas, previsões, metas, perspectivas e/ou opiniões expressas nestes materiais estão sujeitas a alterações sem aviso prévio e podem diferir ou ser contrárias às opiniões expressas por outros. Consulte https://a16z.com/disclosures para obter informações adicionais importantes.

Carimbo de hora:

Mais de Andreessen Horowitz