Invertir en piña

Invertir en piña

Invertir en Pinecone PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

Con la inflexión de los modelos de lenguaje grande (LLM), estamos presenciando un cambio de paradigma en el desarrollo de software y la industria informática en general. La IA está sucediendo y se está formando una nueva pila ante nuestros ojos. Es como Internet de nuevo, que pone en servicio nuevos componentes de infraestructura creados para la nueva forma de hacer las cosas..

Cada vez se reconoce más que los LLM son en realidad una nueva forma de computadora, en algún sentido. Pueden ejecutar "programas" escritos en lenguaje natural (es decir, indicaciones), ejecutar tareas informáticas arbitrarias (por ejemplo, escribir código Python o buscar en Google) y devolver los resultados al usuario en una forma legible por humanos. Este es un gran problema, por dos razones: 

  1. Una nueva clase de aplicaciones en torno a la síntesis y el contenido generativo ahora es posible, lo que resulta en un cambio de comportamiento del consumidor en torno al consumo de software.
  2. Una nueva clase de desarrolladores ahora puede escribir software. La programación de computadoras ahora requiere solo el dominio del inglés (u otro idioma humano), no la capacitación en un lenguaje de programación tradicional como Python o JavaScript. 

Una de nuestras principales prioridades en Andreessen Horowitz es identificar las empresas que construyen los componentes clave de esta nueva pila de IA. Estamos encantados de anunciar que lideramos una ronda Serie B de $100 millones en piña, para respaldar su visión de convertirse en la capa de memoria para las aplicaciones de IA.

El problema: los LLM alucinan y son apátridas

Un gran desafío con los LLM actuales es la alucinación. Dan respuestas muy seguras que son objetivamente y, a veces, lógicamente incorrectas. Por ejemplo, pedirle a un LLM el margen bruto de Apple para el último trimestre puede resultar en una respuesta segura de $63 mil millones. El modelo puede incluso respaldar su respuesta explicando que al restar $25 mil millones en el costo de los bienes de $95 mil millones en ingresos, se obtiene un margen bruto de $63 mil millones. Por supuesto, está mal en varias dimensiones:

  • Primero, el número de ingresos es incorrecto, ya que el LLM no tiene datos en tiempo real. Está trabajando con datos de entrenamiento obsoletos que tienen meses o probablemente años.
  • En segundo lugar, recogió esas cifras de ingresos y costos de productos al azar de los estados financieros de otra empresa de frutas.
  • En tercer lugar, su cálculo del margen bruto no es matemáticamente correcto.

Imagínese darle esa respuesta al CEO de una Fortune 500 empresa. 

Todo esto sucede porque, al final del día, los LLM son máquinas de predicción entrenadas en grandes cantidades de datos de Internet de terceros. A menudo, la información que el usuario necesita simplemente no está en el conjunto de entrenamiento. Por lo tanto, el modelo dará las respuestas más probables y lingüísticamente bien formateadas en función de sus datos de entrenamiento obsoletos. Ya podemos comenzar a ver una posible solución al problema anterior: alimentar datos de empresas privadas contextualmente relevantes en tiempo real a los LLM.

La forma general de este problema es que, desde una perspectiva de sistemas, los LLM y la mayoría de los demás modelos de IA no tienen estado en el paso de inferencia. Cada vez que realiza una llamada a la API de GPT-4, el resultado depende , solamente en los datos y parámetros que envíe en la carga útil. El modelo no tiene una forma integrada de incorporar datos contextuales o recordar lo que ha preguntado antes. El ajuste fino del modelo es posible, pero es costoso y relativamente inflexible (es decir, el modelo no puede responder a nuevos datos en tiempo real). Dado que los modelos no administran el estado o la memoria por sí solos, depende de los desarrolladores llenar el vacío. 

La solución: las bases de datos vectoriales son la capa de almacenamiento para los LLM

Aquí es donde entra Pinecone.

Pinecone es una base de datos externa donde los desarrolladores pueden almacenar datos contextuales relevantes para aplicaciones LLM. En lugar de enviar grandes colecciones de documentos de un lado a otro con cada llamada a la API, los desarrolladores pueden almacenarlos en una base de datos de Pinecone y luego elegir solo los pocos más relevantes para cualquier consulta determinada, un enfoque llamado aprendizaje en contexto. Es imprescindible para que los casos de uso empresarial realmente florezcan.

En particular, Pinecone es un vector base de datos, lo que significa que los datos se almacenan en forma semánticamente significativa incrustaciones. Si bien una explicación técnica de las incrustaciones está más allá del alcance de esta publicación, la parte importante que se debe comprender es que los LLM también operan en incrustaciones de vectores, por lo que al almacenar datos en Pinecone en este formato, parte del trabajo de IA efectivamente ha sido preprocesado y descargado a la base de datos.

A diferencia de las bases de datos existentes, que están diseñadas para cargas de trabajo analíticas exhaustivas o transaccionales atómicas, la base de datos vectorial (Pinecone) está diseñada para la búsqueda de vecinos aproximados finalmente consistentes, el paradigma de base de datos adecuado para vectores de mayor dimensión. También proporcionan API para desarrolladores que se integran con otros componentes clave de las aplicaciones de IA, como OpenAI, Cohere, LangChain, etc. Un diseño tan bien pensado hace que la vida de los desarrolladores sea mucho más fácil. Las tareas simples de IA, como la búsqueda semántica, las recomendaciones de productos o la clasificación de fuentes, también se pueden modelar directamente como problemas de búsqueda de vectores y ejecutarse en la base de datos de vectores sin un paso final de inferencia del modelo: algo que las bases de datos existentes no pueden hacer.

Pinecone es el estándar emergente para administrar datos empresariales contextuales y de estado en aplicaciones LLM. Creemos que es un componente de infraestructura importante, que proporciona la capa de almacenamiento o "memoria" a una nueva pila de aplicaciones de IA.

Increíble progreso para Pinecone hasta la fecha

Pinecone no es la única base de datos de vectores, pero creemos que es la base de datos de vectores líder, lista ahora para su adopción en el mundo real, por un margen significativo. Pinecone ha visto un crecimiento 8 veces mayor en clientes pagos (aproximadamente 1,600) en solo tres meses, incluidas empresas tecnológicas con visión de futuro como Shopify, Gong, Zapier y más. Se utiliza en una amplia gama de industrias, incluido el software empresarial, las aplicaciones de consumo, el comercio electrónico, la tecnología financiera, los seguros, los medios y la IA/ML.

Atribuimos este éxito no solo a la profunda comprensión del usuario, el mercado y la tecnología por parte del equipo, sino también, de manera crítica, a su enfoque de producto nativo de la nube desde el principio. Una de las partes más difíciles de crear este servicio es proporcionar un back-end en la nube confiable y de alta disponibilidad que cumpla con una amplia gama de objetivos de desempeño del cliente y SLA. Con múltiples iteraciones sobre la arquitectura del producto y administrando muchos clientes pagos de gran escala en producción, este equipo ha demostrado la excelencia operativa que se espera de una base de datos de producción.

piña fue fundada por Edo Liberty, quien durante mucho tiempo ha sido un defensor acérrimo de la importancia de las bases de datos vectoriales en el aprendizaje automático, incluida la forma en que pueden permitir que cada empresa cree casos de uso además de los LLM. Como matemático aplicado, pasó su carrera estudiando e implementando algoritmos de búsqueda de vectores de última generación. Al mismo tiempo, era un pragmático, creaba herramientas básicas de ML como Sagemaker en AWS y traducía la investigación de ML aplicada en productos prácticos que los clientes pueden usar. Es raro ver tal combinación de investigación profunda y pensamiento pragmático sobre productos.

Edo se une a Bob Wiederhold, un director ejecutivo y operador experimentado (antes de Couchbase), como socio del lado de las operaciones como presidente y director de operaciones. Pinecone también cuenta con un fantástico equipo de ejecutivos e ingenieros con una gran experiencia en sistemas de nube de lugares como AWS, Google y Databricks. Estamos impresionados por la profunda experiencia en ingeniería del equipo, el enfoque en la experiencia del desarrollador y la ejecución eficiente de GTM, y tenemos el privilegio de asociarnos con ellos para construir la capa de memoria para las aplicaciones de IA.

* * *

Las opiniones expresadas aquí son las del personal individual de AH Capital Management, LLC ("a16z") citado y no son las opiniones de a16z o sus afiliados. Cierta información contenida aquí se ha obtenido de fuentes de terceros, incluso de compañías de cartera de fondos administrados por a16z. Si bien se tomó de fuentes que se consideran confiables, a16z no ha verificado de forma independiente dicha información y no hace declaraciones sobre la precisión duradera de la información o su idoneidad para una situación determinada. Además, este contenido puede incluir anuncios de terceros; a16z no ha revisado dichos anuncios y no respalda ningún contenido publicitario incluido en ellos.

Este contenido se proporciona solo con fines informativos y no debe considerarse como asesoramiento legal, comercial, de inversión o fiscal. Debe consultar a sus propios asesores sobre estos asuntos. Las referencias a cualquier valor o activo digital son solo para fines ilustrativos y no constituyen una recomendación de inversión ni una oferta para proporcionar servicios de asesoramiento de inversión. Además, este contenido no está dirigido ni destinado a ser utilizado por ningún inversionista o posible inversionista, y bajo ninguna circunstancia se puede confiar en él al tomar una decisión de invertir en cualquier fondo administrado por a16z. (Una oferta para invertir en un fondo a16z se realizará solo mediante el memorando de colocación privada, el acuerdo de suscripción y otra documentación relevante de dicho fondo y debe leerse en su totalidad). Cualquier inversión o compañía de cartera mencionada, referida o descritos no son representativos de todas las inversiones en vehículos administrados por a16z, y no puede garantizarse que las inversiones serán rentables o que otras inversiones realizadas en el futuro tendrán características o resultados similares. Una lista de inversiones realizadas por fondos administrados por Andreessen Horowitz (excluyendo inversiones para las cuales el emisor no ha otorgado permiso para que a16z divulgue públicamente, así como inversiones no anunciadas en activos digitales que cotizan en bolsa) está disponible en https://a16z.com/investments /.

Los cuadros y gráficos proporcionados en el interior tienen únicamente fines informativos y no se debe confiar en ellos al tomar cualquier decisión de inversión. El rendimiento pasado no es indicativo de resultados futuros. El contenido habla sólo a partir de la fecha indicada. Todas las proyecciones, estimaciones, pronósticos, objetivos, perspectivas y/u opiniones expresadas en estos materiales están sujetas a cambios sin previo aviso y pueden diferir o ser contrarias a las opiniones expresadas por otros. Consulte https://a16z.com/disclosures para obtener información adicional importante.

Sello de tiempo:

Mas de Andreessen Horowitz