Investerar i Pinecone

Investerar i Pinecone

Investera i Pinecone PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Med böjningen av stora språkmodeller (LLM) bevittnar vi ett paradigmskifte inom mjukvaruutveckling och datorbranschen som helhet. AI pågår och en ny stack bildas framför våra ögon. Det är som internet igen, som tar i bruk nya infrastrukturkomponenter byggda för det nya sättet att göra saker.

Det finns en växande insikt om att LLM faktiskt är det en ny form av dator, på något vis. De kan köra "program" skrivna på naturligt språk (dvs. uppmaningar), utföra godtyckliga beräkningsuppgifter (t.ex. skriva Python-kod eller söka på Google) och returnera resultaten till användaren i en läsbar form. Detta är en stor sak, av två anledningar: 

  1. En ny klass av applikationer kring sammanfattning och generativt innehåll är nu möjligt vilket resulterar i ett förändrat konsumentbeteende kring mjukvarukonsumtion.
  2. En ny klass av utvecklare kan nu skriva mjukvara. Datorprogrammering kräver nu bara behärskning av engelska (eller ett annat mänskligt språk), inte träning i ett traditionellt programmeringsspråk som Python eller JavaScript. 

En av våra högsta prioriteringar på Andreessen Horowitz är att identifiera företagen som bygger nyckelkomponenterna i denna nya AI-stack. Vi är stolta över att kunna meddela att vi leder en serie B-omgång på 100 miljoner dollar Pinecone, för att stödja deras vision om att bli minnesskiktet för AI-applikationer.

Problemet: LLM hallucinerar och är statslösa

En stor utmaning med nuvarande LLM:er är hallucinationer. De ger mycket säkra svar som är faktuella och ibland logiskt felaktiga. Att till exempel be en LLM om Apples bruttomarginal för det sista kvartalet kan resultera i ett säkert svar på 63 miljarder dollar. Modellen kan till och med backa upp sitt svar genom att förklara att genom att subtrahera 25 miljarder dollar i varukostnaden från 95 miljarder dollar i intäkter får man en bruttomarginal på 63 miljarder dollar. Naturligtvis är det fel på flera dimensioner:

  • För det första är intäktsnumret fel, eftersom LLM inte har realtidsdata. Det arbetar med inaktuella träningsdata som är månader eller förmodligen år gamla.
  • För det andra plockade den upp dessa intäkter och kostnader för varor slumpmässigt från ett annat fruktföretags bokslut.
  • För det tredje är dess bruttomarginalberäkning inte matematiskt korrekt.

Föreställ dig att ge det svaret till VD:n för en Förmögenhet 500 företag. 

Allt detta händer eftersom, i slutet av dagen, är LLM:er förutsägelsemaskiner som tränas på stora mängder tredje parts internetdata. Ofta finns helt enkelt inte den information som användaren behöver i utbildningssetet. Så modellen kommer att ge de mest sannolika och språkligt välformaterade svaren baserat på dess inaktuella träningsdata. Vi kan redan börja se en potentiell lösning på ovanstående problem - att mata kontextuellt relevant privat företagsdata i realtid till LLM:erna.

Den allmänna formen av detta problem är att ur ett systemperspektiv är LLM:er och de flesta andra AI-modeller tillståndslösa vid slutledningssteget. Varje gång du gör ett anrop till GPT-4 API, beror resultatet endast på data och parametrar du skickar i nyttolasten. Modellen har inget inbyggt sätt att införliva kontextuell data eller komma ihåg vad du har frågat tidigare. Modellfinjustering är möjlig, men det är dyrt och relativt oflexibelt (dvs modellen kan inte svara på ny data i realtid). Eftersom modellerna inte hanterar status eller minne på egen hand, är det upp till utvecklarna att fylla luckan. 

Lösningen: Vektordatabaser är lagringslagret för LLM:er

Det är här Pinecone kommer in.

Pinecone är en extern databas där utvecklare kan lagra relevant kontextuell data för LLM-appar. Istället för att skicka stora dokumentsamlingar fram och tillbaka med varje API-anrop, kan utvecklare lagra dem i en Pinecone-databas och sedan välja endast de få som är mest relevanta för en given fråga – ett tillvägagångssätt som kallas in-context learning. Det är ett måste för att företagsanvändningsfall verkligen ska blomma ut.

I synnerhet är Pinecone en vektor databas, vilket innebär att data lagras i form av semantiskt meningsfulla inbäddningar. Även om en teknisk förklaring av inbäddningar ligger utanför räckvidden för det här inlägget, är den viktiga delen att förstå att LLM:er också arbetar på vektorinbäddningar - så genom att lagra data i Pinecone i detta format har en del av AI-arbetet effektivt förbehandlats och laddas av till databasen.

Till skillnad från befintliga databaser, som är designade för atomära transaktions- eller uttömmande analytiska arbetsbelastningar, är vektordatabasen (Pinecone) utformad för att så småningom konsekvent, ungefärlig grannsökning, det rätta databasparadigmet för högre dimensionella vektorer. De tillhandahåller också utvecklar-API:er som integrerar med andra nyckelkomponenter i AI-applikationer, såsom OpenAI, Cohere, LangChain, etc. En sådan genomtänkt design gör utvecklarnas liv mycket enklare. Enkla AI-uppgifter som semantisk sökning, produktrekommendationer eller feed-ranking kan också modelleras direkt som vektorsökproblem och köras på vektordatabasen utan ett slutgiltigt modellinferenssteg — något befintliga databaser inte kan göra.

Pinecone är den framväxande standarden för att hantera statliga och kontextuella företagsdata i LLM-applikationer. Vi tror att det är en viktig infrastrukturkomponent som tillhandahåller lagrings- eller "minne"-lagret till en helt ny AI-applikationsstack.

Otroliga framsteg för Pinecone hittills

Pinecone är inte den enda vektordatabasen, men vi tror att det är den ledande vektordatabasen – redo nu för användning i verkligheten – med stor marginal. Pinecone har sett 8x tillväxt av betalda kunder (cirka 1,600 XNUMX) på bara tre månader, inklusive framtidsinriktade teknikföretag som Shopify, Gong, Zapier och mer. Det används inom ett brett spektrum av branscher, inklusive företagsprogramvara, konsumentappar, e-handel, fintech, försäkring, media och AI/ML.

Vi tillskriver denna framgång inte bara till teamets djupa förståelse för användaren, marknaden och tekniken, utan också – kritiskt – till deras molnbaserade produktansats från början. En av de svåraste delarna med att bygga den här tjänsten är att tillhandahålla en pålitlig, mycket tillgänglig molnbackend som uppfyller ett brett utbud av kundprestationsmål och SLA:er. Med flera iterationer över produktarkitektur och hantering av många högskaliga, betalda kunder i produktionen, har detta team visat operativ excellens som förväntas av en produktionsdatabas.

Pinecone grundades av Edo Liberty, som har varit en långvarig, inbiten förespråkare för vikten av vektordatabaser i maskininlärning, inklusive hur de kan göra det möjligt för varje företag att bygga användningsfall ovanpå LLM. Som tillämpad matematiker tillbringade han sin karriär med att studera och implementera banbrytande vektorsökningsalgoritmer. Samtidigt var han pragmatiker, byggde ML-kärnverktyg som Sagemaker på AWS och översatte tillämpad ML-forskning till praktiska produkter som kunderna kan använda. Det är ovanligt att se en sådan kombination av djup forskning och pragmatiskt produkttänkande.

Edo får sällskap av Bob Wiederhold, en erfaren VD och operatör (tidigare Couchbase), som partner på verksamhetssidan som VD och COO. Pinecone har också ett fantastiskt team av chefer och ingenjörer med djup molnsystemexpertis från platser som AWS, Google och Databricks. Vi är imponerade av teamets djupa tekniska expertis, fokus på utvecklarupplevelse och effektiva GTM-utförande, och vi har förmånen att samarbeta med dem för att bygga minneslagret för AI-applikationer.

* * *

De åsikter som uttrycks här är de från den individuella AH Capital Management, LLC (“a16z”) personal som citeras och är inte åsikterna från a16z eller dess dotterbolag. Viss information som finns här har erhållits från tredjepartskällor, inklusive från portföljbolag av fonder som förvaltas av a16z. Även om den är hämtad från källor som anses vara tillförlitliga, har a16z inte självständigt verifierat sådan information och gör inga utfästelser om informationens varaktiga riktighet eller dess lämplighet för en given situation. Dessutom kan detta innehåll innehålla tredjepartsannonser; a16z har inte granskat sådana annonser och stöder inte något reklaminnehåll i dem.

Detta innehåll tillhandahålls endast i informationssyfte och bör inte litas på som juridisk rådgivning, affärs-, investerings- eller skatterådgivning. Du bör rådfråga dina egna rådgivare i dessa frågor. Hänvisningar till värdepapper eller digitala tillgångar är endast i illustrativt syfte och utgör inte en investeringsrekommendation eller erbjudande om att tillhandahålla investeringsrådgivningstjänster. Dessutom är detta innehåll inte riktat till eller avsett att användas av några investerare eller potentiella investerare, och får inte under några omständigheter lita på när man fattar ett beslut om att investera i någon fond som förvaltas av a16z. (Ett erbjudande om att investera i en a16z-fond kommer endast att göras av det privata emissionsmemorandumet, teckningsavtalet och annan relevant dokumentation för en sådan fond och bör läsas i sin helhet.) Alla investeringar eller portföljbolag som nämns, hänvisas till, eller beskrivna är inte representativa för alla investeringar i fordon som förvaltas av a16z, och det finns ingen garanti för att investeringarna kommer att vara lönsamma eller att andra investeringar som görs i framtiden kommer att ha liknande egenskaper eller resultat. En lista över investeringar gjorda av fonder som förvaltas av Andreessen Horowitz (exklusive investeringar för vilka emittenten inte har gett tillstånd för a16z att offentliggöra såväl som oanmälda investeringar i börsnoterade digitala tillgångar) finns tillgänglig på https://a16z.com/investments /.

Diagram och grafer som tillhandahålls i är endast i informationssyfte och bör inte litas på när man fattar investeringsbeslut. Tidigare resultat är inte en indikation på framtida resultat. Innehållet talar endast från det angivna datumet. Alla prognoser, uppskattningar, prognoser, mål, framtidsutsikter och/eller åsikter som uttrycks i detta material kan ändras utan föregående meddelande och kan skilja sig åt eller strida mot åsikter som uttrycks av andra. Se https://a16z.com/disclosures för ytterligare viktig information.

Tidsstämpel:

Mer från Andreessen Horowitz