Investering i Pinecone

Investering i Pinecone

Investering i Pinecone PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Med bøyningen av store språkmodeller (LLM) er vi vitne til et paradigmeskifte innen programvareutvikling og dataindustrien som helhet. AI skjer og en ny stabel dannes foran øynene våre. Det er som Internett igjen, som tar i bruk nye infrastrukturkomponenter bygget for den nye måten å gjøre ting på.

Det er økende anerkjennelse av at LLM-er faktisk er det en ny form for datamaskin, på en måte. De kan kjøre "programmer" skrevet på naturlig språk (dvs. ledetekster), utføre vilkårlige databehandlingsoppgaver (f.eks. skrive Python-kode eller søke på Google), og returnere resultatene tilbake til brukeren i en menneskelig lesbar form. Dette er en stor sak, av to grunner: 

  1. En ny klasse med applikasjoner rundt oppsummering og generativt innhold er nå mulig, noe som resulterer i en endring i forbrukeratferd rundt programvareforbruk.
  2. En ny klasse av utviklere er nå i stand til å skrive programvare. Dataprogrammering krever nå bare mestring av engelsk (eller et annet menneskelig språk), ikke trening i et tradisjonelt programmeringsspråk som Python eller JavaScript. 

En av våre toppprioriteringer hos Andreessen Horowitz er å identifisere selskapene som bygger nøkkelkomponentene i denne nye AI-stakken. Vi er glade for å kunngjøre at vi leder en serie B-runde på $100 millioner konglen, for å støtte deres visjon om å bli minnelaget for AI-applikasjoner.

Problemet: LLM-er hallusinerer og er statsløse

En stor utfordring med nåværende LLM-er er hallusinasjoner. De gir svært sikre svar som er faktisk og noen ganger logisk feil. For eksempel kan det å spørre en LLM om bruttomarginen til Apple for siste kvartal resultere i et sikkert svar på 63 milliarder dollar. Modellen kan til og med støtte svaret sitt ved å forklare at ved å trekke 25 milliarder dollar i varekostnadene fra 95 milliarder dollar i inntekter, får man en bruttomargin på 63 milliarder dollar. Selvfølgelig er det feil på flere dimensjoner:

  • For det første er inntektsnummeret feil, siden LLM ikke har sanntidsdata. Den jobber med foreldede treningsdata som er måneder eller sannsynligvis år gamle.
  • For det andre hentet den disse inntektene og varekostnadene tilfeldig fra et annet fruktselskaps regnskap.
  • For det tredje er bruttomarginberegningen ikke matematisk korrekt.

Tenk deg å gi det svaret til administrerende direktør i en Fortune 500 selskap. 

Alt dette skjer fordi, på slutten av dagen, er LLM-er prediksjonsmaskiner som er trent på enorme mengder tredjeparts internettdata. Ofte er informasjonen brukeren trenger rett og slett ikke i treningssettet. Så modellen vil gi de mest sannsynlige og språklig velformaterte svarene basert på foreldede treningsdata. Vi kan allerede begynne å se en potensiell løsning på problemet ovenfor – mating av kontekstuelt relevante private bedriftsdata i sanntid til LLM-ene.

Den generelle formen for dette problemet er at fra et systemperspektiv er LLM-er og de fleste andre AI-modeller statsløse ved slutningstrinnet. Hver gang du ringer til GPT-4 API, avhenger utdataene bare på dataene og parameterne du sender i nyttelasten. Modellen har ingen innebygd måte å inkorporere kontekstuelle data på eller huske hva du har spurt om før. Modellfinjustering er mulig, men det er dyrt og relativt lite fleksibelt (dvs. modellen kan ikke svare på nye data i sanntid). Siden modellene ikke administrerer tilstand eller minne på egen hånd, er det opp til utviklere å fylle gapet. 

Løsningen: Vektordatabaser er lagringslaget for LLM-er

Det er her Pinecone kommer inn.

Pinecone er en ekstern database der utviklere kan lagre relevante kontekstuelle data for LLM-apper. I stedet for å sende store dokumentsamlinger frem og tilbake med hvert API-kall, kan utviklere lagre dem i en Pinecone-database, og deretter velge de få som er mest relevante for en gitt spørring – en tilnærming som kalles kontekstlæring. Det er et must for bedriftsbruk for å virkelig blomstre.

Spesielt Pinecone er en vektor database, som betyr at data lagres i form av semantisk meningsfulle embeddinger. Selv om en teknisk forklaring av innebygging er utenfor rammen av dette innlegget, er den viktige delen å forstå at LLM-er også opererer på vektorinnbygginger - så ved å lagre data i Pinecone i dette formatet, har en del av AI-arbeidet effektivt blitt forhåndsbehandlet og avlastet til databasen.

I motsetning til eksisterende databaser, som er designet for atomære transaksjonelle eller uttømmende analytiske arbeidsbelastninger, er (Pinecone) vektordatabasen designet for til slutt konsistent omtrentlig nabosøk, det riktige databaseparadigmet for høyere dimensjonale vektorer. De tilbyr også utvikler-API-er som integreres med andre nøkkelkomponenter i AI-applikasjoner, som OpenAI, Cohere, LangChain osv. Et slikt gjennomtenkt design gjør utviklernes liv mye enklere. Enkle AI-oppgaver som semantisk søk, produktanbefalinger eller feed-rangering kan også modelleres direkte som vektorsøkeproblemer og kjøres på vektordatabasen uten et siste modellslutningstrinn — noe eksisterende databaser ikke kan gjøre.

Pinecone er den nye standarden for å administrere statlige og kontekstuelle bedriftsdata i LLM-applikasjoner. Vi tror det er en viktig infrastrukturkomponent som gir lagrings- eller "minne"-laget til en helt ny AI-applikasjonsstabel.

Utrolig fremgang for Pinecone til dags dato

Pinecone er ikke den eneste vektordatabasen, men vi tror at den er den ledende vektordatabasen – klar nå for bruk i den virkelige verden – med betydelig margin. Pinecone har sett 8 ganger vekst i betalte kunder (omtrent 1,600) på bare tre måneder, inkludert fremtidsrettede teknologiselskaper som Shopify, Gong, Zapier og mer. Den brukes på tvers av et bredt spekter av bransjer, inkludert bedriftsprogramvare, forbrukerapper, e-handel, fintech, forsikring, media og AI/ML.

Vi tilskriver denne suksessen ikke bare teamets dype forståelse av brukeren, markedet og teknologien, men også – kritisk – til deres skybaserte produkttilnærming fra starten av. En av de vanskeligste delene av å bygge denne tjenesten er å tilby en pålitelig, svært tilgjengelig nettskystøtte som oppfyller et bredt spekter av kundeytelsesmål og SLAer. Med flere gjentakelser over produktarkitektur, og administrasjon av mange høyskala, betalte kunder i produksjon, har dette teamet vist driftsmessig fortreffelighet som forventes av en produksjonsdatabase.

konglen ble grunnlagt av Edo Liberty, som har vært en langvarig, hard talsmann for viktigheten av vektordatabaser i maskinlæring, inkludert hvordan de kan sette enhver bedrift i stand til å bygge brukstilfeller på toppen av LLM-er. Som anvendt matematiker brukte han sin karriere på å studere og implementere banebrytende vektorsøkealgoritmer. Samtidig var han pragmatiker, bygde ML-kjerneverktøy som Sagemaker ved AWS, og oversatte anvendt ML-forskning til praktiske produkter som kundene kan bruke. Det er sjelden å se en slik kombinasjon av dyp forskning og pragmatisk produkttenkning.

Edo får selskap av Bob Wiederhold, en erfaren administrerende direktør og operatør (tidligere Couchbase), som en partner på driftssiden som president og COO. Pinecone har også et fantastisk team av ledere og ingeniører med dyp ekspertise innen skysystemer fra steder som AWS, Google og Databricks. Vi er imponert over teamets dype ingeniørkompetanse, fokus på utvikleropplevelse og effektive GTM-utførelse, og vi er privilegerte som samarbeider med dem for å bygge minnelaget for AI-applikasjoner.

* * *

Synspunktene som uttrykkes her er de fra individuelle AH Capital Management, LLC (“a16z”) personell som er sitert og er ikke synspunktene til a16z eller dets tilknyttede selskaper. Visse opplysninger her er innhentet fra tredjepartskilder, inkludert fra porteføljeselskaper av fond forvaltet av a16z. Selv om a16z er hentet fra kilder som antas å være pålitelige, har ikke a16z uavhengig verifisert slik informasjon og gir ingen representasjoner om den varige nøyaktigheten til informasjonen eller dens hensiktsmessighet for en gitt situasjon. I tillegg kan dette innholdet inkludere tredjepartsannonser; aXNUMXz har ikke vurdert slike annonser og støtter ikke noe reklameinnhold som finnes deri.

Dette innholdet er kun gitt for informasjonsformål, og bør ikke stoles på som juridisk, forretningsmessig, investerings- eller skatterådgivning. Du bør rådføre deg med dine egne rådgivere om disse sakene. Referanser til verdipapirer eller digitale eiendeler er kun for illustrasjonsformål, og utgjør ikke en investeringsanbefaling eller tilbud om å tilby investeringsrådgivningstjenester. Videre er dette innholdet ikke rettet mot eller ment for bruk av noen investorer eller potensielle investorer, og kan ikke under noen omstendigheter stoles på når du tar en beslutning om å investere i et fond som forvaltes av a16z. (Et tilbud om å investere i et a16z-fond vil kun gis av det private emisjonsmemorandumet, tegningsavtalen og annen relevant dokumentasjon for et slikt fond og bør leses i sin helhet.) Eventuelle investeringer eller porteføljeselskaper nevnt, referert til, eller beskrevet er ikke representative for alle investeringer i kjøretøy forvaltet av a16z, og det kan ikke gis noen garanti for at investeringene vil være lønnsomme eller at andre investeringer som gjøres i fremtiden vil ha lignende egenskaper eller resultater. En liste over investeringer foretatt av fond forvaltet av Andreessen Horowitz (unntatt investeringer som utstederen ikke har gitt tillatelse til at a16z kan offentliggjøre så vel som uanmeldte investeringer i børsnoterte digitale eiendeler) er tilgjengelig på https://a16z.com/investments /.

Diagrammer og grafer gitt i er kun for informasjonsformål og bør ikke stoles på når du tar investeringsbeslutninger. Tidligere resultater er ikke en indikasjon på fremtidige resultater. Innholdet taler kun fra den angitte datoen. Eventuelle anslag, estimater, prognoser, mål, prospekter og/eller meninger uttrykt i dette materialet kan endres uten varsel og kan avvike eller være i strid med meninger uttrykt av andre. Vennligst se https://a16z.com/disclosures for ytterligere viktig informasjon.

Tidstempel:

Mer fra Andreessen Horowitz