Investire in Pigna

Investire in Pigna

Investire nella Data Intelligence di Pinecone PlatoBlockchain. Ricerca verticale. Ai.

Con l'inflessione dei grandi modelli linguistici (LLM), stiamo assistendo a un cambio di paradigma nello sviluppo del software e nell'industria informatica nel suo complesso. L'intelligenza artificiale sta accadendo e un nuovo stack si sta formando davanti ai nostri occhi. È di nuovo come Internet, che chiama in servizio nuovi componenti infrastrutturali costruiti per il nuovo modo di fare le cose.

C'è un crescente riconoscimento che gli LLM sono in realtà una nuova forma di computer, in un certo senso. Possono eseguire "programmi" scritti in linguaggio naturale (ad esempio, prompt), eseguire attività di calcolo arbitrarie (ad esempio, scrivere codice Python o cercare su Google) e restituire i risultati all'utente in una forma leggibile dall'uomo. Questo è un grosso problema, per due motivi: 

  1. Una nuova classe di applicazioni relative alla sintesi e al contenuto generativo è ora possibile con conseguente cambiamento del comportamento dei consumatori in merito al consumo di software.
  2. Una nuova classe di sviluppatori è ora in grado di scrivere software. La programmazione informatica ora richiede solo la padronanza dell'inglese (o di un'altra lingua umana), non la formazione in un linguaggio di programmazione tradizionale come Python o JavaScript. 

Una delle nostre massime priorità in Andreessen Horowitz è identificare le aziende che costruiscono i componenti chiave di questo nuovo stack di intelligenza artificiale. Siamo entusiasti di annunciare che stiamo conducendo un round di serie B da 100 milioni di dollari pigna, per supportare la loro visione di diventare il livello di memoria per le applicazioni AI.

Il problema: gli LLM hanno allucinazioni e sono apolidi

Una grande sfida con gli attuali LLM è l'allucinazione. Danno risposte molto sicure che sono effettivamente e talvolta logicamente errate. Ad esempio, chiedere a un LLM il margine lordo di Apple per l'ultimo trimestre può portare a una risposta sicura di $ 63 miliardi. Il modello può persino sostenere la sua risposta spiegando che sottraendo $ 25 miliardi di costo delle merci da $ 95 miliardi di entrate, si ottiene un margine lordo di $ 63 miliardi. Naturalmente, è sbagliato su diverse dimensioni:

  • Innanzitutto, il numero delle entrate è sbagliato, poiché LLM non dispone di dati in tempo reale. Sta elaborando dati di addestramento obsoleti che risalgono a mesi o probabilmente anni.
  • In secondo luogo, ha prelevato casualmente quei numeri di entrate e costi delle merci dai rendiconti finanziari di un'altra azienda di frutta.
  • In terzo luogo, il suo calcolo del margine lordo non è matematicamente corretto.

Immagina di dare quella risposta al CEO di a Fortune 500 società. 

Tutto ciò accade perché, in fin dei conti, gli LLM sono macchine di previsione addestrate su grandi quantità di dati Internet di terze parti. Spesso, le informazioni di cui l'utente ha bisogno semplicemente non sono nel training set. Pertanto, il modello fornirà le risposte più probabili e linguisticamente ben formattate in base ai suoi dati di addestramento obsoleti. Possiamo già iniziare a vedere una potenziale soluzione al problema di cui sopra: fornire dati di imprese private contestualmente rilevanti in tempo reale agli LLM.

La forma generale di questo problema è che, dal punto di vista dei sistemi, gli LLM e la maggior parte degli altri modelli di intelligenza artificiale sono senza stato nella fase di inferenza. Ogni volta che effettui una chiamata all'API GPT-4, l'output dipende esclusivamente sui dati e sui parametri inviati nel payload. Il modello non ha un modo integrato per incorporare dati contestuali o ricordare ciò che hai chiesto prima. La messa a punto del modello è possibile, ma è costosa e relativamente poco flessibile (ovvero, il modello non può rispondere a nuovi dati in tempo reale). Poiché i modelli non gestiscono lo stato o la memoria da soli, spetta agli sviluppatori colmare il divario. 

La soluzione: i database vettoriali sono il livello di archiviazione per gli LLM

È qui che entra in gioco Pinecone.

Pinecone è un database esterno in cui gli sviluppatori possono archiviare dati contestuali rilevanti per le app LLM. Invece di inviare grandi raccolte di documenti avanti e indietro con ogni chiamata API, gli sviluppatori possono archiviarli in un database Pinecone, quindi scegliere solo i pochi più rilevanti per una determinata query, un approccio chiamato apprendimento in contesto. È un must per far fiorire davvero i casi d'uso aziendali.

In particolare, Pinecone è un vettore database, il che significa che i dati sono archiviati sotto forma di semanticamente significativi incastri. Mentre una spiegazione tecnica degli incorporamenti va oltre lo scopo di questo post, la parte importante da capire è che gli LLM operano anche su incorporamenti vettoriali, quindi memorizzando i dati in Pinecone in questo formato, parte del lavoro dell'IA è stato effettivamente pre-elaborato e scaricato nel database.

A differenza dei database esistenti, che sono progettati per carichi di lavoro analitici transazionali atomici o esaustivi, il database vettoriale (Pinecone) è progettato per la ricerca di vicini approssimativi alla fine coerenti, il paradigma di database giusto per vettori di dimensioni superiori. Forniscono inoltre API per sviluppatori che si integrano con altri componenti chiave delle applicazioni AI, come OpenAI, Cohere, LangChain, ecc. Un design così ben congegnato rende la vita degli sviluppatori molto più semplice. Semplici attività di intelligenza artificiale come la ricerca semantica, i consigli sui prodotti o il ranking dei feed possono anche essere modellati direttamente come problemi di ricerca vettoriale ed eseguiti sul database vettoriale senza un passaggio finale di inferenza del modello: qualcosa che i database esistenti non possono fare.

Pinecone è lo standard emergente per la gestione dei dati statali e aziendali contestuali nelle applicazioni LLM. Riteniamo che sia un importante componente dell'infrastruttura, che fornisce il livello di storage, o "memoria", a un nuovissimo stack di applicazioni AI.

Incredibili progressi per Pinecone fino ad oggi

Pinecone non è l'unico database vettoriale, ma riteniamo che sia il principale database vettoriale, pronto ora per l'adozione nel mondo reale, con un margine significativo. Pinecone ha registrato una crescita di 8 volte dei clienti paganti (circa 1,600) in soli tre mesi, comprese aziende tecnologiche lungimiranti come Shopify, Gong, Zapier e altre. Viene utilizzato in un'ampia gamma di settori, tra cui software aziendale, app di consumo, e-commerce, fintech, assicurazioni, media e AI/ML.

Attribuiamo questo successo non solo alla profonda conoscenza del team dell'utente, del mercato e della tecnologia, ma anche, in modo critico, al loro approccio al prodotto cloud-native fin dall'inizio. Una delle parti più difficili della creazione di questo servizio è fornire un back-end cloud affidabile e altamente disponibile che soddisfi un'ampia gamma di obiettivi di prestazione del cliente e SLA. Con più iterazioni sull'architettura del prodotto e la gestione di molti clienti pagati su larga scala in produzione, questo team ha dimostrato l'eccellenza operativa che ci si aspetta da un database di produzione.

pigna è stata fondata da Edo Liberty, che è stato un sostenitore irriducibile e di lunga data dell'importanza dei database vettoriali nell'apprendimento automatico, incluso il modo in cui possono consentire a ogni azienda di creare casi d'uso su LLM. Come matematico applicato, ha trascorso la sua carriera studiando e implementando algoritmi di ricerca vettoriale all'avanguardia. Allo stesso tempo, era un pragmatico, costruendo strumenti ML di base come Sagemaker presso AWS e traducendo la ricerca ML applicata in prodotti pratici che i clienti possono utilizzare. È raro vedere una tale combinazione di ricerca approfondita e pensiero pragmatico sul prodotto.

Edo è affiancato da Bob Wiederhold, un CEO e operatore esperto (ex Couchbase), come partner sul lato operativo come Presidente e COO. Pinecone ha anche un fantastico team di dirigenti e ingegneri con una profonda esperienza nei sistemi cloud provenienti da luoghi come AWS, Google e Databricks. Siamo impressionati dalla profonda competenza ingegneristica del team, dall'attenzione all'esperienza degli sviluppatori e dall'efficiente esecuzione di GTM, e abbiamo il privilegio di collaborare con loro per costruire il livello di memoria per le applicazioni AI.

* * *

Le opinioni qui espresse sono quelle del personale di AH Capital Management, LLC ("a16z") citato e non sono le opinioni di a16z o delle sue affiliate. Alcune informazioni qui contenute sono state ottenute da fonti di terze parti, incluse società in portafoglio di fondi gestiti da a16z. Sebbene tratti da fonti ritenute affidabili, a16z non ha verificato in modo indipendente tali informazioni e non fornisce dichiarazioni sull'accuratezza duratura delle informazioni o sulla loro adeguatezza per una determinata situazione. Inoltre, questo contenuto può includere pubblicità di terze parti; a16z non ha esaminato tali annunci pubblicitari e non approva alcun contenuto pubblicitario in essi contenuto.

Questo contenuto viene fornito solo a scopo informativo e non deve essere considerato come consulenza legale, commerciale, di investimento o fiscale. Dovresti consultare i tuoi consulenti in merito a tali questioni. I riferimenti a qualsiasi titolo o risorsa digitale sono solo a scopo illustrativo e non costituiscono una raccomandazione di investimento o un'offerta per fornire servizi di consulenza in materia di investimenti. Inoltre, questo contenuto non è diretto né destinato all'uso da parte di investitori o potenziali investitori e non può in alcun caso essere invocato quando si decide di investire in qualsiasi fondo gestito da a16z. (Un'offerta per investire in un fondo a16z sarà fatta solo dal memorandum di collocamento privato, dal contratto di sottoscrizione e da altra documentazione pertinente di tale fondo e dovrebbe essere letta nella sua interezza.) Eventuali investimenti o società in portafoglio menzionati, citati o descritti non sono rappresentativi di tutti gli investimenti in veicoli gestiti da a16z, e non si può garantire che gli investimenti saranno redditizi o che altri investimenti effettuati in futuro avranno caratteristiche o risultati simili. Un elenco degli investimenti effettuati da fondi gestiti da Andreessen Horowitz (esclusi gli investimenti per i quali l'emittente non ha autorizzato a16z a divulgare pubblicamente e gli investimenti non annunciati in asset digitali quotati in borsa) è disponibile all'indirizzo https://a16z.com/investments /.

Grafici e grafici forniti all'interno sono esclusivamente a scopo informativo e non dovrebbero essere presi in considerazione quando si prende una decisione di investimento. I rendimenti passati non sono indicativi di risultati futuri. Il contenuto parla solo a partire dalla data indicata. Eventuali proiezioni, stime, previsioni, obiettivi, prospettive e/o opinioni espresse in questi materiali sono soggette a modifiche senza preavviso e possono differire o essere contrarie alle opinioni espresse da altri. Si prega di consultare https://a16z.com/disclosures per ulteriori informazioni importanti.

Timestamp:

Di più da Andreessen Horowitz