Inwestycja w Pinecone

Inwestycja w Pinecone

Inwestycja w Pinecone PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Wraz z odmianą dużych modeli językowych (LLM) jesteśmy świadkami zmiany paradygmatu w tworzeniu oprogramowania i całej branży komputerowej. Sztuczna inteligencja się dzieje i na naszych oczach tworzy się nowy stos. To tak, jak z Internetem od nowa, który wzywa do działania nowe komponenty infrastruktury zbudowane z myślą o nowym sposobie działania.

Rośnie świadomość, że LLM są w rzeczywistości nowa forma komputera, w pewnym sensie. Mogą uruchamiać „programy” napisane w języku naturalnym (tj. podpowiedzi), wykonywać dowolne zadania obliczeniowe (np. pisać kod w Pythonie lub wyszukiwać w Google) i zwracać wyniki użytkownikowi w formie czytelnej dla człowieka. To wielka sprawa z dwóch powodów: 

  1. Nowa klasa aplikacji wokół podsumowań i treści generatywnych jest obecnie możliwe, co skutkuje zmianą zachowań konsumentów w zakresie korzystania z oprogramowania.
  2. Nowa klasa programistów jest teraz w stanie pisać oprogramowanie. Programowanie komputerowe wymaga teraz jedynie biegłości w języku angielskim (lub innym ludzkim języku), a nie szkolenia w tradycyjnym języku programowania, takim jak Python czy JavaScript. 

Jednym z naszych głównych priorytetów w Andreessen Horowitz jest identyfikacja firm budujących kluczowe komponenty tego nowego stosu sztucznej inteligencji. Z radością ogłaszamy, że prowadzimy rundę Serii B z pulą 100 milionów dolarów szyszka, aby wesprzeć ich wizję stania się warstwą pamięci dla aplikacji AI.

Problem: LLM mają halucynacje i są bezpaństwowcami

Ogromnym wyzwaniem w przypadku obecnych LLM są halucynacje. Dają bardzo pewne odpowiedzi, które są merytorycznie, a czasem logicznie niepoprawne. Na przykład zapytanie LLM o marżę brutto Apple za ostatni kwartał może dać pewną odpowiedź w wysokości 63 miliardów dolarów. Model może nawet poprzeć swoją odpowiedź, wyjaśniając, że odejmując 25 miliardów dolarów kosztu towarów od 95 miliardów dolarów przychodów, uzyskuje się marżę brutto w wysokości 63 miliardów dolarów. Oczywiście jest to błędne w kilku wymiarach:

  • Po pierwsze, liczba przychodów jest błędna, ponieważ LLM nie ma danych w czasie rzeczywistym. Działa na nieaktualnych danych szkoleniowych, które mają miesiące lub prawdopodobnie lata.
  • Po drugie, zebrał te liczby przychodów i kosztów towarów losowo ze sprawozdań finansowych innej firmy owocowej.
  • Po trzecie, jej obliczenie marży brutto nie jest poprawne matematycznie.

Wyobraź sobie, że udzielasz tej odpowiedzi dyrektorowi generalnemu firmy a Majątek 500 firma. 

Wszystko to dzieje się, ponieważ pod koniec dnia LLM są maszynami predykcyjnymi wyszkolonymi na ogromnych ilościach danych internetowych stron trzecich. Często informacje, których potrzebuje użytkownik, po prostu nie znajdują się w zbiorze uczącym. Tak więc model da najbardziej prawdopodobne i dobrze sformatowane językowo odpowiedzi w oparciu o nieaktualne dane szkoleniowe. Możemy już zacząć dostrzegać potencjalne rozwiązanie powyższego problemu — dostarczanie w czasie rzeczywistym istotnych kontekstowo danych przedsiębiorstwa prywatnego do LLM.

Ogólna postać tego problemu polega na tym, że z punktu widzenia systemów modele LLM i większość innych modeli sztucznej inteligencji są bezstanowe na etapie wnioskowania. Za każdym razem, gdy wykonujesz wywołanie interfejsu API GPT-4, dane wyjściowe są zależne tylko od danych i parametrów przesyłanych w ładunku. Model nie ma wbudowanego sposobu włączania danych kontekstowych ani zapamiętywania tego, o co pytałeś wcześniej. Dostrajanie modelu jest możliwe, ale jest drogie i stosunkowo mało elastyczne (tj. model nie może reagować na nowe dane w czasie rzeczywistym). Ponieważ modele nie zarządzają samodzielnie stanem ani pamięcią, wypełnienie luki zależy od programistów. 

Rozwiązanie: Wektorowe bazy danych są warstwą pamięci dla LLM

I tu wkracza Pinecone.

Pinecone to zewnętrzna baza danych, w której programiści mogą przechowywać odpowiednie dane kontekstowe dla aplikacji LLM. Zamiast przesyłać duże kolekcje dokumentów przy każdym wywołaniu API, programiści mogą przechowywać je w bazie danych Pinecone, a następnie wybierać tylko kilka najbardziej odpowiednich dla danego zapytania — jest to podejście zwane uczeniem kontekstowym. Jest to niezbędne, aby przypadki użycia w przedsiębiorstwach naprawdę rozkwitły.

W szczególności, Pinecone jest wektor bazy danych, co oznacza, że ​​dane są przechowywane w postaci semantycznie znaczącej osadzenia. Chociaż techniczne wyjaśnienie osadzania wykracza poza zakres tego postu, ważną częścią do zrozumienia jest to, że LLM działają również na osadzaniach wektorowych — więc dzięki przechowywaniu danych w Pinecone w tym formacie część pracy AI została skutecznie wstępnie przetworzona i wyładowany do bazy danych.

W przeciwieństwie do istniejących baz danych, które są zaprojektowane z myślą o niepodzielnych obciążeniach transakcyjnych lub wyczerpujących obciążeniach analitycznych, wektorowa baza danych (Pinecone) została zaprojektowana z myślą o ostatecznie spójnym przybliżonym wyszukiwaniu sąsiadów, właściwym paradygmacie bazy danych dla wektorów o wyższych wymiarach. Zapewniają również programistyczne API integrujące się z innymi kluczowymi komponentami aplikacji AI, takimi jak OpenAI, Cohere, LangChain itp. Tak przemyślany projekt znacznie ułatwia życie programistom. Proste zadania AI, takie jak wyszukiwanie semantyczne, rekomendacje produktów lub ranking kanałów, można również modelować bezpośrednio jako problemy wyszukiwania wektorów i uruchamiać w bazie danych wektorów bez końcowego kroku wnioskowania o modelu — coś, czego istniejące bazy danych nie mogą zrobić.

Pinecone to wyłaniający się standard zarządzania stanowymi i kontekstowymi danymi przedsiębiorstwa w aplikacjach LLM. Uważamy, że jest to ważny element infrastruktury, zapewniający warstwę pamięci masowej dla zupełnie nowego stosu aplikacji AI.

Niesamowity postęp Pinecone do tej pory

Pinecone nie jest jedyną bazą danych wektorów, ale uważamy, że jest wiodącą bazą danych wektorów — gotową do przyjęcia w świecie rzeczywistym — ze znacznym marginesem. Pinecone odnotował 8-krotny wzrost liczby płatnych klientów (około 1,600) w ciągu zaledwie trzech miesięcy, w tym przyszłościowych firm technologicznych, takich jak Shopify, Gong, Zapier i innych. Jest używany w wielu branżach, w tym w oprogramowaniu dla przedsiębiorstw, aplikacjach konsumenckich, handlu elektronicznym, fintech, ubezpieczeniach, mediach i AI/ML.

Przypisujemy ten sukces nie tylko głębokiemu zrozumieniu użytkownika, rynku i technologii przez zespół, ale także — co najważniejsze — ich podejściu do produktów natywnych dla chmury od samego początku. Jedną z najtrudniejszych części tworzenia tej usługi jest zapewnienie niezawodnego zaplecza w chmurze o wysokiej dostępności, które spełnia szeroki zakres celów wydajnościowych klientów i umów SLA. Dzięki wielokrotnym iteracjom w architekturze produktu i zarządzaniu wieloma płatnymi klientami na dużą skalę w środowisku produkcyjnym zespół ten wykazał doskonałość operacyjną, jakiej oczekuje się od produkcyjnej bazy danych.

szyszka została założona przez Edo Liberty, który od dawna jest zagorzałym orędownikiem znaczenia wektorowych baz danych w uczeniu maszynowym, w tym tego, jak mogą one umożliwić każdemu przedsiębiorstwu budowanie przypadków użycia na bazie LLM. Jako matematyk stosowany poświęcił swoją karierę na studiowanie i wdrażanie najnowocześniejszych algorytmów wyszukiwania wektorów. Jednocześnie był pragmatykiem, budując podstawowe narzędzia ML, takie jak Sagemaker w AWS, i tłumacząc stosowane badania ML na praktyczne produkty, z których mogą korzystać klienci. Rzadko spotyka się takie połączenie głębokich badań i pragmatycznego myślenia o produkcie.

Do Edo dołącza Bob Wiederhold, doświadczony dyrektor generalny i operator (dawniej Couchbase), jako partner po stronie operacyjnej jako prezes i dyrektor operacyjny. Pinecone ma również fantastyczny zespół kierowników i inżynierów z głęboką wiedzą na temat systemów chmurowych z miejsc takich jak AWS, Google i Databricks. Jesteśmy pod wrażeniem głębokiej wiedzy inżynieryjnej zespołu, skupienia się na doświadczeniu programistów i wydajnej realizacji GTM, i mamy zaszczyt współpracować z nimi w celu zbudowania warstwy pamięci dla aplikacji AI.

* * *

Wyrażone tutaj poglądy są poglądami poszczególnych cytowanych pracowników AH Capital Management, LLC („a16z”) i nie są poglądami a16z ani jej podmiotów stowarzyszonych. Niektóre informacje w nim zawarte zostały pozyskane ze źródeł zewnętrznych, w tym od spółek portfelowych funduszy zarządzanych przez a16z. Chociaż pochodzi ze źródeł uważanych za wiarygodne, a16z nie zweryfikowała niezależnie takich informacji i nie składa żadnych oświadczeń dotyczących trwałej dokładności informacji lub ich adekwatności w danej sytuacji. Ponadto treści te mogą zawierać reklamy osób trzecich; a16z nie przeglądał takich reklam i nie popiera żadnych zawartych w nich treści reklamowych.

Te treści są udostępniane wyłącznie w celach informacyjnych i nie należy ich traktować jako porady prawnej, biznesowej, inwestycyjnej lub podatkowej. Powinieneś skonsultować się w tych sprawach z własnymi doradcami. Odniesienia do jakichkolwiek papierów wartościowych lub aktywów cyfrowych służą wyłącznie celom ilustracyjnym i nie stanowią rekomendacji inwestycyjnej ani oferty świadczenia usług doradztwa inwestycyjnego. Ponadto treść ta nie jest skierowana ani przeznaczona do użytku przez jakichkolwiek inwestorów lub potencjalnych inwestorów iw żadnym wypadku nie można na nich polegać przy podejmowaniu decyzji o zainwestowaniu w jakikolwiek fundusz zarządzany przez a16z. (Oferta inwestycji w fundusz a16z zostanie złożona wyłącznie na podstawie memorandum dotyczącego oferty prywatnej, umowy subskrypcyjnej i innej odpowiedniej dokumentacji takiego funduszu i należy ją przeczytać w całości.) Wszelkie inwestycje lub spółki portfelowe wymienione, wymienione lub opisane nie są reprezentatywne dla wszystkich inwestycji w pojazdy zarządzane przez a16z i nie można zapewnić, że inwestycje będą opłacalne lub że inne inwestycje dokonane w przyszłości będą miały podobne cechy lub wyniki. Lista inwestycji dokonanych przez fundusze zarządzane przez Andreessena Horowitza (z wyłączeniem inwestycji, w przypadku których emitent nie wyraził zgody na publiczne ujawnienie przez a16z oraz niezapowiedzianych inwestycji w aktywa cyfrowe będące w obrocie publicznym) jest dostępna pod adresem https://a16z.com/investments /.

Wykresy i wykresy zamieszczone w niniejszym dokumencie służą wyłącznie celom informacyjnym i nie należy na nich polegać przy podejmowaniu jakichkolwiek decyzji inwestycyjnych. Wyniki osiągnięte w przeszłości nie wskazują na przyszłe wyniki. Treść mówi dopiero od wskazanej daty. Wszelkie prognozy, szacunki, prognozy, cele, perspektywy i/lub opinie wyrażone w tych materiałach mogą ulec zmianie bez powiadomienia i mogą się różnić lub być sprzeczne z opiniami wyrażanymi przez innych. Dodatkowe ważne informacje można znaleźć na stronie https://a16z.com/disclosures.

Znak czasu:

Więcej z Andreessen Horowitz