Investieren in Tannenzapfen

Investieren in Tannenzapfen

Investition in Pinecone PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Mit der Einführung von Large Language Models (LLMs) erleben wir einen Paradigmenwechsel in der Softwareentwicklung und der Computerindustrie insgesamt. KI passiert und ein neuer Stapel bildet sich vor unseren Augen. Es ist wieder wie beim Internet, das neue Infrastrukturkomponenten in Betrieb nimmt, die für die neue Art, Dinge zu tun, gebaut wurden.

Es wird zunehmend anerkannt, dass LLMs tatsächlich sind eine neue Computerform, auf gewisse Art und Weise. Sie können „Programme“ ausführen, die in natürlicher Sprache geschrieben sind (dh Eingabeaufforderungen), beliebige Computeraufgaben ausführen (z. B. Python-Code schreiben oder Google durchsuchen) und die Ergebnisse in einer für Menschen lesbaren Form an den Benutzer zurückgeben. Das ist aus zwei Gründen eine große Sache: 

  1. Eine neue Klasse von Anwendungen rund um Zusammenfassung und generative Inhalte ist jetzt möglich, was zu einer Änderung des Verbraucherverhaltens in Bezug auf den Softwarekonsum führt.
  2. Eine neue Klasse von Entwicklern ist jetzt in der Lage, Software zu schreiben. Die Computerprogrammierung erfordert jetzt nur die Beherrschung der englischen Sprache (oder einer anderen menschlichen Sprache), keine Schulung in einer traditionellen Programmiersprache wie Python oder JavaScript. 

Eine unserer obersten Prioritäten bei Andreessen Horowitz ist es, die Unternehmen zu identifizieren, die die Schlüsselkomponenten dieses neuen KI-Stacks bauen. Wir freuen uns, Ihnen mitteilen zu können, dass wir eine Serie-B-Runde im Wert von 100 Millionen US-Dollar anführen Tannenzapfen, um ihre Vision zu unterstützen, die Speicherschicht für KI-Anwendungen zu werden.

Das Problem: LLMs halluzinieren und sind staatenlos

Eine große Herausforderung bei aktuellen LLMs ist die Halluzination. Sie geben sehr selbstbewusste Antworten, die sachlich und manchmal logisch falsch sind. Wenn Sie beispielsweise einen LLM nach der Bruttomarge von Apple für das letzte Quartal fragen, kann dies zu einer zuversichtlichen Antwort von 63 Milliarden US-Dollar führen. Das Modell kann seine Antwort sogar untermauern, indem es erklärt, dass man eine Bruttomarge von 25 Milliarden US-Dollar erhält, wenn man 95 Milliarden US-Dollar an Warenkosten von 63 Milliarden US-Dollar Umsatz abzieht. Natürlich ist es in mehreren Dimensionen falsch:

  • Erstens ist die Umsatzzahl falsch, da das LLM keine Echtzeitdaten hat. Es verarbeitet veraltete Trainingsdaten, die Monate oder wahrscheinlich Jahre alt sind.
  • Zweitens wurden diese Umsatz- und Warenkostenzahlen zufällig aus den Jahresabschlüssen eines anderen Obstunternehmens entnommen.
  • Drittens ist die Berechnung der Bruttomarge mathematisch nicht korrekt.

Stellen Sie sich vor, Sie geben diese Antwort dem CEO von a Vermögen 500 Unternehmen. 

All dies geschieht, weil LLMs letztendlich Vorhersagemaschinen sind, die mit riesigen Mengen von Internetdaten von Drittanbietern trainiert werden. Oft sind die Informationen, die der Benutzer benötigt, einfach nicht im Trainingssatz enthalten. Das Modell wird also basierend auf seinen veralteten Trainingsdaten die wahrscheinlichsten und sprachlich am besten formatierten Antworten geben. Wir können bereits eine potenzielle Lösung für das obige Problem sehen – die Bereitstellung kontextrelevanter privater Unternehmensdaten in Echtzeit an die LLMs.

Die allgemeine Form dieses Problems besteht darin, dass LLMs und die meisten anderen KI-Modelle aus Systemsicht beim Inferenzschritt zustandslos sind. Bei jedem Aufruf der GPT-4-API hängt die Ausgabe davon ab einzige auf den Daten und Parametern, die Sie in der Nutzlast senden. Das Modell hat keine integrierte Möglichkeit, kontextbezogene Daten einzubinden oder sich daran zu erinnern, was Sie zuvor gefragt haben. Eine Feinabstimmung des Modells ist möglich, aber teuer und relativ unflexibel (dh das Modell kann nicht in Echtzeit auf neue Daten reagieren). Da die Modelle Status oder Speicher nicht selbst verwalten, ist es Sache der Entwickler, die Lücke zu füllen. 

Die Lösung: Vektordatenbanken sind die Speicherschicht für LLMs

Hier kommt Tannenzapfen ins Spiel.

Pinecone ist eine externe Datenbank, in der Entwickler relevante Kontextdaten für LLM-Apps speichern können. Anstatt bei jedem API-Aufruf große Dokumentensammlungen hin und her zu senden, können Entwickler sie in einer Pinecone-Datenbank speichern und dann nur die wenigen auswählen, die für eine bestimmte Abfrage am relevantesten sind – ein Ansatz, der als In-Context-Learning bezeichnet wird. Es ist ein Muss für Anwendungsfälle in Unternehmen, um wirklich aufzublühen.

Insbesondere Pinecone ist ein Vektor Datenbank, was bedeutet, dass Daten in semantisch sinnvoller Form gespeichert werden Einbettungen. Während eine technische Erklärung der Einbettungen den Rahmen dieses Beitrags sprengen würde, ist es wichtig zu verstehen, dass LLMs auch mit Vektoreinbettungen arbeiten – durch das Speichern von Daten in Pinecone in diesem Format wurde also ein Teil der KI-Arbeit effektiv vorverarbeitet und in die Datenbank ausgelagert.

Im Gegensatz zu bestehenden Datenbanken, die für atomare Transaktions- oder erschöpfende analytische Workloads ausgelegt sind, ist die (Pinecone)-Vektordatenbank für eine schließlich konsistente ungefähre Nachbarsuche konzipiert, das richtige Datenbankparadigma für höherdimensionale Vektoren. Sie bieten auch Entwickler-APIs, die sich in andere Schlüsselkomponenten von KI-Anwendungen wie OpenAI, Cohere, LangChain usw. integrieren lassen. Ein solch gut durchdachtes Design erleichtert das Leben von Entwicklern erheblich. Einfache KI-Aufgaben wie semantische Suche, Produktempfehlungen oder Feed-Ranking können auch direkt als Vektorsuchprobleme modelliert und ohne einen abschließenden Modellinferenzschritt auf der Vektordatenbank ausgeführt werden — etwas, was vorhandene Datenbanken nicht können.

Pinecone ist der aufstrebende Standard für die Verwaltung von Zustands- und kontextbezogenen Unternehmensdaten in LLM-Anwendungen. Wir glauben, dass es sich um eine wichtige Infrastrukturkomponente handelt, die die Speicher- oder „Speicherschicht“ für einen brandneuen KI-Anwendungsstapel bereitstellt.

Unglaubliche Fortschritte für Pinecone bis heute

Pinecone ist nicht die einzige Vektordatenbank, aber wir glauben, dass es die führende Vektordatenbank ist – jetzt bereit für die Einführung in der realen Welt – mit deutlichem Vorsprung. Pinecone verzeichnete in nur drei Monaten ein achtfaches Wachstum der zahlenden Kunden (ca. 8), darunter zukunftsorientierte Technologieunternehmen wie Shopify, Gong, Zapier und mehr. Es wird in einer Vielzahl von Branchen eingesetzt, darunter Unternehmenssoftware, Verbraucher-Apps, E-Commerce, Fintech, Versicherungen, Medien und KI/ML.

Wir führen diesen Erfolg nicht nur auf das tiefe Verständnis des Teams für Benutzer, Markt und Technologie zurück, sondern auch – entscheidend – auf seinen Cloud-nativen Produktansatz von Anfang an. Einer der schwierigsten Teile beim Aufbau dieses Dienstes ist die Bereitstellung eines zuverlässigen, hochverfügbaren Cloud-Backends, das eine Vielzahl von Leistungszielen und SLAs für Kunden erfüllt. Mit mehreren Iterationen der Produktarchitektur und der Verwaltung vieler hochrangiger, zahlender Kunden in der Produktion hat dieses Team die operative Exzellenz gezeigt, die von einer Produktionsdatenbank erwartet wird.

Tannenzapfen wurde von Edo Liberty gegründet, der sich seit langem für die Bedeutung von Vektordatenbanken beim maschinellen Lernen einsetzt, einschließlich der Frage, wie sie es jedem Unternehmen ermöglichen können, Anwendungsfälle auf LLMs aufzubauen. Als angewandter Mathematiker verbrachte er seine Karriere damit, modernste Vektorsuchalgorithmen zu studieren und zu implementieren. Gleichzeitig war er ein Pragmatiker, der zentrale ML-Tools wie Sagemaker bei AWS entwickelte und angewandte ML-Forschung in praktische Produkte übersetzte, die Kunden nutzen können. Selten sieht man eine solche Kombination aus gründlicher Recherche und pragmatischem Produktdenken.

Edo wird von Bob Wiederhold, einem erfahrenen CEO und Betreiber (ehemals Couchbase), als Partner auf der Betriebsseite als Präsident und COO unterstützt. Pinecone verfügt außerdem über ein fantastisches Team von Führungskräften und Ingenieuren mit umfassender Erfahrung in Cloud-Systemen von Orten wie AWS, Google und Databricks. Wir sind beeindruckt von der umfassenden technischen Expertise des Teams, dem Fokus auf Entwicklererfahrung und der effizienten GTM-Ausführung, und wir fühlen uns privilegiert, mit ihnen zusammenzuarbeiten, um die Speicherschicht für KI-Anwendungen aufzubauen.

* * *

Die hier geäußerten Ansichten sind die der einzelnen zitierten Mitarbeiter von AH Capital Management, LLC („a16z“) und nicht die Ansichten von a16z oder seinen verbundenen Unternehmen. Bestimmte hierin enthaltene Informationen stammen aus Drittquellen, einschließlich von Portfoliounternehmen von Fonds, die von a16z verwaltet werden. Obwohl sie aus als zuverlässig erachteten Quellen stammen, hat a16z solche Informationen nicht unabhängig überprüft und gibt keine Zusicherungen über die dauerhafte Genauigkeit der Informationen oder ihre Angemessenheit für eine bestimmte Situation. Darüber hinaus kann dieser Inhalt Werbung von Drittanbietern enthalten; a16z hat solche Anzeigen nicht überprüft und unterstützt keine darin enthaltenen Werbeinhalte.

Dieser Inhalt wird nur zu Informationszwecken bereitgestellt und sollte nicht als Rechts-, Geschäfts-, Anlage- oder Steuerberatung angesehen werden. Sie sollten diesbezüglich Ihre eigenen Berater konsultieren. Verweise auf Wertpapiere oder digitale Vermögenswerte dienen nur der Veranschaulichung und stellen keine Anlageempfehlung oder ein Angebot zur Erbringung von Anlageberatungsdiensten dar. Darüber hinaus richtet sich dieser Inhalt nicht an Anleger oder potenzielle Anleger und ist nicht für die Verwendung durch diese bestimmt, und es darf unter keinen Umständen darauf vertraut werden, wenn eine Entscheidung getroffen wird, in einen von a16z verwalteten Fonds zu investieren. (Ein Angebot zur Investition in einen a16z-Fonds wird nur durch das Privatplatzierungsmemorandum, den Zeichnungsvertrag und andere relevante Unterlagen eines solchen Fonds abgegeben und sollte vollständig gelesen werden.) Alle erwähnten, erwähnten oder erwähnten Investitionen oder Portfoliounternehmen oder Portfoliounternehmen Die beschriebenen Investitionen sind nicht repräsentativ für alle Investitionen in von a16z verwaltete Vehikel, und es kann nicht garantiert werden, dass die Investitionen rentabel sind oder dass andere Investitionen in der Zukunft ähnliche Merkmale oder Ergebnisse aufweisen werden. Eine Liste der Investitionen von Fonds, die von Andreessen Horowitz verwaltet werden (mit Ausnahme von Investitionen, für die der Emittent a16z keine Genehmigung zur öffentlichen Offenlegung erteilt hat, sowie unangekündigte Investitionen in öffentlich gehandelte digitale Vermögenswerte) ist unter https://a16z.com/investments verfügbar /.

Die darin bereitgestellten Diagramme und Grafiken dienen ausschließlich zu Informationszwecken und sollten bei Anlageentscheidungen nicht als verlässlich angesehen werden. Die Wertentwicklung in der Vergangenheit ist kein Hinweis auf zukünftige Ergebnisse. Der Inhalt spricht nur zum angegebenen Datum. Alle Prognosen, Schätzungen, Prognosen, Ziele, Aussichten und/oder Meinungen, die in diesen Materialien geäußert werden, können ohne Vorankündigung geändert werden und können von den Meinungen anderer abweichen oder ihnen widersprechen. Weitere wichtige Informationen finden Sie unter https://a16z.com/disclosures.

Zeitstempel:

Mehr von Andreessen Horowitz