Metas nächstes KI-Gambit? Gerüchten zufolge soll Llama 3 Anfang 2024 erscheinen – Entschlüsseln

Metas nächstes KI-Gambit? Gerüchten zufolge soll Llama 3 Anfang 2024 erscheinen – Entschlüsseln

Die Neugier auf Metas nächsten großen Schritt im Rennen um die Vorherrschaft in der künstlichen Intelligenzlandschaft erreicht ihren Höhepunkt. Da das im Juli veröffentlichte generative Textmodell „Llama 2“ auf dem Markt gut etabliert ist, suchen KI-Beobachter hungrig nach Anzeichen von „Llama 3“.

Glaubt man den Gerüchten der Branche, könnte die Fortsetzung seines Open-Source-Erfolgs durch den Tech-Giganten Anfang 2024 erscheinen.

Meta hat die Gerüchte nicht offiziell bestätigt, aber Mark Zuckerberg hat kürzlich etwas Licht in die Zukunft von Metas LLMs (großen Sprachmodellen) geworfen, beginnend mit der Bestätigung, dass Llama 3 in Arbeit ist. Er sagte jedoch, dass das neue grundlegende KI-Modell immer noch auf der Strecke bleibt, während die Priorität weiterhin darin besteht, Llama 2 zu verfeinern, um es verbraucherfreundlicher zu machen.

„Ich meine, es gibt immer ein anderes Modell, das wir trainieren“, sagte er in einem Podcast-Interview, das sich darauf konzentrierte die Schnittstelle zwischen KI und dem Metaversum„Wir haben Llama 2 trainiert und es als Open-Source-Modell veröffentlicht, und im Moment besteht die Priorität darin, es in eine Reihe von Verbraucherprodukten zu integrieren …“

„Aber ja, wir arbeiten auch an den zukünftigen Stiftungsmodellen, und ich habe dazu nichts Neues oder Neuigkeiten“, fuhr er fort. „Ich weiß nicht genau, wann es fertig sein wird.“

Obwohl Meta die Gerüchte nicht offiziell bestätigt hat, deuten Muster in den Entwicklungszyklen und hohe Hardware-Investitionen auf eine bevorstehende Markteinführung hin. Für Llama 1 und Llama 2 gab es sechsmonatige Trainingsintervalle, und wenn dieser Rhythmus anhält, könnte das neue Llama 3 – das mutmaßlich auf Augenhöhe mit OpenAIs GPT-4 sein wird – in der ersten Hälfte des Jahres 2024 auf den Markt kommen.

Der Spekulation mehr Tiefe verleihen, Reddit-Benutzer LamaShill hat eine umfassende Analyse der historischen Modellentwicklungszyklen von Meta vorgelegt.

Das Training von Lama 1 erstreckte sich von Juli 2022 bis Januar 2023, wobei Lama 2 bis Juli 2023 folgte, schlug der Benutzer vor und legte damit eine plausible Bühne für das Training von Lama 3 von Juli 2023 bis Januar 2024. Diese Erkenntnisse stimmen mit der Erzählung einer Meta überein strebt unermüdlich nach KI-Exzellenz und ist bestrebt, seine nächste Weiterentwicklung vorzustellen, die mit den Fähigkeiten von GPT-4 Hand in Hand gehen könnte.

Mittlerweile gibt es Tech-Foren und Social Media sind voller Begeisterung Diskussionen darüber, wie diese neue Iteration den Wettbewerbsvorteil von Meta wiederherstellen könnte. Die Tech-Community hat aus den verfügbaren Informationen auch einen wahrscheinlichen Zeitplan zusammengestellt.

Fügen Sie dazu noch ein bisschen Twitter-Hiersay hinzu: ein Gespräch, das Berichten zufolge in einem „Meta GenAI“-Social-Media-Netzwerk belauscht und später vom OpenAI-Forscher Jason Wei getwittert wurde. „Wir haben die nötige Rechenleistung, um Llama 3 und 4 zu trainieren“, sagte eine nicht identifizierte Quelle laut Wei – und bestätigte weiterhin, dass es auch Open-Source sei.

Unterdessen unterstreicht die Partnerschaft des Unternehmens mit Dell – die Bereitstellung von Llama 2 vor Ort für Unternehmensanwender – sein Engagement für die Kontrolle und Sicherheit personenbezogener Daten, ein Schritt, der sowohl strategisch als auch zeitgemäß ist. Da Meta sich darauf vorbereitet, mit Giganten wie OpenAI und Google auf Augenhöhe zu stehen, ist dieses Engagement von entscheidender Bedeutung.

Da Meta auch KI in viele seiner Produkte integriert, ist es für das Unternehmen sinnvoll, seinen Einsatz zu erhöhen, um nicht ins Hintertreffen zu geraten. Llama 2 unterstützt Meta AI und andere Dienste wie die Chatbots von Meta, die generativen Dienste von Meta und die KI-Brille von Meta, um nur einige zu nennen.

Inmitten dieses Wirbelsturms an Spekulationen haben Mark Zuckerbergs Überlegungen zum Open-Source-Spiel „Llama 3“ nur dazu gedient, zu faszinieren und zu rätseln. „Wir bräuchten einen Prozess, um dies zu redteamieren und sicher zu machen“, teilte Zuckerberg kürzlich in einem Podcast mit dem Informatiker Lex Fridman mit.

Llama 2 verfügt über eine mehrstufige Architektur mit Versionen, die 7 Milliarden, 13 Milliarden und robuste 70 Milliarden Parameter bieten, die jeweils für unterschiedliche Komplexitätsstufen und Rechenleistung geeignet sind. Parameter in LLMs dienen als neuronale Bausteine, die die Fähigkeit des Modells definieren, Sprache zu verstehen und zu generieren, wobei die Anzahl der Parameter oft mit der Komplexität und potenziellen Ausgabequalität des Modells korreliert.

Das KI-Kraftpaket wurde auf einem umfangreichen Korpus von trainiert 2 Billionen TokenDies untermauert seine Fähigkeit, in einer Vielzahl von Themen und Kontexten zu navigieren und menschenähnlichen Text zu generieren.

Bild mit freundlicher Genehmigung von Meta

Im Hintergrund werden auch die Hardware-Grundlagen gelegt. Als berichtet by Entschlüsseln, Meta stattet ein Rechenzentrum mit Nvidia H100s aus, einer der leistungsstärksten Hardwarekomponenten für das KI-Training – ein klares Zeichen dafür, dass die Räder in Bewegung sind.

Doch trotz aller Aufregung und Spekulationen bleibt die Wahrheit im Firmengeheimnis verborgen.

Metas Absichten, im KI-Bereich zu konkurrieren, werden weitgehend von den erforderlichen Schulungszeiten, Hardware-Investitionen und der Open-Source-Frage geprägt. Mittlerweile ist die Vorfreude ebenso spürbar, wie eine Veröffentlichung von Llama 2024 im Jahr 3 wahrscheinlich ist.

Herausgegeben von Ryan Ozawa.

Bleiben Sie über Krypto-News auf dem Laufenden und erhalten Sie tägliche Updates in Ihrem Posteingang.

Zeitstempel:

Mehr von Entschlüsseln